Convergencias - Peter Watson

Convergencias - Peter Watson

Citas

«Qué maravillosa sensación la de reconocer la unidad en un conjunto de fenómenos que a la observación directa se muestran como cosas distintas.»
Albert Einstein

«La historia de la ciencia nos enseña una y otra vez que ampliando nuestro conocimiento podemos llegar a reconocer relaciones entre grupos de fenómenos que hasta entonces parecían inconexos.»
Niels Bohr

«Siguiendo las flechas de las explicaciones hasta su fuente, hemos descubierto un fascinante patrón de convergencia, tal vez lo más profundo que hayamos descubierto nunca sobre el universo.»
Steven Weinberg

«Nos hallamos en un momento de gran convergencia en el que datos, ciencia y tecnología se aúnan para desentrañar el mayor de los misterios: nuestro futuro como individuos y como sociedad.»
Albert-László Barabási

«No estaremos satisfechos hasta que podamos representar todos los fenómenos físicos como la interacción de un gran número de unidades estructurales intrínsecamente semejantes.»
Arthur Eddington

«A la naturaleza le place la simplicidad.»
Isaac Newton

«Todo está hecho de una sola sustancia oculta.»
Ralph Waldo Emerson

«Todos ansiamos secretamente una teoría definitiva, un conjunto de reglas maestras del que fluya toda verdad.»
Robert Laughlin

«La realidad, en su concepción moderna, se nos manifiesta como un fabuloso orden jerárquico de entidades organizadas que, mediante una superposición a muchos niveles, nos lleva de los sistemas físicos y químicos a los biológicos y sociológicos.»
Ludwig Von Bertalanffy

«A medida que avanza el conocimiento científico, se nos manifiestan relaciones entre fenómenos hasta entonces inconexos.»
George Gaylord Simpson

«El reduccionismo es el más fino escalpelo de la ciencia.»
Edward O. Wilson

«Hemos heredado de nuestros antepasados un anhelo vehemente por el conocimiento global y unificado.»
Erwin Schrödinger

«La búsqueda de los ingredientes elementales que constituyen el universo y las más profundas leyes que rigen sus interacciones podría concluir algún día. Cuanto más profunda es nuestra indagación, más simples y unificadas se tornan las leyes, y pudiera ser que hubiera un límite para este proceso.»
Brian Greene

«La biología presupone la física, pero no al contrario.»
Rudolf Carnap

«Hubo un tiempo en el que había física y había química, pero no biología.»
Julius Rebek

«La matemática puede poner de manifiesto la unidad subyacente de fenómenos que de otro modo no parecen relacionados.»
Steven Strogatz

«Vivimos en un mundo lo bastante ordenado para que medirlo recompense.»
George Johnson

«Nuestra actividad cotidiana implica una perfecta confianza en la universalidad de las leyes de la naturaleza.»
Lucien Lévy-Bruhl

«Es obvio que ya no importa dónde acaba una disciplina y dónde comienza otra.»
Patricia Churchland

«En toda época hay un punto de inflexión, una nueva manera de ver y afirmar la coherencia del mundo.»
Jacob Bronowski

«La ciencia persigue tanto detectar el orden como crearlo.»
John Dupré

«No puede haber explicación que no precise mayor explicación.»
Karl Popper

Para David Henn y David Wilkinson

Prefacio
Convergencia: «la idea más profunda del universo»

A primeros de abril de 1912 llegó a la bulliciosa ciudad de Manchester, en el norte de Inglaterra, el físico danés Niels Bohr. Unos meses antes, al llegar de Dinamarca, no imaginaba que acabaría trabajando en el corazón industrial británico, donde un bosque de chimeneas despedía humo y hollín veinticuatro horas al día y donde Market Street, según se decía, era la calle más concurrida de toda Europa. Su primer destino se encontraba entre los «señoriales y apacibles» patios y colegios de Cambridge. Acababa de finalizar en Copenhague su tesis doctoral sobre la teoría electrónica de los metales y su intención era trabajar en Cambridge con J. J. Thomson, el director del Laboratorio Cavendish y el hombre que, en 1897, había descubierto el electrón como unidad fundamental de la materia, lo que le había valido un premio Nobel.
Pero aunque en las cartas que escribió a su prometida, Margrethe, Bohr siempre se mostró muy respetuoso con Thomson, Niels y «J. J.», como se le conocía, nunca llegaron a entenderse. El danés, un hombre grande, de complexión fuerte, había estudiado inglés en la escuela, pero hablaba con una sintaxis bastante formal y afectada, a lo que no ayudaba mucho el hecho de que intentase pulirla leyendo David Copperfield. Tampoco le favoreció que intentase granjearse la amistad de su director señalando algunos pequeños errores en su trabajo. Por su parte, el notoriamente distraído J. J. tardó varias semanas en leer la tesis de Bohr, vertida del danés por alguien que no era físico. (La expresión «partículas cargadas» había quedado traducida como «partículas gravadas»). Thomson, que para ser justos andaba muy ocupado como director del Cavendish, no parecía estar demasiado interesado en Bohr o en su trabajo.
Así estaban las cosas cuando, poco después de las Navidades, Ernest Rutherford llegó a Cambridge para pronunciar una conferencia durante una cena anual del Cavendish (un divertido evento entreverado de discursos y canciones). Bohr quedó hechizado. Rutherford era un hombre sencillo, rubicundo, ancho de hombros y con fama de soltar palabrotas cuando los experimentos no salían como esperaba. Era neozelandés, pero había hecho trabajo posdoctoral en Cavendish y luego en la Universidad McGill, en Canadá, antes de regresar a Manchester como catedrático. Después de ganar el premio Nobel en 1908 por sus investigaciones sobre la radiactividad, Rutherford había dejado atónito al mundo de la física una segunda vez, en mayo de 1911, cuando descubrió la estructura básica del átomo. Había demostrado entonces que el átomo era un poco como un sistema solar en miniatura, con un núcleo con carga positiva rodeado a gran distancia por electrones en órbita con una carga negativa equivalente. (Para ponerlo en contexto, en el átomo las proporciones del núcleo a la nube de electrones son del orden de un grano de sal en el Albert Hall de Londres. Dicho de otro modo, si el núcleo tuviera el tamaño de una pelota de baloncesto, los electrones estarían a unas tres manzanas de distancia. En términos reales, el mayor de los átomos es el del cesio, un metal alcalino de color entre dorado y plateado, parecido al potasio, descubierto en 1860, cuyo diámetro es de solamente 0,0000005 milímetros, o 5 × 10-7 mm. Harían falta 10 millones de estos átomos, lado con lado, para cubrir la distancia entre dos puntas del margen aserrado de un sello de correos).
Tras escuchar a Rutherford, Bohr debió decidir allí mismo que quería trabajar con él, y concertó una entrevista personal a través de un amigo de su padre que vivía en Manchester pero había trabajado en Copenhague. Aquella fue una relación mucho más fructífera que la que había mantenido con J. J.; Rutherford diría más tarde que Bohr era el hombre más inteligente que había conocido jamás.
Era costumbre en el Laboratorio Cavendish que todo el personal se reuniera cada tarde, a la hora del té, con galletas y tostadas con mantequilla sobre las poyatas del laboratorio. Rutherford dirigía los debates desde lo alto de una banqueta de madera. Las discusiones no se limitaban a la física; todos los temas eran legítimos, desde el teatro hasta la política o los últimos automóviles, pero fue allí donde Rutherford propuso por primera vez que, ahora que ya se conocía la estructura básica del átomo, debería ser posible avanzar en el conocimiento de los elementos. Sus distintas propiedades, decía, debían estar relacionadas con la estructura del átomo, que determinaría, por ejemplo, por qué algunos elementos son metales y otros gases, o por qué algunos son reactivos y otros inertes. Sugirió también que las propiedades radiactivas de la materia residen en el núcleo, mientras que las propiedades químicas residen en los electrones, en el exterior.
El razonamiento era impecable, pero había algunos escollos. El primero, que la materia es estable y discreta: mientras que el hierro es rígido y duro, otros elementos son líquidos o gases. En las reacciones químicas, un elemento interactúa con otro produciendo una tercera sustancia, diferente de los reactivos y por lo general estable. Sin embargo, en el modelo de Rutherford y a la luz de la física clásica nadie podía entender por qué los electrones en órbita no perdían energía y describían espirales hasta precipitarse contra el núcleo. ¿De dónde salía esa estabilidad?
Cuando Bohr llegó a Manchester, Rutherford acababa de regresar de un congreso celebrado en Bélgica en el que había conocido a Albert Einstein y a Max Planck. Ambos habían introducido en la física el concepto de cuanto, la idea de que la energía se presenta en pequeños paquetes discretos en lugar de ser continua, como pretendía la física clásica. Por entonces era un concepto controvertido, pero le sugirió a Bohr la idea que lo haría famoso. Como escribiría más tarde: «En la primavera de 1912 llegué al convencimiento de que la constitución electrónica del átomo de Rutherford estaba regida en su totalidad por el cuanto de acción».
Tras cuatro meses en Manchester, Bohr regresó en julio a Copenhague para casarse. Durante los meses siguientes refinó sus ideas hasta mostrar que el átomo estaba formado por una «unión» sucesiva de electrones. «Un electrón libre tras otro se verían atraídos hacia el sistema solar atómico hasta que el número de electrones igualara la carga del núcleo y el sistema completo fuese neutro [1]». Sin embargo, y esta fue su verdadera contribución, argumentó que la energía de unión existía en paquetes discretos, o cuantos, de manera que los electrones solo podían ocupar ciertos estados estables en órbita en torno al núcleo a distintos radios. Bajo determinadas condiciones (por ejemplo, en las reacciones químicas), el electrón podía moverse entre órbitas pero solamente mediante cuantos de acción, saltos discretos de un tamaño mínimo. La disposición de estas órbitas no solo explicaba la estabilidad de la materia, sino también las diferencias entre elementos. El número de electrones en órbitas sucesivas, y sobre todo los más exteriores, conferían a los elementos sus propiedades características.
En un principio, las ideas de Bohr eran, en palabras de algunos historiadores de la ciencia, «intuitivas», incluso «filosóficas». Sin embargo, aunque Rutherford era un experimentador avezado y desconfiaba de la teoría, apoyó a Bohr y le ayudó a publicar sus ideas en tres artículos pioneros que salieron a la luz en 1913. En estos artículos, hoy conocidos como «la trilogía», Bohr explicaba el encaje de los elementos en la tabla periódica, la disposición de los electrones en órbitas concéntricas relacionadas con el peso atómico del elemento, las relaciones entre elementos con propiedades parecidas y por qué algunos eran más reactivos que otros, dependiendo de la disposición de los electrones en las órbitas más externas.
En otras palabras, Bohr había unificado la física y la química. Fue una de las unificaciones de la ciencia más importantes y fascinantes, y «la trilogía» de Bohr lo llevó a ganar el premio Nobel de Física de 1922.
No obstante, sería más correcto decir que Bohr casi había unificado la física y la química. En el momento de la ceremonia de los premios Nobel de 1922, todavía quedaba por resolver un incómodo problema. Por aquel entonces existía una laguna en el número 72 de la tabla periódica. De acuerdo con la teoría de Bohr, el elemento que faltaba tenía que parecerse al circonio (número 40) y al titanio (número 22), dos elementos de la misma columna de la tabla periódica, y no a las tierras raras que ocupaban las posiciones adyacentes. Pero en mayo de 1922 la cuestión del elemento 72 dio un giro nuevo y dramático. Unos científicos franceses anunciaron el descubrimiento de un nuevo elemento de las tierras raras que colocaron en el número 72 de la tabla periódica y bautizaron como celtio, por Francia [2]. Si el celtio resultaba ser una tierra rara, la teoría de Bohr no quedaría en muy buen lugar.
Al partir de su nativa Copenhague de camino a Estocolmo para la ceremonia de los premios Nobel, había dejado a dos de sus colaboradores trabajando en el problema. Investigaban minerales de circonio mediante análisis espectrográfico por rayos X. Demostrando un sentido del ritmo y el tiempo que enorgullecería a cualquier director de teatro, los dos ayudantes enviaron un telegrama a Bohr justo la noche antes de la ceremonia de los Nobel para comunicarle que aquel elemento tanto tiempo ignorado se había descubierto por fin y que sus propiedades químicas a nada se parecían más que a las del circonio. El nuevo elemento recibió el nombre de hafnio, por Hafnia, el antiguo nombre de Copenhague. Cuando Bohr pronunció su discurso de recepción del Nobel (como todos los galardonados, el día después de la ceremonia de los premios) pudo anunciar su último hallazgo, que en efecto confirmaba que su teoría unificaba la física y la química.

* * * *

En 1913, el mismo año en que Bohr iniciaba sus investigaciones sobre la estructura del átomo, Andrew Ellicott Douglass iniciaba sus propias pesquisas, pero no tendría la suficiente confianza para publicarlas hasta 1928-1929. Se trataba de la ciencia de la dendrocronología, que sacaba partido de los vínculos entre astronomía, climatología, botánica y arqueología.
Leonardo da Vinci dejó escrito en sus cuadernos un breve párrafo en el que observa que los años húmedos y los secos quedan registrados en los anillos de los árboles. La misma observación hizo en 1837 Charles Babbage, más célebre como el hombre que diseñó las primeras calculadoras mecánicas, los antepasados de las computadoras. Pero Babbage añadió la idea de que los anillos de los árboles se podían relacionar con otras formas de datación. Durante generaciones, nadie persiguió esa idea hasta que Douglass, un físico y astrónomo americano, director del Observatorio Steward de la Universidad de Arizona, dio un gran salto conceptual.
Su interés científico se centraba en el efecto de las manchas solares sobre el clima de la Tierra y, como otros astrónomos y climatólogos, sabía que, a grandes rasgos, cada once años más o menos, cuando la actividad de las manchas solares es máxima, la Tierra es azotada por lluvias y tempestades, con la consecuencia de que plantas y árboles gozan de una humedad por encima de la media. Para demostrar este vínculo, Douglass necesitaba probar que esa regularidad se mantenía durante mucho tiempo. Para hacerlo, los detalles incompletos y ocasionales que sobre el tiempo ofrecían, por ejemplo, los periódicos, eran terriblemente inadecuados. Fue entonces cuando Douglass recordó algo que había visto de niño, una observación familiar para cualquiera que haya crecido en el campo. Cuando se serra un árbol y se extrae el tronco, dejando solo el tocón, se puede apreciar un gran número de anillos concéntricos. Todos los leñadores, jardineros y carpinteros saben, pues forma parte del conocimiento de su profesión, que los anillos de los árboles son anuales. Sin embargo, lo que Douglass observó, y en lo que nadie había pensado lo suficiente, fue que los anillos tienen grosores distintos: unos años son estrechos y otros más anchos. Douglass se preguntó si eso se debía a que los anillos anchos representaban años que la Biblia llama de «vacas gordas» (es decir, lluviosos) y los anillos finos correspondían a los años de «vacas flacas», los secos.
Era una idea sencilla pero inspirada, cuando menos porque era fácil de contrastar. Douglass se dedicó a comparar los anillos más externos de un árbol recién cortado con los registros meteorológicos oficiales de los años recientes. Para su satisfacción, descubrió que su suposición se ajustaba a los hechos. Entonces decidió ir más atrás en el tiempo. Algunos árboles de Arizona, donde vivía, tenían más de trescientos años. Si examinaba los anillos hasta la médula del tronco, podría reconstruir las fluctuaciones climáticas de aquella región durante los últimos siglos. Y así fue. Cada once años, coincidiendo con la actividad de las manchas solares, había habido un periodo de «vacas gordas», varios años de anillos anchos. Douglass había demostrado su idea: la actividad de las manchas solares (astronomía), el clima y los anillos de los árboles estaban relacionados [3].
Pero ahora le veía otros usos a su nueva técnica. En Arizona, la mayoría de los árboles eran pinos y no llegaban más atrás de 1450, justo antes de la invasión europea de América. Al principio, Douglass obtuvo una muestra de árboles que los españoles habían talado en los albores del siglo XVI para construir sus misiones. Entonces escribió a varios arqueólogos del suroeste americano, pidiéndoles muestras (testigos) de la madera de sus yacimientos. Earl Morris, que trabajaba en unas ruinas aztecas a unos ochenta kilómetros de Pueblo Bonito, un yacimiento prehistórico de Nuevo México, y Neil Judd, que excavaba en el propio Pueblo Bonito, le enviaron muestras. Estas «casas grandes» aztecas parecían haberse construido al mismo tiempo, a juzgar por su estilo y los objetos que se habían hallado. Pero en la América del Norte de la antigüedad no se habían escrito calendarios, de modo que nadie había logrado datar con exactitud aquellos pueblos. Poco tiempo después de recibir las muestras de Morris y Judd, Douglass pudo agradecérselo con un bombazo: «Os gustará saber —escribió en una carta— que la última viga del techo de las ruinas aztecas se taló apenas nueve años antes que la última viga de Bonito [4]».
Había nacido una nueva ciencia, la dendrocronología, y Pueblo Bonito fue el primer problema clásico que ayudó a resolver. Mediante la superposición de testigos de árboles de distintas edades talados en distintos momentos, Douglass consiguió obtener una serie ininterrumpida de anillos del suroeste de América del Norte que se remontaba primero hasta el año 1300, luego hasta el 700. Entre otras cosas, la secuencia reveló la gran sequía de 1276 a 1299, que explicaba que por aquel entonces se hubiese producido una gran migración de indios pueblo, un enigma que durante décadas había mantenido perplejos a los arqueólogos. La botánica había resuelto uno de los principales problemas de la arqueología.

* * * *

Un tercer tipo de unificación tuvo lugar tras la segunda guerra mundial. Por aquel entonces, uno de los principales problemas de la psicología era el gran número de niños sin hogar en la Europa de la posguerra. Francia, Holanda, Alemania y Rusia, además de Gran Bretaña, habían sufrido fuertes bombardeos y el grave trastorno de la vida familiar que conllevan. John Bowlby, un psiquiatra y psicoanalista infantil y director del Departamento Pediátrico de la Clínica Tavistock de Londres, recibió en 1949 el encargo de escribir un informe para la Organización Mundial de la Salud (OMS) acerca de la salud mental de aquellos niños sin hogar. La preparación del informe le brindó a Bowlby la oportunidad de hablar con muchos profesionales durante sus visitas por Francia, Holanda, Suecia, Suiza y Estados Unidos.
Los viajes internacionales de Bowlby no tardarían en llevarlo a la unificación de la pediatría, el psicoanálisis y la etología (en particular el estudio de la conducta animal dentro de un contexto evolutivo), y haría más sólida la idea del inconsciente, que pasaría de ser un concepto filosófico/psicológico a ser una entidad biológica bien fundada. Su unificación de estas disciplinas se vio sometida a feroces ataques por parte de los psicoanalistas de su tiempo, decididos a resistir aquella «biologización» de su disciplina. Pero Bowlby se mantuvo firme, y la historia le ha dado la razón.
El informe de Bowlby fue redactado en seis meses y publicado en 1951 por la OMS con el título Maternal Care and Mental Health [Los cuidados maternos y la salud mental]. Se tradujo a catorce idiomas y se vendieron 400.000 copias de la edición inglesa en rústica. Una segunda edición, titulada Child Care and the Growth of Love [El cuidado infantil y el crecimiento del amor] fue publicada más tarde por Penguin [5].
Fue este informe lo que para mucha gente confirmó que los primeros meses de la vida de un niño son cruciales, e introdujo la expresión clave «privación materna» para describir la fuente de una patología general del desarrollo infantil, cuyos efectos se habían encontrado muy extendidos. Los bebés que habían carecido de un cuidado materno adecuado eran «apáticos, callados, infelices e indiferentes a una sonrisa o un arrullo» y luego eran menos inteligentes, a veces cerca de la deficiencia. Igual de importante es el hecho de que Bowlby llamó la atención sobre un gran número de estudios que mostraban que las víctimas de la privación materna no lograban desarrollar la capacidad de mantener relaciones con otros, o de sentirse culpables de su fracaso. Eran niños que o «ansiaban el afecto» o «carecían de afecto». Bowlby mostró también que los grupos de delincuentes estaban formados por personas que, con mayor probabilidad que sus equivalentes no delincuentes, provenían de hogares rotos donde, por definición, la privación materna era frecuente.
Todo aquello fue un gran logro para Bowlby, pero más tarde, en 1951, a través del eminente biólogo Julian Huxley conoció las investigaciones del etólogo Konrad Lorenz, en particular su artículo de 1935 sobre la impronta. Este célebre estudio muestra que, en cierta fase crítica, los pollos de ganso expuestos a un estímulo (el propio Lorenz en el célebre caso), adquieren un vínculo, una «impronta», con ese estímulo. Las fotografías y la película de Lorenz seguido allí donde fuera por una línea de ansarinos cautivaba la imaginación de todos cuantos los veían. Desde ese momento, Bowlby acogió la etología como una nueva disciplina que podía relacionarse con la pediatría y el psicoanálisis, enriqueciéndolos, y que con el tiempo ayudaría a refinar el concepto del inconsciente. Se le unió en Tavistock Mary Ainsworth, una canadiense que se había mudado temporalmente a Londres acompañando a su esposo, que había sido destinado allí, y luego a Uganda hasta acabar en Baltimore. Allí llevó a cabo estudios paralelos utilizando diversas técnicas de observación, además de comparaciones etológicas con otras especies (por ejemplo, la interacción madre-hijo en los monos), hasta desarrollar juntos la idea que habría de hacerse famosa como «teoría del apego [6]».
La importancia de esta teoría radicaba en que demostraba que vincular una ciencia con otra podía amplificar el conocimiento gracias al apoyo mutuo entre las disciplinas, y conducir a nuevos métodos de tratamiento. El lazo establecido por Bowlby y Aisnworth entre la pediatría y la etología situaba el vínculo entre madre e hijo, y la motivación inconsciente que resulta de este, en un firme y familiar fundamento biológico y, lo que no es menos importante, en un contexto evolutivo. De acuerdo con la teoría de Bowlby-Ainsworth, el apego era una respuesta instintiva (como la impronta) con la función de vincular el bebé en un periodo crítico a la madre, y viceversa, y de este modo aumentar la aptitud (fitness) evolutiva de la descendencia [7].
Además, según Bowlby, a consecuencia de todo esto el niño adquiere de sí mismo un «modelo interno de trabajo» como ser valioso y fiable o, al contrario, indigno e incompetente. Esta fue, para Bowlby, la mejor manera de entender el inconsciente. Los «modelos internos de trabajo» se adquieren durante el primer año de vida, mucho antes que las palabras, y se tornan cada vez menos accesibles a la conciencia a medida que se hacen habituales y automáticos. Esto se debe a que, sobre todo en los patrones diádicos de relación (prácticamente todos los disponibles a esa edad), los requisitos de expectativas recíprocas se forman con una fuerza excepcionalmente fuerte en un entorno tan limitado [8]. Aquello que, antes de Freud, había comenzado la vida como una entidad puramente filosófica/psicológica ahora tenía una firme base biológica.

Del Big Bang a la gran historia
Estos tres ejemplos que se refieren a materias muy dispares, implican a muchos países y se extienden a lo largo de varias décadas nos sirven para introducir el tema de este libro.

Convergencias es una historia de la ciencia moderna pero con un giro peculiar. Un giro que ya he mostrado, pero no he presentado todavía con la claridad que merece. El argumento es que las distintas disciplinas, a pesar de tener áreas de interés y orígenes aparentemente muy distintos, se han ido acercando de manera gradual durante los últimos 150 años, convergiendo y fundiéndose hasta identificar una extraordinaria narración maestra, una historia maravillosamente bien trabada y coherente: la historia del universo. Entre sus logros se cuenta el descubrimiento de las íntimas conexiones entre la física y la química. Lo mismo puede decirse de los vínculos entre la química cuántica y la biología molecular. La física de partículas se ha vinculado con la astronomía y con los orígenes de la evolución del universo. La pediatría se ha enriquecido con las ideas de la etología, mientras que hoy la psicología se asocia con la física, la química e incluso la economía. La genética se ha armonizado con la lingüística, la botánica con la arqueología, la climatología con el mito, y así tantas otras ciencias. Se ha logrado explicar la Gran Historia, la narración maestra de las trayectorias de las grandes civilizaciones del mundo, enriquecida con la trabazón de las ciencias. Es una idea simple pero de consecuencias profundas. La convergencia es, en palabras del premio Nobel Steven Weinberg, «lo más profundo del universo».
Esta historia de la convergencia de las ciencias, de su síntesis, cohesión y coherencia, nos ofrece una línea del tiempo de la historia sobre la cual se pueden situar todos los grandes descubrimientos realizados hasta nuestros días. No se trata en modo alguno de una línea recta, pero sí de una línea bien definida, no muy distinta de una larga y complicada espina dorsal, una columna con curvas formada por vértebras de distintos tamaños. Sostengo además que el orden que emerge de esta convergencia, y el modo en que una ciencia sirve de apoyo a otra, confiere al conocimiento científico una autoridad sin rival como forma de entendimiento y que, por consiguiente, debemos esperar que extienda su alcance en el futuro hacia campos que tradicionalmente no se han asociado con la ciencia. De hecho, ya lo está haciendo, y es un desarrollo que debemos acoger. La probada naturaleza interconectada de la ciencia nos sirve de guía de la investigación futura.
No todos los vínculos y solapamientos de la historia son igual de fuertes. La fusión de la física y la química que logró Niels Bohr fue fundamental, al igual que la posterior unión de la química cuántica y la biología molecular que debemos a Linus Pauling y otros (capítulo 9), o, en décadas más recientes, la vinculación de las partículas elementales con los inicios de la evolución del universo (capítulo 11), y el «endurecimiento» de la psicología, por ejemplo con los vínculos entre el comportamiento y la química del cerebro (capítulo 16). Lo mismo se puede decir de los solapamientos que también se han revelado entre la genética y la arqueología (capítulo 12). En otros tiempos, los solapamientos, aunque no exactamente triviales, resultaron ser más útiles y sugerentes que fundamentales. Un buen ejemplo es el de la cronología de los anillos de los árboles, pero también de otras tecnologías de datación científica, como el método del potasio/argón (capítulo 12), que nos muestran que no solo la botánica, sino también la física, la biología molecular y la genética, nos pueden ayudar a reconstruir la historia. Es importante observar que los distintos mecanismos de datación son coherentes entre sí, de modo que la historia antigua es hoy por hoy una rama interdisciplinar de la ciencia.
Además, y este es el argumento de fondo, todas las conexiones y solapamientos, todos los patrones y jerarquías que se han ido revelando, fundamentales o no, se entrelazan conceptualmente. No hay excepciones, por lo menos importantes. Los descubrimientos científicos se encuentran repetidamente, en toda suerte de maneras, apoyándose entre sí para contar una historia coherente y bien trabada. En un sentido importante, y por usar otra analogía, es como si esta historia tuviera su propia forma de gravedad, como si fuesen partículas de un gas que se enfría, y los distintos capítulos se fuesen uniendo hasta formar una narración sólida.
La narración nos lleva desde los orígenes del universo en un Big Bang hace 13.800 millones de años hasta la creación de las partículas elementales, la formación de los elementos más ligeros, luego los más pesados, la formación de las estrellas y los planetas, incluido nuestro sol, la evolución de la estructura a gran escala del universo (la forma en que se disponen las galaxias), la coalescencia de los gases que dio lugar a las rocas de la Tierra, el modo en que esas rocas se alinean como lo hacen, la evolución de la Tierra, el ir y venir de las eras glaciales, la configuración de los continentes en nuestro planeta, el porqué de la circulación de los océanos siguiendo una pauta concreta, dónde y cuándo se desarrollaron las formas de vida primitivas, el modo en que se formaron moléculas y organismos cada vez más complejos, cómo evolucionó el sexo, por qué los árboles y las flores tienen la forma que tienen, por qué son verdes las hojas, por qué algunos animales (entre ellos nosotros) se distribuyen por la Tierra como lo hacen, de qué modo las grandes catástrofes han dado origen a mitos muy extendidos e influido en nuestras creencias, de qué manera se desarrolló e hizo importante la precisión, por qué y cómo surgió la propia ciencia, para culminar (de momento) en la humanidad y las muy distintas civilizaciones que pueblan el planeta. Ciertamente, esta historia nos muestra por qué hay distintas civilizaciones que pueblan el planeta como lo hacen. La convergencia de las ciencias nos ayuda a explicar la mayor y única historia que hay: la Gran Historia.

Una épica historia de detectives y una nueva dimensión
No contaré la historia, sin embargo, comenzando por el principio y acabando por el final. Resulta mucho más revelador, más convincente y más emocionante contar la historia tal como surgió, tal como comenzó a encajar, pieza a pieza, capítulo a capítulo, convergiendo al principio con vacilaciones, pero cada vez con mayor rapidez, vigor y confianza. Los solapamientos y la interdependencia de las ciencias, los patrones y jerarquías de los descubrimientos en distintos campos, el orden subyacente que de forma gradual van desvelando, es sin duda uno de los aspectos más apasionantes de la ciencia moderna, tal vez el que más. Se trata, al fin y al cabo, de una historia de detectives colectiva y de dimensiones épicas. La convergencia y el orden emergente entre las ciencias, una forma de unidad incluso, es uno de los elementos más importantes y gratificantes del conocimiento científico, más aún por cuanto nadie lo estaba buscando.
Tampoco comienzo, como hacen muchas historias de la ciencia, por la antigua Grecia, con el llamado «hechizo jónico», ni con los descubrimientos de Copérnico y Galileo, o con la revolución científica del siglo XVII. Comienzo mucho más tarde, en la década de 1850 (una década crucial, como veremos), porque es entonces cuando comienza la convergencia, cuando las interconexiones y los solapamientos entre las distintas disciplinas empiezan a manifestarse en dos áreas fundamentales, añadiendo a la ciencia una nueva dimensión que hasta entonces no se había comprendido cabalmente.
Fue durante la década de 1850 cuando vio la luz la idea de la conservación de la energía, que sirvió para relacionar descubrimientos recientes en las ciencias del calor, la óptica, la electricidad, el magnetismo y la química de los alimentos y de la sangre. Casi de manera simultánea, la teoría de Darwin de la evolución por medio de la selección natural acercó las nuevas ciencias de la astronomía del espacio profundo, la geología del tiempo profundo, la paleontología, la antropología, la geografía y la biología. Estas dos teorías comprenden la primera gran convergencia, lo que significa que la década de 1850 fue de muchas maneras la más importante de los anales de la ciencia, y posiblemente los años que vieron el mayor salto intelectual de todos los tiempos: la comprensión del modo en que una ciencia apoya a otra, el inicio de una forma de entender distinta de cualquier otra. Intelectualmente, inició sin duda una nueva era.
Que yo sepa, nunca antes se ha contado la historia de la ciencia, o la historia del universo, de este modo. Este es el giro peculiar que, en mi opinión, distingue a esta historia de la ciencia.
Soy consciente de que algunos historiadores de la ciencia, científicos sociales y filósofos ponen objeciones a la idea de que exista unidad u orden en las ciencias. Contra ello argumento que la historia de la convergencia y el orden emergente que se describe en este libro hablan por sí mismos, y discuto varias de sus objeciones en la conclusión.
La idea de que las ciencias están vinculadas de alguna manera jerárquica no es nueva, por supuesto, y se conoce como reduccionismo. Aunque esta aproximación se ha criticado, y sobre todo durante los últimos veinte o treinta años pese a toda la evidencia que se acumulaba a su favor, la mayoría de los científicos más destacados han superado esas objeciones. Figuras como George Gaylord Simpson, Philip Anderson, Ilya Prigogine, Abdus Salam, Steven Weinberg y Robert Laughlin (los últimos cinco, galardonados con el premio Nobel) se han definido a sí mismos como entusiastas reduccionistas. Edward O. Wilson, el destacado sociobiólogo, lo dijo de este modo: «El reduccionismo es el más fino escalpelo de la ciencia».
Cuando estaba acabando este libro, me llegó la noticia de que unos investigadores habían insertado dos pequeños chips de silicio en la corteza parietal posterior de una persona tetrapléjica, noventa y seis electrodos microscópicos que podían registrar la actividad de un centenar de neuronas al mismo tiempo. Basándose en estudios previos con monos, que guiaron a los investigadores a un área específica del cerebro humano, determinaron que analizando los distintos patrones de ese centenar de células podían leer de manera fiable hacia dónde tenía el paciente la intención de mover su brazo paralizado. La información se utilizaba entonces, salvando su médula espinal dañada, para permitirle dirigir un brazo robótico y coger una cerveza o mover un cursor en un monitor de ordenador. Los investigadores podían incluso predecir lo rápido que deseaba mover el brazo, o si quería mover el izquierdo o el derecho. En un experimento relacionado, en el que se mostraba la actividad de neuronas individuales en una pantalla, se comprobó que el paciente podía modular la actividad de células concretas. Era un experimento muy específico. Una célula nerviosa, por ejemplo, podía incrementar su actividad cuando el paciente imaginaba que giraba el hombro, y reducirla cuando imaginaba que se tocaba la nariz. La especificidad del experimento, el hecho de que pudiera arrojar luz sobre las intenciones de aquella persona, no sobre sus movimientos realizados, ofrece una gran esperanza para el futuro, pero desde nuestra perspectiva lo importante es que lleva el reduccionismo a un nuevo nivel, uniendo todavía más la psicología y la física.

La belleza del orden profundo
Dicho esto, lo cierto es que todavía no hemos desvelado un orden último, y quizá no lo consigamos nunca. Pero el orden que ya ha emergido es bastante impresionante. El orden, en particular el orden espontáneo, constituye hoy uno de los grandes intereses de la ciencia (capítulo 18).
Además, como es natural, la historia que se cuenta en este libro es más que una narración, pues hay dos implicaciones más profundas del orden que produce la convergencia.
A la primera ya hemos aludido. Como la convergencia (el orden emergente) es tan fuerte y coherente, la ciencia como forma de conocimiento comienza a invadir otras áreas, otros sistemas de conocimiento tradicionalmente distintos de ella o incluso opuestos, y comienza a explicarlas y a hacer que progresen. La ciencia está invadiendo (y trayendo orden) a la filosofía, la moralidad, la historia, la cultura en general, incluso a la política (véanse los capítulos 14, 15 y 19). Los críticos objetan que eso es una forma de imperialismo intelectual, pero cada día nuestros periódicos vienen salpicados de noticias, por ejemplo, de las últimas investigaciones psicológicas sobre nuestra honestidad, generosidad, fiabilidad o propensión a la violencia. Este genio ya no se puede devolver a la botella.
No es exagerado decir que la coherencia y el orden globales que la convergencia de las ciencias revela está dando paso a una nueva fase de la historia. Ninguna otra forma de conocimiento posee la coherencia y el orden que ha producido la convergencia de las ciencias. Los métodos y la infraestructura de la ciencia son invaluables; son sin duda aspectos sin igual de la moderna democracia y modelarán la sociedad en todas sus manifestaciones, aún más en el futuro de lo que lo han hecho en el pasado, y con todo derecho. Esta es una historia esencialmente contemporánea.
El segundo aspecto del orden que está emergiendo está relacionado con el propio orden. El modo en que incluso la materia inanimada se organiza espontáneamente a sí misma en la naturaleza (sin el concurso, conviene aclarar, de ningún poder sobrenatural) se ha manifestado durante las últimas décadas como uno de los temas nuevos de mayor importancia. La propia idea de que existe un orden preexistente en la naturaleza, un orden profundo que subyace incluso a la «caoplejidad» (una mezcla de caos y complejidad), como parece que es el caso, suena a acertijo filosófico tan importante como cualquier otro. El orden espontáneo está siendo explorado por físicos, químicos, biólogos y matemáticos y se ha encontrado en las partículas elementales, en las moléculas, en los sistemas complejos, en los seres vivos, en el cerebro, en la matemática, incluso en el tráfico. Todo ello nos da una idea del lugar central que hoy ocupa este tema (capítulos 17 y 18). Un salto cualitativo en nuestro conocimiento de esta área podría tener consecuencias impresionantes, en particular para nuestra manera de entender la evolución (capítulo 18).
Así pues, no hay otra historia que se parezca a la que se cuenta en este libro. La convergencia es, como dice Steven Weinberg, y sin exagerar, la historia más fundamental que se puede imaginar.
Por último, no debemos pasar por alto el hecho de que el modo en que las ciencias se entrelazan puede ofrecernos cierto consuelo. Tal vez no un consuelo religioso, pero las ciencias convergentes, el orden emergente en la naturaleza, ciertamente parece ofrecer una satisfacción intelectual/filosófica, casi una forma de belleza y, sí, al menos por el momento, un misterio sobre el significado último que podría tener este orden. Ahí reside el poder de las ciencias convergentes para entusiasmar.

Introducción
«La unidad del mundo observable»

Comenzaremos a mediados del siglo XIX y en el más improbable de los lugares. Mientras caminaba por una playa de Cornualles en 1852, un paseante se topó con un trozo de madera que una tormenta reciente había arrastrado hasta la arena. Había algo escrito en la plancha: «MARY SOMERVILLE». El buque de ese nombre, que se había botado en 1834, había surcado los mares entre Liverpool, India y China transportando algodón, té y harina, y poco tiempo atrás había naufragado durante un viaje de retorno.
Aquel año, 1834, un rico armador de Liverpool, William Potter, le había pedido permiso a la verdadera Mary Somerville para bautizar un barco mercante en su honor y, al mismo tiempo, obtener una copia de un busto que se había hecho de ella para colocarla en su barco como mascarón de proa. El busto original, que se acababa de terminar, había sido esculpido por sir Francis Chantrey, el celebrado escultor de efigies de sociedad, que también había esculpido al rey Jorge III, al rey Jorge IV, al primer ministro William Pitt el Joven, al presidente George Washington y a los científicos James Watt y John Dalton. El busto había sido un encargo de los miembros de la Real Sociedad de Londres y se había colocado en la sede de la sociedad [9].
Tratándose de una mujer, nunca llegó a plantearse que Mary Somerville pudiera ser elegida miembro de la Real Sociedad; a las mujeres no se les permitió siquiera asistir a las conferencias hasta 1876. Sin embargo, tal como atestigua el encargo del busto y la dedicación de mercante, Mary había dejado su impronta. Y aunque no sea habitual, no es de ningún modo insatisfactorio comenzar un libro de ciencia con la historia de una mujer notable y que de forma excelente nos sirve para introducir el tema.
Había nacido con el nombre de Mary Fairfax en Jedburgh, en el concejo de los Scottish Borders, en diciembre de 1780. Su madre acababa de regresar de despedir a su esposo, un oficial de la marina, que se había embarcado en una serie de viajes de los que no regresaría antes del octavo aniversario de Mary. Durante esos años no había recibido ninguna educación formal y se le había permitido vivir «a su aire». Cuando su padre por fin regresó al hogar, le alarmó descubrir que Mary no dominaba competencias básicas como leer, escribir y hacer cuentas, «que necesitaría para convertirse en una buena esposa», de modo que la envió a un internado, donde le enseñaron baile, pintura, música, cocina, costura y «geografía elemental [10] ».
Sin embargo, tenía una mentalidad más seria y aprendió por su cuenta álgebra, empezando con problemas que encontraba en revistas populares. Pronto descubrió que poseía una aptitud natural para las matemáticas. También sentía pasión por los libros, y aunque carecía de fortuna, sí era afortunada por su belleza y, a los veintitrés años, contrajo matrimonio. Ella y su marido, el capitán Samuel Greig, se establecieron en Londres, donde él tenía una comisión en la marina rusa y era cónsul ruso. Tuvieron dos hijos, pero Mary se sentía sola en aquel matrimonio, y cuando su marido falleció inesperadamente, aunque inconsolable al principio, decidió regresar a Escocia [11]. Gozaba ahora de unos módicos ingresos, derivados de la posición que había ocupado su marido, que le permitieron cultivar el tipo de vida que deseaba. Sobre todo desde que conoció a su primo, William Somerville, que no tardó en proponerle matrimonio. Aquella sí era una pareja más avenida. Ambos tenían opiniones liberales en política, religión y educación y ambos estaban interesados en la ciencia. William, un médico militar, había hecho investigaciones pioneras de historia natural y exploración etnológica en Sudáfrica (aparte de otras responsabilidades militares, más secretas).

«La más extraordinaria mujer de Europa»
Fue entonces cuando la vida intelectual de Mary realmente despegó. La pareja se mudó primero a Edimburgo. Eran los tiempos de la Ilustración escocesa; muchos de los hombres de la ciudad tenían actitudes liberales acerca del papel de las mujeres, y entre las personas con las que podía compartir su interés por las matemáticas se encontraban gente de la altura de James Hutton y John Stuart Mill. Eran los mejores tiempos del Edinburgh Review, una de las mejores revistas periódicas de Gran Bretaña, o de cualquier lugar, pero a principios del siglo XIX los reformadores de la ciencia británica habían lanzado una nueva revista centrada en los retos de la matemática (una moda de la época). La publicación llevaba por título New Series of the Mathematical Repository, y en junio de 1811 Mary recibió la feliz noticia de que había ganado la pregunta con premio, por lo que recibió una medalla de plata con su nombre grabado [12].
James Secord, un historiador de la ciencia victoriana de la Universidad de Cambridge, dice de Mary que se sentía «más intensamente viva y realizada» en las matemáticas. Para ella, nos dice, «la práctica de la matemática era una suerte de práctica teológica… Para Somerville, la divina trascendencia del poder de Dios la experimentaban con mayor plenitud quienes, como ella, comprendían el lenguaje de las matemáticas». O, en palabras de Mary, «estas fórmulas, emblemáticas de la omnisciencia, resumen en unos pocos símbolos las leyes inmutables del universo. Este poderoso instrumento de la capacidad humana tiene su origen en la constitución primitiva de nuestra mente, y descansa sobre unos pocos axiomas fundamentales que eternamente han existido en él y que implantó en el pecho del hombre cuando lo creó a su imagen y semejanza». Desde el principio, Mary estaba interesada en cómo reducir la manifiesta diversidad del mundo a aquellos pocos axiomas fundamentales.
Entonces se mudaron a Londres, donde se hicieron populares en círculos científicos: al menos veintiséis de sus amigos habituales eran miembros de la Real Sociedad, «posiblemente el más distinguido cuerpo jamás comandado por un autor a lo largo de su vida [13] ». Mary Somerville no dejó que se le subiera a la cabeza. Estaba bien relacionada socialmente, pero se hizo famosa, dice Allan Chapman en su biografía, gracias a sus cartas, a su conversación y porque todo el Londres intelectual sabía que esta singular mujer había llegado a dominar las matemáticas más abstrusas de su época y mediante sus estudios había adquirido una profunda comprensión del funcionamiento de la ciencia física. Sir David Brewster, un físico y matemático que fue rector de las universidades de St. Andrews y de Edimburgo, la describió como «la más extraordinaria mujer de Europa [14] ».
A la larga, hubo dos cosas más que la hicieron destacar, aparte de su comprensión de las matemáticas. Como otros grandes aficionados de su época, participó en experimentos sencillos, en su caso sobre la conexión entre el magnetismo y la radiación solar [15]. Estos experimentos habían surgido de la excitación causada por el descubrimiento de Hans Christian Ørsted de una conexión entre magnetismo y electricidad (véase el capítulo 1), y los resultados que obtuvo fueron lo bastante interesantes para que William, su esposo y miembro de la Real Sociedad, los expusiera en ese foro. Los artículos resultantes se publicaron más tarde en las Philosophical Transactions de la sociedad, y de este modo llegaron a un grupo mucho más amplio de lectores. Se enviaron separatas a figuras tan destacadas como el astrónomo Pierre-Simon Laplace y el químico Joseph Louis Gay-Lussac en París, y al propio Ørsted en Copenhague.
Ante la solidez de sus logros, Henry Broughman le sugirió a Mary que escribiera sobre los Philosophiæ Naturalis Principia Mathematica de Newton y sobre el famoso libro de Laplace sobre el firmamento, Mécanique céleste, para el programa de publicaciones de la Sociedad para la Difusión del Conocimiento Útil (SDCU). Broughman, un excéntrico abogado escocés que estuvo detrás del espíritu de la Ley de Reforma de 1832, y era una de esas personas que parecía estar metida en todos los asuntos importantes, había fundado la SDCU en 1826 con el objetivo de divulgar el conocimiento hasta que «sea tan abundante y universalmente difundido como el aire que respiramos». La SDCU publicaba libros asequibles en entregas semanales sobre temas que iban de la elaboración de cerveza a la hidráulica y de los insectos a las antigüedades egipcias. Su iniciativa de mayor éxito fue Penny Magazine, una revista ilustrada que en su auge alcanzó una circulación de más 200.000 ejemplares [16].
Los primeros libros que salieron de la pluma de Mary eran demasiado detallados y minuciosos para los lectores de una revista de un penique, y por tanto nada adecuados para la SDCU. Mientras los escribía, le había dicho a Broughman que tendría que hablar del análisis matemático, y que eso sin duda los haría menos atractivos. Por suerte, John Murray, el editor de Londres, que también era un asiduo de la escena intelectual de la capital, se hizo con la obra, y así comenzó la exitosa carrera de Mary como divulgadora de la ciencia, la segunda cosa que la separaba del resto de mujeres. En total, escribió cinco libros: Mechanism of the Heavens [Mecanismos de los cielos] (1831), On the Connexion of the Physical Sciences [La conexión en las ciencias físicas] (1834), Physical Geography [Geografía física] (1848), On Molecular and Microscopic Science [Sobre la ciencia molecular y microscópica] (1869) y Personal Recollections [Memorias personales] (1874, póstumo).
El libro que nos interesa es el segundo, On the Connexion of the Physical Sciences, que se suele considerar su trabajo más importante. Lo preparó en lo más alto de su celebridad, cuando se estaba esculpiendo el busto de Chantrey para la Real Sociedad y cuando, un año más tarde, para envidia de muchos, el gobierno le concedería una pensión anual de 200 libras por sus servicios a la ciencia. (Más tarde ascendería a 300 libras, lo mismo que recibían Michael Faraday y John Dalton).
El argumento de Connexion era más perspicaz entonces de lo que podría parecer ahora. Su objetivo era revelar los lazos comunes, es decir, los vínculos, la convergencia entre las ciencias físicas en una época en la que se estaban afianzando como disciplinas separadas. Mary fue decididamente una mujer muy suya.

«Demostrando la unidad del mundo observable»
El objetivo declarado de su obra, tal como reflejaba su título, era acercar temáticas diversas de las ciencias físicas, que por aquel entonces estaban experimentado cambios sin precedentes. Otra vez en boca de Secord: «Gracias a su gran número de lectores, Connexion se convirtió en una obra clave para transformar la “filosofía natural” de los siglos XVII y XVIII en la “física” del siglo XIX, demostrando la unidad del mundo observable».
Una obra clave, como veremos, pero no la primera. El deseo de una visión que lo abarcase todo, incluso de un orden cósmico, se remonta a la Antigüedad, al menos hasta Aristóteles, y ha recibido el nombre de «hechizo jónico». La gran cadena del ser, derivada de Platón, Aristóteles y otros, especificaba una jerarquía que partía de la nada y atravesaba el mundo inanimado para llegar al reino de las plantas, pasando por los animales salvajes y domésticos hasta llegar a los seres humanos y, por encima de ellos, a los ángeles y otras «entidades inmateriales e intelectuales» hasta alcanzar en lo alto un ser superior o supremo, un término o absoluto. En la Edad Media, en su Summa Theologiae, Tomás de Aquino había intentado reconciliar la ciencia de Aristóteles y el cristianismo. Cuatrocientos años más tarde, Newton llevó el orden a los cielos y a otros ámbitos de la física, como el movimiento y la luz. La Ilustración se aferró a la idea de la unidad de todo el conocimiento, que Descartes veía como un sistema de verdades interconectadas que con el tiempo se podrían abstraer en las matemáticas, mientras que Condorcet se convertía en un pionero de la aplicación de las matemáticas a las ciencias sociales y Schelling proponía una «unidad cósmica» de todas las cosas, aunque creía que quedaba fuera del alcance del hombre. Linneo intentó poner orden en latín en el mundo de los seres vivos.
El enfoque de Somerville era mucho más moderno. Sin duda tenía claro en su mente lo que quería tratar, pero el término «ciencias físicas», que utiliza en el título, apenas comenzaba a formularse en aquella época. Varios filósofos habían intentado hacer de la física un cuerpo más unificado y coherente, y quienes tuvieron más éxito fueron John Playfair (1748-1819) y John Herschel (1792-1871). Ya en 1812, en el primer volumen de sus Outlines of Natural Philosophy [Esbozo de filosofía natural], Playfair declaraba con franqueza que su meta era «hacer un compendio de las verdades elementales de la filosofía natural… y ordenarlas de acuerdo con sus dependencias mutuas». Distinguía entre filosofía natural y química. Bajo el epígrafe de filosofía natural colocaba la dinámica, la mecánica, la estadística, la hidrodinámica, la astronomía, la óptica, la electricidad y el magnetismo. Su opinión, ampliamente compartida, era que la gravitación era el único principio «que impregna toda la naturaleza, conectando las regiones más alejadas del espacio, así como los más remotos periodos de duración». Playfair creía «probable» que se pudiera obtener un principio parecido para la materia no gravitacional [17].
En su Preliminary Discourse on the Study of Natural Philosophy [Discurso preliminar sobre el estudio de la filosofía natural], de 1831, Herschel utilizó la fuerza, el movimiento y la materia como base para categorizar las subdisciplinas de la ciencia. Creía que había dos grandes divisiones en la ciencia de las fuerzas, la dinámica y la estática, y que las subdivisiones eran: mecánica, cristalografía, acústica, luz y visión, astronomía y mecánica celestial, geología, mineralogía, química, calor, magnetismo y electricidad. Como se ve, tanteaban las semejanzas sin llegar a encontrarlas. Todavía estaban explorando las diferencias entre sustancias y procesos.
Mary Somerville también debía saber que desde el siglo XVIII los franceses reconocían «la physique… como una rama de la ciencia separada de las matemáticas, de un lado, y de la química, del otro». Las propiedades de la materia, el calor, la luz, la electricidad y el magnetismo, además de la meteorología, comprendían «la physique».
Connexion fue, por tanto, una especie de clímax para lo que era de hecho un movimiento desordenado y poco formado que en el siglo XIX pretendía imponer alguna forma de unidad en la filosofía natural. Su libro era enérgico, y quienes lo reseñaron lo alabaron precisamente por eso, por ordenar las ciencias físicas de una forma nueva. Mechanic’s Magazine consideró que el libro era tan importante que no debía descansar en una estantería. «Al contrario, lo que decimos es ¡leedlo, leedlo!». James Clerk Maxwell, cuya gran obra conoceremos en el capítulo 1, decía de Connexion que era uno de «esos libros sugerentes que dan una forma definida, inteligible y comunicable a las ideas directrices que ya están en las mentes de los hombres de ciencia y habrán de conducirlos a nuevos descubrimientos, pero que todavía no pueden formular con enunciados claros» [18].
Somerville presentaba las matemáticas como la más prometedora fuente de la unidad última, aunque aceptaba que eso implicaba que nunca estaría al alcance más que de unos pocos. Con esa idea en la mente, decidió presentar sus argumentos sobre las matemáticas sin utilizar ni una sola ecuación.
Escribió la mayor parte del libro en secreto, sin saber muy bien cómo se recibiría el hecho de que su autora fuese una mujer, aunque célebre en toda Europa por sus logros matemáticos (que es la razón de que Brougham le sugeriese el proyecto SDCU). Y, como la poetisa y dramaturga escocesa Joanna Baillie señaló enfáticamente, Somerville «ha hecho más por eliminar la baja estimación en que a menudo se tiene la capacidad de las mujeres, que todo lo que ha logrado la hermandad entera de damas autoras de poemas y novelas» [19].
La primera edición, de 2.000 ejemplares, se vendió por siete chelines y seis peniques y no tardó en agotarse. El libro se siguió imprimiendo durante más de cuarenta años, en diez ediciones. Fue traducido al alemán, francés e italiano, y unas editoriales de Filadelfia y Nueva York hicieron ediciones pirata. El Atheneum admitió que la obra era «a un tiempo un buen compañero para el filósofo en sus estudios y para la dama literaria en sus aposentos».

La búsqueda de patrones significativos y «niveles cada vez mayores de generalización»
La «conexión» del título de su obra se explicaba en un prefacio: «El progreso de la ciencia moderna, especialmente durante los últimos cinco años, es notorio por su tendencia a simplificar las leyes de la naturaleza y a unir ramas separadas mediante principios generales. En algunos casos, se ha hallado una identidad donde se creía que no había nada en común, como en el caso de las influencias eléctricas y magnéticas; en otros, como en el caso de la luz y el calor, se han señalado analogías que justifican la esperanza de que con el tiempo se logre referirlas al mismo agente; y en todo existe tal lazo de unión que ya no es posible alcanzar la competencia en una sin conocimiento de la otra». Y concluía: «Pueden ofrecerse innumerables ejemplos que ilustran la conexión inmediata entre las ciencias físicas, la mayoría de las cuales están estrechamente unidas por el lazo común del análisis, que día a día extiende su imperio y acabará por incluir casi todos los aspectos de la naturaleza en sus fórmulas» [20].
Kathryn Neeley nos recuerda que por aquel entonces los objetivos de la ciencia no eran los mismos que en la actualidad. Una de las diferencias era que, como la ciencia todavía no estaba profesionalizada ni era tan especializada como llegaría a ser con el tiempo, «la omnisciencia se mantenía como ideal intelectual». Nos recuerda también que los intelectuales de principios de la era victoriana se crecían en el debate y la controversia, «pero tomaban un enfoque unitario con respecto a la vida intelectual». Veían la cultura como un todo y tenían sentimientos encontrados respecto a la especialización porque amenazaba aquella unidad. La gente tenía que saber «algo de todo y todo de algo». John Herschel, que era amigo de Somerville, rechazó la presidencia de la Asociación Británica para el Avance de la Ciencia (BAAS, por sus siglas en inglés) porque temía que aquella organización promoviera la compartimentalización de la ciencia.
Este era un punto de vista esencialmente religioso que sostenía que la ciencia avanzaba alcanzando mayores niveles de generalización, un modo de ver las cosas que vio la luz primero en Alemania. «Estos niveles de generalización cada vez mayores solían adoptar la forma de nuevas leyes con mayor poder de explicación… un deseo de leyes cada vez más aplicables para interconectar fenómenos diversos… Unos niveles cada vez mayores de generalización se podían alcanzar de manera fiable solamente mediante la acumulación de mayores cantidades de información detallada y la búsqueda de analogías y patrones significativos [21] ». Cada victoriano de aquellos primeros tiempos veía su trabajo como parte de una «totalidad intelectual».
Más aún, este carácter unitario de la vida intelectual se veía como una manifestación de lo sublime. «La creencia predominante era que la ciencia no se podía enseñar bien sin hacer referencia a las verdades sublimes de la teología natural, y que el estudio científico de la naturaleza revelaba a Dios… En lo sublime científico, el lector enlaza con lo superior en forma de un encuentro con los atributos de Dios revelados en la naturaleza por la ciencia». La unificación se podía asimilar a un «poder agrandado», un poder del intelecto encarnado o manifestado en la ciencia. Todo esto encaja ciertamente con el modo de pensar de Mary Somerville, que decía que la coherencia era poder [22].

«Unidos por el descubrimiento de principios generales»
El libro recibió muchas críticas, casi todas favorables [23]. Posiblemente los comentarios más interesantes e influyentes fuesen los del número de marzo del Quarterly Review, de la pluma de William Whewell, master de Trinity College, en Cambridge, y autor de varios libros sobre la historia de la ciencia. Reconocía en su reseña que «desde hace mucho tiempo, y cada vez más, las ciencias han tendido a separar y desmembrar. Antiguamente, los “eruditos” abarcaban con su amplio abrazo todas las ramas del árbol del conocimiento; los Scaliger y Vossius de otrora fueron matemáticos al igual que filólogos, especuladores igual de la física que de la Antigüedad [i]. Pero esos días han pasado… Si un moralista, como Hobbes, se adentra en el dominio de las matemáticas, o un poeta, como Goethe, se atreve con el campo de la ciencia experimental, es recibido con contradicciones y animadversión… la desintegración continúa… la propia ciencia física se subdividide sin fin, y las subdivisiones se aíslan… El matemático se aparta del químico… el químico tal vez sea un químico de electroquímica, y, siendo así, deja el análisis químico común a otros… Y así la ciencia, incluso la simple ciencia física, pierde toda traza de unidad» [24].
Y, más adelante: «Una curiosa ilustración de este resultado se manifiesta en el deseo de hallar un nombre que sirva para designar de forma colectiva a los estudiosos del conocimiento del mundo material. Sabemos que esta dificultad la percibieron de forma muy opresiva los miembros de la Asociación Británica para el Avance de la Ciencia en los congresos celebrados en York, Oxford y Cambridge durante los últimos tres años [es decir, desde los mismos inicios de la BAAS]. No hallaron aquellos caballeros ningún término que les describiera con referencia a lo que estudiaban. Philosopher les pareció un término demasiado amplio y demasiado elevado, y les fue prohibido con toda propiedad por Mr. [Samuel Taylor] Coleridge en su capacidad de filósofo y metafísico; savants resultaba un tanto arrogante, aparte de ser francés y no inglés; algún ingenioso caballero [que en realidad se trataba de propio Whewell, aunque no lo dijera en su reseña] propuso que, por analogía con artist, se podía formar scientist, y añadió que no se debía tener ningún recelo de usar libremente este sufijo cuando ya poseemos palabras como sciolist, economist o atheist, pero la propuesta no fue del gusto de la mayoría; otros intentaron traducir el término que los miembros de asociaciones parecidas de Alemania utilizan para describirse a sí mismos, pero no resultó fácil hallar un equivalente inglés para natur-forscher. El proceso de examen que implica podría sugerir términos compuestos tan poco dignos como nature-poker o nature-peeper para esos naturae curiosi, pero todos ellos fueron rechazados con indignación» [ii].
Esta fue la primera vez que el término scientist (científico) vio la luz; a Whewell le gustaban los neologismos, y no se le daban nada mal. Aparte de scientist, acuñó la palabra physicist (físico) y le sugirió a Faraday ion, anode y cathode (ion, ánodo y cátodo).
Tras acuñar una palabra que con el tiempo se haría común, su reseña proseguía: «Las inconveniencias de esta división del suelo de la ciencia en parcelas infinitamente pequeñas se han sentido a menudo y han sido objeto de queja. Uno de los objetivos, según creo, de la Asociación Británica era poner remedio a estas inconveniencias reuniendo a quienes cultivan los distintos departamentos. Eliminar este mal de otra manera es uno de los objetivos del libro de Mrs. Somerville. Si comprendemos bien su propósito, este se satisface mostrando hasta qué punto, a lo largo de la historia de la ciencia, lo que eran ramas separadas han quedado unidas por el descubrimiento de principios generales».
Una de las razones de que Whewell se mostrase afín a Somerville es que, a su propia manera, al acuñar la palabra scientist se había embarcado en un proceso mental parecido al de la autora, poniendo el énfasis en las semejanzas entre las ciencias (incluyendo, en su caso, sus métodos), en lugar de centrarse en las diferencias. En su síntesis de 1840, The Philosophy of the Inductive Sciences [La filosofía de las ciencias inductivas], Whewell fue el primero en usar la palabra consilience (consiliencia) con el significado de «saltar juntos» los conocimientos «mediante la conexión de hechos y de teorías basadas en hechos de distintas disciplinas con el fin de crear un marco común para la explicación» [25].
Pero en realidad no pasaban de ahí las conexiones con Connexion. El libro constaba de treinta y siete secciones, más de 400 páginas, y trataba temas tan diversos como «Teoría lunar», «Perturbaciones de las órbitas planetarias», «Mareas y corrientes», «Leyes de la polarización» o «Electricidad por rotación o calor». No tenía ninguna estructura narrativa, ningún desplegamiento ambicioso de lógica, y la mayoría de las conexiones que se presentaban pertenecían a dos de esos estrechos temas, y no a principios totalizadores subyacentes (aparte de los matemáticos, más afines a Mary Somerville). Sobre el conocimiento del principio de la materia decía, por ejemplo, que era necesario para predecir sus efectos sobre la luz. Explicaba por qué podemos mirar el sol al atardecer, cuando se aproxima al horizonte, pero no a mediodía, cuando está en lo alto del cielo. El sonido puede reflejarse en las superficies, según las mismas leyes que la luz. Así pues, a la luz de lo que estaba a punto de producirse (las grandes teorías unificadoras de la conservación de la energía y la evolución por medio de la selección natural, que son los temas de la primera parte de este libro), las conexiones de Connexion son notables como un primer intento de construir esos vínculos. Sin embargo, en el gran esquema de las cosas, eran, según el veredicto de James Secord, «blandas» [26].
Su significación radica en su argumento general, expuesto en un momento en que las ciencias se estaban fragmentando, y en su oportunidad [27]. La décima edición de Connexion vio la luz en 1877, y ya no habría más, pues para entonces las dos grandes teorías unificadoras (posiblemente de todos los tiempos) ya se habían anunciado al mundo durante la misma década, la de 1850. Estaban bien desarrolladas y, como veremos, las conexiones que revelaban hacían que sin duda la argumentación de Mary Somerville, pese a toda su originalidad, pareciese blanda.

Una convergencia de inspiración divina
Para cuando apareció la última edición, en 1877, cinco años después de que Somerville falleciera, su obra ya estaba muy anticuada. Mary había alcanzado la venerable edad de noventa y dos años, y su falta fue muy sentida. Su influencia había sido tal que, dos años más tarde, Oxford le puso su nombre a un nuevo colegio universitario solo para mujeres que con el tiempo produciría un buen número de figuras no menos notables, entre ellas Indira Gandhi, Dorothy Hodgkin y Margaret Thatcher.
Para su autora, la lección fundamental de Connexion era religiosa. Mary Somerville se había rebelado contra las estrictas prácticas y tradiciones de la fe presbiteriana en la que había nacido, con su creencia en el pecado original, el infierno y la condenación. Las experiencias más intensas que había vivido habían sido con la naturaleza y, sobre todo, las matemáticas. Era allí donde, a su entender, se manifestaba Dios: en la pureza de las matemáticas y en la forma en que unas pocas ecuaciones unían la evidente diversidad del mundo observable. Esa unificación era prueba de una convergencia de inspiración divina que algún día podría llegar a término.
Ese vínculo con Dios ya no es una opinión tan extendida, pese a que, como se argumenta en este libro, las conexiones entre las ciencias son muchísimo más fuertes de lo que Mary tenía razones para pensar. No es desde luego culpa suya que cuando escribió su libro las ciencias todavía no hubiesen revelado más de su orden emergente. Pero el caso es que comenzaron a converger casi inmediatamente después de que se publicara Connexion y durante su propia vida. Y no han dejado de hacerlo.
La convergencia de las ciencias, y quizá su unidad potencial, es una historia por sí sola. Tal vez sea el aspecto más interesante de la historia de lo que a veces pueden parecer disciplinas distintas. En palabras del físico de Stanford y premio Nobel Robert Laughlin: «Todos secretamente ansiamos una teoría definitiva, un conjunto maestro de reglas del que fluya todo el conocimiento». En nuestra era secular, esa convergencia no apunta a Dios, pero ¿a qué apunta entonces?
A diferencia del libro de Mary Somerville, Convergencias sí tiene un hilo narrativo. De hecho, tiene dos. Uno es un relato cronológico que aparece aquí y allá, cuando un descubrimiento tras otro en diversas ciencias desvela lo que al principio eran fenómenos dispares pero, con el tiempo, comienzan a interconectarse. El segundo hilo narrativo es la historia de adónde nos conduce esta interconexión: a una explicación histórica unificada, y ordenada, del universo que habitamos y del lugar que ocupamos en esa totalidad. La forma fragmentaria en que se ha ido desgranando esta historia recuerda a una historia de detectives, o a un esfuerzo exitoso por descifrar un código. Y, para reiterar lo que ya se ha dicho, el discurso que surge de todo ello es más impresionante aún debido a que, al menos en un principio, nadie lo andaba buscando.
Volveremos sobre la cuestión de adónde nos lleva hoy ese discurso al final de este texto. Entretanto, lo que Mary Somerville comenzó nosotros intentaremos continuarlo.

Parte 1
Las ideas unificadoras más importantes de todos los tiempos

El mundo sabe que en 1851 la Gran Bretaña victoriana celebró una Gran Exposición en el Hyde Park de Londres, bajo una espectacular construcción nueva hecha casi enteramente de vidrio: el Palacio de Cristal. Durante cinco meses, seis millones de personas de veintiocho países visitaron la exposición, cuyo tema central, en palabras de un crítico de periódico londinense Times, era «Los presentes de la ciencia a la industria». En aquella época, probablemente sabían de la ciencia y de sus posibilidades prácticas más gente que en ningún otro tiempo anterior, algo más que oportuno, pues puede decirse que la década de la exposición en el Palacio de Cristal y la siguiente fueron las más importantes de la historia de la ciencia.
La mayoría de las historias de la ciencia comienzan con el hechizo jónico en la antigua Grecia, con las observaciones y descubrimientos de la astronomía copernicana-kepleriana-galileana-newtoniana, o con la fundación de la Real Sociedad en Londres y la Academia Real en París en la década de 1660, durante la llamada «revolución científica». Nuestro tema, el acercamiento de las ciencias o la gran convergencia, comienza más tarde, en la década de 1850. Y es que, además del Palacio de Cristal y todo lo que representaba, aquella década vio surgir las dos teorías unificadoras más poderosas de todos los tiempos.
Tanto la idea de la conservación de la energía como la teoría de la evolución por medio de la selección natural vieron la luz durante aquellos años, y ambas fueron el fruto del acercamiento de varias ciencias: las ciencias del calor, la óptica, la electricidad, el magnetismo, la química de los alimentos y la sangre en el caso de la conservación de la energía; la astronomía del espacio profundo, la geología del tiempo profundo, la paleontología, la antropología, la geografía y la biología en el caso de la evolución. Este fue el primer gran acercamiento entre disciplinas, lo que significa que la década de 1850 fue en muchos aspectos la década más prodigiosa de la historia de la ciencia, y posiblemente la que presenció el más emocionante punto de inflexión de todos los tiempos: el modo en que una ciencia se apoya en otra, con la que se interconecta, y el principio de una forma de adquirir conocimiento distinta de cualquier otra de la historia. A consecuencia de ello, aumentó enormemente la autoridad de la ciencia, una autoridad que no ha dejado de expandirse a medida que se hacía patente el orden emergente en unas ciencias cada vez más ricas en solapamientos y vínculos. Estos vínculos siempre han estado a la vista de todos, pero, hasta ahora, apenas han recibido la atención que merecen.

Capítulo 1
«La mayor de todas las generalizaciones»

Una mañana de finales de agosto de 1847, James Prescott Joule, un rico cervecero de Manchester que también era un físico distinguido, paseaba por Suiza, cerca de Saint-Martin, bajo el Col de la Forclaz, en el sur del país, no muy lejos de la frontera con Italia. En la carretera entre Saint-Martin y Saint-Gervais se tropezó con un colega, William Thomson, también físico, que más tarde sería aún más distinguido como lord Kelvin. Thomson observó en un carta que le escribió el día siguiente a su padre (un profesor de matemáticas) que Joule llevaba unos termómetros muy sensibles y le había preguntado si le podría ayudar a llevar a cabo un insólito experimento: quería medir la temperatura del agua en lo alto y en la base de una cascada del lugar. La petición era especialmente inusual, sugería Thomson en su misiva, porque Joule estaba celebrando su luna de miel.
El experimento de las cascadas se quedó en nada. El agua salpicaba tanto en la base de la cascada que ni Joule ni Thomson consiguieron acercarse lo suficiente al principal cuerpo de agua como para hacer las mediciones. Pero la idea era ingeniosa y, además, una clara hija de su tiempo. Joule se estaba centrando en una idea que, sin exagerar, habría de convertirse en una de las dos ideas científicas más importantes de todos los tiempos, y una forma realmente nueva de ver la naturaleza.
No estaba solo. Durante los años previos hasta quince científicos que trabajaban en Alemania, Holanda y Francia además de en Gran Bretaña, se habían interesado también en la conservación de la energía. El historiador de la ciencia Thomas Kuhn dice que la conservación de la energía «ofrece el más claro ejemplo del fenómeno conocido como descubrimiento simultáneo». Cuatro de los hombres (Sadi Carnot en París en 1832, Marc Seguin en Lyon en 1839, Carl Holtzmann en Mannheim en 1845 y Gustave-Adolphe Hirn en Mulhouse en 1854) habían puesto por escrito su convicción, que habían alcanzado de manera independiente, de que el calor y el trabajo eran cuantitativamente intercambiables. Entre los años 1837 y 1844, Karl Mohr en Koblenz, William Grove y Michael Faraday en Londres y Justus von Liebig en Giessen describieron el mundo de los fenómenos «como manifestaciones de una única “fuerza”, que podía aparecer en forma eléctrica, térmica, dinámica y muchas otras pero que, en todas sus transformaciones, nunca podía crearse ni destruirse» [28]. Y entre 1842 y 1847, la hipótesis de la conservación de la energía fue anunciada públicamente, dice Kuhn, por cuatro científicos europeos «ampliamente distribuidos»: Julius von Mayer en Tubinga, James Joule en Manchester, Ludwig Colding en Copenhague y Hermann von Helmholtz en Berlín, todos ellos, salvo el último, sin saber nada de los demás.
Joule y sus cascadas aparte, tal vez la más romántica de todas estas historias sea la de Julius von Mayer. Durante el año 1840, desde el mes de febrero, Julius Robert von Mayer sirvió como médico de a bordo en un mercante holandés que se dirigía a las Indias Orientales. Hijo de un farmacéutico de Heilbronn, en Wurtemberg, era un hombre saturnino que gastaba anteojos y, según la costumbre de su tiempo, llevaba barba bajo el mentón pero no bigote. La vida y la carrera de Mayer se entrelazaron de forma intelectualmente productiva pero trágica. De estudiante lo arrestaron y encarcelaron brevemente por llevar los colores de una organización clandestina. También lo expulsaron durante un año, que pasó viajando, sobre todo a las Indias Orientales holandesas, un destino que resultó ser afortunado para él. Mayer se graduó en medicina por la Universidad de Tubinga en 1838, aunque la física había sido realmente su primera pasión, y fue entonces cuando se alistó como médico de a bordo con la Compañía Holandesa de las Indias Orientales. El regreso a Oriente habría de tener importantes consecuencias.
De camino allí, en el Atlántico sur, junto a la costa de Sudáfrica, observó que las olas que los azotaban durante algunas de las brutales tempestades que tuvo que sortear el barco de tres palos eran más cálidas que los mares calmos. Eso lo llevó a pensar en el calor y el movimiento. Entonces, durante una escala en Yakarta en el verano de 1840, realizó su más célebre observación. Como entonces era práctica común, sangró a varios marineros europeos que acababan de arribar a Java. Le sorprendió lo roja que era su sangre; extrajo sangre de sus venas (sangre que regresa al corazón) y vio que era casi tan roja como la sangre arterial. Mayer infirió que la sangre de los marineros era más roja de lo habitual a causa de las altas temperaturas de Indonesia, lo que significaba que sus cuerpos requerían una tasa menor de actividad metabólica para mantener el calor corporal. Sus cuerpos habían extraído menos oxígeno de su sangre arterial, y por eso su sangre venosa era más roja de lo habitual [29].

Calor y movimiento son lo mismo
A Mayer aquella observación le llamó la atención porque le parecía que apoyaba de forma evidente la teoría de su compatriota, el químico y especialista en agricultura Justus von Liebig, quien defendía que el calor animal es el resultado de la combustión (oxidación) de las sustancias químicas de los alimentos absorbidos por el cuerpo. De hecho, Liebig observaba que una «fuerza» química (ese era el término que se usaba entonces), que estaba latente en el alimento, se convertía en calor (corporal). Como la única «fuerza» que entra en los animales es el alimento (el combustible) y la única forma de fuerza que manifiestan es la actividad y el calor, estas dos fuerzas debían encontrarse siempre, por definición, en equilibrio. No había ningún otro sitio adonde pudiera irse la fuerza del alimento.
Mayer intentó publicar su trabajo en la prestigiosaAnnalen der Physik und Chemie. Fundada en 1790, los Annalen der Physik eran en sí mismos un síntoma de los cambios que se estaban produciendo. En la década de 1840 era la revista alemana de física más importante, aunque durante aquellos años aparecieron muchas revistas nuevas. El editor de Annalen desde 1824, Johann Christian Poggendorff, un «biógrafo de científicos y un experimentalista obsesionado con las observaciones», tenía una idea muy firme de lo que era la física. A mediados de siglo había surgido «una ciencia de la física especial que tenía en la cuantificación y en la búsqueda de leyes matemáticas sus objetivos universales». (Esto, como se recordará, es lo que llevó a Mary Somerville hasta este ámbito). Poggendorff podía alzar o hundir carreras científicas, sobre todo porque fue el editor de los Annalen durante cincuenta y dos años, hasta su muerte en 1877.
Sin embargo, varios errores básicos debidos a su pobre conocimiento de la física hicieron que Poggendorff rechazase su artículo. Decepcionado pero decidido, le comentó sus ideas al catedrático de física de Tubinga, su vieja universidad, quien le mostró su desacuerdo pero le sugirió varios experimentos que podía realizar para desarrollar mejor sus ideas. Si lo que Mayer proponía era cierto, le dijo el catedrático, si el calor y el movimiento eran esencialmente lo mismo, la vibración debería calentar el agua, que es lo mismo que se le había ocurrido a Joule.
Mayer intentó realizar el experimento, y descubrió no solo que la vibración calienta el agua (como ya había observado, meses antes, a bordo del mercante), sino que además podía medir las distintas fuerzas: vibración, energía cinética y calor. Sus resultados, «Comentarios sobre las fuerzas de la naturaleza inanimada», fueron publicados en los Annalen der Chemie und Pharmacie en 1842, y fue en este artículo donde argumentó que existía una relación entre el movimiento y el calor, que «el movimiento y el calor son solo dos manifestaciones distintas de la misma fuerza [que debe] poder convertirse y transformarse en ambos sentidos». Las ideas de Mayer no encontraron entonces mucho eco, sin duda porque no era un «profesional», aunque obviamente el editor de los Annalen der Chemie und Pharmacielos consideró merecedores de ser publicados. Aquel editor no era otro que Justus von Liebig [30].

«Entretejidos en una gran asociación»
Estos experimentos, ideas y observaciones de Mayer y Joule no salieron de la nada. A principios del siglo XIX, y aparte de las observaciones de Liebig, ya hacía algún tiempo que se venían obteniendo resultados provocadores. En 1799, Alessandro Volta, en Como (Italia), había sorprendido al mundo con su invención de la batería, en la que dos metales distintos, colocados en capas alternas en una solución salina débil, como si fuera un emparedado de varias capas, generaba una corriente eléctrica. En 1820, Hans Christian Ørsted, en Copenhague, había notado que la aguja magnetizada de la brújula se desviaba del norte magnético cuando se encendía y apagaba una corriente eléctrica que se llevaba por un hilo cercano a la aguja. Cinco meses más tarde, en septiembre de aquel mismo año, pero en Londres, Michael Faraday, que tenía su laboratorio en los sótanos de la Real Institución en la calle Albemarle, repitió el experimento de Ørsted y obtuvo el mismo resultado. Entonces avanzó a un nuevo terreno. Se agenció un corcho, un trozo de hilo de metal, una jarra de vidrio y una copa de plata. Insertó el hilo en el corcho y añadió un poco de agua en la jarra, en el fondo de la cual había puesto una capa de mercurio. Entonces colocó el corcho flotando en el agua de tal modo que el extremo del hilo estuviera en contacto con el mercurio. A continuación, Faraday fijó el extremo superior del hilo a la copa de plata invertida, con un glóbulo de mercurio atrapado bajo el borde. Cuando se conectaba a una batería, se obtenía un circuito que permitía que el hilo de metal se flexionara sin romper el flujo de la electricidad. Entonces acercó un imán al hilo, y este se movió. Repitió la acción en el otro extremo del hilo metálico, y obtuvo el mismo resultado.
Hizo entonces un reajuste crucial. Fijó el imán a un tubo de vidrio y dispuso los otros elementos de manera que el hilo del corcho que tocaba el mercurio pudiera girar alrededor del imán cuando se daba la corriente. Cuando cerró el circuito, el hilo dio una vuelta alrededor del imán. Faraday, al parecer, también dio una vuelta alrededor de su mesa de trabajo [31].
En la batería de Volta, la electricidad era producida por fuerzas químicas. Ørsted había demostrado un vínculo entre la electricidad y el magnetismo y, en los experimentos de Faraday, la electricidad y el magnetismo, conjuntamente, producían movimiento. Además, la nueva tecnología de la fotografía, inventada en la década de 1830, utilizaba la luz para producir reacciones químicas. Por encima de todo, estaba la máquina de vapor, que producía fuerza mecánica a partir del calor. La tecnología del vapor es la que conduciría a las mayores transformaciones, al menos durante un tiempo. Durante las décadas de 1830 y 1840, la demanda de potencia motriz no hizo más que aumentar. En la era de la expansión colonial, el apetito por los ferrocarriles y los barcos de vapor era insaciable, y era necesario hacerlos más eficientes, con menos pérdidas de potencia, de energía.
Pero Thomas Kuhn también observa que, de estos doce pioneros de la conservación de la energía, cinco provenían de Alemania, y dos más de Alsacia y Dinamarca, dos regiones de influencia germánica. Atribuía esta preponderancia de los alemanes al hecho de que «muchos de los descubridores de la conservación de la energía están profundamente predispuestos a ver una única fuerza indestructible en la raíz de todos los fenómenos naturales». Sugirió que esta idea radical fundamental podía hallarse ya en la literatura de la Naturphilosophie. «Schelling, por ejemplo, [y en particular] sostenía que los fenómenos magnéticos, eléctricos, químicos e incluso orgánicos acabarían siendo entretejidos en una gran asociación». Liebig estudió dos años con Schelling [32].
Un último factor, a decir del historiador de la ciencia Crosie Smith, fue la mentalidad eminentemente pragmática de los físicos e ingenieros de Escocia y del norte de Inglaterra, a quienes fascinaban las posibilidades comerciales de las nuevas máquinas. Todo esto conformaba el «profundo telón de fondo» de las ideas de Mayer, Joule y los otros. Pero los últimos elementos, según nos dice John Theodore Merz (1840-1922) en su Historia del pensamiento europeo durante el siglo XIX (1904-1912), una gran obra en cuatro volúmenes, fue que la unificación del pensamiento que promovieron todos aquellos experimentos y observaciones «necesitaba un término más general… una generalización aún más elevada, una más completa unificación del conocimiento… esta, la mayor de todas las generalizaciones exactas [fue] el concepto de energía» [33].

La moneda de cambio de la naturaleza: «conversión continua»
A los otros hombres que hicieron mucho, al menos en un principio, por explorar la conservación de la energía (Joule y William Thomson en Gran Bretaña, Hermann von Helmholtz y Rudolf Clausius en Alemania) les fue mejor que a Mayer, aunque a mediados del siglo XIX hubo disputas interminables sobre quién había descubierto qué primero.
Joule (1818-1889), nacido en una familia de cerveceros de Salford, llevaba una melena victoriana, podría incluso decirse que imperial, que le llegaba casi tan abajo por la espalda como la barba por el frente: su cabeza era una mata de pelo. Solo es conocido por una cosa, pero una cosa que fue y es importante y sobre la cual realizó experimentos durante varios años para poder ofrecer una explicación más precisa.
De joven había trabajado en la cervecería de la familia, lo que tal vez despertara su interés por el calor, un interés que sin duda se avivó cuando le enviaron a Manchester a estudiar química con John Dalton. Este era famoso por su teoría atómica, la idea de que cada elemento químico está formado por distintos tipos de átomos, y que la diferencia esencial entre los distintos átomos es su peso. Dalton pensaba que aquellos «elementos elementales» no podían crearse ni destruirse, para lo cual se basaba en sus observaciones, que mostraban que los distintos elementos se combinaban formando sustancias que contenían los elementos en proporciones fijas, sin que nada quedase fuera.
Por su formación comercial, Joule siempre estaba interesado en las aplicaciones de la ciencia, por ejemplo en la posibilidad de fabricar motores eléctricos que pudieran sustituir a los de vapor. No fue así, no en aquel momento, pero con el tiempo su interés por la relación entre el calor, el trabajo y la energía dio sus frutos. «Con el tiempo» porque los primeros informes de Joule sobre la relación entre la electricidad y el calor fueron rechazados por Poggendorff, y Joule se vio obligado a publicar en Philosophical Magazine, una revista de menor prestigio. No obstante, continuó realizando sus experimentos, mediante los cuales, removiendo un contenedor de agua con una rueda de palas, pretendía demostrar que el trabajo (el movimiento) se convertía en calor. Joule escribió que «consideramos que el calor no es una sustancia sino un estado de vibración». (Esta referencia implícita al movimiento recuerda su idea sobre las distintas temperaturas del agua en lo alto y en la base de las cascadas, así como la observación de Mayer de que las olas de tempestad eran más cálidas que los mares calmos). A lo largo de su vida, Joule intentó buscar maneras cada vez más precisas de calcular cuánto trabajo era necesario para incrementar la temperatura de una libra de agua en un grado Fahrenheit (la definición tradicional de «trabajo»). La precisión era esencial para poder demostrar la conservación de la energía [34].
Poco a poco, la gente se fue convenciendo. Por ejemplo, Joule pronunció conferencias en varios congresos de la Asociación Británica para el Avance de la Ciencia (BAAS), primero en 1842 y de nuevo en 1847. Entre los dos congresos, Mayer publicó sus observaciones sobre el calor corporal y el color de la sangre, pero Joule tenía más impulso y, gracias a la BAAS, una audiencia. Para entonces, la BAAS, fundada en York en 1831 a semejanza de la alemana Gesellschaft Deutscher Naturforscher und Ärzte, estaba bien establecida. Celebraba congresos anuales en distintas ciudades de Gran Bretaña. Pero Joule necesitaba solamente que a una persona de su audiencia le pareciese importante lo que tenía que decir, y ese momento llegó en el congreso de 1847, cuando sus ideas hallaron eco en un joven de veintiún años. Se llamaba William Thomson, pero con el tiempo sería más conocido como lord Kelvin.
Del mismo modo que Joule había trabado amistad con Dalton, que era mayor que él, Thomson trabó amistad con Joule. De hecho, trabajó con Thomson en la teoría de los gases, en cómo se enfrían y en cómo se relacionaba todo ello con la teoría atómica de Dalton. Joule estaba especialmente interesado en dilucidar la velocidad media exacta con la que se mueven las moléculas de un gas (un movimiento que naturalmente estaba relacionado con su temperatura). Se centró en el hidrógeno y lo trató como si estuviera formado por partículas diminutas que rebotasen unas contras otras y contra las paredes del recipiente que las contuviera. Manipulando la temperatura y la presión, que afectaban al volumen de una forma predecible, pudo calcular que, a una temperatura de 15,5 °C y una presión de 1 atmósfera, que más o menos equivalen a unas condiciones normales, las partículas de gas se mueven a 1.897,5 metros por segundo. De manera parecida, para el oxígeno, cuyas moléculas pesan dieciséis veces más que las de hidrógeno, y dado que se aplica la ley del inverso del cuadrado [iii], en el aire normal las moléculas de oxígeno se mueven a una cuarta parte de la velocidad de las moléculas de hidrógeno, es decir, 474,4 metros por segundo. Llegar a medir una actividad tan infinitesimal fue una hazaña asombrosa, y Joule fue invitado a presentar sus resultados en la Real Sociedad, en la que fue elegido miembro, lo que compensó con creces su anterior rechazo.
Joule compartía muchas cosas con Thomson, incluso sus creencias religiosas, que en opinión de algunos desempeñaron un papel importante en su teoría. Argumentaba que el principio de las conversiones o intercambios continuos había sido establecido y era mantenido por Dios, como base de la «moneda de cambio de la naturaleza», lo que garantizaba una estabilidad dinámica en la «economía de la naturaleza». «Sin duda, el fenómeno de la naturaleza, ya sea mecánico, químico o vital, consiste casi enteramente en una continua conversión mutua entre la atracción a través del espacio, la fuerza vital y el calor. Así es como este orden se mantiene en el universo: nada se desvía, nada se pierde nunca… el ser completo regido por la voluntad soberana de Dios» [35].
Thomson recogió el testigo de Joule. Nacido en Belfast en junio de 1824, pasó casi toda su vida en entornos universitarios. Su padre era profesor de matemáticas en la Real Institución Académica de Belfast, un precedente de la Universidad de Belfast, y William y su hermano recibieron de él la educación en su propia casa (un hermano James también llegó a ser físico). Su madre murió cuando William contaba seis años y en 1832 su padre se mudó a Glasgow, donde también fue profesor de matemáticas. Como privilegio especial, se permitió a los dos hijos que asistieran allí a las clases, y se matricularon en 1834, cuando William contaba diez años. Después de Glasgow, William había de ir a Cambridge, pero les preocupaba que graduarse en Glasgow supusiera una «desventaja» para sus planes en el sur, de modo que aunque pasó los exámenes finales y de MA (Master of Arts) un año más tarde, no se graduó formalmente. Por aquel entonces, pues, firmaba como William Thomson BATAIAP ( Bachelor of Arts to All Intents and Purposes, es decir, bachiller a efectos prácticos).
William fue transferido a Cambridge en 1841, donde se graduó cuatro años más tarde tras ganar varios premios y publicar unos cuantos artículos en el Cambridge Mathematical Journal. Entonces trabajó por un tiempo en París, familiarizándose con la obra del brillante físico francés Sadi Carnot (que había muerto trágicamente joven), para luego reunirse con su padre en Glasgow como profesor de filosofía natural. James Thomson, padre, que había trabajado sin descanso para traer a su hijo de vuelta a Glasgow, murió poco después de cólera. William, sin embargo, permaneció en Glasgow desde que le nombraron profesor (con unos veinticinco años) hasta su jubilación con setenta y cinco, cuando, «para mantenerse al día», se inscribió de nuevo como estudiante. Esto, como le place explicar al historiador John Gribbin, lo convirtió «posiblemente en el estudiante más joven y el más viejo que haya asistido nunca a la Universidad de Glasgow» [36].
Thomson fue mucho más que un científico. Participó en el diseño del primer telégrafo transatlántico funcional, entre Gran Bretaña y Estados Unidos (tras otros intentos fallidos), que transformó las comunicaciones casi tanto, o quizá más, que internet en nuestros días. Ganó dinero con sus patentes científicas e industriales, hasta tal punto que fue primero nombrado sir en 1866, y más tarde, en 1892, barón Kelvin de Largs (el río Largs discurre por el campus de la Universidad de Glasgow).

«Un principio que imbuye toda la naturaleza»
Thomson siguió a Joule en su teología tanto como en su ciencia. «La cuestión es —escribió— que según creo se puede demostrar que el trabajo se pierde para el hombre de forma irrecuperable [durante la conducción] pero no para el mundo material». Usando la palabra «energía» por primera vez desde 1849, nos dice Crosbie Smith, Thomson expresó su análisis en términos teológicos y cosmológicos. «Aunque en el mundo material no pueda haber destrucción de energía sin el concurso de un acto de poder que solo posee el supremo regidor, se producen transformaciones que de forma irrecuperable apartan del control del hombre a las fuentes de potencia [energía] que, de haberse aprovechado la oportunidad de usarlas en beneficio propio, se podrían haber hecho disponibles» [37]. Dios, como «supremo regidor», había establecido esta ley de la «conservación de la energía», pero había en la naturaleza fuentes de energía (como las cascadas) que podían aprovecharse; de hecho, para Thomson era un error no aprovecharlas, pues eso implicaba derroche, el gran pecado para los presbiterianos. Por último, las transformaciones de la naturaleza tenían una dirección que solo Dios podía invertir: «El mundo material no podría regresar nunca a un estado previo sin violar las leyes que se han manifestado al hombre».
En términos puramente científicos, sin embargo, la contribución más importante de Kelvin fue hacer de la termodinámica (como habría de conocerse formalmente la conservación de la energía) una disciplina científica consolidada a mediados del siglo. En colaboración con Peter Guthrie Tait, otro escocés, escribió Treatise on Natural Philosophy [Tratado de filosofía natural] (1867), un intento tanto de reescribir a Newton como de situar la termodinámica y la conservación de la energía en el núcleo de una nueva ciencia: la física del siglo XIX. Kelvin podría haber sido incluso la primera persona en utilizar la palabra «energía» en este nuevo sentido. En 1881 dijo: «El propio término “energía”, aunque usado por primera vez con su significado actual por el Dr. Thomas Young a principios de este siglo, solo ha venido a usarse después de que la doctrina que la define se hubiera… elevado de una simple fórmula de la dinámica matemática a la posición que hoy ocupa como principio que imbuye toda la naturaleza y guía al investigador de cualquier campo de la ciencia» [38]. Tait y Kelvin habían planeado un segundo volumen de su obra, que nunca llegó a escribirse, que habría incluido «una gran sección sobre “la única ley del universo”, la conservación de la energía».
Además de todo esto, Kelvin estableció la escala de la temperatura absoluta, que también parte de la idea de que el calor es equivalente al trabajo (como Joule había pasado la vida demostrando) y que un cambio concreto de temperatura equivale a una cantidad concreta de trabajo. Esto implica que existe una temperatura mínima posible: -273,15° Fahrenheit, que hoy escribimos como 0 K (por Kelvin), a la cual ya no se puede realizar trabajo ni extraerse calor de un sistema.

«La máquina humana no es muy distinta de la máquina de vapor»
Las ideas de Thomson se desarrollaban más o menos en paralelo en Alemania gracias al trabajo de Hermann von Helmholtz y Rudolf Casius. Con la perspectiva que nos da el tiempo, hoy vemos que todo parecía apuntar a la teoría de la conservación de la energía, pero aún necesitaba que alguien formulase aquellas ideas de una forma clara, y eso ocurrió con el ensayo pionero de 1847 de Von Helmholtz (1821-1894). En «Sobre la conservación de la fuerza» proporcionó la necesaria formulación matemática que relacionaba calor, luz, electricidad y magnetismo, tratando estos fenómenos como distintas manifestaciones de «energía».
Como Kelvin, Von Helmholtz tenía múltiples intereses. Nacido en Potsdam cuando esta era una ciudad militar «de primer orden», los padres de Von Helmholtz formaban parte de la clase media intelectual (su padre era profesor de bachillerato), y en su bautismo Hermann fue agraciado con no menos de veintitrés padrinos. Sus primeros estudios, que dedicó a la fisiología, fueron financiados por una beca del ejército prusiano. En pago por su educación, Von Helmholtz sirvió como oficial médico antes de convertirse, en 1849, en profesor asociado de fisiología en la Universidad de Königsberg. En 1850 inventó el oftalmoscopio, que permite examinar la pared posterior del ojo, y escribió numerosos artículos sobre óptica y sobre la fisiología de la percepción estereoscópica, además de otros temas como la fermentación. Pero si Von Helmholtz aparece aquí es por la publicación de su panfleto de 1847 «Sobre la conservación de la fuerza» [39].
Como Mayer, había enviado su artículo a Poggendorff para publicarlo en Annalen der Physik, pero fue rechazado, y decidió publicar su panfleto por medios propios. Y también como Mayer, Von Helmholtz encaró el problema de la energía desde una perspectiva médica. Sus anteriores publicaciones sobre fisiología habían intentado mostrar de qué modo se podía relacionar el calor de los cuerpos animales y su actividad muscular con la oxidación de los alimentos, es decir, que la máquina humana no era muy distinta de la máquina de vapor. No pensaba que hubiera fuerzas exclusivas de los seres vivos, sino que insistía en que la vida orgánica era el resultado de fuerzas que no eran más que «modificaciones» de las que actuaban en el dominio de lo inorgánico. Tenía ideas paralelas no solo a las de Mayer y Kelvin, sino también a las de Liebig.
En el universo puramente mecánico que imaginaba Von Helmholtz existía una conexión obvia entre el trabajo humano y el de las máquinas. Para él, el Lebenskraft, como los alemanes llamaban a la fuerza vital, no era más que una expresión de «organización» entre partes relacionadas sin ninguna implicación de fuerza vital [40]. «La idea de trabajo es evidentemente transferida a las máquinas por comparación de sus actividades con las de hombres y animales, para reemplazar a los cuales se aplican. Todavía medimos el trabajo de las máquinas de vapor con caballos de potencia». Esto lo llevó al principio de la conservación de la fuerza: «No podemos crear fuerza mecánica, pero podemos proveernos en el almacén general de la naturaleza… Quien posee un molino se apodera de la gravedad del río que desciende, o de la fuerza viva del viento. Estas porciones del almacén de la naturaleza son las que confieren a su propiedad su verdadero valor». Su idea del «almacén» de la naturaleza complementaba la idea de Joule de la «moneda» de la naturaleza.
Al defender sus ideas sin pruebas experimentales (como observaron los miembros de la Academia de Berlín, aunque impresionados por su presentación), Von Helmholtz «había establecido por primera vez una distinción clara entre la física teórica y la experimental».

La tendencia a un desorden creciente
Si Mayer y Von Helmholtz, que eran médicos, llegaron a la ciencia del trabajo a través de la fisiología, el colega prusiano de Von Helmholtz, Rudolf Clausius, se aproximó al fenómeno, como sus contemporáneos británicos y franceses, a través de la ubicua máquina de vapor.
En sus últimos años, Clausius tenía una apariencia imponente: frente alta, ojos duros y penetrantes, boca fina y grave y una barba blanca que enmarcaba sus mejillas y mentón. En justicia, su semblante grave posiblemente no reflejase otra cosa que el dolor que sufría constantemente a raíz de una herida recibida durante la guerra franco-prusiana de 1870-1871. Por otro lado, era un ferviente nacionalista, lo que tal vez también contribuyese a su aspecto adusto.
Nacido en enero de 1822 en Köslin, en Prusia (hoy Koszalin, en Polonia), su padre era pastor de la iglesia y tenía su propia escuela privada. El sexto de los hijos de su padre, Rudolf asistió a la escuela familiar durante varios años, antes de ser enviado al gymnasium de Stettin (hoy Szczecin, en Polonia), para luego ir a la Universidad de Berlín, en 1840. Al principio se sintió atraído por la historia y estudió bajo la dirección del gran Leopold von Ranke, que posiblemente tuviera algo que ver con su posterior nacionalismo. Pero Clausius se decantó por la matemática y la física. En 1846, dos años después de graduarse en Berlín, ingresó en el seminario de August Böckh en Halle, donde trabajó sobre la explicación del color azul del cielo. La teoría que se le ocurrió a Clausius sobre el azul del cielo, y sobre su color rojizo al anochecer y al amanecer, estaba fundamentada en una física errónea. Pensaba que la causa estaba en la reflexión y la refracción de la luz, mientras que John Strutt, más tarde lord Rayleigh, logró demostrar que se debía a la dispersión de la luz [41].
Pero la contribución especial de Clausius fue aplicar las matemáticas mucho más profundamente que sus predecesores y su trabajo constituyó una fase importante en el establecimiento de la termodinámica y la física teórica. Su primer artículo sobre la teoría mecánica del calor fue publicado en 1850. Este sería su trabajo más célebre, y volveremos a ocuparnos de él enseguida. Avanzó rápidamente en su carrera, al menos al principio, y fue invitado a ocupar una plaza de profesor en la Real Escuela de Artillería e Ingeniería de Berlín en septiembre de 1850 gracias a la solidez de su artículo, y luego se trasladó al Polytechnikum de Zúrich, donde permaneció durante un tiempo pese a ser invitado en más de una ocasión a regresar a Alemania. Por fin aceptó una cátedra en Wurzburgo en 1869, desde donde se trasladó a Bonn al cabo de solo un año, y entonces se desató la guerra franco-prusiana. Descrito como «encendido nacionalista», Clausius se presentó voluntario, a pesar de estar a punto de cumplir cincuenta años, y se le permitió asumir la dirección de un cuerpo de ambulancias, que formó con estudiantes de Bonn y ayudó a llevar a los heridos en las grandes batallas de Vionville y Gravelotte; en la segunda de estas batallas, los alemanes sufrieron 20.000 bajas. Durante las hostilidades, Clausius resultó herido en la pierna, lo que le provocó un fuerte dolor y discapacidad durante el resto de su vida [42]. Fue galardonado con la Cruz de Hierro en 1871.
A diferencia de Mayer y Von Helmholtz, Clausius consiguió que su primer artículo importante, «Sobre la fuerza motriz del calor, y las leyes relativas a la naturaleza del calor que de ella pueden deducirse», fuese aceptado en los Annalen. Apareció en 1850 y su importancia fue reconocida de inmediato. En él argumentaba que la producción de trabajo no era únicamente el resultado de un cambio en la distribución del calor, como Sadi Carnot (el físico e ingeniero militar francés) había defendido, sino también del consumo de calor: el gasto de trabajo podía producir calor. «Es posible —escribió— que durante la producción de trabajo… se consuma cierta porción de calor, mientras que otra porción se transmita de un cuerpo caliente a otro frío, y que ambas porciones mantengan una relación precisa con la cantidad de calor producida». De este modo establecía dos principios fundamentales que habrían de conocerse más tarde como la primera y la segunda ley de la termodinámica.
La primera ley puede ilustrarse del mismo modo que más tarde le sería enseñada a Max Planck, el hombre que, a principios del siglo XX, construiría una nueva teoría sobre la base que había asentado Clausius. Imaginemos un trabajador que levanta una pesada piedra hasta el tejado de una casa. La piedra permanecerá allí mucho tiempo después de su colocación, con una energía almacenada hasta que, en algún momento del futuro, caiga de nuevo a la tierra. La energía, según nos dice el primer principio, no puede crearse ni destruirse. Clausius, sin embargo, señalaba en su segunda ley que la primera no basta. En el ejemplo, se gasta energía cuando el trabajador alza la piedra hasta su posición final, y se disipa durante el esfuerzo en forma de calor, lo que, entre otras cosas, hace que el trabajador sude. Esta disipación, que Clausius más tarde llamaría «entropía», tenía una importancia fundamental, decía, porque aunque no desapareciese del universo, era energía que nunca podría recuperarse en su forma original. Clausius llegaba así a la conclusión de que el mundo (y el universo) debe tender siempre a un creciente desorden, debe aumentar siempre su entropía [43].
Clausius nunca dejó de perfeccionar sus teorías del calor, y al hacerlo se interesó por la teoría cinética de los gases, en particular por la idea de que las propiedades de los gases a gran escala eran función de los movimientos a pequeña escala de las partículas, o moléculas, que constituían el gas. Llegó así a pensar que el calor era función del movimiento de tales partículas, que los gases calientes estaban formados por partículas que se movían deprisa y los gases más fríos, por partículas más lentas. El trabajo se entendía como «la alteración de un modo u otro en la disposición de las moléculas constituyentes de un cuerpo».
La noción de que el calor es una forma de movimiento no era nueva. Además de las ideas de Joule y Mayer, el americano Benjamin Thompson había observado que se producía calor cuando se perforaba el tubo de un cañón, y en Gran Bretaña, sir Humphry Davy también había observado que se podía fundir hielo por fricción. Lo que atrajo el interés de Clausius fue la forma exacta del movimiento que correspondía al calor. ¿Se trataba de la vibración de las partículas internas, de su movimiento «translacional» al desplazarse de una posición a otra, o lo que ocurría era que giraban alrededor de sus propios ejes?
El segundo artículo pionero de Clausius, «Sobre el tipo de movimiento que llamamos calor», se publicó en los Annalen en 1857. Argumentaba en él que el calor de un gas debe corresponder a los tres tipos de movimiento y que, por tanto, su calor total debía ser proporcional a su suma. Suponía que el volumen ocupado por las propias partículas era extremadamente pequeño y que todas las partículas se movían con la misma velocidad media, que calculó en cientos, si no miles, de metros por segundo (a partir de los trabajos de Joule). Esto suscitó en varios de sus críticos la objeción de que sus suposiciones y cálculos no debían ser correctos, pues de lo contrario los gases deberían difundirse mucho más deprisa de lo que se había observado. Así pues, abandonó ese enfoque, y en su lugar introdujo el concepto de «trayectoria libre media», es decir, la distancia promedio que se desplazaría una partícula en línea recta antes de chocar con otra partícula [44].

La unificación de electricidad, magnetismo y luz
Clausius fue elegido miembro de la Real Sociedad en 1868 y galardonado con la Medalla Copley de esta institución en 1879. Otros se sintieron atraídos por su empeño, en particular James Clerk Maxwell en Gran Bretaña, quien en 1860 publicó en Philosophical Magazine «Ilustraciones de la teoría dinámica de los gases», donde utilizaba la idea de Clausius de la trayectoria libre media.
Según uno de sus biógrafos, James Clerk Maxwell tenía una idea científica «tan profunda como cualquier obra filosófica, tan bella como cualquier pintura, y más poderosa que cualquier acto de política o guerra. Ya nada sería igual». Eso es decir mucho, pero, en pocas palabras, Maxwell había concebido cuatro ecuaciones que de un plumazo habían unificado electricidad, magnetismo y luz, y demostraban que la luz no era más que una pequeña franja de un amplísimo abanico de ondas posibles, «que viajan todas a la misma velocidad pero vibran con distintas frecuencias» [45]. Los físicos, nos dice el mismo biógrafo, sitúan a Maxwell a la altura de Newton o Einstein, aunque para el común de la gente «por alguna razón es mucho menos conocido». Todo esto ocurría cuando Mary Somerville aún vivía, y contribuyó a que Connexions quedase desfasado.
Maxwell fue criado los primeros ochos años de su vida en la hacienda de su padre en Glenlair, en la región de Galloway, en el suroeste de Escocia. Su familia estaba bien relacionada. Su abuelo era compositor, había ocupado varios cargos oficiales en el municipio y era miembro de la Real Sociedad. Un tío suyo era amigo de James Hutton y había ilustrado el trabajo pionero de Hutton, Theory of the Earth [Teoría de la Tierra] (véase el capítulo 2). Los padres de Maxwell se habían casado tarde; su primer hijo había muerto en su infancia, y cuando nació James, su madre tenía casi cuarenta años.
Su tardía llegada hizo que sus padres fuesen indulgentes. Pronto se puso de manifiesto que se trataba de un niño excepcional, decidido a descubrir cómo funcionaba todo y a conseguir una explicación para todo. De niño aprendió a hacer calceta, a cocinar y a tejer cestas. Como Humphry Davy y Michael Faraday, compartía la fascinación del científico del siglo XIX por la composición de poesía, aunque nunca la publicó en vida, y no cuesta entender por qué. Una dice así:
Entonces Vn/Vt y la tangente será igual al ángulo del inicio ordenado en una serie.
Otro poema incluso venía acompañado de un gráfico.
Aunque el valle de Urr, donde se encontraba Glenlair, era conocido entre sus residentes como Valle Feliz, con cuarenta y siete años la madre de Maxwell, Frances, contrajo un cáncer abdominal y falleció poco después de ser operada (sin anestesia). La pérdida unió a padre e hijo, pero había un problema con la educación de James. Se había decidido que se educaría en su casa hasta los trece años, pero ahora su padre tenía demasiadas obligaciones. Una tía que vivía en la capital vino al rescate y lo acogió, lo que le permitió asistir a la Academia de Edimburgo, una de la mejores escuelas de Escocia [46].
Al principio no le fue bien. Como la escuela estaba casi llena, a James lo colocaron en una clase de chicos un año mayores que él, que llevaban meses en la escuela y habían establecido sus propias convenciones y camarillas. Además, casi todos provenían de familias adineradas de Edimburgo, y cuando vieron la burda ropa de James y oyeron su acento rural, la tomaron con él sin piedad. Para empezar, vestía una amplia túnica de tweed con un collar de volantes y zapatos de punta cuadrada con hebillas de latón. Los otros chicos lo apodaron «Dafty» [iv].
La escuela siguió siendo difícil durante un tiempo, a lo que no ayudaba un problema de dicción que se acercaba, sin llegar a serlo, a un tartamudeo. No pasaba lo mismo con la casa de su tía, que adoraba. Estaba llena de libros, dibujos y pinturas, y su primo, el hijo de su tía, era un artista en ciernes a quien incluso Landseer había felicitado [v].
Luego las cosas empezaron a mejorar. En su segundo año, la rapidez con la que llegó a dominar la geometría impresionó a sus profesores, y aún más a sus compañeros. En aquellos tiempos, en la academia, los chicos se sentaban por orden de capacidad, de modo que lo movieron adelante, con compañeros más afines, y empezó a hacer a amigos, entre ellos Peter Guthrie Tait. P. G. Tait habría de convertirse en uno de los mejores físicos de Escocia y, como ya hemos visto, en coautor, junto a William Thomson, del Treatise on Natural Philosophy [47].
Maxwell publicó su primer artículo a los catorce años. Trataba de cómo dibujar un óvalo. Todo el mundo sabe que si se ata un hilo a una aguja y a un lápiz en el otro extremo, se puede dibujar un círculo perfecto. Maxwell observó que si se usan dos agujas, con un trozo de hilo atado a cada una de ellas, y luego se aprieta un lápiz contra el hilo, de modo que se mantenga tenso, se dibuja un óvalo perfecto. Entonces desató uno de los extremos del hilo y lo pasó alrededor de la aguja libre, obteniendo así un nuevo óvalo, esta vez en forma de huevo. Jugó con más curvas y estudió sus relaciones matemáticas hasta llegar a una serie de fórmulas que describían lo que había encontrado. Algo de aquello ya lo había averiguado antes nada menos que René Descartes, pero el sistema de Maxwell era más sencillo y fue juzgado lo bastante bueno para una comunicación ante la Real Sociedad de Edimburgo. Como era tan joven, otra persona hubo de leer la comunicación.
Era un cristiano devoto, del austero tipo presbiteriano, algo que le valió de mucho cuando visitó a otros parientes presbiterianos en Glasgow. Una de sus primas, Jemima, había contraído matrimonio con Hugh Blackburn, profesor de matemáticas en Glasgow y gran amigo de William Thomson, el nuevo profesor de filosofía natural. Maxwell y Thomson trabaron una amistad que perduraría durante años.
Como ya se ha comentado en la introducción, en la Gran Bretaña de mediados del siglo XIX la palabra «científico» todavía no había alcanzado un uso común. Físicos y químicos decían de sí mismos que estudiaban «filosofía natural», en tanto que los biólogos se dedicaban al estudio de la «historia natural». Maxwell decidió apuntarse a la Universidad de Edimburgo para estudiar matemáticas, filosofía natural y lógica. Se matriculó a los dieciséis años.
Fue por aquel entonces cuando Maxwell comenzó a experimentar, ayudado por la costumbre de las universidades escocesas de cerrar sus puertas de finales de abril a principios de noviembre para permitir a los alumnos que regresaran a sus casas para ayudar con los trabajos del campo. Leyó y leyó y leyó y realizó sus primeros experimentos en Glenlair, y se interesó por el electromagnetismo y la luz polarizada. Estas aventuras de factura propia hicieron más que desarrollar sus habilidades como experimentador, que no es poco. Le ayudaron a desarrollar una profunda intuición acerca de los materiales y procesos de la naturaleza, que más tarde imbuiría todo su trabajo teórico. Durante el tiempo que pasó en Edimburgo produjo dos artículos más para la Real Sociedad de aquella ciudad, de manera que, cuando marchó a Cambridge a los diecinueve años, atesoraba un sólido cuerpo de conocimientos, un puñado de publicaciones con su autoría y varios amigos valiosos y potencialmente influyentes en el mundo de la academia y la ciencia.
Comenzó en el colegio de Peterhouse pero le pareció aburrido y se mudó a Trinity, más afín a sus intereses y de mentalidad mucho más matemática (por aquel entonces el master del colegio era William Whewell). En Cambridge Maxwell se apuntó a la clase del famoso (en los círculos matemáticos) «más experimentado hacedor de wranglers», William Hopkins. Los wranglers eran los estudiantes que obtenían las puntuaciones más altas en los tripos de matemáticas, por los que todos tenían que pasar. La recompensa para los wranglers era el reconocimiento de por vida en el campo de estudio que escogieran. Los tripos consistían en una ardua serie de pruebas que se prolongaban durante siete días, seis horas al día, y James quedó en segundo lugar, por detrás de E. J. Routh, que llegaría a ser un matemático notable (hoy hay una función que lleva su nombre: la routhiana). (P. G. Tait, el antiguo amigo de Maxwell en la Academia de Edimburgo, había sido wrangler sénior dos años antes) [48].
Con los tripos a su espalda, Maxwell se sintió libre para dar rienda suelta a las ideas que había ido madurando durante los dos años de estudiante universitario. Había dos aspectos del mundo natural que deseaba explorar: uno era los procesos de la visión, y en particular nuestra percepción de los colores, y el otro la electricidad y el magnetismo.
En sus investigaciones sobre el color no tardó en hacer un descubrimiento al hallar que existe una diferencia fundamental entre mezclar pigmentos, como se hace con las pinturas o los tintes, y mezclar luces, como se hace al hacer girar un disco de colores. Los pigmentos actúan como extractores de color, de modo que la luz que vemos después de mezclar dos pinturas corresponde al color que las pinturas no consiguen absorber. En otras palabras, mezclar pigmentos es un proceso de sustracción, mientras que mezclar luces es un proceso de adición; por eso el azul y el amarillo no dan verde, como en los pigmentos, sino rosa. Con la ayuda de experimentos, logró demostrar que, en términos de luces, hay tres colores primarios (rojo, azul y verde) que se pueden mezclar en diferentes proporciones para obtener todos los colores del arco iris. Esto representó un avance importante y es la teoría que está detrás de los colores que vemos en la televisión en color, por ejemplo.
Al mismo tiempo, comenzaba a familiarizarse con la electricidad y el magnetismo y en 1855 publicó el primero de sus tres grandes artículos. Michael Faraday había concebido las líneas de fuerza como tentáculos discretos (análogos a las líneas de limaduras de hierro que se ordenan alrededor de un imán). Maxwell, en cambio, las concebía como una esencia continua, a la que llamaba «flujo», de manera que cuanto mayor era la densidad del flujo en un punto concreto, más fuerte era allí la fuerza eléctrica o magnética. Comprendió además que las fuerzas eléctricas y magnéticas entre dos cuerpos varían en proporción al inverso del cuadrado de la distancia que los separa, lo mismo que Newton había dicho sobre la gravedad [49].
De este modo, las líneas de fuerza se convirtieron en un «campo» y este es el concepto que hizo destacar a Maxwell hasta el punto de situarlo a la altura de Newton y Einstein. Más aún, seis años más tarde construiría sobre esa base su concepto de ondas electromagnéticas.
Entretanto, su padre había caído enfermo, y James se vio obligado a pasar algún tiempo cuidándolo. Pero con eso no bastaba: necesitaba un trabajo más cerca de su casa, y la oportunidad se le presentó cuando le ofrecieron una plaza de profesor de filosofía natural en Marischal College, en Aberdeen, uno de los colegios que, no mucho más tarde, se convertiría en Universidad de Aberdeen. La plaza satisfacía a padre e hijo, pero tenía algunos inconvenientes. James escribiría más tarde a un amigo: «Aquí no entienden los chistes de ningún tipo. No he hecho ni uno en dos meses, y si se me ocurre alguno, me muerdo la lengua». Pero no todo fue en vano, pues James encontró que la hija del director del colegio era muy de su agrado, le propuso matrimonio y fue aceptado [50].
En junio de 1858 se casó con Katherine y unos meses más tarde leyó la comunicación de Clausius sobre la difusión de los gases. El problema, que varios habían señalado antes, era que para explicar la presión de los gases a temperaturas normales, las moléculas tenían que moverse muy deprisa, a cientos de metros por segundo, según cálculos de Joule. Pero, entonces, ¿por qué el aroma de los perfumes, por ejemplo, se difunde relativamente despacio por una estancia? Clausius propuso que cada molécula experimentaba un enorme número de colisiones, de modo que constantemente cambiaba de dirección y, para cruzar una habitación, las moléculas tenían que recorrer varios kilómetros.
Clausius había supuesto que, en un momento dado, todas las moléculas viajaban a la misma velocidad. Sabía que eso no podía ser correcto pero no se le había ocurrido otra forma mejor de formularlo. Maxwell también se enfrentó a esa dificultad, pero se le ocurrió una idea brillante que, de un plumazo, en palabras de Basil Mahon, «abrió las puertas a enormes progresos en nuestra comprensión de cómo funciona el mundo».
Maxwell entendió que lo que hacía falta era una forma de representar muchos movimientos con una sola ecuación, una ley estadística, y concibió una que no decía nada sobre las moléculas individuales pero explicaba la proporción que representaban las velocidades de cualquier intervalo. Esta fue la primera ley estadística de la física y la distribución de las velocidades resultó tener forma de campana, que es la familiar distribución normal de poblaciones alrededor de la media. Además, su forma variaba con la temperatura, de manera que cuanto más caliente estaba el gas, más achatada era la curva y más ancha la campana.
Este fue un descubrimiento de primera magnitud que con el tiempo llevaría al desarrollo de la mecánica estadística, a una comprensión más precisa de la termodinámica y al uso de las distribuciones de probabilidades en la mecánica cuántica. Bastaba eso para situar a Maxwell en la primera línea de los científicos. La Real Sociedad sin duda lo entendió así cuando lo galardonó con la Medalla Rumford, su más alto premio para el campo de la física. No menos importante a largo plazo fue el hecho de que el King’s College de Londres buscase a alguien que ocupase la cátedra de filosofía natural; James se presentó y fue elegido. Y todavía le quedaba alguna idea rompedora.
El King’s College, situado en el Strand, justo al norte del Támesis, se había fundado en 1829 como alternativa anglicana al no sectario University College, situado un par de kilómetros al norte, que a su vez se había fundado como alternativa a las universidades de Oxbridge [vi], estrictamente afines a la Iglesia de Inglaterra. A diferencia de los cursos tradicionales, como los que se impartían en Aberdeen y Cambridge, los del King’s College eran mucho más modernos.
Estar en Londres significaba que Maxwell podía asistir a las reuniones de la Real Sociedad y de la Real Institución, donde logró consolidar su amistad con Faraday. Habían mantenido mucha correspondencia, pero ahora por fin se conocían en persona, trabando una buena amistad. Maxwell se abocó entonces a su última gran idea.
En su artículo «Sobre las líneas de fuerza de Faraday», explicaba que había encontrado la manera de representar matemáticamente las líneas de fuerza como campos, y daba los primeros pasos hacia la formulación de un conjunto de ecuaciones que gobernasen la interacción entre los campos eléctricos y los magnéticos. Pero aquello solo era parte de la imagen que tenía en mente. Aunque aquí la palabra imagen ya no resulta apropiada, pues es en este momento cuando la física comienza a entrar en un mundo en el que ya no valen las analogías visuales que nos pueden resultar familiares. La imagen de un «campo» es fácil de visualizar, pero lo que Maxwell intentaba explicar con sus ecuaciones solo se podía explicar con dificultad con el lenguaje común, algo que se le hizo manifiesto a él, y luego a todos los demás, en su artículo de 1862, en el que llegó a la conclusión, de una forma dramática y usando las matemáticas que él mismo había creado, de que la luz también es una forma de perturbación electromagnética y, lo que es más, que se puede entender igual como una onda que como un haz de partículas. Aquello era absolutamente insólito, imposible de explicar con palabras, pero pleno de sentido dentro de las matemáticas [51].
De hecho, Maxwell obtuvo cuatro ecuaciones que, entre ellas, «resumían todo lo que se puede decir sobre la electricidad y el magnetismo clásicos». Y es por eso por lo que, entre los físicos, aunque todavía no entre el público general, Maxwell se sitúa a la altura de Newton. «Entre las leyes de Newton, con su teoría de la gravedad, y las ecuaciones de Maxwell se explicaba toda la física conocida a finales de los años 1860». El logro de Maxwell fue el más rompedor desde los Principia Mathematica de Newton de 1687 [52].
Por si todo eso no bastase, las ecuaciones de Maxwell implicaban que debía haber otras formas de ondas electromagnéticas con longitudes de onda mucho más largas que las de la luz visible. Su descubrimiento no tardaría en llegar.
El capítulo final de la extraordinaria carrera de Maxwell se produjo cuando fue invitado a aceptar una nueva cátedra en Cambridge. El duque de Devonshire, que era canciller de la universidad, había ofrecido una gran suma de dinero para construir un nuevo laboratorio de enseñanza e investigación que compitiera con los mejores que entonces había en el continente, sobre todo en Alemania. Cambridge se estaba quedando atrás en la ciencia experimental, y no solo en comparación con Francia y Alemania, sino también con muchas de las nuevas universidades británicas.
Maxwell no se mostró muy entusiasmado con la oferta de Cambridge. Sus teorías eran tan nuevas que no todo el mundo las entendía y no podía estar seguro de cómo se recibirían en general. Pero muchos de los físicos más jóvenes de Cambridge, que se habían mantenido al día con sus trabajos, le imploraron que la aceptase, y aquello lo decidió [53].

El tiempo se convierte en una propiedad de la materia
Clausius había dado por supuesto que cada una de las partículas de un gas viajaba a la misma velocidad media. Maxwell se basó en la nueva ciencia de la estadística para calcular una distribución aleatoria de velocidades de partículas, argumentando que las colisiones entre partículas darían como resultado una distribución de velocidades alrededor de una media, no una igualación. (La cuestión de qué eran aquellas partículas no se acabó de dilucidar entonces, aunque Maxwell estaba convencido de que eran «prueba de la existencia de un hacedor divino»).
El elemento estadístico (es decir, probabilístico) que de este modo se introducía en la física fue un avance muy controvertido, y sin embargo fundamental. En su artículo de 1850, Clausius había llamado la atención con la segunda ley de la termodinámica sobre la «direccionalidad» del flujo de calor que tiende a pasar de un cuerpo más cálido a otro más frío. Al principio no se había preocupado por las implicaciones de la irreversibilidad o no de los procesos, pero en 1854 argumentó que la transformación del calor en trabajo y la transformación de calor a alta temperatura a calor a menor temperatura eran de hecho equivalentes y que en ciertas circunstancias se podían contrarrestar, por ejemplo, mediante la conversión de trabajo en calor, donde el calor fluiría de un cuerpo más frío a otro más caliente. Esto, para Clausius, resaltaba la diferencia entre los procesos reversibles (hechos por el hombre) y los irreversibles (los naturales): una casa hecha ruina nunca se reconstruye a sí misma, una botella rota nunca se rehace de forma espontánea [54].
Fue solo más tarde, en 1865, cuando Clausius propuso el término «entropía» (del griego «transformación») para los procesos irreversibles. La tendencia del calor a pasar de los cuerpos cálidos a los fríos se podía describir entonces como un ejemplo del aumento de la entropía. De este modo, Clausius ponía el énfasis en la direccionalidad de los procesos físicos. La entropía era un equivalente de la energía «porque los dos conceptos tenían un significado físico análogo». Clausius enunció las dos leyes de la termodinámica del siguiente modo: «La energía del universo es constante» y «La entropía del universo tiende a un máximo». El tiempo, de una forma misteriosa, se había convertido en una propiedad de la materia.
Para algunas personas, la segunda ley encerraba mucho más significado del que el propio Clausius le atribuía. William Thomson pensaba que la irreversibilidad, que era una característica tan prominente de la segunda ley (la disipación de la energía), también implicaba una «cosmogonía progresivista» que, además, subrayaba la visión bíblica del carácter transitorio del universo. En concreto, Thomson extrajo de la segunda ley la implicación de que el universo, que entonces se sabía que se estaba enfriando, «en un tiempo finito» se apagaría y dejaría de ser habitable. Von Helmholtz también había entendido esta implicación de la segunda ley. No fue hasta 1867 cuando el propio Clausius, que para entonces había regresado a Alemania desde Zúrich, reconoció la «muerte térmica» del universo [55].

La matemática y la física se enlazan
Las ideas estadísticas publicadas por Clausius y Maxwell llamaron la atención del físico austriaco Ludwig Boltzmann. Boltzmann (1844-1906) había nacido en Viena durante la noche del baile de carnaval, entre el martes de carnaval y el miércoles de ceniza, una coincidencia que medio en broma decía que ayudaba a explicar los frecuentes y rápidos cambios de humor que lo sacudían entre la pura felicidad y la profunda depresión. Hijo de un funcionario de hacienda, era bajo y robusto, y el cabello rizado le hacía parecer más joven de lo que era. Su prometida le llamaba «dulce y gordo amado».
Hizo el doctorado en la Universidad de Viena y fue docente en Graz antes de trasladarse a Heidelberg y, más tarde, a Berlín, donde estudió con Bunsen, Kirchhoff y Von Helmholtz. En 1869, con veinticinco años, fue elegido para la ocupar la cátedra de física teórica de Graz. A partir de entonces, Boltzmann tuvo una carrera muy inestable, saltando de una cátedra a otra numerosas veces, en más de una ocasión porque no se llevaba bien con sus colegas. Las constantes discusiones deprimieron a Boltzmann y lo llevaron a su primer intento de suicidio.
Finalmente, tras tanto cambio, en 1901 Boltzmann regresó a Viena a la cátedra que había dejado vacante en una de sus discusiones con colegas, y que desde entonces nadie había ocupado. Además, le asignaron un curso sobre la filosofía de la ciencia, que enseguida se hizo muy popular, hasta el punto de que fue invitado al palacio del emperador Francisco José.
Por impresionante que eso sea, los principales logros de Boltzmann radican en dos famosos artículos que describían en términos matemáticos las velocidades, distribución espacial y probabilidades de colisión de las moléculas de un gas, todo lo cual determinaba su temperatura (de nuevo el calor y el movimiento). Las matemáticas eran estadísticas y demostraban que, fuera cual fuera el estado inicial de un gas, la distribución de velocidad de la ley de Maxwell describía su estado de equilibrio, lo que hoy conocemos como distribución de Maxwell-Boltzmann. También produjo una descripción estadística de la entropía [56].
En 1904, Boltzmann viajó a Estados Unidos, y allí visitó la Exposición Universal de San Luis, donde pronunció algunas conferencias antes de proseguir su viaje hasta Berkeley y Stanford. Durante su estancia, se comportó de una forma extraña: nadie acababa de entender si su altanería era enfermedad o pretenciosidad. De regreso a su casa se fue de vacaciones con su familia a Duino, cerca de Trieste, donde se ahorcó mientras su mujer y su hija habían ido a nadar. Nadie puede saber con certeza si la causa de su suicidio fue su inestabilidad general o los continuos ataques que recibían sus ideas. Lo que sí sabemos, por desgracia, es que no pudo saber, en el momento de su muerte, que sus ideas no tardarían en recibir confirmación experimental.
Lo importante del trabajo de Mayer, Joule y Von Helmholtz, y en particular de Clausius, Maxwell y Boltzmann, es, tanto si uno puede entender las matemáticas como si no, que trajeron la probabilidad a la física. ¿Cómo puede ser así? La materia existe de una forma definida, las transformaciones (como cuando se congela el agua) obedecen leyes invariables. ¿Qué puede tener que ver con todo ello la probabilidad? Esta fue la primera aparición de la «extrañeza» en la física, como un anuncio del cada vez más extraño mundo cuántico del siglo XX. Estos primeros físicos también hicieron a las «partículas» (átomos, moléculas, o alguna otra cosa que todavía no acababa de entenderse) parte íntegra del comportamiento de las sustancias [57].
La comprensión de la termodinámica fue el punto álgido de la física del siglo XIX, y del temprano enlace entre la física y la matemática, como una elaborada construcción sobre las ideas previas de Mary Somerville. Marcó el fin de una visión de la naturaleza estrictamente vinculada a la mecánica newtoniana y resultaría decisiva para el desarrollo de una espectacular forma nueva de energía: la energía nuclear. Y todo eso partió, en último análisis, del concepto de la conservación de la energía.

Capítulo 2
«Un solo golpe unifica vida, significado, propósito y ley física»

Hoy puede resultarnos difícil de comprender, pero a finales del siglo XVIII y principios del siglo XIX, cuando los filólogos atacaban los fundamentos del cristianismo (por ejemplo, poniendo en evidencia los absurdos y las incoherencias de la Biblia), los hombres de ciencia, en su mayoría, no intervinieron. En su mayor parte, los biólogos, los químicos y los fisiólogos siguieron siendo devotos religiosos. Lo mismo se podía decir, de nuevo en términos generales, de quienes practicaban las dos ciencias que habrían de producir las pruebas más convincentes de que la cronología bíblica era errónea: la astronomía y la geología.
La astronomía experimentó su mayor cambio desde Copérnico y Newton gracias a una pareja improbable que nunca habría logrado lo que hizo de no ser porque los poderes británicos decidieron invitar a un alemán a ser su rey.
Tal como Richard Holmes cuenta la historia, Joseph Banks, el botánico y explorador que acompañó a James Cook en su primer gran viaje, al poco tiempo de ser elegido presidente de la Real Sociedad, en 1778, comenzó a oír hablar de un astrónomo aficionado de mucho talento «que trabajaba a su aire» en el West Country, el suroeste de Inglaterra. La noticia había llegado a Banks por medio del secretario de la Real Sociedad, sir William Watson, cuyo hijo vivía en Somerset y era miembro central de la Sociedad Filosófica de Bath. Según esta historia, aquel inconformista era un alemán que construía sus propios (y muy potentes) telescopios y hacía algunas afirmaciones extravagantes sobre la Luna.
Su nombre era Wilhelm, o William, Herschel. Aunque alto y bien vestido, «y con el pelo empolvado», hablaba con un fuerte acento alemán (era de Hannover) y no llevaba ayuda de cámara cuando el hijo de Watson se lo encontró, en una callejuela adoquinada de Bath, mirando a la Luna [58]. El hijo de Watson le pidió que le dejase mirar por el telescopio, y supo ver que era de reflexión y no el habitual telescopio de refracción que usaban los aficionados. También observó que, si bien aquel instrumento de dos metros de longitud era claramente de fabricación casera, ofrecía la mejor resolución que nunca había visto, lo que le permitió observar la Luna como nunca antes.
El hijo de Watson entabló amistad con Herschel, y descubrió que era el organista de la capilla Octagon de Bath y complementaba su sueldo dando clases privadas de música. También componía, tenía la casa repleta de libros de astronomía y otros temas, y vivía con su hermana, que lo cuidaba, pero a quien él describía también como su «ayudante de astronomía».
A la vista de sus logros, el hijo de Watson invitó a Herschel a ingresar en la Sociedad Filosófica de Bath, adonde empezó a enviar artículos. Estos eran tan poco convencionales, pero al mismo tiempo tan sorprendentes, que Watson se los enviaba a su padre, y algunos de los más asombrosos acabaron publicándose en las Philosophical Transactions de la Real Sociedad. En el primero de estos, «Observaciones sobre las montañas de la Luna», afirmaba que, con su telescopio casero, había observado «bosques» en la superficie de nuestro satélite, y había llegado a la conclusión de que, con toda probabilidad, debía estar habitado. Aquello indignó a los miembros más establecidos de la Real Sociedad, que decidieron visitar a Herschel en Bath. Poco se resolvió en aquella reunión, pero quedaron impresionados con sus telescopios e intrigados con su diminuta hermana, Caroline, que parecía compartir con él una pasión desenfrenada por la astronomía [59].
Todo aquello cambió un año más tarde cuando Herschel anunció que había descubierto un nuevo planeta, algo que no pasaba desde los días de Pitágoras. Además, el nuevo planeta de Herschel tenía implicaciones importantes sobre la naturaleza del sistema solar.
Pero necesitamos algo de información previa. Herschel había nacido en Hannover el 15 de noviembre de 1738, doce años antes que su hermana. Desde pequeños habían estado muy unidos y lo que sabemos sobre su vida se lo debemos al diario que Caroline escribía. Los padres de William y Caroline habían tenido diez hijos, uno cada dos años, de los que habían sobrevivido seis [60]. El padre de William fabricó para él un pequeño violín, que aprendió a tocar tan pronto como pudo sostenerlo; al parecer, de ahí le venía su facilidad para trabajar la madera y fabricar instrumentos. Durante las noches de invierno, los padres sacaban a sus hijos afuera para observar el firmamento. En aquella época, antes de que se extendiera la contaminación lumínica, los cielos nocturnos eran mucho más espectaculares que en nuestros días.
Pero no todo era de color de rosa. El primogénito de la familia, Jacob, el preferido de su madre, no tardó en convertirse en un niño consentido y pendenciero que fustigaba a Caroline y se burlaba de Wilhelm cuando le iba bien en el colegio, que era lo habitual. Jacob era un músico virtuoso y pensaba que no había nada más en la vida. A los catorce años, William se unió a una banda militar, junto a su padre y hermano, y con el tiempo aprendió a tocar el oboe, el violín, el clavicémbalo, la guitarra y, finalmente, el órgano.
En la primavera de 1756, cuando William contaba diecisiete años y Carolina seis, la Guardia de a Pie de Hannover fue destinada a Inglaterra para servir a su aliado, el rey Jorge II de Gran Bretaña y Hannover. Los tres hombres de la familia fueron apostados en Maidstone, en Kent, y regresaron a Hannover un año más tarde. Richard Holmes nos cuenta que Jacob se llevó un «bello traje inglés a medida», mientras que Wilhelm se llevó un ejemplar del Ensayo sobre el entendimiento humano de John Locke. Pero la familia se vio envuelta en las guerras franco-prusianas, hasta el punto de tener tropas francesas alojadas en su casa. Jacob y Wilhelm se escaparon y huyeron a Inglaterra, llegando a Londres juntos y sin un penique.
Ambos consiguieron empleos como músicos, tocando o enseñando. Con el tiempo, cuando la situación se calmó en Alemania, Jacob decidió regresar a su casa. William, en cambio, era más feliz en Inglaterra; le gustaba el modo de vida, más libre, sin las mezquinas restricciones de los principados germanos, y le agradaba la cultura inglesa: las novelas, el teatro, la política. Obtuvo un puesto como músico maestro de la milicia de Durham, destacada en Richmond, en Yorkshire, que por aquel entonces era un centro regional muy civilizado. Por la noche solía ir a los páramos de Yorkshire, plantaba una manta sobre la hierba y estudiaba el firmamento que pronto conocería tan bien.
Consciente de que Jacob seguía hostigando a su hermana, y que esta había sufrido un episodio de tifus, al que había sobrevivido pero que al parecer había frenado su crecimiento, se apresuró a traerla a su lado a Inglaterra. La llevó a Bath, donde había sido nombrado organista de la capilla Octagon. Caroline apenas hablaba inglés, tenía la cara picada de viruela y no alcanzaba el metro y medio de estatura. Su aspecto era el de un niño, aunque su cabello se ensortijaba alrededor de su cara, adornada con un «pequeño y definido mentón» [61]. Durante el viaje a Inglaterra, Wilhelm la hizo subir a lo alto de la diligencia para que pudiera estudiar las estrellas. La trataba con afecto pero también con severidad. Sin embargo, no era una ayuda de cámara: le dejó claro que desde ese momento actuaría como anfitriona. Él tenía treinta y cuatro años, ella veintidós, y poco a poco se fue convirtiendo en su ayudante.
En febrero de 1766 comenzó su primer diario de observaciones astronómicas y empezó a coleccionar y construir telescopios, y con el tiempo cambió de los de refracción a los newtonianos de reflexión. Fue entonces cuando tuvo su primera gran idea. En aquella época, la mayoría de los astrónomos imaginaban que el firmamento nocturno estaba formado por gran número de estrellas encastradas como diamantes en una gigantesca esfera de cristal. Era sabido, naturalmente, que algunas estrellas y planetas estaban más cerca de la Tierra que otros, pero al parecer fue Herschel quien primero concibió la idea del espacio profundo.
En 1774, William construyó su primer telescopio reflector de metro y medio y enseguida comprendió que había creado un instrumento sin par por su claridad y capacidad para recoger la luz [62]. Podía ver, por ejemplo, que la estrella polar, esencial para la navegación y tradicional emblema poético de la singularidad y la constancia, no era una estrella sino dos. También enfocó su aparato en las nebulosas, o «nubes de estrellas», que eran un misterio.
El reconocimiento de las nebulosas era entonces algo relativamente reciente. En la década de 1740 se conocían unas treinta nebulosas, aunque para cuando Herschel entró en escena, según Charles Messier, el más notable astrónomo y catalogador de estrellas de Francia, la cifra había alcanzado el centenar. En el curso de diez años, las observaciones de Herschel la hincharon todavía más, hasta alrededor de un millar. Nadie conocía su composición, orígenes o distancia. La idea más extendida era que se trataba de unas imprecisas aglomeraciones de gas que colgaban de la Vía Láctea, «material de la creación de Dios que flotaba libremente» [63].
Con la familia más o menos establecida (también se había traído de Hannover a un hermano menor), más o menos desde 1779 Herschel comenzó en serio a hacer investigaciones astronómicas más amplias y profundas. Su primera idea fue elaborar un catálogo de estrellas dobles, de las que se conocían varias, algunas ya catalogadas por John Flamsteed (1646-1719), el primer astrónomo real. Lo interesante de las estrellas dobles era que, por medio del paralaje, podían dar una idea más precisa de la distancia a la que se encontraban. Por aquel entonces no se disponía de un buen conocimiento de la distancia astronómica, ni de lo grande que era la Vía Láctea. Kant creía que, por su brillo, Sirio, la Estrella Perro, era probablemente el centro de la Vía Láctea e incluso del universo entero [64]. Muchos astrónomos daban por hecho que otras estrellas estaban habitadas.

Un nuevo planeta
Entre tanto, William seguía centrado en su interés por catalogar las estrellas dobles. Y fue mientras hacía eso cuando, el 13 de marzo de 1781, un poco antes de la medianoche, Herschel divisó un nuevo y no identificado «objeto en forma de disco que se desplaza por la constelación de Gemini». A partir de su diario de observaciones, parece que en un principio pensó que se trataba de un cometa, pero al cabo de tres o cuatro días se lo repensó, al notar que el objeto estaba bien definido y no dejaba ninguna estela. Eso solo podía significar que se trataba de un nuevo cuerpo «itinerante», un nuevo planeta, y efectivamente eso era lo que había descubierto: el séptimo planeta del sistema solar, más allá de Júpiter y Saturno, el primero que se descubría desde los tiempos de Ptolomeo (c. 90 d. C.-c. 168). Al principio Herschel lo llamó, en honor de su rey hannoveriano, «Georgium Sidus» (estrella de Jorge), pero con el tiempo pasó a conocerse como Urano, por «Urania», la diosa de la astronomía [65].
Sin embargo, durante algún tiempo nadie acababa de ponerse de acuerdo sobre qué era exactamente lo que Herschel había encontrado. Por fin envió una comunicación sobre sus observaciones a Watson, que la transmitió a la Real Sociedad, que a su vez solicitó la opinión de Messier en París. A causa del anterior faux pas de Herschel sobre la vida en la Luna, no todo el mundo se fiaba.
Nevil Maskelyne, el astrónomo real de entonces, tenía un particular dilema. Aceptar demasiado pronto lo que Herschel afirmaba pondría en riesgo su credibilidad. Por otro lado, podía convertirse en un tanto a favor de la ciencia inglesa (aunque marcado por un alemán), que en caso contrario podría acabar en el marcador de los depredadores franceses si estos reconocían primero el descubrimiento de Herschel (y tal vez hasta bautizaban la estrella). Además, Banks también lo presionaba porque la Real Sociedad necesitaba consolidar sus relaciones con el nuevo monarca, cuya afición a las estrellas era bien conocida. Maskelyne observó el objeto con sus propios ojos y confirmó su existencia, aunque se inhibió entonces de decidir si se trataba de un planeta o de un cometa. Más tarde modificó su opinión y decidió apoyar a Herschel. Messier escribió desde París que, después de haber descubierto él mismo no menos de dieciocho cometas, el descubrimiento de Herschel no se parecía a ninguno de ellos. El resultado fue que Herschel leyó su comunicación ante la Real Sociedad a finales de abril. El artículo, titulado «Explicación de un cometa», decía simplemente que Herschel había descubierto un nuevo planeta. Fue elegido miembro de la Real Sociedad de inmediato [66].

El orden de los cielos
Aquel descubrimiento provocó una revolución en la concepción popular de la cosmología. Astrónomos de toda Europa escribieron a Herschel pidiéndole detalles de sus instrumentos, aunque en la Real Sociedad seguía habiendo escépticos que dudaban de lo que podrían conseguir. Quien no era escéptico era el rey, Jorge III, a quien fascinaba el firmamento e invitó a Herschel a la corte, en Windsor, para felicitarlo. Cuando se vieron, en mayo de 1782, hablando inglés aunque ambos eran hannoverianos, el encuentro fue un gran éxito.
Del éxito se benefició también Banks, siempre atento a promover los intereses de la ciencia, quien decidió conseguir para Herschel un salario y un lugar mejor donde vivir. El puesto de real astrónomo ya estaba ocupado, así que Banks convenció al rey para que creara un nuevo puesto, el de astrónomo personal del rey, con un salario de 200 libras al año, y una casa cerca de Windsor, en Datchet, por añadidura [67]. Caroline siguió escribiendo su diario, lo que permite atestiguar la cronología de sus carreras conjuntas.
Entre 1784 y 1785, Herschel comenzó a sintetizar sus nuevas y radicales ideas sobre el cosmos, que publicó en dos «artículos revolucionarios» en las Philosophical Transactions de la Real Sociedad. En «Una investigación sobre la construcción de los cielos», publicado en junio de 1784, Herschel identificó 466 nebulosas nuevas (cuatro veces más que las identificadas por Messier) y sugirió por primera vez la posibilidad de que muchas de ellas, si no todas, fuesen galaxias o aglomeraciones independientes de estrellas situadas fuera de la Vía Láctea. Eso lo llevó a proponer que la Vía Láctea no era plana sino tridimensional, que en realidad estamos dentro de ella, formamos parte de ella, y que tiene forma de disco con brazos que se extienden hacia el espacio profundo.
En su segundo artículo, un año más tarde, titulado «Sobre la construcción de los cielos», empezaba diciendo que la astronomía necesitaba un «delicado equilibrio» entre la observación y la especulación si había de progresar por medio de la inducción, que no bastaba con las observaciones. Luego hacía notar que el universo no era estático, que los cielos lejanos cambiaban constantemente, que todas las nebulosas gaseosas podían «resolverse» en estrellas y eran en realidad enormes agregaciones de estrellas muy alejadas de la Vía Láctea. Con esta observación incrementaba inconmensurablemente el tamaño del cosmos; para entonces su recuento de nebulosas pasaba de 900, y muchas, insistía, eran mayores que la Vía Láctea [68]. Estimaba además que el espacio profundo era «no menos de seis o siete mil veces la distancia a Sirio», aunque admitía que aquellas estimaciones eran poco finas, y hoy sabemos que se quedaban muy cortas, aunque para su tiempo resultasen extravagantes.
En este artículo, por cierto, concedía a su hermana el crédito por el descubrimiento de uno de los grupos de nebulosas. Esta mención, aunque breve, probablemente acrecentase enormemente la confianza de Caroline en su talento, y acabó labrándose un nombre como astrónoma por derecho propio. Acabó descubriendo no menos de siete cometas.
Por su parte, William también observó que las muchas nebulosas que había identificado variaban de una forma sistemática: algunas eran más «comprimidas» que otras, otras parecían estar «condensándose». Apuntó entonces la idea de que algunas nebulosas eran más antiguas que otras, más evolucionadas, es decir, que las nebulosas se desarrollaban y maduraban hasta alcanzar un clímax. La fuerza fundamental era la gravedad, que de manera gradual comprimía el gas de las nebulosas formando enormes y brillantes sistemas galácticos que con el tiempo se iban condensando en estrellas individuales.
Con este artículo, la astronomía cambió de carácter, pasando de ser fundamentalmente una ciencia matemática aplicada sobre todo a la navegación a ser una ciencia cosmológica interesada en la evolución de las estrellas y los orígenes del universo [69].
Aunque las implicaciones de todo esto tardaron en asumirse (quizá porque algunos no querían asumirlas), uno de los primeros en seguir las ideas de Herschel fue el matemático y astrónomo francés (y, lo que tal vez sea significativo, ateo) Pierre-Simon Laplace, quien publicó un artículo sobre «la hipótesis nebular» en 1796.
Laplace partió de las ideas de Herschel y las aplicó a la formación del sistema solar. A veces se le conoce como el Newton francés por ser tanto matemático como físico y astrónomo. Muchos de los detalles sobre los primeros años de su vida se desvanecieron como el humo, literalmente, cuando el château familiar se incendió en 1925. Pero sabemos que nació en Beaumont-en-Auge, en Normandía, en 1749, en un entorno agrícola. También sabemos que Laplace fue al colegio en un monasterio benedictino porque su padre pretendía destinarlo a la iglesia, y luego fue a la Universidad de Caen a enseñar teología.
La adaptación que hizo Laplace de las ideas de Herschel aplicadas al sistema solar apareció en su Exposition du Système du Monde [Exposición del sistema del mundo] (1796) y en el primer volumen de su obra clásica Mécanique céleste (1799), donde argumentaba que el Sol se había condensado lentamente a partir de una nube de polvo de estrellas que, al girar, había dado lugar a todo nuestro sistema planetario, exactamente del mismo modo que otros sistemas planetarios por todo el universo [vii]. También estuvo a punto de predecir la existencia de agujeros negros al señalar que en el universo podía haber estrellas masivas en las que la gravedad fuese tan elevada que ni siquiera la luz pudiera escapar de su superficie. El significado de todo esto era, como se puede imaginar, tan teológico como científico. Lo que decía es que no se había producido ninguna creación especial, sino un origen puramente inmaterial de la Tierra que no necesitaba de ninguna intención divina, de ningún Génesis. Y, además, que la creación divina tampoco aparecía por ninguna otra parte del universo.
A Herschel le fue otorgado el título de baronet en mayo de 1838, a tiempo de asistir a la coronación de la reina Victoria en la abadía de Westminster, y aquel mismo año fue elegido presidente de la Real Sociedad. Durante la década de 1850 fue el más destacado científico público de la Inglaterra victoriana y fue fotografiado por Julia Margaret Cameron usando un proceso que él mismo había contribuido a inventar. No obstante, sin restarle importancia a nada de esto, su verdadero logro fue revelar la significación filosófica de la astronomía. Calculó que los rayos de luz que alcanzaban sus telescopios desde las nebulosas lejanas debían llevar, en algunos casos, «dos millones de años en camino» [70]. En otras palabras, el universo era casi inimaginablemente mayor y más antiguo de lo que nadie había imaginado antes. Sin Herschel, Charles Darwin no habría sido posible.

La primera síntesis geológica
Al mismo tiempo que maduraba la cosmología, también lo hacía otra disciplina que pondría la prehistoria sobre unos nuevos cimientos y contribuiría a desbrozar el camino para Darwin. La geología difería fundamentalmente de todas las otras ciencias y de la filosofía. Era, en palabras de Charles Gillispie, la primera ciencia que se ocupaba de la historia de la naturaleza, no de su orden.
En el siglo XVII, Descartes había sido el primero en vincular la nueva astronomía y la nueva física construyendo una visión coherente del universo, en el que incluso el Sol, por no hablar de la Tierra, era simplemente una estrella más. Había conjeturado que la Tierra se podía haber formado a partir de una bola de ceniza que se estaba enfriando y había quedado atrapada en el «vórtice» del Sol. La idea de que la física funcionaba de acuerdo con los mismos principios en todo el universo representó un enorme cambio en el pensamiento que no se le habría podido ocurrir a una mentalidad medieval. Las ideas básicas de cielo y tierra, al menos tal como se entendían en Occidente, eran aristotélicas y se les suponía fundamentalmente diferentes: uno no podía dar origen al otro. Con el tiempo, la física de Descartes fue reemplazada por la de Newton, y el «vórtice» por la gravedad. En 1691, Thomas Burnet publicó su Teoría sagrada de la Tierra, en la que argumentaba que la formación de nuestro planeta había sido el resultado de la aglomeración de diversos materiales: rocas densas en el centro, luego agua menos densa y encima una corteza ligera sobre la que vivimos. Unos años más tarde, William Whiston, el sucesor de Newton en Cambridge, propuso que la Tierra se podía haber formado a partir de una nube de polvo dejada por un cometa, que se habría aglomerado hasta formar un cuerpo sólido, y luego habría quedado inundada con agua de un segundo cometa. Esta idea, la de que en otro tiempo la Tierra había estado cubierta por un vasto océano que luego se habría retraído, resultó ser perdurable. Leibniz añadió la idea de que en otro tiempo la Tierra había sido mucho más caliente que en nuestra era, y que los terremotos podrían haber sido mucho más violentos en el pasado [71].
Así pues, poco a poco se iba configurando la idea de que la Tierra había cambiado con el tiempo. No obstante, con independencia de cómo se hubiera originado la Tierra, el problema central al que se enfrentaban los primeros geólogos era el de explicar que las rocas sedimentarias, formadas por deposición en un medio marino, estuvieran hoy en tierras secas. Tal como ha señalado Peter Bowler, solo puede haber dos respuestas: o ha descendido el nivel del mar o las tierras se han levantado. La idea de que todas las rocas sedimentarias se depositaron en el fondo de un vasto océano que luego había desaparecido dio en conocerse como teoría neptunista, por el dios romano del mar. La alternativa se conocía como vulcanismo, por el dios del fuego [72].
Con mucho, el neptunista más influyente del siglo XVIII, y de hecho el geólogo más influyente del tipo que fuera, fue Abraham Gottlob Werner, un profesor de la escuela de minería de Friburgo, en Alemania. Werner propuso que se podía explicar la formación de las rocas si se aceptaba que la Tierra, una vez enfriada, tuviese una superficie desigual y que las aguas si hubiesen retirado a distinta velocidad en distintas regiones. Primero habrían quedado expuestas las rocas primarias; luego, suponiendo que la retirada de las aguas fuese lo bastante lenta, se erosionarían las rocas primarias hacia el gran océano, y los sedimentos que se formarían quedarían expuestos a medida que se fuesen retirando las aguas, creando así rocas secundarias mediante un proceso que se iría repitiendo una y otra vez. De este modo se habrían ido formando de forma sucesiva los distintos tipos de roca. La primera fase producía las rocas «primitivas», como el granito, el gneis o el pórfido, que se habrían cristalizado a partir de la solución química primitiva durante la inundación. La última, que no se habría formado hasta la retirada de todas las aguas de inundación, se habría generado por actividad volcánica, lo que explicaría, por ejemplo, la producción de lavas y tobas. Para Werner, los volcanes de la Tierra tenían su origen en la ignición de depósitos de carbón. Aunque Werner no estaba en absoluto interesado en la religión, su teoría neptunista se ajustaba muy bien al relato bíblico del diluvio universal, lo que en parte explica su popularidad y que diese pie a la expresión «geología escritural».
Esta teoría tenía las virtudes del orden y la pulcritud, pero no comenzaba siquiera a explicar por qué algunos tipos de roca, que según Werner eran más recientes que otros, a menudo se encontraban debajo de ellas. Aún más problemática era la ingente cantidad de agua que habría sido necesaria para tener en solución todas las tierras emergidas del planeta. El diluvio tendría que haber alcanzado muchos kilómetros de profundidad, pero ¿adónde había ido toda esa agua tras la retirada del diluvio [73]?
El principal rival de Werner, aunque de ningún modo tan influyente como él en un principio, era un escocés de la Ilustración escocesa que ya hemos conocido como amigo de Mary Somerville: James Hutton. Desde mediados del siglo XVIII, algunos naturalistas habían comenzado a sospechar que la actividad volcánica había tenido algún efecto sobre la Tierra. Habían observado, por ejemplo, que ciertas montañas del centro de Francia tenían forma de volcán, pese a que no había ningún registro histórico de ese tipo de actividad. Otros señalaban el caso de la Calzada del Gigante en Irlanda, que parecía estar formada por columnas de basalto que se habían solidificado a partir de una lava fundida y por tanto eran de origen volcánico. Hutton no comenzó por el origen de la Tierra, limitándose a la observación, no a la conjetura.
Más conocido como geólogo, Hutton en realidad se había formado como químico y doctor cualificado, aunque posiblemente completara sus estudios de medicina solo porque esa era la manera de aprender más química. Su padre, William, un rico comerciante de Edimburgo, había fallecido cuando su hijo tenía dos años [74]. Pese a ello, su madre crio a James y sus tres hermanas en un entorno bastante acomodado.
En 1736, con diez años, James ingresó en la Escuela Superior de Edimburgo, donde estudió los clásicos y matemáticas, y accedió a la universidad a los catorce años. (Eso no era tan sorprendente entonces como lo sería hoy, pues durante algún tiempo las universidades escocesas competían con las escuelas para educar a los estudiantes más brillantes). En la universidad estudió matemáticas, lógica y metafísica y se graduó con solo diecisiete años. Esta fluida progresión se vio interrumpida en 1745 con el levantamiento jacobita de Carlos Eduardo Estuardo, y cuando, poco después, James descubrió que tenía un hijo ilegítimo, un problema no menor en el Edimburgo presbiteriano. Huyó de Escocia para proseguir sus estudios en París, Leiden y Londres, y no regresó a Edimburgo hasta 1767. Cuando lo hizo, sin embargo, fue para vivir en la casa familiar con sus tres hermanas.
¡Y qué regreso! La Ilustración escocesa estaba en plena efervescencia y enseguida trabó amistades duraderas con Joseph Black, James Watt y Adam Smith. Además de la presencia de sus tres hermanas, la casa de Edimburgo no tardó en convertirse en el laboratorio de Hutton y en su propio hogar. Un visitante escribió: «Su estudio está tan lleno de fósiles y aparatos químicos de diversos tipos que apenas queda espacio para sentarse» [75].
Los fósiles eran para Hutton parte del panorama geológico, pero no la parte principal. Observaba a su alrededor los cambios geológicos que se producían en su propia era y adoptó la opinión de que aquellos procesos se habían producido siempre. De este modo se percató de que la corteza de la Tierra, su capa más externa y accesible, está formada por dos tipos de roca, uno de origen ígneo (formadas por el calor) y el otro de origen acuoso. Observó además que las principales rocas ígneas (granito, pórfido, basalto) suelen aparecer debajo de las acuosas, salvo allí donde turbulencias subterráneas habían hecho aflorar las rocas ígneas. También observó lo que nadie más sabía ver: que todavía en nuestros días la meteorización y la erosión siguen depositando un fino sedimento de arenisca, caliza, arcilla y grava sobre el lecho del océano cerca de los estuarios de los ríos. Luego se preguntó qué podía haber transformado aquellos limos en las rocas sólidas que encontramos a todo nuestro alrededor, y llegó a la conclusión de que solo podía haber sido el calor. El agua quedaba descartada (un paso importante) porque muchas de esas rocas son claramente insolubles. Pero, entonces, ¿de dónde venía aquel calor? Hutton llegó a la conclusión de que era el calor del interior de la Tierra que se manifestaba en la actividad volcánica. Eso explicaba los estratos retorcidos o inclinados que se podían observar en muchos lugares del mundo. Y señaló que seguía produciéndose actividad volcánica y que los ríos, como todo el mundo podía ver, seguían acarreando sedimentos hacia el mar.
Hutton publicó por primera vez sus teorías en las Transactions de la Real Sociedad de Edimburgo en 1788. (La Real Sociedad de Edimburgo había sido fundada en 1783 pero había nacido de la anterior Sociedad Filosófica de Edimburgo. Ocupaba y sigue ocupando un ámbito más amplio que la Real Sociedad de Londres, e incluye entre sus intereses y sus miembros figuras literarias e historiadores). La primera publicación de Hutton fue seguida en 1795 por una obra en dos volúmenes, Theory of the Earth [Teoría de la Tierra], «el primero de los tratados que puede considerarse una síntesis geológica y no un ejercicio de la imaginación» [76].
Cuando se publicó el libro de Hutton, la realidad histórica del diluvio universal no se cuestionaba. Del mismo modo que el diluvio era indisputable, la narración bíblica de la creación del mundo revelada en el Génesis tampoco era cuestionable. En consecuencia, todavía se creía que el tiempo transcurrido desde la creación era de unos seis mil años (basándose en que el Génesis dice que Dios creó el mundo en seis días y en que, en otro lugar, la Biblia dice que para Dios un día es como mil años) [viii]. Y aunque algunos comenzaban a preguntarse si aquel tiempo habría bastado, prácticamente nadie pensaba que la Tierra pudiese ser mucho más antigua.
No cabía duda de que el vulcanismo de Hutton se ajustaba a los hechos mejor que el neptunismo de Werner. No obstante, muchos críticos se resistían a adoptarlo porque el vulcanismo implicaba periodos geológicos mucho más dilatados, «edades inconcebibles que iban mucho más allá de lo que nadie había imaginado antes». Por consiguiente, pese a las teorías de Hutton, a principios del siglo XIX muchos hombres de ciencia eminentes todavía suscribían el neptunismo: sir Joseph Banks, Humphry Davy, por no mencionar el amigo de Hutton, James Watt. La teoría de Hutton no empezó a establecerse de verdad (sus libros no estaban demasiado bien escritos) hasta que John Playfair publicó una versión de divulgación en 1802 (este es el mismo John Playfair que había intentado «hacer un compendio de las verdades elementales de la filosofía natural», véase la introducción [77] ).
Pero Hutton (un deísta) no estaba solo en la creencia de que la observación de procesos que todavía se producen acabaría por triunfar. En 1815, William Smith, un constructor de canales que a menudo se conoce como el «padre» de la geología británica, señaló que por todo el planeta las rocas de forma parecida contenían fósiles parecidos. Muchas de aquellas especies ya no existían. Aquello, por sí solo, implicaba que las especies aparecían, florecían y luego se extinguían durante los larguísimos periodos de tiempo que tardaban las rocas en depositarse y endurecerse. Eso era importante en dos sentidos. En primer lugar, apoyaba la idea de que las capas sucesivas de rocas no se habían formado todas a la vez, sino a lo largo del tiempo. Y, en segundo lugar, reforzaba la idea de que se habían producido numerosas creaciones y extinciones separadas, muy en contra de lo que decía la Biblia [78].

El orden biológico de las rocas
Las objeciones a la explicación bíblica no dejaban de crecer. Aun así, a principios del siglo XIX casi nadie cuestionaba el diluvio universal. Peter Bowler dice que en aquella época los textos geológicos a veces vendían más que las novelas populares, pero que la ciencia «era respetable solo en la medida en que no perturbase las convenciones religiosas y sociales de la época». El neptunismo, sin embargo, dio un giro importante en 1811, cuando Georges Cuvier publicó sus Recherches sur les ossemens fossiles [Investigaciones sobre huesos fósiles]. En esta obra, que vio cuatro ediciones en diez años, Cuvier argumentaba que no se había producido uno sino cuatro cataclismos (diluvios incluidos) en la historia de la Tierra. Observando a su alrededor, al modo huttoniano, había llegado a la conclusión de que, dado que mamuts enteros y otros vertebrados de gran tamaño habían quedado «atrapados enteros» en hielo en regiones montañosas, aquellos cataclismos debían de haber sido realmente repentinos. También argumentaba que si se habían levantado montañas enteras por encima del nivel del mar, los cataclismos solo podían haber sido, por definición, inimaginablemente violentos, tanto que se habían exterminado especies enteras y, cabía pensar, formas anteriores de los seres humanos [79].
Cuvier también había observado, y eso era importante, que en las rocas, cuanto más profundos se encontraban los fósiles, más se diferenciaban estos de las formas de vida actuales y que, además, los fósiles aparecían en un orden coherente en todo el mundo: peces, anfibios, reptiles, mamíferos. Llegaba así a la conclusión de que cuanto más viejo era el estrato de rocas, mayor era la proporción de especies extintas. Como en aquella época todavía no se habían encontrado fósiles humanos, concluían que «la humanidad debió crearse en algún momento entre la última catástrofe y la que la precedió». También observaba que la expedición de Napoleón a Egipto (1798-1801) había regresado con animales momificados de miles de años de antigüedad que eran idénticos a los que viven ahora, lo cual confirmaba la estabilidad de las especies. Por consiguiente, las especies fósiles también debían de haber vivido durante mucho tiempo antes de extinguirse [80].
Había, de hecho, una razón más por la que muchos geólogos suscribían la teoría del diluvio, y era la existencia de rocas enormes de un tipo completamente distinto al de las tierras que las rodeaban. Más tarde se entendería que se trataba de rocas depositadas por los mantos de hielo durante las glaciaciones, pero en un principio su distribución se atribuyó al gran diluvio.
El hombre que primero desempeñó un papel principal en casar los fósiles con la geología fue el profesor William Buckland, el primer catedrático de geología de Oxford. Nacido en Axminster, en Devon, Buckland fue hijo de un rector cuyo interés en la mejora de las carreteras le llevó a coleccionar fósiles, una afición que transmitió a su hijo. Ordenado sacerdote, Buckland mantuvo sin embargo su interés en la geología, realizando muchas excursiones a caballo. En 1818 fue elegido miembro de la Real Sociedad y aquel mismo año convenció al príncipe regente de que financiara una nueva cátedra de geología y paleontología en la Universidad de Oxford, convirtiéndose en el primero en ocupar el puesto.
Cuando aún llevaba poco tiempo en Oxford, en 1821, unos mineros dieron con una cueva en Kirkdale, en el valle de Pickering, en Yorkshire, en la que descubrieron un gran depósito de «huesos variados». Buckland vio la oportunidad y se apresuró a viajar a Yorkshire, donde enseguida determinó que si bien la mayoría de los huesos pertenecían a hienas, también había muchas aves y otras especies, entre ellas animales que ya no se encontraban en Gran Bretaña, como leones, tigres, elefantes, rinocerontes e hipopótamos. Además, cada uno de los huesos y cráneos estaba deformado o fracturado más o menos de la misma manera, lo que lo llevó a la conclusión de que los mineros habían encontrado una guarida de hienas. Puso sobre el papel su descubrimiento, primero en forma de artículo académico, que ganó la Medalla Copley de la Real Sociedad, luego en forma de una obra de divulgación.
Su tesis era poco pulcra y clara. La mayoría de los huesos de Kirkdale pertenecían a especies que se habían extinguido en Europa. Esos huesos no se encontraban nunca en depósitos aluviales (de ríos) de arena o limo, y por tanto nada indicaba que aquellos animales hubieran vivido en Europa desde el diluvio universal. De ello se seguía, al parecer de Buckland, que los animales cuyos restos se habían hallado debían haber quedado enterrados antes de los tiempos de Noé. Por último, argumentaba que los restos de la capa superior estaban tan bien preservados en barro y limo «que debieron quedar enterrados de manera súbita y, a juzgar por la capa de estalactita posdiluvial que cubre el lodo, no mucho antes de hace cinco o seis mil años». También observó un pequeño número de bolas muy pequeñas de «excremento calcáreo» de un animal que se había alimentado de los huesos. Más tarde se vio que se parecían a las heces de la hiena del Cabo, y fue así como se empezaron a utilizar los restos fecales en paleontología. Buckland acuñó el término «coprolito» para referirse a la materia fecal fósil [81].
Buckland era tan devoto de la geología como de Dios. Cuando contrajo matrimonio, su idea de luna de miel fue (con la conformidad de su mujer) un largo recorrido por todos los grandes yacimientos de fósiles de Europa, lo que recuerda a Joule cuando se llevó a su mujer a visitar localidades europeas que tenían interés para un físico. Más incierto es que la esposa de Buckland compartiera la otra afición exótica de su marido: la zoofagia. Buckland afirmaba haber comido tanta variedad del reino animal como había caído en sus manos. Lo más desagradable al gusto, según decía, eran los topos y las moscardas azules. Algunas de sus visitas cuentan que le vieron comer pantera, cocodrilo y ratón [82].

El ordenamiento de las formas de vida: La síntesis de Lyell
A la teoría del diluvio, sin embargo, no le faltaban problemas, de los cuales no era menor el hecho de que, como incluso Buckland reconocía, las pruebas del diluvio que se encontraban alrededor del mundo lo situaban en épocas muy distintas. Además, hacia la década de 1830, la teoría del enfriamiento de la Tierra iba ganando coherencia como explicación de la mayor actividad geológica del pasado, alimentando aún más la concepción de una Tierra que se desarrolla y en la que las formas de vida habían sido muy distintas en tiempos pretéritos. Todo esto ayudó a que en 1841 se le ocurriera a John Phillips, catedrático de geología en Dublín, la idea de identificar un orden en la gran secuencia de formaciones geológicas: el Paleozoico, la edad de los peces e invertebrados; el Mesozoico, la edad de los reptiles; y el Cenozoico, la edad de los mamíferos.
Este orden se basaba en parte en el trabajo de Adam Sedgwick y sir Roderick Murchison, en Gales, que comenzaron a descodificar el sistema paleozoico. Con el tiempo, se vería que el periodo Paleozoico se había extendido desde hace unos 550 millones de años hasta hace unos 250 millones de años, y durante ese tiempo la vida vegetal había colonizado la tierra desde los océanos, habían aparecido los peces, luego los anfibios, y por fin los reptiles habían alcanzado la tierra. Todas estas nuevas formas de vida habían desaparecido hace unos 250 millones de años por razones que todavía eran difíciles de imaginar. Pero los análisis de Sedgwick y Murchinson dejaban claro que las primeras formas de vida de la Tierra eran muy antiguas, y que la vida se había originado en el mar y solo más tarde había colonizado el medio terrestre. Con diluvio o no, todo aquello contradecía frontalmente lo que decía la Biblia [83].
La importancia de los descubrimientos de Cuvier, Buckland, Sedgwick y Murchinson (más allá de sus méritos intrínsecos) era que produjeron un decisivo cambio en la manera de pensar de Charles Lyell, quien en 1830, publicó el primer volumen de los tres que constituirían su obra Principles of Geology [Principios de geología].
Lyell, otro escocés, había nacido en el seno de una familia sofisticada y de sólida educación: su padre era conocido como botánico pero también como traductor de varias obras de Dante. Charles asistió a las famosas clases de William Buckland en Oxford, pero después de graduarse se decidió por formarse como abogado en Lincoln’s Inn. Disponía de medios propios y obtener ingresos no era su mayor preocupación, así que cuando le enviaron a la región administrativa occidental tuvo la oportunidad de hacer observaciones geológicas mientras viajaba. Pero nunca gozó de buena vista y, a medida que se fue deteriorando, abandonó la abogacía para dedicarse plenamente a la geología y comenzar lo que habría de ser el mayor empeño de su vida: desarrollar las ideas de James Hutton sobre cómo los procesos que vemos a nuestro alrededor en nuestros días han existido siempre y han moldeado la superficie de la Tierra tal como la conocemos hoy.
El argumento de Lyell en los Principles estaba resumido en su largo subtítulo (según era costumbre): Un intento por explicar los antiguos cambios de la superficie de la Tierra por referencia a causas que aún actúan en nuestros días . En esencia, más que una investigación original, Principles era una obra de síntesis en la que Lyell clarificaba e interpretaba material ya publicado con la intención de respaldar dos conclusiones. La primera y más obvia era que las principales características geológicas de la Tierra se podían explicar como el resultado de procesos en la historia que eran exactamente los mismos que los que podían observarse en el presente. En una reseña de su libro se usó el término «uniformismo», que se hizo popular. La segunda intención de Lyell, pese a ser un devoto cristiano, era oponerse a la idea de que un gran diluvio, o una serie de diluvios, habían producido las características de la Tierra que vemos a nuestro alrededor [84].
En el frente religioso, Lyell adoptó la opinión, basada en el sentido común, de que era improbable que Dios anduviera interfiriendo en las leyes de la naturaleza provocando una serie de grandes cataclismos. En su lugar, decía, siempre que supongamos que el pasado se dilata el tiempo suficiente, los procesos geológicos que todavía se podían observar bastaban para explicar «el registro de las rocas». Además (y esta era su contribución intelectual original), comparó los hallazgos de la estratigrafía, la paleontología y la geografía física e identificó tres eras distintas con tres formas de vida distintas. Estas épocas acabaron por conocerse como Plioceno, Mioceno y Eoceno, la última de las cuales se extendía hasta hace unos 55 millones de años. Pero una vez más, este marco temporal era mucho más largo que cualquiera de los que pudieran derivarse del Antiguo Testamento.
El primer volumen de Principles se enfrentaba a la idea del diluvio universal, y dio inicio al proceso que acabaría matando la idea. En el segundo volumen, Lyell demolía la versión bíblica de la creación. Inspeccionando los fósiles tal como se revelaban en el orden de las rocas, mostraba que se había dado un proceso continuo de creación y extinción que implicaba literalmente innumerables especies. Creía que el hombre se había creado en un tiempo relativamente reciente, pero por el mismo proceso que el resto de los animales [85].

El orden ascendente de la vida en las rocas
Más radical aún que Lyell era Robert Chambers, también un personaje de Edimburgo, cuyos Vestiges of the Natural History of Creation [Vestigios de la historia natural de la creación], publicado en 1844, era tan polémico que Chambers lo publicó anónimamente. Esta obra también promovía la idea básica de la evolución, pero tampoco anticipaba la idea darwiniana de la selección natural. Pero Chambers describía el progreso de la vida como un proceso puramente natural, y su mayor contribución era que ordenaba el registro paleontológico en un sistema ascendente y que argumentaba que el hombre no destacaba de ningún modo del resto de los organismos del mundo natural. Aunque no concebía de ningún modo la selección natural ni, en realidad, proponía ningún mecanismo de evolución, introdujo entre el público la idea de la evolución quince años antes que Darwin.
James Secord, en su reciente obra Victorian Sensation [Sensación victoriana] (2000), explora la influencia de Vestiges y llega a decir que a Darwin, en cierto sentido, se le había adelantado Chambers con la noticia, que amplias y variadas secciones de la sociedad (británica) habían debatido sobre Vestiges, en la Asociación Británica, en los salones y sociedades intelectuales entonces en boga, en Londres, Cambridge, Liverpool y Edimburgo, entre las feministas y los librepensadores pero también en grupos sociales «inferiores». Además, las ideas que el libro promovía llegaron a ser motivo de discusión general, y aparecieron referencias a ellas en pinturas, exposiciones y en las viñetas cómicas de los nuevos periódicos de circulación masiva. Chambers creía que su libro causaría sensación: una de las razones por las que lo publicó anónimamente fue por si acaso fracasaba; la otra, por si tenía éxito. La idea realmente importante de Secord es que Vestiges hizo llegar la idea de la evolución a un público muy amplio (tuvo catorce ediciones) y que, visto bajo esa luz, El origen de las especies de Darwin, más que crear una crisis, la resolvió [86].

El vínculo entre el hielo y la agricultura
Hubo otra serie de acontecimientos que también allanaron el camino para Darwin y que se desataron con el descubrimiento de la gran edad de hielo por Louis Agassiz y otros. Nacido en Môtier, en el cantón suizo de Friburgo, Agassiz obtuvo un doctorado en botánica en Erlangen y una titulación médica en Múnich. Fue nombrado profesor de historia natural en Neuchâtel, donde su trabajo sobre la glaciación le brindaría una fama perdurable.
Observando el comportamiento de los glaciares actuales (que no escaseaban en los Alpes suizos), Agassiz llegó a la conclusión de que buena parte del norte de Europa había estado cubierta en otro tiempo por hielo, en algunos lugares con un grosor de hasta tres kilómetros. Esta conclusión se basaba fundamentalmente en tres tipos de observaciones en los márgenes de los glaciares: bloques erráticos, morrenas y till. Los bloques erráticos son fragmentos de roca de gran tamaño, como los que se encuentran cerca de Génova, cuya constitución es bastante diferente de la de las rocas que la circundan. Los empujan los márgenes de los glaciares, a medida que el hielo se extiende, y luego quedan en un entorno «extraño» cuando la Tierra se calienta de nuevo y los hielos se retiran. Así es como los geólogos encuentran un enorme bloque de granito, por ejemplo, en un área de rocas calizas. El till o barro glacial es una forma de grava formada por el hielo cuando se expande sobre la tierra y, en palabras de J. D. Macdougall, actúa como una gigantesca hoja de papel de lija. (El till proporciona mucha de la grava que se usa en la moderna industria de la construcción). Las morrenas son montículos de till que se acumulan en los márgenes de los glaciares y pueden alcanzar dimensiones considerables: la mayor parte de Long Island, en el estado de Nueva York, es una morrena de más de 170 kilómetros de un extremo al otro. Agassiz y otros llegaron a la conclusión de que la edad de hielo más reciente había comenzado hace unos 130.000 años, había alcanzado su punto álgido hace unos 20.000 años y había finalizado de forma bastante rápida hace de 12.000 a 10.000 años. Con el tiempo, esta cronología resultaría ser muy significativa, pues coincidía con las primeras pruebas de los inicios de la agricultura [87].

Orden sin diseño
El término «evolución» se usó en biología de manera exclusiva para referirse al crecimiento del embrión. En el latín original significa «desarrollo». Fuera de ese uso, se utilizaban términos como «progresionismo», o simplemente desarrollo, para transmitir la idea coherente de que los organismos más simples habían dado origen, de algún modo que todavía estaba por descubrir, a los organismos más complejos. El término evolución se usó más tarde en un sentido cultural, siguiendo las observaciones de Giambattista Vico, Johann Gottfried Herder y otros, quienes vieron en el orden de desarrollo de las sociedades humanas una progresión de unas formas de civilización más primitivas a otras más avanzadas [88].
A causa de estos factores, y otros, se ha dicho que había algo «en el aire» a mediados del siglo XIX que ayudó a que naciera la idea de lo que Darwin denominó selección natural. Ya en 1797, Robert Malthus planteaba, por implicación, la idea de la lucha por la existencia: argumentaba que mientras que la población aumenta exponencialmente, los recursos alimentarios solo aumentan aritméticamente, lo que significaba que con el tiempo la población tenía que superar el suministro de alimentos, con consecuencias desastrosas. A lo largo de la historia, decía, cada tribu habría competido por los recursos, y las que lo hubieran hecho peor se habrían extinguido.
Para entonces, se había hecho muy difícil contradecir las pruebas que proporcionaban las rocas, donde el orden básico estaba claro. «Las rocas más antiguas [de hace 600 millones de años] presentaban únicamente restos de invertebrados; los primeros peces no aparecían hasta el Silúrico [hace 440-410 millones de años]. El Mesozoico [250-65 millones de años] estaba dominado por reptiles, incluidos los dinosaurios. Aunque presentes en pequeño número en el Mesozoico, los mamíferos solo se hicieron dominantes en el Cenozoico [desde hace 65 millones de años hasta el presente], progresando gradualmente hasta los organismos más avanzados de la actualidad, incluida la especie humana». (Naturalmente, la cronología mostrada entre corchetes no se aceptaba en el siglo XIX). Era difícil no leer alguna suerte de «fin» en este orden, que habría «conducido», por estadios, a los humanos, «revelando así un plan divino con un propósito simbólico» [89].
Un último elemento de este «clima de opinión», este «algo en el aire», por lo que respecta al «progresionismo» y cómo se alcanzó, fue el trabajo de Alfred Russel Wallace. La reputación de Wallace y el papel que desempeñó en el descubrimiento de la selección natural ha experimentado su propia evolución en tiempos recientes. Wallace probablemente fuese galés pero de origen escocés. «Probablemente» galés porque había nacido en Llanbadoc, cerca de Usk, en Monmouthshire, pero pasó poco tiempo allí, y su padre afirmaba ser descendiente (como afirman muchos otros Wallace) de William Wallace, uno de los líderes escoceses durante las guerras de independencia de Escocia. No obstante, Wallace (el hijo) se consideraba inglés. El séptimo de nueve hijos, siempre tuvo espíritu viajero y siempre, al parecer, problemas de dinero. Fue mucho más que un científico, interesado también en la política y el cambio social.
Era un lector ávido (desde insectos hasta ingeniería o arquitectura, Malthus, las aventuras de Humboldt, los viajes de Darwin, los Principles de Lyell) y leer aumentaba sus ansias de viajar. Durante su primera expedición, a Brasil, el cargamento del barco prendió fuego durante la travesía de regreso, se perdieron todos sus especímenes, aunque se salvó el diario de Wallace y unos cuantos bocetos, y pasó diez días en un bote. En una expedición posterior al Extremo Oriente tuvo más éxito: recolectó 126.000 especímenes, entre ellos 80.000 escarabajos y 80 esqueletos de aves. Su libro sobre estos viajes se publicó en 1869 con el título Viaje al archipiélago malayo y nunca ha dejado de editarse (Joseph Conrad dijo de él que era «su libro de cabecera preferido» y parece que lo usó como fuente de información para alguna de sus novelas, en especial para Lord Jim) [90].
Fue durante el viaje al Extremo Oriente cuando Wallace comenzó a elaborar sus ideas sobre la evolución y la selección natural y en 1858 envió un artículo esbozando su teoría a Darwin (solicitándole que se lo enviara a Lyell, a quien Darwin conocía pero Wallace no). Durante muchos años se aceptó que este artículo enviado a Darwin, «Sobre las tendencias de las variedades a desviarse indefinidamente del tipo original», contenía una exposición clara de la selección natural, hasta tal punto que había obligado a Darwin a apresurar la publicación de su propio libro, El origen de las especies. (El artículo de Wallace fue publicado aquel mismo año por la Sociedad Linneana de Londres, junto a un artículo de Darwin). En consecuencia, algunos estudiosos han defendido la idea de que Wallace nunca había recibido el reconocimiento que merecía.
Más recientemente, sin embargo, una lectura más detenida del artículo de Wallace ha puesto de manifiesto que su idea de la selección natural no era la misma que la de Darwin, y que era mucho menos potente como instrumento explicativo. Wallace no ponía el énfasis en la competencia entre individuos, sino entre los individuos y su entorno. Para Wallace, los individuos menos ajustados, los peor adaptados a su entorno, acaban siendo eliminados, especialmente cuando se producen cambios importantes en ese entorno. Dentro de este sistema, cada individuo lucha contra el medio y el destino de cada individuo es independiente del de los otros. Esta diferencia, que es fundamental, puede explicar por qué Wallace no mostró resentimiento alguno cuando Darwin publicó su propio libro al año siguiente de que él le enviase su propio artículo. De hecho, dedicó a Darwin Viaje al archipiélago malayo, lo visitó en Down House (la casa de Darwin) en 1862 y trabó amistad con Lyell y Herbert Spencer. Y ciertamente no andaba mohíno y desalentado, sino que se entregó a otros intereses, tan distintos como el espiritualismo y la reforma agraria [91].
Nada de lo anterior, sin embargo, debería oscurecer el hecho de que cuando se publicó El origen de las especies, en 1859, presentó «un enfoque completamente nuevo y, para los contemporáneos de Darwin, inesperado, a la cuestión de la evolución biológica». La teoría de Darwin explicaba, como nadie antes había hecho, un nuevo mecanismo de cambio en el mundo biológico. Mostraba de qué modo una especie daba lugar a otra y, en palabras del historiador de Harvard Ernst Mayr, «no solo representaba el reemplazo de una teoría científica (“especies inmutables”) por otra nueva, sino que exigía que se repensara completamente el concepto que tenía el hombre del mundo y de sí mismo». Para Peter Bowler, «el historiador de las ideas ve la revolución en la biología como algo sintomático de un cambio más profundo en los valores de la sociedad occidental, que sustituyó la visión cristiana del hombre y la naturaleza por una visión materialista» [92].
La idea más rompedora y notable de Darwin fue su teoría de la selección natural, el argumento central de su libro (cuyo título completo es Sobre el origen de las especies por medio de la selección natural, o la preservación de las razas favorecidas en la lucha por la vida ). Los individuos de cualquier especie presentaban variaciones y los que mejor se ajustaban tenían una probabilidad mayor de reproducirse y producir una nueva generación. De este modo se promovían las variaciones accidentales que producían un mejor «ajuste». La teoría no requería ningún «diseño», a diferencia de otras. Aunque después de que Wallace se pusiera en contacto con él, Darwin se había visto estimulado a publicar el Origen, venía desarrollando sus ideas desde finales de la década de 1830, después de su célebre viaje en el Beagle.

Temas tan pasados de moda
Charles Robert Darwin nació el 12 de febrero de 1809 en Shrewsbury. Su padre, Robert Waring Darwin, fue un médico adinerado y de éxito, tanto que en sus últimos años se había tornado corpulento, y Charles lo recuerda como «el hombre más grueso que he visto nunca» [93]. Charles era nieto del médico Erasmus Darwin (1731-1802), y su madre fue Susannah Wedgwood, hija del alfarero Josiah Wedgwood (1730-1795), ambos miembros de la famosa Sociedad Lunar de Birmingham, que tanto había hecho por promocionar la ciencia durante el siglo XVIII. Los hombres de la familia de Darwin eran liberales y whigs, librepensadores en materia de religión, «sin interés alguno por los lugares comunes de quienes usaban el cristianismo para reforzar el statu quo». En cambio, las mujeres de la familia (Darwin tenía tres hermanas y un hermano) tendían a tomarse la Biblia en serio. Los Darwin defendían la libre empresa y, tras haber hecho su fortuna por sus propios esfuerzos, esperaban mantenerla, de manera que tenían tan poca paciencia con los privilegios aristocráticos como con los radicales que promovían los méritos del socialismo.
Charles fue enviado a un internado en Shrewsbury, donde el director, el Dr. Samuel Butler (abuelo del novelista del mismo nombre), proporcionaba una educación clásica que no despertaba el interés en Darwin. No obstante, se aficionó a los minerales, la observación de aves y la química, pero el director le llamó la atención por interesarse por «temas tan pasados de moda» [94]. A la temprana edad de dieciséis años fue a Edimburgo a estudiar medicina. Esta elección pone de manifiesto el estilo poco ortodoxo de la familia. El hijo de Erasmus había ido allí y el padre de Charles había obtenido su título en Leiden: no estaba hecha para ellos la ruta ortodoxa de Oxbridge. Sin embargo, tras un par de experiencias desagradables en la sala de operaciones de Edimburgo, Charles decidió que no estaba hecho para la medicina.
Su padre le sugirió entonces la iglesia. Uno de los requisitos para tomar los órdenes sagrados era poseer un título por una universidad inglesa, y así fue como Darwin fue a Cambridge. En aquella época, según nos cuenta en su Autobiografía, no dudaba en absoluto de la verdad literal de cada palabra de las escrituras.
En Cambridge estaba rodeado de estudiantes que se preparaban para la iglesia, y las ciencias naturales no formaban parte de su plan de estudios [95]. El profesor de botánica John Henslow daba conferencias públicas sobre estos temas de las que Darwin disfrutaba enormemente. Pero evitó el curso de geología de Adam Sedgwick y solo se interesó en él hacia el final de su tiempo en la universidad. No obstante, su interés por la historia natural iba creciendo de la mano de Henslow, quien se percató de su seriedad y comenzó a invitarlo a sus «cursos abiertos», que celebraba semanalmente.
Tras titularse, Darwin permaneció en Cambridge durante dos periodos lectivos más y en esta ocasión sí asistió a las clases de Sedgwick. En el verano de 1831, Charles lo acompañó en una salida de campo a Gales, por lo que parece que el geólogo tomaba a Darwin tan en serio como Henslow.
De hecho, fue Henslow el responsable de que Darwin se embarcase en el Beagle. El capitán estaba buscando un naturalista que lo acompañase en un viaje que tenía por objetivo cartografiar la costa de Sudamérica y los Mares del Sur, y no quería un doctor que hiciese también las veces de naturalista, como era habitual, porque le parecía que no haría bien ninguno de los dos trabajos. El hidrógrafo de la marina tenía un amigo en Cambridge que a su vez era amigo de Henslow, y este recomendó a Darwin [96].
Darwin se embarcó en Plymouth el 24 de octubre de 1831, aunque a causa del mal tiempo el buque no zarpó hasta el 27 de diciembre. Llevó consigo escopetas, lupas, microscopios, instrumental para análisis químico y geológico y libros, entre ellos el primer volumen de los Principles of Geology de Lyell, que acababa de aparecer, «una obra que Henslow le había recomendado leer pero de ningún modo creer» [97].

Patrones en las poblaciones
El viaje del Beagle representó un punto de inflexión en la carrera de Darwin, pero no del modo en que suele presentarse. No concibió la idea de la selección natural durante aquellos cinco años de circunnavegación, pero regresó a Inglaterra decidido a convertirse en un científico destacado, no en un hombre de la iglesia. El psicólogo americano Frank Sulloway realizó un estudio cuantitativo de la correspondencia de Darwin de aquella época que muestra que, al menos al principio, estaba más interesado en la geología que en la biología, y comenzó siendo un crítico de Lyell para luego, paulatinamente, a medida que estudiaba las formaciones rocosas de Sudamérica, acabar convencido de la posición uniformista de Lyell.
En varias de las recaladas, realizó exploraciones por el interior a caballo y fue de este modo como, después de conocer unos gauchos, se percató de que existían dos formas distintas de rhea, el avestruz sudamericano. Vio que cada una de estas formas tenía su propio territorio pero que en una región las áreas de distribución se solapaban y allí podían encontrarse las dos formas compitiendo por la supremacía.
A principios de 1834, el Beagle alcanzó la costa oeste del continente y mientras recalaban en Valdivia, la ciudad más grande de la región, Darwin fue testigo de un terremoto lo bastante intenso como para producirle un mareo con sus ondulaciones [98]. El hecho de que algunas partes de la costa fuesen levantadas por el terremoto, entre medio metro y tres metros, también le causó impresión, dando fuerza al argumento uniformista de Lyell.
Entonces se dirigieron a las islas Galápagos, en el océano Pacífico y parte de Ecuador, a las que el Beagle arribó en septiembre de 1835. Estas islas, situadas a varios cientos de kilómetros en el Pacífico desde Ecuador, se han hecho famosas desde entonces como el lugar donde Darwin se percató de que los pinzones se habían adaptado a cada isla, según revelaba la forma de sus picos. Solo que no fue así. Darwin pasó algún tiempo en las Galápagos, solo en cierto momento, mientras el Beagle iba en busca de agua. Pero, como Sulloway y Bowler dejan claro, Darwin no experimentó ningún «Eureka» en las Galápagos. Dejó las islas sin darse cuenta de la importancia de los pinzones, y solo acabó de comprender su significación a su vuelta a Gran Bretaña, cuando tuvo que pedir prestados especímenes de otras colecciones para contrastar sus conclusiones. No fue hasta el largo viaje de regreso (vía Tahití, que le agradó, y Nueva Zelanda, que le desagradó, y por segunda vez Bahía en Brasil) cuando comenzó a sospechar que las observaciones realizadas en los grupos de islas «podrían trastornar la opinión aceptada sobre la estabilidad de las especies» [99].
El tiempo que pasó en Sudamérica, y en particular en las islas Galápagos, le había enseñado a pensar en términos de poblaciones más que de individuos, gracias a la observación de las variaciones de una isla a otra. Y comenzó a preguntarse por qué había especies emparentadas en diferentes islas y continentes. ¿Acaso el Creador había visitado cada lugar para realizar aquellos pequeños ajustes? A partir de un estudio de los cirrípedos (el grupo que incluye los percebes) se percató de cuánta variación podía existir en una sola especie, y poco a poco todas aquellas observaciones e inferencias fueron encontrando su lugar durante las dos décadas que siguieron a su regreso.

La explicación del diseño
Cuando se publicó el libro, el 24 de noviembre de 1859, se vendieron 1.250 copias el primer día. Darwin se había ido a tomar las aguas a Ilkley, en Yorkshire, esperando a que se desatara la tormenta, algo que no tardó en ocurrir, y no es difícil ver por qué. Ernst Mayr, el historiador de la biología, llegó a la conclusión de que las teorías de Darwin tenían seis grandes implicaciones filosóficas: (1) la sustitución de un mundo estático por uno en evolución, (2) la demostración de la implausibilidad del creacionismo, (3) la refutación de la teleología cósmica (la idea de que el universo tiene un propósito), (4) la abolición de cualquier justificación para el antropocentrismo absoluto (que el propósito del mundo es la producción del hombre), (5) la explicación del «diseño» en el mundo mediante procesos puramente materialistas y (6) la sustitución del esencialismo por el pensamiento poblacional [100].
Debemos ser claros acerca del impacto del Origen. En parte se debía a la sólida reputación de Darwin y a que su libro estaba repleto de detalles en apoyo de su argumento: no lo había hecho un don nadie. Sin embargo, su impacto también tenía que ver con el hecho de que, como señala James Secord, el libro resolvía (o parecía resolver) una crisis, no porque desatase una. La selección natural era, en esencia, el último clavo para asegurar el argumento evolucionista, no el primero, el relleno final de la teoría que proporcionaba el mecanismo por el que una especie da origen a otra. La naturaleza «no revolucionaria» del Origen, en la expresión de Peter Bowler, queda subrayada por el gráfico del libro de Secord, que muestra que Origen no vendió decisivamente más que Vestiges hasta empezado el siglo XX.
Dicho esto, el Origen suscitó una fuerte oposición. John F. W. Herschel, un filósofo, polímata y fotógrafo a quien Darwin admiraba (e hijo de William Herschel), dijo de la selección natural que era la «ley del desbarajuste», mientras que Sedgwick (quien, como se recordará, era tanto adivino como científico) dijo que al leer el libro, algunas partes le habían hecho «reír hasta que me dolieron los costados», en tanto que otras partes las había leído con un «profunda aflicción» porque creía que eran erróneas y «gravemente dañinas». Y a otro le escribió: «Repudia todo razonamiento sobre causas finales, y parece cerrar la puerta a cualquier concepción (por débil que sea) del Dios de la naturaleza que se manifiesta en sus obras». Pese a ello, ambos mantuvieron su amistad hasta la muerte de Sedgwick. Agassiz, un creacionista acérrimo, sintió una repulsión física hacia la idea de que todos los humanos fuesen iguales y nunca aceptó la selección natural [101].
La mayoría de las críticas favorables del Origen se mostraron tibias acerca de la selección natural. Lyell, por ejemplo, nunca la aceptó del todo, describiéndola como «de mal gusto», mientras que T. H. Huxley no creía que se pudiera demostrar o refutar. A finales del siglo XIX, cuando la teoría de la evolución era ampliamente aceptada, la selección natural era ignorada, lo cual es importante porque permitió que muchos supusieran que la evolución tenía «la intención de desarrollarse hacia un fin particular, igual que los embriones crecen hasta la madurez». Vista de este modo, la evolución no representaba la amenaza contra la religión que a veces se nos ha hecho creer. Ernst Mayr dice que la cuestión de la selección en la teoría de Darwin no llegó a aceptarse hasta la síntesis evolutiva de los años 1930 y 1940 (capítulo 9).
Muchos simplemente creían que el darwinismo era egoísta y despilfarrador. ¿Cuál era el propósito darwiniano de la habilidad musical, o de la habilidad de realizar cálculos abstractos? Cabe añadir que Darwin nunca estuvo del todo satisfecho con la palabra «selección».
La teoría de Darwin ciertamente tenía una importante deficiencia. No explicaba de ningún modo el mecanismo de transmisión de las características heredadas (la «herencia dura»). Los mecanismos fueron descubiertos por el monje Gregor Mendel en Moravia en 1865, pero ni Darwin ni nadie se apercibió de su significación y no fueron redescubiertos y ampliamente divulgados hasta 1900.

Superposiciones entre simios y humanos
Darwin no se paró en el Origen. Ninguna explicación del darwinismo puede pasar por alto El origen del hombre. Para muchos, la cuestión crucial detrás del debate de si el hombre había evolucionado a partir de los simios giraba en torno al alma. Si de verdad el hombre era poco más que un simio, ¿había que rechazar la propia idea del alma, que siempre se había considerado la principal diferencia entre los animales y el hombre? En El origen del hombre, publicado en 1871, Darwin intentó hacer dos cosas a un mismo tiempo: convencer a los escépticos de que el hombre realmente había descendido de los animales y explicar qué significaba exactamente ser humano, es decir, cómo habían adquirido los humanos las cualidades que los hacían únicos. Sabía que su obra tenía que explicar el gran (enorme) aumento de la capacidad mental de los simios a los humanos. Si la evolución era un proceso lento y gradual, ¿cómo se podía explicar ese abismo?[102]
Darwin daba su respuesta en el capítulo cuatro, donde proponía que el hombre posee un atributo físico único: la postura erguida. Darwin argumentaba que la postura erguida y el modo bípedo de locomoción habían liberado las manos de los humanos, las cuales, con el tiempo, habrían desarrollado la capacidad de usar herramientas: las hachas de piedra de las que entonces tanto se hablaba. Y era eso, decía, lo que había desencadenado el rápido crecimiento de la inteligencia en esta forma de gran simio.
Darwin no ofrecía ninguna razón convincente de por qué los antiguos humanos habían comenzado a caminar erguidos, y no fue hasta 1889 cuando Wallace sugirió que podría haberse tratado de una adaptación a un nuevo entorno, conjeturando que el hombre primitivo se había visto forzado a abandonar los árboles y a vivir en la sabana abierta, tal vez a consecuencia de un cambio climático que hubiera reducido el área de bosque. Y en la sabana, sugería, el bipedalismo era una forma de locomoción más apropiada [103].

El significado de la nueva síntesis
El legado del darwinismo es complejo. El modo en que bebía en las fuentes de la geología, la antropología y la conducta animal (y las sintetizaba), el modo en que encajaba con los avances más recientes de la astronomía y la cosmología, era para muchos tan fascinante como naturalmente convincente. Además, el acercamiento de distintas disciplinas y la oportunidad de su aparición desempeñaron un papel importante en la secularización del pensamiento europeo. El darwinismo forzó a la gente a adoptar una nueva visión de la historia: que ocurría por accidente, que no había ningún propósito, ningún fin último. Además de matar la necesidad de Dios, desafiaba la idea de la sabiduría como estado definido y alcanzable, por lejos que estuviera. Fue el modelo darwinista del cambio social lo que llevó a Marx a su idea de la inevitabilidad de la revolución, y fue la biología de Darwin lo que llevó a Freud a concebir la naturaleza «prehumana» de la actividad mental subconsciente. Desde el descubrimiento del gen, en 1900, y el florecimiento de la tecnología basada en este, el darwinismo ha triunfado y comienza a producir una diferencia práctica en nuestras vidas.

* * * *

Es importante señalar una gran diferencia entre el concepto de la conservación de la energía y la evolución por medio de la selección natural. Tal como John Theodore Merz deja claro en su History of European Thought in the Nineteenth Century [Historia del pensamiento europeo en el siglo XIX], el concepto de «energía» fue aceptado rápidamente por los científicos de la época. Él mismo había observado que la unificación del pensamiento que había resultado de tantas observaciones y experimentos de óptica, electricidad, magnetismo y bioquímica, «necesitaban un término más general… una generalización a un nivel más alto, una unificación más completa del conocimiento… la mayor de todas las generalizaciones exactas, el concepto de energía».
No fue así en absoluto con la evolución por medio de la selección natural. Casi un siglo más tarde, en 1995, el filósofo americano Daniel Dennett decía de plano que «si tuviera que dar un premio a la mejor idea que haya tenido nunca nadie, se lo daría a Darwin… De un solo golpe, la idea de la evolución por medio de la selección natural unifica el dominio de la vida, el significado y el propósito, y el dominio del espacio, el tiempo, la causa y efecto, el mecanismo y la ley física… La peligrosa idea de Darwin es la encarnación del reduccionismo» [104]. Pero cabe notar que aún entonces el darwinismo era una idea «peligrosa», todavía preocupaba a algunos y de ningún modo era universalmente aceptada. En algunos ambientes recalcitrantes, todavía no se acepta.
¿Por qué esa diferencia? Posiblemente se deba a que la física es más abstrusa que la biología y se sitúa a mayor distancia de la vida cotidiana. Su contenido matemático la coloca fuera del alcance de muchos, y tiene poco efecto directo sobre nuestra manera de comprendernos a nosotros mismos, sobre nuestras motivaciones o lo que significa ser humano. Respetamos la física y sus logros pero, por así decirlo, no queremos (o no nos parece necesario) mirar lo que hay debajo del capó.
En cierto sentido, sin embargo, esa diferencia nos sirve para nuestro propósito. A medida que pasaron las décadas desde su descubrimiento, también los conceptos de energía y evolución se unirían cada vez más íntimamente, subrayando que en la raíz misma de la realidad yace una coherencia básica, amplia y profunda que posiblemente sea su característica más significativa. La coherencia convergente de las ciencias, apuntalada por la energía y la evolución, nos ayuda a comprender todo lo que ahora conocemos. Al propio tiempo, también encarna, tal como se apuntó en el prefacio, lo que podríamos calificar de misterio último. Este proceso, y esta era de la historia, comenzó en la década de 1850.

Parte 2
El largo brazo de las leyes de la física

Los dos grandes temas unificadores de la primera parte, la conservación de la energía y la evolución por medio de la selección natural, sitúan la escena en este libro, pero contienen una contradicción. Los físicos de la termodinámica decían llanamente que el mundo se iba agotando, que su energía útil se desvanecía, que la organización se perdía, que «la entropía tiende a un máximo». En cambio, la evolución nos decía que al menos los sistemas biológicos iban a más, y cada vez se tornaban no menos, sino más complejos y organizados.
Esta contradicción es un tema secundario de este libro. La síntesis, la unificación entre energía y evolución, aún tardaría tiempo en llegar, en las últimas décadas del siglo XX. Hasta cierto punto, esto se debe a que, como se muestra en esta sección, hasta la segunda guerra mundial la física se fue haciendo a un tiempo más unificada y más diversificada, más ordenada y más compleja. Para entonces, el orden emergente, la coherencia de las ciencias, no era de ningún modo evidente.
En esta parte, dejamos a un lado la evolución mientras seguimos los impresionantes progresos de la física, que pone de manifiesto el orden entre nuevas formas de energía (la radiactividad) y partículas elementales, vincula las primeras partículas elementales con la estructura atómica, explica la relación entre electrones y estados cuánticos y, por encima de todo, muestra de qué modo la física apuntala la química con un vínculo extraordinariamente íntimo. Fue también entonces cuando se dieron los primeros pasos que llevarían a la física a unir fuerzas con la astronomía para crear una cosmología completamente nueva que transformaría nuestras ideas sobre el universo y su evolución. Fue el principio de otro enlace: el que unió lo extraordinariamente pequeño con lo inimaginablemente grande.

Capítulo 3
Tras las regularidades en los elementos

Como hemos visto, una docena de científicos tuvieron la misma idea, más o menos al mismo tiempo, sobre la conservación de la energía, y con el descubrimiento de la tabla periódica pasó algo parecido. Varias personas, en diferentes países, percibieron unas pautas en los elementos que tal vez apuntasen a un orden subyacente.
La misma idea, más o menos, se le ocurrió al italiano Stanislao Cannizzaro, un apasionado nacionalista que luchó bajo el mando de Garibaldi y fue político además de científico, al químico industrial británico John Newlands, al mineralogista francés Alexandre-Émile Béguyer de Chancourtois, al físico y químico alemán Lothar Meyer, y, posiblemente el más célebre de todos, al ruso Dmitri Mendeléyev. También en este caso abundan las disputas sobre la prioridad, centradas en la comprensión por todos estos hombres de que si se ordenan los elementos por su peso atómico aparece una pauta repetida, de modo que a intervalos regulares los elementos presentan propiedades parecidas. Al principio al menos, estos intervalos parecían recurrir en múltiplos de ocho del hidrógeno (de peso atómico 1). [ix]
Mendeléyev, cuya versión fue al final la más ampliamente adoptada (aunque la Real Sociedad otorgó su Medalla Davy [x] a Mendeléyev y a Meyer), hizo su trabajo sin conocer el de los otros porque era ruso y en aquella época Rusia estaba intelectualmente separada de Europa occidental. Rusia era un país feudal donde la mayoría de los habitantes era siervos propiedad de sus señores [105].
De hecho, Mendeléyev no provenía de la Rusia europea, era de Tobolsk, en Siberia, a miles de kilómetros al este. El más joven de catorce o diecisiete hermanos (alguien perdió la cuenta), los primeros años de Dmitri fueron sórdidos. Su padre, el director de la escuela del lugar, quedó ciego el mismo año que nació Dmitri y su mujer tuvo que ocuparse de la familia. Luego les golpeó la calamidad. El padre de Dmitri murió, y al año siguiente la fábrica de vidrio que poseía la familia de su madre quedó destruida en un incendio. Así fue como en 1849 Maria Dmitrieva, que ya contaba cincuenta y siete años, y los dos hijos que todavía dependían de ella, además de Dmitri, partieron hacia Moscú, a unos 2.100 kilómetros de distancia. Dejaba a sus espaldas varios trabajadores que dependían de ella, pero al parecer se había percatado de lo brillante que era su hijo y tomó la decisión pensando en él.
El éxito tardó en llegar. La Universidad de Moscú funcionaba mediante un sistema de cuotas para los estudiantes de las provincias, pero Siberia estaba tan lejos que no tenía cuota y sus calificaciones no fueron reconocidas. Los Mendeléyev se mudaron entonces a San Petersburgo, donde se repitió la historia, salvo que esta vez la madre de Dmitri descubrió que conocía al director del Instituto Pedagógico Central, que había sido amigo y colega de su difunto marido. Mendeléyev fue admitido en los estudios de matemáticas y ciencias e incluso recibió una pequeña beca del gobierno.
Las cosas aún empeoraron más antes de mejorar. Cuando aún no había descollado, falleció su madre, y más tarde su hermana. Luego sufrió una hemorragia de garganta y fue ingresado en el hospital del instituto. Le diagnosticaron tuberculosis y le dieron apenas unos meses de vida.
Paul Strathern describe estos eventos como el clímax dickensiano de Mendeléyev. Pero luego gozó de un cambio de fortuna igualmente dickensiano. Con sus ojos de un azul profundo, su abundante cabellera y poblada barba, fue adoptado como el preferido del instituto. Pasó largas temporadas en la cama, pero poco a poco se fue recuperando y pudo pasar el tiempo en los laboratorios, donde comenzó a hacer sus propias investigaciones [106].

Semejanzas entre los cielos y la Tierra
En 1885 obtuvo las calificaciones para ser profesor, poniendo de manifiesto su brillantez al recibir la medalla de oro al mejor estudiante del año. Aconsejado por el químico y compositor Aleksandr Borodín, se las arregló para conseguir una beca para estudiar en París, donde tuvo como mentor a Henri Regnault, el científico que estableció que el cero absoluto era -273 °C [107]. Después de París, Mendeléyev fue a Heidelberg, donde trabajó con Robert Bunsen, bien conocido por el mechero de laboratorio que lleva su nombre, y con Gustav Kirchhoff, los dos científicos que desarrollaron la espectroscopia, una técnica que utiliza un prisma para refractar la luz. Tal como había demostrado Newton, cuando la luz blanca atraviesa un prisma se descompone en un arco iris debido a que cada color se refracta de forma distinta. Kirchhoff y Bunsen descubrieron que cuando se calienta un elemento, la luz emitida produce un espectro de colores característico.
Justo antes de que Mendeléyev llegase a Heidelberg, Kirchhoff y Bunsen habían observado que la luz que atravesaba un gas producía líneas que se correspondían con la sustancia del elemento del que estuviera compuesto el gas. Aquello les permitió llegar a la notable conclusión de que la luz del Sol, que atraviesa la atmósfera, producía bandas que correspondían al vapor de sodio, lo que significaba que uno de los constituyentes del Sol era sodio. Esta era una de las primeras indicaciones de que los cielos estaban hechos de los mismos componentes que la Tierra, un resultado tan importante para la teología como para la ciencia.
A su regreso a San Petersburgo el 1861, Mendeléyev se dio cuenta de que prácticamente solo él en Rusia estaba al día de los últimos descubrimientos de la química. Sus clases comenzaron por fin a atraer la atención, y gracias a ello obtuvo un puesto fijo de profesor y se dedicó a escribir varios libros de texto muy populares [108].

Paciencia química
Mientras escribía uno de sus libros de texto, se le ocurrió una idea sobre las relaciones que podrían establecerse entre los elementos. Tomó algunas notas en un sobre (lo sabemos porque se ha conservado la carta y los anillos de café de la taza que debió posar encima del sobre), escribiendo los pesos atómicos de los halógenos, que sabía que tenían propiedades parecidas pero pesos atómicos muy diferentes [xi]
F = 19 Cl = 35 Br = 80 I = 127

Y lo mismo para el grupo del oxígeno:

O = 16 S = 32 Se = 79 Te = 128

Y para el grupo del nitrógeno:

N = 14 P = 41 As = 75 Sb = 122

Cuando los juntó todos, comenzó a perfilarse una pauta regular:

F = 19 Cl = 35 Br = 80 I = 127
O = 16 S = 32 Se = 79 Te = 128
N = 14 P = 41 As = 75 Sb = 122

La pauta (si es que era una pauta) era que, comenzando por el elemento de abajo a la izquierda de la tabla (N = 14), y leyendo las columnas hacia arriba, y las filas de izquierda a derecha, la mayoría de los pesos atómicos estaban en orden, salvo por P y Te [109].
Un colega que lo visitó aquel mismo fin de semana diría más tarde que Mendeléyev llevaba tres días y tres noches trabajando sin descanso en este problema. Solo entonces se le ocurrió una analogía [110]. Su juego de cartas preferido se llamaba paciencia, y se dio cuenta de que lo que veía no difería mucho de un juego de cartas, con familias de elementos químicos en lugar de palos de una baraja (de hecho, lo llamó «paciencia química»). Agotado, reposó la cabeza sobre el brazo, cayó dormido y, sentado en su estudio, tuvo un sueño. En el sueño, según él mismo explicaría más tarde, todos los elementos encajaban en lo que él llamaba la tabla periódica de los elementos, periódica justamente porque los elementos de propiedades parecidas aparecían a intervalos periódicos.
Mendeléyev estaba tan convencido de la periodicidad que hizo dos afirmaciones audaces. Una, que en todos los casos en que el peso atómico de los elementos no los situase allí donde les correspondía de acuerdo con sus propiedades, el peso atómico debía estar mal calculado. En segundo lugar, dejó espacios vacíos para los pesos atómicos no asignados a ningún elemento conocido, y predijo que, con el tiempo, aquellas lagunas se llenarían con nuevos descubrimientos.
Un factor añadido era que, tal como agrupó los elementos, los del mismo grupo tenían la misma valencia, la misma afinidad por otros elementos (medida por el número de átomos de hidrógeno con el que solían combinarse). Esto parecía confirmar que la valencia estaba relacionada con las propiedades químicas, y sus audaces predicciones (ambas confirmadas por experimentos posteriores) corroboraron a Mendeléyev como el hombre que realmente comprendió por primera vez la disposición de la tabla periódica y su significado.
Con la tabla periódica, en palabras de Paul Strathern, la química alcanzó la mayoría de edad. El descubrimiento de Mendeléyev proporcionó a la química una idea central que la situaba a la altura de la física de Newton y la biología de Darwin. «Mendeléyev había clasificado las piezas básicas del universo [111] ». En 1855 se identificó el elemento 101 y, en honor al logro del ruso, se bautizó como mendelevio.
Por aquel entonces, la química era química y la física era física (y, ya de paso, la biología era biología). Pero, tal como implicaba la tabla periódica, la materia era discreta (existía químicamente en formas discretas) y al mismo tiempo manifestaba una pauta. Con el cambio de siglo se vería que el carácter discreto de la naturaleza era fundamental.

La energía, no la materia, es la esencia
En aquella época, la mayoría de los físicos todavía se aferraban a una concepción mecánica del universo, incluso James Clerk Maxwell, cuya teoría de los campos había encontrado muchos apoyos. Esta concepción venía acompañada del auge de la idea de un éter universal como medio «cuasi-hipotético», continuo y ubicuo a través del cual se propagaban las fuerzas a una velocidad finita. Esto ayudaba a considerar la posibilidad de que la base de aquellas fuerzas fuese electromagnética, no mecánica. En este caldo de cultivo comenzaron a proliferar nuevas ideas, la más importante de las cuales era la nueva disciplina de la «energética», promovida por el físico alemán Georg Helm y su colega químico Wilhelm Ostwald. Desde esta perspectiva, la energía, no la materia, era la esencia de «una realidad que solo podía entenderse como procesos de acción» [112].
Uno de los hombres a quienes impresionó esta argumentación fue Heinrich Hertz. Nacido en Hamburgo en 1857, hijo de un abogado judío convertido al cristianismo, Heinrich asistió a la universidad en Múnich y luego, en Berlín, estudió con Gustav Kirchhoff y Hermann von Helmholtz. La tesis de doctorado de Hertz, que finalizó en 1880, fue tan bien recibida que se convirtió en el ayudante de Helmholtz, y después fue nombrado lector de física teórica en Kiel.
Fue en Kiel donde Hertz produjo su primera contribución importante al derivar las ecuaciones de Maxwell de un modo distinto al que había usado el propio Maxwell, y sin necesidad de suponer la existencia de un éter. A raíz de este logro, Hertz fue nombrado al año siguiente, y con solo veintiocho años, catedrático de física en Karlsruhe, una universidad mucho mayor y mejor equipada. Allí, su primer descubrimiento significativo fue el efecto fotoeléctrico, por el cual la radiación ultravioleta libera electrones de la superficie de un metal.
En 1888, Hertz fue un paso más allá y se le ocurrió la idea del diseño de un aparato muy innovador. El elemento central era una varilla de metal con forma de aro que dejaba un espacio diminuto (3 mm) en su punto medio, algo no muy distinto de un gran anillo de llavero. Cuando se hacía pasar una corriente intensa por el aro, se generaban chispas en aquella pequeña brecha. Al mismo tiempo, en la varilla que formaba el aro se creaban violentas oscilaciones. La observación crucial de Hertz fue que aquellas oscilaciones enviaban ondas por el aire circundante, un fenómeno que pudo demostrar porque un circuito similar situado a cierta distancia podía detectarlas. En experimentos posteriores, Hertz demostraría que aquellas ondas se podían reflejar y refractar, igual que las ondas de la luz, y que viajaban a la velocidad de la luz pero con longitudes de onda mucho más largas. Aún más tarde observaría que un reflector cóncavo podía enfocar las ondas y que atravesaban sustancias no conductoras sin verse alteradas. Estas ondas recibieron en un principio el nombre de ondas hercianas y su importancia inicial radicaba en el hecho de que confirmaban la predicción de Maxwell (véase el capítulo 1) de que las ondas electromagnéticas podían existir en más de una sola forma, la luz. Con el tiempo, las ondas de Hertz se conocerían como ondas de radio [113].
Cuando un estudiante le preguntó qué utilidad podría tener aquel descubrimiento, la célebre respuesta de Hertz fue: «No tienen ninguna utilidad. Es solo un experimento que prueba que el maestro Maxwell tenía razón: simplemente tenemos estas misteriosas ondas electromagnéticas que no podemos ver a simple vista». Le preguntaron entonces: «¿Qué toca hacer ahora?», y Hertz se encogió de hombros y dijo: «Nada, supongo». Un joven italiano, de vacaciones en los Alpes, leyó el artículo de Hertz sobre su descubrimiento e inmediatamente se preguntó si las ondas que enviaba el oscilador de chispas de Hertz se podría utilizar para enviar señales. Guglielmo Marconi se apresuró a regresar a su casa para ver si la idea funcionaba [114].
Desde Karlsruhe, Hertz se trasladó a Bonn para sustituir a Rudolf Clausius como director del Instituto de Física. Abandonó entonces sus emocionantes investigaciones experimentales para centrarse en la teoría, algo que siempre ha sorprendido a los físicos. De haber vivido (murió de una enfermedad de los huesos a los treinta y siete años) habría quedado tan atónito como todos ante la dirección que la física estaba a punto de tomar. Rollo Appleyard, un historiador de la ingeniería eléctrica, dice de Hertz que en todos los sentidos era «un newtoniano» [115].

Una nueva forma de energía
Una nueva onda electromagnética era una cosa, y muy útil, como no tardaría en descubrirse. Pero no ayudaba a nadie a entender qué era el electromagnetismo, ni cómo se relacionaba con las propiedades estadísticas de la materia que Maxwell y Boltzmann desvelaban.
Se produjo un avance cuando se observó que en los vacíos parciales que existían en los barómetros a veces se producían destellos de «luz». Pero, exactamente, ¿qué es lo que pasaba? Esto llevó a la invención de un instrumento nuevo que resultaría ser de suma importancia: recipientes de cristal con electrodos de metal en ambos extremos. El aire se bombeaba fuera de estos recipientes, creando un vacío más completo que el que había en los barómetros, y luego se introducían gases y se hacía pasar por los electrodos una corriente eléctrica para ver de qué modo se veían afectados los gases. En el curso de estos experimentos, se observó que si se hacía pasar una corriente eléctrica a través de un vacío, se producía un extraño resplandor que, sin ser igual, recordaba los destellos que se habían observado en los barómetros. Al principio no se entendía la naturaleza exacta de este resplandor, pero como los rayos emanaban del cátodo del circuito eléctrico para ser absorbidos por el ánodo, Eugen Goldstein, un físico polaco que había estudiado con Von Helmholtz en Berlín, los llamó Kathodenstrahlen, o rayos catódicos. Goldstein y casi todos los físico alemanes de su tiempo estaban convencidos de que estos «rayos» eran ondas, mientras que casi todos los físicos británicos estaban igualmente convencidos de que se trataba de partículas [116]. No fue hasta la década de 1890 cuando tres experimentos con tubos de rayos catódicos lo aclararon todo, dando el pistoletazo de salida al triunfal viaje de la física moderna.
El primero lo realizó Wilhelm Röntgen, a la sazón profesor de física de la Universidad de Wurzburgo. Röntgen, una persona «de oscura belleza», a decir de su biógrafo, creció en Holanda pero estudió en Zúrich con Clausius. En Wurzburgo, hacia finales de 1895, cuando ya contaba cincuenta años, comenzó a investigar con rayos catódicos, en concreto con su poder de penetración. Por aquel entonces era habitual usar una pantalla de platino-cianuro de bario para detectar cualquier fluorescencia causada por los rayos catódicos. Esta pantalla en realidad no formaba parte del experimento, más bien era un dispositivo de seguridad por si se producía alguna anomalía. En el caso de Röntgen, la pantalla estaba a cierta distancia del tubo de rayos catódicos, que estaba cubierto con cartón negro y solo se encendía en una habitación oscura. El 8 de noviembre de 1895, una fecha hoy famosa en la historia de la ciencia, Röntgen vio por el rabillo del ojo que la pantalla, aunque situada a una buena distancia del tubo, también producía fluorescencia, o fosforescencia, con un resplandor verde-amarillento. Aquello no podía estar causado por los rayos catódicos. Pero ¿significaba que el aparato producía también otros rayos invisibles a simple vista? Confirmó sus resultados y además observó que la pantalla de papel recubierto de platinocianuro de bario presentaba fluorescencia «con independencia de si el lado mostrado al tubo de descarga era el tratado o no». Tan emocionado estaba Röntgen que permaneció en su laboratorio durante siete semanas seguidas, sin hablar con nadie más que con su esposa. Hacía que le trajeran las comidas al laboratorio e incluso dormía allí [117].
Entonces, por pura casualidad, realizó otro descubrimiento cuando de manera accidental colocó la mano entre el tubo de rayos catódicos y la pantalla. «Y allí, en la pantalla, apareció una imagen de los huesos de su mano»: los rayos podían penetrar la carne. Este descubrimiento no tardaría en revolucionar la medicina. Tan solo dos semanas después de que pronunciara su primera conferencia pública sobre el tema, los rayos se usaron en Estados Unidos para localizar una bala en la pierna de un paciente y para recomponer el hueso roto de un chico en Dartmouth, en el estado de Nuevo Hampshire. Durante una buena década, los físicos sacaron frutos de sus investigaciones con los rayos X (con la X de lo desconocido, aunque en Alemania se llaman Röntgenstrahlen), sin entender exactamente qué eran.
Antes de hacer públicos oficialmente sus descubrimientos, Röntgen escribió a varios científicos eminentes, y uno de ellos, Henri Poincaré, había compartido la noticia con algunos de los veintiocho miembros de la Academia de Ciencias francesa durante la reunión semanal que celebraron en París el 24 de enero de 1896. Uno de los presentes en la charla de Poincaré fue otro físico, Henri Becquerel. Intrigado por la fluorescencia que Röntgen había observado, Becquerel decidió comprobar si los elementos que presentaban fluorescencia de manera natural tenían el mismo efecto. En un experimento célebre aunque accidental, puso un poco de sal de uranio sobre unas placas fotoeléctricas y las dejó en un cajón (sellado a la luz). Cuatro días más tarde, encontró imágenes en las placas producidas por lo que hoy conocemos como fuentes radiactivas. Becquerel había descubierto que la «fluorescencia» era radiactividad natural [118].
En cierto sentido, los descubrimientos de Becquerel fueron más importantes que los de Röntgen, y por eso emprendieron investigaciones más detalladas otro francés, Pierre Curie, y su esposa, Marie.

El descubrimiento de la radiactividad
Marie Curie nació en Varsovia el 7 de noviembre de 1867 con el nombre de Maria Sklodowska. Aunque ya en la escuela se manifestó precozmente como una estudiante brillante, no tenía esperanzas de ir a la universidad en lo que por aquel entonces era el sector ruso de una Polonia dividida, así que reunió como pudo el dinero suficiente para mudarse a París en 1891. Realizó el viaje de cuatro días y 1.800 kilómetros en un carruaje de cuarta clase: básico, sin calefacción, «solo para mujeres». En París asistió a la Sorbona, donde, según nos explica John Gribbin, «casi literalmente murió de hambre en un desván», subsistiendo a veces con una taza de chocolate y una rebanada de pan con mantequilla para todo el día. Esta terrible situación se vio un poco aliviada gracias a su amistad con el pianista Ignacy Paderewski, que más tarde sería primer ministro de una Polonia libre [119].
En la Sorbona conoció a quien se convertiría en su marido, Pierre Curie, hijo y nieto de médicos, que ya era un experto reconocido en las propiedades de los materiales magnéticos. Marie pronto se quedó embarazada y no pudo centrarse en su doctorado sobre los «rayos de uranio» hasta el otoño de 1897. En aquella época, ninguna mujer se había doctorado en una universidad europea, y para sus investigaciones a Marie solo le ofrecieron un cobertizo con goteras que en otro tiempo se había usado como morgue, «un híbrido entre un establo y un almacén de patatas». Se le había prohibido el acceso a los laboratorios principales «por miedo a que la excitación sexual provocada por su presencia» pudiera distraer a otros estudiantes.
Pese a ello, Marie hizo su primer descubrimiento en tan solo seis meses, en febrero de 1898. Mientras la mayoría de los físicos se centraban en el uranio como fuente de la peculiar energía que Becquerel había identificado, Marie se embarcó en la ingente tarea de buscarla en todos los metales, compuestos metálicos, sales y minerales que pudiera conseguir. De este modo descubrió que el torio era incluso más radiactivo (un término que ella misma acuñó) que el uranio, y que el cerio, el niobio y el tántalo también eran levemente radiactivos. Pero entonces, cuando inspeccionaba la pecblenda, el mineral del que se extrae el uranio, descubrió que era en realidad cuatro veces más radiactivo de lo que debería ser en función de su contenido de uranio. Siguiendo el consejo de un colega, Marie trituró la pecblenda hasta obtener un polvo, una ardua y heroica tarea que le llevó semanas y semanas, y entonces disolvió el residuo en ácido y se dedicó al trabajo casi inacabable de separar los elementos. Lo que halló fue una sustancia que, según dejó escrito a mano en sus propios cuadernos, era «150 veces más activa que el uranio» [120].
Junto a ella trabajaba Pierre calentando una solución de sulfuro de bismuto, cuando el tubo de ensayo estalló. Sin embargo, pegado a los fragmentos de cristal quedó un fino polvo negro que, según procedió a comprobar, era 330 veces más activo que el uranio. Lo que habían encontrado no era en realidad un nuevo elemento, sino dos. Al primero le llamaron «polonio», como un guiño a la patria de Marie, que en aquel momento no existía oficialmente, y al segundo lo llamaron radio.
Pero antes de que los Curie pudiesen avanzar en sus descubrimientos, los golpeó la desgracia. El 19 de abril de 1916 Pierre murió cuando resbaló en la Rue Dauphine de París, mojada por la lluvia, y una carreta de caballos cargada de uniformes militares le aplastó el cráneo. Al parecer, llevaba algún tiempo sufriendo mareos y seguía una dieta especial de huevos y verduras para aliviar lo que se tenía por «reumatismo». Hoy creemos que fue la primera víctima conocida de la «enfermedad de los rayos».
Marie le sobrevivió, y sirvió con distinción en la primera guerra mundial, donde desarrolló las «pequeñas Curies», unas ambulancias radiológicas donde se podía examinar por rayos X a los soldados heridos, lo que le valió un galardón militar. En julio de 1934 murió de una anemia perniciosa, también víctima de la irradiación, con el síntoma adicional, en su caso, del sonambulismo [xii]. Sus cuadernos de laboratorio todavía son tan radiactivos que están guardados en una caja de seguridad con paredes cubiertas de plomo, de la que solo se sacan de vez en cuando en condiciones estrictamente controladas [121].
El radón se había descubierto el mismo año, 1898, de la mano de Ernest Rutherford, quien dio con él mientras experimentaba en Cambridge con los rayos Becquerel, y sirvió de base para el descubrimiento igualmente importante de que la radiactividad no es un fenómeno permanente, sino que disminuye con el tiempo, lo que tendría consecuencias más tarde en las disciplinas de la arqueología y la paleontología (véase el capítulo 12). Hubo por aquel tiempo varios descubrimientos espurios de «rayos» (rayos N, luz negra, eterión), pero fue el descubrimiento de J. J. Thomson, en 1897, lo que marcó el punto álgido de todo aquello, el primero de los grandes éxitos del Laboratorio Cavendish, que acabaría de reorientar a la física moderna.

El descubrimiento del electrón
Fundado en 1871, el Laboratorio Cavendish abrió sus puertas tres años más tarde, pero solo se convirtió en un éxito después de unos cuantos falsos comienzos. Tras haber intentado, sin lograrlo, atraer primero a William Thomson de Glasgow, y al inigualable Hermann von Helmholtz, Cambridge finalmente le ofreció la dirección a James Clerk Maxwell.
Maxwell murió en 1879, cuando el laboratorio apenas contaba cinco años, y fue sucedido en el cargo por lord Rayleigh, quien continuó su legado y al cabo de otros cinco años se retiró a sus propiedades en Essex. La dirección pasó entonces, de manera un tanto inesperada, a Joseph John Thomson. Pese a su juventud, tan solo veintisiete años, Thomson ya se había labrado una reputación en Cambridge como alguien que, como antes Mary Somerville, podía usar las matemáticas para poner orden en la física. Universalmente conocido como «J. J.» Thomson, contribuyó a que el Cavendish jugase un papel protagonista en la nueva física, que se dio a conocer paso a paso.
J. J. había nacido en 1856 en el seno de la familia de un librero de Manchester en un tiempo en el que «lo que Manchester piensa hoy, el mundo lo piensa mañana». Su padre era miembro de la Sociedad Literaria y Filosófica y presentó a su joven hijo a Joule, diciéndole que algún día estaría orgulloso de haber conocido a aquel caballero. A los diecisiete años, J. J. consiguió un certificado de ingeniería y publicó su primer artículo en Owens College, el predecesor de la Universidad de Manchester. En parte gracias a ello, pudo ingresar en Trinity College, en Cambridge, donde llegó a ser segundo wrangler. Hombre enclenque, con gafas y un poblado mostacho, dirigió el Laboratorio Cavendish hacia trabajos de aplicación más directa, aunque también tenía sus lapsus. Se cuenta que un día compró un par de pantalones de camino al almuerzo después de que un colega le convenciera de que los que llevaba eran demasiado anchos y se veían gastados. En casa se los cambió y regresó al laboratorio. Cuando su esposa llegó de vuelta de la compra, encontró el par usado encima de la cama y, alarmada, telefoneó enseguida al Cavendish, convencida de que su despistado marido se había ido al trabajo sin pantalones [122].
En una serie de experimentos, J. J. bombeó diferentes gases al interior de tubos de vacío de vidrio, por los que hacía pasar una corriente eléctrica, y los rodeaba con imanes o con campos eléctricos. Gracias a su manipulación sistemática de las condiciones, demostró de manera convincente que los «rayos» catódicos eran en realidad partículas infinitesimalmente pequeñas que emanaban del cátodo y eran atraídas por el ánodo. También descubrió que la trayectoria de las partículas se podía alterar con la ayuda de un campo eléctrico y que se curvaba bajo la influencia de un campo magnético. Y lo que es más importante, descubrió que aquellas partículas eran más ligeras que los átomos de hidrógeno, la unidad de materia más pequeña que se conocía, y que su tamaño era siempre el mismo con independencia del gas que utilizase. Thomson claramente había identificado algo fundamental. Esta fue, de hecho, la primera confirmación experimental de la teoría particulada de la materia, uno de los descubrimientos que explica el carácter discreto de la naturaleza.
A estos «corpúsculos», como Thomson solía llamar a estas partículas (otros las llamaban «prótilos»), hoy los conocemos como electrones, un nombre propuesto originalmente por el físico y astrónomo anglo-irlandés George Johnstone Stoney [123]. Pero la emoción que todo aquello suscitó no tardó en ser igualada por el cuanto.

El descubrimiento del cuanto
En 1900, Max Planck tenía cuarenta y dos años, dos menos que J. J. Hombre tímido y callado, Planck fue el sexto hijo de un profesor de jurisprudencia de la Universidad de Kiel y de la hija de un pastor de la iglesia. Como eso sugiere, la suya era una familia profundamente religiosa y bastante académica, en cuyo seno Max llegó a convertirse en un músico excelente (tenía un armonio especialmente construido para él). Sus cartas de aquella época hablan de veranos en Eldena, un centro vacacional en el Báltico, de cróquet en la hierba, de veladas dedicadas a la lectura de sir Walter Scott y de musicales representados por la familia. Pero la ciencia era la llamada de Planck y en el cambio de siglo se encontraba en lo más alto de su profesión, siendo miembro de la Academia Prusiana y catedrático en la Universidad de Berlín.
En 1897, el año en que Thomson descubrió los electrones, Planck comenzó a trabajar en el proyecto que le daría prestigio. Se sabía desde la antigüedad que cuando una sustancia (por ejemplo, el hierro) se calienta, primero emite un resplandor de color rojo apagado, luego rojo vivo y finalmente blanco. Esto se debe a que a temperaturas moderadas aparecen longitudes de onda (de la luz) más largas, y a medida que aumenta la temperatura, empiezan a aparecer longitudes de onda más cortas. Cuando el material candente está blanco es porque aparecen todas las longitudes de onda. Los estudios de cuerpos todavía más cálidos (estrellas, por ejemplo) muestran que en la siguiente fase caen las longitudes de onda más largas, de manera que el color se desplaza gradualmente hacia la parte azul del espectro. Planck se sentía fascinado por esto y por su vínculo con un segundo misterio, conocido como el «problema del cuerpo negro». Un cuerpo negro perfecto es aquel que absorbe por igual todas las longitudes de onda de la radiación electromagnética. No existe en la naturaleza, aunque el negro de carbón, por ejemplo, se le acerca, pues absorbe el 98 % de toda la radiación. De acuerdo con la física clásica, un cuerpo negro solo debería emitir radiación en función de su temperatura, y entonces esa radiación debería emitirse a todas las longitudes de onda, es decir, siempre debería ser blanca. Sin embargo, los estudios sobre los cuerpos negros de que disponía Planck (hechos de porcelana y platino y guardados en la Oficina de Estándares de Charlottenburg) demostraban que, cuando se calentaban, se comportaban más o menos como un trozo de hierro, emitiendo primero un rojo apagado, luego un rojo vivo, luego un rojo anaranjado brillante y finalmente luz blanca. ¿Por qué?
La idea revolucionaria se le ocurrió alrededor del 7 de octubre de 1900. Aquel día, Planck envió una postal a su colega Heinrich Rubens en la que esbozaba una ecuación para explicar el comportamiento de la radiación del cuerpo negro. La esencia de la idea de Planck (que en un principio era solo matemática) era que la radiación electromagnética no era continua, como afirmaba la física clásica, sino que solo podía emitirse en paquetes de un tamaño definido. Era, según decía, como si una manguera solo pudiera expulsar agua en «paquetes» de líquido. Planck supo de la importancia de su idea desde el momento mismo de concebirla. Aquella misma tarde había llevado a su joven hijo a dar un paseo y le había confiado: «Hoy he tenido una idea tan buena como las de Newton» [124].
Para el 14 de diciembre de aquel año, cuando pronunció una conferencia ante la Sociedad de Física de Berlín, Planck ya había elaborado a fondo su teoría. Una parte de esta era el cálculo de las dimensiones de aquel pequeño paquete de energía, que Planck denominó h y que más tarde se conocería como constante de Planck. Su valor, según sus cálculos, era de 6,55 × 10-27 ergios por segundo (un ergio era una pequeña unidad de energía). Planck había identificado este pequeñísimo paquete como una unidad fundamental, básica e indivisible del universo, un «átomo» de radiación al que denominó «cuanto» (por la palabra latina quantum, «qué cantidad»). Al igual que el electrón, el cuanto ayuda a explicar el carácter discreto de la naturaleza.

La organización del átomo
La física se transformó de nuevo unos pocos años más tarde, en la tarde del martes 7 de marzo de 1911, esta vez en Manchester. Sabemos de este evento gracias a James Chadwick, que entonces era estudiante pero más tarde se convertiría en un físico famoso. Aquel día se había celebrado una reunión de la Sociedad Literaria y Filosófica («Lit. and Phil.») de Manchester, con una audiencia formada sobre todo por notables del lugar, gente inteligente pero de ningún modo especialistas. Un importador de fruta de la ciudad habló primero para explicar que había encontrado una extraña serpiente en un cargamento de plátanos de Jamaica.
La siguiente conferencia fue pronunciada por Ernest Rutherford, que presentó a su público lo que sin duda es una de las ideas más influyentes del mundo moderno: la estructura básica del átomo. Le explicó a los presentes que el átomo estaba formado por «una carga eléctrica central concentrada en un punto y rodeada de una distribución esférica uniforme de electricidad opuesta en la misma cantidad». Suena aburrido, pero James Chadwick llegaría a decir que había recordado aquella reunión toda su vida. Fue, según escribió, «una actuación rompedora para nosotros, los jóvenes que estábamos… comprendimos que aquello era una verdad evidente» [125].
Cuando estaba de buen humor, Rutherford recorría el Laboratorio Cavendish cantando «Onward Christian Soldiers» a voz en grito. Había crecido en una comunidad rural aislada de Nueva Zelanda, uno más de doce hijos, y tenía la complexión robusta y el semblante de quien ha vivido la vida. Había aprendido ingeniería con su padre, que se dedicaba a la construcción de puentes y líneas férreas. En la escuela, Nelson College, cuyo director era un célebre jugador de críquet, había llegado a ser el mejor estudiante, que allí se conocía como Dux, y de ahí le venía el sobrenombre al que siempre respondería, Quacks [xiii].
Pese a haber recibido tres grados antes de cumplir los veintitrés años, Rutherford fracasó tres veces en sus intentos por conseguir empleo como profesor en Nueva Zelanda y a causa de ello solicitó (y obtuvo) una beca para estudiar en cualquier universidad del Imperio británico. Su elección fue el Laboratorio Cavendish, en Cambridge.
Al principio, algunos de los otros físicos veían a Rutherford como un rudo «hombre de las colonias», pero J. J. se dio cuenta enseguida de sus habilidades, y gracias a ello consiguió una plaza de profesor en McGill, en Canadá. Una vez allí, sin embargo, le pareció un lugar intelectual y científicamente estancado, y en cuanto pudo regresó a Gran Bretaña, para ocupar una plaza de profesor en Manchester. Su última mudanza fue de vuelta a Cambridge como director del Cavendish.
Después de llegar allí la primera vez, en octubre de 1895, inició enseguida una serie de experimentos diseñados para ahondar en el trabajo de Röntgen y Becquerel. En palabras de Richard P. Brennan, «Rutherford era bien conocido por creer profundamente que jurar y maldecir un experimento hacía que funcionase mejor, y a juzgar por sus resultados quizá tuviese razón». Tal como decía Mark Twain: «En momentos de nerviosismo, jurar ofrece un alivio que no se consigue ni rezando» [126].
Se conocían tres sustancias con radiactividad natural (uranio, radio y torio) y Rutherford y su ayudante Frederick Soddy se centraron en el torio, que desprendía un gas radiactivo. Cuando lo analizaron, sin embargo, les sorprendió descubrir que aquel gas era totalmente inerte; dicho de otro modo, no era torio. ¿Cómo podía ser? Soddy describiría más tarde, en sus memorias, la emoción de aquellos momentos. Él y Rutherford se fueron dando cuenta paulatinamente de que sus resultados «llevaban a la extraordinaria e inevitable conclusión de que ¡el elemento torio se transmutaba espontáneamente en el [químicamente inerte] gas argón!». Este fue el primero de muchos experimentos importantes realizados por Rutherford. Lo que él y Soddy habían descubierto era la desintegración espontánea de los elementos radiactivos, una forma moderna de alquimia [127].

Una analogía con los cielos
Los descubrimientos de Rutherford no se acabaron allí. Observó también que cuando el uranio o el torio se desintegraban, emitían dos tipos de radiación. Una parte de la radiación se podía frenar con un lámina de papel, pero cierta proporción solo se podía frenar con una lámina de aluminio de 1/500 centímetros de grosor. Rutherford llamó radiación «alfa» a la más débil de estas dos formas, y experimentos posteriores demostraron que las «partículas alfa» eran en realidad núcleos de helio, por tanto con carga positiva. Por otro lado, la forma más fuerte, la «radiación beta», estaba formada por electrones y, por tanto, tenía carga negativa [xiv]. Los electrones, decía Rutherford, eran «parecidos en todos los sentidos a los rayos catódicos». Tan excitantes eran estos resultados que Rutherford fue galardonado con el premio Nobel (entonces dotado con 7.000 libras) en 1908, cuando tan solo contaba treinta y siete años [128].
Para entonces dedicaba todos sus esfuerzos a las partículas alfa. Su razonamiento era que, por ser mucho mayor que el electrón beta (los electrones apenas tienen masa), era mucho más probable que interactuase con la materia, y aquella interacción sería evidentemente crucial para ampliar nuestro conocimiento. Solo tenía que diseñar los experimentos adecuados para que las partículas alfa le dijesen incluso algo sobre la estructura del átomo. «Me crie viendo el átomo como una bonita bola dura, roja o gris, al gusto», decía. Aquella manera de verlo había comenzado a cambiar mientras estaba en Canadá, donde había demostrado que las partículas alfa disparadas a través de una fina rendija y proyectadas en un haz podían desviarse por medio de un campo magnético. Todos estos experimentos se llevaban a cabo con equipos muy básicos, y esa era la belleza del enfoque de Rutherford. Fue precisamente un perfeccionismo en uno de sus equipos lo que produjo el siguiente gran descubrimiento.
En uno de los muchos experimentos que probó, cubrió la rendija con una fina lámina de mica, un mineral que de manera natural se puede dividir en láminas finas. La pieza que Rutherford colocó sobre la rendija de su experimento era tan fina (unas ocho milésimas de milímetro) que, al menos en teoría, las partículas alfa deberían haberla atravesado. Y lo hicieron, pero no exactamente tal como Rutherford esperaba. Cuando «recogió» los resultados de aquella «proyección» sobre una placa fotográfica, los márgenes de la imagen eran borrosos. Rutherford solo podía pensar en una explicación: algunas de las partículas se habían desviado. Aquello era obvio, pero fue la magnitud de la desviación lo que emocionó a Rutherford. A partir de sus experimentos con campos magnéticos, sabía que se necesitaban fuerzas potentes para inducir incluso las más pequeñas desviaciones. Aquella placa fotográfica, sin embargo, mostraba que algunas partículas alfa se habían desviado de su trayectoria en hasta 2 grados. Y solo había una cosa que pudiera explicar aquello. En palabras del propio Rutherford, «los átomos de la materia deben acoger fuerzas eléctricas muy intensas».
Esta idea de Rutherford, aunque sorprendente, no conducía automáticamente a nuevas revelaciones, así que durante algún tiempo, él y su nuevo ayudante, Ernest Marsden, insistieron tercamente en estudiar el comportamiento de las partículas alfa, proyectándolas sobre láminas de distintos materiales: oro, plata, aluminio. No observaron nada fuera de los esperable. Pero una mañana Rutherford llegó al laboratorio y «se preguntó a viva voz», dirigiéndose a Marsden, si (teniendo en mente todavía el resultado de la desviación) no sería una buena idea bombardear las láminas de metal con partículas proyectadas con un ángulo.
El ángulo más obvio con el que comenzar era el de 45 grados, y eso fue lo que hizo Marsden usando una lámina de oro. Aquel sencillo experimento, explicaría más tarde, «hizo temblar los cimientos de la física». Proyectadas con un ángulo de 45 grados, las partículas alfa no atravesaban la lámina, sino que rebotaban con un ángulo de 90 grados contra la pantalla de sulfuro de zinc. «Recuerdo bien cuando le referí los resultados a Rutherford —escribió Marsden en sus memorias—, al encontrármelo en los escalones que conducían a su despacho privado, y la alegría con que se los expliqué». Rutherford comprendió enseguida lo que Marsden ya había averiguado: para que se produzca tamaña desviación, debe haber una cantidad masiva de energía encerrada en algún lugar del equipo utilizado en aquel sencillo experimento.
Sin embargo, Rutherford seguía confuso. «Fue el acontecimiento más increíble que me ha ocurrido en toda la vida», escribiría en su autobiografía. «Aquello era casi tan increíble como disparar un obús de 38 centímetros contra un pañuelo de papel, y que el proyectil rebote y nos golpee. Al pensar sobre ello, comprendí que aquella desviación hacia atrás tenía que ser el resultado de una sola colisión, y cuando hice los cálculos vi que era imposible obtener nada de aquel orden de magnitud salvo que se considerase un sistema en el que la mayor parte de la masa del átomo estuviese concentrada en un núcleo diminuto». De hecho, le dio vueltas durante meses antes de sentirse seguro de que tenía razón. (Al principio no lo llamó núcleo sino «carga central»; el término «núcleo» fue propuesto por John Nicholson, un físico matemático también de Cavendish) [129]. Una de las razones de la demora fue que a Rutherford le costó aceptar que la concepción del átomo con la que había crecido, que se imaginaba como un minúsculo pudin, con los electrones dispersos como si fueran pasas, ya no servía. Era mucho más probable otro modelo totalmente distinto, para el que estableció una analogía con los cielos. El núcleo del átomo, hecho de partículas de carga positiva que denominó «protones» (del griego «primeras cosas»), estaba envuelto por electrones en órbita con carga negativa, igual que los planetas en torno a las estrellas.
Como teoría, el modelo planetario era elegante, mucho más que la versión del «pudin», pero ¿era correcto? Para contrastar su teoría, Rutherford suspendió del techo de su laboratorio un imán de gran tamaño. Justo debajo, sobre una mesa, colocó otro imán. Luego dejó que el imán péndulo se balancease sobre la mesa con un ángulo de 45 grados, y cuando los imanes coincidían en polaridad, el imán suspendido rebotaba con un ángulo de 90 grados, justo igual que las partículas alfa cuando golpeaban la lámina de oro. Su teoría había superado la primera prueba, y la física atómica se había convertido en física nuclear [xv]. Era «una nueva concepción de la naturaleza… el descubrimiento de una nueva capa de realidad, una nueva dimensión del universo» [130].

La unificación de J. J., Planck y Rutherford
Niels Bohr no podría haber sido más diferente de Rutherford. Era danés y un atleta excepcional. Jugaba al fútbol en la Universidad de Copenhague, le encantaba esquiar y navegar a vela y era imbatible en el tenis de mesa. C. P. Snow describió a quien sin duda fue uno de los científicos más brillantes del siglo XX como un hombre alto, «de cabeza enorme, abovedada», que hablaba con voz suave, «poco más que un susurro». También decía que «al hablar le costaba tanto llegar al grano como a Henry James en sus últimos años» [131].
Este extraordinario hombre había nacido en el seno de una familia cultivada y científica; su padre era profesor de fisiología; su hermano, matemático, y ambos eran muy leídos en cuatro idiomas. Los primeros trabajos de Bohr versaron sobre la tensión superficial del agua, pero luego dirigió su atención a la radiactividad, que es la razón principal que lo atrajo a Rutherford, en Inglaterra, en 1911. Estudió primero en Cambridge, pero, como ya sabemos, no congenió con J. J. y, tras oír hablar a Rutherford durante una cena en el Laboratorio Cavendish, se mudó a Manchester.
Aunque por aquel tiempo la teoría del átomo de Rutherford era ampliamente aceptada por los físicos, no dejaba de tener algunos problemas graves, de los cuales el más preocupante era su estabilidad: nadie podía entender por qué los electrones en órbita no acababan estrellándose contra el núcleo.
Al poco de empezar a trabajar con Rutherford, Bohr tuvo una serie de brillantes intuiciones, la más importante de las cuales fue que si bien las propiedades radiactivas de la materia tenían su origen en el núcleo atómico, las propiedades químicas reflejaban fundamentalmente la distribución de los electrones. De un plumazo había explicado el vínculo entre la física y la química [132].
Como ya hemos visto, el modelo del átomo de Rutherford era esencialmente inestable. Según la teoría «clásica», si un electrón no se movía en línea recta, perdía energía por radiación. Pero los electrones se movían alrededor del núcleo del átomo en órbitas; esos átomos deberían romperse en todas direcciones o colapsarse sobre sí mismos en una explosión de luz. Obviamente no ocurría nada de eso: la materia, que está hecha de átomos, es en general muy estable.
La contribución de Bohr se basaba en una proposición y una observación. Lo que propuso fueron estados «estacionarios» en el átomo. A Rutherford al principio le costó aceptarlos, pero Bohr insistió, de plano contra la teoría clásica, que debía haber ciertas órbitas que los electrones podían ocupar sin salir disparados o estrellarse contra el núcleo y sin radiar luz. Reforzó esta idea enormemente añadiendo una observación que se conocía desde hacía años: que cuando la luz atraviesa una sustancia, cada elemento produce un espectro de color característico que, además, es estable y discontinuo. La brillantez de Bohr radica en llegar a comprender que este efecto espectroscópico existía porque los electrones que daban vueltas alrededor del núcleo no podían ocupar «la órbita que fuese» sino solamente ciertas órbitas «permisibles», las que permitían que el átomo fuese estable [133].
Pero la verdadera importancia de las ideas de Bohr estriba en su unificación de Rutherford, Planck y J. J., en confirmar la naturaleza cuántica (discreta) de la naturaleza, la estabilidad del átomo (los estados entre cuantos eran inadmisibles), y la naturaleza del vínculo entre la física y la química. Al principio, buena parte de la vieja guardia se mostró escéptica con las propuestas de Bohr. El propio J. J. fue uno de ellos: no mostró públicamente su apoyo a Bohr hasta 1936, cuando ya contaba ochenta años. Pero Rutherford fue un gran defensor de Bohr, y cuando Albert Einstein supo cómo las teorías del danés concordaban con la espectroscopia, dijo: «Entonces este es uno de los más grandes descubrimientos».
En poco tiempo, «Sobre la constitución de los átomos y las moléculas», el título colectivo de los tres artículos de Bohr sobre el tema («la trilogía»), se convirtió en un clásico y, tras casi tres años en Manchester, recibió la oferta de una cátedra en Copenhague, su ciudad natal. Poco después le montaron su propio Instituto de Física Teórica, también en Copenhague, que habría de convertirse en uno de los principales centros de esta disciplina durante los años de entreguerras. La personalidad tranquila, amable y reflexiva de Bohr (cuando hablaba, a menudo hacía pausas interminables mientras buscaba la palabra apropiada) fue un factor importante en este proceso. Pero también fue relevante para el auge del instituto de Copenhague la posición de Dinamarca como un pequeño país neutral donde, durante los años oscuros del siglo XX, los físicos podían encontrarse lejos de los focos frenéticos de los principales centro europeos y norteamericanos. A su modo, también eso tenía su propio tipo de orden.

* * * *

Durante el periplo de la tabla periódica de Mendeléyev a la «trilogía» de Bohr hemos pasado de un orden de la química a otro dando un gran rodeo por la física fundamental: nuevas formas de energía (radiactividad), nuevas entidades (partículas), nuevos conceptos (el cuanto) y nuevas estructuras (las órbitas alrededor de un núcleo). A este nuevo nivel de realidad, y a medida que se mostraba con mayor claridad la manera en que estaba organizada la naturaleza, comenzó a desmoronarse la distinción entre disciplinas tradicionales. Por el momento, todo parecía bastante simple: el núcleo, el electrón en órbita y la disciplina de los cuantos encajaban en una estructura cómoda, un mecanismo explicativo fácil de aprehender. Era una unificación tan limpia y profunda como cabía desear. Pero no durante mucho tiempo.

Capítulo 4
La unificación de espacio y tiempo, y de masa y energía

Alemania, como hemos visto, llevaba la batuta en la tradición de la física teórica: Clausius, Boltzmann, Hertz, Planck. Pero el físico teórico más famoso de la historia fue, con mucho, Albert Einstein, y cayó en la escena intelectual como una bomba. De todas las revistas científicas del mundo, el número más buscado por los coleccionistas es el volumen XVII, de 1905, de los Annalen der Physik. Aquel año, Einstein publicó no uno sino tres artículos en la revista, haciendo que 1905 se conozca como el annus mirabilis de la ciencia. Era el mayor triunfo desde que Newton se había encerrado en la casa de su madre en Woolsthorpe-by-Colsterworth durante el año de la peste de 1666 y había alumbrado otras tres grandes ideas: el cálculo, el análisis del espectro de la luz y las leyes de la gravedad.
Igual que Newton había nacido el año de la muerte de Galileo, Einstein nació el año de la muerte de James Clerk Maxwell y creía que parte de su tarea era ampliar las ideas del escocés [134].
Einstein nació en Ulm, entre Stuttgart y Múnich, el 14 de marzo de 1879. Hermann, su padre, era ingeniero eléctrico. Einstein no fue hijo único (tenía una hermana, María, siempre conocida como Maja), pero era de naturaleza bastante solitaria e independiente, un rasgo que contribuyó a su infelicidad en el colegio. Odiaba la atmósfera autocrática tanto como el nacionalismo crudo y el vicioso antisemitismo que veía a su alrededor. Descubrió a Hume, Kant y Darwin por sí mismo, pero discutía constantemente con sus compañeros de clase y con sus maestros, hasta el punto de que, aunque le iba bien intelectualmente (siempre era el primero, o cerca del primero, en matemáticas y latín), fue expulsado. No hay duda de que su reacción hacia los estándares educativos coercitivos del tiempo despertó su posterior actitud independiente y cuestionadora. Su profesor de griego le había dicho en una ocasión que escogiera la carrera que escogiera, siempre fracasaría en ella.
Albert fue una persona muy intensa en su adolescencia, nunca se mezclaba con otros de su propia edad y nunca leía literatura «ligera». Aparte de la ciencia, su principal interés era la música. Su madre era una pianista consumada, y él aprendió por su cuenta piano y violín, que tocó durante toda su vida. Adoraba a Mozart y Bach por encima de todo, pero se sentía incómodo escuchando a Beethoven: «Creo que es demasiado personal, casi desnudo» [135].
A los dieciséis años se mudó con sus padres a Milán y a los diecinueve ingresó en el politécnico de Zúrich (porque no requería un diploma para la admisión). Aun así, suspendió el examen de admisión y tuvo que matricularse en una escuela preparatoria durante un año. El politécnico de Zúrich, o ETH, tenía menos prestigio que las universidades vecinas de Zúrich, Basel o Génova, pero era una institución sólida, financiada en parte por Werner von Siemens, el magnate alemán de la ingeniería eléctrica. Einstein, como él mismo diría más tarde, nunca se tomó las matemáticas demasiado en serio en el ETH, donde tampoco era un asiduo de las clases, sino que aprovechaba las meticulosas notas que tomaba un amigo.
En cualquier caso, llegó a tener la impresión de que muchas de las clases de física que se impartían en el ETH estaban anticuadas, por lo que él y un puñado de estudiantes más empezaron a leer en privado las obras de Gustav Kirchhoff, Hermann von Helmholtz y Heinrich Hertz, que no estaban incluidas en el curso. También leyeron las obras de un teórico menos conocido, August Föppl, cuya Introducción a la teoría de la electricidad de Maxwell estaba repleta de conceptos que pronto encontrarían eco en la propia obra de Einstein, especialmente uno que ponía en entredicho el concepto de «movimiento absoluto». También leyó los tratados del matemático francés Henri Poincaré, en los que cuestionaba el tiempo y el espacio absolutos [136].
Tras graduarse, Einstein pasó un tiempo sin trabajo (al parecer no le ofrecieron un puesto de profesor ayudante porque era «irreverente» con sus profesores). Pero entonces encontró empleo en una oficina de patentes en Berna (como «experto técnico de tercera clase»). A medio camino de su educación, a medio camino de la vida académica, en 1901 empezó a publicar artículos científicos.
El primero no contenía nada destacable. Al fin y al cabo, Einstein no podía acceder a la literatura científica más reciente, de modo que repetía o entendía mal el trabajo de otros. Una de sus especialidades, sin embargo, eran las técnicas estadísticas (los métodos de Boltzmann), y aquello le permitía asentarse sobre una base sólida. Pero quizá sea más importante que el hecho de estar fuera de la corriente principal de la ciencia podría haber contribuido a su originalidad, que floreció súbitamente en 1905.
Los tres grandes artículos de Einstein se publicaron en marzo, sobre la teoría cuántica; en mayo, sobre el movimiento browniano; y en junio, sobre la teoría especial de la relatividad. Aunque el artículo original de Planck no había causado demasiado revuelo cuando fue leído en la Sociedad Física de Berlín en diciembre de 1900, otros científicos comprendieron de inmediato que Planck debía de tener razón. Su idea explicaba mucho, incluso la observación de que el mundo químico está hecho de unidades discretas, los elementos. Los elementos discretos implicaban unidades fundamentales de la materia que también eran discretas (como Dalton había dicho años antes). Por otro lado, durante muchos años los experimentos habían apuntado a que la luz se comportaba como una onda [137].
En la primera parte de su primer artículo, Einstein, mostrando desde el principio la mentalidad abierta por la que los físicos serían tan celebrados, hizo la proposición, hasta entonces impensable, de que la luz era ambas cosas: a veces una onda, a veces una partícula. Esta idea tardó en ser aceptada, o incluso entendida, excepto entre los físicos, que comprendieron que la idea de Einstein se ajustaba a las observaciones. Con el tiempo, la dualidad onda-partícula, como daría en conocerse, formaría los cimientos de la mecánica cuántica en los años 1920 [xvi].
Dos meses después de este artículo, Einstein publicó su segundo gran trabajo, sobre el movimiento browniano. Cuando se suspenden en agua y se observan al microscopio, los pequeños granos de polen, de apenas una centésima de milímetros, se mueven a sacudidas o en zigzag, adelante y atrás. La idea de Einstein era que esta «danza» se debía a que el polen era bombardeado por moléculas de agua que lo golpeaban al azar. Aquí le valió su conocimiento de estadística, pues sus complejos cálculos fueron confirmados por experimentos. Esta suele considerarse la primera prueba de la existencia de las moléculas.
Fue el tercer artículo de Einstein, sobre la teoría especial de la relatividad, la que lo haría famoso. (Aunque no inmediatamente. Tras la publicación solo recibió una nota, de Planck, solicitando más detalles). Fue esta teoría la que le llevó a concluir que E = mc2, o, en palabras de Einstein, que «la masa de un cuerpo es una medida de su contenido de energía». Los pocos expertos que comprendieron adónde quería llegar Einstein se mostraron escépticos, sin ver de qué manera se podrían contrastar sus ideas experimentalmente. Siguió trabajando en la oficina de patentes hasta 1909 [138].

El concepto de espacio-tiempo
La relatividad no nacía de la nada. Tanto Ernst Mach como Henri Poincaré se habían preguntado si los conceptos de espacio y tiempo absolutos eran justificables y si, dada la velocidad finita de la luz, el tiempo local y el tiempo general podían ser los mismos y si convenía repensar la simultaneidad y el movimiento uniforme (cómo hacerlo ya era otra cuestión [139] ).
De hecho, si se miraba a fondo se encontraban todo tipo de anomalías que había que explicar. Por ejemplo, había anomalías en el movimiento. Una persona que se siente «en reposo» sentado en una silla en la Tierra en realidad está dando vueltas con la rotación del planeta a unos 1.674 kilómetros por hora, y en órbita alrededor del Sol a unos 108.000 kilómetros por hora [140]. Luego estaban las anomalías de la luz. Newton había concebido la luz en esencia como una corriente de partículas emitidas, pero en tiempos de Einstein la mayoría de los científicos aceptaban la teoría rival, propuesta por el coetáneo holandés de Newton, Christiaan Huygens, de que la luz debía entenderse como una onda. Así lo habían confirmado numerosos experimentos, entre ellos el más famoso, realizado por Thomas Young, que demostraba que cuando la luz atravesaba dos rendijas producía un patrón de interferencia parecido al que producirían unas ondas de agua al pasar por dos hendiduras. En ambos casos, los picos y los valles a veces se refuerzan y otras veces se cancelan, y producen llamativos patrones. Además, las famosas ecuaciones de Maxwell que relacionaban la electricidad, la luz y el magnetismo, de las que ya hemos hablado abundantemente, también predecían ondas electromagnéticas que tenían que viajar a la velocidad de la luz (300.000 kilómetros por segundo en el vacío). Maxwell había confirmado sus ecuaciones con su descubrimiento de que esta era la velocidad de la electricidad por un hilo conductor.
Por todo esto, parecía claro que la luz era una parte visible de todo un espectro de ondas electromagnéticas, que incluyen lo que hoy conocemos como ondas de radio AM (con una longitud de onda de unos 300 metros), señales FM (3 metros) y microondas (10 centímetros). A ondas más cortas (y mayor frecuencia de los ciclos), aparece el espectro de la luz visible, que va del rojo (65 millonésimas de centímetro) al violeta (35 millonésimas de centímetro). Las ondas aún más cortas producen rayos ultravioletas, rayos X y rayos gamma [141].
Todo eso estaba bastante claro, pero a su vez planteaba dos preguntas fundamentales. ¿Cuál era el medio por el que viajaban aquellos rayos? Y su velocidad, de unos 300.000 kilómetros por segundo, ¿era relativa a qué? Al principio, los científicos creyeron que debíamos estar rodeados por un medio difícil de detectar, supuestamente inerte, un «éter» que llenaría el espacio universal, como el propio Einstein había observado. Aquello condujo, en palabras de Walter Isaacson, a la gran cacería de finales del siglo XIX.
Un famoso experimento realizado en 1887 en Cleveland (Ohio, EE. UU.) por Albert Michelson y Edward Morley, fue parte de aquella cacería. Su aparato dividía un haz de luz, enviando una parte adelante y atrás hasta un espejo colocado al final de un brazo alineado con la dirección del movimiento de la Tierra. La segunda parte del haz se movía adelante y atrás a lo largo de un brazo que formaba con el primero un ángulo de 90°. Las dos partes del haz se reunían después, y el objetivo era ver si el haz que se desplazaba en contra del supuesto éter tardaba más. Pero no hallaron ninguna diferencia. Nadie había logrado nunca detectar aquel esquivo éter: se moviera en la dirección que se moviera, la velocidad de la luz era exactamente la misma.
Se hicieron todo tipo de proposiciones para explicar por qué era tan esquivo el éter, pero Einstein estaba más interesado en los datos astronómicos. Nadie había encontrado datos que mostrasen que la velocidad de la luz dependiese de su fuente: la luz que provenía de una estrella, por lejos que estuviera, parecía llegar a la misma velocidad [142]. Llegó a la conclusión de que «toda la luz debería definirse únicamente por la frecuencia y la intensidad, con independencia de si proviene de una fuente de luz fija o estacionaria». Eso es lo que decían las ecuaciones de Maxwell, pero para Einstein se planteaba un problema. Como escribió en aquella época, «a la vista de este dilema, no parece que se pueda hacer más que desechar o bien el principio de la relatividad o bien la simple ley de la propagación de la luz».
Pero fue entonces, en mayo de 1905, mientras reflexionaba sobre aquel gran dilema, cuando tuvo su primera gran idea. Como diría más tarde: «de repente comprendí la clave del problema». Cinco semanas más tarde envió a los Annalen su artículo más celebrado, «Sobre la electrodinámica de los cuerpos en movimiento». La idea crucial era que dos eventos que parecen ser simultáneos para un observador no le parecerán simultáneos a otro observador que se mueva muy rápido. Además, no hay manera de saber cuál de los dos observadores tiene razón. Dicho más crudamente, no hay modo de declarar si dos eventos son verdaderamente simultáneos.
Intentó explicar esto más tarde por medio de un experimento mental que concibió y resumió en el diagrama que se muestra a continuación, que se refiere a un tren que corre a lo largo de un terraplén:

001.jpg

Einstein nos pide que imaginemos dos rayos de una tormenta que golpean al mismo tiempo los puntos A y B. Lo hacen exactamente al mismo tiempo que un observador dentro del tren se encuentra en el punto Mt, a medio camino entre A y B. El tren se desplaza hacia la derecha, en la dirección de las flechas, y hay un segundo observador, sobre el terraplén, en el punto M, también a medio camino entre los puntos donde caen los rayos.
Si el tren estuviera parado, el observador del tren vería los dos rayos exactamente al mismo tiempo, igual que el observador del terraplén. Sin embargo, si el tren se desplaza hacia la derecha, y a una velocidad muy alta, el observador del tren en movimiento se habrá desplazado ligeramente a la derecha, más cerca de la fuente de luz del punto B, en el tiempo que tarda el rayo en alcanzarlo. Por consiguiente, verá la luz del punto B antes que la luz del punto A: los dos eventos no serán simultáneos.
«Llegamos así a un importante resultado», dice Einstein. «Los eventos que son simultáneos con respecto al terraplén no son simultáneos con respecto al tren». Además, el principio de relatividad dice que no hay manera de dilucidar si el terraplén está «en reposo» y el tren «en movimiento». Solo podemos decir que están en movimiento uno en relación con el otro y no hay ninguna otra respuesta correcta o incorrecta. No hay manera de saber si los dos eventos son simultáneos de manera «absoluta» o «real». Esto significa, además, que el tiempo absoluto no existe. «Todos los marcos de referencia en movimiento tienen su propio tiempo relativo [143] ».
Partiendo de que la simultaneidad absoluta no existe y que, por consiguiente, el tiempo es relativo, Einstein demostró que también lo son el espacio y la distancia. Si el hombre del vagón de tren recorre una distancia en una unidad de tiempo, la distancia para la persona que está en el terraplén no es necesariamente la misma. Un instrumento de medida en movimiento registrará dimensiones distintas que un instrumento estacionario.
Mirémoslo del siguiente modo. Imaginemos que en el tren hay un «reloj» en forma de un espejo en el suelo y otro en el techo. Un rayo de luz que viaje del suelo al techo y de vuelta, a la vista de la persona que está en el tren se desplaza arriba y abajo en línea recta. Para la persona que está en el terraplén, sin embargo, el rayo de luz viajará hacia arriba siguiendo una dirección ligeramente diagonal, ya que durante ese tiempo el tren se ha desplazado un poco. Para ambos observadores, la velocidad de la luz es la misma, pero a la vista de la persona del terraplén el rayo de luz se desplaza una distancia mayor que a la vista de la persona del tren, de lo que se sigue que desde la perspectiva del observador del terraplén, el tiempo corre más despacio que para el pasajero del tren.
¿Hasta qué punto más despacio? La diferencia es en realidad minúscula. Si el tren se mueve a 300 kilómetros por hora, por ejemplo, v2/c2 (3002/1.080.000.000 2) = 0,000000000000077. Para obtener el factor de «dilatación del tiempo», ?, necesitamos 1/v(1 – 0,000000000000077) = 1,000000000000039 [xvii]. Esto significa que viajando durante toda una vida (digamos, 100 años), un tren dilataría el tiempo de vida en 0,0000000000039 años con relación a una persona situada en el arcén. Eso es algo más de una décima parte de un milisegundo. Sin embargo, más cerca de la velocidad de la luz, digamos al 90 %, el factor de dilatación del tiempo sería superior a dos, lo que significa que el reloj en movimiento haría tictac a un ritmo que sería la mitad que el del terraplén. Dicho de una forma más dramática, si de un par de gemelos (de la era espacial), uno fuera al espacio y viajase a 1 «g», y luego experimentara aceleración durante diez años seguidos de diez años de deceleración antes de dar la vuelta y regresar a la Tierra de la misma manera, llegando a casa después de viajar, según su cuenta, cuarenta años, el tiempo en la Tierra se habría movido en realidad en no menos de 59.000 años [144].
Así pues, tiempo y espacio están inextricablemente vinculados de misteriosas maneras. La dilatación del tiempo se ha contrastado con la ayuda de relojes muy sensibles en vuelos comerciales, demostrando que Einstein tenía razón. Pero en nuestra vida cotidiana, el efecto es minúsculo. De hecho, se ha calculado que si uno de los gemelos tuviese la mala fortuna de pasar toda su vida en un avión, a su regreso habría envejecido unos 0,00005 segundos menos que su gemelo en la Tierra [145].
Esta era la «teoría especial» de la relatividad de Einstein: que todos los marcos de referencia inerciales son igualmente válidos, que todos los observadores en distintos estados de movimiento medirán las cosas de formas distintas, que no hay estados de movimiento privilegiados. Esto no es lo mismo que decir que todo es subjetivo, porque en realidad hay reglas estrictas sobre cómo varían las dimensiones. La relatividad especial significa que las mediciones del tiempo, incluidas la duración y la simultaneidad, pueden ser relativas, dependiendo del movimiento del observador, y lo mismo puede ocurrir con las mediciones del espacio, como la distancia o la longitud. Pero la unión de las dos dimensiones, lo que hoy llamamos espacio-tiempo, se mantiene invariante en todos los marcos inerciales. Einstein consideró brevemente llamar a su descubrimiento/creación «teoría de la invarianza», pero el término nunca llegó a cuajar, y cuando en 1906 Max Planck se refirió a su teoría como Relativtheorie, el nombre se quedó.
Einstein incubó la teoría general de la relatividad durante diez años. Entretanto, apareció E = mc2.

La gran ecuación unificadora
Tampoco esta idea salió de la nada. El concepto de la conservación de la masa se conocía al menos desde Lavoisier, a finales del siglo XVIII, uno de los que observaron que, por ejemplo, cuando el hierro se oxida, gana peso, pues el oxígeno se «pega» al metal. Por lo que respecta a la luz, se intentaba medir su velocidad desde que Galileo puso linternas en dos colinas toscanas e intentó (sin éxito) medir cuánto tardaba la luz de una linterna en llegar a la otra. Esta situación se clarificó y se resolvió el problema a finales del siglo XVII, cuando un joven astrónomo danés llamado Ole Rømer, con solo veintiún años, fue convocado para ayudar al famoso científico italo-francés Giovanni Domenico (o Jean-Dominique) Cassini a resolver un problema con el planeta Júpiter. Cassini era entonces la autoridad mundial sobre Júpiter, que era especialmente fascinante porque, como la Tierra, tenía una luna (de hecho, tiene tres). El problema con Júpiter que desde hacía décadas llevaba de cabeza a los astrónomos era que su luna más interior, Ío, se suponía que debía completar una órbita alrededor de Júpiter cada cuarenta y dos horas y media pero, por alguna razón desconocida, nunca se ajustaba a este horario. A veces su órbita era un poco más corta, y otras, un poco más larga.
Nadie conseguía explicar estas discrepancias. ¿Acaso había algún otro cuerpo escondido que tiraba de Ío? Cuando Rømer llegó a París, repasó los meticulosos registros de Cassini. Al ser joven y, por tanto, no estar del todo inmerso en las ortodoxias científicas de la época (un poco como el propio Einstein), tuvo una idea que no se le había ocurrido a nadie, y era que la Tierra, en su órbita alrededor del Sol, estaba más cerca de Júpiter en algunas épocas del año y eso afectaba la cantidad de tiempo que tardaba la luz de Ío en llegar a la Tierra. Cassini y los otros astrónomos de la época no aceptaron su argumento y señalaron que, entre otras cosas, el experimento de Galileo había fracasado. Sin duda la luz viajaba instantáneamente.
Rømer no se rindió, y en una reunión pública celebrada en París en agosto de 1671, retó directamente a Cassini, argumentando que cuando Ío volviera a aparecer (lo que ocurriría el 9 de noviembre) no sería a las 5:27, como decía la ortodoxia, sino más cerca de las 5:37. Y eso fue exactamente lo que ocurrió: a las 5:37 y 49 segundos, para ser precisos. Pero esto hizo algo más que abochornar a Cassini. Permitió que Rømer y otros calculasen que la velocidad de la luz era, aproximadamente, 1.080 millones de kilómetros por hora. Para hacerse una buena idea de lo que eso significa, se podría viajar de Londres a Los Ángeles en menos de una veintena de segundo. La velocidad del sonido es Mach 1. La velocidad de la luz, c, es Mach 900.000. (La c viene de celeritas, «velocidad» en latín. La luz está hecha de fotones, que no tienen masa, hasta donde sabemos, y por eso viajan a la velocidad de la luz).
La idea del «cuadrado», como en X2 (a la que nos hemos referido antes, en la nota al pie de la página 52), constituye una característica de nuestro mundo mucho más de lo que pensamos. Es una característica fundamental del espacio. Cuando nos sentamos cerca de una lámpara de lectura, por ejemplo, y luego nos acercamos, se manifiesta este fenómeno. Si nos acercamos el doble a la lámpara, la intensidad de la luz aumenta cuatro veces. Si dejamos rodar una bola por una pendiente hasta un lecho de arena, penetrará en la arena hasta cierta profundidad, X. Si doblamos la velocidad de la bola, penetrará a una profundidad cuatro veces mayor que antes. Si la hacemos rodar a una velocidad tres veces mayor, penetrará nueve veces más hondo que al principio. Si aumentamos la velocidad de nuestro coche de 20 km/h a 80 km/h, cuadruplicamos la velocidad, pero el coche tardará dieciséis veces más en parar. En todo lo que concierne al momento, el «cuadrado» ocupa un lugar central.
Si la velocidad de la luz es de 1.080 millones de kilómetros por hora c2 valdrá 1.166.400.000.000.000.000. [146].

La intercambiabilidad de masa y energía
Con esto tenemos suficiente contexto. A partir de la década de 1890, un buen número de investigadores había observado que ciertos materiales se comportaban de una forma que dio que pensar a Einstein. Por ejemplo, en el Congo se habían descubierto ciertas «menas con metal» y, en lo que entonces era Checoslovaquia, ciertas rocas que desprendían unos misteriosos «rayos de energía». Marie Curie había acuñado el término «radiactividad» para referirse a estos rayos (capítulo 3), aunque ni siquiera ella (como hemos visto) había llegado a apreciar la fuerza de lo que había bautizado, puesto que la radiactividad posiblemente fuese responsable de la muerte de su marido y de la suya propia. Sin embargo, aquellas menas podían emitir muchos billones de partículas alfa de alta velocidad cada segundo sin que se produjese (aparentemente) ningún cambio de peso apreciable.
Einstein juntó todo aquello: las ecuaciones de Maxwell, con su dependencia de la velocidad de la luz; su propia idea de la relatividad; la constancia (e importancia) de la velocidad de la luz; el descubrimiento de la radiactividad. Juntó todo esto con los ingentes números implicados (los billones de partículas alfa, los 1.080 millones de kilómetros por hora de la velocidad de la luz) y produjo un artículo sorprendentemente breve, de tan solo tres páginas, con el título: «¿Depende la inercia de un cuerpo de su contenido de energía?» [147].
Este artículo también incluía un experimento mental con el que, en esta ocasión, calculaba las propiedades de dos pulsos de luz emitidos en direcciones opuestas por un cuerpo en reposo. Luego calculó las propiedades de esos mismos pulsos de luz cuando se observaban desde un marco de referencia en movimiento. Fue así como produjo ecuaciones que recogen la relación entre la velocidad y la masa: energía y masa son distintas manifestaciones de la misma cosa. Como dice Walter Isaacson en su biografía de Einstein: «Entre las dos existe una intercambiabilidad fundamental». O, como decía el propio Einstein: «La masa de una cuerpo es una medida de su contenido de energía».
Se han dado muchos ejemplos de las enormes cantidades de energía que produce la ecuación, pero quizá la más llamativa sea la que dice que la masa de una sola pasa, adecuadamente tratada, podría suministrar prácticamente toda la energía que consume la ciudad de Nueva York en un día. Basta con destruir un microgramo de materia cada segundo para suplir la energía que consume una ciudad. La energía química tiene sus raíces en la estructura del átomo, y a medida que, durante las reacciones, en las moléculas se rompen y rehacen los enlaces, se libera energía y la masa se reduce. En su expresión más simple, un átomo de hidrógeno contiene un solo electrón en órbita alrededor de un solo protón. Es importante tener en cuenta que la masa de este átomo es inferior a la masa combinada de un electrón y un protón que no estén relacionados en un átomo, aunque en una cantidad minúscula: 0,000 000 000 000 000 000 000 000 000 000 00002 kilogramos. Esta diferencia, por pequeña que sea, tiene enormes consecuencias cuando se convierte en energía. Esta diferencia (lo que en efecto es energía negativa) la conocen los físicos como «energía de enlace». Es esta diferencia, en el uranio, lo que conocemos como energía nuclear y, de manera natural en la Tierra, es la energía que mueve las placas tectónicas y levanta las montañas (capítulo 12 [148] ).
Einstein finalizaba su artículo (que no fue reconocido inmediatamente como la idea revolucionaria que llegaría a ser) con la sugerencia de que se podía realizar un experimento para verificar sus conclusiones. «Tal vez fuera posible contrastar esta teoría usando cuerpos cuyo contenido de energía fuera variable en alto grado, por ejemplo, sales de radio».

«El mayor descubrimiento de todos los tiempos… La más fantástica combinación de perspicacia filosófica, intuición física y habilidad matemática»
Einstein incubó la teoría general de la relatividad durante diez años antes de hacerla pública. De hecho, ya había tenido la idea básica en noviembre de 1907. Tal como recuerda: «Estaba sentado en una silla en la oficina de patentes de Berna cuando de repente se me ocurrió una idea. Una persona en caída libre no siente su propio peso». Aquello lo «sorprendió» tanto, según dijo, tanto que se embarcó en un épico viaje que «me empujó hacia una teoría de la gravitación». Más tarde describiría aquel momento en la oficina de patentes como «el pensamiento más feliz de mi vida» [xviii]. La historia del hombre en caída libre se ha hecho tan famosa y se ha llegado a adornar tanto que en ella puede aparecer una persona real, un pintor, que cae desde el tejado de un edificio cercano. Esto posiblemente sea tan cierto como la historia de que a Newton se le ocurrió la idea de la gravedad cuando le cayó una manzana en la cabeza.
El experimento mental que imaginó Einstein en esta ocasión implicaba un hombre en una habitación cerrada, un ascensor, por ejemplo, en caída libre hacia la Tierra, o en el espacio profundo, «muy alejado de estrellas u otras masas apreciables». Esa persona no sentiría que se está moviendo, no sentiría su peso; si se sacase algo del bolsillo, flotaría a su lado. La única cosa que sentiría sería la aceleración o la deceleración y puesto que, como sabe cualquier escolar, la gravedad ejerce su influencia en forma de una aceleración, Einstein llegó a la conclusión de que «los efectos locales de la gravedad y la aceleración son equivalentes». Esta es la idea básica con la que ahora jugaba para expandir la relatividad más allá de una teoría restringida a sistemas que se mueven con una velocidad uniforme.
Durante los años siguientes realizó ciertos cálculos matemáticos que le llevaron a hacer diversas predicciones. Una era que los relojes debían correr más despacio en un campo gravitatorio más intenso, otra que la luz debería curvarse a causa de la gravedad y que la longitud de onda de la luz emitida por una fuente de gran masa, como el Sol, debería aumentar ligeramente, un efecto que denominó «desplazamiento al rojo gravitacional».
Puede apreciarse mejor la forma como la gravedad curva la luz volviendo al experimento mental del ascensor. Imaginemos una partícula de luz que entra en el ascensor por un agujero minúsculo del lado derecho mientras baja. En el interior del ascensor, un observador verá cómo el rayo de luz toca el otro extremo (la pared izquierda) a la misma altura a la que entró. En cambio, un observador situado fuera del ascensor, y estacionario en relación con este, vería cómo el rayo de luz se curva hacia abajo porque, para cuando el rayo haya cruzado el ascensor, de derecha a izquierda, el ascensor se habrá desplazado un poco hacia abajo. Como la gravedad y la aceleración son equivalentes, un campo gravitatorio (un cuerpo celeste, por ejemplo) también debería curvar la luz. Einstein calculó que «un rayo de luz que pase junto al Sol debería experimentar una desviación de 0,83 segundos de arco» [xix].
La idea de que los rayos de luz pudieran curvarse tenía algunas implicaciones interesantes. En la vida cotidiana, la luz viaja en línea recta, pero si puede curvarse a causa de campos gravitacionales, ¿cómo puede determinarse una línea recta? La respuesta de Einstein era que el espacio-tiempo estaba curvado. Esta es, concede Isaacson, una idea que a la mayoría se nos hace difícil de comprender. Todos sabemos que la Tierra es redonda, aunque en nuestra vida cotidiana se nos presente como si fuera plana. Esto tiene consecuencias. Por ejemplo, podemos ver que las líneas paralelas, líneas que nunca se encuentran en un mundo euclidiano, en realidad se encuentran en los polos. Además, dos ángulos de la base de un triángulo que se extienda desde el ecuador hasta el polo norte tendrán cada uno 90 grados, mientras que en un mundo euclidiano los tres ángulos de un triángulo suman 180 grados. Einstein nos pide que demos un paso más y aceptemos que el espacio-tiempo es curvo y que la trayectoria más corta a través de una región del espacio que está curvada por la gravedad puede parecer bastante diferente de las líneas rectas de la geometría euclidiana.
La idea central de la relatividad general puede expresarse entonces de este modo: «Gravedad es geometría» [149]. Durante algún tiempo, pocos físicos adoptaron la nueva teoría de Einstein; muchos incluso la criticaron. No es algo que a Einstein le preocupase demasiado, a la espera de que se produjese un eclipse de Sol, que sería total en Crimea, el 21 de agosto de 1914. Algunos colegas iban a contrastar su predicción de que los rayos de luz se curvan en la proximidad del Sol. Por desgracia, veinte días antes del eclipse, estalló la primera guerra mundial y Alemania le declaró la guerra a Rusia. Los científicos alemanes que ya estaban en Crimea fueron capturados y les confiscaron todo el instrumental.
Paul Dirac, uno de los creadores de la mecánica cuántica (capítulo 5), dijo de la relatividad general que era «probablemente el mayor descubrimiento de todos los tiempos». Max Born la calificó de «la mayor hazaña del pensamiento humano sobre la naturaleza, la más asombrosa combinación de perspicacia filosófica, intuición física y habilidad matemática» [150].

El eclipse de Eddington
A causa de la guerra, entre 1914 y 1918 todos los vínculos directos entre Gran Bretaña y Alemania quedaron segados. Sin embargo, Holanda, igual que Suiza, permaneció neutral. En la Universidad de Leiden, Willem de Sitter, director del observatorio, y el hombre que alumbraría la idea de la materia oscura, era amigo y colaborador de Einstein. En 1915 recibió el artículo de Einstein sobre la teoría de la relatividad general. Consumado matemático y físico, De Sitter estaba bien relacionado y comprendió que como holandés neutral podía desempeñar un papel importante como intermediario. Por ello, transmitió una copia del artículo de Einstein a Arthur Eddington en Londres.
Eddington era entonces una figura central en el establishment científico británico, a pesar de tener una «tendencia mística», a decir de uno de su biógrafos. Nacido en Kendal, en el Distrito de los Lagos, en 1882 en el seno de una familia cuáquera de granjeros, fue educado en su casa, luego en Owens College en Manchester, y finalmente en Trinity College, en Cambridge, igual que J. J. En Trinity se convirtió en la primera persona que llegaba a ser senior wrangler en su segundo año, no en el tercero. Y fue en Cambridge donde conoció a J. J. y a Rutherford. Fascinado por la astronomía desde niño, al acabar sus estudios, en 1906, ocupó un puesto en el Real Observatorio de Greenwich, y en 1912 se convirtió en el secretario de la Real Sociedad Astronómica.
Su primer trabajo importante fue una masiva y ambiciosa prospección de la estructura del universo. Su principal descubrimiento, realizado en 1912, fue que el brillo de las llamadas estrellas Cefeidas (estrellas de luminosidad variable) se manifestaba en pulsos regulares asociados con su tamaño. Esto ayudó a establecer las distancias reales en el firmamento y demostró que nuestra propia galaxia tiene un diámetro de unos 100.000 años luz y que el Sol, que se creía situado en su centro, es en realidad excéntrico en unos 30.000 años luz [xx]. El segundo resultado importante de su investigación de las Cefeidas fue el descubrimiento de que las nebulosas espirales eran en realidad objetos extragalácticos, galaxias enteras muy lejanas (la más cercana, la Gran Nebulosa de Andrómeda, está a 2,5 millones de años luz). Gracias a esto se pudo por fin poner cifras a la distancia de los objetos más lejanos, a 500 millones de años luz de distancia, y estimar la edad del universo entre 10.000 y 20.000 millones de años [151].
Pero Eddington también era un viajero consumado y había visitado Brasil y Malta para estudiar eclipses. Así pues, sus trabajos y su posición académica lo convirtieron en la elección obvia cuando la Sociedad Física de Londres, en mitad de la guerra, quiso que alguien preparara un «Informe sobre la teoría relativista de la gravitación». Este informe, que se presentó en 1918, fue la primera explicación completa de la teoría de la relatividad general publicado en inglés. Eddington, como hemos visto, ya había recibido una copia del artículo de Einstein desde Holanda, así que estaba bien preparado, y su informe despertó mucho interés, tanto que sir Frank Dyson, el real astrónomo, ofreció una oportunidad inusual de contrastar la teoría de Einstein. El 29 de mayo de 1919 iba a producirse un eclipse total de Sol que daría la oportunidad de evaluar si, como Einstein había predicho, los rayos de luz se curvaban al pasar cerca de un cuerpo masivo. Algo dice de la influencia del real astrónomo que durante el último año completo de la primera guerra mundial, Dyson obtuviera del gobierno 1.000 libras para financiar no una, sino dos expediciones, una a Príncipe, en la costa del África occidental, y otra a Sobral, al otro lado del Atlántico, en Brasil [152].
A Eddington le tocó ir a Príncipe junto a E. T. Cottingham, un maestro relojero de Northamptonshire que se había convertido en un experto en la medición del tiempo astronómico. En el estudio del Real Astrónomo, la noche antes de partir, Eddington, Cottingham y Dyson se reunieron hasta tarde calculando cuánto tenía que desviarse la luz para confirmar la teoría de Einstein. En cierto momento, Cottingham preguntó retóricamente qué ocurriría si encontrasen un valor dos veces mayor que el esperado. Secamente, Dyson replicó: «¡Entonces Eddington enloquecerá y usted tendrá que regresar solo!».
El relato continúa en los propios cuadernos de notas de Eddington: «Zarpamos a principios de marzo hacia Lisboa. En Funchal vimos [a los otros dos astrónomos] de camino a Brasil el 16 de marzo, pero tuvimos que permanecer allí hasta el 9 de abril… y avistamos por fin Príncipe en la mañana del 23 de abril… alrededor del 16 de mayo no tuvimos dificultad en obtener las fotografías de prueba en tres noches distintas». Luego el tiempo cambió. En la mañana del 29 de mayo, el día del eclipse, los cielos se taparon, y Eddington empezó a temer que su arduo viaje se quedase en una pérdida de tiempo.
A la una y media de la tarde, sin embargo, cuando ya había comenzado la fase parcial del eclipse, las nubes comenzaron a disiparse. «No vi el eclipse —escribiría Eddington más tarde— por estar tan ocupado cambiando placas, salvo por un vistazo para asegurarme de que había comenzado y otro a mitad del eclipse para comprobar que no estuviera nublado. Tomamos dieciséis fotografías… las seis últimas muestran algunas imágenes que confío en que nos den lo que necesitamos… 3 de junio: Hemos revelado las fotografías, 2 cada noche durante las 6 noches que siguieron al eclipse y he pasado todo el día haciendo mediciones. Las nubes arruinaron mis planes… Pero una de las placas que medí dio resultados que concordaban con Einstein». Eddington se volvió hacia su compañero. «Cottingham», y le dijo, «no hará falta que regrese solo» [153].
La publicidad que recibió la confirmación de la relatividad por Eddington convirtió a Einstein en el científico más famoso del mundo. La teoría de la relatividad no había recibido aceptación universal cuando la había propuesto, y las observaciones de Eddington en Príncipe forzaron a muchos científicos a conceder que aquella insólita idea sobre el mundo físico era en realidad correcta.

El canto de sirena de la teoría unificada
Dado que Einstein creó esta fenomenal síntesis de algunos de nuestros conceptos más básicos, y en apariencia tan dispares, merece la pena añadir un epílogo: fracasó, el resto de su vida y pese a todos sus intentos, en su esfuerzo por descubrir lo que une la electricidad, el magnetismo, la gravedad y la mecánica cuántica (de la que enseguida nos ocuparemos). Esperó fervientemente poder ampliar las ecuaciones del campo gravitatorio de su teoría de la relatividad general para que pudieran describir también el campo electromagnético. Tal como él mismo lo expresó en su discurso de aceptación del premio Nobel en 1921: «A la mente que se esfuerza por la unificación no puede satisfacerle que existan dos campos que, por su naturaleza, sean independientes. Buscamos una teoría de campos matemáticamente unificada en la que el campo gravitacional y el campo electromagnético se interpreten solamente como componentes o manifestaciones distintas del mismo campo uniforme». Confiaba en que esa teoría unificada consiguiera que la mecánica cuántica fuese compatible con la relatividad.
Hasta el momento, el genio de Einstein se había manifestado en el descubrimiento de vínculos entre teorías dispares, pero, como dice Walter Isaacson: «El canto de sirena de la teoría unificada había venido a hipnotizar… Sobre ella planea la sonrisa de mármol de la naturaleza», como el propio Einstein admite en cierto momento. Durante las dos décadas siguientes, nada de lo que se le ocurrió a Einstein llegó a producir una teoría unificada de campos. De hecho, en cierto modo, con el descubrimiento de más y más partículas, por el momento la física se estaba tornando menos unificada [154].
Incluso en su lecho de muerte, en abril de 1955, Einstein todavía trabajaba en unas ecuaciones que pudieran crear una teoría unificada de campos, y en ese empeño no estaba del todo solo. En un libro reciente, Paul Halpern nos ha mostrado como tanto Einstein como Erwin Schrödinger (a quien pronto conoceremos) dedicaron mucho más tiempo a la convergencia (la búsqueda de una unificación de la física cuántica y la relatividad) que a los descubrimientos por los que son conocidos [155]. El hecho de que el universo sea comprensible es lo que más maravillaba a Einstein, lo que le parecía más merecedor de veneración. Para un científico, por consiguiente, venerar es en realidad el acto de buscar el orden último que lo explica todo. Einstein probablemente se haya acercado más que nadie a conseguirlo.

* * * *

Desde la década de 1850 se puso de manifiesto un mayor orden, como Einstein tenía razones para saber más que nadie. Pero su destino durante sus últimos años, como también el de Schrödinger, nos enseñan que el orden es un poco como la felicidad. Cuanto más se esfuerza uno por buscarlo, más difícil es aprehenderlo. Que precisamente, Einstein, quedase hipnotizado de este modo es una cruel ironía. O, tal vez, una advertencia.

Capítulo 5
El «matrimonio consumado» entre la física y la química

Justo al mismo tiempo que Eddington preparaba su viaje a Príncipe, en abril de aquel mismo año, Ernest Rutherford envió a publicar un artículo que, si nunca hubiera hecho nada más, le habría bastado para granjearse un lugar en la historia. Desde entonces hasta 1932, cuando su estudiante James Chadwick descubrió el neutrón, se produjo una segunda década dorada de la física, durante la cual no pasaba un año sin un importante avance teórico o experimental. Todo el trabajo pionero de esta década dorada se llevó a cabo en tres lugares de Europa: el Laboratorio Cavendish de Cambridge, en Inglaterra; el Instituto de Física Teórica de Niels Bohr en Copenhague, en Dinamarca, y en la vieja ciudad universitaria de Gotinga, casi en el centro mismo de Alemania.
Mark Oliphant, uno de los protegidos de Rutherford en la década de 1920, nos cuenta que la sala principal del Cavendish, donde se encontraba el despacho del director, tenía «suelos de madera sin enmoquetar, unas desastradas puertas de pino barnizado y paredes enyesadas y manchadas, y estaba mal iluminada por un tragaluz con el cristal sucio». Para C. P. Snow, que también se formó allí y describió el laboratorio en su primera novela, The Search [La búsqueda], la pintura, el barniz y el cristal sucio no merecieron ningún comentario. «No olvidaré fácilmente aquellas reuniones del miércoles en el Cavendish. Para mí, eran la esencia de toda la emoción personal en la ciencia; semana tras semana salía de ellas por la noche, con el viento del este rugiendo desde las ciénagas por aquellas viejas calles, extático por haber visto y oído y haber estado junto a los líderes del movimiento más importante del mundo». Rutherford, que sustituyó a J. J. como director del Cavendish en 1919, obviamente pensaba igual. En el congreso de la Asociación Británica de 1923 sorprendió a sus colegas gritando de repente: «¡Vivimos en una época trascendental para la física!» [156].
En cierto modo, el propio Rutherford, que para entonces era un hombre rubicundo, con mostacho y una pipa siempre a punto de apagarse, personificaba aquella época trascendental. Durante la primera guerra mundial, la física de partículas había estado más o menos en suspenso. Oficialmente, Rutherford trabajaba para el almirantazgo sobre la detección de submarinos, pero cuando sus obligaciones se lo permitían seguía desarrollando sus propias investigaciones, que lo llevaron a producir su artículo pionero, aunque con un título más bien insípido: «Un efecto anómalo en el nitrógeno». Como era habitual en los experimentos de Rutherford, el aparato era simple hasta el punto de ser tosco: un pequeño tubo de cristal en el interior de una caja de latón hermética dotada en un extremo de una pantalla de centelleo de sulfuro de zinc. La caja de latón estaba llena de nitrógeno y por el tubo se hacía pasar una fuente de partículas alfa (núcleos de helio) emitidas por gas radón, un elemento radiactivo producido por la desintegración del radio [157].
Lo interesante se produjo cuando Rutherford miró la actividad en la pantalla de sulfuro de zinc. Los centelleos eran indistinguibles de los obtenidos a partir del hidrógeno. ¿Cómo era posible, si no había hidrógeno en el sistema? Aquello fue lo que suscitó la frase, famosa por su circunspección, de la cuarta parte del artículo de Rutherford: «A partir de los resultados obtenidos hasta el momento, es difícil evitar la conclusión de que los átomos de largo alcance que surgen de la colisión de partículas [alfa] con nitrógeno no son átomos de nitrógeno sino probablemente átomos de hidrógeno… De ser así, debemos concluir que se desintegra el átomo de nitrógeno». Los periódicos no fueron tan cautos, y clamaron que sir Ernest Rutherford, que ya ostentaba el título, había «partido el átomo». Él mismo comprendió la importancia de su trabajo. Sus experimentos lo habían alejado, temporalmente, de sus investigaciones sobre submarinos, pero se defendió así ante los miembros del comité de control: «Si, como tengo razones para pensar, he desintegrado el núcleo del átomo, esto tiene una significación mayor que la guerra» [158].
En cierto sentido, Rutherford había conseguido por fin lo que habían pretendido los antiguos alquimistas, transmutar un elemento en otro, nitrógeno en hidrógeno y oxígeno. El mecanismo por el que se producía esta transmutación artificial (la primera de la historia) estaba claro. Una partícula alfa (un núcleo de helio) tiene un peso atómico de 4. Cuando con ella se bombardeaba un átomo de nitrógeno, con un peso atómico de 14, desplazaba un núcleo de hidrógeno (al que Rutherford pronto le dio el nombre de protón). Por lo tanto, la aritmética se convirtió en: 4 + 14 - 1 = 17, el isótopo de oxígeno, 17O.
La significación del descubrimiento, aparte de la filosófica de la transmutabilidad de la naturaleza, radicaba en que ofrecía una nueva manera de estudiar el núcleo. Rutherford y Chadwick se dedicaron de inmediato a sondear otros átomos ligeros para ver si se comportaban del mismo modo. Así fue: boro, flúor, sodio, aluminio, fósforo, cada uno de estos elementos químicos tenía un núcleo que se podía sondear. No era simplemente materia sólida, sino que tenían una estructura.
Todas estas investigaciones sobre elementos ligeros les llevaron cinco años, pero entonces se encontraron con un problema. Los elementos más pesados se caracterizaban, por definición, por capas externas con muchos electrones que alzaban una barrera eléctrica mucho más fuerte y requerían una fuente de partículas alfa más potente para poder penetrarla. Para James Chadwick y sus jóvenes colegas del Cavendish, el camino a seguir estaba claro: necesitaban explorar la manera de acelerar las partículas para alcanzar mayores velocidades. Rutherford no estaba convencido, prefería herramientas experimentales más simples. Pero en otros lugares, y en particular en Norteamérica, los físicos se dieron cuenta de que una de las maneras de avanzar era construyendo aceleradores de partículas [159].

La música de las esferas
Entre 1924 y 1932, cuando Chadwick finalmente aisló el neutrón, no se produjeron grandes descubrimientos en la física nuclear, pero sí en la física cuántica. El Instituto de Física Teórica de Niels Bohr abrió sus puertas en Copenhague el 18 de enero de 1921. El gran edificio, de cuatro plantas y con forma de «L», contenía una sala de conferencias, una biblioteca y laboratorios, además de una sala con tenis de mesa, algo en lo que Bohr también sobresalía.
Bohr se convirtió en un héroe danés doce meses más tarde, cuando fue galardonado con el premio Nobel, pero en realidad el año había estado dominado por algo aún más notable: había oficiado el matrimonio consumado entre la química y la física. En 1922, Bohr demostró que la estructura atómica estaba vinculada con la tabla periódica de los elementos elaborada por Mendeléyev. En su primer gran avance, que se había producido justo antes de la primera guerra mundial, el danés había explicado de qué modo los electrones se situaban en órbita alrededor del núcleo solamente en ciertas formaciones, y de qué modo aquello ayudaba a explicar los espectros de luz característicos emitidos por cristales de diferentes sustancias (prefacio y capítulo 3). Esta idea de órbitas naturales también enlazaba la estructura atómica con la idea de Planck de los cuantos. Ahora Bohr argumentaba que las sucesivas capas orbitales de electrones solo podían contener un número preciso de electrones. También presentó la idea de que los elementos que químicamente se comportan de forma parecida lo hacen porque tienen una disposición parecida de los electrones de la capa más exterior, que son los que más intervienen en las reacciones químicas. Por ejemplo, comparó el bario y el radio, ambos del grupo de las tierras alcalinas pero con pesos atómicos muy distintos y que ocupan, respectivamente, las posiciones cincuenta y seis y ochenta y ocho de la tabla periódica. Para explicarlo, Bohr determinó que el bario tiene capas de electrones sucesivas con 2, 8, 18, 18, 8 y 2 electrones (56 en total). Del mismo modo, el radio tiene las capas de electrones rellenadas sucesivamente por 2, 8, 18, 32, 18, 8 y 2 electrones (88 en total).
Además de explicar su posición en la tabla periódica, el hecho de que la capa más externa de cada elemento tenga dos electrones significa que el bario y el radio son químicamente similares a pesar de presentar otras diferencias considerables. Como dijo Einstein: «Esta es la forma más alta de musicalidad en la esfera del pensamiento» [160].

El vínculo entre la matemática y la estructura atómica
Durante la década de 1920 el centro de gravedad de la física (y, ciertamente, de la física cuántica) se desplazó a Copenhague, en muy buena medida gracias a Bohr. Un gran hombre en todos los sentidos, era amable y generoso y completamente desprovisto de los instintos de rivalidad que tan fácilmente pueden agriar las relaciones. Pero el éxito de Copenhague también tenía que ver con el hecho de que Dinamarca era un país pequeño y neutral donde se podían echar a un lado las rivalidades nacionales. Entre los sesenta y tres físicos de renombre que estudiaron en Copenhague en la década de 1920 se cuentan Paul Dirac (británico), Wolfgang Pauli y Werner Heisenberg (alemanes) y Lev Landau (ruso).
Esta mezcla internacional era inaudita, única, porque en muchas áreas de la ciencia las consecuencias de la primera guerra mundial se prolongaron durante años. En 1919, los aliados establecieron un Consejo Internacional de Investigación, pero excluyeron a Alemania y a Austria. De los 275 congresos científicos internacionales celebrados entre 1919 y 1925, 165 no tuvieron participación de Alemania [161]. No fue hasta 1925, con el Pacto de Locarno, cuando se relajaron estas restricciones, pero incluso entonces los científicos alemanes y austriacos desdeñaron el ofrecimiento de paz.
De algún modo, sin embargo, Bohr consiguió que su instituto siguiera siendo un centro internacional. El suizo-austriaco Wolfgang Pauli fue uno de los que aprovecharon su visita a Copenhague. En 1924, Pauli era un joven de 23 años pequeño, taciturno y rollizo, con los ojos caídos, amigo de gastar bromas pero propenso a la depresión cuando los problemas científicos lo superaban.
Provenía de una familia vienesa con buenas conexiones académicas (su padrino era Ernst Mach) y llegó a conocer a algunos de los miembros del Círculo de Viena (capítulo 7). Por la noche, sin embargo, rondaba los bajos fondos y frecuentaba cabarets picantes que atendían a una clientela más propia de aquellos barrios. Confesó en una carta a un amigo que disfrutaba con «la noche, la excitación sexual del bajo mundo, sin sentimientos, sin amor, sin humanidad siquiera» [162].
Su ambición y sus habilidades en física y matemáticas eran tales, sin embargo, que Bohr lo invitó a Copenhague. Un problema en particular lo había llevado a rondar las calles de la capital danesa. Se trataba de algo que también traía de cabeza a Bohr y se derivaba del hecho de que nadie entendía por qué todos los electrones en órbita alrededor del núcleo no se apelotonaban en la primera capa. Esto, como hemos visto, es lo que aparentemente debería ocurrir, y de tal modo que los electrones emitiesen energía en forma de luz. Lo que sí se sabía, sin embargo, era que cada capa de electrones estaba dispuesta de manera que la capa interior contuviera únicamente una órbita, mientras que la siguiente capa podía contener cuatro. La contribución de Pauli fue demostrar que ninguna órbita podía contener más de dos electrones. En cuanto tenía dos, la órbita quedaba «completa», y otros electrones quedaban entonces excluidos y forzados a ocupar la siguiente órbita más exterior. Esto significaba que la capa más interior (una órbita) no podía contener más de dos electrones, y que la siguiente capa (cuatro órbitas) no podía contener más de ocho. Esta regla llegaría conocerse como «principio de exclusión» de Pauli, una expresión acuñada por Dirac [163].
Parte de su belleza radicaba en que ampliaba la explicación de Bohr del comportamiento químico. El hidrógeno, por ejemplo, con un electrón en la primera órbita, es químicamente activo. El helio, en cambio, con dos electrones en la primera órbita (es decir, una órbita «llena» o «completa»), es prácticamente inerte. El litio, el tercer elemento, tiene dos electrones en la capa más interior y uno en la siguiente, y es químicamente muy activo. El neón, en cambio, que tiene diez electrones, dos en la capa interna (llenándola) y ocho en las cuatro órbitas más externas de la segunda capa (llenando esas órbitas), también es inerte. Así pues, juntos, Bohr y Pauli habían demostrado de qué modo las propiedades químicas de los elementos vienen determinadas no solo por el número de electrones que posee el átomo, sino también por la colocación de esos electrones en las capas orbitales [164].
El año siguiente, 1925, fue el punto álgido de esta segunda edad dorada, pero el centro de actividad se desplazó a Gotinga. Antes de la primera guerra mundial, era habitual que estudiantes británicos y americanos fuesen a Alemania a completar sus estudios, y Gotinga era un destino frecuente. Bohr pronunció allí una conferencia en 1922 y fue reprendido por un joven estudiante que corrigió un extremo de su argumentación. Bohr, siendo quien era, no se sintió ofendido. Al contrario, Werner Heisenberg escribiría más tarde que «al final del debate se me acercó y me pidió que lo acompañase por la tarde a un paseo por la montaña Hain… Mi auténtica carrera científica comenzó aquella tarde» [165].
Nacido en Wurzburgo en 1901, hijo de un profesor de historia bizantina, Werner Heisenberg fue mejor músico incluso que Einstein, y tan consumado pianista como Planck, capaz de interpretar a los clásicos a los trece años. Las matemáticas fueron su fuerte de joven (aprendió cálculo por su cuenta) pero no su único interés. Fue un fervoroso nacionalista y en los turbulentos años que siguieron a la guerra intervino en más de una trifulca callejera contra los comunistas (lo que tendría importancia más tarde). En su escuela de Múnich se fundó una organización llamada Heisenberggruppe en la que, como el nombre indica, Werner era el líder y se reunían en su propia casa. Heisenberg también fue un legendario jugador de ajedrez que a veces jugaba contra sus oponentes sin la reina «para darles alguna oportunidad».
En la Universidad de Múnich siguió brillando y sorprendiendo. Arnold Sommerfeld, uno de los profesores de aquella institución que apreció su brillantez, le pidió sin embargo que abandonase el ajedrez porque le ocupaba demasiado tiempo [166]. Fue Sommerfeld el responsable de que Heisenberg fuese a Gotinga para asistir a la conferencia de Bohr en la que hizo su crucial intervención y fue invitado después a un paseo.
Algo más que un paseo, en realidad, puesto que Bohr invitó al joven bávaro a Copenhague, donde de inmediato se pusieron a atacar otro problema de la teoría cuántica, que Bohr llamaba «correspondencia», suscitado por la observación de que, a bajas frecuencias, la física cuántica y la física clásica coincidían. ¿Cómo podía ser? Según la teoría cuántica, la energía (incluida la luz) se emitía en paquetes diminutos, pero según la teoría clásica, la emisión era continua. Heisenberg regresó a Gotinga entusiasmado pero confuso, y cuando, hacia finales de mayo de 1925, tuvo uno de sus muchos ataques de fiebre del heno, se tomó dos semanas de vacaciones en Heligoland, una alargada isla de la costa alemana en el mar del Norte, donde prácticamente no había polen. Allí aclaró su mente con largos paseos y tonificantes chapuzones en el mar [167].
La idea que se le ocurrió a Heisenberg en aquel entorno frío y despejado es uno de los mejores ejemplos de lo que ha dado en llamarse extrañeza cuántica. Heisenberg adoptó la posición de que debemos dejar de intentar visualizar lo que ocurre en el interior de un átomo, dado que es imposible observar directamente algo tan pequeño. Todo lo que podemos hacer es medir sus propiedades. Si algo se mide como continuo en un momento y como discreto en otro, es que así es la realidad. Si existen las dos mediciones, no tiene sentido decir que no concuerdan: son simplemente dos mediciones [168].
Esta fue la idea crucial de Heisenberg, pero en tres frenéticas semanas fue mucho más lejos, desarrollando un método matemático conocido como matemática matricial. Su origen está en una idea del matemático alemán David Hilbert, que agrupaba las mediciones obtenidas en una tabla bidimensional de números de tal manera que era posible multiplicar dos matrices para obtener una tercera. En la aplicación de Heisenberg, cada átomo vendría representado por una matriz, y cada «regla» por otra matriz. Si se multiplicaba la matriz «sodio» por la matriz «línea espectral», el resultado debía ser la matriz de longitudes de onda de las líneas espectrales del sodio. Para satisfacción de Heisenberg y Bohr, así ocurría. «Por primera vez la estructura atómica tenía una base matemática genuina, aunque muy sorprendente». Heisenberg bautizó su creación/descubrimiento con el nombre de mecánica cuántica [169].
Las ideas de Heisenberg fueron aceptadas más fácilmente gracias a la nueva teoría desarrollada por Louis de Broglie en París, también publicada en 1925. De Broglie era, en términos prerrevolucionarios, un príncipe francés (su tatarabuelo había sido guillotinado durante el reinado del terror). Pero a él le interesaba más la luz. Tanto Planck como Einstein habían argumentado que la luz, hasta entonces concebida como una onda, a veces podía comportarse como una partícula. De Broglie le dio la vuelta a esa idea, argumentando que las partículas a veces podían comportarse como ondas. Había presentado la idea en su tesis doctoral y el tribunal que la examinó en París al principio no supo qué pensar de ella. De hecho, estaban a punto de rechazarla cuando recibieron una comunicación de Einstein, a quien uno de los miembros del tribunal había enviado el artículo, pidiéndole su opinión. La respuesta de Einstein fue enfática: la idea era brillante. De Broglie obtuvo su título de doctor [170]. Y tan pronto como de Broglie desarrolló su teoría, la experimentación le dio la razón. La dualidad onda-partícula de la materia fue la segunda idea extraña de la física, pero fue aceptada muy rápidamente.
Una de las razones de que así fuera fue la investigación de otro genio, el austriaco Erwin Schrödinger, a quien perturbaba la idea de Heisenberg y fascinaba la de Broglie. Schrödinger era un vienés adinerado venido a menos a causa de la notoria inflación desbocada de los años de la República de Weimar, que llevó a su familia a la ruina; desde entonces, siempre tuvo problemas de dinero. Eso no le impidió, desde luego, ser un mujeriego empedernido que mantenía un diario, en código, de sus conquistas sexuales.
En 1926, cuando contaba treinta y nueve años, bastante «viejo» para un físico, se le ocurrió una ecuación que explicaba cómo cambian las ondas con el tiempo y que incorporaba la idea de que el electrón, en su órbita alrededor del núcleo, no es como un planeta sino que se mueve como una onda. Además, el patrón de esta onda determina el tamaño de la órbita, pues para formar un circuito completo la onda debe ajustarse a un número entero, no a una fracción (en cuyo caso la onda degeneraría hacia el caos). Esto, a su vez, determinaba la distancia de la órbita desde el núcleo y modulaba la acción química.

Contra la generalización
La última capa de extrañeza se añadió en 1927, una vez más de la mano de Heisenberg. Fue a mediados de febrero, cuando Bohr se había ido a Noruega a esquiar y Heisenberg callejeaba por Copenhague a su aire. Una noche, en su habitación en lo alto del instituto de Bohr, una observación de Einstein sacudió algo muy profundo en el cerebro de Heisenberg: «Es la teoría lo que decide lo que podemos observar». Ya había pasado la medianoche, pero Heisenberg decidió que necesitaba un poco de aire, así que salió a caminar por unos embarrados campos de fútbol cercanos. ¿No sería posible, se preguntaba mientras paseaba, que al nivel del átomo exista un límite a lo que se puede conocer? Para identificar la posición de una partícula, tiene que impactar en una pantalla de sulfuro de zinc. Pero eso altera su velocidad, lo que significa que esta no puede medirse en el momento crucial. Al contrario, cuando se mide la velocidad de una partícula (por ejemplo, a partir de la dispersión de rayos gamma), su trayectoria se desvía y cambia su posición exacta en el momento de la medición. Enunciado en un documento de veintisiete páginas, el llamado «principio de indeterminación» de Heisenberg postulaba que no se puede determinar al mismo tiempo la posición exacta y la velocidad precisa de un electrón.
Este resultado era perturbador tanto desde un punto de vista práctico como filosófico, pues implicaba que, en el mundo subatómico no se podían medir nunca causa y efecto. La única manera de entender el comportamiento del electrón era estadística, usando las reglas de la probabilidad. «Incluso en principio —decía Heisenberg— no podemos conocer el presente con todo detalle. Por esa razón, todo lo observado es una selección de una plenitud de posibilidades y una limitación de lo que es posible en el futuro… La indeterminación está imbuida en la naturaleza… siempre está ahí, es inevitable [171] ».
Por inquietante que resulte, a la escala macroscópica en la que vivimos no supone ninguna diferencia. Todavía podemos volar por el mundo con la confianza de que llegaremos adonde teníamos pensado. Habrá pequeñas discrepancias, pero no suficientes para suponer una diferencia en la práctica. El problema es que, por debajo de todo ello, se genera una incomodidad filosófica en torno a la idea de la «imprecisión inherente» a todo lo que hacemos. Eso no nos impide seguir haciendo experimentos, pero nos advierte de que nuestro conocimiento tiene límites.
No obstante, como el propio Heisenberg dejaba claro, era necesario rechazar el concepto clásico de causalidad, lo que llevó a la idea de Bohr de la complementariedad, una de las nociones más debatidas, vagas y ambiguas de la física. Lo que Bohr quería decir con ella es que hay puntos de vista excluyentes sobre la naturaleza, como la onda y la partícula, y, al parecer, corresponde al físico medir fenómenos y hacer predicciones a partir de esas observaciones sin generalizar sobre la «realidad» de la naturaleza que existe tras esas mediciones. El hecho de que esas ideas no puedan visualizarse o aprehenderse con el sentido común no importa en absoluto. Como la relatividad, las partículas/ondas son difíciles de visualizar y su comportamiento trasciende el sentido común. A decir de Heisenberg y Bohr, esa era la dirección que tomaba la física y había que aceptarla. Pero el nuevo conocimiento (de la forma en que se disponen y organizan minúsculas cantidades de energía) acabaría teniendo efectos secundarios sobre la química, la astronomía y otras ciencias [172].
Para muchos físicos, la dualidad onda-partícula no fue fácil de digerir, y Einstein, en particular, nunca estuvo muy cómodo con la idea básica de la mecánica cuántica, que el mundo subatómico solo podía entenderse estadísticamente (la idea estadística de la radiactividad representó un problema para muchos físicos durante años). Fue motivo de disputa entre él y Bohr hasta el final de sus días. En 1926 escribió una famosa carta al físico Max Born, de Gotinga. «La mecánica cuántica merece una seria atención», decía en ella. «Pero un voz interior me dice que este no es el verdadero Jacob. Es mucho lo que logra la teoría, pero no nos acerca a los secretos del viejo. En cualquier caso, estoy convencido de que él no juega a los dados [173] ».
Otros se mostraron de acuerdo, y el famoso experimento del gato de Schrödinger es un ejemplo pertinente. Schrödinger propuso un experimento mental en el que se encierra un gato, junto a una débil fuente de radiactividad y un detector de partículas radiactivas, en una caja de acero. En la caja hay también un pequeño tubo de gas venenoso y un martillo conectado a un disparador. Si se suelta el martillo, se romperá el tubo de cristal, liberando el veneno. El detector solo puede encenderse una vez y solo durante un minuto. Durante ese minuto, la fuente radiactiva que hay dentro de la caja tiene una probabilidad del 50 % de emitir una partícula y, por consiguiente, una probabilidad del 50 % de no emitirla. Nadie puede ver lo que pasa dentro de la caja.
De acuerdo con la física cuántica estricta, mientras no se abra la caja, al cabo de un minuto, el gato no estará ni vivo ni muerto, sino en un estado indeterminado. Muchos creen que Schrödinger ideó este experimento mental para ilustrar que la física cuántica no se aplica al macromundo, o que las inexactitudes que introduce son tan pequeñas que realmente no importan.
En cualquier caso, en 1933 Heisenberg recibió el premio Nobel de Física. Cuando él y su madre llegaron a la estación de ferrocarril de Estocolmo, fueron recibidos por Paul Dirac y Erwin Schrödinger, que se encontraban allí para compartir el premio. Era la primera vez que se elegía a tres físicos por sus contribuciones a la física teórica [174].

La simetría y el neutrón
A lo largo de casi una década, la mecánica cuántica no dejó de ser noticia. Durante ese tiempo, la física de partículas experimental había estado estancada, algo que, visto con perspectiva, es difícil de explicar, pues en 1920 Ernest Rutherford había hecho una extraordinaria predicción. En la Conferencia Bakeriana que pronunció ante la Real Sociedad de Londres, Rutherford ofreció una explicación personal de su experimento del nitrógeno del año anterior, pero también propuso la posibilidad de que, además de los electrones y los protones, hubiese un tercer constituyente principal de los átomos. «Esa partícula —argumentaba— tendría propiedades muy novedosas. Su campo [eléctrico] externo sería prácticamente cero, salvo muy cerca del núcleo, y en consecuencia podría moverse libremente por la materia». Aunque difícil de descubrir, creía que merecía la pena encontrarlo. «Debería poder entrar fácilmente en la estructura de los átomos, donde podría unirse con el núcleo o desintegrarse a causa de su intenso campo». Si este constituyente realmente existiera, proponía bautizarlo con el nombre de neutrón [175].
Del mismo modo que James Chadwick había estado presente en 1911 en la «Lit. and Phil.» (la Sociedad Literaria y Filosófica) de Manchester cuando Rutherford reveló la estructura del átomo, también se encontraba entre la audiencia de la Conferencia Bakeriana. Para entonces, era la mano derecha de Rutherford, pero en el momento de la conferencia no compartía el entusiasmo de su jefe por el neutrón. La simetría del electrón y el protón (negativo y positivo) le parecía perfecta y, además, completa. Sin embargo, a finales de la década de 1920 comenzaron a acumularse las anomalías. Una de las más interesantes y enigmáticas era la relación entre el peso atómico y el número atómico. El número atómico de un elemento químico se obtenía a partir de la carga eléctrica del núcleo y el recuento de protones. Así, el número atómico del helio era 2, pero su peso atómico era 4. Para la plata, los números equivalentes eran 47 y 107, y para el uranio, 92 y 235 o 238. Una teoría popular proponía que en el núcleo había protones adicionales, pero enlazados de algún modo con electrones, que compensaban su carga. Pero esto solo creaba otra anomalía teórica: para mantener unas partículas tan pequeñas y ligeras como los electrones en el interior del núcleo hacían falta enormes cantidades de energía. Esa energía debería ponerse de manifiesto cuando se bombardeaba el núcleo, modificando su estructura, y eso nunca pasaba. Cuando parecía que estas anomalías no podrían resolverse a satisfacción, Chadwick comenzó a acercarse a la posición de Rutherford. Tenía que existir algo parecido al neutrón [176].
Chadwick se dedicaba a la física por error. Habría querido ser matemático, pero acabó estudiando física tras equivocarse de cola en la Universidad de Manchester y quedar impresionado por el físico que lo entrevistó. Había estudiado en Berlín con Hans Geiger pero no logró escapar a tiempo cuando la primera guerra mundial era inminente y quedó retenido allí durante el conflicto. Hacia la década de 1920 estaba ansioso porque su carrera despegase.
Para empezar, la búsqueda experimental del neutrón no estaba llegando a ningún puerto. En la creencia de que era una unión íntima de protón y electrón, Rutherford y Chadwick ingeniaron varias maneras de, en palabras de Richard Rhodes, «torturar» al hidrógeno. El siguiente paso fue complicado. Primero, entre 1928 y 1930, un físico alemán, Walther Bothe, estudió la radiación gamma (una forma intensa de luz), que se emitía cuando se bombardeaba con partículas alfa elementos ligeros como el litio o el oxígeno. Curiosamente, encontró que emitían una radiación intensa no solo el boro, el magnesio y el aluminio (como esperaba, ya que las partículas alfa los desintegraban, como habían demostrado Rutherford y Chadwick), sino también el berilio, que las partículas alfa no desintegraban. Las observaciones de Bothe eran lo bastante sorprendentes como para que Chadwick en Cambridge e Irène Joliot-Curie y su marido, Frédéric Joliot, en París siguiesen los pasos del alemán.
Los dos laboratorios no tardaron en encontrar nuevas anomalías. Hugh Webster, un estudiante de Chadwick, descubrió en la primavera de 1931 que «la radiación emitida [por berilio] en la misma dirección que… las partículas alfa era más dura [más penetrante] que la radiación emitida en la dirección opuesta». Esto era importante, porque si la radiación estaba constituida por rayos gamma (luz), debería dispersarse igual en todas las direcciones, como la luz que sale de una bombilla. Una partícula, en cambio, se comportaría de otro modo: podría ser empujada hacia delante en la misma dirección que las partículas alfa. Chadwick pensó: «Ahí está el neutrón» [177].
Más tarde, en diciembre del mismo año, Irène Joliot-Curie anunció a la Academia Francesa de las Ciencias que había repetido los experimentos de Bothe con radiación de berilio pero había estandarizado las mediciones. Irène Joliot-Curie era hija de Marie Curie y había nacido en 1897. Desde pequeña había mostrado aptitud para las matemáticas y parte de su formación había sido como ayudante de su madre, quien, desde la primavera de 1919, recibía un pago de 75 dólares a la semana para enseñar a los oficiales del ejército de Estados Unidos, a la espera de regresar a su país, a usar los equipos de rayos X. Irène se casó en octubre de 1926 con Frédéric Joliot, «el más brillante y animoso de los trabajadores del Instituto del Radio», al que un colega describió también como «un guapo donjuán» [178]. Formaban una atractiva y formidable pareja científica.
El experimento de estandarización realizado por los Joliot-Curie les permitió calcular que la energía de la radiación emitida era tres veces superior a la energía de las partículas alfa con las que bombardeaban. Este orden de magnitud indicaba claramente que la radiación no era gamma, que debía de haber otros constituyentes implicados. Por desgracia, Irène Joliot-Curie no había leído la Conferencia Bakeriana de Rutherford, y dio por hecho que la radiación de berilio estaba causada por protones. Apenas dos semanas más tarde, a mediados de enero de 1932, los Joliot-Curie publicaron otro artículo. Este vez anunciaron que la cera de parafina bombardeada con radiación de berilio emitía protones de alta velocidad.
Cuando Chadwick leyó estos resultados en Comptes Rendus, la revista de física francesa, en su correo de la mañana un día de primeros de febrero, comprendió que algo no estaba bien en aquella descripción e interpretación. Cualquier físico que se preciara sabía que un protón era 1.836 veces más pesado que un electrón, y que por tanto era imposible que el primero fuera desplazado de su lugar por el segundo. Aquella misma mañana, durante su reunión diaria de evaluación de progresos, Chadwick debatió el artículo con Rutherford. «Mientras le explicaba la observación de Joliot-Curie, vi cómo su sorpresa iba en aumento hasta estallar con un “¡No me lo creo!”. Aquel comentario impaciente no era propio de su carácter, y a lo largo de mi asociación con él no recuerdo otra ocasión parecida… Naturalmente, Rutherford estaba de acuerdo en que hay que creer a las observaciones; la explicación ya era otra cosa» [179].
Chadwick no tardó nada en repetir el experimento. Lo primero que le llamó la atención fue que la radiación de berilio atravesara sin impedimentos un bloque de plomo de casi dos centímetros de grosor. A continuación, descubrió que el bombardeo con la radiación de berilio desplazaba los protones de algunos elementos en hasta 40 centímetros. Fuese lo que fuese aquella radiación, era enorme, y en cuanto a su carga eléctrica, era neutra. Por último, Chadwick eliminó la lámina de parafina que los Joliot-Curie habían utilizado para ver qué pasaba cuando se bombardeaban los elementos directamente con la radiación de berilio. Con la ayuda de un osciloscopio para medir la radiación, halló primero que la radiación de berilio desplazaba protones fuese cual fuese el elemento y, lo que resultaba crucial, que las energías de los protones desplazados eran demasiado altas como para haber sido producidas por rayos gamma. A estas alturas, Chadwick ya había aprendido algunas cosas de Rutherford, entre ellas la propensión a las afirmaciones cautelosas. En un artículo titulado «Posible existencia de un neutrón», que se apresuró a enviar a Nature, escribió: «Es evidente que o bien renunciamos a la aplicación de la conservación de la energía y el momento [la cantidad de movimiento] en estas colisiones o bien adoptamos otra hipótesis sobre la naturaleza de la radiación». Tras añadir que su experimento constituía, a todas luces, la primera prueba de la existencia de una partícula «sin carga neta», concluyó: «Podemos suponer que se trata del “neutrón” propuesto por Rutherford en su Conferencia Bakeriana» [180].
Chadwick, que había trabajado día y noche durante diez días para asegurarse de ser el primero, fue galardonado con el premio Nobel por su descubrimiento. La carga eléctrica neutra de la nueva partícula permitiría examinar el interior del núcleo con mucho más detalle. De hecho, algunos físicos ya estaban intentando ir más allá de su descubrimiento, y en algunos casos no les gustó lo que encontraron.

Los «dolores de parto» de los elementos
Más o menos por aquella época, algunas observaciones del espacio exterior atrajeron la atención hacia otros aspectos de la física nuclear. Se examinaron los rayos cósmicos («el laboratorio del pobre») y se descubrió que contenían partículas, y comenzó a tomar forma la idea de que aquellos rayos eran los «dolores de parto» de los elementos y mostraban de qué modo, en el universo primigenio, los elementos más pesados se habían formado a partir de los más ligeros [181]. Esto habría de convertirse, décadas más tarde, en un factor principal en la evolución del pensamiento cosmológico y en otra dimensión importante del orden convergente.
Al mismo tiempo, comenzó a entenderse, sobre todo en América, que una manera de avanzar era desarrollando «aceleradores de partículas». Primero se usaron aceleradores lineales, en el grupo de Ernest Lawrence en Berkeley, en California, y luego se desarrolló el «ciclotrón», una palabra que en un principio se usó como «una especie de jerga de laboratorio», aunque había sido concebido, al menos en términos teóricos, por Leo Szilard, el físico húngaro-americano que también había concebido la idea de la reacción nuclear en cadena. Sea como fuere, se trataba de una idea muy americana que, junto al trabajo de Linus Pauling (a quien conoceremos enseguida), marca la entrada de la física estadounidense en la escena mundial, así como la aparición de la «gran ciencia». El ciclotrón, según dice Helge Kragh, resultó ser extremadamente útil en un amplio abanico de disciplinas, desde la investigación pura sobre reacciones nucleares hasta aplicaciones médicas e industriales [182]. [183]
En un congreso de la BAAS en Bristol, en septiembre de 1930, Paul Dirac pronunció una conferencia en la que dijo que los filósofos siempre habían aspirado a que la materia estuviera construida a partir de un tipo fundamental de partícula, y que no era «enteramente satisfactorio» tener dos en la teoría del momento (el electrón y el protón). Es, pues, irónico que, no mucho después de su discurso de Bristol, Dirac y sus colegas físicos hablasen ya de cuatro partículas. Chadwick había identificado el neutrón, Pauli había postulado el neutrino y el propio Dirac le había dado un buen empujón a la física de partículas con su idea de las antipartículas (un electrón de carga positiva, llamado primero negatrón, luego identificado en los rayos cósmicos en una partícula de alta penetración, el positrón, con una masa intermedia entre el protón y el electrón). Por último, (es decir, por último antes de la segunda guerra mundial) se descubrió en 1937 el mesón (también conocido como mesotrón, baritrón, yukón o electrón pesado, m-mesón y, en la actualidad, como muon), y el sueño de Dirac de un universo con una sola partícula (o siquiera dos) se había desvanecido para siempre.

La zona entre la física y la química
Tras los avances teóricos de Bohr, Rutherford y otros físicos de la revolución cuántica, la idea más novedosa y rompedora de la química teórica en los tiempos modernos se la debemos a un solo hombre: Linus Pauling. Su idea sobre la naturaleza del enlace químico fue tan fundamental y unificadora como el gen y el cuanto porque puso de manifiesto que la física regía la estructura molecular y que esa estructura estaba relacionada con las propiedades, e incluso la apariencia, de los elementos químicos. Los trabajos de Pauling explicaban por qué algunas sustancias eran líquidos amarillos, otras polvos blancos u otras sólidos rojos.
Hijo de un farmacéutico, Pauling nació cerca de Portland, en el estado de Oregón, en 1901, y vivió dotado de un grado de confianza en sí mismo comparable al de Wolfgang Pauli. Siendo un joven graduado, rechazó una oferta de Harvard a favor de una institución que había comenzado su vida como Politécnico Throop pero en 1922 se bautizó de nuevo como Instituto de Tecnología de California, o Caltech. Gracias en parte a Pauling, Caltech llegó a convertirse en un gran centro científico, pero a su llegada solo tenía tres edificios rodeados por doce hectáreas de campos abandonados, chaparrales y un viejo huerto de naranjos.
De entrada, su intención era trabajar con una nueva técnica que podría servir para demostrar la relación entre las formas características de los cristales formados por las sustancias químicas, y la arquitectura subyacente de las moléculas que formaban los cristales. A principios de siglo se había descubierto que si se proyectaba un haz finamente enfocado de rayos X monocromáticos (descubiertos, como se recordará, en 1895) sobre un cristal, el haz se dispersaba (difractaba) de un modo característico. Dado que muchas sustancias (sales, metales, minerales, fármacos, proteínas, vitaminas) cristalizan, los rayos X resultaban ser muy útiles para revelar la disposición y densidad de las moléculas y los átomos e incluso la longitud de los enlaces entre ellos. De repente se disponía de una técnica que permitía examinar la estructura tridimensional de las sustancias químicas. Unido a lo que Bohr había descubierto, se estrechaba el vínculo entre la física y la química.
Los rayos X estaban formados por fotones, un concepto que había introducido Einstein pero que no se había aceptado plenamente hasta 1922, de modo que cuando Pauling finalizó su doctorado, la cristalografía de rayos X, como había dado en conocerse, apenas había salido de su infancia. Pauling comprendió enseguida que ni su matemática ni su física eran lo bastante buenas para sacarle todo el partido a la nueva técnica. Decidió viajar a Europa para conocer a los grandes científicos del momento: Niels Bohr, Erwin Schrödinger, Werner Heisenberg, entre otros, aunque estudió sobre todo con Arnold Sommerfeld en Múnich. Como escribiría más tarde, «fue un poco una sorpresa para mí cuando fui a Europa en 1926 y descubrí que había allí un buen número de personas a las que consideraba más inteligentes que yo» [184].
En cuanto a sus propios intereses, que se centraban en la naturaleza del enlace químico, su visita a Zúrich fue la más provechosa. Allí conoció a dos alemanes menos famosos, Walter Heitler y Fritz London, que habían desarrollado una idea sobre cómo aplicar los electrones y las funciones de onda a las reacciones químicas. En el caso más simple, imaginemos dos átomos de hidrógeno que se acercan uno al otro. Cada uno de ellos está formado por un núcleo (un protón) y un electrón. A medida que los dos átomos se acercan, «el electrón de uno se sentiría atraído por el núcleo del otro y viceversa. En cierto momento, el electrón de uno de los átomos saltaría al otro, y lo mismo le pasaría al electrón del otro átomo». A este fenómeno lo llamaban «intercambio de electrones», y añadían que tendría lugar miles de millones de veces cada segundo. En cierto sentido, los electrones no tendrían casa propia, y el intercambio constituiría el «cemento» que mantenía juntos a los dos átomos, «estableciendo un enlace químico con una longitud determinada». Era un trabajo elegante pero que visto desde la enorme ambición de Pauling adolecía de un grave inconveniente: la idea no era suya. Para labrarse un nombre tenía que llevarla más lejos.
Para cuando Pauling regresó a Estados Unidos desde Europa, Caltech había hecho grandes progresos. Se estaba negociando la construcción del telescopio más grande del mundo en Monte Wilson, había planes para un laboratorio de propulsión a reacción y T. H. Morgan, el famoso genetista, estaba a punto de llegar para montar un laboratorio de biología. Pauling estaba decidido a brillar por encima de todos ellos [185].
Armado con su valiosa experiencia europea, Pauling comprendió que el campo en el que existía la posibilidad de hacer investigaciones novedosas e importantes se encontraba en la frontera entre la nueva física y la química: la mecánica cuántica prometía todo un nuevo ámbito de aplicaciones químicas. Para Pauling la oportunidad estribaba en el hecho de que la mayoría de los científicos que había conocido en Europa eran físicos, no químicos, y no cabía esperar que comprendiesen del todo cómo se podían relacionar sus conceptos con el rico y variado paisaje de los fenómenos químicos. Todo un nuevo mundo de «química cuántica» esperaba a ver la luz [186].

El orden en el enlace químico
Durante los primeros años de la década de 1930, Pauling publicó una y otra vez sobre el enlace químico. Sus primeros experimentos sobre el carbono, el constituyente básico de la vida, y luego sobre los silicatos, mostraron que los elementos se podían agrupar sistemáticamente en función de sus relaciones electrónicas. También mostró que algunos enlaces eran más débiles que otros y que eso ayudaba a explicar propiedades químicas. La mica, por ejemplo, es un silicato que, como bien sabe todo químico, se exfolia en láminas finas y transparentes. Pauling logró demostrar que los cristales de mica tienen enlaces fuertes en dos direcciones y débiles en la tercera dimensión, lo que se correspondía de forma precisa con las observaciones. Un segundo ejemplo es el talco, otro silicato que todos conocemos que se caracteriza por tener enlaces débiles en todas las direcciones, de modo que en lugar de exfoliarse se disgrega formando un polvo. Un tercer grupo de silicatos, conocidos como zeolitas, se caracteriza por su capacidad para absorber ciertos gases, como el vapor de agua, pero no otros. Pauling pudo demostrar que las zeolitas tienen una estructura «en colmena» que deja espacios tan minúsculos que actúan como cedazos moleculares, permitiendo el paso solamente a las moléculas más pequeñas y reteniendo las otras. También en este caso demostró que su estructura era tan relevante como sus propiedades químicas y cuánticas [187].
Así pues, por fin se disponía de una explicación atómica, electrónica, de las propiedades observables de moléculas bien conocidas. El siglo había comenzado con el descubrimiento de conceptos fundamentales de la física. Ahora estaba ocurriendo lo mismo en la química, y una vez más el conocimiento comenzaba a converger. Pauling publicó en 1939 The Nature of the Chemical Bond and the Structure of Molecules and Crystals [La naturaleza del enlace químico y la estructura de moléculas y cristales].
Pero Pauling hizo más. Dejó una impronta más marcada cuando argumentó que la mecánica cuántica podía explicar el enlace tetraédrico del carbono. Este elemento era y es la joya de la corona de la química orgánica. Como los átomos de carbono forman el esqueleto de los carbohidratos, las proteínas y las grasas, puede decirse que la química del carbono es la química de la vida. Por aquel entonces, sin embargo, había un problema, y era que físicos y químicos no se ponían de acuerdo sobre la estructura electrónica del elemento. Se aceptaba que cada átomo de carbono contenía seis electrones y que los dos primeros no desempeñaban ningún papel en la formación de enlaces porque eran el par que llenaba la capa electrónica más interior, como el helio, tal como había explicado Bohr. Los cuatro electrones sobrantes debían estar en el nivel de energía exterior, en la segunda «capa» u órbita del átomo (una vez más, tal como habían mostrado Bohr y Pauli). Los químicos aceptaban que el carbono podía ofrecer cuatro enlaces a otros átomos y que en la naturaleza estos formaban las cuatro puntas de una pirámide de tres lados, o tetraedro.
El problema era que los físicos no estaban de acuerdo. Sus investigaciones, decían, mostraban que los cuatro electrones externos del carbono existían en realidad en dos niveles de energía distintos, o subcapas. El principio de exclusión de Pauli decía que los dos electrones del nivel inferior debían formar un par, lo que dejaría tan solo dos electrones más libres para formar enlaces con otros átomos. «El carbono, decían los físicos, debería tener una valencia de dos, aunque había casos raros, como el monóxido de carbono, en el que el carbono forma enlaces dobles con un átomo de oxígeno [188] ». Reconciliar esta discrepancia era un enorme desafío.

Los «patrones de unión» de las moléculas
Pauling lo resolvió con una idea novedosa, basada en la teoría de intercambio de energía de Heitler y London. Según argumentaba, los átomos de carbono en forma molecular eran estructuralmente diferentes de un átomo de carbono simple. Cuando los átomos de carbono se unían, la energía de intercambio generada por su proximidad bastaba para liberar los cuatro electrones de enlace de las subcapas que postulaban los físicos, de manera que el tetraedro era la disposición estructural más parsimoniosa para cuatro electrones.
La idea era impresionante, pero había que sustentarla en una sólida base matemática. Pauling lo hizo a su manera. Envió su artículo sobre el carbono y el intercambio de energía al Journal of the American Chemical Society, prometiendo que posteriormente enviaría una «explicación detallada» de la matemática. Esto es algo que Pauling hizo varias veces: anunciaba sus ideas en un artículo para establecer la prioridad, aunque en realidad, en este caso y en otros, pasaba algún tiempo antes de que apareciera su «explicación detallada» [189].
En cualquier caso, la idea resultó tener una gran influencia sobre otros, hizo que Pauling fuese más conocido y condujo a otra idea todavía más transformadora, la idea de la «complementariedad», que no debe confundirse con la idea de la complementariedad de Bohr. La de Pauling hacía referencia al hecho de que la estructura de los átomos, revelada por la cristalografía de rayos X, tenía mucho que ver con la forma en que se combinaban los distintos elementos, que la reactividad química no era simplemente una cuestión de qué electrones estaban disponibles en qué capas, sino que la forma tridimensional de un átomo determinaba con qué otros átomos podía establecer una relación.
También en este caso ocurría que la mayoría de los cristalógrafos eran físicos, mientras que Pauling era químico. Un efecto de esto era que los físicos trataban cada elemento de forma independiente. Estudiaban su estructura cristalina y extraían las conclusiones que podían sobre sus propiedades y comportamiento. Pero Pauling sabía mucho más sobre los elementos que los físicos, disponía de un conocimiento profundo de cómo se comportaban, qué semejanzas tenían con otros elementos (el silicio, por ejemplo, se comportaba de forma muy parecida al carbono), qué diferencias había y qué se combinaba con qué. Ese conocimiento permitió a Pauling anticipar un buen número de hallazgos de la cristalografía. Conseguía hacerse una imagen más precisa de su objeto de estudio y avanzar más deprisa y con mayor decisión que los físicos puros [190]. Podía destilar lo que sabía de mecánica cuántica, tamaños iónicos y estructuras de cristales, y unir todo ello al conocimiento tradicional de los hábitos de los elementos, envolviéndolo todo con una capa de reglas que indicaban qué «patrones de unión» eran más probables.
La primera vez que hizo públicos esos «patrones» fue a finales de 1928, dentro de un ensayo conmemorativo escrito para celebrar el sesenta aniversario de Arnold Sommerfeld. Al año siguiente, Pauling los describió con mayor detalle en el JACS, y a partir de entonces fueron ampliamente conocidas entre los cristalógrafos como «reglas de Pauling». Su síntesis de la nueva física y la química clásica funcionaba muy bien, y las reglas ayudaban a ampliar el conocimiento de lo que revelaba la cristalografía de rayos X, lo que permitía descifrar la estructura de sustancias cada vez más complejas.
Pero Pauling aún no había acabado. De hecho, estaba a punto de realizar uno de los avances conceptuales pioneros del siglo de la ciencia. Aún habría de hacer no menos de tres progresos más de interés para el tema de este libro.
El primero se produjo durante una segunda visita a Europa, en 1929, esta vez a Ludwigshafen, a pocas horas en tren desde Múnich. Visitó allí a Herman Mark, un químico vienés que había conocido en su anterior visita. Para cuando Pauling realizó su segunda visita, Mark era un distinguido cristalógrafo especializado en moléculas orgánicas, y había sido reclutado por la gigantesca empresa química alemana IG Farben para dirigir sus investigaciones sobre productos comercialmente tan prometedores como el plástico o el caucho sintético. Mark había conseguido así unos excelentes laboratorios, pero para Pauling el punto álgido de la visita se produjo cuando el vienés le dijo que uno de sus ayudantes había «desarrollado una forma de disparar un haz de electrones a través de un chorro de gas en un tubo de vacío» [191]. Aquel ayudante había descubierto que las moléculas de gas parecían difractar los electrones de formas sistemáticas, dispersándolos «en forma de anillos concéntricos cuyas intensidades y posiciones relativas podían relacionarse con las distancias entre átomos en las moléculas». Esta «difracción de electrones» no tenía una utilidad inmediata evidente para Mark, pero Pauling sí que le vio las posibilidades. Al enfocarse en las moléculas separadas de un gas, el aparato de Farben permitía simplificar los cálculos de la cristalografía de rayos X: la fantástica rapidez con la que se podían obtener fotografías de difracción de electrones (unas décimas de segundo en lugar de varias horas para la cristalografía de rayos X) significaba que ahora un amplio abanico de sustancias volátiles, y en particular muchos compuestos orgánicos que eran difíciles de obtener en forma cristalina, entraban en el ámbito de las investigaciones posibles.
Cuando Pauling regresó a Caltech en otoño de 1930, dispuso de inmediato que un nuevo estudiante de doctorado comenzara a construir una máquina de difracción de electrones. Le llevó dos años, pero con el tiempo se convertiría en la «bestia de carga» del laboratorio, y durante los veinte años siguientes Pauling y sus colaboradores identificaron la estructura de 225 moléculas [192].
Entretanto, mientras Pauling estaba fuera, uno de sus colegas, John C. Slater, del MIT, había realizado un notable progreso matemático: una importante simplificación de la famosa ecuación de onda de Schrödinger, que hizo más simple la explicación teórica de los cuatro electrones de enlace del carbono. Pauling se centró en la matemática de Slater, y finalmente logró mostrar cómo, partiendo de la mecánica cuántica, se «originaban de forma precisa» cuatro orbitales electrónicos iguales en los vértices de un tetraedro. Slater había tenido la misma idea, y envió un cálculo parecido a JACS un poco antes que Pauling, pero la coincidencia de dos trabajos tan parecidos no hizo más que reforzar su conclusión conjunta. La situación del carbono era por fin más clara.
Este es otro ejemplo de «descubrimiento simultáneo» que podemos situar al lado de la conservación de la energía y la concepción de la tabla periódica, pero fue incluso más que todo aquello. El físico Victor Weisskopf observó que la mecánica cuántica había unido por fin las dos grandes disciplinas de la física y la química [193]. «Al usar las reglas de la nueva física para explicar los enlaces de los átomos en las moléculas, Slater y Pauling consumaron el matrimonio».

Una nueva explicación de la relación entre los elementos
Este fue el clímax de una amalgamación, pero también el principio de algo más. Uno de los problemas que había alzado su fea cabeza en medio de la bella unificación que se estaba produciendo era que había dos tipos de enlace entre átomos aparentemente distintos, el iónico y el covalente, y no estaba nada claro de qué manera se relacionaban. Un enlace covalente se producía entre dos átomos que compartían un par de electrones en términos de igualdad, como Heitler y London habían propuesto. En un enlace iónico, en cambio, un átomo «robaba» el par de electrones completo hacia sí mismo, lo que significaba que uno de los átomos quedaba con carga negativa y el otro con carga positiva, de modo que el enlace resultante era consecuencia de la atracción electrostática entre los dos átomos [194]. Esto claramente añadía complejidad al enlace químico y la pregunta ahora era si los enlaces iónicos y covalentes eran entidades completamente distintas o solo puntos distintos a lo largo de un continuo.
Con la ayuda de la mecánica cuántica, Pauling consiguió mostrar que los enlaces iónico y covalente no eran entidades totalmente distintas sino que efectivamente eran dos puntos a lo largo de un continuo. Existían enlaces «parcialmente iónicos», y había enlaces entre átomos que compartían características tanto del enlace iónico como del covalente. Pauling bautizó esta relación como «resonancia» y su importancia radicaba en el hecho de que estos enlaces «híbridos» eran muy estables. A modo de ejemplo, el cloruro de hidrógeno podía entenderse como un átomo de hidrógeno unido a un átomo de cloro por medio de un enlace covalente del tipo de Heitler y London, pero también como un ion de hidrógeno de carga positiva y un ion de cloruro de carga negativa. La molécula real presenta, según argumentaba Pauling, «resonancia» entre estas dos alternativas (de forma análoga, aunque no idéntica, a la dualidad onda-partícula). En el ejemplo anterior, HCl es tanto iónico como covalente según un cociente 20:80 [195].
Todo esto era importante porque al elaborar su concepto de resonancia, Pauling adaptaba una idea de la biología. Tras haber basado su química durante tanto tiempo en la física cuántica, Pauling había comenzado a asistir a los seminarios de biología de Caltech en el departamento dirigido por T. H. Morgan, y estaba especialmente interesado en cómo identificaban los genetistas la posición de los genes en los cromosomas, algo que hacían de forma indirecta, por inferencia, midiendo con qué frecuencia dos rasgos independientes se heredaban juntos. El principio establecido era que cuanto más cerca se encontrasen dos genes físicamente en el cromosoma, mayor era la probabilidad de que se mantuvieran juntos tras el entrecruzamiento genético que se produce durante la reproducción. Pauling adaptó esta idea a la resonancia para crear su propia escala de la relación entre pares de elementos, en función del grado en que sus enlaces eran iónicos o covalentes. Lo que halló fue que cuanto más iónicos eran los enlaces entre los átomos, mayor era la diferencia en su capacidad para atraer electrones. Era una nueva manera de entender el comportamiento químico de los elementos [196].
Las posibilidades de esta idea quedaron claras cuando la utilizó para resolver uno de los problemas más pertinaces de la química orgánica: el enigma del benceno. Desde el siglo XIX se sabía que el benceno está compuesto por seis átomos de carbono y seis de hidrógeno, que es muy estable pero extremadamente reactivo, formando todo tipo de compuestos, y que en muy buena parte explica la enorme diversidad de sustancias orgánicas. Pero ¿qué hacía que el benceno pudiese formar esqueletos moleculares altamente estables y, sin embargo, fuese tan «ansioso», tan capaz de formar tantas moléculas distintas y a menudo complejas?
Durante el invierno de 1932-1933, Pauling y su estudiante George Wheland se propusieron resolver el enigma del benceno a partir de los principios de la resonancia. Lo que descubrieron fue revolucionario. Mostraron que el benceno presenta resonancia entre cinco estructuras, unas más iónicas, otras más covalentes, y mientras que el hecho de que todos los enlaces presenten alguna forma de resonancia explica la estabilidad del benceno, el abanico de enlaces, de iónicos a covalentes, explica su gran reactividad.
Este fue un avance extremadamente perspicaz y fructífero dentro de la forma tradicional de pensar pero, a largo plazo, el verdadero significado del artículo del benceno fue que marcó una importante ampliación de los horizontes de Pauling, que entró en el ámbito de la química orgánica. Ya hemos visto que estaba interesado en el carbono, que había asistido a varias conferencias de biología en el propio Caltech y que su nueva técnica de la difracción de electrones, tomada de Alemania, era especialmente apropiada para la investigación de sustancias orgánicas. Ahora había mejorado el conocimiento sobre el benceno, con el carbono en la base misma de la química orgánica. Dedicaría a partir de entonces un buen número de investigaciones a otras moléculas aromáticas basadas en el benceno, como el naftaleno, y George Wheland publicaría en 1944 un influyente libro, The Theory of Resonance and Its Application to Organic Chemistry [La teoría de la resonancia y sus aplicaciones a la química orgánica [197] ].
Más aún, Pauling y Caltech conformaron uno de los dos equipos del mundo donde se estaba produciendo un importante cruzamiento científico (hubo otro, del que nos ocuparemos en el capítulo 9). En 1936, un colega de Pauling le dio a ese híbrido un nombre. Hasta entonces, Pauling y sus colegas venían trabajando en un mundo que definían como «química cuántica», pero en 1936 se acuñó un nuevo término: «biología molecular».

Tres grandes unificadores
Podemos ver ahora con mayor claridad que la historia de la ciencia, además de ser una historia de descubrimientos, conforma también una narración de convergencia. Las unificaciones de Einstein de la masa, la energía y el tiempo constituyeron el primer evento de convergencia de la ciencia desde las dos teorías unificadoras originales de la década de 1850. La segunda fue la vinculación por Bohr del núcleo atómico con la radiactividad y de las órbitas electrónicas con las propiedades químicas de los átomos. Pauling fue el tercer gran unificador de principios del siglo XX. Descubrió el orden entre los enlaces químicos y mostró que la arquitectura molecular, es decir, la forma de las moléculas, también es relevante. El aspecto crucial es que las moléculas son tan importantes como los átomos para entender la materia, que no son simplemente la suma de sus partes. Este punto de vista no fue valorado de inmediato, pero crecería en importancia a medida que avanzaba el siglo.
El cambio de la química cuántica a la biología molecular fue más que un simple cambio de terminología. Fue un cambio de perspectiva. Al tiempo que la física se desarrollaba y profundizaba, también lo hacía la biología. Y del mismo modo que se habían acercado la física y la química, también, durante el mismo periodo, se habían acercado la química y la biología. El descubrimiento del gen, aunque realizado casi al mismo tiempo que la teoría de la evolución, no se había vinculado a esta de inmediato. Fue, de hecho, un fallo (o retraso) de la convergencia. Pero el desarrollo de la ciencia de la genética (que también perseguía Caltech) sería uno de los factores importantes que llevarían a concebir la biología molecular. El vínculo entre física y química, a través de la química cuántica, representó una unificación de suma importancia que encontraría eco a lo largo de todo el siglo XX y hasta nuestros días.
No se agotaron aquí, sin embargo, los otros aspectos de unificación que se estaban produciendo. Al principio no era evidente de qué manera se podían casar las unificaciones de Einstein con las de Bohr y Pauling, pero esa unificación también se produciría con el tiempo. Curiosamente, también se daría el caso de que la proliferación del número de partículas que se iban descubriendo contribuiría, aunque al principio no lo pareciese, a unificar nuestro conocimiento sobre ciertos aspectos del universo que hasta entonces no habíamos logrado comprender.

Capítulo 6
La interacción entre química y biología: «la íntima conexión entre dos dominios»

Aunque la gran historia de la evolución fue la principal unificación biológica del siglo XIX (capítulo 2), no fue, de hecho, la única. Lo más importante, ciertamente en la primera mitad del siglo, fue el descubrimiento de las células y, en no menor grado, la comprensión del hecho de que todas las plantas y todos los animales están formados por células. Esta idea, la de que todas las formas de vida están compuestas de unidades «independientes, pero que cooperan», debe incluirse entre los descubrimientos más influyentes de la biología, pues proporcionó un vínculo fundamental entre la zoología y la botánica, más allá del hecho de que ambas disciplinas se ocupan de los seres vivos.
La primera persona que observó células fue Robert Hooke (1635-1703), curador de experimentos de la Real Sociedad, cuya Micrographia, que constituye el primer examen de la vida microscópica, apareció en 1665. En siglos posteriores muchos otros, con la ayuda de microscopios cada vez mejores, observaron «glóbulos» o «vesículas» de distintas formas y tamaños en tejidos tanto de animales como de vegetales. Sabemos por una carta que le escribió Antoine van Leeuwenhoek de Delft a Robert Hooke en 1682 que ya había observado un cuerpo más oscuro en el interior de las células, lo que más tarde se conocería como núcleo. Al finalizar el siglo XVIII, la mayoría de los botánicos aceptaban que las plantas estaban compuestas en su mayor parte de células, y Caspar Friedrich Wolff (1733-1794) fue uno de los primeros en defender que la subunidad fundamental de todos los tejidos, animales o vegetales, era una vesícula o glóbulo que, como otros antes que él, en ocasiones había denominado celda o célula. Sin embargo, nadie había sugerido (al menos en un documento impreso) que las células de las plantas y las de los animales fuesen homólogas, y nadie sabía cómo se dividían las células ni cómo se formaban nuevas células. En 1805, Lorenz Oken (1779-1851) propuso que todas las formas vivas, tanto plantas como animales, estaban compuestas de «infusorios», organismos simples como las bacterias y los protozoos; en otras palabras, de las formas de vida más simples y primitivas que se conocían.
Pero la primera persona que hizo progresar el conocimiento hacia un marco teórico moderno fue Jan Evangelista Purkyne. En rigor, Purkyne era checo, no alemán, pero desde su derrota en la batalla de la Montaña Blanca, en 1620, los habitantes de Bohemia habían quedado «inundados» por olas de germanización, lo que gradualmente había llevado a los checos a ocupar los trabajos menos cualificados. La Universidad Carolina de Praga, fundada por Carlos IV en 1348 y originariamente abierta a checos, alemanes y polacos, era, para cuando Mozart realizó su célebre viaje a aquella ciudad en 1787, una institución de habla germana [198].
Purkinje, tal como se escribe en la literatura alemana, fue educado como niño del coro en Míkulov (Nikolsburg), en Moravia, pero dejó su orden y obtuvo un título de filosofía y medicina en la Universidad Carolina. Desde muy temprano le había dado vueltas a la idea de que existían paralelismos fundamentales entre las células de las plantas y las de los animales. La década de 1830 vio más progresos cuando varios experimentos clarificaron la estructura de tejidos animales como la piel y el hueso, en artículos en los que se referían a las células como «gránulos», Körnchen, Körperchen y Zellen. La idea de que existiera una «homología» entre algunas células vegetales y algunas células animales iba ganando terreno, según nos dice Henry Harris en su historia de los inicios de la biología. Luego estaba el hecho de que Franz Bauer, un soberbio artista botánico austriaco, incluyó el núcleo en sus dibujos. Ya había empezado a hacerlo en 1802, pero no los publicó hasta la década de 1830, dejando claro que consideraba el núcleo como una característica regular de las células. El núcleo recibió esta denominación de Robert Brown, custodio de las colecciones botánicas del Museo Británico (y el hombre que identificó el «movimiento browniano»), pero su sugerencia fue tomada en serio sobre todo en Alemania, donde se usó como alternativa a Kern («núcleo» en alemán). El nucleolo, en el interior del núcleo, fue observado por primera vez por Rudolf Wagner en 1835, quien al principio lo llamó fleck («mota») y luego «mancha germinativa» ( macula germinativa).
Los progresos de Purkyne no se debieron únicamente a mejoras en la microscopia. Logró hacer secciones más finas que nadie antes y perfeccionó las técnicas de tinción. Tanto él como sus colegas aludieron en varias ocasiones en artículos a la semejanza entre las células de plantas y animales, y en una conferencia que pronunció ante la Sociedad de Doctores y Naturalistas Alemanes, en septiembre de 1837, Purkyne presentó un tour d’horizon (un panorama) de los tejidos animales en los que se habían observado Körnchen (núcleo central): glándulas salivares, páncreas, glándulas de la cera del oído, riñones y testículos. «El organismo animal puede reducirse casi por completo a tres componentes elementales principales: fluidos, células y fibras… El tejido celular básico es claramente análogo al de las plantas, que, como es bien sabido, está compuesto casi enteramente por gránulos o células» [199].

El principio común que rige animales y plantas
En noviembre de 1832 falleció Karl Asmund Rudolphi, profesor de anatomía y fisiología de la Universidad de Berlín. La cátedra vacante fue ocupada al año siguiente por un hombre que habría de convertirse en uno de los más famosos biólogos del siglo XIX: Johannes Müller. En 1835, Müller publicó una monografía sobre la anatomía comparada de los Myxinidae (los peces mixinos), en la que describía el parecido entre las células del notocordo (el canal neural de la espina dorsal) y las células vegetales. Esta observación era crucial, más aún cuando Theodor Schwann se convirtió en el ayudante de Müller. Schwann sacaría partido de la observación de Müller, pero no antes de tener un trascendental encuentro con el botánico Matthias Jacob Schleiden.
La carrera de Schleiden había seguido un curso familiar para un académico alemán. Primero había estudiado derecho, obteniendo un doctorado en la Universidad de Heidelberg en 1827, pero no le gustaba el trabajo de abogado y cambió de profesión. Comenzó un grado de ciencias naturales en Gotinga en 1833, pero luego se trasladó a Berlín. Schleiden fue invitado a trabajar en el laboratorio de Müller y fue allí donde conoció a Theodor Schwann.
Aunque tardíamente convertido a la botánica, Schleiden siempre fue un consumado microscopista y en 1838 publicó «Beiträge zur Phytogenesis» [Contribuciones a la fitogénesis] en el Archiv de Müller, una revista fundada por el profesor berlinés que se había convertido en una de las más respetadas de su época. Este artículo, inmediatamente traducido al inglés y al francés, fue el primero que difundió la teoría celular que, según la tradición, se había concebido durante una conversación entre Schleiden y Schwann sobre la fitogénesis (el origen y desarrollo de las plantas).
Schleiden había quedado impresionado por la identificación del núcleo celular por Robert Brown (1832), y lo había usado como punto de partida. El núcleo se llamaba entonces citoblasto y, según Schleiden, «en cuanto el citoblasto alcanza su tamaño final, a su alrededor se forma una vesícula fina y transparente: esta es la nueva célula». Schleiden describió esta célula como «el fundamento del mundo vegetal».
Aunque este artículo claramente anunciaba «el advenimiento de la citología vegetal», Schleiden afirmaba que las células estaban «cristalizadas en el interior de una sustancia primaria amorfa», lo que es erróneo (la cursiva es mía). No obstante, su libro de texto de botánica, publicado en 1842 con el título Grundzüge der Wissenschaftlichen Botanik [Fundamentos de la ciencia botánica], dedicaba un largo apartado a la citología vegetal, y al hacerlo transformaba la enseñanza de la botánica, atrayendo a muchas personas a lo que les parecía una nueva ciencia.
Su amigo y colaborador Theodor Schwann fue biólogo durante cincuenta años, pero solo dedicó cinco de ellos (1834-1839) al tema por el que es más conocido. (Estos no son los años durante los cuales era ayudante de Müller. En 1839 le ofrecieron una cátedra en Lovaina, la aceptó y se alejó del centro de gravedad intelectual que era Berlín). La monografía más célebre de Schwann se publicó en 1838, el mismo año en que Schleiden publicó su artículo en Beiträge. Comenzaba con una descripción de la estructura y el crecimiento de las células del notocordo y del cartílago porque, según el propio Schwann, su arquitectura «se parece mucho» a la de las plantas y porque es muy evidente la formación de células a partir del «citoblastema». La segunda sección llevaba un título que reflejaba su tono y argumento: «Sobre las células como fundamento de todos los tejidos del cuerpo animal». Purkyne y otros ya habían descrito células en muchos tejidos y habían especulado sobre su naturaleza fundamental, pero Schwann fue el primero en hacer una aseveración categórica [200].
A continuación, su libro repasaba lo que en aquel momento era un gran cuerpo de observaciones histológicas que respaldaban su tesis. Se ocupaba aquí de células adheridas unas a otras (el epitelio, las uñas, las plumas y el cristalino del ojo), de células cuyas paredes se encontraban amalgamadas con la sustancia intercelular (cartílago, hueso y dientes), y de células que daban origen a fibras (tejido conectivo y tendinoso). No todo lo que decía era acertado, pero, como aclaraba en el prefacio:
El objeto del presente tratado es el de establecer la conexión íntima entre los dos reinos del mundo orgánico demostrando la identidad de las leyes que rigen el desarrollo de las subunidades elementales individuales de todos los organismos, de manera parecida a como unas mismas leyes rigen la formación de cristales pese a sus diferencias de forma.
La referencia a los cristales recuerda lo que Schleiden había dicho, también de forma errónea. Este error, que es importante, quedaba magnificado, a ojos de muchos otros, por el hecho de que Schwann apenas citaba en su obra a otros autores que habían hecho aportaciones en el mismo campo.

Inorgánico-Orgánico
Durante los siglos XVIII y XIX, la química orgánica y la fisiología se vieron entorpecidas por el concepto de «fuerza vital», la creencia en que los organismos vivos no podían explicarse únicamente mediante leyes físicas, en que sobre ellos debía actuar alguna «influencia especial». Esta manera de pensar se veía reforzada por la apabullante amplitud y diversidad de la materia orgánica, que parecía que solo un dios podía haber concebido. A medida que se analizaban más sustancias y se descubría que estaban formadas solamente por carbono, nitrógeno y agua, el misterio se tornaba más profundo.
Fue en el seno de este clima intelectual/religioso donde, en 1828, Friedrich Wöhler realizó el experimento por el que siempre será recordado. Tratando cianato de plata con cloruro de amonio confiaba en obtener la sal amónica del ácido ciánico. Sin embargo, cuando separó por filtración el cloruro de plata (insoluble) y evaporó la solución residual, se encontró con «unos cristales claros e incoloros con la forma de delgados prismas con las puntas romas». Para su sorpresa, se parecían enormemente a la urea. «Esta similitud… me llevó a realizar experimentos comparativos con urea totalmente pura aislada a partir de orina, de los cuales resultó evidente que [la urea y] esta sustancia cristalina, de cianato de amonio, si se la puede llamar así, son compuestos absolutamente idénticos». En realidad, los dos compuestos no eran idénticos, sino isómeros, pero aun así el experimento de Wöhler fue emblemático. Había sintetizado una sustancia orgánica, la urea, que hasta entonces solo producían los animales, a partir de materias inorgánicas y sin que interviniera ninguna fuerza vital. «[Justus von] Liebig y sus sucesores consideraron este experimento el principio de una química orgánica verdaderamente científica [201] ».

El vínculo entre tintes y fármacos
En mayo de 1862, la reina Victoria asistió a la Exposición Universal de Londres en South Kensington ataviada con un llamativo vestido de color malva. Esta elección era significativa por dos razones. La exposición de 1862, como antes la Gran Exposición de 1851, había sido promovida por su marido, Albert, el príncipe consorte. Pero Albert había muerto de fiebre tifoidea en diciembre del año anterior, de modo que la reina todavía estaba oficialmente de luto, que podía prolongarse hasta dos años. Su presencia en la exposición vestida de malva y no de negro significaba que había pasado, tempranamente, a «medio luto», que era entonces una fase aceptada del duelo. Pero había algo más. También estaba haciendo una declaración nacionalista. Una de las exhibiciones principales de la feria era una enorme pila de tinte púrpura. «Sentado junto a la pila estaba su inventor/descubridor, William Perkin [202] ».
Perkin, siempre tan interesado en la ingeniería como en la química, había estudiado en el nuevo Royal College of Chemistry (Colegio Real de Química), fundado en 1845 y hoy conocido como Imperial College, que se había establecido en respuesta a la conciencia cada vez mayor en Gran Bretaña de que su ciencia iba por detrás de la que se hacía en el continente, y en particular en Alemania. Entre los benefactores del College estaba el príncipe Albert, que había convencido a su compatriota alemán August Wilhelm von Hofmann (entonces con veintiocho años) para convertirse en el primer catedrático del Royal College. Hofmann, nacido en Giessen en 1818, era un hombre cultivado que hablaba cuatro idiomas europeos con fluidez, había estudiado filosofía y química, y cuyos obituarios, tras su muerte en 1892, se compilaron en tres volúmenes. Viajó a Gran Bretaña tras recibir un permiso de excedencia de dos años por la Universidad de Bonn, por si acaso el trabajo en el Royal College no funcionaba. Pero funcionó, al menos durante algún tiempo, gracias en buena parte al entusiasmo de Hofmann. Perkin comenzó siendo uno de los estudiantes de Hofmann, pero en 1856 ya le habían asignado su propio asistente de laboratorio.
Hofmann comenzó su colaboración sugiriéndole a Perkin que intentase sintetizar la quinina. Prácticamente no había químico profesional que no lo hubiese intentado durante años, con el fin de crear una cura sintética para la malaria (vital en una época de expansión colonial). Como todos los demás, Perkin fracasó, pero entonces jugó con una sustancia, un derivado de la anilina llamado alil toluidina, que se extraía del alquitrán de hulla, un abundante producto de desecho de la industria minera. Y, «por uno de esos golpes de suerte de la ciencia», la anilina que utilizó Perkin contenía impurezas. De forma totalmente inesperada, descubrió que el limo negro que quedó después de su fallido experimento de la quinina se tornaba de un vivo color púrpura al lavarlo con agua.
Hasta aquel momento de la historia, las opciones de colores para los tejidos eran limitadas. Los «colores terrenos» (rojos, marrones y amarillos) derivados de sustancias animales, vegetales o minerales, eran con mucho los más comunes y asequibles. En consecuencia, los colores más raros estaban muy buscados, sobre todo el azul y el púrpura, de modo que Perkin, que gastaba una abundante barba victoriana que rivalizaba con la de Hofmann, registró una patente para su tinte púrpura y montó una fábrica en las riberas del Grand Union Canal, al noroeste de Londres, donde, según se decía, las aguas del canal cambiaban de color cada semana dependiendo de qué tintes se fabricaban en cada momento. A los treinta y cinco años, Perkin era rico [203].
A través de Hofmann, los alemanes habían tenido algo que ver con la formación de Perkin, y ahora veían el momento de sacarle beneficio. Gracias al abundante carbón del Rur y a disponer de más químicos que ningún otro lugar, por toda Alemania surgieron compañías de tintes derivados del alquitrán de hulla. En poco tiempo se descubrió una amplia gama de tintes sintéticos y las compañías de tintes alemanas se convirtieron en líderes en el mercado mundial. Los tintes de alquitrán de hulla se expandieron con tanta rapidez que en unas pocas décadas prácticamente habían desplazado del mercado a los colores naturales.
La nueva industria del color también debía su empuje al desarrollo simultáneo de otras dos innovaciones científicas/industriales. Una fue la fabricación a gran escala de gas para alumbrado, uno de cuyos subproductos era el alquitrán. La segunda fue el auge de la química orgánica sintética en el laboratorio. El punto de partida se produjo en 1843 cuando Justus von Liebig le pidió a uno de sus ayudantes que analizase un aceite ligero de hulla que le había enviado un antiguo alumno, Ernest Sell. El ayudante que eligió Justus para analizar el aceite de Sell no fue otro que Hofmann, que acababa de finalizar su doctorado en Giessen. El análisis de Hofmann reveló que el aceite de alquitrán de hulla contenía anilina y benceno, dos sustancias que serían importantes industrial y comercialmente. Hofmann describió la anilina como el amor de su vida y no tardó en poder explicar la relación estructural entre el amarillo de anilina, el azul de anilina y la púrpura imperial, que se acababan de descubrir. Estos tintes (malva, fucsia, azul y amarillo de anilina y púrpura imperial) «eran los colores derivados del alquitrán de hulla más importantes que producía la joven industria de los tintes de anilina» [204].
Estos tintes gozaron de un enorme éxito comercial, pero hubo otro factor que contribuyó a la preeminencia alemana: la creación de laboratorios de investigación en las fábricas. La creación de estos laboratorios fue un acontecimiento «cuya importancia histórica… radica en los cambios que promovió en las técnicas de investigación científica, unos cambios que aceleraron el control del hombre sobre la naturaleza hasta el punto de afectar a todas las grandes instituciones» [205]. De todos los logros de los laboratorios de fábricas o industriales, el mayor fue la transformación de la industria del alquitrán de hulla en la industria farmacéutica.
Los fármacos comenzaron a fabricarse durante las décadas de 1880 y 1890, en parte porque fue entonces cuando comenzaron a usarse los anestésicos de forma generalizada y el éter y el cloroformo se convirtieron en productos rentables para las empresas de tintes, y en parte porque, a raíz de la teoría microbiana de la enfermedad, surgió la necesidad de los antisépticos. Estos eran casi todos fenoles (sustancias químicas enlazadas a hidrocarburos aromáticos), que la industria de los tintes venía usando desde hacía años en la síntesis de componentes.
Los antipiréticos (para bajar la fiebre) y los analgésicos (para aliviar el dolor) se descubrieron igual que el tinte malva: por accidente durante la búsqueda de otra cosa. El Dr. Ludwig Knorr, de Erlangen, andaba como otros detrás de un sustituto de la quinina cuando descubrió que el compuesto pirazolona que acababa de producir tenía propiedades analgésicas y antipiréticas. Höchst, la empresa química fundada en 1863, compró en 1883 los derechos de este fármaco, al que pronto siguieron otras sustancias de acción parecida, de las cuales las más notables fueron «Antifebrina» (1886), acetanilida, fenacetina o p-etoxiacetanilida (1887), dimetilaminoantipirina, comercializada como «Piramidon» por Höchst (1893), y aspirina (1897). Los sedantes aparecieron en la década de 1890: Sulfonal y Trional (fabricados por Bayer, también fundada en 1863, esta vez en Barmen), e Hypnal y Valyl (Höchst). Las investigaciones de Koch y Pasteur sobre inmunología llevaron a Höchst a la producción a gran escala de sueros y vacunas para el tratamiento de enfermedades tan temidas como la difteria, el tifus, el cólera y el tétano.
A raíz de los éxitos de Bayer, creció enormemente el interés en los fármacos, y varias compañías comenzaron a contratar bacteriólogos, veterinarios y otros especialistas. El nuevo campo de los insecticidas promovió la construcción de invernaderos-laboratorio donde botánicos y entomólogos testaban la capacidad letal de los plaguicidas. Estos diversos desarrollos (en botánica, zoología, química) convergieron hacia el final del siglo gracias a los trabajos de Rudolf Virchow, Robert Koch y Robert Ehrlich.

La vida como suma de acciones físicas y químicas
Rudolf Carl Virchow fue uno de los médicos de mayor éxito del siglo XIX. Su larga carrera fue el epítome del auge de la medicina experimental después de 1840, un auge que transformó una disciplina que hasta entonces había sido en su mayor parte clínica y precientífica. No suele reconocerse el hecho de que la medicina científica solo despegó después de que la biología y la química comenzasen a converger [206].
Virchow nació en 1821 en el seno de una familia de granjeros de una pequeña ciudad de mercado en Pomerania. Hombre bajo, de cara redonda y ojos penetrantes, sus habilidades le permitieron recibir en 1839 una beca militar para estudiar medicina en el Instituto Friedrich-Wilhelm de Berlín. Esta institución se había diseñado específicamente para proporcionar una educación a quienes normalmente no se la habrían podido permitir, a cambio de lo cual debían servir durante algún tiempo en el servicio médico del ejército (Von Helmholtz gozó de una beca parecida).
Virchow fue siempre un buen y franco comunicador, y en 1845 pronunció dos conferencias ante una influyente audiencia en el Instituto Friedrich-Wilhelm en las que arrumbaba todas las influencias trascendentales de la medicina (y la fuerza vital) y argumentaba que el progreso solo vendría de tres direcciones principales: observaciones clínicas, «que incluyen el examen del paciente con la ayuda de métodos fisicoquímicos»; la experimentación animal «para testar etiologías específicas y estudiar los efectos de ciertos fármacos»; y anatomía patológica, sobre todo a nivel microscópico. «La vida —insistía— no es más que la suma de acciones físicas y químicas, en esencia la expresión de la actividad celular». Gracias a estos puntos de vista, en 1847, cuando todavía no había cumplido treinta años, fue nombrado instructor en la Universidad de Berlín bajo la dirección del ubicuo Johannes Müller.
Pero Virchow nunca fue un simple médico. Sus creencias políticas lo llevaron a participar en las revueltas de 1848 en Berlín, donde luchó en las barricadas y posteriormente fue miembro del Congreso Democrático de Berlín y editor del semanario Die Medizinische Reform. Fueron tiempos emocionantes, pero en 1849, a consecuencia de su implicación política, fue suspendido de sus cargos académicos. Dejó Berlín y aceptó una cátedra de anatomía patológica de reciente creación en la Universidad de Wurzburgo, la primera de su clase en Alemania. Durante su estancia allí estuvo algún tiempo distanciado de su actividad política y fue entonces cuando realizó sus mayores aportaciones científicas, en particular estableciendo el concepto de «patología celular». Fue en Wurzburgo donde llevó a cabo sus principales investigaciones microscópicas sobre la inflamación vascular y los problemas de trombosis y embolismos, términos que él mismo acuñó. Fue también el primero en reconocer las células de la leucemia y fundó el campo de la patología comparada, que se basa en la comparación de enfermedades compartidas por humanos y animales, especialmente mamíferos. En 1856, Virchow regresó a Berlín como catedrático de anatomía patológica y director del recién creado Instituto de Patología.
La habilidad suprema de Virchow fue la divulgación de la idea de la patología celular, la idea de que el progreso en la medicina se derivaría de un conocimiento profundo de lo que le ocurre a las células durante la enfermedad, lo que implicaba observación y experimentación, no especulación. Para Virchow el microscopio era la herramienta central para obtener conocimiento [207].
Lo mismo puede decirse de Robert Koch (1843-1910), el hombre que concibió muchos de los principios básicos y de las técnicas de la bacteriología moderna. Fue uno de trece hermanos y, para cuando estaba listo para asistir a la escuela primaria, ya había aprendido por su cuenta a leer y escribir. En la universidad pensó primero en estudiar filología en Gotinga, pero finalmente se inclinó por las ciencias naturales. Todavía no se enseñaba bacteriología en Gotinga, pero tras graduarse en 1866 Koch asistió al curso de patología de Rudolf Virchow en el hospital Charité de Berlín. Pero sus éxitos sin duda le deben mucho (más incluso que los de Virchow) a la magnitud de sus investigaciones microscópicas. Instaló un laboratorio en su propia casa, donde tenía un excelente microscopio fabricado por Edmund Hartnack en Potsdam. Comenzó por estudiar el ántrax.
Se sabía desde hacía algún tiempo que el ántrax era causado por unos microorganismos con forma de barra que se observaban en la sangre de ovejas infectadas. La primera contribución de Koch fue inventar técnicas para cultivarlas en muestras de sangre de vaca, lo que le permitió estudiar los microorganismos al microscopio, y descubrió que, aunque los bacilos eran de vida corta, las esporas seguían siendo infecciosas durante años. Demostró además que el ántrax solo se desarrollaba en los ratones cuando el inóculo contenía bacterias viables o esporas de Bacillus anthracis, unos resultados que publicó en 1877 acompañados de un artículo técnico en el que daba detalles de su método para fijar películas finas de cultivos bacterianos sobre portaobjetos de cristal para microscopio, lo que le permitía aplicar tinciones de anilinas.
El siguiente paso de Koch consistió en equipar su microscopio con el nuevo condensador y sistema de inmersión en aceite de Ernst Abbe, lo que le permitió detectar organismos bastante más pequeños que B. anthracis. Gracias a ello, usando ratones y conejos identificó seis infecciones contagiosas que eran patológica y bacteriológicamente diferenciables, y dedujo que las enfermedades humanas debían ser el resultado de bacterias patógenas parecidas [208].
A raíz de estos logros, y a pesar de algunos desagradables desacuerdos con Louis Pasteur en torno a la prioridad de los estudios del ántrax, que adoptaron matices nacionalistas, en 1880 Koch fue nombrado consejero para el gobierno (Regierungsrat) en el Departamento Imperial de Salud ( Kaiserlichen Reichsgesundheitsamt) de Berlín. Allí, donde compartía un pequeño laboratorio con sus ayudantes, Friedrich Loeffler y Georg Gaffky, ambos médicos militares, recibió el encargo de desarrollar métodos para aislar y cultivar bacterias patógenas y establecer principios científicos para mejorar la higiene y la salud pública.
En 1881, Koch dirigió su atención a la tuberculosis. En el plazo de seis meses, «trabajando solo y sin siquiera mentarlo a sus colegas», confirmó que la enfermedad era contagiosa (lo que no todo el mundo aceptaba) y aisló a partir de varios especímenes de tubérculos de origen animal o humano un bacilo que tenía propiedades de tinción características. Luego indujo la enfermedad inoculando varias especies de animales con cultivos puros de esta bacteria. Su conferencia ante la Sociedad Fisiológica de Berlín, pronunciada el 24 de marzo de 1882, fue descrita por Paul Ehrlich como «el mayor acontecimiento científico». La demostración del bacilo de la tuberculosis en el esputo no tardó en aceptarse como el principal método de diagnóstico [209].
Aquel mismo año se produjo un brote de cólera en el delta del Nilo. El gobierno francés, alertado por Louis Pasteur de la posibilidad de que la epidemia alcanzase a Europa, e informado de que la causa del cólera «era probablemente microbiana», envió a Alejandría una misión científica formada por cuatro hombres. Koch llegó apenas una semana más tarde, a la cabeza de una comisión oficial germana. A los pocos días ya había observado colonias de unos diminutos bacilos en las paredes del intestino delgado de diez cadáveres de personas que habían fallecido a causa del cólera. Luego los encontró en unos veinte pacientes de cólera. Aunque el hallazgo era prometedor, este organismo no llegaba a inducir el cólera cuando se administraba oralmente o se inyectaba en monos u otros animales. No obstante, las observaciones de Koch en Egipto se confirmaron en Bengala, adonde se dirigió a continuación su comisión, y donde el cólera era endémico. En la primavera de 1884 identificó unos estanques que los pueblos usaban para obtener agua de boca y para otros usos domésticos como la razón de que el cólera fuese endémico en Bengala.
Aunque Koch y su obra se llevaron gran parte de la fama (y siguen haciéndolo), los bacilos de la erisipela porcina, del muermo (una enfermedad infecciosa de los equinos) y de la difteria fueron aislados por Loeffler, y el bacilo tifoideo por Gaffky. Los progresos se sucedían a tal ritmo que se establecieron nuevos institutos de salud pública en Prusia y, en 1885, Koch fue nombrado para la nueva cátedra de higiene de la Universidad de Berlín y se creó un Instituto de Enfermedades Infecciosas también en Berlín. El círculo de influencia de Koch era entonces más impresionante que el de Virchow, e incluía de Paul Ehrlich a August von Wassermann. Gracias a las investigaciones de Koch, en 1900 se aprobó una ley de control de enfermedades contagiosas, el mismo año en que su instituto se mudó a una edificación mayor, adosada al hospital Rudolf Virchow, que se convertía así en el complejo médico más famoso del mundo [210].
La convergencia de tintes y fármacos fue el primer caso notable de interacción entre química y biología. (En algunos casos, las compañías químicas usaban los productos de desecho de la industria de los tintes como material de experimentación en la investigación farmacéutica). Al mismo tiempo, la identificación de las células como entidades homólogas en plantas y animales, su papel en la patología y el propio hecho de que los tintes colorearan distintos patógenos de forma distinta, fue una segunda convergencia importante en este campo, algo que no se podría haber concebido con anterioridad. Para empezar, el carbón se veía como un mineral, pero el alquitrán de hulla resultó ser una sustancia orgánica, un vínculo más entre las sustancias supuestamente inorgánicas y las orgánicas, como Wöhler había mostrado en su famoso experimento.
El vínculo entre tintes y fármacos fue, por tanto, junto a la identificación de células, un ingrediente de suma importancia para la convergencia de las ciencias. La propensión extremadamente útil de las entidades patológicas a reaccionar de forma distinta ante distintos tintes, que permitía estudiar la patología celular en función de los colores producidos por las tinciones, fue una unificación que conduciría a una nueva manera de entender la química básica del cuerpo.

El descubrimiento de los antibióticos y la respuesta inmune en los humanos
A pesar de los estimulantes logros de Virchow y Koch, cuyos efectos aún tardarían en extenderse, a principios del siglo XX la salud humana seguía estando dominada por una «trinidad salvaje» de enfermedades: tuberculosis, alcoholismo y sífilis. La tuberculosis se prestaba al drama y la ficción. Afligía por igual a jóvenes y viejos, a ricos y pobres, y por lo general producía una muerte lenta y prolongada. Bajo los nombres de «consunción» o «tisis» aparece en La bohème, La traviata, Muerte en Venecia y La montaña mágica. Antón Chéjov, Katherine Mansfield y Franz Kafka sucumbieron a esta enfermedad.
El temor y la reprobación moral que hasta hace un siglo rodearon a la sífilis tenían tanto peso que apenas se hablaba del problema a pesar de su magnitud. No obstante, en Bruselas en 1899 el Dr. Jean Alfred Fournier estableció la especialidad médica de la sifilología, que usó técnicas epidemiológicas y estadísticas para poner de manifiesto que la enfermedad no afectaba únicamente a las clases marginales sino a todos los niveles de la sociedad, que las mujeres la contraían antes que los hombres y que su prevalencia era «abrumadora» entre las chicas cuya extracción miserable las forzaba a dedicarse a la prostitución. Fournier dividió la sífilis en tres fases, primaria, secundaria y terciaria, lo cual resultó de gran utilidad para la investigación clínica [211].
En marzo de 1905, Fritz Schaudinn, un zoólogo de Röseningken, en Prusia del Este, observó al microscopio «unas espiroquetas diminutas, móviles y muy difíciles de estudiar» en una muestra de sangre extraída de un sifilítico. Una semana más tarde Schaudinn y Eric Achille Hoffmann, un bacteriólogo y catedrático de Halle y Bonn, observaron las mismas espiroquetas en muestras obtenidas a partir de diferentes partes de un paciente que poco después desarrollaría roséola, las manchas rosáceas que desfiguran la piel de los sifilíticos. Pese a lo difícil que era su estudio a causa de su pequeño tamaño, las espiroquetas eran claramente el microbio de la sífilis, y recibió el nombre de Treponema (por su semejanza con un hilo retorcido) pallidum (por su color pálido). Antes de final de año August von Wasserman, en Berlín, ya había diseñado un test de diagnóstico, lo que significaba que ahora era posible identificar tempranamente la enfermedad y prevenir su propagación. Pero todavía faltaba un cura.
El hombre que la encontró fue Paul Ehrlich (1854-1915). Nacido en Strehlen, en la Alta Silesia (en las fronteras polaca y checa), su observación crucial fue que a medida que se iban descubriendo nuevos bacilos, asociados a distintas enfermedades, las células infectadas también variaban en su respuesta a las técnicas de tinción. Era evidente que la bioquímica de aquellas células se veía afectada en función del bacilo introducido. Este resultado fue en cierto modo la culminación de la convergencia entre la investigación en patología celular y la investigación sobre tintes orgánicos que se había desarrollado durante las décadas anteriores. Esta deducción le dio a Ehrlich la idea de la antitoxina, lo que él llamada «bala mágica», una sustancia especial secretada por el cuerpo para contrarrestar las invasiones [212].
En 1907, Ehrlich ya había producido no menos de 606 sustancias o «balas mágicas» distintas diseñadas para contrarrestar diversas enfermedades. La mayoría de ellas no producían magia alguna, pero la «Preparación 606», como se la conocía en el laboratorio de Ehrlich, resultó ser eficaz para el tratamiento de la sífilis. Se trataba del hidrocloruro de dioxidiaminoarsenobenceno, o sea, una sal arsénica. Pese a sus graves efectos secundarios debidos a su toxicidad, el arsénico era un remedio tradicional para la sífilis, y los médicos llevaban algún tiempo experimentando con distintos compuestos con una base de arsénico.
Durante el año, el estudio de Ehrlich, siempre desordenado, quedó abarrotado de fotografías de pollos, ratones y conejos, todos los cuales habían sido infectados deliberadamente con sífilis pero, tras administrarles la Preparación 606, mostraban una progresiva curación. Para asegurarse, Ehrlich envió la Preparación 606 a varios laboratorios para ver si otros investigadores obtenían los mismos resultados. Se enviaron cajas a San Petersburgo, a Sicilia y a Magdeburgo. En el congreso de Medicina Interna celebrado en Wiesbaden el 19 de abril de 1910, Ehrlich explicó a los delegados que en octubre de 1909 había tratado con éxito a veinticuatro personas aquejadas de sífilis con su Preparación 606. Ehrlich llamó Salvarsán a esta bala mágica, que tenía el nombre químico de arsfenamina [213].

* * * *

Estos descubrimientos encajan a la perfección en nuestro tema. Joseph Fruton, profesor de bioquímica en Yale, ha llamado la atención sobre «la interacción entre la química y la biología» (en su propia expresión) de una forma mucho más amplia de la considerada aquí, pues incluye la fermentación, los enzimas, las proteínas, la actividad muscular, el ciclo del ácido cítrico, la glucosa y el glucógeno, los esteroides y la actividad génica. La propia medicina que, como este mismo autor señala, solo se hizo verdaderamente científica durante la década de 1840, puede verse como la beneficiaria de la interacción entre la química y la biología en bien de la humanidad. De hecho, es la beneficiaria directa de los desarrollos del siglo XIX en seis ciencias distintas, a saber, histología, patología celular, tintes de anilina, fármacos, tecnología de microscopia y fotografía, todas las cuales permitieron a los científicos estudiar sustancias y organismos patológicos a nivel microscópico.
No se acaba ahí. Durante unos cincuenta años, los biólogos venían observando al microscopio cierto comportamiento característico de las células cuando se reproducían. Habían visto que se formaba cierto número de minúsculas hebras que formaban parte de los núcleos de las células y se separaban durante la división. Ya en 1882, Walther Fleming, catedrático de biología en Kiel, había publicado que cuando se teñían, estas hebras adquirían un color más intenso que el resto de la célula. Esto llevó a especular que las hebras estaban formadas por una sustancia especial, a la que se dio el nombre de cromatina porque les confería el color. Las hebras no tardaron en recibir el nombre de cromosomas, pero hubieron de pasar nueve años antes de que, en 1891, Hermann Henking, de Leipzig, mientras examinaba los testículos del chinche de San Antonio ( Pyrrhocoris), realizara la siguiente observación crucial: que durante la meiosis (una forma de división celular), la mitad de los espermatozoides recibían once cromosomas mientras que la otra mitad recibía también once, pero además un cuerpo adicional que respondía más fuertemente a la tinción. Henking no estaba seguro de que este cuerpo adicional fuese también un cromosoma, así que lo designó simplemente «X». Nunca le pasó por la cabeza que, como una mitad lo recibía y la otra mitad no, el «cuerpo X» podía determinar el sexo del insecto. Pero otros no tardaron en sacar esa conclusión [214].
Tras la observación de Henking, no tardó en confirmarse que los mismos cromosomas aparecen con la misma configuración en generaciones sucesivas, y Walter Sutton, en Columbia, demostró en 1902 que durante la reproducción unos cromosomas como aquellos se juntaban primero para luego separarse. Esta configuración sugería que los cromosomas se comportaban de acuerdo con una ley estadística propuesta por un monje de Moravia llamado Gregor Mendel. Después de tantos años interactuando con la química, la biología se alineaba ahora con la matemática [215].

* * * *

El descubrimiento de la importancia de las células, el modo en que los tintes llevaron hasta los fármacos y el modo en que las técnicas de tinción, dentro de las células, ayudaron a revelar la naturaleza de la enfermedad, fueron casos notables de la forma en que los descubrimientos de una ciencia pueden promover rápidamente progresos en otra disciplina. En este campo no se produjo ningún momento seminal, como en el caso de los artículos de Clausius en los Annalen o del libro de Darwin de 1859; sin embargo, las transformaciones que tuvieron lugar durante la creación de la medicina científica se produjeron más o menos al mismo tiempo. Quizá estos desarrollos no tuvieran una influencia tan inmediata como aquellos otros, pero los cambios tratados en este capítulo subrayan que a mediados del siglo XIX se produjo un marcado cambio en el clima intelectual. Se mire donde se mire, una ciencia se superponía con otra, convergía con ella y la sustentaba.

Capítulo 7
La unidad del movimiento científico: «la integración es la nueva meta»

En 1924, un grupo de científicos y filósofos de Viena comenzó a reunirse cada jueves. Organizados inicialmente como Sociedad Ernst Mach, en 1929 cambiaron su nombre por el de Wiener Kreis, o Círculo de Viena. Con este título se convirtieron en lo que puede considerarse el movimiento filosófico más importante del siglo XX. Uno de sus proyectos principales era explorar precisamente el tema que nos ocupa: la unidad de la ciencia.
El espíritu que guiaba al círculo era Moritz Schlick (1882-1936), profesor de filosofía en la Universidad de Viena desde 1922. Como muchos miembros del Kreis, se había formado como científico, en su caso como físico bajo la dirección de Max Planck, de 1900 a 1904, justo en el momento en que Planck estaba concibiendo su idea del cuanto. Entre la veintena de miembros del círculo establecido por Schlick estaban: Otto Neurath, oriundo de Viena y destacado polímata judío; Rudolf Carnap, un matemático que había estudiado con Gottlob Frege en Jena; Philipp Frank, otro físico; Heinz Hartmann, un psicoanalista; Kurt Gödel, un matemático; y ocasionalmente Karl Popper, quien habría de convertirse en un influyente filósofo tras la segunda guerra mundial. Al tipo de filosofía que se desarrolló en Viena en la década de 1920 Schlick la llamó Konsequenter Empirismus, o empirismo coherente. Sin embargo, tras visitar Estados Unidos en 1929, y de nuevo en 1931-1932, nació y se fijó una nueva denominación: positivismo lógico [216].
Los positivistas lógicos pretendían realizar un enérgico ataque a la metafísica. Estaban en contra de cualquier sugerencia de que «pueda existir un mundo más allá del mundo ordinario de la ciencia y el sentido común, del mundo que nos revelan nuestros sentidos». Para los positivistas lógicos, todo enunciado que no fuese verificable, es decir, que no pudiera contrastarse empíricamente, o que no pudiese obtenerse por medio de la lógica o la matemática, carecía de sentido. Quedaban así arrumbados amplios ámbitos de la teología, la estética y la política. Con ellos, la filosofía se convertía en la sirvienta de la ciencia y en un «tema de segundo orden». Los temas de primer orden tratan del mundo (como la física y la biología), en tanto que los temas de segundo orden tratan del tratamiento que los primeros hacen del mundo. Desde este punto de vista, todo lo que la filosofía puede hacer es analizar y criticar los conceptos y teorías de la ciencia, refinarlos, hacerlos más precisos y útiles [217].
Un aspecto de este enfoque, como ya se ha observado, era una exploración de la unidad de la ciencia «con el fin de relacionar y armonizar los logros de los investigadores individuales de las distintas ramas de la ciencia» [218]. El «movimiento de la unidad de la ciencia», como dio en llamarse, comenzó formalmente durante un congreso celebrado en 1934 en la Universidad Carolina de Praga, durante el cual se decidió celebrar anualmente un congreso sobre la Unidad de la Ciencia, empezando por París el verano siguiente. En el tercero de estos congresos, se dio comienzo a la Enciclopedia universal de la ciencia unificada. Otto Neurath llevaba ahora la batuta (Schlick había sido asesinado en 1936, cuando un estudiante celoso le disparó en la escalinata de la Universidad de Viena). En cualquier caso, el primer volumen de la enciclopedia, publicado en 1938, contenía artículos de la pluma de un impresionante elenco de científicos, filósofos y matemáticos: Niels Bohr, John Dewey, Bertrand Russell y Rudolf Carnap. ¡Cómo le hubiera gustado a Mary Somerville formar parte de este grupo!
Neurath esbozó claramente los objetivos del movimiento. Comenzó por defender que una «actitud científica universal» era un prerrequisito importante para un futuro estable y progresista (recordemos que se encontraban a las puertas de la segunda guerra mundial). Argumentaba asimismo que una síntesis científica era una gran meta «racional», «con la esperanza de que la ciencia ayude a mejorar la vida personal y social». Deseaba fervientemente que se produjera una mayor cooperación entre físicos y biólogos, entre biólogos y científicos sociales, y entre lógicos y matemáticos [219]. Veía la nueva enciclopedia como una puesta al día de los objetivos de los enciclopedistas franceses del siglo XVIII.

Alcanzar «una visión y pensamiento que todo lo abarquen es un viejo anhelo de la humanidad»
Por el momento, pensaba Neurath, habría un «mosaico» de ciencias que irían combinando nuevas observaciones y nuevas construcciones lógicas de carácter y orígenes diversos. Pero insistía en que alcanzar una «visión y pensamiento que todo lo abarquen es un viejo anhelo de la humanidad» que se remontaba a la Summa de Tomás de Aquino. En el siglo XIX, Comte, Spencer y Mill habían tenido básicamente la misma idea sobre las conexiones entre la física, la biología y las ciencias sociales, pero añadía que en tiempos más recientes, una tras otra las ciencias se habían apartado de la «madre-filosofía», algo que lamentaba porque «el mosaico de la ciencia nos muestra cada vez más interconexiones, en contraste con los tiempos en los que los estudios empíricos estaban aislados. Los análisis científicos de las ciencias habían conducido a la observación de que un aumento de la intercorrelación lógica entre enunciados de la misma ciencia y entre enunciados de ciencias distintas es un hecho histórico… La evolución de tales conexiones lógicas y la integración de la ciencia es una nueva meta para la ciencia» [220].
A continuación describía el movimiento por la unidad de la ciencia, que no se limitaba al Círculo de Viena, pues hacía referencia también a grupos con objetivos parecidos en Berlín y Escandinavia, así como a Scientia en Italia y al Centre International de Synthèse en Francia. Los científicos, decía, intentaban ahora construir lo que llamaban «puentes sistemáticos» entre ciencias, es decir, «analizar los conceptos que se utilizan en distintas ciencias, teniendo en cuenta todas las preguntas referidas a la clasificación, el orden, etc.». La axiomatización de la ciencia, según decía, «parece darnos una oportunidad para utilizar términos fundamentales de forma más precisa y para preparar la combinación de ciencias distintas». Pero aceptaba que «no podemos anticipar una “axiomatización final”».
Insistía, no obstante, en que la «tesis del fisicalismo» hace hincapié en que «es posible reducir todos los términos a términos bien conocidos de nuestro lenguaje cotidiano». Pensaba que la ciencia producía su propia «cola integradora» pero rechazaba la idea de algún día fuera a surgir una «superciencia» y se preguntaba abiertamente «¿cuál es la máxima coordinación científica que todavía es posible?». De hecho, decía que «lo más que se puede alcanzar en la integración de la producción científica es una enciclopedia hecha por científicos en cooperación… El enciclopedismo puede considerarse una actitud especial» [221]. Deseaba que la enciclopedia diese con nuevas maneras de clasificar las ciencias, «una nueva forma de reunir sistemáticamente todas las ciencias especiales», y una de las ideas era un «tesauro de isotipos» que mostrase la relación entre hechos, observaciones y teorías entre distintas disciplinas.
En un brevísimo ensayo, Niels Bohr sugería que la meta del conocimiento humano debería ser la unidad y que «la historia de la ciencia nos enseña una y otra vez hasta qué punto la ampliación de nuestro conocimiento puede llevarnos a reconocer relaciones entre grupos de fenómenos hasta entonces inconexos, cuya síntesis armoniosa exige una renovada revisión de los presupuestos para una aplicación no ambigua incluso de nuestros conceptos más elementales» [222]. John Dewey le formuló una pregunta pertinente: «¿Qué tipo de unidad es factible o deseable?». Dewey creía que el mero esfuerzo de unir la experiencia humana era en sí mismo moralmente deseable, que «la convergencia hacia un centro común se logrará más fácilmente y de manera más vital por medio del intercambio recíproco que acompaña al genuino esfuerzo de cooperación». Le parecía, según él mismo decía, que la mayor necesidad se encontraba en «el vínculo entre las ciencias físico-químicas y los campos de la psicología y las ciencias sociales… con la intermediación de la biología» [223].
Bertrand Russell apuntó dos cuestiones. La primera, que por fin se comenzaba a valorar en un ámbito más amplio que la lógica matemática desempeñaba un papel importante en la adquisición de conocimiento en las distintas ciencias, reforzando de este modo los argumentos de Somerville. Y, en segundo lugar, que la unidad de método era una de las lecciones más valiosas que ofrecía la ciencia a la sociedad en general, dando así un paso hacia una mayor reciprocidad en el conjunto de la sociedad.
Por último, Rudolf Carnap formuló el reduccionismo de una forma bastante ortodoxa cuando dijo que «la biología presupone la física, pero no al contrario» [224]. Los términos físicos y lógico-matemáticos describían el mundo fundamental, y el resto (en un sentido amplio, como él mismo lo expresó), «era biología». Intentó insuflar algo de claridad en el reduccionismo. «No nos preguntamos “¿Es el mundo uno?”, “¿Son todos los sucesos, en lo fundamental, del mismo tipo?”, “¿Son los llamados procesos mentales realmente procesos físicos?”, “¿Son los procesos físicos espirituales o no?”. Es dudoso que podamos hallar contenido teórico en preguntas tan filosóficas… cuando nos preguntamos si hay unidad en la ciencia, lo planteamos como una pregunta lógica, referida a las relaciones lógicas entre los términos y las leyes de las distintas ramas de la ciencia» [225]. En su opinión, no había necesidad de examinar detalladamente las ciencias sociales «porque es fácil ver que cada término de este campo es reducible a términos de los otros campos» [226].
Tras un examen de las diversas leyes de la ciencia, expresó la opinión de que no creía, en aquel punto, que fuese posible obtener las leyes de la ciencia a partir de las de la física, y reconoció que algunos filósofos «creen que esa derivación nunca será posible». No obstante, insistió en que «entretanto, los esfuerzos dirigidos a la derivación de más y más leyes biológicas a partir de leyes físicas (en la formulación habitual: explicación de más y más procesos de los organismos con la ayuda de la física y la química) será, como ya ha sido, una tendencia muy fructífera en la investigación biológica». Por otro lado, opinaba que no se podían obtener las leyes de la psicología y de las ciencias sociales a partir de las leyes de la biología o de la física, pero que no existía ninguna razón científica que implicase que esa derivación «haya de ser en principio y para siempre imposible». Concluía, por consiguiente, que si bien en aquel momento no había unidad de leyes, la construcción de un sistema de leyes homogéneo para toda la ciencia era una meta para el futuro que «no puede demostrarse que no sea alcanzable» [227].
En un libro sobre el tema, The Unity of Science [La unidad de la ciencia], que publicó en 1934, Carnap llevó sus argumentos un poco más lejos. El mensaje central del libro era totalmente reducionista: «Todos los enunciados de la ciencia pueden traducirse al lenguaje físico» [228]. Creía que, al menos por el momento, la ciencia no constituía una unidad sino que podía distinguirse entre las ciencias formales (lógica y matemática) y las ciencias empíricas. Reconocía que existía una división de opiniones en torno a las ciencias; que, de un lado, son fundamentalmente distintas en cuanto a su tema de estudio pero que, por otro lado, todos los enunciados empíricos «pueden expresarse en un único lenguaje, todos los estados son de un único tipo y pueden conocerse con el mismo método». No existía, en su opinión, ninguna brecha entre la filosofía y las ciencias porque, decía, «el análisis del lenguaje ha demostrado que en último término la filosofía no puede consistir en un sistema de enunciados distinto, ya sea de rango igual o superior a las ciencias empíricas». «La observación», decía, solo es un método diseñado para ayudar a producir conocimiento [229].
Todos los enunciados cuantitativos, decía a continuación, si tienen algún significado, pueden traducirse a enunciados físicos de una forma particularmente simple y pueden establecerse experimentalmente en otros campos sensoriales. A esto lo llamó fisicalizar. Los físicos, decía, creen que puede alcanzarse el acuerdo «con cualquier grado de exactitud alcanzable por los investigadores individuales; y cuando ese acuerdo no se da en la práctica, la causa está en dificultades técnicas (imperfección de los instrumentos, falta de tiempo, etc.). Las determinaciones físicas son válidas intersubjetivamente» [230].
Por si eso no era ya lo bastante fuerte, añadía: «Se demostrará que todos los otros lenguajes usados en la ciencia (por ejemplo, en biología, psicología o las ciencias sociales) pueden reducirse al lenguaje físico.Aparte del lenguaje físico (y sus sublenguajes) no se conoce ningún otro lenguaje intersubjetivo». Carnap creía que la química, la geología y la astronomía no suponían ninguna amenaza para este argumento. Desde su punto de vista, en la biología, una vez despojada de sus disputas sobre el vitalismo («todavía violentamente controvertido»), se aclararía la cuestión de si las leyes naturales que explican «todos los fenómenos inorgánicos pueden constituir también una explicación suficiente en el dominio de lo orgánico… El Círculo de Viena sostiene que la investigación biológica en su forma actual no es adecuada para dar respuesta a esta pregunta». Pero añadía que esperaba una respuesta «afirmativa» en el futuro. Creía que cuando se dividiese la biología en sus distintas partes (fertilización, metabolismo, huevo, división celular, crecimiento, regeneración) la razón del reduccionismo se vería más clara, que todo enunciado de la biología podría verdaderamente traducirse al lenguaje físico. Podía entender que la psicología provocase más controversia, pero creía que la traducción de la sustancia de la psicología a la ciencia física estaba bien cimentada y que la sociología, que incluía todos los fenómenos culturales y económicos, «la seguiría fácilmente», siempre y cuando los «pseudoconceptos» («espíritu objetivo», «significado de la historia») se mantuviesen al margen [231].
Al final defendía que, en la medida que pudiéramos, deberíamos intentar usar en la vida cotidiana un lenguaje tan cercano a los hallazgos y prácticas de la ciencia como fuese posible. Ese lenguaje debería ser preciso, limitado a lo que se podía demostrar empíricamente. «Cada enunciado del nuevo lenguaje podría interpretarse como si tuviese el mismo sentido que un enunciado del lenguaje físico, es decir, cada enunciado del nuevo lenguaje haría referencia a hechos físicos, a sucesos espacio-temporales». Y, para acabar: «Como el lenguaje físico es, por tanto, el lenguaje básico de la ciencia, toda la ciencia deviene física» [232].

El principio del dictador
En números posteriores, la Enciclopedia de la ciencia unificada se ocupó de los fundamentos de varios aspectos de la ciencia: de la matemática, la física, la biología y la psicología. En total, entre 1938 y 1969 se publicaron diecinueve monografías, de las cuales la más conocida posiblemente sea «La estructura de las revoluciones científicas» de Thomas Kuhn. Pero en su conjunto no se puede decir que se colmasen las expectativas del primer volumen ni se lograsen progresos fundamentales hacia la unidad de las ciencias, aunque «Formación de conceptos en la ciencia empírica», de Carl Hempel, se acercase. Una de las razones del fracaso fue que, aunque la serie de publicaciones se prolongase hasta 1969, el sexto congreso internacional, celebrado en Chicago en 1941, poco antes del ataque japonés a Pearl Harbor, resultó ser el último.
Pero donde el movimiento sí tuvo éxito fue en su énfasis en el vínculo potencial entre las matemáticas y las ciencias. Por aquel tiempo había otros dos intentos, más específicos, de explorar esta relación. Uno se abortó de una forma interesante; el otro fue extraordinariamente exitoso, con consecuencias a largo plazo. Todos llevaron el razonamiento de Mary Somerville mucho más lejos de lo que ella nunca hubiese imaginado, aunque sin duda habría aprobado sus objetivos.
Los últimos años de la década de 1920 y los primeros de la de 1930 fueron, como ya hemos visto, tiempos de gran excitación en la física, con el desarrollo de la mecánica cuántica y el descubrimiento del neutrón y de nuevas partículas en los rayos cósmicos. También fue un tiempo en el que comenzaron a emerger en la biología ideas nuevas y no del todo independientes.
La controversia sobre el vitalismo había tardado mucho en morir en el siglo XIX, pero finalmente aquella visión fue reemplazada por una concepción más mecanicista de la vida, aunque no del todo hasta bien entrado el siglo XX para muchos biólogos que se aferraban a la idea de que la biología no podía reducirse a química y física, sino que requería su propio conjunto de leyes [233]. En estas circunstancias surgió una nueva raza de biólogos, los conocidos como «organicistas», que no eran ni vitalistas ni mecanicistas, sino que insistían en que debía haber algo sobre la vida que todavía no comprendíamos y que, según creían, llegaría a explicarse con la ayuda de leyes «todavía no descubiertas» de la física y la química. Probablemente el más célebre de los organicistas fuese el austriaco Ludwig von Bertalanffy, un experto en el desarrollo biológico que argumentaba que se necesitaban algunos principios biológicos nuevos para captar plenamente en qué consistía la vida. No creía, por ejemplo, que las leyes clásicas de la termodinámica pudieran aplicarse a los «sistemas abiertos», es decir, a los organismos vivos en oposición a los sistemas mecánicos o electroquímicos, y que la vida solo llegaría a comprenderse con la ayuda de un enfoque más interdisciplinario.
Entre los científicos influidos por Von Bertalanffy se encuentra un físico cuántico, Pascual Jordan, de Hanover. Jordan estudió con Max Born en Gotinga y en 1925 ambos publicaron un artículo clásico, «Sobre la mecánica cuántica». Un año más tarde apareció un segundo artículo escrito por Jordan, Born y Heisenberg que, a partir de los descubrimientos originales del último, explicaba matemáticamente el comportamiento del mundo atómico [234].
En 1927, Jordan se desplazó a Copenhague para trabajar con Niels Bohr, y alrededor de 1929 ambos científicos comenzaron a debatir sobre si la mecánica cuántica podía tener alguna aplicación en el campo de la biología. Durante los dos años siguientes, cuando Jordan ya había regresado a Alemania para ocupar una plaza en la Universidad de Rostock, mantuvieron una correspondencia en la que exploraron más a fondo la convergencia entre la mecánica cuántica y la biología. Sus ideas culminaron en lo que, en palabras de Jim Al-Khalili y Johnjoe McFadden, «podemos considerar el primer artículo científico sobre biología cuántica». Publicado en 1932, llevaba por título «La mecánica cuántica y los problemas fundamentales de la biología y la psicología».
Para entonces, sin embargo, Jordan estaba politizado, como tantos otros científicos alemanes, por la ideología nazi, y su teorización científica se había hecho más especulativa, llegando incluso a afirmar que el concepto de dictador era un principio central de la vida. (Argumentaba que en las bacterias, por ejemplo, cierto número de «moléculas especiales dotadas de una autoridad dictatorial sobre el organismo entero» forman un «centro de dirección» de la célula viva). «La absorción de un cuanto de luz en el centro de dirección de la célula puede llevar al organismo entero a la muerte y la disolución, de modo parecido a como un ataque ejecutado con éxito contra un estadista principal puede llevar a una nación entera a un profundo proceso de disolución».
Como dicen Jim Al-Khalili y Johnjoe McFadden, esta mezcla de ideología nazi y biología es a un tiempo fascinante, escalofriante y bochornosa. De hecho, había en ella el germen de una idea que habría de brotar mucho más tarde. Sin embargo, como Alemania fue derrotada en la segunda guerra mundial, la afiliación nazi de Jordan hizo que él y sus teorías quedasen ampliamente desacreditadas entre sus colegas y sus ideas se «dispersaron a los cuatro vientos» [235].

El orden espontáneo en el reino de las matemáticas
Mientras el Círculo de Viena ponía en marcha su movimiento de la «unidad en la ciencia» y los nazis hacían todo lo posible por desviar el curso de la ciencia en beneficio propio, un escocés de la lejana Fife preparaba la segunda edición de un libro que con el paso de las décadas habría de tener una profunda influencia en la integración de las ciencias. D’Arcy Wentworth Thompson fue un peculiar profesor de zoología en la Universidad de Saint Andrews que había recolectado plantas y animales hasta en el lejano estrecho de Bering, y que pisaba las calles adoquinadas de la ciudad calzado con zapatillas de tenis y un loro al hombro. (Los adoquines marcaban el lugar donde habían sido ejecutados en la hoguera unos mártires protestantes). Había publicado en 1917 el primer volumen de Sobre el crecimiento y la forma. Ya entonces era, con sus 793 páginas, un libro sustancial, pero la segunda y definitiva edición, publicada en 1942, contenía 1.116 páginas (y eso en un tiempo en que, a causa del racionamiento de papel por la guerra, los libros tendían a ser cortos).
Como además de biólogo Thompson era erudito de clásicas, su libro estaba repleto de alusiones cultas (se dice que influyó en Claude Lévi-Strauss, Salvador Dalí, Henry Moore y Jackson Pollock, entre otros). Pero el tema principal era que, a juicio de Thompson, los biólogos de su tiempo estaban subyugados por la teoría de la evolución de Darwin y no le prestaban la atención suficiente al papel que desempeñaban la física y la mecánica (y, por tanto, las matemáticas) en la determinación de las formas que adoptaban los seres vivos. Defendía su tesis a conciencia, con cientos de ejemplos, y al hacerlo generó ideas que para muchos, biólogos pero también otros científicos y no científicos, eran del todo originales.
En el caso más simple de los discutidos, el libro mostraba cómo las formas adoptadas por las medusas coinciden con las que adoptan espontáneamente las gotas de un líquido dentro de un fluido viscoso. Mostraba también de qué modo las estructuras de las plantas seguían la secuencia de Fibonacci, una antigua serie de números en la que cada entero de la secuencia es el resultado de la suma de los dos números anteriores: 0, 1, 1, 2, 3, 5, 8, 13, 21, 34, y así sucesivamente. Mostraba que la ramificación de los vasos sanguíneos del cuerpo está diseñada para minimizar la cantidad de energía necesaria para empujar la sangre por todo el cuerpo, y proponía una ecuación matemática que describía la presión del líquido, la tensión de las paredes de los vasos y el radio de la curvatura. Mostraba que la trayectoria seguida por un insecto al acercarse a una fuente de luz tiene una expresión matemática. «A causa de la estructura de sus ojos compuestos, estos insectos no miran directamente al frente sino que buscan una luz que ven de través, con cierto ángulo. Como continuamente ajustan su trayectoria a este ángulo constante, una trayectoria espiral acaba llevándolos a su destino» [236]. Mostraba cómo en los animales se relaciona el tamaño con la velocidad, el tamaño con la capacidad de salto, el tamaño y la visión, y en una extraordinaria serie de dibujos precisos, mostraba, por ejemplo, cómo dos especies distintas de peces, Argyropelecus olfersi y Sternoptyx diaphana, presentaban «exactamente el mismo contorno» salvo por el hecho de que las coordenadas oblicuas del segundo estaban inclinadas en un ángulo de 70 grados. Y añadía que aquella alteración «es precisamente análoga a la más simple y común de las deformaciones a las que se ven sometidos los fósiles a consecuencia de las tensiones en cizalla dentro de la roca sólida» [237]. No menos interesante era su sugerencia de que los cráneos de chimpancés, babuinos y humanos están matemáticamente relacionados y que es posible calcular sus coordenadas.
* * * *
Thompson estaba menos interesado en la unidad de la ciencia que en la belleza de las matemáticas y creía que había dado con un área que daría grandes réditos en la investigación matemática. Citando a un colega científico, concluía diciendo: «Adyacente en el espacio y coetáneo en el tiempo es el reino de las matemáticas; en este ámbito su dominio es supremo y si no es de acuerdo con su orden, nada puede existir, nada ocurrir que contradiga sus leyes» [238].
En otras palabras, Thompson identificaba un vínculo fundamental entre las formas biológicas y la mecánica, entre la física y la matemática, y de este modo, hasta cierto punto, se alineaba con el argumento de Rudolf Carnap de que física y matemáticas proveen un lenguaje universal que subyace a la unidad de la ciencia. Durante años Thompson fue visto como un heterodoxo, pero también eso cambiaría con el tiempo.

Capítulo 8
Hubble, Hitler, Hiroshima: Las unificaciones de Einstein quedan vindicadas

Cuando Einstein produjo su teoría de la relatividad, la mayoría de los científicos daban por sentado que el universo era estático. Pero la relatividad guardaba una sorpresa para los astrónomos: las ecuaciones de Einstein predecían que el universo tenía que estar expandiéndose o contrayéndose. Tan extraña era la idea, incluso para el propio Einstein, que modificó sus ecuaciones para que su universo teórico se mantuviese quieto.
Alexander Friedmann, un joven científico ruso de San Petersburgo (y aficionado a volar en globo), no supo de las teorías de Einstein hasta pasada la primera guerra mundial (durante el conflicto había sido piloto de bombardero). Aun así, fue el primero que obligó a Einstein a pensárselo otra vez. Friedmann había aprendido la teoría de la relatividad por su cuenta, y al hacerlo se percató de que Einstein había cometido un error y que el universo tenía que estar expandiéndose o contrayéndose. Aquella idea le pareció tan emocionante que se atrevió a mejorar el trabajo de Einstein, desarrollando un modelo matemático que concordara con su convicción, y se lo envió al alemán. Sin embargo, a principios del siglo XX el gran hombre se había hecho famoso y estaba inundado de correspondencia, y las ideas de Friedmann se perdieron en la avalancha.
No fue hasta que un colega común les presentó cuando Einstein conoció las ideas del ruso, y comenzó a dudar de su «constante cosmológica» y sus implicaciones. Pero no fue Einstein quien llevó más lejos las ideas de Friedmann. Un cosmólogo belga, Georges Lemaître, junto a otros científicos, fueron elaborando aquellas ideas hasta que, ya avanzada la década de 1920, desarrollaron completamente una descripción geométrica de un universo homogéneo en expansión [239]. Lemaître sugirió incluso que el universo podría haberse originado como un punto en el pasado remoto a partir de un «átomo primigenio» o «huevo cósmico», en lo que más tarde se conocería como teoría del Big Bang.
Una cosa era la teoría. Pero los planetas y las estrellas y las galaxias no son precisamente entidades pequeñas. Sin duda, si el universo se estuviese expandiendo, deberíamos poder observarlo. Una manera de hacerlo era mediante la observación de lo que entonces se llamaban «nebulosas espirales». Hoy sabemos que las nebulosas son galaxias lejanas, pero entonces, con los telescopios de la época, no eran más que pequeñas manchas borrosas en el firmamento.
Se descubrió entonces que la luz que emanaba de las nebulosas espirales estaba desplazada al extremo rojo del espectro. Una forma de ilustrar el significado de este corrimiento al rojo es por analogía con el efecto Doppler, así llamado en honor a Christian Doppler, el físico austriaco que logró explicarlo en 1842. Cuando un tren o una motocicleta, por ejemplo, se acerca hacia nosotros, el ruido que emite cambia, y luego, al pasar de largo y alejarse, el ruido vuelve a cambiar. La explicación es sencilla: a medida que el tren o la moto se acerca, las ondas de sonido alcanzan el observador cada vez más cerca unas de otras: los intervalos se acortan. A medida que el tren o la moto se alejan, y con ellos la fuente del sonido, el intervalo se va haciendo mayor. Algo parecido ocurre con la luz: cuando la fuente de luz se acerca, la radiación se desplaza al extremo azul del espectro, mientras que cuando se aleja se corre hacia el extremo rojo.
Las primeras pruebas cruciales de la teoría se realizaron en 1922 de la mano de Vesto Slipher, del Observatorio Lowell de Flagstaff, en Arizona. (El Lowell se había construido en 1893 para investigar los «canales» de Marte). En este caso, Slipher predijo que se hallarían corrimientos al rojo en un lado de las nebulosas espirales (la parte que gira alejándose del observador) y corrimientos al azul en el otro lado (porque en este la espiral giraba hacia la Tierra). Sin embargo, lo que encontró fue que todas menos cuatro de las cuarenta nebulosas que había examinado producían únicamente un corrimiento al rojo [240]. ¿Por qué? La confusión probablemente surgiera del hecho de que Slipher no tenía una idea precisa de la distancia a la que estaban las nebulosas, y eso hacía que la correlación entre el corrimiento al rojo y la distancia fuese problemática. Pero sus resultados eran muy sugerentes.
Hubieron de pasar tres años antes de que la situación se clarificara. En 1929, Edwin Hubble, usando el mayor telescopio de la época, el telescopio de reflexión de Monte Wilson, cerca de Los Ángeles, consiguió identificar estrellas individuales en los brazos de la espiral de varias nebulosas, confirmando así las sospechas de muchos astrónomos de que las «nebulosas» eran en realidad galaxias enteras.
Con una estatura de metro noventa y la cara dibujada con «contornos patricios», Hubble era un hombre atlético aunque desgarbado e introvertido («Mi segundo nombre siempre ha sido Estudio», le escribió a su abuelo en cierta ocasión) [241]. Graduado por la Universidad de Chicago, fue Rhodes Scholar en Oxford, donde adquirió varias afectaciones británicas, como llevar sombrero, usar bastón y fumar pipa inglesa, que irritaban a sus colegas pese a su evidente brillantez.
Fue también Hubble quien localizó varias «Cefeidas variables», unas estrellas cuyo brillo varía de forma regular, con periodos que van de uno a cincuenta días. Aunque ya se conocían desde finales del siglo XVIII, solo en 1908 Henrietta Leavitt (que había sido contratada como mujer «computadora» para catalogar estrellas) mostró que existía una relación matemática entre el brillo medio de una estrella, su tamaño y su distancia a la Tierra [242]. Con las Cefeidas variables que ahora podía ver, Hubble calculó a qué distancia se encontraban varias nebulosas. Su siguiente paso fue correlacionar esas distancias con sus corrimientos al rojo. En total, Hubble recogió información de veinticuatro galaxias distintas, y sus resultados fueron tan simples como sensacionales: cuanto más lejos estaba una galaxia, mayor era el desplazamiento al rojo de su luz. Esta relación se conocería más tarde como ley de Hubble, y aunque sus observaciones originales se referían únicamente a veinticuatro galaxias, desde 1929 la ley se ha comprobado en muchos miles de galaxias más [243].
Una vez más, una de las predicciones de Einstein había resultado ser correcta: el universo efectivamente se estaba expandiendo. Para muchas personas, no fue un hecho fácil de aceptar, pues tenía implicaciones sobre los orígenes del universo, sobre su carácter y sobre el propio significado del tiempo.

Desconvergencia: física aria y ciencia judía
La otra gran idea de Einstein, E = mc2, tardó más tiempo en explorarse, en parte porque quedó enmarañada en la política del Tercer Reich.
El despido de científicos comenzó casi inmediatamente después de que Hitler llegara a canciller, en la primavera de 1933. En general, uno pensaría que la ciencia, y sobre todo las ciencias «duras», es decir, la física, la química, la matemática y la geología, no deberían verse afectadas por los regímenes políticos. Al fin y al cabo, suele aceptarse que la investigación sobre los elementos fundamentales de la naturaleza está tan despojada de matices políticos como pueda llegar a estarlo una empresa intelectual. Pero en la Alemania nazi, nada podía darse por entendido.
Al principio, algunos académicos judíos se libraron del despido, los que habían conseguido su empleo antes de la primera guerra mundial o habían luchado en la guerra, o tenían padres o hijos que lo hubieran hecho. Pero esa exención tenía que solicitarse, y a James Franck, un veterano de la antigua guerra (había trabajado con el químico Franz Haber sobre gases venenosos y, como Haber, era judío), le parecía que solicitarla equivalía a colaborar con el régimen. Por consiguiente, dimitió de su posición como jefe del Segundo Instituto de Física de Gotinga, tras lo cual fue duramente criticado «por fomentar la propaganda antigermánica» [244].
En Heidelberg, entretanto, el instituto de física había cambiado de nombre para honrar a Philipp Lenard, un destacado defensor de la «física aria». Lo que Lenard y otros querían decir con esta expresión era que las «ciencias naturales germanas» diferían de la «ciencia judía», en el sentido de que las primeras consistían en «observación y experimentación, sin un exceso de teorización ni de construcciones matemáticas abstractas», a diferencia, por ejemplo, de la teoría de la relatividad.
La persecución de Einstein había comenzado antes, siendo atacado ya a raíz de los elogios internacionales que había recibido después de que Eddington anunciase, en noviembre de 1919, que había obtenido confirmación experimental de las predicciones de la teoría general de la relatividad. Ya en 1920, unos estudiantes nazis interrumpieron una conferencia en Berlín. La concesión del premio Nobel en 1921 acrecentó tanto su fama como la acritud con la que se le veía en algunos círculos alemanes, a lo que había que añadir su participación en el sionismo. Cada vez que Einstein viajaba al extranjero, un funcionario de la embajada o el consulado de su destino enviaba informes secretos a Berlín [245].
Cuando los nazis llegaron al poder, diez años más tarde, no tardaron nada en actuar. En enero de 1933, Einstein estaba fuera de Berlín, de visita en Estados Unidos. A pesar de los problemas personales que su decisión comportaba, anunció que no regresaría a sus puestos en la universidad de Berlín y en el Kaiser-Wilhelm Gesellschaft mientras los nazis estuviesen en el poder [xxi]. Los nazis respondieron a su gesto congelando su cuenta bancaria, registrando su casa en busca de armas supuestamente escondidas allí por los comunistas y quemando públicamente copias de un libro de divulgación suyo sobre la relatividad. Más tarde, en la primavera, el régimen publicó un catálogo de «enemigos del estado»: la imagen de Einstein encabezaba la lista, y bajo la fotografía aparecía el texto: «No ahorcado todavía». Einstein al final encontraría su sitio en el recién fundado Instituto de Estudios Avanzados de Princeton. Cuando se conoció el suceso, un periódico alemán lo publicó con el titular «BUENAS NOTICIAS: EINSTEIN NO REGRESA». El 28 de marzo de 1933, Einstein se dio de baja de la Academia Prusiana de las Ciencias, impidiendo así que algún nazi lo expulsara de ella, pero le molestó que ninguno de sus antiguos colegas, ni siquiera Max Planck, protestase en lo más mínimo por la forma en que lo habían tratado. [246]

Diáspora, con diamantes
Sin embargo, a medida que transcurría la década de 1930, la física, y especialmente las implicaciones de E = mc2, comenzaron a cobrar un significado casi apocalíptico. En 1933, cuando Hitler llegó al poder, Einstein no era el único físico alemán afincado en Estados Unidos: Otto Hahn era profesor en Cornell. Eso dejaba a Lise Meitner a cargo del Instituto Kaiser Wilhelm de Química en Berlín. Lise era judía pero austriaca, de manera que, al menos por el momento, no le afectaban las leyes raciales, y vio cómo sus antiguos colegas eran despedidos o marchaban por iniciativa propia, entre ellos Otto Frisch, su sobrino, con quien solía tocar el piano. Otto fue despedido de su puesto en Hamburgo, al igual que Leo Szilard, judío-húngaro, que se fue a Inglaterra «con los ahorros de su mujer escondidos en los zapatos».
En 1936, Hahn y Meitner fueron nominados para el premio Nobel por Max Planck, Heisenberg y Max von Laue, aparentemente en un intento por proteger a sus colegas judíos [xxii]. Pero era ya un intento a contracorriente. Meitner había sido despedida de su puesto en la Universidad de Berlín en 1933, se le había prohibido participar en congresos científicos y todos sus descubrimientos conjuntos con Hahn se atribuyeron a él exclusivamente. Aun así, logró seguir investigando hasta 1938. Sin embargo, cuando se produjo el Anschluss [xxiii], en marzo de 1938, cualquier protección de que gozara se desvaneció. Los simpatizantes nazis del Instituto Kaiser Wilhelm de Química ya no se molestaban en moderar su lenguaje. Kurt Hess, un químico y fanático nazi que había trabajado junto a Meitner durante años, proclamó que «la judía pone en peligro este instituto» [247].
Como director, Hahn tenía que decirle que estaba despedida, aunque no era tan simple como eso. Posiblemente en aquel momento no hubiese mejor científico nuclear de Alemania que Meitner, y ni Ernst Telschow, director general del Instituto Kaiser Wilhelm, ni Carl Bosch, premio Nobel de Química y fundador de IG Farben, la mayor empresa química del mundo, querían que se fuese. Otros vieron el peligro antes que ella. Permaneció en Alemania a pesar de recibir ofertas para impartir clases en Suiza y Copenhague, que no eran sino pretextos para permitirle escapar.
Cuando por fin decidió ir a Copenhague, donde Frisch trabajaba con Bohr, ya era demasiado tarde: le denegaron un visado para Dinamarca. El régimen había decidido que no quería que los judíos marchasen al extranjero y diseminasen propaganda contra el Reich, y hoy sabemos que el caso de Meitner había llegado incluso hasta Himmler. Peter Debye, director del Instituto Kaiser Wilhelm en Berlín, le escribió a Bohr en Copenhague y a otros colegas en Holanda, en busca de una posición que pareciera genuina, antes de que se aplicasen las restricciones para viajar.
Finalmente le encontraron una posición sin salario en Leiden, por cortesía del gobierno holandés. Pero no se acabaron allí sus problemas. Solo cuatro personas conocían el plan para sacarla del país: Debye, Hahn, Laue y Paul Rosbaud, un consejero científico de la editorial Springer, además de un espía británico. El 12 de julio trabajó como un día más en el instituto hasta las ocho de la tarde. Entonces se fue a su casa y preparó dos pequeñas maletas, y, por si acaso alguien venía a «buscarla», se fue a pasar la noche y el día siguiente a casa de Hahn. Tras anochecer, Hahn le compensó por verse forzado a despedirla dándole un anillo de diamantes para que tuviera algo que vender. Entonces Rosbaud la llevó a la estación, donde se encontró con Dirk Coster, un viejo amigo holandés y físico que había desempeñado un papel crucial para conseguirle la posición en Leiden. Juntos, viajaron hasta la frontera. Allí fueron interceptados por una patrulla militar nazi formada por cinco hombres que se llevaron su pasaporte austriaco durante diez minutos que a ella, según diría más tarde, le parecieron diez horas porque el pasaporte estaba caducado. Sin embargo, los hombres volvieron y le devolvieron el pasaporte sin decirle palabra. Pero por los pelos. Kurt Hess, el fanático que había dicho que los judíos eran un peligro para el instituto, se había percatado de su repentina ausencia y había alertado a las autoridades [248]. Llegó tarde, y la evasión de Lise Meitner resultaría ser decisiva.

En los bosques de Gotemburgo: la fisión
El clímax de la física post-Einstein y post-Rutherford lo alcanzaron aquellas personalidades a las puertas de la segunda guerra mundial y en los tiempos inmediatos a su estallido.
El primer resultado crucial se obtuvo en Berlín, donde Otto Hahn descubrió que si bombardeaba uranio con neutrones siempre obtenía bario. Compartió por carta estos sorprendentes resultados con Meitner, que para entonces se había desplazado a su exilio en Gothenburg, en Suecia. Por una feliz casualidad, Meitner había recibido aquella Navidad de 1938 la visita de su sobrino, Otto Frisch, otro físico nuclear en el exilio, en su caso con Niels Bohr en Copenhague. Juntos fueron a practicar esquí de fondo en los bosques. Meitner le habló a su sobrino de la carta de Hahn, y le dieron vueltas en la cabeza al problema del bario mientras esquiaban entre los árboles. Hasta entonces, los físicos habían creído que cuando se bombardea el núcleo, este era tan estable que como mucho saltaba alguna partícula. Pero ahora, sentados junto a un árbol caído en los bosques de Gothenburg, Meitner y Frisch se preguntaron si en lugar de perder alguna partícula con el bombardeo de neutrones, un núcleo podía, en determinadas circunstancias, partirse en dos [249].
Llevaban ya tres horas en aquel frío bosque. Aun así, hicieron los cálculos antes de regresar. Lo que la aritmética decía era que si un átomo de uranio se partía en dos, como ellos pensaban, podía producir bario (56 protones) y criptón (36): 56 + 36 = 92. Mientras la noticia acababa de absorberse en todo el mundo, se comprendió que cuando el núcleo se parte, libera energía en forma de calor. Si esa energía era en forma de neutrones, y en cantidad suficiente, entonces era posible producir una reacción en cadena, y por tanto una bomba atómica. Pero ¿cuánto 235U se necesitaba [250] ?
La lamentable ironía de la situación era que a principios de 1939, aunque las agresiones de Hitler iban en aumento, técnicamente el mundo todavía estaba en paz. Los resultados de Hahn-Meitner-Frisch se publicaron abiertamente en Nature, y por lo tanto los leyeron los físicos de la Alemania nazi, de la Rusia soviética y de Japón, además de los de Gran Bretaña, Francia, Italia y Estados Unidos. El problema al que ahora se enfrentaban los físicos era determinar hasta qué punto era probable una reacción en cadena [251].
El 18 de marzo de 1939, los científicos franceses, los Joliot-Curie que habían perdido la oportunidad de descubrir el neutrón (capítulo 5), insistieron en Nature acerca de su vital observación de que la fisión nuclear emitía por término medio 2,42 neutrones por cada neutrón absorbido, lo que significaba que se liberaba energía en cantidad suficiente para mantener la reacción en cadena. En Alemania, leyó el artículo Paul Harteck, un químico de 37 años de la Universidad de Hamburgo y experto en neutrones. Harteck, que había pasado un año en Cambridge en 1932, el mismo año en que se había identificado el neutrón, comprendió inmediatamente las implicaciones del artículo y se dirigió a la oficina de investigación de armamento del Ejército alemán para explicarles que la construcción de un arma de destrucción masiva basada en la fisión del uranio era una posibilidad real [252].
Para entonces, Werner Heisenberg ya había discutido las posibilidades de una bomba atómica y Abraham Esau, un físico del departamento de educación de Bernhard Rust, había convocado una reunión para establecer un «Club del Uranio», espoleado por físicos de Gotinga que también habían visto las posibilidades de la potencia nuclear del uranio. Una segunda reunión, más importante, se celebró en la Oficina de Artillería del ejército alemán en Berlín en septiembre de 1939, el mes que estalló la guerra, y a ella asistieron Werner Heisenberg, Otto Hahn, Hans Geiger, Carl Friedrich von Weizsäcker y Paul Harteck. Heisenberg se convirtió en el líder del grupo y escribió un informe para la Oficina de Artillería sobre la posibilidad de liberar energía mediante la fisión controlada en una máquina de uranio. Esta, decía, podía usarse para proporcionar calor que impulsase tanques y submarinos. Un informe posterior señalaba además que si el uranio estaba suficientemente enriquecido en uranio-235, la reacción en cadena podía convertirse en un proceso fuera de control, liberando toda la energía de golpe, y el material fisible se convertiría entonces en un explosivo «más de diez veces más potente que cualquiera de los explosivos existentes». En respuesta, el Instituto Kaiser Wilhelm de Física, en Berlín, fue destinado a investigación militar [253].
Puede parecer una situación determinante, pero lo cierto es que el equipo del uranio de Alemania nunca pasó de unos cientos de miembros, en comparación con las decenas de miles del Proyecto Manhattan de Los Álamos, en Estados Unidos. Aunque Alemania disponía de las mayores reservas de uranio en las minas Joachimsthal, en Checoslovaquia, no tenía ciclotrón con el que poder estudiar las propiedades de las reacciones nucleares.
El desarrollo de la bomba alemana, o más bien el ritmo al que se desarrolló su investigación, ha sido objeto de mucho debate (incluida la obra de teatro Copenhague de Michael Frayn). Quién sabía qué, y cuándo, entre los físicos alemanes ha resultado ser una larga saga de misterio que ha dado pie a numerosos libros, alimentada en no poca medida por el retorno a Alemania en 2002 de ciertos documentos aprehendidos por los rusos en 1945. Esos documentos sugieren que los alemanes llegaron más lejos de lo que la información previa sugería y muestran que los esfuerzos por desacreditar a Einstein no afectaron el curso de la física de alta energía, incluso dentro de la Alemania nazi [254].

E = mc2: más allá de la teoría
Si hubo algún momento concreto en el que la bomba atómica salió del ámbito de la teoría para convertirse en una opción práctica, fue una noche de 1940 en Birmingham (Inglaterra). La Blitzkrieg estaba en pleno apogeo, con apagones cada noche durante los cuales no se permitía ninguna luz, y en más de una ocasión Otto Frisch y Rudolf Peierls debieron de preguntarse si habían tomado la decisión correcta al emigrar a Gran Bretaña.
Frisch, como hemos visto, era el sobrino de Lise Meitner. Mientras que ella se había exiliado en Suecia en 1938, después del Anschluss, él había permanecido en Copenhague con Niels Bohr. A medida que se aproximaba la guerra, Frisch se fue tornando cada vez más aprensivo. Si los nazis invadían Dinamarca, podía acabar en un campo de concentración, por muy valioso que fuese como científico. Frisch era también un consumado pianista, y su mayor consuelo lo encontraba en tocar este instrumento. Pero entonces, en el verano de 1939, Marcus Oliphant, uno de los inventores del magnetómetro de cavidad (a partir del cual se desarrolló el radar), que entonces era profesor de física en Birmingham, invitó a Frisch a Gran Bretaña, en apariencia para unos debates científicos. Frisch preparó un par de bolsas, como uno haría para pasar un fin de semana fuera, pero una vez en Inglaterra, Oliphant le dejó claro a Frisch que podía quedarse si así lo deseaba. El profesor no tenía ningún plan elaborado, pero podía entender la situación igual que cualquiera y sabía que la seguridad física era lo que contaba por encima de todo. Mientras Frisch estaba en Birmingham se declaró la guerra, de modo que permaneció allí. Todas sus posesiones, incluido su amado piano, se perdieron [255].
Peierls ya estaba en Birmingham desde hacía algún tiempo. Berlinés e hijo de un director judío de AEG, era un hombre bajo, con una mirada penetrante detrás de sus gafas, y sin duda había sido un niño intenso, que se separaba de sus amigos de correrías «para pensar». Peierls había recibido la educación clásica de la Alemania de preguerra, incluso del siglo XIX, estudiando en varias universidades: Múnich (con Sommerfeld), Leipzig (Heisenberg), Zúrich (Pauli), y más tarde, con una beca Rockefeller, Roma (Fermi) y Manchester (Bethe). Peierls estaba en Manchester cuando comenzó la purga en las universidades alemanas: podía permitirse quedarse en el extranjero, y así lo hizo. Más tarde, en 1940, se haría ciudadano británico naturalizado (no sin dificultad), pero durante cinco meses a partir del 3 de septiembre de 1939, él y Frisch fueron técnicamente extranjeros enemigos. Esquivaron esta «inconveniencia» en sus conversaciones con Oliphant fingiendo que solo debatían sobre problemas teóricos.
Hasta que Frisch se unió a Peierls en Birmingham, el principal impedimento para desarrollar una bomba atómica era la cantidad de uranio necesaria para «llegar al punto crítico» para iniciar una reacción en cadena sostenible y causar una explosión. Las estimaciones eran muy dispares, de 13 a 44 toneladas y hasta 100 toneladas. Fueron Frisch y Peierls quienes, paseando por las calles oscurecidas de Edgbaston, el arbolado barrio universitario de Birmingham, se percataron de que aquellas estimaciones eran muy inexactas. Frisch calculó que, en realidad, no se necesitaba mucho más de un kilogramo, y confirmó la enorme potencia explosiva de la bomba. Para ello, hubo de calcular el tiempo disponible antes de que el material en expansión frenara la reacción en cadena. La cifra a la que llegó Peierls fue de unas cuatro millonésimas de segundo, durante las cuales se producirían ochenta generaciones de neutrones (es decir, 1 produciría 2, que producirían 4 ? 8 ? 16 ? 32… y así sucesivamente). Peierls calculó que ochenta generaciones producirían temperaturas comparables a las del interior del Sol y «presiones mayores que las del centro de la Tierra, donde el hierro fluye líquido» [256].
Un kilogramo de uranio, que es un metal pesado, ocupa aproximadamente lo que una bola de golf, un tamaño sorprendentemente pequeño. Frisch y Peierls comprobaron una y otra vez sus cálculos, obteniendo los mismos resultados. De este modo, pese a lo raro que es el 235U en la naturaleza (en un proporción de 1:139 respecto al 238U), se atrevieron a proponer que se podría separar una cantidad de material suficiente para una bomba y una bomba de prueba en cuestión de meses, no años.
Fueron entonces a ver a Oliphant con sus cálculos, y este también comprendió de inmediato que se había cruzado un umbral. Les pidió que preparasen un informe (de tan solo tres páginas) que llevó a Londres para entregarlo personalmente a Henry Tizard, quien encabezaba un comité que asesoraba al gobierno sobre aplicaciones científicas útiles para la guerra.

Una diferencia crucial entre elementos ligeros y pesados
Desde 1932, cuando James Chadwick identificó el neutrón, los físicos atómicos se habían dedicado principalmente a conseguir dos cosas: entender mejor la radiactividad y conocer mejor la estructura del núcleo atómico. En 1933, los Joliot-Curie, en Francia, habían obtenido resultados importantes que les habían valido el premio Nobel. Al bombardear elementos de peso medio con partículas alfa de polonio habían hallado, como ya hemos visto, una manera de hacer materia artificialmente radiactiva. En otras palabras, podían transmutar unos elementos en otros casi a voluntad. Como Rutherford había previsto, la partícula crucial era el neutrón, que interactuaba con el núcleo, forzándolo a ceder una parte de su energía en la desintegración radiactiva.
También en 1933 el físico italiano Enrico Fermi había irrumpido en la escena con su teoría de la desintegración beta (pese a que Nature había rechazado uno de sus artículos). Aquello se relacionaba también con la forma en que el núcleo cedía energía en forma de electrones, y fue en el seno de esta teoría donde Fermi introdujo la idea de la «interacción débil», un nuevo tipo de fuerza que elevaba a cuatro las fuerzas básicas conocidas en la naturaleza: gravedad y electromagnetismo, que actuaban a grandes distancias, y las fuerzas fuerte y débil, que actuaban a nivel subatómico (algo que resultaría ser importante para las ideas sobre la formación de los elementos en el universo primigenio, como veremos en el capítulo 11). Aunque teórico, el artículo de Fermi se basaba en amplias investigaciones que le llevaban a mostrar que si bien los elementos ligeros, cuando eran bombardeados, se transmutaban en elementos aún más ligeros emitiendo o bien un protón o bien una partícula alfa, los elementos más pesados actuaban de forma contraria, es decir, sus barreras eléctricamente más fuertes capturaban el neutrón entrante, dando lugar a un elemento más pesado. Ahora, sin embargo, eran inestables y se desintegraban en un elemento con una unidad más de número atómico [257].
Este descubrimiento suscitaba una posibilidad fascinante. El uranio, con un número atómico de 92, era el elemento más pesado de la naturaleza, el no va más de la tabla periódica. Si se bombardeaba con neutrones y capturaba uno, debería producir un isótopo más pesado: el 238U debería convertirse en 239U, y este debería desintegrarse en un elemento totalmente nuevo, nunca antes visto en la Tierra, con número atómico 93. Aún llevaría un tiempo producir los llamados elementos «transuránicos», pero cuando se logró le valieron a Fermi el premio Nobel de 1938 [258]. Como su esposa era judía, aprovechó la oportunidad que le ofrecía la ceremonia de los premios en Estocolmo para buscar la seguridad en Estados Unidos.
Todos estos diversos descubrimientos realizados por Fermi, Meitner-Hahn, Frisch-Peierls, iban cobrando entidad, hasta el punto de que en el verano de 1939 un puñado de físicos británicos le recomendaron al gobierno que adquiriese uranio del Congo Belga, como mínimo para evitar que lo hicieran otros. En Estados Unidos, tres refugiados húngaros (Leo Szilard, Eugene Wigner y Edward Teller) tuvieron la misma idea y se dirigieron a Einstein, que conocía a la reina de Bélgica, para que le solicitara que pusiera la bola en marcha. Al final, sin embargo, se dirigieron al presidente Roosevelt, seguros de que Einstein era tan famoso que a través de él les escucharía. No obstante, utilizaron un intermediario que tardó seis semanas en ver al presidente. Aun entonces, no ocurrió nada. Solo después de los cálculos de Frisch y Peierls, y del artículo de tres páginas que escribieron al respecto, se empezaron a mover las cosas. Para entonces los Joliot-Curie habían publicado otro artículo vital que mostraba que cada bombardeo de un átomo de 235U producía, por término medio, 3,5 neutrones, casi el doble de lo que Peierls había calculado.

El punto crítico
El memorando de Frisch-Peierls fue tenido en cuenta por un pequeño subcomité que había constituido Henry Tizard y que se reunió por primera vez en las oficinas de la Real Sociedad de Londres, en el ala este de Burlington House, en Picadilly, en abril de 1940. El comité llegó a la conclusión de que las posibilidades de fabricar una bomba a tiempo para que sirviera para la guerra eran buenas, y a partir de entonces el desarrollo de la bomba atómica se convirtió oficialmente en un objetivo británico.
En Estados Unidos se había establecido un «Comité del Uranio» que coordinaba Vannevar Bush, quien tenía un doble doctorado en ingeniería por el MIT. Oliphant y otro físico, John Cockroft (que compartiría el premio Nobel de 1951 por la escisión del núcleo atómico), viajó a Estados Unidos y persuadió a Bush para que transmitiera a Roosevelt la urgencia que sentían. Asfixiada por la guerra, Gran Bretaña carecía de fondos para un proyecto de aquella envergadura, y cualquier localización, por secreta que fuera, podía ser bombardeada. Roosevelt no se comprometió a que los Estados Unidos fabricaran una bomba, pero sí se prestó a considerar si aquello era posible [259].
El informe de la Academia Nacional de Ciencias, producido a raíz de la conversación mantenida en octubre entre Vannevar Bush y el presidente, estuvo preparado en cuestión de semanas y fue debatido en una reunión dirigida por Bush en Washington el sábado 6 de diciembre de 1941. El informe concluía que era posible construir la bomba y que debía intentarse. Para entonces, los científicos americanos habían conseguido producir dos elementos «transuránicos», a los que llamaron neptunio y plutonio (por los dos cuerpos celestes que siguen a Urano en el firmamento) y que, por definición, eran inestables. El plutonio, en particular, resultaba prometedor como fuente alternativa de neutrones mediante una reacción en cadena hacia 235U. El comité de Bush también decidió qué instalaciones desarrollarían los diferentes métodos de separación isotópica, electromagnética o por centrifugación. Una vez decidido eso, hacia el mediodía, la reunión se dio por terminada y se acordó que los participantes volverían a reunirse al cabo de dos semanas. Pero a la mañana siguiente, el 7 diciembre de 1941, el «día de la infamia», los japoneses atacaron Pearl Harbor y Estados Unidos pasaba a estar en guerra como Gran Bretaña. Como dijo Richard Rhodes, la falta de urgencia de Estados Unidos había dejado de ser un problema [260].
Los primeros meses de 1942 transcurrieron entre intentos por calcular qué método de separación de 235U funcionaba mejor, y al llegar el verano se convocó en Berkeley una sesión especial de estudio de físicos teóricos, hoy conocida como Proyecto Manhattan. Los resultados de las deliberaciones indicaron que se necesitaría mucho más uranio del que habían sugerido los cálculos previos, pero también que la energía liberada por la bomba sería mucho mayor. Bush se dio cuenta de que ya no bastaba con los departamentos de física de las universidades de las grandes ciudades. Se necesitaba un lugar secreto y aislado dedicado a la fabricación de la bomba.
En el momento en que el coronel Leslie Groves, comandante del Cuerpo de Ingenieros del Ejército, recibió el encargo de buscar una localización adecuada, se encontraba en un pasillo del edificio de la Casa de Representantes en Washington, D.C., y estalló en ira: aquel encargo significaba quedarse en Washington, había una guerra, no hacía más que recibir tareas de «despacho», quería viajar al extranjero. Pero cuando descubrió que entre los beneficios de aceptar el encargo había una promoción a general de brigada, su actitud comenzó a cambiar. Enseguida comprendió que si finalmente se fabricaba una bomba, y si esta decidía la guerra, tenía ante sí la oportunidad de desempeñar un papel mucho más importante que en cualquier destino en el extranjero. Aceptó el reto y de inmediato se puso en marcha para inspeccionar todos los laboratorios de proyectos. Cuando regresó a Washington identificó al comandante John Dudley como el hombre que habría de encontrar lo que al principio se llamó simplemente Localidad Y. Las instrucciones de Dudley eran muy específicas: el lugar tenía que dar cabida a 265 personas, tenía que estar al oeste del Misisipí y como mínimo a 320 kilómetros de la frontera con México o Canadá; además, debía tener ya algunos edificios y encontrarse en una depresión natural.
Dudley propuso primero Oak City, en Utah, pero aquella elección exigía la evacuación de demasiada población. Entonces sugirió Jemez Springs, en Nuevo México, pero el cañón era demasiado estrecho y limitado. Sin embargo, siguiendo el cañón hacia arriba, en lo alto de la meseta, había un colegio de chicos en unos terrenos que parecían perfectos. El lugar se llamaba Los Álamos [261].
Al mismo tiempo que se empezaba a reconvertir Los Álamos, Enrico Fermi daba los primeros pasos hacia la era nuclear en un campo de squash en desuso de Chicago. Para entonces, nadie dudaba de que la bomba se podía fabricar, pero todavía había que confirmar la idea originaria de Leo Szilard de una reacción nuclear en cadena. Con este fin, a lo largo de noviembre de 1942 Fermi reunió en la pista de squash una «pila» formada por 6 toneladas de uranio, 50 toneladas de óxido de uranio y 400 toneladas de bloques de grafito. El material se dispuso con una forma aproximadamente esférica constituida por cincuenta y siete capas, con unos siete metros de anchura totales y casi la misma altura. Prácticamente llenaba la pista de squash, y Fermi y sus colegas tenían que usar como oficina la galería de observación.
El día del experimento, el 2 de diciembre, hacía un frío intenso, bajo cero. Aquella mañana se habían recibido las primeras noticias sobre los dos millones de judíos que habían sucumbido en Europa, y de los millones más que aún estaban en peligro. Fermi reunió a sus colegas en la galería de la pista de squash, todos vestidos con sus batas de laboratorio «ennegrecidas por el grafito». La galería estaba abarrotada de aparatos para medir la emisión de neutrones y de dispositivos para introducir varillas de seguridad en la pila en caso de emergencia (estas varillas absorben neutrones con rapidez, frenando las reacciones). La parte crucial del experimento comenzó hacia las 10 de la noche, cuando una a una se extrajeron las varillas de absorción de cadmio, 15 centímetros de cada vez. Con cada movimiento, el repiqueteo del registrador de neutrones aumentaba y luego se estabilizaba, justo como estaba previsto.
El experimento se prolongó durante toda la mañana y las primeras horas de la tarde, con una breve parada para almorzar. Poco después de las cuatro menos cuarto, Fermi ordenó que se extrajesen las varillas lo justo para que la pila alcanzase el punto crítico. En esta ocasión, el repiqueteo del contador de neutrones no se estabilizó, sino que aumentó hasta convertirse en un rugido, y entonces Fermi cambió a un registrador gráfico. Aun entonces, tuvieron que cambiar varias veces la escala del registrador para ajustarla a la creciente intensidad de neutrones. A las 3:52 de la tarde, Fermi ordenó que se volviesen a introducir las varillas: la pila había reaccionado de forma sostenida durante cuatro minutos. Alzó la mano y sentenció: «La pila ha cruzado el punto crítico» [262].

El mayor proyecto de investigación de la historia
Intelectualmente, la tarea central de Los Álamos consistía en avanzar en tres procesos diseñados para producir una cantidad de material fisible suficiente para una bomba. Dos tenían que ver con el uranio y el tercero con el plutonio. El primer método para el uranio se conocía como difusión gaseosa. El metal de uranio reacciona con flúor produciendo un gas, hexafluoruro de uranio, compuesto por dos tipos de moléculas, una con238U y otra con 235U. La molécula más pesada, la de 238U, es ligeramente más lenta que su hermana, de manera que cuando pasan por un filtro, 235U tiende a pasar primero y, al otro lado del filtro, el gas tiende a estar enriquecido en este isótopo. Cuando se repite el proceso, la mezcla queda aún más enriquecida, y si se repite el proceso (varios miles de veces), se alcanza el nivel del 90 % que requerían los científicos de Los Álamos. Era un proceso arduo, pero funcionaba.
El otro método implicaba despojar a los átomos de uranio de sus electrones en un vacío para después conferirles una carga eléctrica que los hiciera susceptibles a campos externos. Se hacían pasar entonces por un haz que se curvaba dentro de un campo eléctrico de manera que el isótopo pesado recorriera un trayecto más largo que la forma más ligera y quedasen separados. En la reacción para obtener plutonio se bombardeaba 235U con neutrones para crear un nuevo elemento transuránico, plutonio-239, que en efecto resultó ser fisible, tal como habían predicho los teóricos [263].
En su momento álgido, en Los Álamos había 50.000 personas trabajando en el Proyecto Manhattan, con un coste de 2.000 millones de dólares al año: el mayor proyecto de investigación de la historia. El objetivo era producir un bomba de uranio y una de plutonio para finales del verano de 1945.

La Jornada del Muerto
El 12 de abril de 1945, el presidente Roosevelt murió a causa de una hemorragia cerebral masiva. En menos de veinticuatro horas su sucesor, Harry Truman, había sido informado sobre la bomba atómica, y en menos de un mes, el 8 de mayo, la guerra en Europa llegaba a su fin. Pero los japoneses seguían resistiendo y Truman, recién llegado a la presidencia, tuvo que enfrentarse a la posibilidad de convertirse en el hombre que diera la orden de utilizar aquella formidable arma. Para cuando llegó el Día de la Victoria en Europa, los encargados de seleccionar dianas para las bombas atómicas ya habían seleccionado Hiroshima y Nagasaki, se había perfeccionado el sistema de transporte, se habían elegido las tripulaciones y se había probado y mejorado el proceso aeronáutico para soltar la bomba. Las cantidades críticas de uranio y plutonio quedaron listas a partir del 31 de mayo, y se planeó una explosión de prueba para las 5:50 de la mañana del día 16 de julio en los desiertos de Alamogordo (cerca de Río Grande, en la frontera con México), en una zona conocida localmente como Jornada del Muerto.
El ensayo de explosión se desarrolló exactamente según lo planeado. J. Robert Oppenheimer, el director científico de Los Álamos, observó junto a su hermano Frank cómo las nubes se tornaban de un color «púrpura brillante» y el eco de la explosión se prolongaba sin fin. Los científicos estaban divididos sobre si convenía decírselo a los rusos, si se debía advertir a los japoneses y si se debía lanzar la primera bomba en el mar, cerca de la costa. Al final se mantuvo un secreto absoluto, y una de las razones de ello era que se quería evitar que los japoneses desplazasen miles de soldados americanos presos hasta las posibles dianas a modo de escudo [264].
La bomba de 235U se lanzó sobre Hiroshima poco después de las 9 de la mañana, hora local del 6 de agosto. Medía 3 metros de longitud, 70 centímetros de diámetro y llevaba 64 kilogramos de uranio, de los que solo 0,6 gramos se convirtieron en energía. Esa energía alcanzó los 4.000 grados centígrados, acabando de inmediato con la vida de más de 66.000 personas en un radio de 3,2 kilómetros, y con el tiempo indirectamente, a través de diversas afecciones, a más de 200.000 personas más. Durante el tiempo que tardó en caer la bomba, el Enola Gay, la aeronave que la había transportado, se había alejado unos 18 kilómetros. Aun así, la luz de la explosión llenó la cabina de mando, y la estructura del avión «crujió y se arrugó» con la fuerza del estallido [265]. La versión de plutonio cayó sobre Nagasaki tres días más tarde, y seis días después el emperador Hirohito anunciaba la rendición de Japón. En ese sentido, las bombas funcionaron. Y desde luego ya no quedaba duda alguna de que E = mc2.

* * * *

La vindicación de las unificaciones propuestas por Einstein (entre el espacio y el tiempo y entre la masa y la energía) se había logrado de la manera más espectacular, se mire como se mire. Además, para cuando se lanzaron las bombas sobre Hiroshima y Nagasaki ya se comprendía que ambos aspectos de sus ideas, un universo en expansión y la energía termonuclear, también estaban relacionados, aunque por el momento de una manera distante. Muchos de los físicos que trabajaron en Los Álamos se dieron cuenta de que el tipo de explosión que habían ayudado a crear no debía ser muy distinta de las que tienen lugar constantemente en las estrellas como el Sol. Durante los años de entreguerras se había observado que muchos rayos cósmicos, provenientes del espacio exterior, estaban formados por partículas que no existían de manera natural en la Tierra. Todo eso comportaba la extraordinaria idea de que el propio universo había evolucionado, respaldando las ideas de Lemaître sobre un Big Bang; que la formación, primero, de radiación, y luego de partículas, había generado átomos de los distintos elementos en un orden determinado; y que la gravedad, de una manera gradual, había ido juntando aquellas primeras formas de materia formando nebulosas, estrellas y planetas. El diseño y fabricación de la bomba atómica, como luego la creación de la bomba de hidrógeno, ayudó a confirmar el comportamiento de las partículas (con la ayuda de matemáticas complejas ejecutadas por las primeras computadoras, especialmente diseñadas con este fin) que, en la segunda mitad del siglo XX, conduciría a una cosmología muy finamente elaborada, con una cronología compleja pero coherente. No era nada menos que la unificación de la física, la astronomía y la matemática.
El sendero que llevó de la conservación de la energía a E = mc2, y de ahí al universo en expansión y las armas termonucleares para llegar finalmente a nuestra actual comprensión del universo en que vivimos no fue el propósito original por el que se llevaron a cabo todas aquellas observaciones y experimentos. Por eso es tan extraordinaria esta historia. Por impresionante y difícil que sea, es intelectualmente coherente, parte de una historia ordenada que con el tiempo se vería que venía desarrollándose desde hace casi 14.000 millones de años.

Parte 3
«La amistosa invasión de las ciencias biológicas por las ciencias físicas»

Mientras las ideas de Einstein se vindicaban de manera tan triunfante como trágica, la física cuántica, calladamente al principio, iba transformando la química y estableciendo un vínculo con la biología que ayudaría a explicar con un detalle inesperado y fresco las teorías de Darwin y Mendel. Después de que Bohr enlazara la física con la química y tras las unificaciones de Einstein, esta fue la siguiente gran convergencia científica de los tiempos modernos. Además de clarificar nuestra comprensión del orden que subyace a las ciencias, introdujo nuevos niveles de complejidad que hallarían ecos importantes más tarde durante el mismo siglo XX, cuando nuevas ideas sobre el orden en el mundo viviente se convirtieron en un tema central.
Esta convergencia tuvo sus orígenes en la década de 1920, unos años de enorme crecimiento para la investigación científica. Hay dos razones que lo explican. La primera guerra mundial había enseñado que se pueden obtener beneficios de la aplicación sistemática de las ideas de la investigación a la solución de problemas prácticos. Esto dio lugar a que varios de los países beligerantes estableciesen organizaciones científicas gubernamentales, con sus presupuestos asociados. En Estados Unidos, en particular, las organizaciones Rockefeller y Carnegie, dedicadas a la mejora de la humanidad, comprendieron a raíz de la guerra que la ciencia ofrecía la vía más segura para obtener resultados positivos. Harvard, MIT, Columbia, John Hopkins y Caltech se beneficiaron de estos cambios.
Dos hombres, en particular, participaron en esta tendencia y revisten una especial relevancia para nosotros. El primero es Arthur Noyes, un químico que se había formado en Alemania y durante dos años había sido presidente del MIT, antes de trasladarse a Caltech. Noyes tenía fuertes opiniones, y no solo sobre la química y los químicos, sino también sobre cómo debía gestionarse la ciencia. Le sobraba habilidad para defender los intereses de la química en Caltech y para conseguir fondos suficientes para realizar la investigación de más alta calidad, pero había un punto débil: la química orgánica. Y ahí es donde interviene nuestro segundo hombre. Warren Weaver era «un científico mediocre con una capacidad de primer orden para conocer la gente adecuada». Gracias a sus contactos, en 1932 abandonó un trabajo relativamente discreto de docente en Wisconsin para ocuparse de gestionar la división de ciencias naturales de la Fundación Rockefeller, «la agencia de financiación científica más importante del mundo. Allí tendría poder para abrir nuevas áreas de investigación, crear o destruir carreras, repartir millones de dólares, cambiar el curso de la historia científica».
Cuando aceptó su nueva posición, Weaver estaba especialmente entusiasmado con una nueva forma de biología. Como Noyes, Weaver quería que los métodos de las ciencias naturales de más «éxito», las matemáticas, la física y la química, se aplicasen también a la biología. Describía este proceso como «la amistosa invasión de las ciencias biológicas por las ciencias físicas». Impresionado por el modo en que la física cuántica estaba ayudando a explicar la química, como demostraban, por ejemplo, los trabajos de Linus Pauling, Weaver estaba convencido de que la nueva biología iba a cambiar lo que la humanidad pensaba sobre el mundo de lo vivo. Mientras que la vieja biología se centraba en los organismos enteros, la «biología molecular», el nuevo término que se le había ocurrido para describir la nueva disciplina, se centraría en el «mundo desconocido» del interior de las células.
Weaver tenía algunas ideas ambiciosas. Les dijo a los consejeros de la Fundación Rockefeller que la biología molecular llegaría a explicar «la violencia, la infelicidad, la irracionalidad y los problemas sexuales». A aquellos consejeros los argumentos, inflados como estaban algunos, les parecieron irresistibles y, desde aquel momento, «la Fundación Rockefeller dejó de conceder ayudas a proyectos de matemáticas, física o química que no estuviesen directamente relacionados con las ciencias biológicas».
Aparte de esto, existía un ambicioso plan de colaboración entre la Fundación Rockefeller y el instituto de Niels Bohr en Copenhague. Como Weaver, Bohr y sus colegas creían que la física y la química habían avanzado más que la biología y que las nuevas técnicas que habían desarrollado los físicos podían ayudar a los biólogos a investigar procesos como el metabolismo y el crecimiento orgánico a nivel atómico y molecular. En particular, los científicos de Copenhague estaban interesados en usar isótopos radiactivos para seguir con todo detalle el comportamiento de sustancias químicas dentro de los organismos vivos. Las formas radiactivas de fósforo y carbono y el agua pesada les parecían especialmente prometedores para aquellos fines.
En la práctica, no llegó a funcionar. El progreso de la física nuclear, que era lo que a largo plazo más interesaba a Bohr en Copenhague, era demasiado rápido, demasiado estimulante, pero también demasiado amenazador durante la segunda mitad de la década de 1930. Bohr desempeñó un papel central en el desarrollo de la física atómica y nuclear durante los años que precedieron a la segunda guerra mundial, pero Copenhague no llegó a ocupar un puesto entre los centros de excelencia de la biología molecular. Los principales progresos se realizaron en otros dos lugares: Caltech y el Laboratorio Cavendish. Las investigaciones que allí se llevaron a cabo encarnaron la transición, intelectual y geográfica, que tuvo lugar en la biología durante las décadas de 1930 y 1940.
Con independencia de lo que pasara o dejase de pasar en Copenhague, aquella transición, el fruto de la invasión de la biología por las ciencias físicas en Caltech y el Cavendish, no puede exagerarse.

Capítulo 9
Caltech y el Cavendish: de la física atómica a la biología molecular pasando por la química cuántica

¿Qué era lo que tanta excitación producía en Warren Weaver? Para entenderlo, tenemos que retroceder unos años. En la ciencia, el siglo XX se había inaugurado a lo grande. En la física, acababan de descubrirse el electrón, el cuanto, la radiactividad, las ondas de radio y los rayos X. En la química, las revoluciones de los tintes y los fármacos (vinculadas entre sí) estaban en plena maduración, y en la psicología, Sigmund Freud había revelado el inconsciente, una idea revolucionaria que cambió la manera de entender las enfermedades mentales y a nosotros mismos. También en biología se produjeron desarrollos equivalentes [266].
Incluso después del tiempo transcurrido las coincidencias en el redescubrimiento de las investigaciones del monje botánico Gregor Mendel garantiza una lectura emocionante. Entre octubre de 1899 y marzo de 1900, tres botánicos (dos alemanes, Carl Correns y Erich von Tschermak, y el holandés Hugo de Vries) publicaron artículos sobre la biología de las plantas cada uno de los cuales (en una nota a pie de página) hacía referencia a la prioridad de Mendel en el descubrimiento de los principios de lo que hoy llamamos genética [267]. Gracias a esta coincidencia y a la escrupulosidad con la que reconocieron sus logros, Mendel, otrora olvidado, es hoy en día un científico conocido por todos [268].
Johann Gregor Mendel nació en 1822 en Heinzendorf, en lo que entonces era Austria y hoy es Hyncice, en la República Checa. En 1843, ingresó en el monasterio agustiniano de Brno, donde adoptó el nombre de Gregor. Mendel no sentía una verdadera vocación cristiana, pero aquel entorno lo liberaba económicamente y le proporcionaba la paz mental que necesitaba para realizar sus estudios. Como eso ya sugiere, en cierto sentido era un personaje paradójico. No fue un genio travieso como Picasso, por ejemplo. Era muy tímido, y sufría enormemente de terror a los exámenes, pero le apasionaba aprender y era perseverante. En una época crio ratones salvajes en su habitación con la intención de determinar si el color de su pelaje variaba. Pero el abad se quejó del hedor y del hecho de que un monje que había hecho voto de castidad realizase experimentos que implicaban sexo entre roedores. A causa de ello, en palabras del propio Mendel: «Abandoné la cría de animales para dedicarme a las plantas. Está claro que el abad no entendía que las plantas también tienen sexo» [269].
Empezó entonces a investigar con guisantes. Los hallazgos por los cuales lo recordamos fueron fruto de diez años de «tediosos experimentos» sobre crecimiento y cruzamiento de plantas, recolección de semillas, y cuidadosas anotaciones, clasificaciones y recuentos sobre casi 30.000 plantas. Como señala el Dictionary of Scientific Biography: «Es imposible imaginar que pudiera lograrse aquello sin un plan preciso y una idea preconcebida de los resultados esperados» [270]. En otras palabras, sus experimentos estaban diseñados para contrastar una hipótesis específica.
De 1856 a 1863, Mendel cultivó plantas que variaban respecto a siete pares de caracteres, con la sospecha de que la herencia «es particulada», en contra de las ideas de la «herencia por mezcla» que muchos otros suscribían. Era una idea perspicaz e importante que con el tiempo se vincularía con progresos en química y física cuántica. Mendel observó, con siete pares de caracteres, que en la primera generación todos los híbridos eran iguales y que uno de los caracteres parentales (por ejemplo, semilla de forma redonda) no se modificaba. A estos caracteres los llamó «dominantes». Los otros caracteres (por ejemplo, forma angulosa), solo aparecían en la siguiente generación, y los llamó «recesivos». Lo que él llamaba «elementos» determinaban cada par de caracteres y se transmitían a través de las células germinales de los híbridos sin influir unos sobre otros. En la progenie híbrida volvían a aparecer las dos formas parentales, y Mendel comprendió que esta pauta se podía representar matemática y estadísticamente usando A para designar el carácter dominante (forma redonda) y a para designar el carácter recesivo (forma angulosa). Según argumentaba, si se encontraban al azar, la combinación resultante sería:

¼ AA + ¼ Aa + ¼ aA + ¼ aa

Desde 1900, esta expresión se conoce como ley (o principio) de Mendel de la segregación y puede simplificarse matemáticamente como:

A + 2Aa + a

También observó que con siete caracteres alternativos se encontraban 128 asociaciones (o sea, 27). Llegó así a la conclusión de que «el comportamiento de cada uno de los caracteres de una asociación híbrida es independiente de todas las otras diferencias en las dos plantas progenitoras». Este principio se llamaría más tarde ley de Mendel de la independencia de caracteres [271]. Era otra ilustración independiente de la naturaleza particulada de la materia, que Planck y Bohr estaban explicando en sus propios campos, aunque esta coincidencia no se apreciara en su momento.

El vínculo entre la citología y la matemática mendeliana
El uso que hizo Mendel de grandes poblaciones de plantas era novedoso y fue lo que le permitió extraer «leyes» a partir de un comportamiento por lo demás aparentemente aleatorio: la estadística había madurado en la biología. Intentó resumir el significado de sus estudios en Versuche über Pflanzenhybriden [Experimentos sobre hibridación de plantas], publicado en 1866. Este ensayo, su obra magna y uno de los artículos más importantes de la historia de la biología, sentó los cimientos de los estudios genéticos. No fue justamente valorado en su tiempo porque tuvo problemas para ir más allá de sus experimentos con guisantes: sus experimentos con abejas fracasaron a causa de los complejos problemas que comportaba controlar el apareamiento de las abejas reinas. Sí pudo demostrar que los híbridos de Matthiola, Zea y Mirabilis «se comportan exactamente igual que los de Pisum», pero algunos de sus colegas, como Carl Nägeli, a quien escribió una serie de cartas, siguieron sin convencerse [272].
Mendel había leído El origen de las especies. En el Mendelianum de Brno se conserva una copia de la traducción alemana con anotaciones de Mendel en los márgenes. Estas anotaciones demuestran que estaba dispuesto a aceptar la teoría de la selección natural. Darwin, sin embargo, nunca llegó a entender que la hibridación proporcionaba una explicación de las causas de la variación [xxiv]. En consecuencia, Mendel murió siendo un genio solitario y desconocido.
El redescubrimiento de Mendel no anduvo falto de controversia. Ninguno de los tres hombres que descubrieron que Mendel se les había adelantado (De Vries, Correns y Von Tschermak) debió quedarse del todo satisfecho con su posición de segundón. Además, en su primer artículo sobre el tema, De Vries no menciona a Mendel, pero como su artículo apareció antes (por poco) que el de Correns, a este, receloso, le faltó tiempo para señalar que De Vries había utilizado los mismos términos, «dominante» y «recesivo», que Mendel había usado, lo que forzó a De Vries a reconocer que había leído la obra del monje.
La disputa entre Correns y De Vries generó algo más que un poco de calor alrededor de su reclamaciones rivales sobre la prioridad: se ha llegado a revaluar la contribución del propio Mendel. Augustine Brannigan argumentaba en un ensayo publicado en 1981 que el sentir general, el de Mendel como un genio ignorado durante más de tres décadas, es erróneo. Brannigan muestra que muchos de los hallazgos de Mendel ya se habían presentado con anterioridad, en algunos casos con mucha anterioridad, por estudiosos como Thomas Andrew Knight, John Goss, Alexander Seton, Augustin Sageret y Johann Dzierzon. Todos ellos, sin embargo, trabajaron en el campo de la hibridación y publicaron sus resultados en revistas como Transactions of the Horticultural Society of London. Mendel, añade Brannigan, sabía de sus investigaciones y su propia aportación, lejos de ser revolucionaria, seguía en la línea que sus predecesores habían establecido, que buscaba demostrar que, aunque con dificultad, se podía crear nuevas especies mediante cruzamientos.
Pero nada de esto cambia el hecho de que, desde el redescubrimiento de las leyes de Mendel, el mecanismo básico de la herencia se ha confirmado en numerosas ocasiones. No obstante, tanto Mendel como De Vries siguieron un enfoque estadístico centrado en la relación 3:1 en la variabilidad de la descendencia. Cuanto más se confirmaba este cociente, más firmemente se entendía que el mecanismo que lo producía debía tener una base física, biológica y citológica. Además, había una estructura que parecía estar claramente implicada. Desde hacía unos cincuenta años los biólogos venían observando al microscopio cierto comportamiento característico de las células cuando se dividían. Habían observado que a partir del núcleo de la células se formaban varias hebras diminutas que se separaban durante la división. Walter Flemming ya había identificado la cromatina (en 1882) y Hermann Henking, en 1891, había identificado el «cuerpo X», sin sospechar que pudiera determinar el sexo, aunque otros no tardaron en llegar a esa conclusión (véase el capítulo 6). [273]
Tras la observación de Henking, no tardó en confirmarse también que en cada generación aparecían los mismos cromosomas en la misma configuración. Y Walter Sutton, en Columbia, demostró en 1902 que durante la división celular se juntaban cromosomas parecidos para segregarse después. Dicho de otro modo, los cromosomas se comportaban exactamente del modo que sugería la ley de Mendel [274].

La mosca del vinagre reúne a Mendel y Darwin
Fue William Bateson, sin embargo, quien acuñó el término «genética». Bateson era un hombre robusto, «cargado de hombros», un profesor de renombre en St John’s College, en Cambridge, un zoólogo con un bigote francés y uno de los principales combatientes en la controversia sobre la evolución de finales del siglo XIX. Siendo inglés, no era nada chovinista: tenía por inculto a quien no pudiera conversar en francés y estaba suscrito a periódicos alemanes para mantener su conocimiento coloquial de esa lengua. Inventó la palabra «genética» en 1905 cuando le pidieron que diseñara un plan para un nuevo Instituto para el Estudio de la Herencia y la Variación en Cambridge. Aquel plan se quedó en nada, pero tuvo más éxito con la Real Sociedad de Horticultura, que patrocinaba el Congreso Internacional de Cultivo e Hibridación de Plantas, al conseguir que en su tercer congreso, celebrado en 1906, cambiase el nombre de este por el de Congreso Internacional de Genética. El término «gen» llegó cuatro años más tarde, acuñado por Wilhelm Johannsen, un profesor de fisiología vegetal en el Colegio de Horticultura de Copenhague, a quien también debemos «fenotipo» y «genotipo» [275].
Un año después de su éxito con el cambio de nombre del congreso, cuando Bateson se encontraba en Estados Unidos para pronunciar una serie de conferencias, conoció a Thomas Hunt en la Universidad de Columbia. Morgan ya se estaba haciendo un nombre como uno de los más destacados investigadores de genética de su país, pero no se entendieron: «T. H. Morgan es duro de entendederas», le escribió Bateson a su mujer, pero no era así, en absoluto. Con tanta suerte como buen juicio, Morgan había dado con un organismo particular para sus estudios, como Mendel había dado con los guisantes. En el caso de Morgan, se trataba de la llamada mosca de la fruta, Drosophila melanogaster, o más propiamente mosca del vinagre, por su preferencia por la fruta pasada de madura, «con un olor acre» [276]. Morgan estudió esta mosca porque las instalaciones donde trabajaba en Columbia ya estaban abarrotadas de palomas, pollos, estrellas de mar, ratas y ratones. La mosca del vinagre costaba poco de mantener: para criarlas bastaba con unos pocos plátanos maduros y unas cuantas botellas. Morgan compró los plátanos, pero él y sus asistentes «afanaron» botellas de leche vacías de las escaleras de entrada de las casas de la parte alta de Manhattan durante su paseo matutino hacia el trabajo.
La ventaja de las moscas del vinagre es que tiene unos cromosomas grandes, fáciles de observar bajo los primitivos microscopios con que contaba Morgan, y alcanzan la madurez sexual en una semana, produciendo cada hembra una progenie de varios cientos de moscas. El sueño de un experimentador.
Pese a ello, las moscas del vinagre aún tardaron en dar fruto, por así decirlo. Durante dos años, Morgan sometió a sus moscas a toxinas, productos químicos y rayos X con la esperanza de inducir algún cambio genético interesante. Solo al cabo de ese tiempo vio un día que, en medio de una muchedumbre de moscas del vinagre normales, de ojos rojos, había aparecido una única mosca de ojos blancos.
Aquella mosca aún tardaría una semana en alcanzar la madurez sexual, y fue una semana difícil. Morgan se la llevaba a su casa cada noche en un frasco que guardaba junto a su cama mientras, por casualidades de la vida, su mujer estaba en el hospital para dar a luz. Según la leyenda familiar, cuando Morgan iba a visitar a su mujer, esta le preguntaba «¿Cómo está la mosca de ojos blancos?», antes de que él le preguntase «¿Cómo está el bebé?» [277].
A la semana siguiente, la mosca de ojos blancos estaba lista para criar. Durante varios meses, Morgan y su equipo cruzaron miles y miles de moscas en su laboratorio de la Universidad de Columbia (fue así como la «sala de las moscas» obtuvo su nombre). La enorme magnitud de los resultados obtenidos por Morgan le permitieron concluir que en la mosca del vinagre se producían mutaciones a un ritmo constante. En 1920 ya se habían descubierto más de veinte mutaciones recesivas, entre ellas una a la que llamaron «alas rudimentarias» y otra que producía «cuerpo amarillo». Pero eso no era todo. Las mutaciones solo aparecían en uno de los sexos, macho o hembra, nunca en los dos. Esta observación de que las mutaciones siempre estaban ligadas al sexo fue importante porque respaldaba la idea de que la herencia era particulada. La única diferencia física entre las células del macho y las de la hembra de aquella mosca era el «cuerpo X». De ello se seguía que el «cuerpo X» era un cromosoma, que determinaba el sexo de la mosca adulta y que las distintas mutaciones observadas en la sala de las moscas residían en ese cuerpo.
Morgan publicó un artículo sobre Drosophila en Science en julio de 1910, pero el verdadero peso de sus argumentos apareció en 1915 en The Mechanism of Mendelian Heredity [El mecanismo de la herencia mendeliana], el primer libro que trataba con propiedad el concepto de «gen». Para Morgan y sus colaboradores, el gen había que entenderlo como «un segmento particular del cromosoma que influye en el crecimiento de una forma bien definida y, por consiguiente, gobierna un carácter específico en el organismo adulto» [278]. Morgan argumentaba que el gen se autorreplicaba, se transmitía inalterado de progenitores a descendientes, y que la mutación era el único mecanismo que podía dar origen a nuevos genes, y por tanto producir rasgos nuevos. Y, lo más importante, la mutación era un proceso aleatorio, accidental, que no podía verse afectado de ninguna manera por las necesidades del organismo. Justo lo que había defendido Darwin.
Naturalmente, no faltaban las complicaciones. Morgan admitía, por ejemplo, que una característica del adulto podía estar controlada por más de un gen y que, a la inversa, un mismo gen podía afectar a varios caracteres. También era importante la posición del gen en el cromosoma, puesto que sus efectos a veces se veían alterados por genes vecinos.
Pero la genética había avanzado mucho en quince años, y no solo empíricamente, también filosóficamente. En cierto modo, el gen era una partícula fundamental más potente que el electrón o el átomo, puesto que estaba ligada a nuestra humanidad de una forma mucho más directa. La naturaleza accidental e incontrolable de las mutaciones como único mecanismo del cambio evolutivo, bajo «el control indiferente de la selección natural», era considerada por los críticos (filósofos y autoridades religiosas) como una sórdida imposición de fuerzas banales carentes de significado, un paso más en el descenso del hombre desde las alturas que había ocupado cuando las religiones regían el mundo.
Pero para gente como Morgan o Warren Weaver, el gen era todo un mundo en sí mismo. Su estructura podía ser endemoniadamente complicada, y por el camino habría que descifrar otras sustancias, pero en él se escondía el secreto de la vida, y sin duda también la respuesta a muchas enfermedades. Del mismo modo que la física atómica, nuclear y cuántica sustentaron la química, la química cuántica sustentaría la biología molecular. Y ¿dónde habría de ir Weaver a buscar investigadores de primer orden sino a Caltech, donde estaban Linus Pauling, «el principal químico teórico del mundo», y T. H. Morgan, una cualificada autoridad en los genes, galardonado con el premio Nobel en 1933?

La síntesis evolutiva
Durante la década de 1930 se produjo otro avance que hizo de la genética una disciplina especialmente interesante, y que está relacionado con la publicación de cuatro libros teóricos entre 1937 y 1944, y gracias a los cuales se enterraron finalmente algunas ideas que se arrastraban desde el siglo XIX.
Conjuntamente, estos estudios forjaron lo que hoy se conoce como la «síntesis evolutiva», que llevó a la manera actual de entender cómo funciona la evolución. En orden cronológico, estos libros fueron: Genética y el origen de las especies, de Theodosius Dobzhansky (1937); Evolution: The Modern Synthesis [Evolución: la síntesis moderna], de Julian Huxley (1942); Systematics and the Origin of Species[La sistemática y el origen de las especies], de Ernst Mayr (también de 1942); y Tempo and Mode of Evolution [Tempo y modo de la evolución], de George Gaylord Simpson (1944). El problema esencial que todos ellos pretendían resolver era el siguiente: tras la publicación de El origen de las especies de Charles Darwin en 1859, dos de sus teorías se habían aceptado relativamente rápido, pero no así otras dos. La propia idea de la evolución, que las especies cambian, se asumió enseguida, al igual que la idea de la «evolución por divergencia», que todas las especies descienden de un antepasado común. Lo que no se aceptó tan fácilmente fue la idea del cambio gradual, ni que la selección natural fuese el motor de ese cambio. Además, Darwin, pese al título del libro, no había logrado ofrecer una explicación de la especiación, de la aparición de nuevas especies. Así pues, había tres grandes puntos de desacuerdo [279].
Las principales disputas pueden describirse como sigue. En primer lugar, muchos biólogos creían en la «saltación», la idea de que la evolución no progresaba de manera gradual sino por medio de grandes saltos. Creían que solo de este modo se podían explicar las grandes diferencias entre especies. Si la evolución era gradual, ¿por qué no quedaba reflejada así en el registro fósil? ¿Por qué no se encontraban nunca especies «intermedias»? En segundo lugar estaba la «ortogénesis», la idea de que la evolución de algún modo seguía una dirección predeterminada, que los organismos evolucionaban hacia un destino final. Y, en tercer lugar, estaba muy extendida la creencia en la herencia «blanda», más conocida como herencia de caracteres adquiridos, o lamarckismo. Julian Huxley, nieto de T. H. Huxley, el «bulldog de Darwin» y hermano de Aldous, el autor de Un mundo feliz, fue el primero en usar la palabra «síntesis», aunque fue el menos original de los cuatro. Lo que los otros consiguieron fue reunir los últimos progresos en genética, citología, embriología, paleontología, sistemática y biología de poblaciones y mostrar de qué modo encajaban bajo el paraguas del darwinismo.
Ernst Mayr, un expatriado alemán que desde 1931 trabajaba en el Museo Americano de Historia Natural de Nueva York, señaló que, en contra de lo que uno esperaría, ni siquiera los más distinguidos de los primeros genetistas, como Hugo de Vries o T. H. Morgan, entendían bien en qué consistía la evolución. En concreto, no habían llegado a entender la naturaleza de las especies como poblaciones [280]. Mayr argumentaba que la concepción tradicional, es decir, que la especie estaba formada por un gran número de individuos y que cada uno de ellos se ajustaba al arquetipo básico, era errónea. Al contrario, las especies estaban formadas por poblaciones, grupos de individuos únicos en los que no hay un tipo ideal. Por ejemplo, las razas humanas de todo el mundo son distintas, pero también semejantes en ciertos aspectos; por encima de todo, pueden cruzarse. Mayr propuso que, al menos en los mamíferos, las grandes fronteras geográficas, como las montañas o los océanos, son necesarias para que se produzca la especiación, pues entonces quedan separadas poblaciones distintas y comienzan a divergir. Siguiendo el ejemplo de las razas, algo así podría haber ocurrido durante miles de años, pero es un proceso gradual, y las razas todavía están muy lejos de convertirse en «paquetes genéticos aislados», que es la definición de una especie.
Dobzhansky, un ruso que había escapado a Nueva York justo antes del gran giro de Stalin de 1928, para trabajar con T. H. Morgan, se ocupó en grandes términos de lo mismo, pero centrándose en la genética y la paleontología. Pudo demostrar que la expansión de distintas especies fosilizadas por el mundo estaba directamente relacionada con antiguos acontecimientos geológicos y geográficos. Simpson, un colega de Mayr en el Museo Americano de Historia Natural que había estudiado en Londres y más tarde ocupó la cátedra Alexander Agassiz de Harvard, examinó el ritmo del cambio evolutivo y las tasas de mutación. Logró confirmar que las tasas de mutación en genes que se conocían producían variación suficiente y con suficiente frecuencia para explicar la diversidad de la vida en la Tierra [281].

Una tentativa de matrimonio entre la física y la biología: «La base común de la vida a nivel molecular»
De entrada, Linus Pauling no estaba demasiado entusiasmado con los planes de Warren Weaver, y tardó en embarcarse en la biología molecular. Solo lo hizo cuando quedó convencido de que era allí donde estaba el dinero para la investigación (algo en lo que Weaver no dejaba de insistir). Además, para entonces Morgan, que se había venido a Caltech desde Columbia en 1928, ya pasaba de los setenta y estaba dispuesto a retirarse, de modo que Pauling formó equipo con uno de los estudiantes más brillantes de Morgan, George Beadle.
Ya hemos visto (capítulo 5) que Pauling y George Wheland habían llevado la investigación sobre la resonancia a las sustancias orgánicas, comenzando por el benceno y otros compuestos aromáticos. La investigación sobre la hemoglobina se convirtió en una de las siguientes metas del equipo. Era una molécula atractiva por varias razones. En primer lugar, se trataba de una proteína, la clase de moléculas más importante del cuerpo (son proteínas el pelo, la piel, los músculos y los tendones, así como las partes más importantes de los nervios y la sangre). Los enzimas son proteínas, que también forman los cromosomas. «Se creía que si había un secreto de la vida, debía encontrarse entre las proteínas» [282].
En la práctica, sin embargo, eran una pesadilla. Eran moléculas enormes, compuestas a veces por decenas de miles de átomos. Al menos la hemoglobina ofrecía algunas ventajas. Era abundante y podía cristalizarse, lo que significaba que debía tener algún tipo de estructura regular. Además, desde el punto de vista de Pauling, estaba relacionada con la porfirina, que ya había estudiado durante algunos años. Esta molécula tenía una forma inusual, formada, al parecer, por un anillo compuesto por varios anillos, y se encontraba por todo el mundo vivo, ligando el oxígeno en la clorofila de las plantas y en la hemoglobina de los animales. «La porfirina parecía compendiar la idea de la biología molecular de la base común de la vida a nivel molecular: aparecía casi siempre allí donde había vida» [283].
Pauling seguía avanzando lentamente en sus estudios de varias proteínas, no solo porfirina y hemoglobina (seguía convencido de que las proteínas eran centrales para entender la biología), pero en 1944 sucedió algo al otro lado del Atlántico que ejerció una fuerte influencia sobre toda la disciplina de la biología molecular.

¿Qué es la vida?, publicada en Gran Bretaña por Erwin Schrödinger, no formaba parte de la síntesis evolutiva, pero desempeñó un papel igual de importante en los progresos de la biología, y de paso en la convergencia.
Schrödinger, como ya hemos visto (capítulo 5), había nacido en Viena en 1887 y trabajó como físico en la universidad de esta ciudad tras graduarse, y luego en Zúrich, Jena y Breslau antes de suceder a Max Planck como catedrático de física teórica en Berlín. Había recibido el premio Nobel en 1933 por su contribución (junto a Werner Heisenberg y Paul Dirac) a la revolución de la mecánica cuántica, que también hemos tratado en el capítulo 5. Sin embargo, el mismo año que ganó el Nobel, Schrödinger dejó Alemania movido por la repulsión que sentía hacia el régimen nazi. Fue elegido miembro de Magdalen College, en Oxford, e impartió docencia en Bélgica, pero en octubre de 1939 se mudó a Dublín, porque en Gran Bretaña, tras el estallido de la guerra, habría tenido problemas por su condición de «extranjero enemigo», mientras que Irlanda se mantuvo neutral durante toda la segunda guerra mundial.
Una atracción añadida de Dublín era su recién fundado Instituto de Estudios Avanzados, diseñado a semejanza del Instituto de Estudios Avanzados de Princeton y promovido por Éamon de Valera, el Taoiseach, o primer ministro, de Irlanda. Schrödinger aceptó pronunciar las conferencias públicas reglamentarias de 1943 y como tema eligió la tentativa de matrimonio entre la física y la biología, sobre todo en lo referente a los aspectos más fundamentales de la propia vida y la herencia. Dejó claro que si bien la ciencia se había diversificado y «ya es prácticamente imposible que una sola mente pueda dominar más que una pequeña porción especializada», no veía otra salida a este dilema más allá de «que algunos nos embarquemos en una síntesis de hechos y teorías… incluso a riesgo de quedar en ridículo».
En sus conferencias, Schrödinger intentó conseguir dos cosas. Primero consideró la definición de la vida que daría un físico. La respuesta que dio fue que un sistema vivo era aquel que tomaba orden del orden, «bebiendo el orden de un entorno apropiado». De este procedimiento, decía, no podía dar cuenta la segunda ley de la termodinámica, con sus implicaciones de entropía, así que predecía que tarde o temprano la vida podría explicarse por medio de la física, pero que la explicación se basaría en nuevas leyes físicas que todavía se desconocían. Más interesante tal vez, y ciertamente más influyente, fue su segunda argumentación: mirar la estructura de la herencia, el cromosoma, desde el punto de vista de un físico [284].
A mediados de la década de 1940, la mayoría de los biólogos ignoraban tanto la física cuántica como los últimos avances relacionados con el enlace químico. (Schrödinger estaba en Zúrich cuando Fritz London y Walter Heitler descubrieron el enlace; en ¿Qué es la vida? no se hace ninguna referencia a Linus Pauling). Schrödinger mostró que, a partir de la física conocida, el gen debía ser «un cristal aperiódico», es decir, «una serie regular de unidades repetidas en la que las unidades individuales no eran todas iguales». En otras palabras, una estructura que ya era medio familiar para la ciencia. Explicó que el comportamiento de los átomos individuales solo se podía conocer estadísticamente. Por consiguiente, para que los genes actuasen con la enorme precisión y estabilidad que mostraban, habían de tener un tamaño mínimo y un mínimo número de átomos. Usando una vez más lo último de la física, mostró que podían calcularse las dimensiones de los genes individuales a lo largo del cromosoma (la cifra que dio fue de 300 Å, o unidades Ångstrom). A partir de aquí se podía calcular también el número de átomos de un gen y la cantidad de energía necesaria para producir mutaciones. La tasa de mutación, decía, concordaba bien con estos cálculos, al igual que el carácter discreto de las propias mutaciones, que recordaba la naturaleza de la física cuántica, en la que no existen niveles intermedios de energía [285].
Todo esto era nuevo para la mayoría de biólogos en 1943-1944, pero Schrödinger fue aún más lejos al inferir que el gen debía estar formado por una molécula larga y muy estable que contenía un código. Comparó este código con el Morse, en el sentido de que incluso un pequeño número de unidades básicas podía generar una enorme diversidad. Schrödinger se convirtió así en la primera persona en usar el término código, y fue esto, y el hecho de que la física tuviera algo que decir sobre la biología, lo que atrajo la atención de los biólogos e hizo que sus conferencias y el libro resultante fuesen tan influyentes. A partir de estos razonamientos, Schrödinger llegó a la conclusión de que el gen debía ser «una gran molécula de proteína en la que cada átomo, cada radical, cada anillo heterocíclico, desempeña un papel individual». El cromosoma es un mensaje escrito en código.
El libro tuvo una enorme influencia, y se ha calificado como «probablemente la obra de biología más importante jamás escrita por un físico», aunque también tuvo algo que ver el hecho de que apareciera en un momento oportuno. Más de un físico estaba desanimado con su propia disciplina tras el desarrollo de la bomba atómica. Sea como fuere, entre quienes leyeron ¿Qué es la vida? y se vieron estimulados por sus argumentos estaban Francis Crick, James Watson y Maurice Wilkins, los dos primeros en el Laboratorio Cavendish de Cambridge y el tercero en Londres.
Pauling no se dejó impresionar tanto. En particular, no compartía la opinión de Schrödinger de que la vida hubiera de explicarse con la ayuda de nuevas leyes de física, desconocidas hasta el momento. Era de este parecer porque sus investigaciones le habían probado que algunas sustancias orgánicas formaban cristales, lo que debía significar que obedecían las mismas leyes de «complementariedad» que las sustancias inorgánicas y que, en las acciones catalíticas de los enzimas y en la reproducción, su propia idea de complementariedad también debía desempeñar algún papel, algo que Schrödinger no había tomado en cuenta.
Con todo, Pauling ahora se dedicaba en cuerpo y alma a la biología molecular y, a medida que se acercaba el final de la década de 1940, pensaba cada vez más en la reproducción. En una conferencia que pronunció por aquella época, dijo: «En general, el uso de un gen o virus como molde llevaría a la formación de una molécula no de estructura idéntica, sino complementaria… si la estructura que sirve de molde (el gen o la molécula viral) estuviera constituida, pongamos por caso, por dos partes que a su vez tuviesen estructura complementaria, entonces cada una de estas partes podría servir de molde para la producción de una réplica de la otra parte, y el complejo formado por las dos partes complementarias podría servir de este modo para la producción de duplicados de sí mismo» [286]. Se estaba acercando, y mucho. Pero, por el momento, Pauling aparcó estas ideas y dirigió su atención a la medicina.

Los límites y fronteras de la química y la biología
Aunque Warren Weaver había concebido el término «biología molecular» en 1938, en Gran Bretaña tardó en calar, y no porque los británicos estuviesen en contra de la unión de ambas ciencias o de los términos que las describían. En 1938, J. D. Bernal había intentado (sin éxito) fundar en Cambridge un Instituto de Morfología Matemático-Físico-Química, y un año más tarde una «agencia central de investigación sobre proteínas», en la creencia de que la estructura de las proteínas era «el mayor problema no resuelto en la frontera entre la química y las sustancias biológicas» [287]. De hecho, ya se usaban varios términos para describir campos parecidos. La investigación biomolecular era uno de ellos, otro era «procesos vitales» y un tercero biofísica, una alternativa más popular. La «física de la vida», por oposición a la «física de la muerte» (la bomba atómica), era especialmente popular durante la posguerra. Ya en 1944 se había propuesto un Instituto de Biofísica.
En Gran Bretaña, la biofísica comprendía tres grupos distintos: el grupo de radiación, que investigaba los efectos de la radiación sobre el cuerpo y las formas de protegerlo; el grupo de «nervios y músculos», que sacaba partido de nuevos dispositivos de registro desarrollados en el contexto de las investigaciones sobre el radar; y el «grupo estructural», que utilizaba diversas técnicas físicas, sobre todo difracción de rayos X, decisivamente ayudados por la llegada de las computadoras electrónicas, para estudiar estructuras biológicas complejas [288]. La sangre y sus productos se habían estudiado a fondo en tiempos de guerra por su relevancia para el tratamiento de las bajas en el campo de batalla, y en Cambridge Max Perutz, un expatriado austriaco, se centró en la hemoglobina.
A raíz de la guerra y el desarrollo de la investigación operativa, toda una serie de nuevos instrumentos habían ayudado a transformar las ciencias de la vida: ultracentrífugas, espectroscopios, microscopios electrónicos e isótopos pesados y radiactivos [289]. A esta lista hay que añadir las primeras computadoras, a las que Pauling enseguida había tenido acceso, aunque los británicos no tardaron en disponer de sus propias máquinas Holerith, comercializadas por la British Tabulating Machine Company.
En Cambridge, el departamento de genética estaba dirigido por R. A. Fisher, muy implicado en la aproximación estadística y matemática a la biología, así que no es de extrañar que en aquella universidad se creara un Laboratorio de Matemática que ofreciera sus servicios de computación a los cristalógrafos de rayos X. Utilizaba un EDSAC (calculadora electrónica automática con memoria de retardo, por sus siglas en inglés), que seguía el diseño de la computadora de programa almacenado EDVAC (calculadora electrónica automática de variable discreta), descrita por John von Neumann en el Instituto de Estudios Avanzados en Princeton (véase el capítulo 17 [290] ).
En abril de 1946, Lawrence Bragg, del Cavendish, había solicitado a la Real Sociedad que ofreciera fondos para «temas de frontera», es decir, en los límites entre al menos dos disciplinas tradicionales, con el fin de financiar las investigaciones de Max Perutz sobre proteínas cristalinas (que pueden tener unos 7.000 átomos) por medio del análisis con rayos X [291]. Perutz, que se había graduado en la Universidad de Viena, había llegado a Cambridge para aprender cristalografía con Bernal, quien unos pocos años antes había obtenido las primeras imágenes por rayos X de una proteína cristalina [292]. Perutz se centraría en la hemoglobina como proyecto de investigación para su doctorado.
Bragg era criticado por muchos científicos por respaldar temas «extraños» como la biofísica en lugar de la física nuclear que tan «gloriosa tradición» había establecido en el pasado. Pero ahora, después de la guerra, había tantos instrumentos nuevos que Bragg comprendió que el progreso requería una mayor flexibilidad [293].

Las hélices y el orden espontáneo de las proteínas
En Gran Bretaña, donde había una larga tradición de cristalografía de rayos X, se empezaba a concebir la idea de que las moléculas de cadenas largas, por ejemplo de amináocidos en péptidos o proteínas, de manera natural (es decir, espontáneamente) adoptaban, por ser la más eficiente, la forma de una espiral, o, como se dio en llamarlas, hélices. Pauling estaba más que familiarizado con el concepto de hélice (de hecho, él mismo había adoptado el término después de que un doctorando, Jack D. Dunitz, lo usase en una ocasión). Su idea se aplicaba especialmente a las proteínas, y en 1948-1949 Pauling había encargado a un estudiante que revisase todos los modelos posibles en espiral [294]. Pauling no tardó en concluir que solo había dos formas de espiral que concordaban con los rayos X y las observaciones químicas. La más apretada de los dos contenía aproximadamente 3,7 aminoácidos en cada vuelta de espiral; la más floja, unos 5,1 aminoácidos. (Y esto en plena época de construcción de modelos, con esferas y pequeñas varillas talladas en madera y pintadas de distintos colores). Pauling llamó a la hélice más apretada «hélice alfa», y a la más suelta, «hélice gamma», y demostró que cada aminoácido de la cadena ocupaba unos 1,5 Ångstrom de la longitud de la cadena. Este grado de precisión era todo un logro en sí mismo y, de manera parecida, Pauling y sus colaboradores elaboraron modelos adecuados para varios tipos de proteínas: colágeno, gelatina, músculo. Como bien dice su biógrafo, Thomas Hager, las investigaciones de Pauling sobre proteínas habían cambiado el panorama.
En el verano de 1951, Pauling dirigió su atención al ADN. Esta era la forma de ácido nucleico más común en los cromosomas y algunos trabajos anteriores ya habían demostrado que se trataba de una molécula de cadena larga con una pauta repetida de solo cuatro subunidades que recibían el nombre de nucleótidos. Eso, naturalmente, era exactamente lo que Schrödinger había dicho que se necesitaba para la reproducción, pero Pauling no tenía tiempo para el alemán. (O eso decía; quizá estuviera resentido porque Schrödinger no lo había citado en ¿Qué es la vida?). Pero el ADN no era entonces la prioridad que nos parece desde nuestra perspectiva. El ADN era un componente importante de los cromosomas, pero también las proteínas, y a muchos investigadores les parecía más probable que las instrucciones genéticas estuvieran codificadas en un proteína [295].
La única observación que sugería lo contrario estaba publicada en un artículo de 1944 de Oswald Avery, del Instituto Rockefeller de Nueva York, que había descubierto que el ADN, «aparentemente por sí solo», podía transferir nuevos caracteres genéticos entre bacterias del género Pneumococcus. Pauling estaba al corriente de estos resultados, y conocía a Avery personalmente, pero no les dio demasiada importancia, y no les siguió el hilo.
Lo que sí hizo Pauling fue escribir a Maurice Wilkins, del King’s College de Londres, quien tenía probablemente las mejores fotografías cristalográficas de ADN de todo el mundo. Pauling se había enterado de ello a través de un científico visitante de Caltech que había estado estudiando los efectos del agua sobre el ADN.
Cuando Wilkins recibió la carta de Pauling a finales del verano de 1951, no supo muy bien qué hacer. Wilkins sabía que Pauling era mejor científico que él, pero también sabía que lo mejor que él mismo había hecho en la ciencia hasta aquel momento era producir la mejor imagen de rayos X de un cristal de ADN. Así que no le hacía mucha gracia compartirla. Retuvo la carta de Pauling durante una semana y luego le escribió para decirle que lo que tenía todavía no era lo bastante bueno como para hacerlo público. Pauling no se desalentaba tan fácilmente, y le escribió al superior de Wilkins. J. T. Randall dio una respuesta más honesta, confirmando que Wilkins y otros estaban trabajando sobre el ADN y no sería justo dejar que Pauling aprovechara lo que tenían [296].
Pero Pauling no se resignaba. Sabía que trabajaba más rápido que la mayoría y sabía también que asistiría a una reunión especial de la Real Sociedad de Londres en mayo de 1952. No faltaba mucho. Podía permitirse la espera.

La biología se torna tan «exacta» como la física y la química
Pauling había ganado todas las carreras en las que había participado, pero no la del ADN. Lo primero que supo el público sobre el descubrimiento, y que no lo había hecho Pauling, apareció el 25 de abril de 1953 en Nature, en un artículo de 900 palabras titulado «Estructura molecular de los ácidos nucleicos». El artículo seguía la familiar ordenada organización de los artículos de Nature, pero aunque ponía la biología molecular en boca de todos, no solo de los biólogos moleculares, era la culminación de un intenso drama de dos años en el que, si la ciencia fuese realmente el mundo cuidadosamente ordenado que se supone, ganó el bando equivocado. Y el centro del drama no fue Caltech, sino Cambridge y Londres.
Entre los personajes destaca Francis Crick, un «charlatán con un rebuzno por carcajada» y «la irritante costumbre de hacer los crucigramas de otros». Para su colega en Cambridge, el crítico George Steiner, tenía una voz «como para ir a cazar urogallos». En Who’s Who, cuando ya era famoso, citaba como entretenimiento «la conversación, especialmente con mujeres hermosas» [297]. Así que no era precisamente una persona apocada. Nacido en Northampton en 1916, hijo de un zapatero (Northampton solía ser famoso por su industria del calzado), Crick se graduó en la Universidad de Londres (donde llevaba «exóticos» zapatos de gamuza y era conocido como «Crackers»). Durante la segunda guerra mundial trabajó en el Almirantazgo, donde fue entrevistado por C. P. Snow y diseñó minas.
Fue solo en 1946, cuando Crick asistió a una conferencia pronunciada nada más y nada menos que por Linus Pauling, cuando se despertó su interés por la investigación bioquímica. También se vio influido por ¿Qué es la vida?, de Erwin Schrödinger, y su sugerencia de que la mecánica cuántica podría aplicarse a la biología. En 1949 consiguió un puesto en la Unidad del Consejo de Investigación Médica de Cambridge, en el Laboratorio Cavendish, donde no tardó en ser conocido por su risa estentórea y su hábito de lanzar teorías de esto y aquello al buen tuntún (tuvo más de una pugna con Ludwig Wittgenstein [298] ).
En 1951, un americano se unió al laboratorio. James Dewey Watson, hijo de un cobrador de facturas de Chicago, era alto, delgado como una vara y torpe en la vida social. Era doce años más joven que Crick, pero intelectualmente muy seguro de sí mismo. Niño prodigio, había leído ¿Qué es la vida?, de Schrödinger mientras estudiaba zoología en la Universidad de Chicago, lo que influyó en su interés por la microbiología. Mientras trabajaba en Copenhague, adonde le habían enviado para que se familiarizara con la química de los ácidos nucleicos, y sintiéndose insatisfecho en la capital danesa, decidió viajar a Cambridge. Max Perutz lo recuerda así: «Una cabeza extraña con un corte de pelo militar y ojos saltones franqueó mi puerta y me espetó sin decir siquiera “Hola”: “¿Puedo venir a trabajar aquí?”» [299].
Tal como cuenta la historia Paul Strathern, durante una visita a Europa Watson había conocido a Maurice Wilkins en una conferencia en Nápoles. Wilkins, descrito por uno de sus estudiantes como «un joven malhumorado y un poco remilgado», se encontraba entonces en King’s College, en Londres. Había trabajado en el Proyecto Manhattan durante la segunda guerra mundial, pero se había desilusionado y había redirigido su interés a la biología (también había leído ¿Qué es la vida? [300] ). El Consejo Británico de Investigación tenía una unidad de biofísica en King’s que por aquel entonces dirigía Wilkins. Una de sus especialidades, como hemos visto, eran las imágenes de difracción de rayos X del ADN, y en Nápoles tuvo la generosidad de mostrarle a Watson algunos de sus resultados. Aquella coincidencia le dio un giro a la vida de Watson. Al parecer, allí y entonces decidió que se dedicaría a descubrir la estructura del ADN. Sabía que había en ello un premio Nobel, que la biología molecular no podía progresar sin aquel avance, pero que, una vez hecho, se abrirían las puertas a la ingeniería genética, toda una nueva era para la experiencia humana. Buscó una transferencia al Cavendish, y unos pocos días después de cumplir veintitrés años, Watson llegó a Cambridge.
La historia del ADN no difería demasiado de la del gen. Del mismo modo que las brillantes ideas de Mendel se ignoraron durante treinta y cinco años, la «nucleína» fue ignorada por los genetistas después de que Friedrich Miescher la descubriera en Tubinga en 1869. Miescher había purificado una sustancia ácida y rica en fósforo a partir de «las vendas empapadas en pus de soldados heridos», y la llamó nucleína porque parecía estar presente en el núcleo. Más tarde, tras mudarse a Basel, obtuvo muestras aún más puras a partir de esperma de salmón. La nucleína recibió más tarde el nombre de ácido desoxirribosa nucleico, y finalmente ácido desoxirribonucleico, o ADN, y durante buena parte de los principios del siglo XX se imaginó como una escalera sobre la que descansaban los genes. Parecía obvio que debía tener una estructura monótona y que era una molécula de gran tamaño, aunque Oswald Avery, del Instituto Rockefeller de Nueva York, probó que tenía algunas de las propiedades de un gen porque podía cambiar la naturaleza de un organismo y era heredable [301].
Cuando Watson llegó al Cavendish, lo que no sabía era que el laboratorio tenía un «acuerdo entre caballeros» con King’s College. El laboratorio de Cambridge estudiaba la estructura de las proteínas, en particular de la hemoglobina, mientras que Londres estudiaba el ADN. Este era solo uno de los problemas. Aunque Watson se entendió enseguida con Crick y ambos compartían una formidable seguridad en sí mismos, eso era prácticamente lo único que los unía. Crick tenía una formación débil en biología, Watson en química. Ninguno de los dos tenía la menor experiencia con la difracción de rayos X, la técnica desarrollada por el líder del laboratorio, Lawrence Bragg, para determinar la estructura atómica. Nada de eso los amilanó. Tan fascinados estaban por la estructura del ADN que prácticamente pasaban todas las horas de vigilia debatiendo sobre ella, chismorreando sobre ella, sobre todo en la barra que recibía el nombre de RAF en el pub Eagle, muy cerca de King’s Parade y a un centenar de metros del Cavendish.
Además de ser seguros de sí mismos, Watson y Crick eran competitivos. Sus principales rivales estaban en King’s, donde Maurice Wilkins acababa de contratar a la Rosalind Franklin («Rosy», aunque nunca a la cara), que entonces contaba veintinueve años. Descrita como la «hija obstinada» de una cultivada familia de banqueros judíos, su tío abuelo Herbert Samuel había sido ministro de Interior y había esbozado el memorando que condujo a la Declaración de Balfour y la creación del estado de Israel [302]. Acababa de volver de París, donde había estado trabajando en la difracción de rayos X durante cuatro años, y se había convertido en una experta mundial. Cuando fue contratada por Wilkins, Franklin creyó que sería su igual y que estaría a cargo de las investigaciones sobre difracción de rayos X. Wilkins, en cambio, pensó que sería su ayudante. El malentendido no auguraba una relación fluida.
No obstante, Franklin hizo buenos progresos y en otoño de 1951 decidió dar un seminario en King’s para dar a conocer sus hallazgos. Recordando el interés de Watson en el tema durante la reunión de Nápoles, Wilkins invitó al científico de Cambridge. Durante aquella presentación, Watson aprendió de Franklin que el ADN casi con seguridad tenía estructura helicoidal, y que la hélice estaba formada por un esqueleto de azúcar-fosfato al que se unían bases de cuatro tipos: adenina, guanina, timina y citosina. Al acabar el seminario, Watson (quien describió a Franklin como una marisabidilla con los labios pintados muy rojos) la invitó a cenar en un restaurante chino del Soho. Allí la conversación se desvió del ADN para centrarse en lo miserable que se sentía en King’s. Wilkins, le explicó, era reservado y cortés, pero frío. Aquello hacía que Franklin estuviera siempre de los nervios, un comportamiento que no podía evitar pero detestaba. Durante la cena, Watson le mostró empatía, pero regresó a Cambridge convencido de que la relación Wilkins-Franklin «nunca dará frutos».
Entretanto, la relación Watson-Crick florecía, y tampoco esto estaba relacionado con lo que ocurrió posteriormente. Como eran tan diferentes, y no solo en edad, sino también en su formación cultural y científica, y aunque estaban compitiendo con King’s, entre ellos no había la menor rivalidad. Y como eran tan conscientes de su gran ignorancia en muchos temas pertinentes para su investigación (tenían siempre a su lado, como su biblia, The Nature of the Chemical Bond [La naturaleza del enlace químico], de Pauling), podían tirar por tierra las ideas del otro sin herir sus sentimientos. Su relación estaba a años luz del ménage Wilkins-Franklin, y a la larga eso podría haber sido crucial.
A corto plazo, lo que hubo fue un desastre. En diciembre de 1952, Watson y Crick creían haber dado con la respuesta al rompecabezas e invitaron a Wilkins y Franklin a pasar el día en Cambridge para mostrarles el modelo de madera, estilo Pauling, que habían armado: una estructura en triple hélice con las bases hacia fuera. Franklin los destrozó, mascullando secamente que su modelo no concordaba para nada con sus datos cristalográficos, ni en la estructura helicoidal ni en la posición de las bases, que decía que estaban en el interior. Tampoco tenía en cuenta su modelo el hecho de que en la naturaleza el ADN estaba asociado con agua, lo que tenía un marcado efecto sobre su estructura. Estaba genuinamente ofendida por su falta de atención a sus propias investigaciones y se quejó de que aquel día en Cambridge había sido una absoluta pérdida de tiempo. Por una vez, la exuberante confianza que Watson y Crick tenían en sus facultades los abandonó, más aún cuando sus jefes se enteraron de la debacle. Bragg llamó a Crick a su despacho y lo puso en su sitio con firmeza. Crick, y por implicación Watson, fue acusado de romper el acuerdo entre caballeros y, al hacerlo, de poner en peligro la financiación del laboratorio. Se les prohibió expresamente que siguieran trabajando en el problema del ADN [303].
Para Bragg, ahí se acababa la discusión. Pero no había juzgado bien a sus hombres. Crick dejó de trabajar en el ADN pero, como les explicó a sus colegas, nadie podía obligarle a dejar de pensar en el problema. Watson, por su parte, siguió investigando en secreto, con el pretexto de trabajar en otro proyecto sobre la estructura del virus del mosaico del tabaco, que mostraba ciertas semejanzas con los genes.
Un nuevo factor entró en escena cuando Peter Pauling, el hijo de Linus, llegó al Cavendish para hacer investigación de posgrado. Para satisfacción de Watson, Peter atraía a muchas mujeres hermosas, pero, lo más importante, estaba constantemente en contacto con su padre, y les dijo a sus nuevos colegas que Linus ya estaba construyendo un modelo del ADN. Watson y Crick quedaron desolados.
Pero el destino jugó a su favor. Como ya sabemos, Pauling había planeado un viaje a Londres a principios de aquel año para asistir a una reunión sobre proteínas en la Real Sociedad. Sin embargo, a causa de su reputación como activo pacifista antinuclear, el Departamento de Estado tuvo que someterse al senador Joe McCarthy y revocar su pasaporte. De haber viajado a Londres como tenía pensado, Linus sin duda habría podido refinar su modelo del ADN [304]. Tal como ocurrieron las cosas, cuando una copia anticipada de su artículo llegó a Cambridge, Watson y Crick vieron de inmediato que contenía un error fatal. Describía una estructura en triple hélice con las bases hacia fuera, muy parecida a la que ellos mismos habían construido y que Franklin había tirado por tierra. Además, Pauling no había tenido en cuenta la ionización, lo que significaba que su estructura no podía sostenerse. Watson y Crick sabían que era solo cuestión de tiempo que Pauling se percatara de su error, y estimaron que disponían de unas seis semanas para llegar primeros a la meta. Decidieron arriesgarse, se descubrieron y le contaron a Bragg lo que estaban haciendo. Esta vez no puso objeciones. No había ningún acuerdo de caballeros con Linus Pauling.
Así comenzaron para Watson y Crick las seis semanas más intensas de sus vidas. Ahora contaban con el permiso para construir más modelos (especialmente necesarios en un mundo tridimensional) y habían refinado sus ideas sobre la forma en que las cuatro bases (adenina, guanina, timina y citosina) se relacionaban entre sí. Sabían, además, que la guanina y la adenina se atraían, al igual que la timina y la citosina. Lo sabían gracias al trabajo de Erwin Chargaff, un prominente bioquímico estadounidense que investigaba el ADN en Columbia. Chargaff había descubierto un aspecto muy interesante sobre las bases nitrogenadas del ADN: si bien la proporción de cada base variaba de una especie a otra, solía darse una clara simetría. La cantidad de adenina era la misma que la de timina, y la de citosina la misma que la de guanina. Chargaff no entendía lo que eso implicaba. Crick sí.
Además, gracias a los últimos datos cristalográficos de Franklin, que arrojaban mediciones mucho más precisas de las dimensiones del ADN, Crick y Watson disponían de una imagen mucho más definida de su sujeto. En las fotografías, podían ver que, de arriba abajo, aparecían unas manchas negras muy densas que se situaban «de forma precisa sobre la línea 10». Eso significaba que cada hélice debía tener diez nucleótidos por vuelta: diez fosfatos, diez azúcares y diez bases. Como ahora sabían que la distancia entre dos nucleótidos era de 3,4 Å, cada vuelta de hélice debía medir 34 Å y no 27. Ahora era más fácil construir un modelo. (Watson y Crick admitieron que Pauling había sido su inspiración) [305].
Hubo dos momentos «eureka». El primero lo tuvo Crick y el segundo Watson. El de Crick se produjo cuando se dio cuenta de que la pauta de repetición ocurría a los 360 grados, y no a los 180 grados, como habían pensado, lo que permitía una estructura más relajada. El momento eureka final se produjo cuando Watson comprendió que tal vez había estado cometiendo un simple error al utilizar la forma isómera equivocada de las bases. Cada base se presentaba en dos formas (enol y ceto) y todos los datos de que disponían hasta entonces apuntaban a que la forma que debían usar era la enol. Pero ¿y si, como sugería su colega Jerry Donohue, probaban con la forma ceto? En cuanto siguió el consejo, Watson vio de inmediato que las bases encajaban en el interior formando un perfecta estructura en doble hélice. Y lo que es más importante, cuando las dos hebras se separaban durante la reproducción, la atracción mutua de la adenina con la guanina, y de la timina con la citosina (su complementariedad, como Pauling diría) implicaba que la nueva doble hélice fuese idéntica a la antigua; la información biológica que contenían los genes se transmitía fielmente, como debía si aquella estructura había de explicar la herencia.
Anunciaron la nueva estructura a sus colegas el 7 de marzo de 1953, y seis semanas más tarde apareció su artículo en Nature (el orden de los autores se decidió lanzando una moneda). Wilkins, dice Strathern, fue benévolo con Watson y Crick, diciendo solo que eran «un par de granujas». Franklin aceptó el modelo al instante. Pero no todo el mundo fue tan indulgente. Dijeron que carecían de escrúpulos y les hicieron saber que no merecían ellos solos el crédito por lo que habían descubierto [306].
Aún hubo más. En 1962, el premio Nobel de Fisiología o Medicina fue concedido conjuntamente a Crick, Watson y Wilkins, y aquel mismo año el premio de química fue para el director de la unidad de difracción de rayos X de Cambridge, Max Perutz, y para su ayudante, John Kendrew, que para entonces habían descubierto la estructura de la mioglobina y de la hemoglobina. La biología molecular había alcanzado la mayoría de edad.
En el verano de 1953, el físico George Gamow escribió a Watson y Crick. «Vuestro artículo —les decía— lleva la biología al grupo de las ciencias “exactas”» [307]. Como veremos enseguida, la biología molecular (el estudio de las proteínas y los ácidos nucleicos) y la evolución han rivalizado desde entonces con la física cuántica y de partículas como idea dominante de la ciencia de finales del siglo XX. Y sin duda se puede defender que Linus Pauling, pese a su fiasco con el ADN, debe considerarse el científico intelectualmente más influyente del mundo moderno, el que más hizo para fomentar la convergencia.

Capítulo 10
Biología, la ciencia «más unificadora»: el paso de la reducción a la composición

El gran paso hacia la biología molecular implicó algo más que el surgimiento de una ciencia nueva y extremadamente potente. La estructura del ADN fue en sí misma tan importante como el descubrimiento del gen, del átomo, del cuanto, de la relatividad, E = mc2 y el Big Bang, porque era igual de fundamental. Además, era mucho más cercana a la humanidad que la mayoría de las otras entidades. Al mismo tiempo, aunque fundamental, no era en absoluto una estructura simple. Todo el mundo podía ver que la biología molecular era tan compleja como importante.
Sin embargo, el modo en que había evolucionado la ciencia, el modo como la física atómica y nuclear habían dado paso a la química cuántica, y luego a la biología molecular, reforzaba de manera natural (y muy poderosa) la idea reduccionista de que, en el fondo, todas las ciencias estaban interconectadas.
Este tema fue abordado precisamente en ese momento, a finales de la década de 1950, en un artículo pionero escrito por dos renombrados filósofos de la ciencia, Paul Oppenheim y Hilary Putnam, en un ensayo titulado «La unidad de la ciencia como hipótesis de trabajo». Se trataba, en cierto modo, de un retorno al movimiento de la «Unidad en la Ciencia» asociado con el Círculo de Viena. Tal como decía Neurath, alcanzar «una visión y pensamiento que todo lo abarquen es un viejo anhelo de la humanidad». Pero naturalmente la ciencia había seguido avanzando.
Paul Oppenheim (1885-1977) fue un personaje heroico, un químico y filósofo que creció en Alemania, donde presenció el crecimiento del antisemitismo. En 1933, cuando Hitler llegó al poder, sus viejos padres se suicidaron juntos y él emigró, primero a Bélgica y luego a Estados Unidos. En Princeton trabó amistad con Einstein y, dado que gozaba de medios propios, usó su dinero para ayudar a científicos menos afortunados a escapar de los nazis. Hilary Putnam (1926-2016) nació en Chicago pero creció en Francia, de padre comunista y madre judía. Llegaría a ser catedrático de filosofía en Harvard y presidente de la Sociedad Filosófica Americana.
En su artículo, ambos estaban ansiosos por mostrar que, por bien que todavía no se había alcanzado la unidad en la ciencia, de ello «no se sigue, como algunos filósofos pretenden, que una aceptación provisional de la hipótesis de que una ciencia unitaria es alcanzable sea un mero “acto de fe”. Creemos que esta hipótesis es creíble».
La suposición de una ciencia unitaria, decía, se presentaba a sí misma como hipótesis de trabajo porque «creemos que está de acuerdo con los estándares del juicio científico razonable de aceptar provisionalmente esta hipótesis y trabajar bajo el supuesto de que se puede progresar en esa dirección, sin llegar a afirmar que su verdad haya quedado establecida ni negar que al final el éxito podría eludirnos» [308].
Comenzaron por argumentar que había seis «niveles reductibles»:
6. grupos sociales
5. seres vivos (multicelulares)
4. células
3. moléculas
2. átomos
1. partículas elementales
En los niveles más altos, decían, la reducción de las sociedades humanas no había avanzado demasiado, en parte porque en el nivel seis el conocimiento teórico bien establecido todavía era «bastante rudimentario». No obstante, por lo que se refiere a ciertos grupos primitivos de organismos, ya se habían logrado «éxitos sorprendentes» [309]. «Por ejemplo, la diferenciación entre las castas sociales de ciertos tipos de insectos se ha podido explicar provisionalmente en términos de las llamadas hormonas sociales». Y añadían que muchos científicos creían que había algunas leyes comunes a todas las formas de asociación animal, incluida la de los humanos (anticipándose a la etología, una ciencia que todavía se estaba afianzando). Más aun, el cuerpo de teoría social más desarrollado en lo que concierne a los humanos era la economía «y esta reviste en la actualidad un carácter enteramente microrreduccionista» [310]. Tanto Marx como Veblen o Weber habían intentado efectuar algún tipo de reducción de la teoría hacia un determinismo económico, aunque, según reconocían Oppenheim y Putnam, en ningún caso con aceptación universal.
En el nivel de la actividad celular, consideraban que era especialmente prometedor el trabajo de los neurólogos en sus vertientes de neuroanatomía, neuroquímica y neurofisiología, incluida la neuroencefalografía. Gracias a ello, ahora como poco era posible plantear teorías sobre la memoria, la motivación, los trastornos emocionales y fenómenos como el aprendizaje, la inteligencia o la percepción. Las redes neurales, como originariamente había propuesto Alan Turing, les parecían una idea potencialmente útil, aunque los modelos del momento, con 104 elementos, quedaban todavía muy lejos de las 1010 neuronas que se estimaba que contenía el cerebro. El comportamiento voluntario podría estar controlado por mecanismos de realimentación.
La explicación y reducción de la genética era el principal tema de su artículo, por lo menos si atendemos al espacio que le dedicaban, y, dado el reciente auge de la biología molecular, no es difícil entender por qué. Los elementos centrales, decían Oppenheim y Putnam, eran la descodificación, la duplicación y la mutación, y se requería una teoría reductiva para cada uno de ellos. El problema de la descodificación se reduce a una explicación de cómo las moléculas específicas que comprenden el núcleo sirven para especificar la construcción de catalizadores específicos de proteínas. El problema de la duplicación «se reduce a cómo se pueden copiar, cual “planos”, las moléculas del material genético. Y el problema de la mutación… se reduce a cómo pueden surgir “nuevas” formas de moléculas genéricas» [311]. En este sentido, veían con buenos ojos la teoría propuesta ya en 1940 por Max Delbrück que sugería que los distintos niveles cuánticos de los átomos de la molécula se correspondían con distintos caracteres hereditarios y que una mutación no era más que un salto cuántico de un tipo infrecuente (con una elevada energía de activación). (Véase el capítulo 19). Les parecía que la actividad catalizadora, tan importante en la biología molecular, se resolvería «a partir de la teoría cuántica tal como la conocemos».
Pero lo más importante es que creían que la propia evolución proporcionaba un respaldo factual indirecto a la hipótesis de trabajo de que la ciencia unitaria «era alcanzable». La evolución, decían, es «un fenómeno global que implica a todos los niveles, del 1 a 6», y añadían que «diversos científicos habían calculado las escalas de tiempo y determinado las épocas en las que surgen los primeros ejemplos de cada uno de los niveles» [312].
Argumentaban asimismo que la evolución aplicada al cosmos era también una empresa fructífera, y esbozaban la formación de las primeras partículas elementales (el tema del capítulo 11 de este libro). La reductibilidad de los fenómenos moleculares y atómicos «ya no se pone en duda».
«Hasta nuestros días», añadían, se han sostenido controversias sobre la línea divisoria entre lo vivo y lo inanimado. «En particular, algunos biólogos clasifican los virus como seres vivos porque presentan autoduplicación y mutabilidad». Sin embargo, por aquel entonces la mayoría de biólogos se negaban a aplicar el término «vivo» a los virus porque «presentan estos fenómenos característicos de la vida solamente gracias a la actividad de una célula viva con la que están en contacto» [313].
Con independencia de dónde se dibuje la frontera, insistían en que «las moléculas inanimadas precedieron a la sustancia viva primordial y que esta última evolucionó de manera gradual hacia las unidades vivas altamente organizadas, los ancestros unicelulares de todos los seres vivos». Y citaban a Richard Benedict Goldschmidt (1878-1958), uno de los primeros genetistas que teorizaron sobre la evolución: «Las primeras moléculas complejas dotadas de la facultad de reproducir su propio tipo debieron ser sintetizadas, dando inicio a la evolución en el sentido darwiniano, hace unos pocos millones de años: toda la información factual de la biología, la geología, la paleontología, la bioquímica y la radiología no solo concuerda con este enunciado, sino que lo prueba».
Todas las células provienen de otras células, como había dicho Virchow, pero los «mohos mucilaginosos» estudiados por John Tyler Bonner en Princeton demostraban que, en cierto estadio, las amebas aisladas podían agregarse por quimiotaxis (el movimiento para acercarse o alejarse de un estímulo químico) y formar organismos multicelulares simples, una «babosa con aspecto de salchicha» que se arrastra con relativa rapidez y buena coordinación, y es atraída por la luz. Los niños pequeños comienzan siendo individuos no socializados, egocéntricos, y solo después son capaces de comportamiento social, por ejemplo, preocupándose por el bienestar de otros. Este argumento era cambiante, pero de una sola pieza.
También encontraban respaldo para su hipótesis en la síntesis que puede darse en la física, la química, la biología y la sociología. Puede obtenerse un átomo juntando las partículas elementales adecuadas: el deuterio se puede obtener bombardeando protones con neutrones (por ejemplo, en gas hidrógeno). En la química, bajo la influencia de una chispa eléctrica, la unión del oxígeno con el hidrógeno produce moléculas de H 2O. En la frontera de la vida, aunque la síntesis de un virus a partir de átomos todavía no se veía factible, ya se había conseguido la síntesis a partir de macromoléculas inanimadas muy complejas. Se habían mezclado proteínas extraídas de virus con ácido nucleico, obteniendo un virus activo. Aunque no infecciosos (de manera que no era exactamente fiel a la vida), el virus reconstituido tenía la misma estructura que un virus «natural» y, aplicado a plantas, podía producir la enfermedad del virus del mosaico del tabaco.
Constantemente se forman nuevos grupos humanos: boy scouts, sindicatos, asociaciones profesionales, Israel. La síntesis es creativa.

La jerarquía natural de las ciencias
En conclusión: «La posibilidad de que toda la ciencia pueda un día reducirse a microfísica (en el sentido en que la química parece que esté así reducida), y la presencia de una tendencia unificadora hacia la microrreducción que discurre a través de gran parte de la actividad científica, han sido señaladas a menudo por especialistas… Pero estas opiniones se han expresado, en general, de una manera más o menos vaga y sin una justificación profunda». Repitiendo lo que habían dicho al principio, insistían al final de su ensayo en que aquella esperanza no era un simple acto de fe sino que, «al contrario, está justificada la aceptación provisional de esta creencia, la aceptación de una hipótesis de trabajo». Es creíble, proseguían, «porque existe una gran masa de pruebas directas e indirectas a su favor» [314]. Decían incluso que podría haber un «orden natural» de las ciencias, que la física convencionalmente se ocupa de sus niveles 1, 2 y 3, y la biología, al menos, de los niveles 4 y 5.
Como es natural, añadían, los seis niveles y las disciplinas a ellos vinculadas son creaciones ideales: no existe una disciplina o actividad que se ocupe solo de las moléculas. El orden de 1 a 6 es continuo, y los niveles individuales podrían no quedar fijados para siempre. Pero el orden continuo, 1-6, es en último término darwiniano, «que es como debe entenderse». Y con este fin invocaban en su ayuda una afirmación de Ludwig von Bertalanffy: «La realidad, en la concepción moderna, se manifiesta como un extraordinario orden jerárquico de entidades organizadas que, mediante una superposición de muchos niveles, va de los sistemas físicos y químicos a los biológicos y sociales. La Unidad de la Ciencia viene dada no por la utópica reducción de todas las ciencias a física y química, sino por las uniformidades estructurales de los diferentes niveles de la realidad» [315].
Nada de esto, sin embargo, expone la cualidad general estética/emocional de su ejercicio. Sin duda, Arthur Eddington, que aparece citado en una nota a pie de página, lo dijo mejor: «No quedaremos satisfechos hasta que logremos representar todos los fenómenos físicos como la interacción de un ingente número de unidades estructurales intrínsecamente semejantes».

Un nuevo principio: complejidad organizada adaptativa
La importancia del advenimiento de la biología molecular vino remarcada por una serie de ensayos de George Gaylord Simpson, uno de los creadores de la síntesis evolutiva. Los ensayos se recogieron en un libro publicado en 1964, This View of Life: The World of an Evolutionist [Una visión de la vida: El mundo de un evolucionista [316] ]. Simpson reconoció la identificación de la estructura del ADN como un momento crítico, no solo para la historia de la ciencia, sino para la historia del mundo.
El hecho de que la biología hubiese entrado ahora a formar parte del club de las ciencias «exactas», como George Gamow había hecho notar, fue la culminación de un proceso que habían iniciado Pauling y Schrödinger, y Simpson entendió con claridad que la biología había de sustituir a la física como (en sus palabras) el «punto focal» de toda la ciencia [317]. Era así, decía, porque «si la vida es lo más importante de nuestro mundo, lo más importante de la vida es la evolución» [318]. La evolución orgánica, insistía, es uno de los «hechos básicos» sobre el mundo, pues es el proceso «por medio del cual surgen las grandes complejidades del universo y la organización sistemática culmina». Y le parecía que esto no se había llegado a comprender a causa de «la opinión equivocada de que el realismo o la objetividad exigen la reducción de los fenómenos biológicos al nivel físico» [319].
Al mismo tiempo, argumentaba que la propia biología es la «más unificadora» de las ciencias: que en verdad todos los seres vivos están «físicamente relacionados» del mismo modo que están emparentados padres e hijos o hermanos y hermanas, aunque en grados muy diversos; que la doctrina del uniformismo geológico amplía el reino reconocido de la ley natural; que la evolución es inherente a las propiedades físicas del universo; que los mecanismos naturales que dieron origen al hombre «ya se conocen en buena parte y que probablemente puedan conocerse del todo en términos de las leyes físicas inmanentes del universo»; y que nuestras especiales habilidades humanas han sido posibles «gracias a la intensificación evolutiva de la conciencia». El universo es ordenado, insistía, y sus procesos inmanentes han sido siempre invariables [320].
Pensaba que la primacía de las ciencias físicas era historia. Las primeras ciencias, «de acuerdo con nuestra actual definición estricta de ciencia», fueron las ciencias físicas, que datan de los tiempos en que los científicos se consideraban a sí mismos también, «o incluso sobre todo» filósofos, cuando «física» era sinónimo de «filosofía natural». Opinaba que era una tradicional «media verdad reduccionista» que todos los fenómenos fuesen «explicables en último análisis» en términos estrictamente físicos, aunque había que tener en cuenta otros factores, como el prestigio de la tecnología basada en la física y el hecho de que las mejores mentes se hubiesen dedicado a las ciencias físicas antes que a otra cosa. Pero tampoco se fue al otro extremo, y rechazaba a pensadores como sir James Jeans, quien, pensaba, aceptaba la idea de la ausencia de orden y causalidad en el universo con lo que no podía verse más que como «júbilo místico» [321]. De hecho, pensaba que la idea de Bacon de la unidad de la naturaleza y los intentos de Einstein de buscar la unificación de conceptos científicos «en forma de principios de creciente generalidad» habían sido, en muy gran medida, «valiosos y fructíferos» [322].
Su tesis central era que la biología ofrecía la oportunidad de añadir un nuevo principio a nuestra comprensión. Además de la reducción (la explicación en términos de principios físicos, químicos o mecánicos), la biología, que es más complicada que la física, nos invita a introducir una segunda explicación, lo que él llamaba «composicionismo». Necesitamos entender estructuras no solo en términos reduccionistas sino también en términos de la utilidad adaptativa de las estructuras y procesos en el organismo completo y la especie de la que forma parte, y, más aún, en términos de la función ecológica de esta en las comunidades en las que aparece [323].

El nivel crucial de la biología molecular
Su otra tesis, relacionada con la primera, era que en la progresión que va de las partículas subatómicas a las comunidades multiespecíficas se produce una marcada «dicotomía en algún punto de la escala» en el nivel de la biología molecular. Esto, y la organización del organismo, es el hecho crucial, central, de la ciencia desde este momento. Refiriéndose a la reducción en este contexto, concluye: «Sugiero que tanto la caracterización de la ciencia como un todo como la unificación de las diversas ciencias puede buscarse de manera aún más significativa en la dirección opuesta, no por medio de principios que se apliquen a todos los fenómenos, sino a través de fenómenos a los que se apliquen todos los principios» [324].
Desarrollaba su tesis concediendo que, por ejemplo, las cadenas tróficas de una comunidad se podían explicar de manera sucesiva por las adaptaciones de las poblaciones específicas, por el funcionamiento de los individuos que las forman, por los enzimas que inician y median las propiedades químicas y físicas subyacentes, por la especificación de los enzimas en el ADN, por la estructura de las moléculas de ADN y, en último término, por los átomos que constituyen esas moléculas. Insistía, sin embargo, en que no se podían hacer predicciones sobre la base de las acciones atómicas. Tenía, en su opinión, igual valor explicativo y era igual de esencial para nuestra comprensión del fenómeno, decir que los enzimas del león digieren la carne de la cebra porque eso permite que el león sobreviva y se perpetúe la población a la que pertenece. «Una dirección de la explicación baja por la escala… la otra asciende… reducción y composición [325] ».
No tenía duda alguna de que el descubrimiento de la genética y el ADN hacía aún más profunda la comprensión por la vía reduccionista, pero también, de la misma manera, los descubrimientos paleontológicos hacían más profunda la comprensión por la vía composicionista, a través de las regularidades que de manera constante y repetida aparecían en el registro fósil [326].
El libro de Simpson fue tan bien recibido como su contribución a la síntesis evolutiva. Identificaba claramente el paso de la física a la biología y explicaba por qué era importante. La física, como veremos, no desaparece de escena, pero desde entonces la biología deja de sufrir «envidia de la física». Al contrario, la teoría evolucionista invade ahora, como nunca antes, todo tipo de fenómenos.
Simpson también acertó en esto. Tal como lo expresa él mismo: «Recientemente he tenido que señalar a algunos etnólogos que la cultura en general es una adaptación biológica y que podrían resolver algunas de sus disputas y encontrar la base teórica común que les elude si estudiasen la cultura desde este punto de vista. Mi sugerencia no fue bien recibida, pero no por ello deja de ser acertada». Podría decirse que el imperialismo de la física iba acompañado ahora por el imperialismo de la biología. Las nuevas ciencias de la etología y la sociobiología estaban a punto de entrar en escena.
Por encima de todo, en sus ensayos Simpson había arrumbado con los argumentos sobre el reduccionismo. Su comprensión de la evolución no tenía igual y su idea de la «composición» estaba tan bien cimentada en la información y era tan claramente correcta en los detalles que debería haber calado y haberse aceptado mucho antes. Acabó por calar. Pero no entonces.

Parte 4
El continuo de los minerales al hombre

Mientras que la primera mitad del siglo XX presenció la secuencia de acercamiento de las ciencias «duras» (física, química y biología), la segunda mitad vería cómo muchos otros aspectos del mundo que nos rodea se entrelazaban en un mismo patrón y conjuntamente conformaban el discurso más elocuente y coherente, el de mayor ambición y amplitud que se pueda imaginar.
Tras la segunda guerra mundial, cuando la ciencia demostró ser más decisiva para la victoria que en la primera guerra mundial, se produjo una explosión en la financiación de las ciencias, ayudada por la llegada de la guerra fría, que mantuvo los presupuestos a niveles antes impensables, con diversos efectos colaterales. Por poner un ejemplo, Estados Unidos necesitaba conocer el océano que le separaba de su gran rival, la Unión Soviética. A consecuencia de ello, el océano Pacífico y las tierras colindantes se estudiaron como nunca antes, y de ello se beneficiaron la oceanografía, la biología marina, la hidrología, la geología, la climatología e incluso la antropología y la arqueología. La investigación (militar) aplicada propició algunos sorprendentes progresos en la ciencia fundamental.
Por otro lado, el impulso que recibió la evolución gracias a los avances de la biología molecular llevaron a que muchas otras áreas de la actividad humana se examinasen ahora desde una perspectiva evolutiva. Uno de los desarrollos más importantes fue que los avances de la ciencia hicieron posible un conocimiento más preciso de los acontecimientos del pasado, de acontecimientos en el universo y en la Tierra, el surgimiento de la vida y de la civilización, y una nueva forma de historia, la «Gran Historia», que muestran un continuo coherente a lo largo del tiempo. A medida que se comprendía que se iba desplegando un discurso único, resultaba más claro que, tal como lo expresó la filósofa de la ciencia Patricia Churchland: «Es obvio que ya no importa dónde acaba una disciplina y dónde comienza otra».

Capítulo 11
Física + Astronomía = Química + Cosmología: La Segunda Síntesis Evolutiva

Tras la segunda guerra mundial y el Proyecto Manhattan, la mayoría de los físicos estaban ansiosos por volver a dedicarse a su trabajo «normal». Pero exactamente qué trabajo era normal es algo que se estableció en dos grandes congresos de física: uno en Shelter Island, frente a la costa de Long Island, cerca de Nueva York, en junio de 1947, y el otro en Rochester, en la parte norte del estado de Nueva York, en 1956.
El punto álgido del congreso de Shelter Island, que versaba sobre «Los fundamentos de la mecánica cuántica», fue un informe de Willis Lamb que presentaba pruebas empíricas de la existencia de pequeñas variaciones en la energía de los átomos de hidrógeno que, si las ecuaciones de Paul Dirac que relacionaban la relatividad con la mecánica cuántica eran absolutamente correctas, no debían existir. Lamb era californiano y se había graduado en Berkeley, donde también se había doctorado bajo la tutoría de Robert Oppenheimer, el director del Proyecto Manhattan. Este «efecto Lamb», comunicado durante la conferencia a Hans Bethe, Richard Feynman y otros, condujo a una explicación matemática revisada, la electrodinámica cuántica (EDC), que los científicos aclamaban como «la teoría más precisa de la física». La EDC explica el modo en que las partículas con carga eléctrica interaccionan entre sí y con campos magnéticos mediante el intercambio de fotones. John Gribbin la describe como «la joya de la corona» de la física cuántica, «una teoría que se ha contrastado experimentalmente hasta un elevado número de cifras decimales, y ha superado cada prueba». Las matemáticas en que se basa y su ambición sin duda habrían impresionado a Mary Somerville.
En esencia, la EDC explica toda la química: por qué se producen explosiones, por qué se estiran los muelles, por qué el cielo es azul. «Fuera del núcleo, a la escala de los átomos y por encima, lo único que importa es la EDC y la gravedad». Citando de nuevo a Gribbin, la ilustración clásica de la EDC es su predicción del momento magnético del electrón. Las ecuaciones originales de Dirac arrojaban un valor de exactamente 1, mientras que los experimentos producían un valor de 1,00115965221, con una incertidumbre de ± 4 en el último dígito. En cambio, la EDC predice un valor de 1,00115965246 con una incertidumbre de ± 20 en los dos últimos dígitos. Esta es una precisión de 1 en 10 decimales (0,00000001%). Richard Feynman deja bien claro lo que esto significa cuando lo compara con la precisión del grosor de un pelo en una medida de la distancia de Nueva York a Los Ángeles y explica que era «la concordancia entre teoría y experimentación que se ha determinado con mayor precisión de entre todas las teorías y todos los experimentos que se han realizado en la Tierra» [327].
El mismo año del congreso, unos cosmólogos con formación en matemáticas y física comenzaron a estudiar de una forma más sistemática que antes los rayos cósmicos que llegan a la Tierra desde el universo. Descubrieron nuevas partículas atómicas que no se comportaban exactamente como decían las predicciones; por ejemplo, no se desintegraban en otras partículas tan deprisa como «debían». Esta anomalía dio pie a la siguiente fase de la física de partículas, que dominó la última mitad del siglo XX, una amalgama de física, matemática, química, astronomía y, por extraño que parezca, historia. Sus dos logros fueron comprender la formación del universo, es decir, cómo y en qué orden se originaron los elementos; y una clasificación sistemática de partículas aún más básicas que electrones, protones y neutrones.

La nucleosíntesis: el nuevo orden de los elementos y las partículas
El estudio de las partículas elementales nos remonta enseguida por el tiempo hasta los orígenes mismos del universo. Como hemos visto, la teoría del Big Bang del origen del universo nació en la década de 1920 de la mano de Georges Lemaître y Edwin Hubble (capítulo 8). Después del congreso de Shelter Island, dos austriacos afincados en Gran Bretaña, Hermann Bondi y Thomas Gold, junto a Fred Hoyle, un catedrático de Cambridge, propusieron una teoría rival de «estado estacionario», que suponía que la materia se formaba sin tantos aspavientos por todo el universo, en «eventos energéticos» localizados.
Esta teoría nunca la tomaron en serio más que un puñado de físicos, sobre todo después de que, aquel mismo año, George Gamow, un ruso que había desertado a los Estados Unidos en la década de 1930, presentase nuevos cálculos que probaban que las interacciones nucleares que tenían lugar en los primeros momentos de la bola de fuego podían explicar las proporciones de estos elementos en las estrellas más viejas. Gamow también sugirió que debería ser posible encontrar pruebas empíricas de la explosión inicial en forma de radiación de fondo, a un nivel bajo de intensidad, que se podría captar dondequiera que se buscase en el universo.
Las teorías de Gamow, tal como las desarrolló en su libro La creación del universo (1952), especialmente en su capítulo sobre «La vida privada de las estrellas», suscitaron entre los físicos un enorme interés por la «nucleosíntesis», es decir, el modo como se forman los elementos más pesados a partir del hidrógeno, el elemento más ligero, y el papel que desempeñan los distintos tipos de partículas elementales. Es aquí, en lo que, en realidad, es la evolución del universo, donde encaja la proliferación de estudios sobre los rayos cósmicos. Casi ninguna de las partículas descubiertas desde la segunda guerra mundial existe de manera natural en la Tierra, y solo se podían estudiar acelerando las partículas que sí existen en aceleradores de partículas y ciclotrones con el fin de que colisionasen con otras. Estos aparatos eran enormes y enormemente caros, lo que también ayuda a entender por qué la «megaciencia» floreció sobre todo en Estados Unidos. No era un país más avanzado intelectualmente, sino que allí, más que en ningún otro lugar, se disponía de la ambición y los recursos para financiarla [328]. (Y, gracias al Proyecto Manhattan, mucha experiencia pertinente).
En la década que siguió al congreso de Shelter Island se descubrió un gran número de partículas, pero hay tres que descuellan sobre las demás. Las partículas que no se comportaban como debían de acuerdo con las teorías anteriores recibieron en 1953 el calificativo de «extrañas», en expresión de Murray Gell-Mann, de Caltech (el primer ejemplo de la moda de poner nombres caprichosos a las entidades físicas). Varios aspectos de esa extrañeza se sometieron a escrutinio en el segundo congreso de física, celebrado en Rochester en 1956, y en 1961 Gell-Mann reunió las partículas en un esquema de clasificación. Se trataba de un orden que recordaba a la tabla periódica (capítulo 3), y que, siguiendo con los nombres caprichosos, bautizó como «Camino Óctuple».
Gell-Mann era neoyorquino y, como otros personajes que ya hemos conocido, había sido un niño prodigio. Hijo de inmigrantes judíos austriacos, ingresó en Yale con quince años y se doctoró con veintidós. Tras un año en el Instituto de Estudios Avanzados de Princeton, se desplazó a Chicago para trabajar con Fermi, y luego a Caltech, donde trabó amistad con Richard Feynman, con quien no por ello dejó de competir. John Gribbin cita a un colega de ambos (sin dar su nombre) que dijo: «Murray era listo, pero a todos nos parecía que si nos despojábamos de la pereza y trabajábamos mucho, podíamos ser tan buenos como él; nadie tenía esa impresión de Dick» [329]. En cierto modo, Gell-Mann tuvo una extraña carrera («extraña» es la palabra clave), porque realizó tres grandes descubrimientos pero siempre casi al mismo tiempo que otros físicos. Más casos de descubrimientos simultáneos.
El primero se produjo en 1953 cuando tanto Gell-Mann como el físico japonés Kazuhiko Nishijima (de Osaka, aunque había trabajado en el grupo de Werner Heisenberg en Gotinga) de manera independiente dieron con la idea de explicar ciertas propiedades de muchas partículas fundamentales que entonces se estaban descubriendo asignándoles una cualidad llamada «extrañeza». La razón era que esas partículas, como ya hemos visto, tenían tiempos de vida largos en comparación con otras partículas (aunque todavía se medían en minúsculas fracciones de segundo).
Tras reflexionar sobre esto, a principios de la década de 1960, Gell-Mann y, esta vez, Yuval Ne’eman, un físico, soldado y político israelí, una vez más trabajando de manera independiente, concibieron un esquema de clasificación de las partículas que, como ya se ha dicho, fue bautizado como el Camino Óctuple. Este esquema se basaba en la matemática más que en la observación, y fueron las matemáticas las que en 1964 llevaron a Gell-Mann (y, casi simultáneamente, a George Zweig) a introducir su tercer descubrimiento, el concepto de «quark», una partícula más elemental aún que los electrones y de los que está constituida toda la materia. (Zweig las llamó «ases» pero entonces era estudiante. Gell-Mann era profesor y sus «quarks», una palabra tomada de Finnegans Wake, de James Joyce, acabaron imponiéndose). La existencia de los quarks no se confirmó experimentalmente hasta 1977 [330].
Los quarks se presentan en seis variedades, a las que se dio nombres completamente arbitrarios, como «arriba», «abajo» o «encantado». Tienen carga eléctrica fraccionaria (más o menos un tercio de la carga de un electrón), y era esa carga fragmentaria lo realmente importante, reduciendo aún más las piezas básicas de la naturaleza. Hoy sabemos que toda la materia está compuesta por dos tipos de partículas. Los «bariones» (protones y neutrones, que son partículas bastante pesadas) son divisibles en quarks. La otra familia básica son los «leptones», mucho más ligeros, que comprenden los electrones, los muones, la partícula tau y los neutrinos, y no se pueden descomponer en quarks. Un protón, por ejemplo, está formado por dos quarks «arriba» y un quark «abajo», mientras que un neutrón está hecho de dos quarks «abajo» y un quark «arriba».
Lo que presento en los próximos párrafos puede resultar confuso para quien no sea físico, pero hay que tener en cuenta que las partículas que existen de manera natural en la Tierra son exactamente las identificadas en 1932: el electrón, el protón y el neutrón. El resto se encuentra solamente en los rayos cósmicos que llegan del espacio o en situaciones artificiales en los aceleradores de partículas, que intentan reproducir las condiciones del universo temprano.
Los bariones son partículas afectadas por la interacción nuclear fuerte y la expresión «materia bariónica» suele usarse en la actualidad para referirse a la «materia atómica cotidiana», hecha de protones, neutrones y electrones [331].
Los quarks y las partículas que forman al combinarse se conocen como hadrones, y sienten la fuerza fuerte, aunque también pueden participar en interacciones débiles. Los leptones sienten la fuerza débil pero nunca participan en interacciones fuertes.
Luego hay cuatro bosones que son los portadores de las fuerzas de la naturaleza: gluones (que median en la fuerza fuerte), bosones vectoriales intermedios (portadores de la fuerza fuerte), fotones (portadores del electromagnetismo) y gravitones (portadores de la gravedad).
Los hadrones son partículas que interaccionan a través de la fuerza fuerte y por tanto están constituidos por quarks. Los protones y los neutrones son hadrones, pero también lo son un buen número de partículas inestables, entre ellas los gluones, las partículas sin masa que mantienen unidos a los quarks [332].
El principal objetivo de los físicos era amalgamar todos estos descubrimientos en una gran síntesis que tendría dos elementos. El primero explicaría la evolución del universo, describiría la creación de los elementos químicos y su distribución entre planetas y estrellas, y explicaría la creación del carbono, que había hecho posible la vida. El segundo explicaría las fuerzas fundamentales que permiten que la materia se forme del modo en que lo hace. Dios aparte, lo explicaría todo.

Las pautas del universo temprano
Durante la primera mitad del siglo XX, aparte de la bomba atómica y la relatividad, el principal logro de los físicos fue su unificación con la química (encarnada en los trabajos de Niels Bohr y Linus Pauling). Tras la guerra, el descubrimiento de nuevas partículas fundamentales, y especialmente de los quarks, conllevó una unificación equivalente entre la física y la astronomía. El resultado de esta consiliencia, como sería bautizada, fue una explicación mucho más completa de cómo se originó y evolucionó el universo, los cielos. Fue, para quienes no vean en la referencia una blasfemia, un Génesis alternativo.
Los quarks, como acabamos de ver, fueron propuestos originariamente por Murray Gell-Mann y George Zweig, de manera casi simultánea, en 1964. Es importante comprender que los quarks no existen aisladamente en la naturaleza (al menos en la Tierra), pero la importancia del quark (y de algunas otras partículas aisladas más adelante) estriba en que ayuda a explicar las condiciones que se dieron durante los primeros instantes del universo, justo después del Big Bang. La idea de que el universo se originó en un momento finito del pasado fue aceptada por la mayoría de los físicos, y por muchos otros, después del descubrimiento de Hubble del corrimiento al rojo en 1929, pero en la década de 1960 se renovó el interés por este tema, en parte como consecuencia de las teorías de Gell-Mann sobre el quark, pero también a causa de un descubrimiento accidental realizado en 1965 en los Laboratorios Bell Telephone, en Nueva Jersey.
Desde el año anterior, los Bell Labs tenían en su poder un nuevo tipo de telescopio. Una antena instalada en Crawford Hill, en Holmdel, Nueva Jersey, se comunicaba con los cielos por medio del satélite Echo, lo que significaba que el telescopio podía «ver» el espacio sin las distorsiones causadas por las interferencias atmosféricas, y que podía ver mucho más del espacio. En su primer experimento, los científicos al cargo del nuevo telescopio, Arno Allan Penzias (nacido en Múnich y, una vez más, un refugiado judío de la Alemania nazi) y el tejano Robert Woodrow Wilson, decidieron estudiar las ondas de radio emitidas por nuestra propia galaxia. La investigación básicamente pretendía establecer una referencia, con la idea de que una vez conocidas las pautas de las ondas de radio que emitimos nosotros, sería más fácil estudiar ondas parecidas provenientes de otros lugares [333].
Pero no era tan fácil. Siempre que miraban al cielo, Penzias y Wilson encontraban una fuente persistente de interferencia, como los parásitos de las radios. Al principio pensaron que algo no andaba bien con sus instrumentos. Un par de palomas habían hecho el nido en la antena, con el resultado predecible de que la dejasen salpicada de sus deposiciones. Se capturaron las aves y se llevaron a otra parte del complejo de Bell, pero volvieron. Esta vez, según el relato de Steven Weinberg publicado más tarde, el problema se solucionó «por medios más expeditivos» [334]. Con la antena limpia, los «parásitos» se redujeron, pero solo mínimamente, y la interferencia todavía parecía venir de todas las direcciones. Penzias comentó este misterio con otro radioastrónomo del MIT, Bernard Burke, quien recordó que un colega suyo, Ken Turner, del Instituto de Tecnología Carnegie, había mencionado una conferencia a la que había asistido en la Universidad John Hopkins, en Baltimore, pronunciada por un joven teórico canadiense de Princeton, P. J. E. Peebles, que podía tener algo que ver con el misterio de la interferencia. La especialidad de Peebles era el universo temprano.
Este era un campo de estudio relativamente nuevo y todavía muy especulativo. Como acabamos de ver, George Gamow había comenzado a pensar en aplicar la nueva física de partículas a las condiciones que debían haber existido en el momento del Big Bang. Comenzó por el «hidrógeno primordial», que, decía, debía haberse convertido en parte a helio, aunque la cantidad producida habría dependido de la temperatura del Big Bang. También decía que la radiación caliente correspondiente a la enorme bola de fuego se habría dispersado y enfriado a medida que el universo se expandía, y proponía que aquella radiación «aún debe existir en una forma muy “desplazada al rojo”, en forma de ondas de radio». Esta idea de una «radiación residual» fue aceptada por otros, y algunos de ellos calcularon que esa radiación debía tener ahora una temperatura de 5 K (es decir, cinco grados por encima del cero absoluto). Curiosamente, cuando física y astronomía comenzaban a acercarse, al parecer ningún físico era consciente de que la radioastronomía ya había avanzado lo suficiente para responder a esa pregunta, de manera que ningún físico experimental lo había hecho. Y cuando unos radioastrónomos de Princeton, bajo la dirección de Robert Dicke, comenzaron a examinar los cielos en busca de radiación, nunca inspeccionaron las formas más frías, ignorantes de su importancia. Fue un caso clásico de la mano derecha que no sabe lo que hace la izquierda. (Algo que Mary Somerville nunca habría permitido que pasase) [335].
Cuando Peebles, de Winnipeg, comenzó su doctorado en Princeton a finales de la década de 1950, trabajó bajo la dirección de Robert Dicke. Las teorías de Gamow se habían olvidado o pasado por alto, pero, sobre todo, el propio Dicke parecía haber olvidado sus trabajos previos. El resultado fue que Peebles, sin saberlo, repitió toda la experimentación y la teorización de quienes le habían precedido. Y llegó a la misma conclusión: que el universo debía estar lleno de «un mar de radiación de fondo» con una temperatura de tan solo unos pocos kelvin. A Dicke, que o todavía no recordaba sus experimentos previos o no comprendía su importancia, los razonamientos de Dicke le gustaron lo bastante como para sugerir que construyesen un pequeño radiotelescopio para buscar aquella radiación de fondo.
En ese momento, con los experimentos de Princeton a punto de comenzar, Penzias llamó a Peebles y Dicke, un intercambio que se hizo célebre en la física. Comparando lo que Peebles y Dicke sabían sobre la evolución del ruido de fondo con las observaciones de Penzias y Wilson, los dos equipos decidieron publicar en tándem un par de artículos en los que Penzias y Wilson describían sus observaciones mientras que Dicke y Peebles las interpretaban cosmológicamente: aquella era realmente la radiación residual del Big Bang. La noticia produjo en la ciencia una conmoción casi tan grande como la confirmación del propio Big Bang. Y fue este par de artículos, publicados en Astrophysical Journal, lo que llevó a la mayoría de los físicos a aceptar finalmente la teoría del Big Bang. En 1978, Penzias y Wilson recibieron el premio Nobel de Física, aunque no sabían lo que habían descubierto la primera vez que lo observaron [336].
Durante la ceremonia de los premios, el presidente del comité del Nobel de Física dijo que el descubrimiento de la radiación de fondo había «convertido la cosmología en una ciencia, abierta a la verificación y la observación» [337]. De hecho, fue Peebles quien hizo más que los otros en los años que siguieron. Calculó la cantidad de helio y deuterio que debía haber producido el Big Bang, y se percató de que el disco de estrellas visibles en una galaxia como nuestra propia Vía Láctea es extremadamente inestable, apenas podría soportar una sola rotación, y por tanto solo puede mantenerse unido por un halo esférico de materia oscura, con una masa unas diez veces superior a la de las estrellas más brillantes de una galaxia típica. También fue uno de los primeros en llamar la atención sobre el problema de la «planitud» del universo, la extraordinaria coincidencia de que la tasa a la que se expande el universo cae justamente en la línea divisoria entre permitir que la expansión continúe para siempre (lo que se conoce como un universo abierto) y permitir que la gravedad frene la expansión y acabe por producir un colapso o Big Crunch (un universo cerrado). En palabras de un experto, «es como encontrar un lápiz muy afilado en equilibrio sobre su punta durante millones de años» [338]. Esta observación fue uno de los factores que llevarían a la idea de la inflación en el universo temprano (véase más adelante).

La ordenada vida de las estrellas
La radiación de fondo no fue la única forma de ondas de radio provenientes del espacio profundo que se descubrió en la década de 1960. Los astrónomos habían observado muchos otros tipos de actividad de radio no relacionada con galaxias o estrellas ópticas. Entonces, en 1963, la Luna pasó por delante de una de aquellas fuentes, la número 273 del Third Cambridge Catalogue of the Heavens, y conocida por ello como 3C 273. Los astrónomos siguieron con sumo detalle el momento exacto en que el margen de la Luna cortó el ruido de radio de 3C 273; al precisar la fuente de este modo pudieron identificar el objeto como «semejante a una estrella», pero también descubrieron que la fuente tenía un corrimiento al rojo muy elevado, lo que significaba que se encontraba fuera de la galaxia de la Vía Láctea.
Más tarde se pudo determinar que estas «fuentes de radio parecidas a estrellas», o cuásares [xxv], constituyen el núcleo de galaxias lejanas tan remotas que la luz que nos alcanza (que suele ser muy tenue) las abandonó cuando el universo era muy joven, hace más de 10.000 millones de años. Su brillo, no obstante, indica que su energía emana de una área de aproximadamente un día luz de diámetro, más o menos las dimensiones del sistema solar. Los cálculos nos dicen que los cuásares deben radiar «aproximadamente 1.000 veces tanta energía como todas las estrellas de la Vía Láctea juntas» [339].
En 1967, John Archibald Wheeler, un físico americano que había estudiado en Copenhague y trabajado en el Proyecto Manhattan, resucitó la teoría del siglo XVIII de los agujeros negros como mejor explicación para los cuásares. Los agujeros negros se habían considerado curiosidades matemáticas hasta que la teoría de la relatividad llevó a pensar que realmente podían existir. Un agujero negro es una área donde la materia es tan densa y la gravedad tan fuerte que nada, ni siquiera la luz, puede escapar. Pueden ser equivalentes a 100 millones de masas solares de material: «La energía que oímos como ruido de radio proviene de masas de material que están siendo tragadas a una velocidad extraordinaria» [340].
Los púlsares son otro tipo de objeto astronómico detectado a través de las ondas de radio. Fueron descubiertos (accidentalmente, como la radiación de fondo) en 1967 por Jocelyn Bell Burnell, una radioastrónoma de Cambridge. Criada en Irlanda del Norte, Jocelyn Bell Burnell probablemente sea el único científico merecedor de un premio Nobel que suspendió el examen selectivo de primaria (eleven-plus) y fue educada en una escuela mixta de secundaria en lugar de una escuela de formación avanzada ( grammar school). Por suerte, su padre, que era arquitecto, recibió un encargo de trabajo en el Observatorio Armagh, y aquello despertó en su hija el interés por la astronomía, que estudió después en la Universidad de Glasgow. Allí sobrevivió a los rigores intelectuales del curso, que pasó de tener 300 estudiantes en el primer año a cincuenta en el tercero.
Se necesitaron dos años para construir el radiotelescopio de Cambridge, situado a unos cinco kilómetros a las afueras de la ciudad, a un lado del ferrocarril de Cambridge a Oxford, ya en desuso. Estaba formado por 2.048 antenas sostenidas sobre unos pilares de dos metros y medio, y se parecía más a un campo de lúpulo que a cualquier otra cosa. Burnell desarrolló una gran habilidad para distinguir entre «cuásares centelleantes y los coches que pasaban cerca». Por fin, el 28 de noviembre de 1967, detectó algo que no era ni un cuásar ni un coche, una fuente de radio completamente desconocida. Sus pulsos eran extremadamente precisos, tanto que al principio los astrónomos de Cambridge creyeron que podían tratarse de señales de una civilización lejana. Pero el descubrimiento de muchos más les hizo ver que debía de tratarse de un fenómeno natural.
La pulsación era tan rápida (y con una altísima precisión, de hasta una millonésima de segundo por día), que solo podían explicarse por dos características: las fuentes eran pequeñas y giraban [341]. Solo un objeto pequeño que gire muy rápido puede producir esos pulsos, como el haz de un faro que girase muy rápido. El pequeño tamaño de los púlsares indicó a los astrónomos que debían ser o bien enanas blancas (estrellas con la masa del Sol empaquetada en una esfera del tamaño de la Tierra), o bien estrellas de neutrones (con la masa del sol empaquetada en una esfera de menos de diez kilómetros de diámetro). Cuando se demostró que las enanas blancas no podían girar lo bastante rápido como para producir esos pulsos sin desintegrarse, los científicos tuvieron que aceptar la existencia de estrellas de neutrones. Estas estrellas superdensas, a medio camino entre las enanas blancas y los agujeros negros, tienen una corteza sólida de hierro por encima de un núcleo interior fluido hecho de neutrones y, posiblemente, quarks. El físico John Gribbin calcula que la densidad de las estrellas de neutrones es mil billones de veces mayor que la del agua, lo que significa que cada centímetro cúbico de una de estas estrellas pesa 100 millones de toneladas. Brian Cox lo expresa así: «Una sola cucharilla de la masa de una estrella de neutrones pesa más que una montaña» [342].
Las estrellas se forman a partir de un gas que se enfría. Pero a medida que se contraen se calientan, y tanto que llega un momento en que se inician reacciones nucleares; esto es lo que se conoce como «secuencia principal» de las estrellas. Tras esta secuencia, dependiendo de su tamaño y de en qué momento se alcanza una temperatura crucial, los procesos cuánticos desencadenan una ligera expansión que también es bastante estable, y la estrella se convierte entonces en una gigante roja. Hacia el final de su vida, una estrella se desprende de sus capas más exteriores, dejando un núcleo denso en el cual se han parado todas las reacciones nucleares; ahora es una enana blanca y se irá enfriando a lo largo de millones de años, hasta convertirse en una enana negra, a no ser que sea de gran tamaño, en cuyo caso acaba su vida en una dramática explosión de supernova. Brilla con muchísima intensidad pero por un tiempo brevísimo, dispersando por el espacio elementos pesados a partir de los cuales se formarán otros cuerpos celestes, y sin los cuales la vida no podría existir. Son estas explosiones de supernovas las que dan origen a las estrellas de neutrones y, en algunos casos, a los agujeros negros.
Así fue como el matrimonio entre la física y la astronomía, con cuásares y quarks, púlsares y partículas, la relatividad, la formación de los elementos y la vida de las estrellas, quedó sintetizada en una historia coherente y unificada que nos brinda una explicación detallada del origen y la evolución del universo.

Los primeros tres minutos y las piezas básicas del cosmos
El más célebre compendio de estas complejas ideas fue el libro de Steven Weinberg Los tres primeros minutos del universo, publicado en 1977. Weinberg, un rubicundo neoyorquino oriundo del Bronx, se graduó en Cornell, estudió en Copenhague y compartió el premio Nobel de 1979 con Sheldon Lee Glashow y Abdus Salam. Cada uno de ellos había concebido otro aspecto de la unificación, identificando (una vez más, de manera independiente) una amalgamación de la fuerza nuclear débil y la interacción electromagnética entre partículas elementales [343].
Lo primero que puede decirse sobre la «singularidad», como llaman los físicos al Tiempo Cero, es que técnicamente todas las leyes de la física quedan en suspenso. Por eso no podemos saber exactamente qué pasó en el momento exacto del Big Bang, solo nanosegundos después (un nanosegundo es una millonésima de segundo). Weinberg relata la siguiente cronología.
Ese «momento de la creación» original, a los 0,0001 (10-4) segundos, ocurrió aproximadamente hace 13.800 millones de años. La temperatura del universo en ese momento cuasioriginal era de 10 12 K o un billón de grados (escrito con todas las cifras, 1.000.000.000.000 K). La densidad del universo en este estadio era de 10 14 (100.000.000.000.000) gramos por centímetro cúbico. (La densidad del agua es de 1 gramo por centímetro cúbico). En este momento, fotones y partículas eran intercambiables.
Al cabo de 13,8 segundos, la temperatura había disminuido hasta tres mil millones de grados Kelvin y comenzaron a formarse núcleos de deuterio. Estos estaban formados por un protón y un neutrón, pero no tardaban en disgregarse por colisiones con otras partículas.
Tras 3 minutos y 2 segundos, la temperatura era de mil millones de grados Kelvin (unas setenta veces la temperatura actual del Sol). Se formaron entonces núcleos de deuterio y helio. A los cuatro minutos, el universo estaba constituido en un 25 % por helio, y el resto eran protones, núcleos de hidrógeno «solitarios».
Pasados 300.000 años, la temperatura era de 6.000 K (más o menos la misma que la de la superficie del Sol) y los fotones eran demasiado débiles para expulsar electrones de los átomos. En este momento, puede decirse que el Big Bang había acabado. El universo se expandió «relativamente rápido», al tiempo que se enfriaba.
Un millón de años más tarde comenzaron a formarse las estrellas y las galaxias, empezó a producirse la nucleosíntesis y se formaron los elementos pesados que dieron lugar al Sol y a la Tierra.
A partir de este momento el proceso se torna más asequible a la experimentación, ya que los aceleradores de partículas permiten que los físicos reproduzcan algunas de las condiciones que se dan en el interior de las estrellas. Estas nos indican que las piezas básicas de los elementos son hidrógeno, helio y partículas alfa, que son núcleos de helio-4. Estas se van añadiendo a núcleos existentes, de manera que los elementos se forman en saltos de 4 unidades de masa atómica: «Dos núcleos de helio-4, por ejemplo, se convierten en berilio-8, tres núcleos de helio-4 se convierten en carbono-12, que resulta ser estable». Esto es importante: cada núcleo de carbono-12 contiene ligeramente menos masa que las tres partículas alfa a partir de las cuales se forma. Así pues, se libera energía, de acuerdo con la famosa ecuación de Einstein, E = mc2, lo que provee E para producir nuevas reacciones y nuevos elementos [344].
La síntesis continuó, en las estrellas: oxígeno-16, neón-20, magnesio-24, silicio-28. En la descripción de Weinberg: «El último paso se produce cuando pares de núcleos de silicio-28 se combinan formando hierro-56 y elementos relacionados como níquel-56 y cobalto-56. Estos son los más estables de todos» [345]. De hierro líquido, cabe recordar, es el núcleo de la Tierra.
Pero aún hay más. Todo lo que existe en la actualidad lo hace gracias a un minúsculo desequilibrio en las leyes de la física en el universo temprano. Si las fuerzas hubieran estado igualadas, la materia y la antimateria se habrían aniquilado mutuamente, dejando solo radiación [xxvi]. Pero lo que ocurrió fue que tras la bola de fuego quedó una de las partículas de la materia cotidiana (la materia bariónica) por cada mil millones de fotones de radiación. «El universo actual está constituido por esas partículas (protones + neutrones), una de cada mil millones, que se fabricaron de este modo en la bola de fuego del Big Bang [346] ».
En nuestro sistema solar, el 90,8 % de los átomos son de hidrógeno, el 9,1 % de helio y el 0,1 % todo lo demás. Pero como el hidrógeno es el elemento más ligero, solo comprende el 70,13 % de la masa del sistema solar, mientras que el helio constituye el 27,87 % y el oxígeno, el tercer elemento más común por su masa, el 0,91 %. [347]
Materia oscura. Este posiblemente sea el mayor misterio sin resolver sobre el universo. Si el «modelo estándar» del Big Bang es correcto (el modelo estándar es lo que acabamos de describir), la densidad media de la materia en el universo se calcula en unos 5 × 10-27 Kg por metro cúbico. La cantidad de materia clara que podemos detectar es igual a solamente una centésima de esta densidad crítica y, si añadimos la materia oscura que sabemos que existe en los cúmulos galácticos (porque giran demasiado rápido como para que puedan mantenerse juntos solamente por la gravedad que genera la materia clara), todavía nos queda el hecho de que hay en el universo entre treinta y cien veces más materia oscura que materia clara [348]. No sabemos por qué existe materia oscura, ni siquiera qué es.
Pero ese no es el único problema que resta por resolver. Necesitamos doce partículas en la ecuación maestra del modelo estándar pero solo son necesarias cuarto para construir el universo (los quarks arriba y abajo, el electrón y el electrón neutrino). La existencia de las otras ocho es «un pequeño misterio» [349].

Un universo unificado
Esta explicación del universo temprano y su matrimonio con la física de partículas es ciencia brillante, pero también fue fruto de un gran esfuerzo de la imaginación, la segunda síntesis evolutiva del siglo XX. Fue incluso mucho más, pues aunque se necesitaba una imaginación de altísimo nivel, esta tenía que someterse a las pruebas empíricas (a las que se tenían entonces, al menos). Como ejercicio intelectual, merece compararse con las grandes ideas unificadoras de Copérnico, Galileo y Darwin.
Una vez que uno supera el pasmo de los grandes números involucrados en cualquier cosa que tenga que ver con el universo, y una vez que uno asume la extrema extrañeza no ya de las partículas, sino de los cuerpos celestes, no puede eludirse el hecho de lo inhóspito que es, en su mayor parte, el cosmos, tan caliente, tan frío, tan radiactivo, tan inimaginablemente denso. No hay vida, tal como la concebimos, que pueda existir nunca en esos vastos territorios del espacio. Los cielos de los físicos y los cosmólogos siguieron siendo tan prodigiosos como siempre lo habían sido, desde que el hombre comenzó a observar el Sol y las estrellas. Pero el cielo ya no era el cielo, si con ello se quería decir el paraíso.

Capítulo 12
Una biografía de la tierra: la cronología unificada de la geología, la botánica, la lingüística y la arqueología

Entre septiembre y noviembre de 1965, el buque oceanográfico Eltanin de la Fundación Nacional de la Ciencia de Estados Unidos surcaba los márgenes del océano Pacífico-Antártico en una misión rutinaria de recolección de datos del fondo marino. El buque era en esencia un laboratorio que pertenecía al Observatorio de la Tierra Lamont-Doherty, de la Universidad de Columbia. La oceanografía había recibido un empujón durante la segunda guerra mundial gracias a la necesidad de entender los U-Boot y su entorno, y desde entonces con la llegada de los submarinos nucleares de gran profundidad. El Instituto Lamont era uno de los centros más activos en este campo.
Durante el viaje de 1965, el Eltanin zigzagueó sobre una formación geológica del océano profundo conocida como dorsal Antártico-Pacífico, a 51 grados de latitud sur. Un equipo especial medía las características magnéticas de las rocas del fondo. Hacía tiempo que se sabía que, por alguna razón, el magnetismo de las rocas se invertía de manera regular cada pocos millones de años, y que esta pauta les decía mucho a los geólogos sobre la historia de la superficie de la Tierra. El científico a cargo de los tramos 19, 20 y 21 del viaje del Eltanin era, en aquella ocasión, Walter C. Pitman III, un graduado por la Universidad de Columbia que aún estaba trabajando en su tesis doctoral. Durante su estancia a bordo, dedicó todo su tiempo a comprobar que los instrumentos trabajasen como debían, pero en cuanto regresó a Lamont, se dispuso a examinar los registros para ver qué mostraban.
Lo que tenía ante sus ojos era una serie de bandas en blanco y negro que registraban las anomalías magnéticas de una sección del fondo del océano. Cada vez que la anomalía cambiaba de dirección, el dispositivo de registro cambiaba de blanco a negro y de nuevo a blanco, y así sucesivamente. Lo que aquel día de noviembre saltaba a la vista era que un registro concreto, el que reflejaba el avance del Eltanin desde 500 kilómetros al este de la dorsal Antártico-Pacífico (la dorsal del Pacífico Oriental) hasta 500 kilómetros al oeste, era completamente simétrico a lado y lado de la dorsal. Aquella simetría solo se podía explicar de una manera: las rocas a cada lado de la dorsal se habían formado exactamente al mismo tiempo y «ocupaban la posición que tenían porque se habían originado en la dorsal y se habían separado después, ocupando el fondo marino». Dicho de otro modo, el lecho oceánico estaba formado por rocas que surgían de las profundidades de la Tierra y luego se extendían por el lecho oceánico, empujando y separando los continentes. Aquello confirmaba por fin la deriva continental, que se efectuaba por medio de la separación del fondo oceánico. En la comunidad geológica, aquellos registros pasaron a conocerse como «el perfil mágico de Pitman» [350].
Aquellos resultados, diría más tarde, «me golpearon como un martillo», y añadía: «En retrospectiva, tuvimos suerte de dar con un lugar donde nada impide la expansión del lecho oceánico. No hay ningún otro lugar donde se puedan obtener perfiles tan perfectos. Allí no había irregularidades que nos distrajesen o nos engañasen. Y eso era bueno, porque más de uno había salido escaldado por defender la expansión del lecho oceánico. La simetría era extraordinaria» [351].

Los «patrones coincidentes» de los continentes
Pitman tenía razón. La expansión del lecho oceánico era un tema controvertido, al igual que lo era la teoría que había detrás, la deriva continental, propuesta por Alfred Wegener ya en 1912 con el fin de explicar la distribución (el orden) de las masas continentales del mundo y de las formas de vida.
Wegener había sido un meteorólogo alemán, pero nada en su formación lo había preparado para la gran teoría que había de proponer: no tenía formación ni en geología ni en geofísica [352]. Su obra Die Entstehung der Kontinente und Ozeane ( El origen de los continentes y los océanos), que apareció en 1915, no era particularmente original. Francis Bacon ya había llamado la atención en 1620 hacia los «patrones coincidentes» de los continentes. A principios del siglo XIX, el geógrafo y explorador alemán Alexander von Humboldt había comentado (también de pasada) las semejanzas entre las cordilleras de Brasil y de África occidental [353]. La idea que presentaba Wegener en su libro, que los seis continentes del mundo habían comenzado siendo un solo continente, ya la había sugerido anteriormente, en 1908 un norteamericano, Frank Bursley Taylor. Taylor creía que la causa del movimiento continental era una combinación de la acción de las mareas y de un aumento de la velocidad de rotación de la Tierra, que forzaban a las masas continentales a separarse de los polos movidas por la fuerza centrífuga. Este aumento de la rotación, decía, tenía su causa en «la captura de un cometa que se convirtió en la Luna». Otra teoría, propuesta en 1911 por Howard Baker, suponía que la Tierra y Venus habían estado más cerca en el pasado, lo que había provocado que la Luna fuese «desgarrada de la Tierra», y la sima resultante se habría convertido en el océano Pacífico [354].
Pero Wegener recogió muchas más pruebas empíricas, y mucho más impresionantes, en apoyo de su teoría que nadie antes, un poco como Lyell y Darwin en sus ámbitos respectivos. Presentó sus ideas durante un congreso de la Asociación Geológica Alemana celebrado en Frankfurt am Main en enero de 1912. De hecho, con el beneficio que nos da la perspectiva de la historia, cabe preguntarse por qué los científicos no llegaron antes a las mismas conclusiones que Wegener.
A finales del siglo XIX ya resultaba evidente que para explicar el mundo natural y su distribución por el planeta era necesario alcanzar algún tipo de reconciliación intelectual. Las pruebas que informaban de esa distribución provenían sobre todo de fósiles y de la peculiar disposición geográfica de los tipos de rocas relacionados. El origen de las especies de Darwin había renovado el interés en los fósiles porque se comprendió que si se databan, podían arrojar luz sobre el desarrollo de la vida en épocas remotas, y tal vez sobre el propio origen de la vida. Por otra parte, era mucho lo que ya se sabía sobre las rocas y sobre cómo un tipo se había separado de otro durante la formación de la Tierra, que a partir de una masa de gas se había condensado primero en líquido y luego en sólido.
El problema central radicaba en la distribución de algunos tipos de rocas por el planeta y sus vínculos con los fósiles. Por ejemplo, hay una cordillera que discurre desde Noruega hasta el norte de Gran Bretaña y que debería cruzarse en Irlanda con otras cordilleras que atraviesan el norte de Alemania hasta el sur de Gran Bretaña. A Wegener le parecía que el cruce se producía en realidad cerca de la costa de América del Norte, como si en otro tiempo las tierras de las costas del Atlántico Norte hubieran sido contiguas. De manera parecida, los fósiles de plantas y animales aparecían distribuidos por la Tierra de un modo que solo se podía explicar si en otro tiempo hubiera habido puentes de tierra que hubieran conectado, por ejemplo, África y Sudamérica, o Europa y Norteamérica. Pero si esos puentes habían existido, ¿adónde habían ido? ¿Qué había suministrado la energía que había llevado a la formación y desaparición de aquellos puentes? ¿Qué había pasado en los océanos?
La respuesta de Wegener era audaz. No había habido puentes de tierra, decía, sino que los seis continentes que hoy conocemos (África, Australia, América del Norte y del Sur, Eurasia y Antártida) habían sido en otro tiempo un enorme continente, una ingente masa continental a la que dio el nombre de Pangea (del griego todo y tierra). Los continentes habían acabado ocupando sus posiciones actuales por «deriva», flotando como gigantescos icebergs. Su teoría explicaba también las cordilleras mediocontinentales, formadas por la colisión de antiguas masas continentales.
Presentaba también un mapa que mostraba de qué modo Sudamérica había encajado con África, India entre África y la Antártida, y cómo la base cóncava de Australia había encajado con la Antártida. Así se podía explicar la distribución de cuatro fósiles: Lystrosaurus, un reptil terrestre; Cynognathus, otro reptil terrestre; Mesosaurus, un reptil de aguas continentales, y el helecho Glossopteris [355]. Algunos de sus cálculos eran un poco exagerados. Por ejemplo, con la ayuda de cartas lunares había calculado que, con relación a Greenwich, Groenlandia se había desplazado 9 metros al año entre 1823 y 1870, y 32 metros al año entre 1870 y 1907. Esas tasas implicaban que los continentes se podían haber desplazado de un lado de otro de la Tierra en tan solo de 1 a 5 millones de años. Eso es unas 3.000 veces más rápido que las tasas que se aceptan actualmente, de 4 centímetros al año [356].
En cualquier caso, era una idea que costaba aceptar. ¿Cómo podían «flotar» continentes enteros? ¿Y sobre qué? Y, si los continentes se habían movido, ¿qué enorme fuerza los había forzado a hacerlo?
En tiempos de Wegener ya se conocía la estructura esencial de la Tierra. Los geólogos habían analizado las ondas de los terremotos y habían deducido que nuestro planeta consistía en una corteza, un manto, un núcleo externo y un núcleo interno. El primer descubrimiento básico fue que todos los continentes de la Tierra están hechos de un tipo de roca, el granito, una roca ígnea (formada bajo un intenso calor) granular, constituida por feldespato y cuarzo. En estos continentes graníticos puede encontrarse un tipo de roca distinto, el basalto, mucho más denso y duro. El basalto aparece en dos formas, sólida y fundida (lo cual sabemos porque la lava de las erupciones volcánicas es basalto semifundido). Esto hace pensar que la relación entre las estructuras externas y las internas de la Tierra está claramente vinculada a cómo se formó el planeta a partir de una masa de gas que se enfrió convirtiéndose en líquido y luego en sólido.
Los enormes bloques de granito que forman los continentes tienen un grosor estimado en unos 50 kilómetros, pero por debajo de ellos, hasta 3.000 kilómetros más de profundidad, la Tierra posee las propiedades de un «sólido elástico» de basalto semifundido. Y aún por debajo, hasta el centro de la Tierra (cuyo radio es de unos 6.000 kilómetros), hay hierro líquido. Hace millones de años, naturalmente, cuando la Tierra era mucho más caliente que hoy, el basalto habría sido menos sólido, y la situación global de los continentes se habría acercado más a la imagen de unos icebergs que flotaban sobre los océanos. Visto así, la deriva de los continentes resulta mucho más fácil de concebir [357].
La teoría de Wegener se puso a prueba cuando él y otros comenzaron a calcular de qué modo habrían encajado las actuales masas continentales. Como es obvio, los continentes no están constituidos únicamente por las tierras que en nuestros tiempos aparecen emergidas. El nivel del mar ha bajado y subido a lo largo del tiempo geológico en respuesta al descenso del nivel del agua durante las edades de hielo y su aumento durante las épocas más cálidas, de manera que las plataformas continentales (áreas que actualmente se encuentran bajo el agua pero a relativamente poca profundidad, antes de que el perfil caiga bruscamente hasta miles de metros) también deben tenerse en cuenta en el momento de mirar el «encaje».
Hay varias características geológicas que acaban de tener sentido cuando se monta este enorme rompecabezas. Por ejemplo, hay depósitos de la glaciación de la era Permo-Carbonífera (antiguos bosques que se formaron hace 200 millones de años y hoy son yacimientos de carbón) que se presentan en formas idénticas en la costa oeste de Sudáfrica y en la costa este de Argentina y Uruguay. Existen otras áreas de rocas parecidas del Jurásico y el Cretáceo (de hace unos 100-200 millones de años) alrededor de Nigeria, en África occidental, y alrededor de Recife, en Brasil, dos regiones exactamente opuestas a ambos lados del Atlántico sur. Y hay un geosinclinal (una depresión de la superficie de la Tierra) que se extiende por el sur de África pero también atraviesa Argentina, siguiendo una misma línea [358].
¿Durante cuánto tiempo existió Pangea, y cuándo y por qué se produjo la ruptura? ¿Qué mantuvo ese proceso? Estas son las preguntas últimas de lo que sin duda es una de las ideas más asombrosas de los tiempos modernos. (Tardó tiempo en calar: en 1939, los libros de texto de geología todavía trataban la deriva continental como «una mera hipótesis»).

Cómo encajan la deriva continental y la edad de la Tierra
La teoría de la deriva continental coincidió con el otro gran avance de la geología durante los primeros años del siglo, relacionado con la edad de la Tierra. En 1650, como es bien conocido, James Ussher, el arzobispo de Armagh, en Irlanda, utilizó las cronologías que aparecen en la Biblia para calcular el momento de la creación de la Tierra, y determinó que esta se había producido en el crepúsculo del 22 de octubre de 4004 a. C [xxvii]. A finales del siglo XIX, William Thomson, lord Kelvin, basándose en ideas sobre el enfriamiento de la Tierra, propuso que la corteza se había formado hace entre 20 millones y 98 millones de años (capítulo 1). Todos estos cálculos quedaron arrumbados tras el descubrimiento de la radiactividad y la desintegración radiactiva. En 1907, Bertram Boltwood, de la Universidad de Yale, partiendo de una sugerencia de Ernest Rutherford, estableció que el plomo era el producto final de la desintegración del uranio radiactivo, y se percató de que podía calcular la edad de las rocas midiendo su composición relativa de uranio y plomo, y relacionándola con la vida media del uranio. Las sustancias más viejas de la Tierra son, por lo que sabemos, unos cristales de circón de Australia datados en 1983 con una edad de 4.200 millones de años. La mejor estimación actual de la edad de la Tierra, obtenida relacionando física, geología y tiempo, es de 4.500 millones de años [359].
Wegener abrazó la teoría sin dudarlo, respaldada como le parecía que estaba por todos los indicios que había recogido, pero muchos geólogos, especialmente en Estados Unidos, no estaban tan convencidos; eran «fijistas» que creían que los continentes eran rígidos e inmóviles. De hecho, la geología estuvo dividida durante años, al menos hasta la segunda guerra mundial. Con la llegada de los submarinos nucleares, la marina estadounidense, en particular, necesitaba mucha más información sobre el océano Pacífico, la extensión de agua que mediaba entre ellos y su principal enemigo, la Unión Soviética. El resultado fundamental que emanó de aquellos estudios fue que las anomalías magnéticas del fondo del Pacífico se disponían en forma de enormes «tablones» que discurrían más o menos en paralelo, predominantemente en dirección norte-sur, cada una de 15-25 kilómetros de anchura y cientos de kilómetros de longitud.
Walter Pitman no sabía demasiado de todo aquello. Cuando realizó su viaje por el Pacífico, no estaba familiarizado con los debates clásicos sobre la deriva continental ni demasiado familiarizado con la idea de la expansión del fondo oceánico [360]. Pero los hallazgos del Eltanin permitían hacer un tentador ejercicio de aritmética: si se divide 25 kilómetros por 1 millón (el número de años tras los cuales, por término medio, cambia la polaridad de la Tierra), se obtiene 2,5 centímetros por año. ¿Significaba eso que el Pacífico se estaba expandiendo a esa velocidad cada año? En términos generales, la respuesta era que sí, aunque investigaciones posteriores indicaron que el Pacífico se ha expandido constantemente a una tasa de 1 centímetro por año durante los últimos 10 millones de años, y un 1 centímetro multiplicado por 10 millones da 100.000 metros, 100 kilómetros. (En la actualidad, la anchura máxima del Pacífico es de 18.800 kilómetros) [361].
Había más pruebas empíricas a favor de los movilistas. En 1953, el sismólogo francés Jean-Pierre Rothé presentó en una reunión de la Real Sociedad de Londres un mapa en el que había registrado los epicentros de terremotos de los océanos Atlántico e Índico. El mapa mostraba una pauta notablemente coherente, con muchos terremotos asociados a las crestas mediooceánicas. Además, cuanto más lejos estaban los volcanes de las crestas, más antiguos y menos activos eran. Otro de los efectos secundarios de la guerra fue el análisis de los movimientos sísmicos que transmitían por todo el planeta las explosiones de bombas atómicas, y que arrojaron el sorprendente resultado de que el lecho del océano no tenía más que unos 6 kilómetros de grosor, mientras que los continentes tenían un grosor de unos 32 kilómetros. Justo un año antes del viaje del Eltanin, sir Edward Bullard, un geofísico británico, había reconstruido los márgenes del océano Atlántico usando los últimos sondeos, lo que le permitía usar las curvas de nivel de 1.000 metros de profundidad en lugar de las del nivel del mar. A aquella profundidad, los continentes encajaban aún mejor. Pero a pesar de todos estos indicios, los «fijistas» no se dieron por derrotados hasta la llegada a tierra de la imagen simétrica del Eltanin [362].
Aprovechando el ánimo receptivo, en 1968 William Jason Morgan, de Princeton, propuso una teoría «movilista» todavía más extrema. Su idea era que los continentes estaban formados por una serie de placas globales o «tectónicas» que se desplazaban lentamente sobre la superficie de la Tierra. Propuso que el movimiento de esas placas, cada una de unos 100 kilómetros de grosor, explicaba el grueso de la actividad sísmica del planeta. Su controvertida idea no tardó en recibir apoyo con el descubrimiento de varias fosas profundas en el fondo del océano Pacífico. En estas fosas, que recibieron el nombre de zonas de subducción, el lecho oceánico podía penetrar hasta los 700 kilómetros de profundidad, donde era absorbido por el manto subyacente (una de estas fosas se extendía desde Japón hasta la península de Kamchatka, en Rusia, a lo largo de 1.800 kilómetros [363] ).

El orden que condujo a la vida
Otra de las formas en que la Tierra ha cambiado con el transcurso del tiempo (o, de hecho, ha envejecido, y de una manera muy interesante) es que en las rocas de hace unos 2.500 millones de años comenzamos a ver la acumulación de hematita, una forma oxidada de hierro. Eso lleva a pensar que entonces, por primera vez, se producía oxígeno, que «gastaba» los minerales del planeta. No hay duda de que antes de ese momento la atmósfera de la Tierra contenía poco o ningún oxígeno y que las primeras formas de vida, que eran organismos bacterianos, eran anaerobios, es decir, solo podían vivir en un medio desprovisto de oxígeno. Entonces, ¿de dónde venía el oxígeno?
El mejor candidato a productor de oxígeno es una bacteria verde-azulada que, en las aguas someras (donde la luz del Sol puede actuar sobre la clorofila), captaba la energía de la radiación para sintetizar azúcares, y durante el proceso rompía moléculas de agua, liberando oxígeno; en otras palabras, realizaba la fotosíntesis. Durante un tiempo, los minerales de la Tierra se apoderaron del oxígeno producido (las rocas calizas lo capturaban en forma de carbonato de calcio, el hierro se oxidaba, etc.), pero finalmente el mundo mineral quedó saturado y a partir de entonces, durante unos mil millones de años, miles de millones de bacterias exhalaron minúsculos soplos de oxígeno que transformaron la atmósfera de la Tierra.
Según Richard Fortey, en su historia de la Tierra, el siguiente paso fue la formación de unas viscosas comunidades de microbios que adoptaban la forma de «tapetes», casi como si fueran capas bidimensionales. Todavía se encuentran, por ejemplo, en salares de los trópicos, donde la falta de animales que puedan comerlos permite que sobrevivan, pero se han hallado en formas fosilizadas en Sudáfrica y Australia, asociados a rocas de hace más de 3.500 millones de años. Estas estructuras, que se conocen como estromatolitos, tienen forma de «coles con capas» y podían alcanzar grandes longitudes: 10 metros era normal, y 30 no era excepcional. Pero estaban constituidos por procariotas, células sin núcleo que se reproducían por división simple [364].
La aparición del núcleo fue el siguiente avance. Freeman Dyson ha reconocido en Lynn Margulis a uno de los grandes científicos que han tendido puentes en la biología moderna. Tal como señaló la profesora de Amherst, «con toda probabilidad» una bacteria ingirió a otra, que se convirtió en un organismo dentro de otro, y con el tiempo dio lugar al núcleo. Una célula procariota se había convertido en célula eucariota. El cloroplasto es otro de estos orgánulos, una subunidad especializada en la fotosíntesis dentro de la célula. El desarrollo del núcleo y los orgánulos fue un paso crucial que permitió la formación de otras estructuras más complejas.
A esto le siguió, según se cree, la evolución del sexo, que al parecer se produjo hace unos 2.000 millones de años. El sexo apareció porque permitía la posibilidad de la variación genética, dándole un empujón a la evolución, que por aquel entonces debió de acelerarse. Las células se hicieron más grandes, más complejas, y aparecieron los mohos mucilaginosos. Estos pueden adoptar varias formas, y en ocasiones pueden desplazarse por la superficie de otros objetos. En otras palabras, pueden moverse o no, presentan algunos tejidos especializados pero rudimentarios, y en definitiva se comportan de un modo que vagamente recuerda a los animales [365].

La explosión cámbrica y otra síntesis evolutiva
Hace unos 700 millones de años ya había aparecido la fauna ediacárica, constituida por las formas más primitivas de los animales, que se ha hallado en varias partes del mundo, desde Leicester, en Inglaterra, hasta Flinders Ranges, en el sur de Australia. Adoptaban muchas formas exóticas, pero en general se caracterizaban por tener simetría radial, una «piel» de solo dos células de grosor y una boca y estómago primitivos, un aspecto no muy distinto del que tienen las medusas y, por tanto, no inimaginablemente apartado de los mohos mucilaginosos. Fueron los primeros organismos verdaderamente pluricelulares, pero por alguna razón se extinguieron, tal vez porque carecían de esqueleto. Este debió ser el siguiente gran paso de la evolución. Los paleontólogos pueden decirlo con cierta seguridad porque hace unos 500 millones de años se produjo una revolución en la vida animal de la Tierra, que conocemos como explosión cámbrica. En un periodo de tan solo 15 millones de años aparecieron los animales con concha o caparazón, y con formas que hoy nos resultan familiares. Se trata de los trilobites, algunos de los cuales tenían patas articuladas y pinzas, otros presentaban nervios dorsales rudimentarios, otros ojos primitivos, y aun otros, características tan extrañas que son difíciles de describir [366].
Y así, hacia mediados de la década de 1980, comenzó a emerger en la biología una nueva síntesis que llenó las lagunas sobre el orden que habían seguido algunos desarrollos importantes, proporcionando una cronología más precisa. Si avanzamos por el tiempo geológico, podemos dar un salto de unos 400 millones de años desde la explosión cámbrica hasta hace unos 65 millones de años.
Uno de los efectos de llegar a la Luna en 1969, y del desarrollo posterior de diversas sondas, fue que la geología pasó de ser una disciplina con un solo planeta que estudiar a otra con una base de datos mucho más rica. Uno de los aspectos en los que tanto la Luna como otros planetas difieren de la Tierra es que parecen tener muchos cráteres sobre su superficie, como resultado de impactos de asteroides o meteoritos: cuerpos del espacio. Esto fue importante para la geología porque, hacia la década de 1970, la disciplina ya se había acostumbrado a una cronología lenta, medida en millones de años. Pero había una excepción a la regla que se conocía como límite K-T, la frontera entre dos periodos geológicos, Cretáceo y Terciario, que se produjo hace unos 65 millones de años [xxviii]. Es entonces cuando los registros fósiles muestran una gran y repentina perturbación, cuya principal característica era lo contrario a la explosión cámbrica: muchas formas de vida habían desaparecido.
La más notable de aquellas extinciones era la de los dinosaurios, unos animales de gran tamaño que había destacado en los registros fósiles durante unos 150 millones de años, para luego desvanecerse por completo. Tradicionalmente, los geólogos y paleontólogos habían considerado que las extinciones en masa eran consecuencia del cambio climático o del descenso del nivel del mar. Para muchos, sin embargo, ese proceso habría sido demasiado lento, y las plantas y los animales se habrían adaptado, mientras que entre el Cretáceo y el Terciario habían desaparecido de forma brusca alrededor de la mitad de las formas de vida de la Tierra. Después de que se hubiesen estudiado muchos cráteres en la Luna y los planetas, algunos paleontólogos comenzaron a considerar la posibilidad de que un suceso catastrófico de este tipo hubiera sido la causa de la extinción en masa que se produjo en la Tierra hace 65 millones de años. Dio comienzo de este modo una fantástica historia de detectives que no acabó de resolverse hasta 1991 [367].
Para que un meteorito o un asteroide tenga un efecto tan devastador hace falta un tamaño mínimo, y el cráter resultante no debía ser fácil de pasar por alto. Sin embargo, no había ningún candidato obvio, y el primer avance importante no se produjo hasta que los científicos se dieron cuenta de que los meteoritos tienen una estructura química distinta a la de la Tierra, en particular por lo que se refiere al grupo de elementos del platino. Esto se debe a que estos elementos son absorbidos por el hierro, y la Tierra tiene un enorme núcleo de este metal. En cambio, el polvo de meteorito debería ser rico en estos elementos, entre ellos el iridio. Y, en efecto, cuando Luis y Walter Alvarez, de la Universidad de California en Berkeley, analizaron afloramientos rocosos datados en el límite Cretáceo-Terciario, descubrieron que el iridio se encontraba en cantidades que eran noventa veces superiores a las que cabría esperar de no haberse producido ningún impacto. Fue este descubrimiento, realizado en junio de 1978, lo que lanzó a este equipo de padre e hijo (y, más tarde, nuera) a una búsqueda que les llevó más de una década.
El segundo progreso importante se produjo en 1981, cuando Jan Smit, un científico holandés, describió en la revista Nature los descubrimientos que había realizado en un yacimiento del límite K-T en Caravaca, en España. Describió unos pequeños objetos redondeados, del tamaño de unos granos de arena, llamados esférulas. Estos, decía, eran comunes en aquellos lugares y su análisis reveló que contenían cristales de una forma «plumosa», hechos de sanidina, una forma de feldespato de potasio. Se pudo demostrar después que estas esférulas se habían desarrollado a partir de unas estructuras anteriores de olivino (un feldespato rico en piroxeno y calcio) y su importancia estribaba en que eran características del basalto, la principal roca que forma la corteza de la Tierra bajo los océanos. Dicho de otro modo, el meteorito no había caído en un continente, sino en el océano [368].
Eso era bueno y malo. Era bueno porque confirmaba que se había producido un enorme impacto hace 65 millones de años, pero malo porque enviaba a los científicos en busca de un cráter en los océanos y a la caza de indicios del gigantesco tsunami que debió provocar el impacto. Los cálculos indicaban que la ola del tsunami debía haber alcanzado un kilómetro de altura al acercarse a las costas de los continentes. Ambas búsquedas resultaron infructuosas, y aunque durante la década de 1980 se fueron acumulando indicios de un impacto con la identificación de más de 100 localidades que mostraban anomalías en la cantidad de iridio, el lugar del impacto seguía sin aparecer.
No fue hasta 1988, cuando Alan Hildebrand, un canadiense vinculado a la Universidad de Arizona, empezó a estudiar el río Brazos, en Texas, cuando aquella búsqueda de toda una década llegó a su etapa final. Se sabía desde hacía tiempo que, en un lugar cerca de Waco, el Brazos discurre formando unos rápidos sobre un lecho arenoso duro, y se llegó a la conclusión de que aquel lecho era un resto de una inundación provocada por un tsunami. Hildebrand examinó a fondo el Brazos y se puso a buscar indicios que, siguiendo una forma circular, lo vincularan con otras características de la zona. Tras estudiar mapas y anomalías gravitatorias, encontró por fin una estructura circular, que podría ser un cráter de impacto, en el lecho del Caribe, al norte de Colombia y extendiéndose hasta la península de Yucatán en México. Otros paleontólogos se mostraron escépticos al principio, pero Hildebrand recabó la ayuda de geólogos más familiarizados con Yucatán, y estos no tardaron en confirmar que aquella área era el lugar de un impacto.
La razón de que todo el mundo estuviera tan perplejo era que el cráter, conocido como Chicxulub, estaba enterrado bajo rocas más recientes. Cuando Hildebrand y sus colaboradores publicaron su artículo en 1991, causó sensación, al menos entre geólogos y paleontólogos. Ahora tenían que revisar su postura: los acontecimientos catastróficos podían afectar a la evolución [369].
La desaparición de los dinosaurios resultó tener un efecto liberador sobre los mamíferos. Hasta el límite K-T, los mamíferos eran animales de pequeño tamaño, lo que tal vez les ayudara a sobrevivir tras el impacto, puesto que eran muy numerosos. En cualquier caso, los mamíferos de tamaño grande no aparecen hasta después de K-T, cuando ya no tenían que competir con Tyrannosaurus rex, Triceratops y demás parentela.
Por toda la Tierra comenzaron a aparecer mamíferos cada vez más grandes, pero África comenzaba a ser distinta, sobre todo por su abundancia de primates, entre los cuales se contaban los primeros simios verdaderos y los ancestros de los monos de Viejo Mundo. Los primates habían desaparecido de Europa hacia finales del Eoceno (hace 56-34 millones de años), y de la mayor parte de Asia y América del Norte por la misma era, de modo que África era su refugio y fue allí donde evolucionaron simios y monos [370]. En el siguiente periodo geológico, el Oligoceno (hace 34-23 millones de años), los primates estaban restringidos a África, donde eran abundantes [371].
Podemos decir, pues, que probablemente no habría habido humanos si el meteorito K-T no hubiera chocado contra la Tierra. El más primitivo de los homínidos, Sahelanthropus tchadensis, apareció en la región de Gran Rift africano hace 7-6 millones de años (7 ma). Aunque su cráneo era pequeño y parecido al de un chimpancé, con un encéfalo pequeño y arcos supraciliares prominentes, ya tenía algunos rasgos muy humanos, como el rostro aplanado, los caninos reducidos y la postura erguida. Hasta el momento se han identificado unos veintiún tipos distintos de homínidos, datados entre aquella época y la actual [372].

Dataciones que encajan: el romance de la coherencia
Al principio, la deriva continental, las placas tectónicas, la explosión cámbrica y el límite K-T solo revestían interés para los geólogos. Uno de los logros de la ciencia del siglo XX ha sido darnos acceso a épocas cada vez más remotas del pasado. Aunque estos descubrimientos han llegado a trozos, han resultado ser coherentes, más aún, románticamente coherentes, como base para una historia, una narración que ha culminado (hasta el momento) en la humanidad. Quizá sea este el mayor logro del pensamiento moderno. A continuación veremos otros descubrimientos que, aunque presentados de forma inconexa, bien que siguiendo la cronología, hacen hincapié en esa coherencia.

* * * *

En la paleontología, como en la arqueología clásica, el método tradicional de datación del pasado es la estratigrafía. Como bien sugiere el sentido común, las capas más profundas son más antiguas que las capas que yacen por encima de ellas. No obstante, esto solo nos da una cronología relativa que nos permite distinguir lo más antiguo de lo más reciente. Para obtener dataciones absolutas se necesita alguna prueba empírica independiente; por ejemplo, una lista de reyes con las fechas escritas, o monedas con la fecha estampada, o referencias escritas a algún suceso celeste, por ejemplo un eclipse, cuya fecha pueda determinarse a partir del conocimiento moderno. Esa información puede asociarse entonces con niveles estratigráficos. Como es obvio, el resultado no es del todo satisfactorio porque los yacimientos pueden resultar dañados, de forma accidental o deliberada, por la naturaleza o por el hombre, o las tumbas pueden reutilizarse. Por eso los arqueólogos y los paleontólogos siempre están buscando nuevos métodos de datación, y el siglo XX les ofreció varios avances en este campo.
El primero se produjo en 1929, y ya lo consideramos en el prefacio. Se trata de la identificación por Andrew Ellicott Douglass de los anillos de los árboles como indicadores de los años de «vacas gordas» y de «vacas flacas» a lo largo de la historia, que pudo relacionar de manera nítida con la actividad de las manchas solares, lo que le permitió datar con precisión algunos acontecimientos del calendario precolombino.
Nuestra comprensión de los orígenes de la vida humana en la Tierra también experimentó cambios revolucionarios gracias al descubrimiento de la datación por radiocarbono, descubierta en 1949 en Nueva York por Willard Libby (quien ganaría el premio Nobel de Química de 1960 por su innovación).
La datación por radiocarbono depende del hecho de que las plantas absorben del aire dióxido de carbono, que en una pequeña proporción es radiactivo a causa del bombardeo con rayos cósmicos provenientes del espacio exterior. La fotosíntesis convierte este CO2 en tejido vegetal radiactivo en una proporción que se mantiene constante hasta que la planta (o el organismo que la haya comido) muere, pues en ese momento cesa la absorción de carbono. El carbono radiactivo, 14C (a diferencia del isótopo común, 12C, que comprende más del 98 % del carbono), tiene una vida media de unos 5.700 años y, por consiguiente, si se compara la proporción de carbono radiactivo en objetos antiguos con la de objetos actuales, se puede calcular el tiempo transcurrido desde la muerte del organismo.
Libby comenzó por contrastar las fechas que obtenía con fechas históricas, usando para ello objetos de civilizaciones antiguas, como la madera de un sarcófago mumiforme del periodo ptolemaico de Egipto, con una edad conocida de 2.280 años (Libby obtuvo 2.190 ± 450), o la madera de una barca funeraria de la tumba de Sesostris III, rey de Egipto, con una edad conocida de 3.750 años (Libby obtuvo 3.621 ± 80), o una viga de madera de acacia de la tumba de Zoser, segundo rey de la tercera dinastía del antiguo Egipto, con una edad conocida de 4.650 años (Libby obtuvo 3.979 ± 350 [373] ).
Más tarde recogió pruebas empíricas por todo el mundo, en Turquía, Irak, Irlanda, Dinamarca y a través de América del Norte y del Sur, 949 muestras en total. Las americanas comenzaron a responder preguntas cruciales de la arqueología de ese continente, por ejemplo cuándo comenzó allí la agricultura, cuándo se construyeron los grandes templos mayas y aztecas, y qué era coetáneo de qué. Fue realmente entonces cuando comenzó el estudio sistemático de la cronología de las civilizaciones del Nuevo Mundo.
Algunas de las dataciones obtenidas por Libby eran sorprendentes, pero el verdadero punto de inflexión se produjo con la publicación, en 1973, de un libro de Colin Renfrew, entonces profesor en la Universidad de Southampton, más tarde en Cambridge, que llevaba por título El alba de la civilización: la revolución del radiocarbono (C14) y la Europa prehistórica [374].

El alba de la civilización tenía dos argumentos centrales. En primer lugar, revisaba la cronología de la expansión del hombre por el planeta. Por ejemplo, desde 1960, aproximadamente, se sabía que Australia ya había sido ocupada por los humanos en 4000 a. C., quizá incluso ya en 17000 a. C. Se determinó que el maíz ya se recogía sistemáticamente en México hacia 5000 a. C., y bastante antes de 3000 a. C. ya mostraba signos de domesticación. La verdadera importancia de estas fechas no era solo que fuesen anteriores a lo que antes se pensaba, sino que acabaron con las vagas teorías del momento que suponían que Mesoamérica solo había desarrollado la civilización después de haberla importado, de algún modo imposible de definir, de Europa. El continente americano había estado separado del resto del mundo desde 16000-14000 a. C., la última edad de hielo, pero había desarrollado todos los rasgos distintivos de la civilización, desde la agricultura, la construcción y la metalurgia hasta la religión, de una forma completamente independiente.
Esta revisión de la cronología, y lo que significaba, era el segundo elemento del libro de Renfrew, que se centró en el área que mejor conocía: Europa y la historia clásica de Oriente Medio. Sumeria y Egipto, por ejemplo, fueron las madres de las civilizaciones, los primeros grandes logros colectivos de la humanidad, y dieron lugar a los minoicos de Creta y al mundo clásico del Egeo: Atenas, Micenas, Troya. Desde aquí, la civilización se extendió hacia el norte, a los Balcanes primero, luego a Alemania y Gran Bretaña, y al oeste hacia Italia, Francia y la península Ibérica.
Pero con la revolución del 14C, este modelo se topó con graves problemas. Con las nuevas dataciones, los grandes yacimientos megalíticos de la costa atlántica de España y Portugal, de Bretaña y Gran Bretaña, y de Dinamarca, resultaban ser contemporáneos de las civilizaciones del Egeo o incluso las precedían. No era un problema de cuatro fechas aisladas, sino de muchos cientos de fechas revisadas, coherentes entre sí y que en algunos casos situaban los megalitos atlánticos hasta mil años antes de las culturas del Egeo. El modelo tradicional todavía se sostenía para Egipto, Oriente Medio y el Egeo, pero, en palabras de Renfrew, se había abierto una «falla» arqueológica alrededor del Egeo, traspasada la cual se requería un nuevo modelo [375].
El modelo que proponía comenzaba por rechazar la vieja idea de la «difusión», que suponía la existencia de una región de civilizaciones madre en Oriente Medio donde se habían originado las ideas de la agricultura, la metalurgia o la domesticación de plantas y animales, que más tarde se habrían extendido hacia el resto de regiones a medida que se producían migraciones. Para Renfrew, estaba claro que a todo lo largo de las costas atlánticas de Europa se habían desarrollado una serie de sociedades de jefatura, un nivel de organización social a medio camino entre los cazadores-recolectores y las civilizaciones bien desarrolladas como las de Egipto, Sumeria y Creta, que tenían reyes, complejos palacios y una sociedad altamente estratificada.
Las áreas soberanas de las sociedades de jefatura eran más pequeñas (por ejemplo, seis en la isla de Arran, en Escocia), y se organizaban alrededor de grandes tumbas o, en otras ocasiones, lugares de importancia astronómica y religiosa, como Stonehenge. En estas sociedades se desarrollaron formas rudimentarias de comercio y de estratificación social. En número suficiente podían erigir impresionantes monumentos de piedra de carácter funerario y religioso, que servían para cohesionar a los clanes. Los megalitos siempre se encuentran asociados a tierras cultivables, lo que lleva a pensar que las sociedades de jefatura fueron un estadio natural en la evolución de la sociedad. Allí donde se asentaba el hombre con las primeras plantas de cultivo domesticadas, no tardaban en aparecer sociedades de jefatura y megalitos [376].
El análisis de Renfrew, que hoy se acepta de manera general, se centró en los yacimientos de Gran Bretaña, España y los Balcanes, que servían para ilustrar sus ideas. Pero lo importante era el argumento general que defendía. Aunque los primeros pueblos sin duda se habían dispersado para poblar el mundo a partir de un punto inicial (probablemente África oriental), la civilización, la cultura, como cada uno prefiera llamarlo, no se había desarrollado en un lugar para luego extenderse del mismo modo. En diferentes tiempos y lugares habían nacido y crecido civilizaciones por su propia cuenta.
A largo plazo, esto tendría dos importantes consecuencias intelectuales. En primer lugar, las culturas del mundo eran sui generis y no debían su existencia a una cultura madre, la antepasada de todas ellas. Combinado con los hallazgos de los antropólogos, esto hacía a todas las culturas igualmente potentes e igualmente originales. El mundo «clásico» había dejado de ser la fuente última.
A un nivel más profundo, como Renfrew señaló específicamente, los descubrimientos de la nueva arqueología corrían ahora al peligro de sucumbir demasiado fácilmente al pensamiento darwinista. La vieja teoría difusionista era una forma de evolución, pero una forma tan general que casi carecía de significado. Sugería que la civilización se había desarrollado siguiendo una secuencia única y sin solución de continuidad. La nueva información empírica que proporcionaba la datación con 14C y la dendrocronología (de los anillos de los árboles) demostraba que esa idea era claramente incorrecta. La nueva concepción no era menos «evolutiva», pero era muy diferente.

El primer hombre
Mary y Louis Leakey, arqueólogos y paleontólogos, venían realizando excavaciones en África (en Kenia y Tanganika, lo que después sería Tanzania), desde la década de 1930 sin descubrir nada especialmente importante. En particular, habían hecho excavaciones en la garganta de Olduvai, un cañón de unos cien metros de profundidad y cincuenta kilómetros de longitud que corta la llanura de Serengueti y forma parte del Valle del Gran Rift que se extiende de norte a sur a través de la mitad oriental de África y se considera la frontera entre dos grandes placas tectónicas.
Para los científicos, la garganta de Olduvai había revestido un interés especial desde su descubrimiento en 1911, cuando un entomólogo alemán llamado Wilhelm Kattwinkel casi se precipitó en ella mientras cazaba mariposas. Al descender después a la garganta, que corta muchas capas de sedimento, descubrió innumerables huesos fósiles que causaron una gran conmoción a su vuelta a Alemania, porque incluían partes de un caballo extinto. Expediciones posteriores hallaron partes de un esqueleto de humano moderno, lo que llevó a algunos científicos a la conclusión de que Olduvai era un lugar perfecto para estudiar las formas de vida extintas, y entre ellas, tal vez, los ancestros de la humanidad [377].
Dice mucho de la firmeza de carácter de los Leakey que excavasen en Olduvai desde principios de la década de 1930 hasta 1959 sin realizar el trascendental descubrimiento que siempre habían esperado. (Hasta ese momento se creía que los primeros humanos se habían originado en Asia). Durante la década de 1930 hasta que sus excavaciones casi se interrumpieron a causa de la segunda guerra mundial, los Leakey habían excavado en Olduvai un buen número de años, pero su mayor logro había sido hallar una gran colección de herramientas prehistóricas fabricadas por el hombre. Louis y su segunda esposa Mary fueron los primeros en comprender que las herramientas de sílex no se iban a encontrar en aquella parte de África, como se habían hallado en toda Europa, porque en general no hay sílex en África oriental. Lo que sí hallaron en abundancia fueron herramientas líticas, sobre todo de basalto y cuarcita. Aquello convenció a Leakey de que había encontrado un «suelo de habitación», una suerte de sala de estar prehistórica donde los primeros hombres habían construido herramientas con las que comer los cuerpos de las distintas especies extintas que para entonces se habían descubierto en Olduvai o en sus alrededores.
Tras la guerra, ni él ni Mary visitaron Olduvai hasta 1951, pero excavaron en aquel yacimiento durante casi toda la década de 1950. Durante aquellos años encontraron miles de bifaces (hachas de mano) y, asociados con ellas, huesos fosilizados de muchos animales extintos (cerdos, búfalos, antílopes, varios de ellos mucho mayores que las variedades actuales), que evocaban la imagen romántica de una África habitada por grandes y primitivos animales. A este suelo de habitación lo bautizaron como «el matadero». Por aquel entonces, según Virginia Morell, la biógrafa de los Leakey, creían que el lecho más inferior de la garganta databa de hace unos 400.000 años y que el más alto era de hace 15.000 años. Louis no había perdido un ápice de su entusiasmo, pese a haber alcanzado la mediana edad sin haber hallado restos de un solo humano tras más de veinte años de búsqueda. Lo que hacía perseverar a los Leakey era el ocasional hallazgo de algún diente de homínido (al ser tan duros, los dientes tienden a sobrevivir mejor que otras partes del cuerpo humano), que mantenía a Louis convencido de que cualquier día darían con un valioso cráneo humano [378].
La mañana del 17 de julio de 1959, Louis se despertó con algo de fiebre y Mary insistió en que no se moviese del campamento. Hacía poco que habían descubierto el cráneo de una jirafa extinta, así que había mucho trabajo por hacer. Mary condujo el Land Rover con la sola compañía de sus dos perros, Sally y Victoria. Aquella mañana excavó en un yacimiento de Bed I, el lecho más bajo y antiguo, conocido como FLK, el acrónimo de «Frieda Leakey’s Korongo», el barranco (korongo, en suajili) de Frieda Leakey, la primera esposa de Louis. Hacia las once, cuando el calor comenzaba a ser insoportable, Mary encontró un trozo de hueso que «no yacía plano sobre la superficie, sino que se proyectaba desde abajo. Parecía ser parte de un cráneo… Tenía un aspecto de homínido, pero los huesos parecían ser muy gruesos, sin duda demasiado gruesos», escribió más tarde en su autobiografía. Cuando retiró un poco de suelo, vio «dos grandes dientes que seguían la curva de una mandíbula».
Por fin, después de decenas de años, no cabía ninguna duda: era el cráneo de un homínido.
Saltó al Land Rover con los dos perros y regresó a toda prisa al campamento, gritando a su llegada «¡Lo tengo! ¡Lo tengo!».
Embargada por la excitación, le comunicó a Louis su hallazgo y este, como diría más tarde, se sintió al instante «mágicamente bien» [379].
Cuando Louis vio el cráneo, supo de inmediato por los dientes que no era una forma primitiva de Homo, sino probablemente un australopitecino, de aspecto más parecido a un simio. Pero cuando acabaron de limpiar el suelo a su alrededor, el cráneo resultó ser enorme, con la mandíbula robusta, el rostro plano y unos grandes arcos cigomáticos (los huesos de los pómulos), en los que debían anclarse unos potentes músculos masticadores. Pero, lo más importante, era el tercer cráneo de australopitecino que los Leakey encontraban asociado con una abundancia de herramientas. Louis siempre lo había explicado bajo la suposición de que los australopitecinos eran víctimas de Homo cazadores, que luego se daban un banquete con aquel antepasado más primitivo. Pero ahora comenzaba a cambiar de opinión, a preguntarse si habrían sido los propios australopitecinos los que habían hecho aquellas herramientas. La fabricación de herramientas se había visto siempre como la marca de la humanidad, y ahora, quizá, la humanidad se podía remontar hasta los australopitecinos.
Louis no tardó en convencerse de que el nuevo cráneo estaba a medio camino entre los australopitecinos y el Homo sapiens moderno, así que bautizó a su nuevo hallazgo como Zinjanthropus boisei, porZinj, el antiguo nombre de la costa oriental de África,anthropus para denotar los rasgos humanoides del fósil, y boisei por Charles Boise, el estadounidense que había financiado tantas de sus expediciones [380].
Como estaba tan completo y era tan antiguo y extraño, Zinj hizo famosos a los Leakey. El descubrimiento fue noticia de portada en todo el mundo, y Louis se convirtió en la estrella de congresos en Europa, América del Norte y África. En esos congresos, la interpretación de Zinj que proponía Leakey topó con la resistencia de otros estudiosos que pensaban que su nuevo cráneo, pese a su gran tamaño, no era tan diferente del de los australopitecinos que se habían encontrado en otros lugares. El tiempo le daría la razón a los críticos y se la quitaría a Leakey. Pero mientras Leakey defendía su opinión de lo que significaba aquel cráneo grande y de rostro plano, en otro lugar dos científicos le daban un giro inesperado a la cuestión.
Un año después del descubrimiento de Zinj, Leakey escribió un artículo para la revista National Geographic, «El hallazgo del hombre más antiguo del mundo», en el que daba a Zinjanthropus una edad de 600.000 años. Pero se equivocaba mucho.
Usando las técnicas tradicionales de la estratigrafía (el análisis de las capas de sedimentación), Leakey había calculado que Olduvai databa de principios del Pleistoceno, que generalmente se consideraba el tiempo en que habían coincidido con el hombre animales gigantes como el mamut, y se extendía desde hace unos 600.000 años hasta hace unos 10.000 años. Pero desde 1947, como ya se ha mencionado, se había introducido un nuevo método de datación, la técnica del 14C.
Dada su vida media, que es relativamente corta, el 14C solo sirve para datar artefactos hasta una antigüedad de unos 40.000 años. Pero no mucho después de que apareciera el artículo de Leakey en National Geographic, dos geofísicos de la Universidad de California en Berkeley, Jack Evernden y Garniss Curtis, anunciaron que habían datado unas cenizas volcánicas del Bed I de Olduvai (donde se había encontrado a Zinj) usando el método del potasio-argón (K-Ar). El principio de este método es análogo al de la datación con 14C, pero se basa en la tasa con la que un isótopo radiactivo inestable de potasio (40K) se desintegra en el isótopo estable argón-40 (40Ar). Esto puede compararse con la abundancia conocida de 40K en el potasio natural y calcular la edad de un objeto a partir de su vida media. Como la vida media de 40K es de unos 1.300 millones de años, este método es mucho más adecuado para el material geológico.
Usando el nuevo método, los geofísicos de Berkeley llegaron a la sorprendente conclusión de que el Bed I de Olduvai no tenía una edad de 600.000 años, sino de 1,75 millones de años. Aquello fue toda una revelación, la primera pista de que los primeros humanos se remontaban muchísimo más atrás de lo que nadie hubiera imaginado. Fue esto, tanto como el descubrimiento de Zinj, lo que hizo famosa a la garganta de Olduvai, y lo que más tarde propiciaría la audaz idea, casi exactamente cien años después de Darwin, de que la humanidad se había originado en África y desde allí se había dispersado hasta poblar todo el planeta [381].

La primera mujer
Todo aquello ocurrió durante la década de 1960. Como veremos en un capítulo posterior, el descubrimiento de la dilatada edad de Zinj fue uno de los factores que espoleó el interés por los antiguos hombres y primates de África. Pero habría de pasar un cuarto de siglo para que una nueva forma de datación permitiera completar la historia de una forma bastante fundamental, y en este caso se trataba de una forma de datación biológica.
En un artículo publicado en Nature en enero de 1987, Allan Wilson y Rebecca L. Cann, de Berkeley (California), revelaron un uso pionero del análisis del ADN mitocondrial en un contexto arqueológico/paleontológico. El estudio del ADN había avanzado mucho desde el descubrimiento de Watson y Crick. Las mitocondrias son orgánulos del interior de las células que se encuentran fuera del núcleo y actúan como baterías celulares, produciendo una sustancia conocida como trifosfato de adenosina o ATP. La propiedad del ADN mitocondrial que interesó a Wilson y Cann es que solo se hereda a través de la madre y, por lo tanto, no se ve modificado, como sí le pasa al ADN nuclear, durante la reproducción. Por consiguiente, el ADN mitocondrial solo puede cambiar, y mucho más lentamente, por mutación. A Wilson y Cann se les ocurrió la feliz idea de comparar el ADN mitocondrial de personas de distintas poblaciones, razonando que cuanto más distintas fueran, más dilatado sería el tiempo transcurrido desde su divergencia del antepasado común que todos compartimos. Se sabía que las mutaciones se producen a un ritmo bastante constante, así que este cambio también debería darnos una idea de cuándo divergieron distintos grupos humanos [382].
Para empezar, Wilson y Cann descubrieron que el mundo se puede dividir en dos grandes grupos: los africanos de un lado y todos los demás del otro. En segundo lugar, los africanos tenían ligeramente más mutaciones que cualquier otro grupo, lo que confirmaba las pruebas paleontológicas de que la humanidad es más antigua en África, que muy probablemente se originó allí (la «Eva mitocondrial») y luego se dispersó desde ese continente para poblar el resto del mundo. Por último, estudiando la tasa de mutaciones y usándola para remontar en el tiempo, Wilson y Cann consiguieron probar que la humanidad, tal como la conocemos, no tiene más de 200.000 años, confirmando en términos generales las pruebas derivadas de los fósiles. La biología y la geología concordaban [383].

Lenguas madres, superfamilias y los vínculos entre huesos y piedras
Una de las razones por las que el artículo de Wilson y Cann atrajo tanta atención fue que sus resultados concordaban bien no solo con lo que los paleontólogos estaban descubriendo en África, sino también con las investigaciones recientes en lingüística y arqueología. Ya en 1786, sir William Jones, un juez británico que servía en la India en el Tribunal Superior de Calcuta, había descubierto que el sánscrito presentaba una inequívoca semejanza con el griego y el latín. Esta observación le sugirió el concepto de «lengua madre», la idea de una única lengua ancestral de la que habrían descendido el resto de las lenguas [384].
A partir de 1965, Joseph Greenberg comenzó a reexaminar la hipótesis de sir William Jones aplicada al continente americano. En 1987 concluyó un exhaustivo estudio de las lenguas nativas americanas, desde el sur de Sudamérica hasta los esquimales en el norte, que publicó bajo el título Language in the Americas, en el que llegaba a la conclusión de que, en su base, las lenguas americanas podían dividirse en tres. La primera y más antigua era el «amerindio», que se extiende por Sudamérica y los estados más meridionales de Estados Unidos, y presenta una variación mayor que otras lenguas más septentrionales, lo que llevaba a pensar que era más antigua. El segundo grupo era el na-dené, y el tercero, el esquimo-aleutiano, que se extendía por Canadá y Alaska. El grupo na-dené es más variado que el esquimo-aleutiano, todo lo cual, en opinión de Greenberg, apunta a tres migraciones a América por grupos que hablaban tres lenguas distintas. Basándose en las «mutaciones» de las palabras, cree que los hablantes de amerindio llegaron al continente americano hace más de 11.000 años, los hablantes de na-dené hace unos 9.000 años y los aleutianos y esquimales divergieron hace unos 4.000 años [385].
Las conclusiones de Greenberg son profundamente controvertidas pero concuerdan bastante bien con los indicios derivados de estudios dentales y de las prospecciones de variación genética, en particular con el muy original trabajo de Luigi Luca Cavalli-Sforza de la Universidad de Stanford. En una serie de libros que comprende Cultural Transmission and Evolution [Transmisión cultural y evolución, 1981], African Pygmies [Los pigmeos africanos, 1986], The Great Human Diasporas [Las grandes diásporas de la humanidad, 1993] and The History and Geography of Human Genes [Historia y geografía de los genes humanos, 1994], Cavalli-Sforza y sus colaboradores han examinado la variabilidad de la sangre (sobre todo el factor Rh) y los genes alrededor del mundo. Los resultados obtenidos concuerdan bastante bien con las fechas de dispersión de los humanos por el planeta.
También han sugerido varias posibilidades extraordinarias en nuestra historia de longue durée. Por ejemplo, parece que las lenguas na-dené, sino-tibetana, caucásica y vasca podrían estar relacionadas de una forma muy primitiva, y que en otro tiempo pertenecieran a una superfamilia que habría quedado fragmentada por otros pueblos, viéndose relegada a áreas residuales o, en el caso de los hablantes de na-dené, expulsados al continente americano. Los indicios empíricos también demuestran la gran antigüedad de los hablantes de euskera, cuya lengua y sangre son bastante diferentes de las de su entorno. Cavalli-Sforza señala además la cercanía de la nación vasca y las muestras más antiguas de arte rupestre en Europa, y se pregunta si esto constituye un indicio de la existencia de un pueblo antiguo que registraba sus técnicas de cazadores-recolectores en las paredes de las cuevas y resistió la expansión de los pueblos agricultores provenientes de Oriente Medio.
Por último, Cavalli-Sforza intentó dar respuesta a dos de las más fascinantes preguntas de datación: ¿cuándo se originó el lenguaje?, y ¿hubo alguna vez una única lengua ancestral, una verdadera lengua madre? Por aquel entonces, algunos paleontólogos creían que los neandertales habían sido desplazados porque carecían de lenguaje. Contra ello, Cavalli-Sforza argumenta que la región de nuestro cerebro responsable del lenguaje se encuentra detrás de los ojos, en el lado izquierdo, y hace que el cráneo sea ligeramente asimétrico. Esta asimetría no se encuentra en los simios, pero sí en los cráneos de Homo habilis, datados en hace más de 2 millones de años. Además, nuestro neurocráneo dejó de crecer hace unos 300.000 años, lo que sugiere que el lenguaje podría ser más antiguo de lo que muchos paleontólogos creen. Por otra parte, los estudios sobre los cambios del lenguaje con el tiempo (una tasa que se conoce de manera aproximada) apuntan a una división de las principales superfamilias hace entre 20.000 y 40.000 años. Esta discrepancia todavía no está resuelta [386].
Por lo que respecta a la lengua madre, Cavalli-Sforza se basa en Greenberg, quien argumenta que hay al menos una palabra que parece ser común a todas las lenguas del mundo: la raíz tik.

Familia o lenguaFormasSignificado
Nilo-sahariana tok-tek-dik uno
Caucásica titi, tito dedo, único
Urálica ik-odik-itik uno
Indoeuropea dik-deik señalar
Japonesa te mano
Esquimal tik dedo índice
Sino-tibetana tik uno
Austroasiática ti mano, brazo
Indo-pacífica tong-tang-ten dedo, mano
Na-dené tek-tiki-tak uno
Amerindio tik dedo

Para las lenguas indoeuropeas, las que se extienden desde Europa occidental hasta la India, el enfoque de Greenberg ha sido llevado más lejos por Colin Renfrew, el arqueólogo de Cambridge que racionalizó los efectos de la revolución del 14C en la datación. El objetivo de Renfrew en Arqueología y lenguaje: la cuestión de los orígenes indoeuropeos (1987) no era simplemente examinar los orígenes del lenguaje, sino comparar esos hallazgos con otros de la arqueología para ver si se podía alcanzar una visión de conjunto coherente y, lo que es más controvertido, identificar el lugar de origen de los pueblos indoeuropeos y arrojar luz sobre el desarrollo general de los humanos. Tras introducir la idea del cambio de sonido regular, en función de la nación…

FrancésItalianoEspañol
lait latte leche
fait fatto hecho

… Renfrew estudia las tasas de cambio del lenguaje y considera cómo podría haber sido el primer vocabulario. Comparando variaciones en el uso de palabras clave (como ojo, lluvia y seco), junto a un análisis de la primera cerámica y un conocimiento de los métodos más primitivos de la agricultura, Renfrew examina la expansión de la agricultura por Europa y áreas adyacentes. Llega a la conclusión de que la patria central de los indoeuropeos, el lugar donde se originó la lengua madre, el «proto-indo-europeo», fue la región central y oriental de Anatolia hacia 6500 a. C. y que la expansión de este lenguaje estuvo asociada a la expansión de la agricultura [387].
Lo más interesante de todo esto para nosotros es el grado de concordancia entre la arqueología, la lingüística y la genética. La dispersión de los pueblos por el planeta, la desaparición de los neandertales, la llegada de la humanidad al continente americano, el auge del lenguaje, su expansión asociada al arte y la agricultura, sus vínculos con la cerámica, y las diferentes lenguas que tenemos hoy, todo encaja en un orden particular, tal vez los inicios del último capítulo de la síntesis evolutiva.

La unión de los hemisferios
El lugar del continente americano, el Nuevo Mundo, en el esquema general tardó en descifrarse, pero nos ofrece un final apropiado para este capítulo.
La cuestión de si América era parte de Asia o un continente separado no se zanjó hasta 1732, casi un cuarto de milenio después de que Cristóbal Colón arribase a Guanahini, en lo que hoy son las Bahamas. Solo entonces Iván Fedorov y Mijaíl Grozdev descubrieron por fin Alaska. En 1778, el capitán James Cook navegó por el estrecho de Bering, observando que apenas 96 kilómetros de mar separaban los dos continentes, lo que convenció a muchos de que aquel debía de ser el punto de entrada de los primeros americanos.
El hombre que por primera vez propuso la idea de que en otro tiempo se había extendido un puente de tierra entre Rusia y América fue fray José de Acosta, un misionero jesuita, en 1590. Para entonces llevaba casi veinte años viviendo en México y Perú y tomó como un acto de fe que Adán y Eva habían vivido en el Viejo Mundo y el hombre debía haber migrado a América. Además, los viajes transoceánicos le parecían improbables y prefería la idea de que «los límites superiores» de América del Norte se habían unido o «acercado» a Rusia, dejando un estrecho lo bastante corto como para no inhibir la migración. Se fijó también en la dispersión de los animales pequeños, y consideró improbable que pudiesen atravesar un estrecho nadando. El viaje por tierra era mucho más probable [388].
Angelo Heilprin (1853-1907), un geólogo, también hizo algunas inferencias en 1887 a partir de la distribución de los animales, al observar que las especies del Viejo y el Nuevo Mundo eran relativamente disimilares en latitudes meridionales, más parecidas a latitudes medias y «casi idénticas» en el norte. Para él estaba claro que «si la diversificación de las especies es función de la distancia al norte, las especies deben haberse dispersado en esa dirección». Poco después otro geólogo, el canadiense George Mercer Dawson (1849-1901), observó que los mares que separan Alaska de Siberia eran poco profundos y «debe considerarse que desde una perspectiva fisiográfica pertenecen a la región de la plataforma continental, no a la claramente distinta cuenca oceánica». Dawson añadió que «más de una vez, y tal vez durante periodos prolongados, existió una amplia llanura terrestre que conectaba América del Norte con Asia». No tenía conocimiento de las edades de hielo, pero aceptaba que en varias ocasiones el levantamiento continental debía haber alzado el lecho oceánico por encima del nivel del mar. En 1892, el descubrimiento de unos huesos de mamut en las islas Pribilof, a unos 480 kilómetros de Alaska, causó una gran conmoción. «O estos gigantescos elefantes peludos eran unos excelentes nadadores, o las islas fueron en otro tiempo puntos elevados en una amplia llanura, en conjunción… con las masas continentales de Alaska y Siberia». W. A. Johnson, otro geólogo canadiense, añadió el elemento final. En 1934 estableció un vínculo entre los cambios del nivel del mar y las edades de hielo, cuya existencia solo se había confirmado en 1837. «Durante el estadio de glaciación de Wisconsin [~110.000-11.600 años] —escribió— el nivel general del mar debía ser inferior a causa de la acumulación de hielo sobre los continentes. Suele aceptarse que la magnitud de ese descenso es de al menos 50 metros, de modo que hubo un puente de tierra durante el punto álgido de la glaciación». Esto concordaba con el argumento que el botánico sueco Eric Hultén planteó más o menos por los mismos años: que la región del estrecho de Bering había sido un refugio para plantas y animales durante la edad de hielo. Fue Hultén quien dio a la región el nombre de Beringia en honor a Vitus Bering, un capitán de la marina rusa que había descubierto el estrecho en el siglo XVIII. Hultén sostenía que el refugio de Beringia había proporcionado la ruta terrestre por la cual los antiguos humanos habían alcanzado el Nuevo Mundo [389].

El vínculo entre los niveles del mar y la vida
La evolución del conocimiento en torno al puente de Bering es una historia fascinante por derecho propio. Comprende tres aspectos. El primero concierne los intentos por demostrar que efectivamente existió un puente de tierra; el segundo, las investigaciones con el fin de determinar cómo era el puente desde un punto de vista físico, cómo era su geografía, qué plantas y animales podían transitarlo; y el tercero, las averiguaciones encaminadas a determinar qué pueblos lo cruzaron y cuándo.
La era del Pleistoceno, más conocida como edad de hielo, comenzó hace unos 1,65 millones de años. La mayoría de los científicos creen que acabó hace unos 10.000 años, aunque algunos insisten en que todavía estamos inmersos en ella y que «simplemente estamos disfrutando de una tregua interglacial». Durante el Pleistoceno, a los periodos de enfriamiento les siguieron otros de calentamiento en amplios ciclos que podían durar cientos de miles de años. El ciclo frío más reciente comenzó hace unos 28.000 años, y las temperaturas cayeron inexorablemente hasta hace unos 14.000 años; es lo que se conoce como Máximo Tardiglaciar. Las condiciones ambientales eran entonces incomparablemente más rigurosas que en la actualidad, sobre todo en las regiones polares, y especialmente en el hemisferio norte. Esto se debe a la dirección de la rotación de la Tierra, que hizo que las corrientes oceánicas y el clima se viesen más afectados allí que en ningún otro lugar, pero también a que hay más tierra (pesada, seca) en el hemisferio norte que en el sur, lo que produce irregularidades en la órbita de la Tierra.
La consecuencia de todo ello es que caía más nieve en invierno de la que se podía fundir en verano, de manera que se apilaba en capas que se fundían ligeramente en los cortos veranos y luego volvía a cristalizarse. La nieve que caía cada año hacía presión sobre la capa del año anterior, creando una gran masa de hielo. El manto de hielo Laurentino, el mayor de América del Norte, alcanzó una altura de casi 3,2 kilómetros. Tenía su centro en lo que hoy es la bahía de Hudson, pero llegó a cubrir todo lo que hoy llamamos Canadá, unos 6.400 kilómetros de anchura. Al oeste, el manto Laurentino lindaba con el otro gran manto de hielo de América del Norte, el manto de la Cordillera, que se extendía unos 4.800 kilómetros por las cordilleras de la costa oeste, desde el estrecho de Puget hasta las islas Aleutianas [390].
Con el tiempo, los glaciares llegaron a retener alrededor de una vigésima parte del agua del planeta, y la mitad de esa cantidad estaba en el manto Laurentiano. A consecuencia de ello, el nivel del mar descendió unos 125 metros (no 180, como Johnson decía) respecto a su nivel actual. A medida que las aguas se retiraban, Asia y América del Norte «comenzaron a alcanzarse el uno al otro como los brazos estirados de Dios y Adán en el techo de la Capilla Sixtina. Cuando las puntas de los dedos se tocaron, una carga de nueva vida atravesó como una corriente hacia el continente americano» [391]. Una analogía imaginativa, aunque el contacto se produjo con proverbial lentitud geológica. De manera gradual, la plataforma continental se fue ensanchando hasta que hace unos 18.000-14.000 años, en el punto álgido de la actividad glacial, en lo que, recordemos, se conoce como Máximo Tardiglaciar, la plataforma entre Alaska y Siberia quedó emergida, una tierra alta que se extendía de norte a sur a lo largo de unos 1.500 kilómetros.
Los estudios geológicos, basados en la perforación de testigos de tierra y hielo, indican que solo durante el último millón de años se produjeron unas dieciséis edades de hielo, separadas por periodos «interglaciares». El puente de Bering debió de conectar los dos continentes durante la mayoría de esas edades de hielo, lo que habría permitido el intercambio de animales (no humanos, que aún tenían que evolucionar o llegar a Siberia) entre el Viejo y el Nuevo Mundo. El último puente de tierra reviste un interés especial precisamente porque para entonces ya había humanos en la región. Este periodo duró, en términos aproximados, desde hace 25.000 años hasta hace 14.000 años.
Aun sin hielo, era un entorno hostil, seco y ventoso. El loess (el sedimento glacial arrastrado por el viento) se acumulaba en grandes dunas grisáceas. La vegetación era escasa, la tierra poco más que un desierto polar, un versión más seca de la actual tundra. Pese a ello, Beringia (como dio en llamarse) albergó diversos animales. Los mamuts lanudos probablemente fuesen las bestias más grandes que merodeaban por la región. Sus pellejos de unos diez centímetros de grosor, que caían en desgreñados faldones, les ofrecían protección suficiente frente al frío y el cortante viento. Los perezosos terrestres, que pesaban hasta 3.000 kilogramos, y el bisonte gigante, eran casi igual de grandes. Los caballos, que evolucionaron en América del Norte, migraron por el puente de tierra en el otro sentido, hacia Asia, pero sin duda tenían un pelaje más grueso que los caballos actuales. Varias especies de antílope, alce, reno y oveja habitaron en el puente de tierra durante la edad de hielo, al igual que los enormes tigres de dientes de sable, con sus caninos de unos quince centímetros de longitud, capaces de penetrar el grueso pellejo del mamut y el bisonte, además de leones y manadas de lobos. Una especie antigua de oso, mayor incluso que el actual grizzly de Alaska, completaba este exótico bestiario [392].
La identificación de todas esas especies de plantas y animales fue en sí mismo todo un logro científico. Eric Hultén, el botánico sueco al que nos hemos referido anteriormente, estudió las plantas de Siberia y Alaska durante la década de 1930, publicando su Flora of the Auleutian Islands. Hultén tenía una mentalidad estadística y, además de describir las plantas, tomaba nota de su distribución, y en particular de su expansión por el río Mackenzie del Canadá y por el río Lena de Siberia. Al dibujar aquellas distribuciones sobre un mapa, observó que formaban una serie de óvalos que se extendían de este a oeste. Estos óvalos, además de ser simétricos, eran concéntricos, y el eje de simetría siempre se encontraba en una línea que pasaba por el estrecho de Bering, lo que sugería una explicación coherente. Hultén imaginó que en algún tiempo debía haber existido una masa de tierra alta «que se extendía desde las regiones poco afectadas por las glaciaciones en Siberia hasta regiones del mismo tipo en Alaska». Esta masa de tierra quedaba aislada de las áreas mucho más frías que la rodeaban y por tanto actuaba como un «gran refugio biológico, un lugar donde plantas y animales septentrionales sobrevivieron a la extinción y desde donde obviamente se habían dispersado tras la recesión de los glaciares».
El trabajo de Hultén no tardó en ser ampliado por J. Louis Giddings, un arqueólogo texano que en la década de 1940 identificó en el cabo Krusenstern, al sureste de Point Hope, en Alaska, «no menos de 114 crestas de playa, cada una de ellas paralela a la línea de la costa, que en conjunto se extendían hasta más de cinco kilómetros hacia el interior». No solo eso, sino que cada cresta proveyó una serie de hallazgos arqueológicos que permitieron determinar que las crestas más exteriores (más cercanas a la actual línea de costa) eran más antiguas que las crestas más interiores. La conclusión obvia era que aquellas culturas dependientes del mar habían ido trasladándose hacia el interior a medida que el mar subía y anegaba sus viviendas, lo que ilustraba claramente hasta qué punto estaban vinculados los asentamientos humanos y el nivel del mar [393].
Pero quien más hizo avanzar nuestro conocimiento científico de Beringia fue David M. Hopkins, un graduado de la Universidad de Nueva Hampshire. Junto a William Oquilluk, un famoso historiador iñupiat del norte de Alaska, el primer proyecto de Hopkins fue un estudio de conchas de moluscos fósiles, pues comprendió que su distribución y sedimentación revelarían cuándo había estado abierto el estrecho de Bering y cuándo no. La base de su estudio fue la historia natural de la caracola gigante, Neptunea. Este género ha existido en el Pacífico norte desde el Terciario, hace unos 65 millones de años, pero no había indicios de la presencia de Neptunea en sedimentos atlánticos hasta principios del Pleistoceno, hace un millón de años. Lo que esto sugería es que durante la mayor parte del período Terciario la migración marina había quedado bloqueada por un puente de tierra que no había quedado anegado hasta principios del Pleistoceno, momento en el cual habría permitido que Neptunea se dispersase hacia el norte y el este y alcanzase el Atlántico.
Oquilluk llevó a Hopkins a muchos depósitos de conchas, y a raíz de ello colaboraron en un artículo pionero dedicado al puente de tierra de Bering que se publicó en Science en 1959. Su conclusión fue que el puente había existido durante la mayor parte de la era Terciaria (desde hace 65 hasta hace 2 millones de años), que los indicios obtenidos de peces fósiles indicaban que un canal atravesó el puente a mediados del Eoceno (hace unos 50 millones de años) y que ya estaba completamente sumergido hace un millón de años. Desde entonces, el puente había aparecido y se había sumergido numerosas veces con las idas y venidas de las eras glaciares. El puente de tierra había desaparecido por última vez, decían, hace unos 9.500 años [394].
La confirmación última del territorio de Beringia la obtuvo el propio Hopkins. En 1974, cerca de un lago en el cabo Espenberg, en el norte de la península Seward, encontró una capa de tefra, o ceniza volcánica, que estaba a un metro de profundidad y había retenido en su interior masas de ramitas y matas de hierba. El lago cercano era de hecho un maar, un lago circular del tipo que se forma cuando un volcán entra en erupción al nivel de la tierra. Hopkins sabía por investigaciones previas que este maar, Devil Mountain, había entrado en erupción 18.000 años atrás, en un momento en que había puente de tierra. De ello se seguía lógicamente que las ramas, raíces y hierbas mezcladas con la tefra correspondían a vegetación del puente. El estudio de este material vegetal indicó que provenía de pradera seca, tundra rica en vegetación con una mezcla de plantas herbáceas y gramíneas, en particular la ciperácea Kobresia, además del ocasional sauce y la alfombra de musgo. Esta amalgama de vegetación dominada por Kobresia se ha descubierto desde entonces en el estómago de varios mamíferos conservados y confirma que el paisaje se asemejaba a una estepa. Hopkins, que falleció en 2001, defendía con firmeza la opinión de que el puente de tierra de Bering podía sostener manadas enteras de animales de pasto, más los depredadores que tuvieran. Lo importante es que un paisaje así habría podido sustentar humanos [395].

La coherencia de la Gran Divisoria
La llegada de los primeros humanos al continente americano, que aproximadamente se produjo en 15000 a. C., es importante para nuestra historia. Es importante porque aquella llegada significó que durante unos 16.500 años, desde 15000 a. C. hasta 1500 d. C., o 640 generaciones, hubo en el mundo dos poblaciones de humanos que, por lo que sabemos, se desconocían mutuamente. Por consiguiente, el desarrollo de estas dos poblaciones a lo largo de todos aquellos siglos, hasta la llegada de Cristóbal Colón en octubre de 1492, constituyó un extraordinario y extremadamente valioso experimento natural. ¿Se desarrollaron de forma distinta o más o menos del mismo modo?
La humanidad, y también la civilización, se desarrollaron de forma muy distinta en los dos hemisferios. Pero la disparidad no fue aleatoria. Se produjeron diferencias importantes y sistemáticas entre el Viejo Mundo y el Nuevo Mundo en lo referente, por ejemplo, al clima, la geografía, la geología, la biología animal y vegetal, a los animales que existieron en cada lugar, a la expansión de distintos tipos de plantas, y a muchas otras cosas. Lo importante es que cuando se toma en cuenta todo esto y se pone todo en orden, se halla que la Gran Historia, aunque distinta en cada hemisferio, se deriva en último análisis de los mismos principios básicos. La coherencia se mantiene.

Capítulo 13
Los solapamientos entre nuevas disciplinas: Etología, Sociobiología y Economía del comportamiento

Los premios Nobel, establecidos en 1901 (cinco, de física, química, medicina o fisiología, paz y literatura) han desempeñado su propio y distinguido papel en la historia moderna. Pero ha habido una interesante diferencia en la evolución que han seguido los premios. En física y química, los premios no suelen ser controvertidos. Una lista de galardonados con el Nobel de Física, por ejemplo, señalaría todos los progresos decisivos que se han producido en este campo durante los siglos XX y XXI, con contadas objeciones de los especialistas. Con los premios de Paz y Literatura, la situación es muy distinta, pues el premio suele dar relieve a alguien que los jueves consideran que debería ser más conocido, o reconoce una obra que no siempre era tan popular como debiera. Por ello, en los mundos de la política y la literatura no ha habido tanto acuerdo acerca de quién merecía el premio y quién no.
El premio de Medicina y Fisiología también ha sido distinto. Se concedía sobre todo, como cabe esperar, a avances fundamentales en biología, por ejemplo, a Robert Koch por la tuberculosis, a Frederick Banting y John Macleod por el descubrimiento de la insulina, a Thomas Morgan por descubrir el papel que desempeñan los cromosomas en la herencia, junto a una segunda corriente de reconocimiento hacia quienes desarrollaron nuevas formas de tratamiento: Alexis Carrel, que desarrolló métodos para hacer más seguros los trasplantes; a Alexander Fleming por el descubrimiento de la penicilina y a António Egas Moniz por el descubrimiento del valor terapéutico de la leucotomía en ciertas psicosis. Pero entonces, en 1973, el comité del Nobel produjo algo completamente nuevo.
Aquel año, el premio Nobel de Medicina y Fisiología fue concedido a dos alemanes, Karl von Frisch y Konrad Lorenz, y a un holandés afincado en Oxford, Nikolaas Tinbergen, por sus investigaciones en el campo de la etología. Hacían así por la ciencia lo que otros comités del Nobel llevaban años haciendo por la literatura y la paz: expresar su reconocimiento hacia un área de estudio poco conocida que, a juicio del comité, merecía ser mejor entendida. Fue una decisión interesante en varios sentidos, pues en la concesión de aquel Nobel iba implícito un grave drama. Lorenz había trabajado para los nazis durante el Tercer Reich. Von Frisch había sido perseguido por la Gestapo porque su abuela «probablemente» fuese judía. Tinbergen había sido secuestrado durante dos años en un campo de la ocupada Holanda donde los alemanes retenían cautivos rehenes que podían ejecutar como represalia por intentos de sabotaje o asesinato de la resistencia holandesa. Pese a ello, tanto Von Frisch como Tinbergen, que habían conocido a Lorenz antes de la guerra, lo habían perdonado.
El premio Nobel de 1973 fue un reconocimiento para una disciplina biológica relativamente nueva de la cual cada uno de aquellos tres hombres había sido un padre fundador. (Un hecho notable es que el hermano de Tinbergen, Jan, había recibido el premio Nobel de Economía cuatro años antes) [xxix]. La nueva disciplina, la etología, era el estudio del comportamiento animal, y tenía un fuerte componente comparativo. Los etólogos están interesados en el comportamiento animal por lo que pueda revelar sobre el instinto y sobre lo que separa al hombre del resto de las formas de vida (si es que algo lo separa).
El trabajo clásico de Tinbergen, que realizó después de la guerra (y después de trasladarse de Leiden a Oxford), desarrollaba la idea de Lorenz de «pautas de acción fijas» y «mecanismos desencadenantes innatos» (MDI). Mediante experimentos con el macho del espinoso [xxx], Tinbergen demostró la importancia crucial de que a veces el pez se pusiera boca abajo para mostrar el vientre rojo a la hembra: así estimulaba una respuesta de apareamiento. De manera parecida, demostró la significación de la mancha roja del pico de la gaviota argéntea: provocaba en los pollos llamadas de petición de alimento. Más tarde se vio que esos MDI eran más complejos, pero la elegancia de los experimentos de Tinbergen cautivó la imaginación de científicos y del público en general [396]. Las posibilidades de revelar solapamientos y coincidencias en la conducta de especies distintas fascinaba a todo el mundo.

Flo, Flint y Flame: casi humanos
Tres hombres ganaron el Nobel de 1973, pero con diferencia las personas que más hicieron por persuadir al público en general de que la etología ofrece un conocimiento valioso fueron tres extraordinarias mujeres que trabajaron en África, y cuyos valientes e imaginativas exploraciones sobre el terreno, muy fructíferas, pusieron de manifiesto, sobre todo, que era posible estudiar los animales en su medio. Esas mujeres fueron Joy Adamson, que trabajó con leones en Kenia; Jane Goodall, que investigó a los chimpancés en Gombe Stream, en Tanzania, y Dian Fossey, que dedicó varios años a estudiar los gorilas en Ruanda.
Joy y su marido, George, también cautivaron la imaginación del público con sus dramáticas crónicas de la vida de una joven leona, Elsa. Dian Fossey se hizo célebre cuando sus estudios de los gorilas se frustraron súbitamente con su asesinato, posiblemente a manos de uno de sus colaboradores, que huyó del país por miedo a no recibir un juicio justo y fue condenado en ausencia. Pero la más importante de las tres mujeres fue Jane Goodall, cuyo libro En la senda del hombre, vio la luz justo antes de que Tinbergen y los otros recibieran su galardón.
Goodall, como Fossey después de ella, fue una protegida de Louis Leakey, quien, aparte de sus otros talentos, fue un gran mujeriego y tuvo líos amorosos con varias de sus ayudantes. Goodall, nacida en Londres en 1934, hija de un novelista, desde pequeña se interesó por los animales y soñaba con trabajar en África. Se dirigió a Leakey ya en 1959, el año de Zinj, para pedirle que le dejara trabajar con él. Cuando la conoció, Leakey se dio cuenta enseguida de que Goodall sabía mucho de animales, y así nació un proyecto que llevaba tiempo gestándose en su mente. Sabía de una comunidad de chimpancés en Gombe Stream, cerca de Kigoma, en la ribera del lago Tanganika. La idea de Leakey era sencilla. África tenía una rica población de simios y el hombre había evolucionado de unos simios, de modo que cuánto más supiéramos de estos, mejor entenderíamos la evolución de la humanidad. Goodall estaba encantada con el encargo, y sus informes oficiales, así como su relato popular, En la senda del hombre, publicado en 1971, lograron ser a un tiempo importantes para la ciencia y conmovedores [397].
Goodall descubrió que a los chimpancés tardaron unos meses en aceptarla, pero cuando lo hicieron, le permitieron acercarse lo bastante como para observar su comportamiento en su propio medio y distinguirlos unos de otros (Flo tenía «orejas desiguales y una nariz bulbosa»). Darse cuenta de esto resultó ser muy importante. Más tarde la criticarían científicos más académicos por dar nombre a sus chimpancés (David Greybeard, Satan, Sniff, Goliath, Flint, Flame y ¡Freud!), en lugar de números, más neutrales, y por interpretar motivos en las acciones de los chimpancés. Pero eran críticas pobres en comparación con la riqueza de sus observaciones [398].
Su primera observación importante se produjo cuando observó cómo un chimpancé insertaba un palito en un termitero para coger las termitas que se aferraban al palo, que luego llevaba a sus labios. Hete aquí un chimpancé usando una herramienta, algo que hasta entonces se tenía por un comportamiento propio únicamente de los humanos [399].
Con el paso de los meses, comenzó a manifestarse también la vida social, en comunidad, de estos primates. Un aspecto especialmente notable era la jerarquía de machos y las eventuales muestras de agresión que la generaban. En buena medida, la jerarquía determinaba los privilegios sexuales dentro del grupo, pero no necesariamente la prioridad en la recolección de alimento. Goodall también tomó nota de muchas exhibiciones de agresión que no eran más que eso, exhibiciones, y en cuanto el animal menos dominante hacía un gesto de deferencia, el más dominante le daba unas palmaditas a su rival, lo que entre humanos se vería como un gesto para tranquilizar. Goodall también observó el comportamiento entre madres e hijos, la importancia del acicalamiento social (sacar del pelaje de otro animal materiales indeseados), y lo que daba la impresión de ser un sentimiento familiar. Los chimpancés jóvenes que por una razón u otra perdían a su madre temblaban físicamente o se mostraban nerviosos, podríamos decir que neuróticos.
Advirtió que los chimpancés podían distinguir entre más y menos, que los de rango inferior tenían que aprender a engañar y a hacer cosas en secreto si querían salirse con la suya, que Fifi estaba «como hechizada» cuando se tornaba sexualmente atractiva para los machos grandes y que, en una ocasión, le pellizcó el pene a un macho para que se interesara en ella (lo consiguió). Describió una «guerra» de cuatro años a tres bandas entre las comunidades de chimpancés de Kasakala, Kahama y Kalanda. Observó psicopatología entre los chimpancés: una hembra depredaba sobre los bebés de otras hembras e incluso se los comía. Le pareció que los chimpancés a veces acusaban depresión, especialmente tras la muerte de la madre, y describió numerosas «conductas de apego». Fue testigo ocasional del cuidado de los enfermos, de la comida compartida, de largas y apacibles sesiones de relajado acicalamiento (una fotografía muy divulgada mostraba cuatro chimpancés sentados en línea, cada uno limpiando el pelaje del que tenía delante [400] ).
También manifestó opiniones controvertidas: que los chimpancés tenían una rudimentaria conciencia de sí mismos y que los niños aprendían muchas conductas de sus madres. En un caso célebre, observó cómo una madre con diarrea se limpiaba con un manojo de hierbas y, de inmediato, su hijo de dos años hacía lo mismo, aunque su trasero estaba limpio. Y, solo medio en broma, decía que los chimpancés tenían su propia historia, aunque no pudieran ponerla por escrito. «Como en las sociedades humanas, ciertos individuos han desempeñado papeles clave y han influido notablemente en la fortuna de su comunidad. Algunos de los machos adultos que han demostrado cualidades destacadas de liderazgo, como determinación, valor o inteligencia, podrían ocupar un lugar prominente en los libros de historia de los chimpancés: Goliath Braveheart, Mike of the Cans, Brutal Humphry, Figan the Great, Goblin the Tempestuous» [401].
Los libros de Goodall gozaron de un gran éxito y no tuvo necesidad de insistir en sus relatos en lo que había de común en el comportamiento de simios y humanos, tan evidente era. El comportamiento humano había evolucionado igual que lo había hecho su forma física.

El surgimiento de la psicología evolutiva y nuestra naturaleza original
Un autor norteamericano, Robert Ardrey, llamó aún más la atención sobre África con una serie de libros,Génesis en África: la evolución y el origen del hombre (1961),The Territorial Imperative [El imperativo territorial] (1967) y El contrato social (1970). Ardrey hizo mucho por popularizar la idea de que todos los animales, desde los leones y los babuinos a los lagartos y los grajos, tienen territorios, que varían en tamaño desde unos pocos metros para los lagartos a cientos de kilómetros para las manadas de lobos, y que se esfuerzan enormemente en defender. También llamó la atención sobre las ordenaciones por rango en las sociedades de animales y sobre la idea de que existe una gran variedad de arreglos sexuales, incluso entre los primates, lo cual, en su opinión, tiraba por tierra las ideas de Freud [402].
Mientras popularizaba la idea de que los humanos se originaron en África, Ardrey ponía el énfasis en su propia creencia en que Homo sapiens es, desde un punto de vista emocional, un animal salvaje que se está domesticando a sí mismo, y con dificultad. Pensaba que el hombre provenía de un simio forestal que, vencido por otros grandes simios, se había visto obligado a habitar fuera del bosque. Para Ardrey, la humanidad solo podía sobrevivir y prosperar mientras no olvidase que en el fondo era un animal salvaje. El trabajo de campo que constituía el núcleo del libro de Ardrey, Génesis en África: la evolución y el origen del hombre, también ayudaba a apuntalar la idea de que, en contra de la opinión predominante antes de la segunda guerra mundial, la humanidad no se había originado en Asia, sino en África y que, posiblemente, había emergido en una sola ocasión y en algún lugar del valle del Gran Rift, y no en varios tiempos y varios lugares (sus libros se publicaron antes de que la idea de la «Eva mitocondrial» confirmase a África como el lugar de origen de la humanidad).
Esta simplificación de la historia paleontológica y de los primates supuso un significativo punto de inflexión conceptual y, gracias a la batalla intelectual que se libró a principios de la década de 1970, hoy podemos decir que se ha alcanzado un acuerdo sobre un pequeño pero importante conjunto de conclusiones. En primer lugar, nació la psicología evolutiva como disciplina propia, aunque en realidad fuese una síntesis de antropología, etología, genética y psicología (y algo de matemáticas). Su enfoque sostiene que evolucionamos como especie en la sabana africana como cazadores-recolectores y que por tanto estamos especialmente adaptados a una psicología de cazadores-recolectores y a sus habilidades, tanto individuales como sociales. Estas habilidades, que han ido evolucionando y se han ido adaptando durante cientos de miles o incluso millones de años, hoy forman parte esencialmente de nuestro ser instintivo e inconsciente, parte de nuestra naturaleza humana biológica innata, en la que apenas reparamos pero que afecta a nuestras acciones y creencias sin que nos demos cuenta. La antropología nos muestra que el estilo de vida de los cazadores-recolectores ha ocupado el 99,5 % del tiempo que han pasado los humanos en la Tierra.
Estos hilos de la etología evolutiva convergen en dos principios rectores. El primero es que hay una naturaleza humana universal que surgió, a lo largo de un periodo de tiempo muy dilatado, por efecto de la selección natural y sexual de genes asociados con rasgos que ayudaron a nuestros antepasados prehumanos, homínidos y humanos, a sobrevivir y reproducirse, individualmente y como grupo. En consecuencia, el comportamiento actual de los seres humanos tiende a centrarse en un conjunto limitado de temas universales en los ámbitos del refugio y la seguridad, la obtención de alimento y la nutrición, la sexualidad y los roles sexuales, el apareamiento, el cuidado parental y la interacción con y entre grupos, todo lo cual incrementa la probabilidad de supervivencia de los genes. Se incluye en estos temas el cuidado y la protección de los hijos, los vínculos entre pares y el juego, la búsqueda de estatus, la competencia por los recursos valiosos, el cortejo, el vínculo sexual y el matrimonio, la práctica de compartir y almacenar alimento, la búsqueda de cobijo, la cooperación, el altruismo recíproco, la discriminación contra los extranjeros, la escisión de grupos cuando alcanzan un tamaño crítico, la expresión de hostilidad hacia exogrupos y de lealtad hacia el endogrupo, el acicalimiento, la enseñanza, y la adhesión a las creencias y prácticas de mitos, religión, etcétera.
El segundo principio es que, en los contextos actuales, algunos entornos son tóxicos y muy perjudiciales, contrarios a nuestra naturaleza original. Sobre esta base, los problemas de la psicopatología, como el abuso sexual, el incesto, la infidelidad, el rechazo, la baja autoestima, la ira reprimida, la depresión, la adicción y otros por el estilo se perciben como problemas de la especie además de problemas del individuo. Eso proporciona un marco de referencia coherente y científico para dar explicación a nuestra problemática [403].
A partir de entonces, los científicos comenzaron a ampliar las ideas de la evolución y la adaptación a un número cada vez mayor de aspectos de la existencia humana. En la ciencia, fuera de la medicina, la psicología evolutiva sería una disciplina dominante durante el resto del siglo, junto a la biología molecular y la física de partículas.

La biología de la psicología
Como ya se ha dicho, el primer relato del trabajo de Jane Goodall se publicó justo antes de que Tinbergen y los otros recibieran el premio Nobel. Como en muchos otros casos, aquel Nobel fue concedido por investigaciones realizadas mucho tiempo antes, en este caso antes de la segunda guerra mundial. De hecho, el enfoque de la etología se había adoptado y adaptado mucho antes de 1973 y se utilizaba ya en combinación con la psicología y la pediatría, algo que es especialmente evidente en el trabajo pionero de John Bowlby y Mary Ainsworth que se comenta en el prefacio.
El trabajo de Bowlby sobre la teoría del apego encajaba limpiamente con el de Goodall en Gombe Stream, el de Fossey con los gorilas de Uganda y con varios otros estudios etológicos a ambos lados del Atlántico. El vínculo entre madre e hijo quedó firmemente establecido y no solo en primates, sino en un amplio abanico de especies, y no tardó en constituir un elemento central de lo que en ocasiones llegó a ser un acre debate sobre nuestra naturaleza fundamental como seres humanos.
Lo cierto es que, si bien la etología establecía con la paleontología y la psicología enlaces que parecían fructíferos, en aquella época se estaba abriendo una gran división entre quienes creían que la naturaleza humana es una «tabla rasa», es decir, que la cultura y la experiencia crean lo que somos, y quienes eran más receptivos a la idea de que la evolución y los genes explican buena parte de nuestro comportamiento. Así pues, el trabajo de Bowlby sobre el apego (1969-1973) y la concesión del premio Nobel a tres etólogos en 1973 se produjeron en medio de un gran cambio de paradigma, del que todos ellos fueron partícipes, que concernía el acercamiento entre la biología y la psicología. A su modo, fue tan importante como la convergencia de la física de partículas y la química cuántica para crear la biología molecular.

Contra «generalidades sin fuerza»
Uno de los principales defensores de la tesis de la tabla rasa fue el influyente antropólogo americano Clifford Geertz (1926-2006), del Instituto de Estudios Avanzados de Nueva Jersey, quien compartía con gran convicción la opinión de que el mundo es «un lugar diverso» y tenemos que afrontar esta «verdad incómoda» si queremos albergar alguna esperanza de llegar a entender las «condiciones» en las que vivimos. En dos libros ( La interpretación de las culturas, publicado en el año crucial de 1973, y Conocimiento local, una década más tarde), expuso su tesis de que la subjetividad es el fenómeno que deben abordar los antropólogos (como él) y otros estudiosos de las ciencias biológicas. Para Geertz, la unidad básica de la humanidad es una expresión huera si no se tiene en cuenta que trazar una «línea que separe lo que es natural, universal y constante en el hombre y lo que es convencional, local y variable es extraordinariamente difícil, lo que de hecho sugiere que trazar esa línea sería como falsificar la situación humana, o por lo menos representarla de una forma gravemente errónea» [404].
La búsqueda de universales comenzó con la Ilustración, dice Geertz, y desde entonces esa meta ha dirigido la mayor parte del pensamiento occidental, ha constituido el paradigma de la ciencia occidental y la idea occidental de la «verdad». Con su trabajo de campo en Java, Bali y Marruecos, Geertz dedicó toda su carrera a cambiar esa visión, a distinguir entre las interpretaciones «densas» y «finas» de las culturas del mundo. Para Geertz, «denso» significa intentar comprender los signos y símbolos y costumbres de otra cultura en sus propios términos, sin suponer, como hacía Claude Lévi-Strauss, por ejemplo, que toda la experiencia humana alrededor del mundo puede reducirse a estructuras, sino que otras culturas son tan «profundas» como la nuestra, tan trabajadas y ricas en significado, aunque tal vez «extrañas», difíciles de encajar en nuestro propio modo de pensar.
El punto de partida de Geertz era la paleontología. Desde su punto de vista, era erróneo suponer que el cerebro de Homo sapiens hubiera evolucionado biológicamente y a ello le hubiera seguido una evolución cultural. Defendía, en cambio, que debía de haberse dado un periodo de solapamiento, de coevolución. Cuando los humanos desarrollaron herramientas y el uso del fuego, nuestro cerebro todavía debía estar evolucionando, y por tanto ha evolucionado para incorporar las herramientas y el fuego. Esta evolución podría haber sido ligeramente distinta en distintas partes del mundo, de modo que hablar de una naturaleza humana, incluso en términos biológicos, resultaba equívoco. La propia antropología de Geertz implicaba la descripción meticulosa de ciertas prácticas de los pueblos no occidentales que nos resultaban ajenas, con ejemplos escogidos justamente porque nos parecían extraños a «nosotros».
Los balineses, por ejemplo, tienen cinco maneras distintas de dar nombre a las personas. Algunas apenas se utilizan, pero entre las que todavía se usan están los nombres que transmiten, al mismo tiempo, la región de donde proviene esa persona, el respeto que se ha ganado y su relación con ciertas personas especialmente importantes para ella. En otro ejemplo, nos enseña cómo un balinés cuya esposa le ha abandonado intenta tomarse la justicia (balinesa) por su mano y acaba en un estado cuasipsicótico porque sus acciones hacen que sea rechazado por su sociedad. Estas cuestiones no pueden compararse con su equivalente occidental, dice Geertz, porque no hay equivalentes occidentales [405].
Los recursos culturales son, por tanto, no tanto accesorios al pensamiento como sus «ingredientes». Para Geertz, un análisis de una pelea de gallos balinesa puede ser tan rico y gratificante en torno al pensamiento y la sociedad de Bali como, por ejemplo, un análisis de El rey Lear o La tierra baldía lo es acerca del pensamiento y la sociedad occidental. Para él, la vieja división entre sociología y psicología, según la cual la sociología de sociedades geográficamente remotas difería, mientras que su psicología era la misma, se ha roto. El resumen que nos ofrece el propio Geertz de su obra es que «todo pueblo tiene su propio tipo de profundidad». «La marca distintiva de la conciencia moderna… es su enorme multiplicidad. Para nuestro tiempo y en adelante, la imagen de una orientación general, perspectiva o Weltanschauung nacida de los estudios humanísticos (o, para el caso, de los científicos) que imprime una dirección a las culturas es una quimera… El acuerdo sobre los fundamentos de la autoridad académica, los viejos libros y las viejas maneras, ha desaparecido… El concepto de un “nuevo humanismo”, de forjar una ideología general de “lo mejor que se piensa y se dice” e introducirla en el plan de estudios no solo no es plausible, es del todo utópica. Es, de hecho, un poco preocupante». La vida en el futuro estará construida a partir de lo vernáculo, no de «generalidades sin fuerza» [406].
Esta visión, naturalmente, es diametralmente opuesta al asunto de este libro de que hay un orden emergente, una convergencia o incluso una unidad, entre las ciencias. Y que este orden o unidad es uno de los elementos más importantes (y gratificantes) del conocimiento científico, lo que le confiere una autoridad sin rival entre otras formas.

La estructura profunda y la estructura superficial: ¿Conocimiento instintivo?
Uno de los hombres que reconoció esto fue Noam Chomsky. Nacido en Pensilvania en 1928, hijo de un estudioso hebreo que interesó a su hijo en el lenguaje, su obra Syntactic Structures [Estructuras sintácticas], publicada en 1957, y su libro de 1975 sobre la gramática generativa, iniciaron lo que llegaría a conocerse como revolución chomskyana en la psicología.
Chomsky, que para entonces era profesor en el MIT, argumentaba (y eso lo enfrentaba a Geertz y los afines al conductista B. F. Skinner) que en el interior del cerebro humano hay estructuras gramaticales universales e innatas. Dicho de otro modo, el «cableado» del cerebro de algún modo rige la gramática de los lenguajes. Basaba buena parte de su tesis en estudios de niños de distintos países, que mostraban que fuese cual fuese la forma en que eran criados (y pese a lo que Geertz dijera), tendían a desarrollar sus habilidades lingüísticas en el mismo orden y al mismo ritmo en todos los lugares. Quería decir con ello que los niños pequeños aprenden a hablar de manera espontánea sin recibir realmente ningún tipo de entrenamiento, y que el lenguaje que aprenden está gobernado por el lugar donde crecen. Además, son muy creativos con el lenguaje, y ya de pequeños usan frases que son completamente nuevas para ellos y no pueden estar relacionadas con la experiencia. Por lo tanto, esas frases no pueden ser aprendidas del modo que proponían los conductistas y los defensores de la tabla rasa [407].
Chomsky sostenía que existía una estructura básica del lenguaje, que esa estructura tiene dos niveles, el superficial y el profundo, y que los distintos lenguajes se parecen más en su estructura profunda que en su estructura superficial. Por ejemplo, cuando aprendemos una lengua extranjera, aprendemos la estructura superficial. Pero, en realidad, ese aprendizaje solo es posible porque la estructura profunda es básicamente la misma. Los hablantes de alemán y holandés ponen el verbo al final de la frase, mientras que los ingleses y los franceses no lo hacen, pero alemanes, holandeses, franceses e ingleses tienen verbos, que existen en todos los lenguajes y establecen relaciones equivalentes con los sustantivos, los adjetivos, etcétera.
Chomsky aportó muchos más ejemplos de nuestra sorprendente habilidad lingüística. Por ejemplo, el significado de una casa es más intuitivo de lo que parece. Si alguien dice John esta pintando la casa de marrón, sabemos, aparentemente sin necesidad de instrucción, que lo que se está pintando es la superficie externa de la casa, no el interior. Pero el significado de una casa no puede estar restringido a su superficie exterior. «Si dos personas son equidistantes de la superficie, una en el interior y la otra en el exterior, solo la que está fuera puede describirse diciendo que está “cerca” de la casa». Incluso los niños pequeños parecen conocer estos hechos, «lo que sugiere que el conocimiento, en algún sentido, está disponible con anterioridad al organismo». (Las cursivas son mías) [408].
Aquí Chomsky andaba tras algo que nos devuelve a Bowlby. Al decir que el conocimiento «en algún sentido, está disponible con anterioridad» a un organismo, apuntaba (más que apuntaba) a la idea del inconsciente, o del preconsciente.
Esta idea, el inconsciente, sufrió un periplo muy inusual (e incómodo) durante el siglo XX. Le dio mucha importancia Freud en su Interpretación de los sueños, publicada en 1900, pero muchos científicos le restaron valor como concepto no científico. Al propio tiempo, a mucha gente común, y muchos artistas, pintores y escritores e incluso coreógrafos, les pareció útil.
Chomsky tenía su idea del conocimiento disponible con anterioridad, Bowlby su concepto de un «modelo de trabajo interior», y entonces, en 1972 y de nuevo en 1974, vieron la luz dos famosos artículos de Robert Trivers, un biólogo evolutivo de la Universidad de Rutgers, en los que explicaba el «altruismo recíproco», la «teoría de la inversión parental», el «conflicto ente progenitores y descendientes» y la «teoría de elección por la hembra». Esta última sostiene que las mujeres (las madres) determinan la evolución social mucho más que los machos porque «invierten» más en el resultado de las familias (y sus genes) y eso sitúa en un lugar central el vínculo de apego entre madre e hijo. La «teoría del conflicto entre progenitores y descendientes», que también se situaba en un contexto evolutivo, mostraba que las necesidades adaptativas de la descendencia bajo cuidado no siempre coinciden con las de la madre, y que eso puede dar origen a ideas relacionadas con el psicoanálisis como la represión, la «manipulación oral de la madre» o las fijaciones edípicas. Cada vez más, la idea del inconsciente, hasta entonces un concepto psicológico, se concebía como un concepto biológico [409].
Un último elemento de esta rápida secuencia de desarrollos que se produjeron alrededor de 1973 se dio en un área bastante distinta, tanto geográfica como conceptualmente. Se trata de la publicación, en 1974, de un artículo con el título «Decisión bajo incertidumbre: heurística y sesgos», de Daniel Kahneman y Amos Tversky. Este artículo se ocupaba en un principio del juicio y la toma de decisiones, sobre todo en lo que se refiere a la elección racional en relación con el comportamiento económico. Pero Kahneman y Tversky eran psicólogos y, a finales de la década de 1950, el primero había hecho el servicio militar en las Fuerzas de Defensa israelíes. Como era graduado en psicología, fue destinado a la rama de psicología del ejército, donde una de sus obligaciones era la de ayudar a evaluar candidatos para el entrenamiento como oficiales. Irónicamente, el ejército israelí usaba métodos diseñados por el ejército británico durante la segunda guerra mundial, concebidos por psiquiatras de la clínica Tavistock, entre ellos nada menos que John Bowlby [410].
No debe interpretarse más de la cuenta en esta coincidencia, pero el ejercicio sí tuvo un profundo efecto en Kahneman. Comprendió que las técnicas británicas que utilizaba fracasaban a la hora de predecir buenos líderes (aunque, a todas luces, habían ayudado a ganar la guerra). «Las pruebas de que no podíamos predecir el éxito con exactitud eran abrumadoras». Una y otra vez, la conclusión se repetía: «La historia era siempre la misma; nuestra capacidad para predecir el rendimiento era casi nula». Eso era a un tiempo preocupante y decepcionante, pero para Kahneman fue mucho más interesante, y más importante a largo plazo, el hecho de que la incapacidad de predecir el éxito en los testes no tenía ningún efecto sobre su propio comportamiento. Pese a la evidencia, él y sus colegas siguieron aplicando los testes y siguieron convencidos de que sus juicios eran correctos. Había descubierto, decía, su primera «ilusión cognitiva». No se comportaba de manera racional, pero al parecer no podía hacer nada por evitarlo. Su inconsciente se interponía.
Y de este modo, tras muchos estudios, en 1974 él y Tversky publicaron lo que desde entonces es un artículo clásico. Fue el primero de una serie de estudios que culminó en 2002 cuando Kahneman fue galardonado con el premio Nobel de Economía por su trabajo sobre la psicología del comportamiento en relación, sobre todo, con la toma de decisiones en economía. (Tversky falleció en 1996). Comentaremos este trabajo más a fondo en el capítulo 16 pero, anticipándonos un poco, podemos decir que muestra que los humanos tenemos cierto número de sesgos cognitivos inherentes, formas de comportamiento intuitivas e instintivas, atajos rápidos que son adaptaciones que han evolucionado a lo largo de muchos años y generaciones. En tanto que adaptaciones, se han tornado instintivos y, por consiguiente, resistentes al cambio, como el propio Kahneman había experimentado en el caso que inicialmente lo había atraído al fenómeno.
Así pues, con Geertz y Skinner de un lado y Chomsky, Bowlby y Kahneman del otro, los dos enfoques se hallaban enfrentados en torno a lo más básico de la naturaleza humana. Sin embargo, en este momento cayeron del bando de Chomsky y Bowlby varios pesos pesados que apoyaron la nueva síntesis que estaba emergiendo entre la etología, la biología y la psicología, e intentaron llevarla aún más lejos.

El momento decisivo
El primero fue El azar y la necesidad, de Jacques Monod, uno de los miembros de un equipo de tres franceses que recibieron el premio Nobel en 1965 por desvelar el mecanismo mediante el cual el material genético sintetiza proteínas. En su libro, publicado en 1970, Monod perseguía utilizar la última biología, producida desde que Watson y Crick descubrieran la doble hélice, para definir la vida, y, tras considerar lo que es la vida, pensar en las implicaciones que eso pudiera tener para la ética, la política y la filosofía [411].
Aunque biólogo, el argumento de fondo de Monod era que la vida es en esencia un fenómeno físico e incluso matemático. Su propósito inicial era mostrar cómo en el universo unas entidades pueden «trascender» las leyes de ese universo y, sin embargo, obedecerlas. Para Monod, dos de los grandes éxitos intelectuales del siglo XX, el mercado libre y el transistor, comparten una característica importante con la propia vida: la amplificación. Las reglas permiten que las partes constituyentes produzcan de manera espontánea, natural, más del propio sistema del que forman parte. Con este razonamiento, la vida, en principio, no presenta nada único.
En la parte técnica de su libro, Monod mostraba cómo las proteínas y los ácidos nucleicos, los dos componentes de los que están hechos todos los seres vivos, adoptan de manera espontánea ciertas formas tridimensionales, y que son estas las que predeterminan muchas otras cosas. Seguía en esto las ideas de D’Arcy Thompson en Sobre el crecimiento y la forma, y su aproximación se iría haciendo más influyente con el paso de las décadas. Es este ensamblaje espontáneo lo que, para Monod, constituye el elemento más importante de la vida. Estas sustancias, decía, se caracterizan por sus propiedades físicas, y por tanto geométricas, matemáticas. «Los grandes pensadores, Einstein entre ellos, a menudo… se han maravillado de que unas entidades matemáticas creadas por el hombre puedan representar tan fielmente la naturaleza a pesar de que no se siguen de la experiencia». Este es sin duda el mayor de los misterios, pero Monod decía que no hay en ello nada especialmente «prodigioso». La vida tiene tanto que ver con las matemáticas y la física como con la biología [412].
Le parecía que las ideas, la cultura y el lenguaje eran mecanismos de supervivencia, que hay valor de supervivencia en el mito (evitaba usar el término «religión»), pero que con el tiempo serían reemplazados. Creía que el cristianismo y el judaísmo eran en este sentido religiones más «primitivas» que, por ejemplo, el hinduismo, y daba a entender que esta última duraría más que el judeocristianismo. Le parecía también que el enfoque científico, tipificado en la teoría de la evolución, que es un proceso «ciego», que no conduce a ninguna conclusión teleológica, nos brinda la visión más «objetiva» del mundo, pues no implica que ningún grupo de individuos tenga mayor acceso a la verdad que ningún otro. En este sentido, creía que la ciencia refuta y reemplaza ideas como el animismo, el vitalismo y, sobre todo, el marxismo, que se presenta como una teoría científica privilegiada de la historia de la sociedad. Así pues, Monod veía la ciencia no solo como una forma de enfocar el mundo, sino como una posición ética de la que podían beneficiarse otras instituciones de la sociedad [413].
Este fue un momento importante. Comenzamos este capítulo constatando el cambio de la química cuántica a la biología molecular. Podemos ver ahora que, con relativa rapidez, este fuerte apuntalamiento de la teoría de la evolución por lo que podríamos llamar ciencias «duras» tuvo una gran influencia sobre el pensamiento en un ámbito mucho más amplio.

Fue el momento decisivo en que el acercamiento de las ciencias, su convergencia, alcanza tal resonancia que la propia ciencia se convierte en la base para comprender otras formas de conocimiento .
Esto ya se había apuntado antes con cierta frecuencia, pero el libro de Monod presentaba la evolución de la situación de una forma contundente y, además, le siguieron otras propuestas no menos intransigentes de la mano de otros biólogos no menos distinguidos.

«los genes atan corto a la cultura»
El más impresionante, y también el más intransigente, de esos biólogos fue el entomólogo de Harvard Edward O. Wilson, quien, en 1975, publicó Sociobiología: la nueva síntesis. Educado en la Iglesia baptista del sur, en Alabama (donde leyó la Biblia de principio a fin, y dos veces), Wilson perdió su fe súbitamente cuando de joven conoció la evolución. («Me pareció como si el Libro de la Revelación fuese magia negra alucinada por un antiguo primitivo»). También le pareció, según dijo, que los autores bíblicos habían pasado por alto la mayor de todas las revelaciones: no habían considerado la evolución. «¿No podría ser —se preguntó— que en realidad no tenían acceso a los pensamientos de Dios? ¿Acaso los pastores de mi infancia, por bondadosos y amables que fuesen, estaban equivocados?». Era más de lo que podía soportar, y dejó de ser baptista [414].
Con todo, no sentía la necesidad imperiosa de despojarse de todos sus sentimientos religiosos. «Retuvo un poco de sentido común. Al fin y al cabo, toda persona tiene que pertenecer a una tribu, anhela un propósito que lo trascienda. Nos vemos obligados por los impulsos más hondos del espíritu humano a ser más que polvo animado, necesitamos una historia que explique de dónde venimos y por qué estamos aquí. ¿No podría ser la Sagrada Escritura simplemente el primer intento literario de explicar el universo y darnos significado en su seno? ¿No será la ciencia una continuación sobre un terreno nuevo y más sólido para alcanzar la misma meta?» [415].
Wilson goza de la distinción de haber acuñado tres neologismos que resultaron ser influyentes y, una vez más, como Monod, ampliaron el alcance de la ciencia. El primero de estos neologismos fue «sociobiología».
Con este libro, Wilson pretendía mostrar hasta qué punto el comportamiento social en todos los animales, incluido el hombre, está gobernado por la biología, por los genes; que «los genes atan corto a la cultura» [416]. Muy leído en todos los campos de la biología, y una autoridad mundial en insectos, Wilson pretendía demostrar que todas las formas de comportamiento social en insectos, aves, peces y mamíferos se podía explicar por los requisitos impuestos por la relación del organismo con su entorno o con algún factor estrictamente biológico (como el sentido del olfato), claramente determinado por la genética. Mostró, por ejemplo, cómo la territorialidad se relacionaba con los requisitos de alimentación, y cómo la población se relacionaba no solo con la disponibilidad de alimento, sino también con el comportamiento sexual, que a su vez estaba vinculado a las pautas de dominancia. Exploró las abundantes observaciones y datos sobre el canto en las aves, que probaban que los pájaros heredan un «esqueleto» de sus cantos pero son capaces de aprender un limitado «dialecto» si se los desplaza geográficamente (algo que no está a años luz de lo que Chomsky decía sobre el lenguaje humano). Wilson mostró la importancia del bombicol, una sustancia química que, en el macho de la mariposa de la seda, estimula la búsqueda de hembras, lo cual, a su parecer, convierte al insecto en poco menos que «un misil sensorialmente guiado». Basta una molécula de esta sustancia para estimular al macho, lo que, añade, muestra cómo se puede producir la evolución: un cambio minúsculo en el bombicol o en la estructura receptora, igualmente frágil, podría ser suficiente para producir una población de individuos sexualmente aislados de su población progenitora.
Entre los hallazgos que incorporó a su síntesis está el descubrimiento de que entre las abejas melíferas y las hormigas de los géneros Formica y Pogonomyrmex, algunos individuos son inusualmente activos y cumplen con sus tareas, mientras que otros son «perezosos». Aunque aparentemente están sanos y tienen vidas largas, la producción por individuo de los «perezosos» es solo una fracción de la de los trabajadores más activos. Como es evidente, tanto si era su intención como si no, ofrecía una analogía con los humanos. En otro lugar explicaba que los actuales grupos de cazadores-recolectores, formados por unos veinticinco individuos, ocupan un territorio más o menos igual al de una manada de lobos carnívoros, pero unas cien veces mayor que el de grupos de gorilas de tamaño parecido, pues como ya se sabía, una dieta de alimento animal requiere diez veces más superficie para obtener la misma energía [417]. Y en un cuadro mostraba con datos de sesenta y seis sociedades agrarias que cuanto más subsistían del ganado, más probable era que creyeran en un Dios activo y creador, desde un 20 % cuando subsistían solamente un 15 % del tiempo del cuidado de rebaños hasta un 92 % cuando su nivel de subsistencia era del 45 %. [418]
Wilson revisaba en su obra muchos de los trabajos a los que nos hemos referido en este capítulo (sobre gorilas, chimpancés, leones), así como los estudios sobre Australopithecus, y proporcionaba al final una controvertida serie de cuadros que pretendían probar cómo habían evolucionado las sociedades humanas y el comportamiento humano. El resultado era una jerarquía con países como Estados Unidos, Gran Bretaña y la India en lo alto, Hawaii y Nueva Guinea en medio, y aborígenes australianos y esquimales en lo más bajo.

Disciplinas de frontera
En la introducción a una edición posterior del libro, Wilson escribió que solo había pretendido que su síntesis fuese una unión de entomología y biología de poblaciones. Había sido criticado, sin embargo, por los capítulos sobre comportamiento humano, por lo que se calificó de «reduccionismo inapropiado», la proposición de que el comportamiento social humano es reducible en último término a la biología. Aunque creía que «el reduccionismo es el más fino escalpelo de la ciencia», decía ser tan «interaccionista» como cualquiera, aunque le parecía que comenzaban a surgir cuatro disciplinas de frontera que requerían una «exploración cooperativa». Estas era: neurociencia cognitiva, genética humana, biología evolutiva y la propia sociobiología.
La sociobiología resultó ser tan fértil como controvertida. En su mayor parte, se ocupaba del comportamiento (generalmente el de apareamiento) de aves e insectos, que eran infinitamente fascinantes, pero fue el comportamiento humano, tal vez inevitablemente, lo que generó acritud. Tres ejemplos ilustran por qué fue así.
El primero tiene que ver con la «belleza», en particular: ¿por qué los hombres tienen estándares de belleza que aplican a las mujeres? Los críticos del enfoque sociobiológico lo consideraban «muy pernicioso» porque, al asignar valor a las mujeres de acuerdo con una «jerarquía vertical» (como hacían los estudios sociobiológicos), imponía «estándares culturales» que son expresión de «relaciones de poder» entre hombres y mujeres. Los sociobiólogos respondían argumentando que los hombres se sienten atraídos hacia las mujeres con rasgos que indican «alto valor reproductor» y, en las revistas donde solían publicar los sociobiólogos, se podían ver gráficos que vinculaban, por ejemplo, el índice de masa corporal de las mujeres (kg/m2) con la calificación que les daban los hombres en una escala de atractivo. Para una larga serie de sociedades distribuidas por todo el mundo, los gráficos mostraban que, por término medio, los hombres encontraban atractivas a las mujeres unos tres años más jóvenes, de ojos grandes, nariz pequeña y labios carnosos, y una cintura pequeña respecto a la cadera [419].
Eso era una grosería, bramaban los críticos.
Pero eso no disuadía a los sociobiólogos, que señalaban que en diversos estudios se había encontrado que los humanos de todo el mundo «comparten una serie de atributos», entre ellos «gestos faciales y de otros tipos al hablar». Comparten las mismas actitudes hacia el gesto de fruncir el ceño, y respecto al tiempo, que dividen en pasado, presente y futuro. Otro ejemplo: «No existen sociedades en las que los recién casados se vayan a vivir con la familia de la tía de la esposa por parte de padre, mientras que hay varias en las que las parejas recién casadas se mudan cerca del tío del marido por parte de madre» [420]. El comportamiento humano es estable entre culturas.
Otro estudio vinculaba la biología y la economía. Desde su conocimiento de la historia, Jennifer Billing y Paul Sherman hacían notar que en el pasado la gente hacía lo que fuera por conseguir especias para cocinar. Podía considerarse una práctica cultural, y de hecho lo era, pero en la Inglaterra de la Edad Media la gente usaba granos de pimienta como moneda, que usaban incluso para pagar el alquiler. En 1265, una mujer de Leicester pagó doce chelines por una libra (algo menos de medio kilo) de clavo, aunque por menos dinero habría podido comprar una vaca. Intrigados, Billing y Sherman se preguntaron si habría algo «darwiniano» en este comportamiento económico. Aquello les llevó a la teoría de que, tal vez, y pese a las prácticas culturales (la causa inmediata del uso de especias), hubiera una razón evolutiva, que sería la causa «última». Cuando lo examinaron a fondo, descubrieron que muchas especias contienen sustancias químicas con propiedades antibióticas. La nuez moscada, el ajo, la cebolla y el orégano, por ejemplo, bloquean los efectos de una gran variedad de infecciones.
Para poner a prueba su tesis, Billing y Sherman buscaron libros de cocina de treinta y seis países, desde Noruega hasta Indonesia, en los que examinaron 4.241 recetas de carne. Lo que encontraron fue que el chile, el ajo y la cebolla, que son antimicrobianos, aparecían con mucha mayor probabilidad en los platos preparados en países tropicales que en los templados o fríos, precisamente porque contrarrestaban la acción de los microbios [421].
Por último, están las investigaciones de Stephen Emlen, repetidas por otros, que muestran que las familias «políticas» comparten semejanzas tanto en las aves como en los humanos. En las especies de aves que forman relaciones «maritales» duraderas, pero en las que uno de los progenitores muere y el superviviente forma una segunda relación, los progenitores «políticos» son mucho menos solícitos, e incluso llegan a ser violentos, hacia los jóvenes con los que no están emparentados, en comparación con la descendencia que nace del segundo «matrimonio». Esta pauta se repite más o menos igual en Homo sapiens: el abuso de los hijastros es cuarenta veces más frecuente que el abuso de hijos naturales. Estos problemas «sociológicos» tienen, de hecho, una base biológica, es decir, genética [422].
A la sociobiología no le han faltado críticos (no así, curiosamente, a la etología, o al menos no tanto). Jerry Coyne escribió en New Republic : «En el escalafón de la ciencia, la biología evolutiva se encuentra hacia el fondo, más cerca de la frenología que de la física». Otro dijo de los sociobiólogos que eran «evo-psicópatas» [423]. Aún otros vieron en la disciplina una nueva forma de imperialismo intelectual.
Retomaremos esta cuestión en el capítulo 18 cuando, por ejemplo, exploremos más a fondo el fundamento biológico de la cultura. Por el momento, sin embargo, acabemos el presente con otra cita de Chomsky que reviste un interés especial porque, hasta cierto punto, va en contra de nuestro tema del orden emergente. En un libro titulado El lenguaje y los problemas del conocimiento, publicado en 1988, Chomsky argumenta específicamente que la unificación de disciplinas, que admitía que fue una característica de la ciencia del siglo XX, no tiene por qué adoptar la forma de la reducción. Más importante, y más problemático, para él es la afirmación de que lo físico o lo fisiológico tenga «algún tipo de prioridad». Eso, insistía, era una mala interpretación. La lingüística es tan rica en teorías elaboradas que permiten predicciones concretas sobre un amplio dominio como la química o la biología. «En este caso, es improbable que, en el estado actual de nuestro entendimiento, resulte productivo intentar reducir la lingüística a la neurología». Y ofrece un ejemplo específico en la asociación entre estructura lingüística «desviada» (que, por ejemplo, se aparta de los principios de la gramática) y la actividad eléctrica del cerebro conocida como «potenciales relacionados con eventos». La lingüística nos permite comprender esa desviación, pero no disponemos de ninguna teoría electrofisiológica pertinente. «Es imposible expresar generalizaciones interesantes sobre el lenguaje en términos de los constructos de células o neuronas, igual que lo es expresar generalizaciones sobre geología y embriología a partir de los constructos de la física de partículas. En ambos casos, la exigencia de reducción va demasiado lejos».
Uno se siente renuente a mostrarse en desacuerdo con Chomsky. Pero, como él mismo admitía, la unificación de disciplinas fue una característica de la ciencia del siglo XX, y, al reconocer la etología como una nueva disciplina, merecedora del Nobel que recibieron sus fundadores, la Academia de las Ciencias de Suecia reconocía la convergencia entre biología, ecología, genética y psicología. El hecho de que la sociobiología surgiera más o menos al mismo tiempo que la combinación que hicieron Kahneman y Tversky de psicología y economía muestra que a mediados de la década de 1970 ocurrió una vez más uno de esos momentos en que, como en vísperas de Darwin, «algo flotaba en el aire». Pese a la dramática historia del telón de fondo del premio Nobel de Medicina y Fisiología de 1973, la elección de la etología por la academia sueca fue sumamente apropiada.

Capítulo 14
Climatología + Oceanografía + Etnografía ? Mito = Gran Historia

Se sabe desde hace más de un siglo que el mito más extendido en el mundo, y el más conocido, es el que habla de un gran diluvio de magnitud no calibrada, pero que aparece tanto en el Biblia cristiana como en antiguas leyendas de India, China, sureste asiático, Australia y del continente americano. Nos ocuparemos de este mito más a fondo en un momento, pero por razones que enseguida quedarán claras resulta más apropiado que nos ocupemos primero del segundo mito más común en la Tierra, el de una «creación acuosa» del mundo.
El tema principal de este mito es la separación, por lo general de los cielos y la tierra. La historia se encuentra en una franja que se extiende desde Nueva Zelanda hasta Grecia (un distribución significativa, como veremos) e invariablemente tiene un pequeño número de características comunes. La primera es la aparición de la luz. Como se dice en Génesis 1:3: «Y dijo Dios: sea la luz; y fue la luz». Casi todas las cosmogonías contienen este tema, en el que lo notable es que ni el Sol ni la Luna son la fuente de la primera luz de la creación, sino que esta se asocia con la separación de los cielos y la tierra: solo entonces hace su aparición el Sol. En algunas tradiciones del este, lo que permite el paso de la luz es que la sustancia pesada de las nubes que envuelven a la Tierra se hunde hasta el suelo, y la luz aclara las nubes y se alza convirtiéndose en los cielos. En otros mitos, la tiniebla se describe como una «espesa noche».
Estudios geológicos recientes han identificado un fenómeno conocido entre los científicos como la explosión volcánica de Toba. Unos testigos extraídos del lecho del mar Arábigo han revelado que hace entre 74.000 y 71.000 años se produjo una erupción volcánica en Toba, en Sumatra; por lo que sabemos, la mayor de las ocurridas en nuestro planeta durante los últimos dos millones de años. Aquella ingente conflagración envió una gigantesca pluma de ceniza hasta una altura de 30 kilómetros, con un volumen estimado de 2.800 kilómetros cúbicos (dos veces el volumen del monte Everest). Se extendió hacia el norte y el oeste cubriendo Sri Lanka, India, Pakistán y grandes áreas de la región del Golfo con una manta de 15 centímetros de grosor, aunque en un lugar del centro de la India la capa de cenizas todavía tiene un grosor de 6 metros. Recientemente se ha encontrado ceniza de Toba en el mar Arábigo y en el mar de la China Meridional, a 2.400 kilómetros de Toba. La erupción dejó una enorme caldera que en la actualidad alberga el mayor lago de Indonesia, el lago Toba, de 85 kilómetros de longitud por 25 kilómetros de anchura, paredes de hasta 1.200 kilómetros de altura y 580 metros de profundidad en el agua [424].
Un largo invierno volcánico debió de seguir a esta erupción. Según el geólogo Michael Rampino, las temperaturas del mar bajaron 12 °C, y muchas regiones debieron de encontrarse en total oscuridad durante semanas y meses. Las nubes de aerosol, formadas por diminutos glóbulos de ácido sulfúrico, que hoy sabemos que son producidas por las grandes erupciones, debieron de reducir la fotosíntesis en un 90 %, o incluso impedirla por completo, con el enorme efecto que eso tendría sobre la cubierta forestal [425].
Si, como creen los antropólogos y los paleontólogos, los primeros humanos salieron de África hace aproximadamente unos 80.000 años, y si siguieron una ruta por las playas que los llevase alrededor de lo que hoy es Yemen y Adén, y de ahí a las costas de Irán, Afganistán y Pakistán, habrían llegado a estas últimas regiones más o menos a tiempo de verse envueltos en los efectos de la erupción de Toba. Así lo confirman excavaciones realizadas en India y Malasia, que han hallado herramientas paleolíticas incrustadas en ceniza volcánica de esa época. Según algunas estimaciones, la población de esta vasta área se redujo de alrededor de 100.000 a un número entre 2.000 y 8.000 (sabemos que también la población de chimpancés sufrió un colapso parecido [426] ).
En una conferencia celebrada en Oxford en febrero de 2010 se examinó la naturaleza «catastrófica» de la erupción de Toba, y se presentaron nuevos indicios que hacían pensar que la temperatura solo había caído en 2,5 °C. Pero nadie sugiere que los efectos de Toba no fuesen de gran alcance y en el congreso también se presentaron nuevas pruebas de herramientas fabricadas por Homo sapiens enterradas en la capa de ceniza [427].
De ello se siguen dos cosas. El invierno volcánico podría haber arrasado casi en su totalidad a los primeros humanos que vivían en una amplia franja centrada en la India, un evento de extinción en masa. Esto significa que se habrían tenido que concebir algunas estrategias específicas de supervivencia, que bien podrían haberse memorizado en forma de mito. En segundo lugar, el área se habría colonizado de nuevo con posterioridad, tanto desde el este como desde el oeste.
Volveremos a ocuparnos de esto, pero por ahora lo principal es que el mito de «separación» no es una descripción inexacta de lo que podría haber ocurrido en grandes áreas del planeta, en el sureste asiático, tras la erupción del Toba y el invierno volcánico que le habría seguido [428]. La luz del Sol habría quedado velada, la oscuridad habría sido «espesa» por la ceniza, que gradualmente se habría ido depositando sobre el suelo y, tras muchísimo tiempo, el Sol habría ido ganando brillo de manera gradual, cada vez más intenso y claro, pero no habría habido ni Sol ni Luna visibles durante generaciones. Habría habido luz pero no Sol durante años, hasta que un mágico día el Sol, por fin, se habría dejado ver. Damos por hecho que veremos el Sol en el cielo, pero en tiempos remotos para la humanidad el Sol (y, naturalmente, la Luna) habría sido una nueva entidad en un cielo cada vez más luminoso. Mitológicamente, tiene sentido tomar este evento como el principio de los tiempos [429].

Un orden profundo en los mitos
El descubrimiento de la erupción del Toba fue, por consiguiente, casi tan importante para la mitología como lo fue para la geología. Y hay razones para pensar que muchos otros mitos y leyendas antiguos, lejos de ser productos de nuestro inconsciente profundo, como Carl Jung pretendía, en realidad tienen una base en acontecimientos reales que la ciencia recientemente ha traído a la luz.
Ahora podemos dirigir nuestra atención al más común de los mitos. Mientras los mitos fueron de interés para los antropólogos, eran tratados fundamentalmente como relatos de ficción que nos decían más de las creencias del hombre primitivo que de cualquier otra cosa. Sir James Frazer, el antropólogo de finales del siglo XIX y autor deLa rama dorada, recopiló muchos de estos mitos en su libro El folklore en el Antiguo Testamento, publicado en Londres en 1918, y decía lo siguiente: «¿Cómo podemos explicar las numerosas y sorprendentes semejanzas que se observan entre las creencias y costumbres de razas que habitan distintas partes del mundo? ¿Se deben a la transmisión de costumbres y creencias de una raza a otra, bien por contacto directo, bien por medio de pueblos intermediarios? ¿O acaso han surgido de manera independiente en muchas razas distintas porque la mente humana funciona de manera parecida en parecidas circunstancias?» [430].
Las actitudes evolucionaron un poco cuando, unos pocos años más tarde, en 1927, el arqueólogo británico Leonard Woolley comenzó a excavar en la bíblica Ur de Caldea, en Irak, la supuesta casa de Abraham, el fundador de los judíos. Woolley habría de realizar varios descubrimientos importantes en Ur, dos de ellos trascendentales. En primer lugar, encontró las tumbas reales en las que estaban sepultados el rey y la reina, junto a una compañía de soldados y nueve damas de la corte real, aún adornadas con elaborados tocados. Sin embargo, ningún texto daba indicación alguna de este sacrificio colectivo, de donde extrajo la importante conclusión de que el sacrificio había tenido lugar antes de que se hubiese inventado la escritura y registrado este extraordinario suceso, una inferencia que más adelante sería corroborada. En segundo lugar, cuando Woolley excavó hasta los doce metros, no encontró absolutamente nada. A lo largo de más de cuatro metros no había más que arcilla, completamente desprovista de restos de ningún tipo. Llegó a la conclusión de que, para que se depositase una capa de arcilla de cuatro metros de grosor, tenía que haberse producido una inundación extraordinaria que en algún momento hubiera anegado completamente la tierra de Sumeria [431]. ¿Se trataba del diluvio universal que mencionaba la Biblia?
Entonces como ahora, muchas personas lo creyeron así. Pero en igual número no lo creyeron. No lo hicieron porque el texto de la Biblia dice que el diluvio cubrió las cimas de las montañas, es decir, una profundidad de bastante más de cuatro metros, y porque se suponía que el diluvio había cubierto todo el mundo. Una inundación de cuatro metros en el Tigris y el Éufrates, en Mesopotamia, no sugería más que un suceso de ámbito local. ¿O es que los antiguos habían exagerado? Como en aquellos tiempos casi nadie viajaba muy lejos, un «diluvio universal» solo era un modo de hablar.
Más o menos ahí quedó la cuestión durante varias décadas. Sin embargo, en años recientes se ha arrojado nueva luz sobre tres sucesos (o, más bien, tres conjuntos de sucesos) de nuestro pasado profundo. La historia de los años de la transición del Pleistoceno al Holoceno (desde la edad de hielo hasta los tiempos modernos) se ha sometido a una profunda revisión durante los últimos años y, en pocas palabras, la más reciente erudición sobre el periodo revela tres cosas. Revela que el mundo no experimentó una sino tres grandes inundaciones, más o menos hace 14.000, 11.500 y 8.000 años, y que la última de ellas fue especialmente catastrófica y cambió de manera drástica la vida de muchas de las personas que entonces poblaban la Tierra. En segundo lugar, revela que el área del mundo que se vio más afectada por las inundaciones no fue Mesopotamia sino el sureste asiático, donde quedó anegado un continente entero. Si aquellas inundaciones tuvieron su mayor efecto en el sureste asiático, los habitantes de aquel continente hundido habrían tenido que migrar por todo el mundo, al norte hacia China y de allí al Nuevo Mundo, al este a las islas del Pacífico y a Australia, y al oeste de regreso a la India, y posiblemente hasta Asia Menor, África y Europa, llevando con ellos sus habilidades. El tercer aspecto de esta nueva cronología es que muchas de las primeras habilidades de la civilización, como la agricultura, que siempre se consideraba que se había inventado en Oriente Medio, en realidad se desarrollaron antes mucho más al este, en el sureste de Asia y en la India [432].
Hay mucha más carne en esta historia, como puede imaginarse, pero este es el esqueleto. La historia le da un giro dramático a lo que antes pensábamos, entre otras cosas porque podría ayudar a explicar los argumentos de los arqueólogos que afirman que se produjo una gran división lingüística entre el Viejo Mundo y los pueblos del Pacífico, que desempeñaron un importante papel en el poblamiento del Nuevo Mundo.

Un nuevo orden de civilización
Disponemos en la actualidad de indicios sustanciales que sugieren que la subida del nivel del mar tras la última edad de hielo no fue ni lento ni uniforme. Al contrario, tres eventos súbitos de fusión del hielo, el último hace solo 8.000 años (6000 a. C.), tuvieron efectos devastadores sobre ciertas costas tropicales que tenían extensas plataformas continentales planas. Esos cambios se vieron acompañados de grandes terremotos, ocasionados por la transferencia del peso del hielo de los continentes a los océanos [433]. Estos grandes terremotos habrían generado enormes olas o tsunamis. Geológicamente, la Tierra era entonces mucho más violenta que ahora.
En conjunto, el registro oceanográfico de entre hace 20.000 y hace 5.000 años revela que los niveles del mar subieron al menos 120 metros y afectaron a las actividades de los humanos de tres profundas maneras. En primer lugar, en el sureste asiático y en China, que tienen una extensa y llana plataforma continental, todos los ejemplos de asentamientos de la costa y las tierras bajas quedaron inundados, entonces y hasta nuestros días. Esos asentamientos han estado bajo el agua durante miles de años y lo más probable es que sigan ahí. En segundo lugar, durante el ascenso final del nivel del mar, hace unos 8.000 años, las aguas tardaron 2.500 años en retirarse, con el resultado de que muchas áreas que hoy están emergidas se encuentran, sin embargo, cubiertas de una capa de arcilla de metros de grosor. En tercer lugar, como ya se ha mencionado, las inundaciones que devastaron el sureste asiático obligaron a sus habitantes a mudarse [434].
En apoyo de esta visión de los hechos se encuentra el curioso patrón de datación de la revolución neolítica en el este de Eurasia. A partir de los yacimientos hallados, las culturas de la costa del Pacífico parecen haber comenzado su desarrollo mucho antes que las del oeste, pero entonces, aparentemente, se frenaron. Por ejemplo, la cerámica apareció por primera vez en Japón hace unos 12.500 años; 1.500 años más tarde ya se había extendido a China e Indochina. Es importante aclarar que estos ejemplos preceden en el tiempo a los de yacimientos de Mesopotamia, India o la región mediterránea en hasta 3.500-2.500 años. Por dar otro ejemplo, ya se encuentran piedras para moler cereales silvestres en yacimientos de las islas Salomón, en el Pacífico suroeste, datadas en 26.000 años, mientras que en Egipto no se encuentran hasta hace unos 14.000 años y en Palestina hasta 2.000 años más tarde. Estos primeros signos de civilización se produjeron muchísimo antes en el sureste asiático que en cualquier otro lugar.
Además de los inicios de la cerámica en Japón e Indochina, hace unos 12.000-11.000 años, en Asia oriental se ha hallado una gran variedad de herramientas neolíticas (cantos tallados, raspadores, leznas y piedras de moler, además de hogares y restos de cocina), pero estos hallazgos tienden a localizarse en cuevas del interior. Prácticamente no se conocen yacimientos neolíticos en tierras bajas de áreas costeras que daten de hace entre 10000 y 5000 a. C [435].
Se han propuesto dos explicaciones para esta anomalía. Según una de las perspectivas, en las regiones interiores del sureste asiático, el Neolítico no comenzó hasta hace 4.000 años gracias a migraciones que pasaron por Taiwán y las Filipinas e introdujeron nuevas habilidades y artefactos. La otra perspectiva es más ambiciosa. Al final de la edad de hielo, en el sureste asiático habitaban pueblos que habían desarrollado habilidades en agricultura (y navegación) mucho antes que los pueblos de otros lugares (en Oriente Próximo, por ejemplo) pero se vieron forzados a realizar migraciones a gran distancia hacia el este, el norte y el oeste a causa de las inundaciones provocadas por la fusión de los glaciares [436]. Además de obligar a aquellos pueblos a marcharse, los sedimentos habrían dejado sepultados muchos de sus asentamientos.

Los ritmos de las inundaciones
Estas son claramente aseveraciones importantes, y para poder juzgar el mérito de estas nuevas teorías se necesita una descripción detallada de las inundaciones. Esta descripción sugiere una historia coherente y de una importancia que lleva a pensar en que los pueblos que primero llegaron al Nuevo Mundo lo hicieron tras unas serie de experiencias que los separan de aquellos que dejaron atrás en el Viejo Mundo.
Hoy sabemos que las tres inundaciones catastróficas a las que nos hemos referido antes se produjeron a causa de tres ciclos astronómicos entrelazados, cada uno de ellos distinto, pero que en todos los casos afectaban al calor transmitido por el Sol a distintas partes de la Tierra. Stephen Oppenheimer los ha bautizado como el «estiramiento» de 100.000 años, la «inclinación» de 41.000 años y el «bamboleo» de 23.000 años [437]. El primero tiene su origen en la órbita de la Tierra alrededor del Sol, que es elíptica, lo que significa que la distancia de la Tierra al Sol varía en hasta 26,17 millones de kilómetros, produciendo variaciones notables en la fuerza de la gravedad. El segundo ciclo está relacionado con la inclinación del eje de rotación de la Tierra con respecto al Sol. En un periodo de 41.000 años, esta inclinación varía entre 21,5 y 24,5 grados y afecta al desequilibrio estacional en la cantidad de calor que llega del Sol. En tercer lugar, el propio eje de la Tierra realiza una rotación cada 22.000-23.000 años, en la llamada «precesión axial» o de los equinoccios. Estos tres ciclos realizan una sofisticada danza que produce una infinidad de combinaciones pero que, cuando se encuentran en una «tormenta perfecta», pueden provocar en la Tierra un cambio climático súbito y drástico. Fueron estos complejos ritmos los que desencadenaron no una, sino tres inundaciones en el antiguo mundo.
Los glaciares que al fundirse ocasionaron las inundaciones eran gigantescos; los mayores cubrían áreas enormes como Canadá, y tenían kilómetros de grosor. Para uno de ellos se ha estimado un volumen de 84.000 kilómetros cúbicos. Pudieron tardar cientos de años en fundirse completamente, pero al final hicieron que el nivel del mar subiese hasta trece metros.
Una de las consecuencias interesantes de los cambios que siguieron a la segunda catástrofe (hace menos de 11.000 años) fue que, a medida que subía el nivel del mar, los gradientes de los ríos fueron suavizándose y, desde hace 9.500 años, comenzaron a formarse deltas fluviales en todo el mundo. La importancia de esto estriba en que estos deltas formaron fértiles llanuras aluviales, por ejemplo Mesopotamia, Ganges, Chao Phraya de Tailandia, Mahakam en Borneo o Chiang Jiang (Yangtsé) en China. En total, se sabe de más de cuarenta grandes deltas que se formaron durante esa época en todos los continentes. Muchos de estos deltas y llanuras aluviales desempeñaron un papel en el crecimiento de la agricultura y en el posterior nacimiento de la civilización (capítulo 15 [438] ).
Pero fue la más reciente de las inundaciones, hace 8.000 años, la que mayor efecto tuvo. La súbita desaparición de los mantos de hielo continentales de Europa y América del Norte, que liberaron ingentes cantidades de hielo y agua en las grandes cuencas oceánicas del mundo, provocaron un cambio repentino en la distribución de peso en la Tierra, lo que debió de causar grandes terremotos, aumentar el vulcanismo y generar gigantescos tsunamis que chocaron contra todos los continentes. Fue un periodo épico de grandes desastres que influyeron profundamente en la vida mental de los hombres y mujeres de la Antigüedad.
Este diluvio, confirmado hace tan poco tiempo, tuvo consecuencias importantes. Una de ellas fue una serie de inundaciones y tsunamis de tal magnitud que debieron de depositar, capa sobre capa, sedimentos de varios metros de grosor sobre áreas muy extensas, y han dejado cubiertos y ocultos restos cruciales de una época temprana del desarrollo humano hace unos 8.000 años, y de nuevo cuando los mares se retiraron muchos cientos, sino miles de años más tarde. Esta «cortina de cieno», como la llama Stephen Oppenheimer, debe afectar a su vez a nuestro conocimiento de la cronología del mundo [439]. Una segunda consecuencia se deriva de la geografía del planeta, pues es casi seguro que la masa continental más grande que quedó inundada fue el sureste asiático, donde se encontraba la plataforma continental poco profunda de mayor extensión, que se extendía hasta 1.600 kilómetros en el mar de China Meridional. Pero lo crucial del caso es que para entender la cronología de los primeros tiempos, y tal vez para comprender plenamente cómo surgió la civilización, sea necesario integrar estas dos consecuencias.
El punto de partida para esta síntesis nace del hecho de que esta región tiene la mayor concentración de mitos de inundación de todo el mundo [440]. ¿Prueba eso que la inundación tuviera allí el efecto más devastador? No, pero la posibilidad es tentadora y encaja a la perfección con lo que William Meacham, un prehistoriador de Hong Kong, señaló en 1985: que la laguna más importante en el registro del Neolítico actual «es la total ausencia de yacimientos abiertos en tierras bajas [del sureste asiático] que daten de 10000 a. C. a 5000 a. C.». Además, después de que el nivel del mar comenzase a bajar de nuevo, a partir de hace 6.000 años, los asentamientos marítimos con cerámica comenzaron a ocupar lugares desde Taiwán hasta Vietnam central. Charles Higham, un arqueólogo neozelandés que trabaja fundamentalmente en Tailandia, argumenta que estos asentamientos eran en realidad traslados de pueblos marítimos que siempre habían vivido en aquellas áreas pero anteriormente habían tenido que escapar de las inundaciones. Los yacimientos más interiores, en cambio, se mantuvieron habitados de manera continuada más o menos desde el final de la edad de hielo [441].
Así pues, la mayor extensión de tierras bajas del mundo, la que más se debió ver afectada por cualquier aumento del nivel del mar, donde más catastrófica habría sido una inundación, era la plataforma de Sonda, en el extremo sureste del sureste asiático. Se extendía a lo largo de 5.400 kilómetros de este a oeste y 2.700 kilómetros de norte a sur, y bien podría explicar por qué los mitos de diluvios son más frecuentes en esa región que en ningún otro lugar. Una inundación de tal magnitud habría provocado una migración a gran escala, hacia este, oeste y norte.

La astronomía y los grandes ciclos de la naturaleza
Ahora tenemos que considerar, siquiera brevemente, otro hallazgo relativamente reciente de la historia antigua de Asia antes de pasar a comparar los mitos del Viejo Mundo y del Nuevo Mundo. Se trata de los Vedas, las escrituras sagradas de los hindúes, que presentan una teoría «Yuga» del desarrollo histórico y cósmico, con grandes ciclos de desarrollo de la humanidad y la naturaleza perturbados por enormes cataclismos naturales. De uno de estos ciclos se dice que dura 24.000 años, lo que no se aleja mucho del ciclo de «bamboleo», como lo llama Stephen Oppenheimer, que es de 23.000 años, pero quizá aún más interesante sea el reciente descubrimiento de las tres grandes inundaciones de la historia geológica reciente, hace ~14.000, ~11.500 y ~8.000 años. ¿No es esto de hecho una historia cíclica, rota por grandes catástrofes?
La literatura védica es aún más concreta cuando se refiere a una tierra de siete ríos, que se han identificado como el Indo, el Ravi, el Sutlej, el Sarasvati, el Yamuna, el Ganges y el Sarayu, de los cuales el Sarasvati era el más importante para el pueblo védico, tanto espiritual como culturalmente, pues irrigaba sus tierras centrales y su lugar de origen y sustentaba una gran cultura marítima. Un verso de los Vedas describe el Sarasvati como «la mejor de las madres, el mejor río, la mejor diosa» y otro lo sitúa entre el Sutlej y el Yamuna [442].
El problema es (o era) que en la actualidad no hay ningún gran río que discurra entre el Yamuna y el Sutlej, y la región es conocida como Punyab ( panca-ap, en sánscrito), o Tierra de los Cinco Ríos o Aguas. Durante años, esta discrepancia llevó a algunos estudiosos a creer que el Sarasvati no era más que un río «celestial», un constructo imaginario.
Sin embargo, desde el fin de la segunda guerra mundial, las excavaciones arqueológicas comenzaron a descubrir cada vez más asentamientos que parecían estar relacionados con dos civilizaciones del Indo bien conocidas, Mohenjo-Daro y Harappa, pero, paradójicamente, se encontraban a más de 140 kilómetros del río Indo, en lugares donde en la actualidad no hay ninguna fuente obvia de agua. No fue hasta 1978 cuando varias imágenes obtenidas por un satélite lanzado por la NASA y la Organización India para la Investigación Espacial comenzaron a ayudar a identificar los restos de antiguos cursos fluviales que pasaban cerca de los lugares donde los Vedas decían que estaba el Sarasvati. De manera gradual, estas imágenes fueron revelando más detalles sobre el canal del río, entre ellos el hecho de que tenía de seis a ocho kilómetros de anchura durante buena parte de su curso, y no menos de catorce kilómetros en cierto punto. También tenía un gran afluente, y entre él y el afluente convertían la actual Tierra de los Cinco Ríos (de la actualidad) en la Tierra de los Siete Ríos ( sapta-saindhava) de los Vedas. Además, los Rig-Veda describen el Sarasvati como un curso que iba «de las montañas al mar», lo que solo pudo haber ocurrido entre hace 10.000 y hace 7.000 años, cuando se estaban fundiendo los glaciares del Himalaya. Con el tiempo, los ríos que alimentaban el Sarasvati cambiaron de curso cuatro veces a causa de terremotos, yendo a alimentar el Ganges, y el Sarasvati se secó [443].
Así pues, los mitos de los Vedas tenían razón y el redescubrimiento del Sarasvati subraya dos cosas. Primero, que las habilidades básicas de la civilización (en particular, la domesticación, la cerámica, el comercio a larga distancia y la navegación) ya se daban en el sur de Asia (India) y las islas del sureste asiático hacia 5000 a. C. En segundo lugar, los grandes mitos que encontramos dispersos por todo el mundo se fundamentan casi con certeza en sucesos catastróficos reales que se produjeron de verdad y devastaron la humanidad cuando daba sus primeros pasos. Constituyen, pues, una poderosa memoria colectiva que nos advierte de que algún día podrían producirse sucesos igual de dramáticos.

El orden que subyace a los mitos
Ahora que hemos asentado los cimientos, podemos preguntarnos qué nos dicen los mitos sobre las primeras experiencias de la humanidad y cómo se unen las ciencias históricas al panorama general, qué orden revelan.
La principal diferencia que examinaremos es entre los mitos del Viejo Mundo y los del Nuevo Mundo, donde encontramos que existe un gran solapamiento o coincidencia entre la genética, la lingüística y la leyenda popular. Los indicios genéticos nos muestran que los chukchis de Siberia y los primeros grupos humanos que llegaron al continente americano alcanzaron Beringia a través de Eurasia central y llegaron hace entre 20.000 y 12.000 años, como muy tarde. Las pruebas lingüísticas en particular sugieren que un segundo y más tardío grupo de pueblos antiguos viajó por la costa occidental del océano Pacífico, por Malasia, China y Rusia. Si los pueblos más antiguos llegaron al Nuevo Mundo entre hace 43.000 y 29.500 años, como sugieren algunos indicios genéticos, es posible que guardaran el recuerdo del terremoto de Toba, pero todavía no se había producido ninguna de las grandes inundaciones. Por otro lado, el segundo grupo (los hablantes de na-dené, que poseen un marcador genético característico [M130], y cuyos ancestros migraron por la costa del Pacífico hasta América hace unos 8.000 a 6.000 años) deberían llevar consigo una experiencia bastante reciente de la inundación. ¿Qué es lo que encontramos?
En primer lugar, y a modo de generalización, podemos decir que existe una amplia constelación de mitos que se da tanto en el Viejo Mundo como en el Nuevo, demasiados para poder pensar que todos se hayan concebido igual por mera coincidencia. Asociado a esto, hay algunos mitos importantes que aparecen en el Viejo Mundo y en Oceanía, pero no en el Nuevo Mundo. Por otro lado, hay unos pocos mitos (de origen, de creación) que aparecen en el Nuevo Mundo pero no en el Viejo. Eso es lo que uno esperaría si la humanidad se hubiese originado en el Viejo Mundo y luego hubiese migrado al Nuevo.
Un buen punto de partida son los mitos que se encuentran a ambos lados del estrecho de Bering, para los cuales podemos estudiar los aspectos sistemáticos en los que varían.
Como ya se ha dicho, muchos mitos describen una inundación que produce un «caos acuoso», del cual, de manera gradual, emerge la tierra. En las regiones subárticas de América del Norte, sin embargo, el mito más común es el del «buceador de tierra». En estos mitos, tras la inundación, la tierra no emerge de manera gradual, sino que se crea alzándola desde el lecho del océano. Un procedimiento común para asegurarse de que eso ocurra es mediante lo que ha dado en conocerse como «buceadores de tierra», que son animales, con frecuencia aves, que envían al fondo del océano bien el creador, bien los primeros habitantes de la Tierra, para coger un poco de tierra del lecho del mar. En las versiones más habituales, tras unos pocos intentos fallidos, uno de los buceadores retorna a la superficie con un poco de tierra o arcilla en el pico o en las garras, y esta pequeña cantidad se transforma en una tierra cada vez mayor.
El pueblo hurón de Ontario, por poner un ejemplo, tiene un mito en el que una tortuga envía a varios animales a bucear en busca de tierra, y todos se ahogan con la excepción del sapo, que regresa con un poco tierra en la boca. Esta es depositada sobre el lomo de la tortuga por la hembra creadora, que ha descendido de los cielos con este propósito, y el pequeño pedazo de suelo crece hasta formar las tierras emergidas. Las tribus iroquesa y atabascana (de la costa noroeste del Pacífico, en lo que hoy son los Estados Unidos) también tienen este mito, que en realidad está confinado a dos grupos lingüísticos, los hablantes de amerindio y los de na-dené. En cambio, el tema del buceador no se encuentra en los mitos del diluvio de los esquimales ni en América Central o meridional [444].
Hay dos aspectos más que conviene resaltar. El primero es que, en la América del Norte subártica, la distribución de las historias de los buceadores de tierra se superpone a la de un marcador genético característico. Ciertos grupos poblacionales (pero no los esquimales o los aleutas, por ejemplo) poseen lo que se conoce como «deleción asiática de nueve pares de bases»: faltan en su ADN nueve pares de bases. Este marcador, esta pauta de ausencia, es compartida por ciertos clanes de Nueva Guinea, y también por pueblos de Vietnam y Taiwán. No solo confirma esto el origen en el sureste asiático de al menos algunos de los nativos americanos (y subraya la distinción entre esquimales y hablantes de na-dené), sino que el gran tamaño y diversidad de la deleción de 9 pares de bases a ambos lados del Pacífico sugiere un origen muy antiguo.
En segundo lugar, estos mitos de los elevadores de la tierra se prestan a dos fenómenos reconocidos por geógrafos y oceanógrafos. El primero es la «emergencia de la línea de costa», algo que sucedió a gran escala, especialmente en América del Norte. Se trata de un fenómeno que se produce porque, después de la edad de hielo, a medida que los glaciares se fundían, se tornaban más ligeros y la corteza continental, aliviada de peso, se levantó. Además, el cambio de peso ocasionó un levantamiento de la tierra mayor que el aumento del nivel del mar. Como hasta entonces la tierra había estado aplastada bajo el nivel del mar, en aquel momento se alzó del mar. Hay fotografías del lago Bear en Canadá que muestran varias líneas de costa que se han elevado decenas o incluso cientos de metros por encima del nivel del mar [445]. Los humanos de aquellos tiempos habrían notado cómo, generación tras generación, la línea de costa se desplazaba, y podemos suponer que incorporaron este extraño fenómeno a sus mitos, explicándolo como mejor podían.
El segundo fenómeno concierne al hecho bien establecido de que la costa del Pacífico se conoce como «Cinturón de Fuego» porque es ahí donde se encuentran los volcanes más activos del mundo. Basta con añadir que muchos volcanes del Cinturón de Fuego del Pacífico son volcanes submarinos, que emergen del lecho oceánico. Durante las erupciones submarinas (de las que hubo más de cincuenta en 2001-2002, y la última documentada se produjo en la costa de Oregón en abril de 2015), se expulsaban con fuerza hacia la superficie materias sólidas, o sea, «tierra».
El resto de América carece de los mitos del «buceador de la tierra» o el «levantador de tierra», aunque tiene un rico bagaje de mitos del diluvio, y algunos incluyen aves que vuelan en busca de la tierra.

El unificador corredor este-oeste
De acuerdo con Stephen Oppenheimer, hay muy pocos motivos mitológicos que falten completamente en el Nuevo Mundo, pero hay variaciones sistemáticas que conforman un panorama coherente y ordenado. La diferencia sistemática más sustancial es una constelación de diez motivos relacionados entre sí y que no suelen encontrarse en África, América o en Asia central o del noreste; este conjunto de motivos aparece en una franja característica (a la que ya nos hemos referido antes) que va de Polinesia al sur de Asia atravesando China, y luego a Oriente Medio para acabar en el norte de Europa (hasta Finlandia).
Por ejemplo, en el continente americano hay una relativa escasez de «mitos del caos acuoso» mas allá de la costa noroeste en el Pacífico. Otra diferencia es que los mitos del Nuevo Mundo carecen casi por completo de referencias a monstruos o dragones del agua (la única excepción es un mito azteca). En cualquiera de las tres inundaciones a las que nos hemos referido antes, debieron ensancharse mucho las áreas accesibles a los cocodrilos, incluidas las zonas pobladas, y su área de distribución principal se encontraba en Indochina. Esto se ve corroborado por el hecho de que, en los mitos, la mayoría de los dragones y serpientes atacan a los pueblos costeros, no a los pescadores. Bajo esta lectura, las historias de dragones y monstruos marinos tal vez sean un recuerdo profundo guardado en el folklore de una plaga de cocodrilos que se produjo en el pasado remoto cuando las áreas costeras de poca profundidad quedaron inundadas [446].
Aparte del «caos acuoso», la primera luz y la separación de los cielos y la tierra, otros elementos de esta constelación de mitos incluye el incesto, el parricidio y el uso de parte del cuerpo y fluidos de deidades como material de construcción del cosmos. Nada de esto aparece en los mitos del Nuevo Mundo, mientras que es común en toda Eurasia, donde a menudo encontramos una pareja divina que está unida y se separa para crear el cielo y la tierra, y luego son mutilados y despedazados por su progenie, que utilizan las partes de la deidad parental para crear el paisaje. (La sangre, por ejemplo, se usa para los ríos, el cráneo para construir la bóveda celeste). Muchos mitos de esta constelación contienen episodios de incesto después del diluvio, por lo general entre hermanos. A veces los participantes son conscientes del tabú, que en otros casos ni se menciona. Esta parece ser un poderosa manera que tendrían los pueblos primitivos de reforzar el recuerdo de que, tras el diluvio o la erupción de Toba, la raza casi se extingue o queda aislada (¿de otras islas?), y la población reducida hasta tal extremo que los hermanos se vieron obligados a aparearse con sus hermanas. Estos mitos, cabe insistir, no suelen encontrarse en el Nuevo Mundo [447].
Este patrón general es amplificado por un segundo grupo de mitos que también son notables por su ausencia en el Nuevo Mundo. Estos incluyen el «dios del árbol que muere y renace» y el mito de los hermanos enfrentados. El dios o espíritu del árbol que muere y renace estaba ampliamente distribuido por el mundo, desde el mito nórdico de Odín hasta el egipcio de Osiris, a la historia cristiana de Jesús, al mito de Maapitz en las Molucas o el mito de To Kabinana en Nueva Bretaña. Además, este mito coincide en ciertas regiones con el motivo de los hermanos enfrentados o de la rivalidad entre hermanos: Set/Isis en Egipto, Bangor/Sisi en Papúa Nueva Guinea, Wangki/Sky en Sulawesi (Célebes), y, naturalmente, Caín y Abel en la Biblia. Este conflicto suele interpretarse como un reflejo de las distintas formas de vida de la agricultura frente a la caza y recolección o el nomadismo; en otras palabras, es posterior a la agricultura [448].
Lo que nos interesa de estos mitos no es tanto su significado (por el momento) como su distribución, la cual, en términos generales, se extiende una vez más desde Indonesia y Borneo hacia el norte por la península Malaya, la India, el golfo Arábigo, Mesopotamia, las civilizaciones mediterráneas y hasta la Europa occidental y del norte. Estas localidades tienen en común que ocupan el gran «corredor este-oeste», al cual se superponen: un amplio pasillo de costa que va de la punta de Malasia en Singapur hasta, en el oeste, la punta de Saint-Mathieu, cerca de Brest, en la Bretaña francesa. Esta línea de costa continua habría permitido un primitivo comercio costero y la transmisión de ideas que acompañaría a ese movimiento.
La nueva síntesis de cosmología, geología, genética y mitología es emocionante, pero ya la hemos llevado tan lejos como es posible. De ella podemos concluir (insistiendo en que todo esto es especulativo) que un grupo de los primitivos humanos que primero poblaron el continente americano no llegó más tarde de hace 14.000 años, y muy probablemente hace 16.500-15.000. Compartieron con todos los demás la experiencia de una inundación marina global, pero no mostraban indicios de conocer la agricultura o la navegación, y habrían alcanzado la gélida y limitante región de Siberia, y luego de Beringia, antes de que esas habilidades fuesen inventadas (o necesitadas) en algún lugar de la plataforma de Sonda. De manera parecida, mostraban un conocimiento muy rudimentario de una gran catástrofe global, distinta de la inundación, en la que los cielos se oscurecieron durante generaciones y se aclararon muy lentamente.
Estos mitos concuerdan con los indicios genéticos y lingüísticos en que hubo una migración posterior, posiblemente hace 11.000 años, pero más probablemente hace 8.000-6.000 años. De ello se sigue que estos pueblos no tenían conocimiento del conflicto cultural que dio origen a los mitos de los hermanos enfrentados, o al mito del dios del árbol que muere y renace, que se originaron en el sureste asiático demasiado tarde para ser incorporados a la mitología del Nuevo Mundo. Esto también sugiere que estos pueblos dejaron la plataforma de Sonda antes de que se inventase la agricultura. Estas dos constelaciones de motivos míticos posiblemente fuesen las ideas más importantes de los tiempos antiguos del Viejo Mundo, y como tales debieron modelar las religiones y las historias tradicionales desde Europa hasta el sureste asiático [449].
Todo esto sugiere (todavía especulando) que en la plataforma de Sonda el periodo entre hace 11.000 y hace 8.000 años debió de ser muy problemático, con varias catástrofes que expulsaron a muchos pueblos y dieron origen a potentes mitos entre quienes permanecieron. Se produjo una gran ruptura entre los pueblos que se dirigieron al norte, y que con el tiempo colonizarían el Nuevo Mundo, y los que se quedaron, o se dirigieron de vuelta al oeste, formando parte de las civilizaciones de Eurasia.
En general, de este breve repaso de los mitos pueden extraerse dos conclusiones generales, una que concierne al Nuevo Mundo, y otra al Viejo Mundo. En el Nuevo Mundo, los mitos muy antiguos (como la creación acuosa del mundo) tendieron a quedar relegados por los que se impusieron sobre la gente a causa de sus experiencias en el propio continente americano: buceadores de tierra, levantadores de tierra, violentos tsunamis. Esta es una temprana indicación de una tendencia o tema que veremos mejor en el siguiente capítulo: el papel que ha desempeñado la meteorología extrema (tormentas, huracanes, volcanes y terremotos) en la ideología del Nuevo Mundo. En el Viejo Mundo, lo que llama la atención es la peculiar distribución del mito de la creación acuosa, la creación de la luz y los mitos del dios del árbol que muere y renace. La muerte y el renacimiento hacen referencia a la fertilidad, un tema dominante en la ideología del Viejo Mundo que, como veremos, no tuvo el mismo eco en el Nuevo Mundo.

Patrones de Venus
Aparte del mito de la separación de los cielos y la tierra y de un mito casi universal de un diluvio, también necesita explicación y comentario la representación habitual de la forma femenina en los comienzos del arte paleolítico. Las llamadas «estatuillas de Venus» se han hallado en un estrecho arco que se extiende de Francia a Siberia, y la mayoría pertenecen al periodo gravetiense, hace unos 25.000 años [450]. Muchas de ellas (pero no todas) representan cuerpos con grandes pechos y barrigas, que posiblemente indican que están embarazadas. Muchas (pero no todas) tienen la vulva distendida, como si estuvieran a punto de dar a luz. Muchas (pero no todas) están desnudas. Muchas (pero no todas) no tienen rostro pero sí elaborados peinados. Muchas (pero no todas) están incompletas, sin pies o sin brazos, como si el autor hubiese pretendido representar únicamente las características sexuales de estas estatuillas. Algunas (pero no todas) estaban pintadas originariamente en rojo ocre, como si se quisiera simbolizar la sangre menstrual. Algunas estatuillas tienen líneas grabadas en la parte trasera de los muslos, tal vez para indicar que ya habían roto aguas.
Algunos críticos han argumentado que deberíamos tener cuidado con no leer demasiado sexo en estas estatuillas, algo que, añaden, nos dice más de los modernos paleontólogos que de los antiguos humanos. No obstante, otras obras de arte temprano sugieren claramente temas sexuales. Entre las imágenes halladas en 1980 en la cueva de Ignateva, en los Urales meridionales de Rusia, hay una figura de mujer con veintiocho puntos rojos entre sus piernas, muy posiblemente una referencia al ciclo menstrual. En Mal’ta, en Siberia, unos arqueólogos soviéticos descubrieron casas divididas en dos mitades. En una solo se hallaron objetos de uso masculino, en la otra, estatuillas femeninas. ¿Era una división ritual en función del género [451] ?
Tanto si estas primitivas «imágenes sexuales» están sobreinterpretadas como si no, lo cierto es que el sexo es una de las principales imágenes del arte primitivo y que los órganos sexuales femeninos aparecen representados mucho más a menudo que los masculinos. De hecho, no se conocen representaciones masculinas en el periodo gravetiense, lo que respaldaría la tesis de la distinguida arqueóloga lituana Marija Gimbutas de que los humanos primitivos adoraban a una «gran diosa» y no a un dios masculino. El desarrollo de estas creencias, decía, posiblemente tuviera algo que ver con lo que por entonces habría sido el gran misterio del nacimiento, el prodigio del amamantamiento y la perturbadora recurrencia de la menstruación. Randall White, catedrático de antropología de la Universidad de Nueva York, añade la intrigante idea de que estas estatuillas datan de un tiempo (y un tiempo así tiene que haber existido) en que los primitivos humanos todavía no habían establecido un vínculo entre coito y nacimiento. Por aquel entonces, el nacimiento debía ser algo verdaderamente milagroso, y los humanos primitivos debieron de pensar que si las mujeres podían parir, tal vez era porque recibían algún espíritu, quizá de los animales. Mientras no se relacionó el coito con el nacimiento, las mujeres debían verse como criaturas misteriosas y milagrosas, mucho más que los hombres.
Anne Baring y Jules Cashford van directas al núcleo del asunto en El mito de la diosa: evolución de una imagen, donde describen estas primitivas estatuillas de Venus como una diosa madre paleolítica [452]. Randall White sin duda lleva la razón cuando argumenta que debió de haber un tiempo en que los antiguos humanos no habían establecido la relación entre el coito y el nacimiento porque 280 días de embarazo (por término medio, desde el fin de la menstruación hasta el parto) es demasiado tiempo para percibir el vínculo. Eso podría ayudar a explicar por qué las estatuillas de Venus solo se tallaban (en marfil o piedra) y prácticamente nunca aparecen en el arte rupestre. Y por qué a menudo les faltan la cabeza o los pies, o tienen esos rasgos muy estilizados. Las estatuillas estaban talladas porque tenían que poder transportarse fácilmente. El clan o la tribu llevaba consigo las estatuillas mientras seguían a los rebaños, y las figuras estaban talladas de aquel modo porque solo incluían los rasgos prácticos e importantes.
Elizabeth Wayland Barber y Paul Barber, en su libro When they Severed Earth from Sky: How the Human Mind Shapes Myth [Cuando la tierra se separó del cielo: cómo se forman los mitos en la mente humana)] argumentan de forma convincente que muchos mitos comunes se fundamentan en observaciones bastante precisas que realizaban los antiguos pueblos de los fenómenos que consideraban importantes, pero usaban recursos mentales que todavía nos resultan familiares para recordar esos fenómenos y advertir a sus descendientes [453]. Los Barber nos enseñan que debemos entender a los gigantes como volcanes o como restos de huesos de mamut, que las erupciones volcánicas deben entenderse como gigantescos «pilares de piedra» y son una impresionante prueba de la existencia de un submundo dotado de fuerzas terribles, y cómo los dioses de las tormentas se convirtieron en caballos alados y los tsunamis en «toros del mar». Sobre esta base, podemos concluir que los pueblos primitivos eran perfectamente conscientes de la naturaleza milagrosa del nacimiento pero no menos conscientes de que podía ser un momento delicado, incluso peligroso, y por eso plasmaban en las estatuillas de manera elaborada y detallada las formas del cuerpo femenino que indicaban que el nacimiento era inminente. Si desconocían el vínculo entre la unión sexual y el nacimiento, no podían concebir los ritmos biológicos que rigen la gestación, de manera que los signos corporales que indicaban un nacimiento inminente habrían sido la única manera práctica de conocer cuándo organizar sus vidas para maximizar las probabilidades de un parto sin peligro, tal vez resguardando a la futura madre en una cueva preferida o familiar, a salvo de los depredadores.
En mayo de 2009 se anunció el descubrimiento de una pequeña estatuilla de Venus, tallada en marfil de mamut, durante unas excavaciones en las cuevas de Hohle Fels, en Alemania, que se dató en 35.000 años. Nicholas Conard, que formaba parte del equipo de la excavación de la Universidad de Tubinga, señaló que la figura tenía rasgos sexuales exagerados y un pequeño lazo en lugar de cabeza [454], lo que lo llevó a pensar que la estatuilla debía de «atarse con un cordel y llevarse como un colgante». Eso encajaría con la visión general y parece confirmar que las estatuillas iban con las personas, como sugiere la interpretación presentada aquí.
Las estatuillas de Venus más antiguas que se conocen datan de hace 40.000-35.000 años y desaparecen (con la Venus de Monruz, en Suiza) hace unos 11.000 años. Esta datación también es sugerente por situarse alrededor del tiempo en que se domesticaron los primeros animales. El periodo de gestación de las vacas es parecido al de los humanos (285 días) y el del caballo aún más largo (340-342 días). Pero el del perro es de solo sesenta y tres días, apenas dos meses, así que tal vez fuese mediante la observación del (recién) domesticado perro como los humanos primitivos establecieron el vínculo crucial entre coito y gestación [455]. Unos hallazgos hechos públicos en marzo de 2010 por Bridgett M. von Holdt y Robert K. Wayne, de la Universidad de California en Los Ángeles, que utilizaron análisis de ADN, sitúa la domesticación de los perros en algún lugar de Oriente Medio hace unos 12.000 [456]. Intuitivamente, eso parece muy tarde para que los humanos descubrieran el vínculo entre la unión sexual y el nacimiento. Sin embargo, según Malcolm Potts y Roger Short, los aborígenes australianos no asociaron el coito con el embarazo hasta que domesticaron al dingo, que tiene un periodo de gestación igualmente corto (sesenta y cuatro días [457] ).
La idea tampoco es incongruente con el hecho de que los dioses masculinos no aparecen hasta el séptimo milenio a. C., salvo que incluyamos en la lista al propio chamán (que solía ser un hombre). Si damos entrada al chamán, entonces las primeras ideologías de la humanidad habrían involucrado la adoración de dos principios: la gran diosa y el misterio de la fertilidad, y el drama de la caza, que subrayaba el problema de la supervivencia. (En las sociedades de cazadores-recolectores, los chamanes conseguían su poder gracias a su capacidad para comunicarse con los animales). Una imagen de un oso herido en la cueva de Les Trois Frères, en Francia, lo presenta cubierto de dardos y lanzas y derramando sangre por el hocico y la boca.
Este tema de la gran diosa habría de convertirse en el motivo ideológico predominante en el Viejo Mundo, a diferencia del Nuevo, donde se imponían otras imágenes. Debemos preguntarnos, pues, por qué esta imagen, este motivo, se presentó donde y cuando lo hizo y por qué su distribución geográfica es limitada. Eso nos ayudaría a entender algo mejor este fenómeno.
Lo primero que hay que decir es que, a medida que la edad de hielo se acercaba a su fin, entre 40.000 y 20.000 a. C., mientras se retiraban los glaciares y el permafrost y se extendían las praderas, el mamut lanudo, el rinoceronte lanudo y el reno dieron paso a las grandes manadas de bisontes, caballos y bóvidos. Más tarde, las praderas fueron sustituidas por bosques, de manera que las manadas se desplazaron hacia el este, y los cazadores las siguieron. Una tercera parte de las pinturas rupestres son de caballos, mientras que otro tercio representa bisontes o uros. Apenas aparecen renos o mamuts, aunque se han hallado muchos huesos de estos animales [458].
Si los «nuevos» animales fueron seguidos a través de los «nuevos» hábitats de pradera por pueblos que llevaban consigo estatuillas, la distribución de la estepa también debería explicar la expansión de las estatuillas de Venus, que acaban donde acaba la estepa, alrededor del lago Baikal. Una mirada a un mapa revela que el lago Baikal y el río Lena, hacia el norte, conforman una suerte de frontera natural.
Por consiguiente, si, tal como hemos sugerido, los antiguos humanos alcanzaron el Nuevo Mundo cruzando el estrecho de Bering desde Mongolia y/o siguiendo la costa hacia el norte desde el sureste de Asia, obteniendo sus proteínas sobre todo del pescado, no habrían incorporado la ideología posglacial eurasiática en su psicología. Cabe suponer que habrían descubierto de manera independiente el vínculo entre coito y nacimiento y, por una u otra razón, quizá por la ausencia relativa de animales de manada, no lo elevaron a un principio general de adoración. Es improbable que los pueblos marítimos y costeros adquiriesen una idea de la reproducción de los peces o los mamíferos marinos. De igual modo, los habitantes de los bosques, que comparten su hábitat solamente con animales salvajes, habrían tenido menos oportunidades de observar el apareamiento y casi ninguna de presenciar partos, un momento tan peligroso para los animales salvajes.
Una vez se comprendió el nexo entre la unión sexual y el nacimiento, y su aplicación general a otros mamíferos que podían servirles de alimento, debió de surgir la idea de controlar la fertilidad, que es un aspecto crucial de la domesticación de los animales. También esto es congruente con la idea de que el descubrimiento del vínculo entre el coito y el nacimiento se produjo hace unos 12.000 años.

El vínculo entre cambio climático y agricultura
La domesticación de plantas y animales en el Viejo Mundo se desarrolló hace entre 14.000 y 6.500 años y es uno de los temas más estudiados de la prehistoria. Puede afirmarse que ya tenemos una idea bastante clara de dónde y cómo comenzó la agricultura, y con qué plantas y animales, pero a día de hoy no hay acuerdo sobre el porqué de este trascendental cambio.
La domesticación de plantas y animales (en este orden) se produjo de manera independiente con seguridad en dos áreas del mundo, y tal vez en siete. Estas áreas son: primero, el suroeste de Asia, o sea, Oriente Medio, y en particular el Creciente Fértil, que se extiende desde el valle del Jordán en Israel hasta Líbano y Siria, incluyendo una sección del sureste de Turquía, y alrededor de los montes Zagros hasta los actuales Irán e Irak, la región conocida en la Antigüedad como Mesopotamia. La segunda área de indiscutible domesticación independiente se encuentra en Mesoamérica, entre lo que hoy es Panamá y el norte de México. Además de estas dos, hay otras cinco áreas del mundo donde también se produjo domesticación, pero no tenemos la seguridad de que fuese independiente y no derivada de los progresos alcanzados en Oriente Medio o Mesoamérica. Estas áreas son: sureste asiático, como ya hemos visto, junto con las tierras altas de Nueva Guinea y China, donde la domesticación del arroz parece haber seguido su propia historia; un estrecha franja del África subsahariana, desde lo que hoy es Costa de Marfil, Ghana y Nigeria, en el oeste, hasta Sudán y Etiopía, en el este; la región de los Andes y la Amazonía, donde la inusual geografía podría haber propiciado una domesticación independiente; y el este de Estados Unidos, donde es bastante probable que se derivase de Mesoamérica [459].
En el caso de la domesticación de animales, los indicios son algo distintos. Suelen aceptarse como prueba de domesticación uno o más de tres criterios: un cambio en la abundancia de algunas especies (un aumento súbito de la proporción de una especie en la serie temporal de una localidad), un cambio de tamaño (la mayoría de las especies salvajes son de mayor tamaño que sus parientes domesticados porque a los humanos les resultaba más fácil controlar animales más pequeños), y un cambio en la estructura de la población (en una manada doméstica o rebaño, la estructura de edades y sexos es manipulada para maximizar la producción, generalmente mediante la conservación de las hembras y la selección de machos subadultos). Usando estos criterios, la cronología de la domesticación de los animales parece comenzar poco después de 9000 AP (antes del presente), es decir, unos 1.000 años después de la domesticación de las plantas. Los yacimientos donde se registran estos procesos están todos en el Oriente Medio, en localidades que no son idénticas a las de la domesticación de las plantas, pero conformando áreas que se solapan [460].
Mucho más controvertidas son, en cambio, las razones que explican el desarrollo de la agricultura, por qué se produjo cuando y donde lo hizo. La pregunta es más interesante de lo que parece si se tiene en cuenta el hecho de que el modo de vida de los cazadores-recolectores es en realidad bastante eficiente. Los indicios etnográficos obtenidos en tribus actuales de cazadores-recolectores muestran que generalmente les basta con «trabajar» tres o cuatro o cinco horas al día para proveerse alimento para ellos y sus familias. ¿Por qué habría de cambiar nadie esas condiciones por un modo de vida distinto que exige más trabajo?
El más básico de los argumentos económicos estriba en el hecho de que, como ya se ha mencionado, entre 14000 AP y 10000 AP el mundo experimentó un gran cambio climático. Este cambio fue en parte una consecuencia del fin de la edad de hielo, que tuvo el doble efecto de incrementar el nivel del mar y, bajo un clima más cálido, promover la expansión de los bosques. Estos dos factores llevaron a que los espacios abiertos se contrajeran enormemente y se fragmentaran lo que antes eran grandes extensiones en unidades más pequeñas. La reducción de los espacios abiertos fomentó la territorialidad y los pueblos comenzaron a proteger y propagar sus campos y manadas de animales. Un aspecto adicional de este conjunto de cambios es que el clima se fue tornando cada vez más árido y las estaciones menos pronunciadas, una circunstancia que propició la expansión de los cereales silvestres y el movimiento de los pueblos entre distintos ambientes, en busca de plantas y carne de animales. En las áreas que tenían montañas, llanuras costeras, mesetas y ríos había más variedad de climas, de ahí la importancia del Creciente Fértil.
A los cambios climáticos que se produjeron por entonces hay que añadir argumentaciones contrapuestas que sugieren que el mundo estaba sobre o subpoblado, y que eso empujaba a los pueblos a abandonar un modo de vida de cazador-recolector.
Una de las cosas a favor de estas teorías es que divorcian el sedentarismo de la agricultura. Este descubrimiento es uno de los más importantes avances realizados desde la segunda guerra mundial. En 1941, cuando el arqueólogo V. Gordon Childe acuñó la expresión «revolución neolítica», argumentó que la invención de la agricultura había conllevado el desarrollo de los primeros asentamientos y que este nuevo modo de vida sedentario había conducido a su vez a la invención de la cerámica, la metalurgia y, en el curso de tan solo unos pocos miles de años, el florecimiento de las primeras civilizaciones. Esta idea, por sugerente que sea, se ha visto contestada repetidamente, y hoy está claro que el sedentarismo, el cambio del modo de vida del cazador-recolector a la vida en asentamientos, ya estaba extendido en el momento en que tuvo lugar la revolución agrícola. Eso ha transformado nuestra comprensión del hombre primitivo y de su modo de pensar.

Un punto de inflexión: el descubrimiento del vínculo entre coito y nacimiento
En concreto, el hecho de que el sedentarismo precediera a la agricultura estimuló al arqueólogo francés Jacques Cauvin a producir una amplia revisión de la arqueología de Oriente Medio. Comenzó haciendo un detallado examen de los asentamientos preagrícolas. Entre 12500 a. C. y 10000 a. C., la cultura natufiense se extendía por casi todo el Levante, desde el Éufrates hasta el Sinaí (la cultura recibe su nombre de un yacimiento en Wadi an-Natuf, en Israel). Las excavaciones en Ain Mallaha, en el valle del Jordán, al norte del mar de Galilea, identificaron la presencia de silos de almacenamiento, lo que indicaba «que estos asentamientos deberían definirse no solo como las primeras comunidades sedentarias del Levante, sino como “cosechadores de cereales”» [461]. La cultura natufiense ya tenía casas, que agrupaban (unas seis, por término medio) en poblados, y eran semisubterráneas, construidas en depresiones circulares poco profundas «con los lados soportados por muros de retención hechos de piedra seca». Pero lo más importante para lo que ahora nos concierne es que tenían enterramientos individuales o colectivos bajo las casas o en cementerios comunales. Algunos enterramientos, entre ellos algunos de perros, debieron de ser ceremoniales, pues se hallaron decorados con conchas y piedras pulidas (nótese la temprana presencia de perros). En estos asentamientos se han hallado sobre todo objetos de arte hechos con hueso, normalmente representando animales.
Cauvin dirigió entonces su atención a la llamada fase khiamiense, que recibe su nombre del yacimiento de Khiam, al oeste del extremo septentrional del mar Muerto, y que es significativa por su «revolución de los símbolos». El arte natufiense era esencialmente zoomórfico, mientras que en el periodo khiamiense comienzan a aparecer estatuillas de figuras femeninas (pero no con forma de «Venus»). Alrededor de 10000 a. C. se encuentran cráneos y cuernos de uros (una forma extinta de buey salvaje o bisonte) enterrados en casas, con los cuernos a veces incrustados en las paredes, lo que sugiere que ya cumplían una función simbólica. Más tarde, alrededor de 9500 a. C., vemos cómo surge en el Levante, «en un contexto económico todavía inalterado de caza y recolección» (la cursiva es mía), el desarrollo de dos estatuillas simbólicas predominantes, la mujer y el toro. La mujer era la figura suprema, dice Cauvin, y a menudo aparece pariendo un toro [462].
Lo que Cauvin quiere decirnos es que esta es la primera vez que se representa a los humanos como dioses, que se representan tanto el principio femenino como el masculino, y que eso marca un cambio de mentalidad antes de que se produjera la domesticación de plantas y animales.
Es más fácil entender la razón de que en el arte khiamiense se escogiera la figura femenina que la razón de que se representara lo masculino. El misterio del nacimiento había conferido a la forma femenina un halo sagrado, fácil de adaptar por analogía como símbolo de la fertilidad en general. Por eso, para Cauvin el toro simboliza oportunamente lo indómito de la naturaleza, las fuerzas cósmicas desatadas en las tormentas, por ejemplo. Además, Cauvin discierne en Oriente Medio una clara evolución. «Los primeros bucráneos [cráneos de buey con cuernos] del khiamiense… estaban enterrados entre el grueso de los muros de los edificios, y por tanto no eran visibles para sus ocupantes». ¿Era así porque deseaban incorporar el poder del toro en la estructura misma de sus edificios, con el fin de que resistieran mejor los hostiles embates de la naturaleza?
Pero sin duda esa historia, esa transición, fue más compleja. Como muchos prehistoriadores han señalado, en ciertas fases de su ciclo, la Luna se parece a los cuernos de un toro. Ese parecido debieron de reconocerlo los pueblos antiguos, que también habrían observado el ciclo menstrual, vinculado a las fases lunares y, por tanto, por implicación, al toro (el lector recordará la estatuilla de Venus con veintiocho puntos rojos que hemos mencionado antes). Los pueblos antiguos debieron de notar que la menstruación cesaba inmediatamente antes de la gestación y, por tanto, podrían haber vinculado la Luna «tauriforme» con la gestación y el nacimiento humanos. ¿Es esta la razón de que tantas imágenes del Neolítico temprano representen mujeres dando a luz a un toro?
Es importante recalcar que los toros aparecen representados por sus bucráneos mucho más a menudo que por sus penes, una discrepancia que es difícil de entender si se sigue un simple razonamiento como «símbolo de fertilidad». Además, nadie puede haber visto a una mujer pariendo un toro; así pues, ¿qué significaban esas imágenes? En las religiones chamánicas, los chamanes realizan vuelos espirituales a otros dominios y pueden tomar la forma de animales [463]. En un sistema de conocimiento así, el toro/chamán de los cielos puede visitar la Tierra y penetrar en una mujer. ¿Creían los pueblos primitivos que las mujeres quedaban preñadas a causa de alguna de las misteriosas fuerzas de la naturaleza?
Es una teoría plausible, más aún si se tiene en cuenta que en los yacimientos de Oriente Medio de Çatalhöyük y Jericó, que siguieron a las culturas natufiense y khimiense, hace unos 11.000-9.000 años, podían observarse nuevos cambios, dos en particular. El primero, como han señalado tanto Brian Fagan como Michael Balter, es que tanto en Çatalhöyük, en Turquía, como en Jericó, en Palestina, «se daba una nueva preocupación por los antepasados y por la fertilidad de la vida animal y humana» [464]. Y hubo un segundo cambio, y es que dejó de enterrarse a los muertos en tumbas comunales (como había observado Cauvin), para hacerlo bajo las casas donde vivían. Estas son las mismas casas donde previamente se habían incorporado los bucráneos, empotrados en los muros o bajo el suelo.
Recordemos ahora que el perro está presente en estos yacimientos de Oriente Medio, precisamente en el área donde, según Von Holdt y Wayne, se produjo domesticación (lo que encaja con pruebas más recientes de que los perros evolucionaron a partir de lobos hace entre 31.000 y 19.000 años). Si los humanos acababan de descubrir el vínculo entre coito y nacimiento, se sigue de ello una serie de cosas. Por ejemplo, no solo habría desvelado el descubrimiento nuevas relaciones en la sociedad neolítica entre hombres y mujeres, y entre padres e hijos, sino que también habría transformado las ideas sobre los antepasados. Hasta aquel momento, los «ancestros» se habrían entendido como algo general, comunal, tribal, como antepasados de «el pueblo que había antes». Tras la comprensión de aquel vínculo, sin embargo, la «ascendencia» se habría convertido en algo mucho más individual y personal, lo que podría explicar por qué en Çatalhöyük y Jericó se enterraba ahora a los antepasados bajo el suelo de las casas donde habían vivido, reemplazando a los bucráneos.
¿Es simple coincidencia que en Eurasia desaparecieran las estatuillas de Venus hace unos 12.000 años, y que hace unos 11.000 años apareciesen en estos yacimientos de Oriente Medio unas figuras femeninas que no muestran un parto inminente, sino el propio parto, o es en realidad un indicio más del cambio en el conocimiento que estamos considerando [465] ?
Hay otro factor que hace muy poco tiempo que ha visto la luz. Hoy sabemos que a medida que los pueblos pasaron de la caza a una dieta más sedentaria, basada en cereales, se produjeron cambios en el canal del parto de las mujeres. La ciencia ha probado recientemente que el canal del parto es muy susceptible a la nutrición, y el cambio de dieta hizo que se estrechase. Aun hoy, no ha recuperado sus dimensiones paleolíticas [466]. Podemos concluir, entonces, que al mismo tiempo que se producía el sedentarismo y un cambio en la dieta, y que se estaba desarrollando una nueva comprensión de la reproducción, con lo que eso significaba para la vida familiar y religiosa, el propio acto del nacimiento se estaba tornando más traumático y peligroso.
En este punto podemos preguntarnos si, con todo lo que estaba ocurriendo de forma más o menos simultánea, y teniendo en cuenta que algunos cambios fueron traumáticos, incluso conmovedores, entonces, como pasó con otros sucesos estremecedores, ¿no se habrían recordado y representado con coherencia en forma de mitos?

¿Un código genético en el Génesis?
Hay un indicio, un mito, que lleva a pensar que realmente se produjo ese poderoso cambio en la conciencia humana.
¿Es posible que ese trascendental cambio de mentalidad se hallase en el primer libro de la Biblia? ¿Es esa la razón de que la Biblia comience como lo hace? El Génesis es conocido en parte por su relato de la creación del mundo («Sea la luz»), y de la humanidad, pero también por el episodio, de otro modo extraño, de la expulsión de Adán y Eva del jardín del edén por haber comido del árbol de la ciencia del bien y del mal en contra de las instrucciones explícitas de Dios.
Algunas partes de esta historia son más fáciles de entender o descifrar que otras. La propia expulsión, por ejemplo, podría representar el fin de la horticultura, o el fin del modo de vida de los cazadores-recolectores y la conversión de la humanidad hacia la agricultura, junto al reconocimiento, como ya se ha comentado, de que el modo de vida de los cazadores-recolectores era más fácil, más placentero, más armonioso que la agricultura. La Biblia no es la única que hace esta observación. En tradiciones más o menos contemporáneas (los Campos Elíseos, las islas de los Bienaventurados, en Hesíodo o Platón) se da a entender que hasta entonces los seres humanos habían vivido sin esfuerzo de una tierra exuberante, «sin la ayuda de la agricultura», y «no hendida por la azada o el arado» [467]. Esta es una de las razones por las que la transición se ve como una caída.
No obstante, el drama en el centro del Génesis es, por supuesto, que Eva sigue el consejo de la serpiente y convence a Adán para que ambos coman del árbol de la ciencia del bien y del mal, tras lo cual descubren que están desnudos. Eso es del todo incomprensible salvo que reconozcamos que tanto el «conocimiento» como la desnudez se refieren aquí a la sexualidad, o a alguna forma de conciencia de lo sexual. Y ciertamente, como nos dice la erudita bíblica Elaine Pagels, el verbo hebreo que significa «conocer» ( yada’), «connota relación sexual». (Como en «Conoció a su mujer») [468]. Una vez que Adán y Eva han comido del árbol de la ciencia, descubren que están desnudos. ¿Qué puede significar esto sino que ganan conciencia de sus propios cuerpos, de cómo difieren, cómo y por qué importa esa diferencia, y que el «conocimiento» que ahora tienen es el de la reproducción? Este conocimiento es traumático y conmovedor porque muestra que la reproducción es «natural», que los humanos no salen de alguna fuerza divina y milagrosa sino del acto sexual. Esta es la segunda razón por la que se siente como una caída.
Se encuentran otras pistas de este cambio cuando se las busca. Como Potts y Short observan, los cazadores-recolectores son políginos, pero es ahora, dice Elaine Pagels, cuando el matrimonio se torna monógamo e «indisoluble». Los humanos entendieron por vez primera la naturaleza de la paternidad, y se tornó importante para ellos. También resulta ahora pertinente, como señala también Elaine Pagels, que en Génesis 3:16 se lea: «A la mujer dijo: Multiplicaré en gran manera los dolores en tus preñeces; con dolor darás a luz los hijos» [xxxi].
¿No vemos aquí un relato mítico de la transición de la caza y recolección a la agricultura y de algunas de sus consecuencias? Más aún, ¿no viene acompañado de una actitud que no es del todo disconforme con los estudios actuales? ¿Que la transición no fue del todo buena, que se había perdido la armonía con la naturaleza e incluso los partos se habían tornado más dolorosos y peligrosos? (Además de los cambios en las dimensiones del canal del parto, otras investigaciones contemporáneas han mostrado que los intervalos entre nacimientos de menos de cuatro años, más probables en los pueblos sedentarios que en los nómadas cazadores-recolectores, son más peligrosos que los intervalos más largos).
El Génesis no nos ofrece una «datación» de cuándo vinculó la humanidad el sexo y el nacimiento, al menos no de manera directa. Pero sí asocia el vínculo con la transición a la agricultura. Por consiguiente, ¿es de hecho el Génesis, y la caída que registra, un relato de un gran y traumático punto de inflexión para la humanidad que se produjo hace unos 12.000-10.000 años, tras comprenderse que el coito y la gestación están relacionados? Timothy Taylor, en The Prehistory of Sex [La prehistoria del sexo], nos dice que más o menos por aquel tiempo, los inuit de Alaska tenían lo que el arqueólogo Lewis Binford reconocía como «campamentos de amantes», lugares donde las nuevas parejas podían «apartarse de todo» para cimentar sus relaciones. Taylor añade que hace unos 10.000 años, las cuevas donde proliferó el arte de la edad de hielo parecían haberse «olvidado» [469]. Lo ocurrido entonces, fuese lo que fuese, debía de ser bastante importante. Ya no necesitaban las estatuillas de Venus, tampoco el arte rupestre. Se entendía la reproducción en los animales y la domesticación estaba en marcha.
Estos argumentos son provisionales, pero su fuerza principal radica en la imagen coherente que dibujan. Hace unos 12.000-10.000 años, además de una transición hacia el sedentarismo y la domesticación, los humanos descubrieron el vínculo entre el coito y el nacimiento, y eso ocasionó un cambio trascendental en sus actitudes hacia la ascendencia, el papel del hombre, la monogamia, los hijos, la privacidad y la propiedad. Fue, por encima de todo, un cambio psicológico fundamental, y por eso se registró, en forma codificada, en el Génesis.

* * * *

Un breve ejemplo más ayudará a subrayar el mensaje de este capítulo: el orden científico que subyace a los mitos. También extiende el argumento a otro continente: África.
Los lemba son una tribu de Zimbabue que tiene un mito del origen que, a primera vista, es difícil de creer. La leyenda, transmitida a lo largo de muchas generaciones, relata cómo, hace 3.000 años, un hombre llamado Buba condujo a la tribu lejos de las tierras que hoy forman Israel y viajaron hacia el sur, atravesando Yemen y Somalia y siguiendo la costa oriental de África para finalmente asentarse en Zimbabue. Eran, en las palabras de su leyenda, una de las tribus perdidas de Judea y, como los judíos, observaban el sabbat, no comían cerdo y circuncidaban a sus hijos.
Hay muchos pueblos por todo el mundo que afirman ser una de las tribus perdidas de Judea, pero en 1997 unos científicos encontraron un marcador genético característico en el cromosoma Y de los hombres lemba. Según la tradición judía, la casta sacerdotal, los cohanim, descendían todos de un único hombre, Aarón, el hermano de Moisés. El cromosoma Y es el paquete de genes que confiere a un niño su masculinidad [470]. Se transmite de padre a hijo y de hijo a nieto, igual que el estatus de pertenecer a la casta sacerdotal. Y, en efecto, en 1997 los científicos descubrieron un marcador genético distintivo de los sacerdotes judíos en los cromosomas Y de los hombres lemba. Estos marcadores prueban que los sacerdotes lemba «provienen del mismo linaje que los otros sacerdotes judíos de todo el mundo» [471].
Además, como ya empieza a ser habitual, existen paralelos en su lenguaje. Aunque hablan bantú, un grupo de lenguas que incluye el suajili y el zulú, algunas de las palabras de los lemba sugieren una herencia más amplia. Por ejemplo, algunos de sus clanes tienen nombres «que suenan semíticos», como Sadique. Sadiq significa «justo» en hebreo, y en las regiones judías de Yemen el nombre Sadique no es desconocido. También en este caso la genética y el lenguaje concuerdan y subrayan la veracidad de un antiguo mito [xxxii].

* * * *

En su libro sobre sociobiología, Edward O. Wilson dejó escrito que se había preguntado a sí mismo (de joven, y la pregunta no era del todo retórica), si las Sagradas Escrituras no habrían sido el primer intento literario del hombre de explicar el universo. Poco podía imaginar la razón que llevaba. Más aún por cuanto en la actualidad (la segunda década del siglo XXI) el mosaico genético que se extiende por el mundo es bien conocido y se acepta ampliamente que muestra el grado de parentesco entre los distintos grupos. Los solapamientos entre arqueología, mitología, genética y las distintas técnicas de datación son muchas y coherentes. En conjunto, han transformado nuestro conocimiento de cómo se pobló el mundo, no solo entre el Viejo Mundo y el Nuevo, sino también la expansión de tribus por Europa desde Oriente Medio, las migraciones a través de África, y a través del Pacífico desde el sureste asiático hasta Australia. Ahora que se conocen mejor las tasas de mutación, los marcadores genéticos se han convertido en una forma fiable de historia que nos transporta al pasado lejano, y cada vez con mayor precisión. La Gran Historia y la ciencia se han encontrado.

Capítulo 15
Civilización = Orquestación de Geografía, Meteorología, Antropología y Genética

Cuando los españoles llegaron al continente americano, había en el Nuevo Mundo dos civilizaciones prominentes, incluso dominantes: los aztecas en lo que hoy es México, y los incas en Perú. Ambas eran florecientes, tenían capitales complejas, religiones organizadas con calendarios rituales y obras de arte asociadas. Ambas sociedades estaban rígidamente divididas en clases sociales y cada una de ellas disponía de métodos eficaces de producción de alimentos. Pero había en los aztecas y los incas más que lo que se veía a primera vista.
Los aztecas fueron contactados primero, en 1519, trece años antes que los incas. Cuando los españoles cruzaron la cadena de montañas que rodea Tenochtitlán y descendieron al valle de México, contemplaron las sorprendentes ciudades que conformaban el núcleo del imperio azteca, con su red de lagos someros rodeados de volcanes activos, y apenas pudieron dar crédito a lo que veían sus ojos. Tan sofisticadas eran aquellas ciudades, y de tal tamaño, que algunos de los soldados de Cortés no estaban seguros de si lo que tenían ante ellos era real o una alucinación. Pero lo que los conquistadores pronto descubrieron fue que, pese a ser ellos mismos capaces de una brutalidad muy práctica y calculada, los mexica, como también se conocía a los aztecas, «presidían una ciudad de pirámides y templos sagrados que hedía a sangre de sacrificios humanos».
No fue fácil acostumbrarse a aquello. «Tornó a sonar el atambor muy doloroso», escribió Bernal Díaz del Castillo, uno de los asistentes desafectos de Hernán Cortés, en su Historia verdadera de la conquista de la Nueva España.

…y otros muchos caracoles y cornetas, y otras como trompetas, y todo el sonido de ellos espantable, y mirábamos el alto cu en donde los tañían y vimos que llevaban por fuerza las gradas arriba a nuestros compañeros […] que los llevaban a sacrificar; y desque ya los tuvieron arriba en una placeta que se hacía en adoratorio donde estaban sus malditos ídolos, vimos que a muchos dellos les ponían plumajes en las cabezas y con unos como aventadores les hacían bailar […] y desque habían bailado, luego les ponían despaldas encima de unas piedras, algo delgadas, que tenían hechas para sacrificar, y con unos navajones de pedernal los aserraban por los pechos y les sacaban los corazones buyendo y se los ofrescían a sus ídolos que allí presentes tenían, y los cuerpos dábanles con los pies por las gradas abajo; y estaban aguardando abajo otros indios carniceros, que les cortaban brazos y pies, y las caras desollaban…
Bernal Díaz, que sirvió como rodelero (escudero) con Cortés y decía haber estado en 119 batallas, quedó tan horrorizado como el resto de sus compañeros por la magnitud del sacrificio humano entre los aztecas y escribió que los sacerdotes tenían muchas maneras de efectuarlo: disparando a las víctimas con flechas, quemándolos o decapitándolos, ahogándolos en agua, lanzándolos desde una gran altura sobre un lecho de piedras, desollándolos vivos o aplastándoles la cabeza. Pero el método más habitual era arrancar el corazón de la víctima.
Durante el sacrificio, los sacerdotes pintaban a las víctimas con franjas rojas y blancas, luego enrojecían sus bocas y adherían plumón blanco a sus cabezas. Así ataviadas, las víctimas eran dispuestas en fila a los pies de las gradas del cu (la pirámide), antes de ser conducidos hasta lo alto uno a uno, como simbología del sol naciente. Cuatro sacerdotes aferraban a la víctima contra la piedra del sacrificio mientras un quinto presionaba con fuerza su cabeza para que el pecho sobresaliera. El sacerdote principal hendía su cuchillo de obsidiana con un rápido movimiento en la caja torácica y arrancaba el corazón mientras todavía latía. Es difícil dar cifras con seguridad. Dos conquistadores dijeron haber presenciado 136.000 cráneos en unos anaqueles, pero la mayoría de los estudiosos creen que se trata de una tremenda exageración.
Por otro lado, en 1487, las fuerzas de Ahuízotl (1486-1501), el octavo gobernante azteca, sofocaron una rebelión entre los huastecas (que ocupaban las costas del golfo de México), y se anexaron su territorio coincidiendo con la finalización del Gran Templo de la capital azteca, Tenochtitlán. Las celebraciones conjuntas que se sucedieron incluyeron espléndidos regalos y el sacrificio de no menos de 20.000 cautivos, algunos atados con cuerdas por la nariz, que hicieron formar en cuatro líneas que descendían por las gradas del templo «y salían por las cuatro calzadas de la ciudad isla». A todos ellos les arrancaron el corazón en una ceremonia que se prolongó durante cuatro días. Los muros de la ciudad quedaron bañados en la sangre de las víctimas.
El motivo de estas espeluznantes historias es el de resaltar el hecho de que, en aquellos tiempos, durante la conquista europea de América, hacía mucho que los sacrificios con sangre ya habían desaparecido de Eurasia, lo que plantea un extraordinario contraste entre las civilizaciones de los dos hemisferios que requiere explicación. Este capítulo propone que el comportamiento tan distinto en los dos hemisferios puede explicarse mediante un conjunto coherente de factores que en cada caso subrayan el mismo principio: la convergencia de geografía, clima, distribución de plantas y animales, antropología y genética.

Por qué este-oeste es mejor
Tal como se introdujo en el capítulo 12, entre 15000 a. C. y 1500 d. C. (en números redondos) existieron en la Tierra dos poblaciones humanas que se desconocían mutuamente. La comparación de las trayectorias seguidas por estas dos poblaciones nos ofrece una oportunidad única de investigación. Las diferencias sistemáticas entre las civilizaciones del Viejo Mundo y del Nuevo Mundo (la Gran Divisoria, como se ha llamado) conforman uno de los mayores y más instructivos «laboratorios naturales» de la historia de la humanidad. Lo que sigue es una síntesis de amplias investigaciones que abarcan geología, geografía, climatología, etnografía, botánica, zoología, agricultura y genética, y que convergen de una manera coherente mostrando la profunda influencia que han ejercido las características de la Tierra sobre el desarrollo y forma de las civilizaciones, y ofreciéndonos tal vez la comprensión científica última de la Gran Historia: cómo hemos llegado al mundo moderno.
Para empezar, el continente americano era una masa de tierra emergida mucho menor que Eurasia, incluso si no se añade África. Además, el Nuevo Mundo, como Hegel, Jared Diamond y otros han señalado, está orientado de norte a sur, no de este a oeste, que es la dirección principal en Eurasia. Esta orientación por sí sola impidió el desarrollo en el Nuevo Mundo, en términos relativos, al frenar la dispersión de las plantas, y por consiguiente de los animales y la civilización [472].
Junto a la alineación geográfica general de los continentes, hay que tener en cuenta la variación climática a largo plazo que lleva asociada, de la cual los elementos más importantes fueron, para las civilizaciones del Viejo Mundo, bajo un clima mayormente templado, los monzones, y, para las civilizaciones del Nuevo Mundo, bajo un clima mayormente tropical, la oscilación meridional-El Niño (ENSO, por sus siglas en inglés), reforzada por la actividad violenta, más extendida, causada por volcanes, terremotos, vendavales y tormentas.
La importancia del monzón estriba en que, durante los últimos 8.000 años, desde los tiempos de la última gran inundación, los glaciares han vertido en el Atlántico Norte en mayor magnitud que antes, causando una masiva evaporación. Esto ha afectado a la cantidad de nieve que se forma en Asia Central, que a su vez consume energía solar en cantidades sin precedente. El principal resultado de todo ello es que el monzón (que tiene sus orígenes en una vasta extensión de agua cálida de miles de kilómetros de longitud en el extremo suroeste del Pacífico, retenida por el archipiélago malayo), ha ido decreciendo en intensidad [473]. Esto ha afectado a la meteorología del extremo oriental del Mediterráneo y desde la región septentrional/oriental de África hasta China (las «civilizaciones del monzón»). En consecuencia, aproximadamente dos terceras partes de los agricultores del mundo se han encontrado con que el agua era cada vez más difícil de encontrar [474]. La fuerza variable del monzón, y su relación con la emergencia (y posterior colapso) de las civilizaciones del Viejo Mundo significa que en Eurasia, y durante ese periodo, la principal cuestión ambiental/ideológica fue la fertilidad. Poco a poco, el continente se iba secando.
En el Nuevo Mundo, por otro lado, el principal factor que afectaba a la meteorología ha sido la frecuencia creciente del ENSO, las tormentas asociadas a El Niño que barren el Pacífico de oeste a este. Hace 6.000 años, ocurrían unas pocas veces por siglo, mientras que ahora se producen cada pocos años. Aparte del propio ENSO, su relación con la actividad volcánica, dada la constitución del océano Pacífico (una enorme masa de agua sobre una corteza relativamente fina), también parece haber sido importante. América Central y del Sur son las áreas continentales de mayor actividad volcánica del mundo donde se han desarrollado grandes civilizaciones [475]. Si juntamos todo esto, la principal cuestión ambiental en América durante los últimos pocos miles de años, que ha tenido consecuencias ideológicas fundamentales, ha sido la creciente frecuencia de una meteorología destructiva. Estas diferencias sistemáticas en el clima de los dos hemisferios tienen una relación plausible con los patrones históricos contrastados entre el Nuevo Mundo y el Viejo Mundo.

El vínculo entre biología y dioses
Después de los factores geográficos y climatológicos que determinan las diferencias básicas y a largo plazo entre los dos hemisferios, los siguientes factores de mayor importancia caen en el ámbito de la biología: plantas y animales. En el ámbito de las plantas, podemos decir que, una vez más, había dos diferencias principales entre los dos hemisferios. El primero concierne a los cereales, los granos. En el Viejo Mundo existía una diversidad natural de gramíneas silvestres (trigo, cebada, centeno, mijo, sorgo, arroz) susceptibles de ser domesticados y, a causa de la orientación este-oeste del continente, pudieron extenderse con rapidez una vez conseguida la domesticación. Por consiguiente, se podían acumular excedentes con relativa rapidez y sobre esta base se construyeron las civilizaciones. Además, estas gramíneas crecen bien en los estuarios que se formaron por todo el mundo hacia 9000 a. C. gracias al ascenso del nivel del mar ocasionado por la fusión de los glaciares, que frenó la velocidad con que los ríos desembocaban en el mar [476].
En el nuevo mundo, en cambio, lo que resultaría ser el grano más útil, el maíz, se seleccionó a partir del teosinte, que en su forma silvestre era morfológicamente mucho más diferente de la forma domesticada que en el caso de las gramíneas del Viejo Mundo. Además, como hoy sabemos, a causa de su alto contenido en azúcar (como planta tropical, no templada), el maíz se usó inicialmente por sus propiedades psicoactivas, no como alimento: lo fermentaban para hacer cerveza [477]. Y además de todo eso, el maíz, aun cuando se convirtió en un alimento, lo tuvo más difícil para extenderse por el Nuevo Mundo a causa la configuración norte-sur del continente, ya que las temperaturas medias, la precipitación y la radiación solar variaban mucho más que en Eurasia. Por esa razón, la acumulación de excedentes de maíz era mucho más difícil y mucho más lenta. Esto frenó el desarrollo de la civilización.
El segundo aspecto en el que diferían las plantas del Viejo Mundo y las del Nuevo era en el ámbito de los alucinógenos. La influencia de estas plantas en la historia no se había valorado suficientemente, pero desde la segunda guerra mundial, las investigaciones han dejado claro que la distribución de plantas psicoactivas en el mundo es muy anómala [478]. Las cifras confirman que en el Nuevo Mundo hay de ochenta a cien plantas autóctonas alucinógenas, mientras que en el Viejo Mundo no pasan de ocho o diez.
Un resultado de esto es que los alucinógenos desempeñaron un papel importante y vital en el pensamiento religioso del Nuevo Mundo, especialmente en América Central y del Sur, donde se desarrollaron las civilizaciones más avanzadas.
Los alucinógenos desempeñaron esencialmente un doble papel. De un lado, hicieron que la experiencia religiosa fuese mucho más viva en América que en el Viejo Mundo. De otro lado, a causa de sus propiedades psicoactivas, los alucinógenos promovieron ideas de transformación, entre humanos y otras formas de vida, y de viaje, o «vuelo espiritual», entre el mundo «intermedio» y los dominios «superior» e «inferior» del cosmos. En una sociedad en la que, a causa de la falta de transporte sobre ruedas o de cabalgadura (véase más adelante), añadido a la orientación norte-sur, a la gente le resultaba difícil desplazarse lejos, aquellos viajes a los dominios superiores e inferiores resultaban aún más importantes. La naturaleza tan viva y en ocasiones aterradora de algunas de las transformaciones experimentadas por los chamanes durante los trances inducidos por alucinógenos, la abrumadora intensidad psicológica de los estados alterados de conciencia provocados por los alucinógenos, debieron de conseguir, entre otras cosas, que las experiencias religiosas fuesen en el Nuevo Mundo mucho más convincentes y, por tanto, resistentes al cambio, que en el Viejo Mundo, donde, como veremos, el transporte a caballo y sobre ruedas (carros y cuadrigas) hicieron que grupos distintos, con creencias distintas, entrasen en contacto mucho más fácilmente [479].
No quiere esto decir que en el Viejo Mundo no hubiera alucinógenos, o que no fuesen importantes. Opio, cannabis (marihuana) y soma se usaron ampliamente como drogas rituales en varias regiones de Eurasia. Sin embargo, por varias razones, las sustancias psicoactivas más potentes cedieron el paso relativamente pronto a bebidas alcohólicas más suaves (véase más adelante [480] ).

Naturaleza y Gran Historia en el Viejo Mundo
En el Viejo Mundo lo que se adoraba eran dos aspectos de la fertilidad: la gran diosa y el toro. Aunque el toro era adorado como un aspecto de la fertilidad, conviene recordar que este animal solía representarse más a menudo por su característico bucráneo (cabeza y cuernos) que por sus órganos sexuales. Esto probablemente se debiera, como ya se ha explicado en el capítulo anterior, al parecido entre los cuernos del toro y la forma de la luna nueva, a lo que hay que añadir el vínculo, que debía ser evidente, entre las fases de la Luna y el ciclo menstrual y, sobre todo, el cese de la menstruación. Fuesen cuales fuesen las creencias precisas, lo esencial es que durante el Neolítico del Viejo Mundo, tanto si el objeto de adoración era la gran diosa, el toro, la vaca o los ríos y corrientes, la cuestión central era la fertilidad [481].
Además, se estaba desarrollando una interacción entre los humanos y los mamíferos domesticados que tuvo enormes consecuencias y que no se produjo en el Nuevo Mundo. De forma sucinta y cronológica, se trata de lo siguiente:
  1. La domesticación de vacas, ovejas y cabras permitió que se explotasen tierras de menor calidad. Esto llevó al desarrollo del pastoreo y a que este tipo de ganaderos se alejaran de la vida en los pueblos y se dispersaron más. Esta dispersión, a su vez, afectó a la ideología religiosa, que superó el chamanismo. Para los pueblos de pastores, el calendario no era tan importante porque los animales domesticados paren en distintos momentos del año, a diferencia de las plantas que, en las regiones templadas, están vinculadas de manera más directa al ciclo de las estaciones. (Las vacas paren en cualquier momento del año, las cabras en invierno o primavera. En las regiones templadas, las ovejas paren en primavera, pero en zonas más cálidas la época de parto puede extenderse a todo el año. Para los caballos, la época de reproducción natural es de mayo a agosto). Un aspecto adicional de los mamíferos domesticados es que toda su vida se desarrolla, por así decirlo, sobre el suelo. A diferencia de las plantas, que tienen que sembrarse y pasan algún tiempo fuera de la vista antes de surgir en una forma distinta, los animales son menos misteriosos. En una sociedad pastoral el inframundo es menos importante, menos necesario, menos omnipresente. Junto a la relativa ausencia de alucinógenos, este desarrollo hizo que el inframundo cobrara menos importancia en el Viejo Mundo que en el Nuevo.
    Esto puede haber tenido otras consecuencias. Aunque los pueblos del Nuevo Mundo no llegaron a desarrollar la rueda, por buenas razones (sus animales domésticos no eran mucho más fuertes que los humanos y estaban confinados a las montañas, no a las áreas donde se cultivaba el grano), sí tenían el concepto de redondez. Tenían bolas de caucho que usaban en sus famosos juegos de pelota, en ocasiones hacían pelotas con la cabeza o el cuerpo de sus prisioneros, que hacían rodar por las gradas de las pirámides, y los combatientes de los juegos de boxeo luchaban llevando en los puños piedras talladas de forma rigurosamente esférica [482]. Los pueblos del Nuevo Mundo veían el Sol y la Luna en el cielo y el firmamento nocturno, y eclipses de ambos, y sin embargo no llegaron a pensar, al parecer, que la propia Tierra fuese también esférica. Esto sin duda se debe a que, en un mundo predominantemente vegetal, con la experiencia tan viva de ultramundo (y de otros «ámbitos» accesibles a través de los alucinógenos), las capas y lo «plano» resultaban mucho más obvios que la redondez. Al no viajar a grandes distancias, y sobre todo al no navegar ayudados por vientos útiles, tenían menos oportunidades, y por tanto estaban menos preparados, para experimentar el mundo como un objeto esférico.
  2. La domesticación del caballo (que no existía en el Nuevo Mundo antes de la conquista), tuvo una serie de consecuencias. Acompañó al desarrollo de la rueda y el carro y al uso del caballo como montura. Estos fueron grandes progresos que se sumaron a la movilidad de hombres y mujeres en el Viejo Mundo, y en particular ayudaron a la creación de estados palaciegos, mucho más extensos que la mayoría de los estados del Nuevo Mundo porque el caballo y el carro permitían conquistar y luego retener territorios más grandes [483]. De igual modo, la rueda y el carro permitían el transporte de bienes a mayor distancia, fomentando el comercio y la prosperidad, pero también el intercambio de ideas. El Viejo Mundo era móvil en un grado que no alcanzaba el Nuevo Mundo.
  3. Caballos y vacas en particular son grandes mamíferos, apreciados por su fuerza. Esa fuerza, sin embargo, implicaba que además de útiles podían ser peligrosos. En un contexto así, el uso regular y frecuente de sustancias que alteren la mente era arriesgado. Un chamán en trance no habría podido manejar un caballo o una vaca, cuando menos un toro. Además, a medida que las poblaciones pastorales dispersas fueron desarrollando la costumbre de encontrarse para elegir cónyuge y casarse y para resistir juntos las amenazas externas (que ahora eran mayores, porque la riqueza en forma de mamíferos domésticos podía robarse más fácilmente que la tierra), se fueron abandonando los alucinógenos, que ofrecían experiencias vivas, potentes, a veces amenazadoras, pero privadas, y aumentó el uso del alcohol, que ofrecía experiencias más ligeras de euforia que fomentaban vínculos sociales, comunales [484]
  4. De este modo, el nomadismo pastoral, que nunca llegó a desarrollarse en el Nuevo Mundo, emergió como uno de los «motores» de la historia del Viejo Mundo. Esto se debe a su inestabilidad inherente como modo de vida. Como la debilitación de los monzones provocaba que se secasen las estepas, que eran el hábitat natural de los nómadas pastorales, ya no podían subsistir tan fácilmente al modo tradicional y se vieron obligados a dispersarse cada vez más lejos e invadir a las sociedades sedentarias de los márgenes de las grandes praderas. La orientación predominantemente este-oeste de las estepas de Asia Central facilitó que pueblos e ideas viajasen a través de Eurasia. Como para los nómadas la meteorología era más importante que la fertilidad de los vegetales, y como vivían de leche, sangre y carne, sus dioses eran dioses del cielo (vientos y tormentas) y caballos [485]. Su ideología religiosa era muy distinta de la de sociedades más sedentarias, y el conflicto endémico entre pueblos nómadas y sedentarios fue destructivo pero, a largo plazo, creativo. Este conflicto endémico entre modos de vida nunca existió en el Nuevo Mundo.
  5. El conflicto virtualmente continuo introducido en la historia de Eurasia durante 2.700 años, desde 1200 a. C. hasta 1500 d. C., por el hecho de que unos nómadas pastorales de gran movilidad se viesen en todo momento más o menos amenazados por factores climáticos (el debilitamiento del monzón y la aridificación de la estepa) fue uno de los elementos que provocó el final de la Edad de Bronce y la destrucción de los grandes estados palaciegos creados gracias a los carros tirados por caballos, y que finalmente provocó el gran cambio espiritual conocido como Era Axial. Esta se caracteriza por el rechazo de la violencia (generada por el hombre) y un trascendental giro hacia el «mundo interior», que produjo una nueva ideología, o moralidad, y culminó (esta vez entre los nómadas pastorales hebreos) en la idea del monoteísmo. Fue el hecho de que los nómadas hebreos transitaran por tantos hábitats ecológicos distintos lo que les dio la idea de un único Dios que gobernaba sobre todos los ambientes [486]. Tampoco esto ocurrió nunca en el Nuevo Mundo.
  6. El racionalismo griego y la ciencia griega, en particular su concepto de naturaleza, nacido en parte de un examen a fondo de los mamíferos domesticados y de cómo se comparaba su naturaleza con la humana (si tenían alma, si tenían moral, si tenían lenguaje, si podían sufrir), unidos a la idea hebrea de un Dios único y abstracto, dio finalmente lugar a la idea cristiana del Dios racional. Este era un Dios cuya propia naturaleza podía desvelarse de manera gradual en el futuro porque él favorecía el orden. Y esta idea, la de la posibilidad de progreso, ayudó a crear muchas de las innovaciones que permitirían a la humanidad explorar la Tierra a través de sus vastos océanos [487].
  7. Las muchas y variadas tribus de nómadas pastorales que surgieron y luego escaparon de las estepas de Asia Central se prolongaron durante el milenio y medio después de Jesucristo, a un tiempo ayudando y dificultando el movimiento este-oeste de bienes e ideas. Pero por encima de todo, mantuvo a Eurasia como un continente a través del cual se producía un movimiento rápido. El caballo también resultó ser un vector para la transmisión de enfermedades (la peste) a través de aquella misma masa de tierra, con el doble efecto (también a largo plazo) de promover la industria de la lana en el norte de Europa. Las ovejas proporcionaron la sustancia que está en la base de la primera gran industria del mundo, pero también forzaron a los habitantes del Mediterráneo occidental a buscar rutas alternativas hacia el este, de donde provenían tantas especias, la seda y otros artículos de lujo. Conjuntamente, estos factores ayudaron a abrir el Atlántico. Las últimas investigaciones han identificado a los pueblos de las estepas como los yamna, que se aferraron a su nomadismo pastoral hasta hace 5.500 años, cuando desaparecieron a causa de la aridificación del clima.
En cierto sentido, esta es una metanarración de la historia basada en la ciencia, es decir, basada en observaciones empíricas.
Un aspecto adicional es que la mayor parte de esta actividad desarrollada en el Viejo Mundo tuvo lugar en zonas templadas (entre siete y cincuenta grados norte), es decir, donde las estaciones eran pronunciadas, donde los periodos de siembra y crecimiento estaban claramente definidos. La naturaleza rítmica estacional de lo que en esencia era una adoración de la fertilidad contribuyó a la naturaleza organizada de las religiones primitivas, pero tuvo además un corolario mucho más importante: funcionaba. La biología simple que subyacía a una religión en la que el tema central era la fertilidad, en zonas templadas, implicaba que, más tarde o más temprano, la vegetación volvía a crecer. Naturalmente, los ciclos de plantación y crecimiento no funcionaban de manera invariable, puesto que las sequías o las lluvias que provocaban inundaciones u otros factores interferían con el ritmo (los años de «vacas gordas» y de «vacas flacas» de la Biblia). En esencia, sin embargo, más veces de las que fallaba, la adoración de la fertilidad funcionaba.

Naturaleza y Gran Historia en el Nuevo Mundo
La vida ideológica era muy distinta en el continente americano, aunque había algunas semejanzas. Por ejemplo, las investigaciones de David Carrasco sobre los aztecas muestran que su visión de la historia no era tan diferente de la de los hindúes o la que aparece plasmada en los Vedas, en el sentido de que también veían el pasado como una serie de ciclos intercalados por grandes catástrofes. Pero las diferencias son más amplias. Para empezar, en el Nuevo Mundo no había mamíferos domesticados, con la excepción, en América del Sur, de la llama y el guanaco y de la vicuña y la alpaca, además del conejillo de Indias. (La llama producía lana pero, al igual que el resto de los mamíferos citados, no podía llevar mucho más de 50 kilogramos, poco más de lo que podía llevar un humano, y por eso no fueron de ningún modo revolucionarios como nueva forma de energía). Uno de los efectos de esta ausencia de mamíferos domesticados fue que en el Nuevo Mundo las plantas domesticadas fueron mucho más importantes que en el Viejo Mundo, lo que conllevó el desarrollo de ciertas ideas.
La más simple, obvia y potente es que los vegetales hay que plantarlos bajo tierra, donde experimentan una transformación de semilla a tallo. Esto, combinado con las experiencias alucinógenas, ayuda a explicar por qué, para los antiguos americanos, el cosmos tenía una clara y palpable división en tres zonas: el mundo superior, el mundo medio y el inferior. Esta división venía reforzada por las experiencias de los chamanes que, en sus trances, hacían vuelos espirituales para consultar con los dioses o con los ancestros, y usaban plantas alucinógenas para lograr sus hazañas en los otros mundos [488]. La fertilidad era también una cuestión importante en el Nuevo Mundo, pero en los bosques lluviosos tropicales, que desbordaban de vida y crecían profusamente durante todo el año (como hacía la mandioca, por ejemplo), y donde las estaciones apenas se notaban, nunca fue una cuestión importante por encima de todas como lo fue en el Viejo Mundo de clima templado. A la mandioca, que proveía el alimento básico de muchos de los primeros pueblos del Nuevo Mundo, no le gustaban los suelos anegados de los estuarios, sino que prefería las condiciones de tierras más altas, río arriba, lo que tuvo la consecuencia de mantener a los pueblos alejados de las costas, y alejados, por tanto, de las oportunidades que ofrecen las costas de viaje y encuentro con otros pueblos.
Mucho más importante para la mentalidad en el Nuevo Mundo era el temido y admirado jaguar, y los dioses del tiempo atmosférico, del rayo, la lluvia, el granizo o los vientos violentos, del trueno, de los volcanes en erupción, de los terremotos y tsunamis; en definitiva, de la «meteorología peligrosa». Además, la actividad volcánica, la «religión tectónica», es prueba de «la cercanía de la humanidad al inframundo en general» y de su terrible poder en particular [489].
Y ahora sabemos que, del mismo modo que el monzón se ha ido debilitando durante los últimos 8.000 años, la frecuencia del ENSO ha ido aumentando, al menos durante los últimos 5.800 años, lo que significa que las tormentas violentas, catastróficas, con grandes tsunamis y sus terremotos asociados, erupciones volcánicas, junto a huracanes, tornados, inundaciones y hambrunas, son más fuertes, más comunes y se han ido haciendo considerablemente más frecuentes en el Nuevo Mundo. Dicho de otro modo, los dioses, lejos de sonreír a la humanidad en el Nuevo Mundo, se fueron tornando más iracundos.
Si ponemos todo esto sobre el tapete, vemos una diferencia crucial entre los dioses del Nuevo Mundo y los del Viejo Mundo que ha llevado al desarrollo de civilizaciones muy distintas.
Si se adora a dioses iracundos, ya sean de tsunamis o terremotos, de volcanes o jaguares, en esencia esa adoración adopta la forma de la propiciación, de solicitar, implorar, que esos dioses no hagan algo, que no provoque una erupción si el dios es de un volcán, que no produzca vientos o tsunamis destructivos si el dios es un episodio de ENSO, que no ataque a los humanos si el dios es un jaguar. En el Nuevo Mundo, y ciertamente en América Central y del Sur, la forma predominante de adoración se dirigía a que no sucedieran cosas desagradables.
Y lo crucial es esto: esa forma de adoración no funciona. O sea, no funcionaba o funciona siempre, al menos no con la frecuencia con que funciona la adoración de la fertilidad. Sin duda funciona parte del tiempo. Nadie en el poblado es cogido por el jaguar durante varias semanas. No se produce ningún tsunami durante años, décadas incluso. Un volcán se apaga, como hizo el islandés a principios de 2010. Pero, y este es un pero importante, a los dioses iracundos nunca se les puede aplacar del todo. Más tarde o más temprano, su ira retorna.
También sabemos, en el caso de los episodios de ENSO, que se han ido haciendo bastante más comunes. Desde la perspectiva de un chamán olmeca, maya, tolteca o azteca, con sus calendarios tan precisos, debía parecerles que la adoración no estaba dando resultado, que fuese cual fuese el nivel de los rituales en el pasado, debía de ser insuficiente.
En estas circunstancias, los especialistas de la religión habrían decidido que, si la adoración no era suficiente, había que redoblar los esfuerzos. Y esa es la razón de que la diferencia más profunda y significativa entre en Viejo Mundo y el Nuevo Mundo se produzca precisamente en el ámbito del sacrificio humano. En el Viejo Mundo, gracias a la proximidad de los mamíferos domésticos, el sacrificio humano se fue reemplazando de manera gradual por el sacrificio animal y más tarde, después del año 70 d. C. (cuando los romanos saquearon Jerusalén y destruyeron el Templo), gracias de nuevo a la cercana semejanza entre los mamíferos domésticos y los humanos, el sacrificio de sangre se abandonó completamente [490]. En el Nuevo Mundo, sin embargo, lejos de abolirse, el sacrificio humano se hizo más y más común hasta que, en el siglo XV, cada año se sacrificaban decenas de miles de víctimas aztecas. Entre los incas, el sacrificio no era tan abultado, pero aun así había cientos de huacas en las montañas donde se sacrificaban humanos y, según algunos relatos, se mataban cientos de niños en cada ritual.
El hecho de que el sacrificio (animal) prácticamente desapareciera del Viejo Mundo en el 70 d. C. mientras que el sacrificio humano (y muchas otras formas de violencia dolorosa y relacionada con la religión, como los deportes sagrados, en los que los perdedores eran sacrificados) siguieron aumentando en frecuencia en América, es un sano recordatorio de cómo pueden interactuar el medio ambiente y la ideología provocando diferencias marcadas en la conducta humana, en el significado mismo de humanidad. Pero todas estas ideologías y diferencias se basaban en sucesos y procesos que la ciencia puede explicar.

* * * *

A la ciencia le gusta presentarse como una actividad que mira hacia el futuro. Pero parte de la fortaleza que ha manifestado en tiempos recientes, como muestran los capítulos 11, 12, 13 y este mismo, radica en la forma en que sus avances tecnológicos y teóricos nos permiten ahora mirar hacia el pasado con una exactitud y precisión cada vez mayores.
La biografía de la Tierra todavía no se ha finalizado, pero es mucho más completa, y muchísimo más ordenada, de lo que hubiéramos creído posible, por ejemplo, al acabar la segunda guerra mundial. Para componer esta imagen de cómo, lado con lado, los dos hemisferios se desarrollaron de forma tan distinta, ha sido necesario recurrir a casi todas las ciencias que uno pueda imaginar. Gracias a ello, ahora podemos afirmar que las civilizaciones no se producen sin más, sino que surgen donde lo hacen y cuando lo hacen por razones que pueden reconstruirse con la ayuda concertada de varias ciencias. Miremos donde miremos, América, Eurasia, África o Australia, la historia antigua se nos manifiesta ahora como una rama de la ciencia interdisciplinaria y entrelazada.

Capítulo 16
El endurecimiento de la Psicología y su integración con la Economía

Tras la segunda guerra mundial, fue un filósofo quien hizo avanzar el curso del «orden emergente» y la convergencia de una forma decisiva. Gilbert Ryle era catedrático Waynflete de filosofía metafísica en la Universidad de Oxford cuando, en 1949, en su libro The Concept of Mind ( El concepto de lo mental), puso fin a la metafísica con un fulminante ataque al concepto tradicional y cartesiano de la dualidad, que sostenía que hay una diferencia esencial entre los sucesos físicos y la mente.
Con la ayuda de un fino análisis del lenguaje, Ryle ofrecía lo que él mismo admitía que era una visión del hombre fundamentalmente conductista. No existe una vida interior, decía Ryle, en el sentido de una «mente» que existe con independencia de nuestras acciones, pensamientos y conductas. Cuando la curiosidad nos «pica», no lo hace en el mismo sentido que cuando nos pica un mosquito. Cuando «vemos» cosas «con el ojo de la mente», no las vemos del mismo modo que cuando vemos una hoja o un tigre (¿quién puede contar las franjas de un tigre con el ojo de la mente?). Todo eso es un uso descuidado del lenguaje, dice Ryle, y en la mayor parte de su libro intenta superar esa falta de rigor. Ser consciente, tener un sentido del yo, no es un subproducto de la mente, es la mente en acción. Por así decirlo, la mente no nos «escucha» teniendo pensamientos; tener pensamientos es la mente en acción. En suma, no hay fantasma en la máquina, solo hay máquina. Ryle consideró desde esta perspectiva la voluntad, la imaginación, el intelecto y las emociones, demoliendo a cada paso la dualidad tradicional cartesiana para finalizar con un breve capítulo sobre psicología y conductismo [491].
Al presentar su argumentación, Ryle en esencia reemplazaba la mente por el cerebro, y para ello encontraba un diligente apoyo indirecto en una dirección muy distinta, en las ciencias duras. En particular, hubo una serie de estudios durante la década de 1950 que ayudaron a desacreditar el concepto tradicional de mente: el desarrollo de fármacos que influían en el funcionamiento de la mente.
A medida que transcurría el siglo, uno tras otro los trastornos «mentales» habían resultado tener una base física: el cretinismo, la paresia o parálisis general de los dementes, la pelagra (un trastorno nervioso provocado por una deficiencia de niacina), todos ellos se habían podido explicar en términos bioquímicos o fisiológicos y, en consecuencia, se habían revelado susceptibles a un tratamiento con medicación.
Hasta la década de 1950, sin embargo, el «núcleo duro» de la demencia, constituido por la esquizofrenia y las psicosis maníaco-depresivas, carecía de base física. Pero a principios de aquella década, incluso esas enfermedades comenzaron a entrar en el ámbito de las ciencias duras, en particular de la bioquímica, y tres direcciones de investigación convergieron para dibujar una visión coherente de ellas. A partir del estudio de las neuronas y de las sustancias que rigen la transmisión de impulsos nerviosos de una célula a la siguiente, se había conseguido aislar sustancias químicas específicas. Eso implicaba que la modificación de esas sustancias tal vez pudiera contribuir a un tratamiento, bien acelerando la transmisión, bien inhibiéndola. De este modo, durante la década de 1950 se introdujeron seis tipos de fármacos psicoactivos totalmente nuevos que aún hoy, en mayor o menor grado, siguen estando en el núcleo de los tratamientos psiquiátricos [492]. Podemos calificar este desarrollo de principio de una unión más o menos exitosa de química y psicología.
A partir de 1949, el mismo año en que se publicó el libro de Ryle, un cirujano naval francés, Henri Laborit, que a la sazón trabajaba en Túnez, examinó varias víctimas de choque psicológico. El choque puede tener varias causas, pero Laborit estaba interesado en las conmociones causadas por la cirugía mayor, que producen una peligrosa caída de la presión sanguínea. Su idea era que esta bajada de tensión se debía a la liberación de unas sustancias químicas llamadas histaminas y que, por consiguiente, si de algún modo se consiguiera bloquear la liberación de esas sustancias, se podría prevenir el choque. Pero para entenderlo necesitamos algo más de información. Los antihistamínicos se habían desarrollado en la década de 1940 como remedio para el mareo por movimiento y se descubrió que tenían el efecto secundario de producir somnolencia, es decir, que producían algún efecto en el cerebro. También se sabía que la planta india Rauwolfia serpentina, de la que en Occidente se usaban extractos para tratar la hipertensión, en la India se utilizaba también para controlar «la sobreexcitación y la manía». En otras palabras, aquella droga de la India actuaba como los antihistamínicos. Su sustancia más activa era la prometazina, comercialmente conocida como Fenergán. De modo que Laborit trató a sus pacientes con un cóctel de fármacos que incluía la prometazina. En el artículo que publico en 1949 afirmaba que este tratamiento funcionaba, y añadía la observación, más importante a largo plazo, de que «los antihistamínicos producen una quietud eufórica… nuestros pacientes están sosegados, con el rostro tranquilo y relajado» [493]. Efectivamente, controlaba la «sobreexcitación».
Alertado por esta observación, al año siguiente la compañía farmacéutica Rhône-Poulenc inició una importante iniciativa de investigación con el fin de contrastar los efectos psiquiátricos de la prometazina. El grupo de drogas al que pertenece la prometazina recibe el nombre de fenotiazinas, y a Paul Charpentier, el químico jefe de la compañía, le pareció que merecía la pena sintetizar tantas variaciones de su estructura molecular como fuera posible, con la esperanza de que alguna fuese todavía más eficaz que la prometazina con la que habían comenzado. Estos compuestos se testaron de un modo interesante. Se administraron a ratas que previamente se habían condicionado para subir por una cuerda para evitar una descarga eléctrica de la que se avisaba con un timbre. «Un compuesto en particular, la clorpromazina, dejaba a las ratas inmóviles cuando sonaba el timbre» [494].
Al conocer estos resultados, dos psiquiatras de París, Jean Delay y Pierre Deniker, probaron la clorpromazina en un paciente esquizofrénico, Giovanni A, que había sido ingresado en un hospital «por hacer discursos improvisados en cafés, pelearse con extraños y pasear por las calles con una maceta de flores sobre la cabeza mientras proclamaba su amor por la libertad». Tras nueve días de tratamiento con clorpromazina, Giovanni A podía mantener una conversación normal y a las tras semanas era dado de alta [495]. La noticia se extendió por Gran Bretaña y Estados Unidos, donde en un número creciente de pacientes se observó la remisión de la esquizofrenia a las pocas semanas de iniciar el tratamiento con clorpromazina.
La clorpromazina fue, en palabras de James Le Fanu, la primera golondrina. En rápida sucesión, a lo largo de los años que siguieron se introdujeron cuatro grandes grupos de fármacos para el tratamiento de un amplio espectro de trastornos psiquiátricos. En la lista estaba el librium (clordiazepóxido) para el trastorno bipolar y tranquilizantes, que parecían funcionar inhibiendo sustancias neurotransmisoras, como la acetilcolina o la noradrenalina. Era natural preguntarse qué efecto se podría obtener con sustancias que funcionaran de forma opuesta, y que tal vez podrían ayudar, por ejemplo, a aliviar la depresión.
Al administrar un nuevo fármaco contra la tuberculosis, la isoniazida, los médicos observaron que se producía una notable mejora en el bienestar de los pacientes, que recuperaban el apetito, ganaban peso y alegraban el ánimo. Los psiquiatras no tardaron en descubrir que la isoniazida y compuestos relacionados se parecían a los neurotransmisores, en particular a las aminas que se encuentran en el cerebro. Estas aminas, como ya se sabía, eran descompuestas por una sustancia llamada monoamina oxidasa. Así pues, ¿lograba la isoniazida su efecto inhibiendo la monoamina oxidasa, impidiendo que degradara los neurotransmisores? Los inhibidores de monoamina oxidasa funcionaban bien para aliviar la depresión, pero tenían demasiados efectos secundarios como para persistir como una familia de fármacos. Poco después, sin embargo, se descubrió que otro pariente de la clorpromazina, la imipramina, el primero de varios antidepresivos tricíclicos [xxxiii], era eficaz en el tratamiento de la depresión, además de aumentar en los pacientes el deseo de contacto social. Este fármaco tuvo un uso muy amplio bajo el nombre comercial de Tofranil [496].

El nexo entre química y comportamiento
Más interesantes aún son los resultados obtenidos por las investigaciones sobre la impulsividad y la agresión. Que el comportamiento agresivo es hereditario en los humanos (y que, por tanto, tiene una base física) es algo que sugieren con fuerza los estudios con gemelos, que nos han llevado a distinguir entre cuatro grupos de comportamiento relacionado con la agresión: el asalto directo (físico), con una heredabilidad del 47 %; el asalto verbal, con el 28 %; el asalto indirecto (rabietas y chismorreo malicioso), con el 40 %, y la irritabilidad, con el 37 %. El apareamiento continuado de ratones agresivos o no agresivos producía fenotipos completamente distintos (ratones muy agresivos o muy mansos) al cabo de cuatro o cinco generaciones. La base química de la agresión se manifiesta claramente en el hecho de que la castración de esas ratas y ratones específicamente criados para ser agresivos prácticamente elimina las conductas agresivas, mientras que la administración de testosterona la restablece por completo [497].
El cerebro, incluido el humano, contiene numerosas células con receptores para la testosterona, sobre todo en el hipotálamo, que es el lugar de síntesis de muchas otras hormonas. Se reconoce el papel de la testosterona como mediador del comportamiento agresivo en los humanos, aunque en la práctica ha sido difícil demostrarlo porque los niveles naturales fluctúan durante el día y durante la semana, entre otras cosas. Por otro lado, el papel en la agresión del neurotransmisor serotonina condujo al desarrollo de un tipo de fármacos conocidos como antiagresivos «serénicos», que reducen enormemente la agresividad en los ratones, tornándolos más «serenos» [498].
El papel de la serotonina en los trastornos de la personalidad humana que implican agresividad se viene estudiando con intensidad desde hace algún tiempo. En un amplio abanico de individuos de conducta agresiva se ha detectado una concentración reducida de serotonina; por ejemplo, en los niños que tienen arranques de comportamiento agresivo en su hogar y en el colegio, en jóvenes librados del servicio militar por repetidos actos de violencia, y en otros casos. Se dispone de varios fármacos que bloquean el transportador de la serotonina en los humanos, en especial los llamados ISRS (inhibidores selectivos de la recaptación de serotonina), sustancias como Prozac, Paxil o Zoloft [xxxiv], que se usan principalmente en el tratamiento de la depresión y los trastornos anímicos. En un ensayo clínico reciente, en el que participaron cuarenta pacientes, se evaluó el efecto de Prozac sobre el comportamiento impulsivo/agresivo. Tras diez semanas de tomar el fármaco, se observó una reducción sustancial del comportamiento impulsivo/agresivo, en comparación con los pacientes que solo recibían un placebo [499].
Los neurotransmisores se han vinculado también al control del apetito (bulimia, anorexia, obesidad), la drogadicción, la memoria y la función mental, la enfermedad de Alzheimer y el comportamiento sexual (por ejemplo, la promiscuidad). Todos estos campos de indagación son bastante nuevos y, aunque prometedores, las mismas advertencias se aplican aquí que en el caso de la impulsividad/agresividad. No todos los sujetos responden del mismo modo, y algunos no responden en absoluto. No todo aquel que tiene un riesgo sucumbe, y no todo aquel que enferma responde al tratamiento.
Los estudios neuroplásticos han demostrado que la memoria a corto plazo se convierte en memoria a largo plazo cuando una sustancia química presente en las neuronas, conocida como proteína quinasa A, se desplaza del cuerpo de la neurona al núcleo, donde se encuentran los genes. Y que cuanto más tiempo dura la depresión en una persona, menor es el tamaño del hipocampo. En los adultos deprimidos que sufrieron trauma infantil prepuberal, el hipocampo es por término medio un 18 % menor que en los adultos deprimidos que no sufrieron trauma infantil. Además, si la experiencia de estrés es breve, esta reducción de tamaño es temporal, pero si es prolongada, el daño se torna permanente.
Los medicamentos antidepresivos incrementan el número de células madre que se convierten en neuronas en el hipocampo. Las ratas a las que se administraba Prozac durante tres semanas mostraban un aumento del 70 % en el número de células en el hipocampo. Otros estudios muestran que, en las ratas adultas, las células nuevas del hipocampo están asociadas a un incremento del aprendizaje, mientras que unos hallazgos presentados en la Sociedad para la Neurociencia en octubre de 2015 indicaban que las redes perineuronales, un armazón de proteínas y azúcares que recuerda a un cartílago, podrían ser lugares de almacenamiento de recuerdos a largo plazo. Los descubrimientos psicológicos son cada día más específicos [500].
Aunque todo esto son buenas noticias, y aunque respalda la idea de que, en realidad, muchas enfermedades «mentales» son fisiológicas, y aunque más tarde se demostró que la clorpromazina «interfiere» en la acción del neurotransmisor dopamina, y que la imipramina actúa sobre la adrenalina, y aunque se han aislado muchos neurotransmisores (sustancias que ocupan las sinapsis, los espacios entre neuronas en el cerebro), de ningún modo se han erradicado la esquizofrenia o el trastorno bipolar. La intensidad de los síntomas sin duda se ha aliviado, los pacientes son más «manejables», pero en ningún sentido se puede afirmar que entendamos la naturaleza subyacente de estos trastornos.
No obstante, han quedado bien establecidos los vínculos entre la química y algunas de las funciones psicológicas del cerebro.

La física de la psicología
En paralelo a los avances en la química del cerebro se ha desarrollado una gran variedad de técnicas físicas para explorar la función cerebral. La elaboración de mapas del cerebro es todo un triunfo de la tecnología, de la física. Los logros del TAC, la TEP, la IRM y la IRM f, que no son menos que extraordinarios, nos permiten distinguir cada día más estructuras del encéfalo e identificar de forma cada vez más precisa las áreas del cerebro responsables de (o asociadas con) uno u otro aspecto particular del comportamiento.
La técnica más antigua y más conocida, la electroencefalografía, mide la actividad eléctrica del cerebro por medio de electrodos colocados sobre el cuero cabelludo, y puede detectar cambios en la actividad eléctrica del orden de milisegundos. Los métodos de imagen por resonancia magnética funcional (IRMf) detectan cambios en el flujo y la oxigenación de la sangre que se producen como respuesta a la actividad neural (cuando un área del cerebro es más activa, consume más oxígeno y para satisfacer esa demanda aumenta el flujo de sangre hacia esa área). La técnica puede utilizarse, por tanto, para mostrar qué partes del cerebro se utilizan en procesos mentales concretos. La tomografía axial computarizada (TAC) construye una imagen del cerebro basada en la absorción diferencial de rayos X. La tomografía por emisión de positrones (TEP) usa cantidades traza de un material radiactivo de vida corta para mapear procesos funcionales en el cerebro. A medida que se desintegra, el material emite positrones, que pueden detectarse de tal manera que las áreas de radiactividad alta se asocian con actividad cerebral.
No se agotan aquí las técnicas disponibles en la actualidad, pero bastan para mostrar el vínculo cada vez más amplio entre procesos físicos y actividad cerebral, de un lado, y la psicología, del otro. Las últimas investigaciones realizadas en Oxford muestran que el cerebro contiene neuronas específicas para identificar caras, dirección, incluso ojos, narices y bocas.
El desarrollo más reciente en técnicas de mapeo cerebral es la conectómica. «Conectoma» es una palabra de nuevo cuño para designar el modo en que el cerebro se organiza en conjuntos de vías de conexión a pequeña y gran escala. El enfoque subyacente es que las enfermedades como la esquizofrenia son trastornos de la organización del cerebro, no de algo más específico en el ámbito de la patología celular o de las anormalidades en los neurotransmisores. El Instituto Nacional de la Salud de Estados Unidos ha respaldado este enfoque con la financiación multimillonaria del Proyecto del Conectoma Humano. Se han desarrollado nuevas técnicas para teñir neuronas y vías neurológicas que han permitido obtener algunas imágenes extraordinariamente bellas (hoy se puede teñir neuronas individuales con más de 100 colores distintos). La enorme magnitud del proyecto se percibe claramente, sin embargo, si se tiene en cuenta que solo la corteza cerebral humana contiene unas 1014 sinapsis, mientras que el número de pares de bases en el genoma humano es de 3 × 109. Aunque nadie parece dudar de que la patología del cerebro y el funcionamiento psicológico acabarán por explicarse por medio de conectomas, y aunque se están desarrollando nuevas técnicas para reconocer patrones de probabilidad estadística, nadie parece creer que esos patrones hayan de llegar nunca a representar un mapa «uno a uno» de las funciones, que no podemos aspirar a obtener más que una representación probabilística de la conectividad. Y aunque las redes destacadas de este modo subrayan la importancia aparente de áreas como el precúneo, la ínsula, la corteza superior parietal y la superior frontal, y aunque se han discernido hasta setenta y ocho regiones corticales, nada nos ha mostrado todavía cómo se divide el cerebro en paquetes funcionales. En el momento de escribir este libro, el valor del Proyecto del Conectoma Humano todavía está por decidir. Se fundamenta en un modelo reduccionista, pero todavía tiene que dar resultados.
Eso podría haber comenzado a cambiar en mayo de 2014, cuando el Instituto Nacional de la Salud Mental publicó una lista de veintitrés funciones cerebrales básicas y sus circuitos, neurotransmisores y genes asociados. La idea es que los circuitos, de los cuales el más conocido es el del miedo, podrían estar relacionados con síntomas como la ansiedad o el trastorno por estrés postraumático (TEPT).
Exactamente un año más tarde, en mayo de 2015, se publicaron otros resultados que ya se han comentado en el prefacio. Fue el experimento con una persona tetrapléjica en cuyo cerebro se colocaron electrodos microscópicos, en un número relativamente pequeño, que registraban la actividad de un número igualmente pequeño de neuronas. A partir de los patrones de disparo de estas pocas células, registrados por los electrodos, los investigadores no solo podían predecir hacia dónde quería mover el brazo el sujeto, sino que podían predecir si deseaba mover el brazo izquierdo o el derecho. En otro caso, observaron que se activaban neuronas distintas dependiendo de si imaginaba que hacía un giro con el hombro o que se tocaba la nariz.
Este descubrimiento es importante por dos razones. Hasta ahora, nadie había imaginado que la localización y la función cerebrales fuesen tan específicas; en general, los investigadores suponían que era la organización del cerebro lo que estaba en la raíz de la mayoría de nuestros comportamientos. Por otro lado, la observación de que el disparo de células cerebrales también parece estar relacionado con las intenciones de la persona fue un resultado, como poco, sorprendente. ¿Cómo puede representarse en el cerebro la intención? ¿Sabemos siquiera cómo referirnos a este tipo de fenómeno? El experimento parece desvelar un íntimo vínculo entre un estado físico de las neuronas y un estado psicológico complejo. Es obvio que aún estamos dando los primeros pasos, pero cabe pensar que este experimento lleva el reduccionismo a un nuevo territorio [xxxv]. [501]

Psiquiatría evolutiva y etológica
La psiquiatría evolutiva es lo último en nuestra creciente comprensión del concepto del inconsciente, una idea que hizo célebre Sigmund Freud a finales del siglo XIX, fue desestimada por poco científica durante la mayor parte del siglo XX, pero poco a poco se ha ido acercando a la biología moderna (véase el capítulo 13).
La psiquiatría evolutiva concibe los síntomas psicopatológicos como estrategias maladaptativas, como intentos fracasados de adaptarse a las circunstancias. Esto ha dado lugar a una nueva manera de entender la psicopatología y a un nuevo vocabulario. Desde este punto de vista, las enfermedades mentales se ven como trastornos de apego y rango, como trastornos espaciales o reproductivos; en otras palabras, como patologías etológicas, aberraciones del mundo natural.
Desde este punto de vista, la depresión, por ejemplo, se relaciona con la «táctica de sumisión común en los mamíferos», una reacción depresiva a la pérdida de estatus, y los psiquiatras evolutivos disponen ahora de un nuevo vocabulario para distinguir diversas formas de esta enfermedad: La psiquiatría evolutiva se basa, por lo tanto, en la teoría del apego, la teoría del rango, la teoría de la autoevaluación y en fenómenos como el potencial de retención de recursos, la conducta agonística ritual o el potencial de retención de atención social. Este último, por ejemplo, se revela, entre otras cosas, en el trastorno de personalidad evitante (sudor y sonrojo incontrolables en situaciones sociales), ladismorfofobia (temor a presentar un olor o un aspecto anormales) o fobias esfinterales (temor a que otros puedan oírle a uno orinando o defecando). También en este caso lo importante son los nuevos conceptos, el nuevo vocabulario que traen consigo y su base biológica [502].

La genética del comportamiento
Todos estos desarrollos vienen subrayados por la disciplina de la genética del comportamiento, un campo que es relativamente nuevo. No se localizó el primer gen de este tipo en un cromosoma hasta 1986, pero desde entonces la disciplina se ha tornado muy sofisticada y «dura». Se han realizado numerosos experimentos, algunos con animales (de insectos a mamíferos como los ratones y las ratas), y muchos otros con gemelos humanos idénticos (criados juntos o separados), con gemelos no idénticos, con padres e hijos, además de estudios longitudinales de adopción.
Sus principales resultados son, en general, muy claros. Los estudios muestran que la mayoría de los comportamientos humanos son heredables en algún grado, y podemos destacar los siguientes: Resiliencia: nueva luz sobre los vínculos entre el entorno y los genes
En el ámbito de la genética, y no solo la del comportamiento, hay otros dos fenómenos que están adquiriendo importancia. El primero es el concepto de resiliencia. Uno de los hallazgos más coherentes con respecto a todos los tipos de riesgo ambiental es que existe una enorme heterogeneidad en las respuestas individuales. Dado un trastorno, unos sucumben donde otros salen relativamente indemnes. A este último fenómeno se le ha dado el nombre de resiliencia.
Por ejemplo, en un estudio sobre enfermedades cardiovasculares conocido como Estudio Cardiovascular Framingham, los sujetos con una ingesta alta de grasa en la dieta desarrollaban concentraciones anómalas de colesterol HDL o no, dependiendo de su genotipo en el polimórfico promotor del gen de la lipasa hepática (HL). Un estudio distinto mostró que los fumadores de tabaco desarrollaban la enfermedad de las arterias coronarias o no en función de su genotipo para la lipoproteína lipasa y para la apolipoproteína E4 (APO4). En un estudio de hipertensión con propensión a accidentes cardiovasculares, las ratas sometidas a una dieta alta en sal desarrollaban presión sistólica elevada o no dependiendo de su genotipo para el gen polimórfico del enzima convertidor de angiotensina (ACE). En un estudio sobre el bajo peso en el nacimiento, las mujeres que fumaban tabaco durante el embarazo daban a luz bebés de bajo peso o no según fuese su genotipo para dos genes metabólicos polimórficos, CYP1A1 y GSTT1 [504].
¿Son algunas enfermedades el resultado de un vínculo especial entre un entorno desfavorable y unas formas específicas de genes? ¿Tiene esa constitución genética consecuencias para el tratamiento o para el éxito del tratamiento?

El gran cambio de paradigma: la epigenética
El otro fenómeno nuevo en la investigación genética es la epigenética, que en un número reciente de Science se describe como «el mayor cambio de paradigma de la historia reciente de la ciencia».
La epigenética ayuda a explicar por qué gemelos idénticos, con genes idénticos, no siempre acaban siendo exactamente iguales. Ayuda a explicar también por qué algunos niños con carencias responden positivamente a un mejor tratamiento más tarde en su vida mientras que otros no, por qué algunos son resilientes y otros no.
La ciencia tras el fenómeno es bastante compleja, pero los dos mecanismos básicos son la metilación y la acetilación. En la metilación, diversas experiencias con el entorno provocan la adición de un grupo metilo (H 3C) al ADN, normalmente en una citosina (una de las cuatro bases del ADN que codifican las proteínas, véase el capítulo 9), y esta adición tiene el importante efecto de apagar el gen. En la jerga de la disciplina, se dice que el gen «no se expresa». Como ya se ha señalado, la metilación se produce a causa de ciertas experiencias en la vida y, en general, pero no siempre, no es heredable. El aspecto crucial que hay que entender, sin embargo, es que si un gemelo (por ejemplo) tiene un gen que está metilado y el otro gemelo no lo tiene, ese gen solo se «expresará» en el gemelo cuyo gen no está metilado. Por eso unos gemelos idénticos pueden presentar rasgos distintos.
El segundo proceso epigenético recibe el nombre de acetilación y afecta a unas proteínas asociadas al ADN llamadas histonas. (Todo esto, como es natural, muy simplificado). Cuando las histonas son modificadas por acetilación, es decir, por la adición de un grupo acetilo (H3 CO), que se une al aminoácido lisina de la cola de la histona, la expresión de ese gen aumenta [505].
De entrada, pues, los procesos eran simples: la metilación apagaba los genes mientras que la acetilación los encendía. Pero eso era en 1996. Desde entonces se han identificado más de cincuenta modificaciones epigenéticas de proteínas histonas.
Pese a la compleja naturaleza del mecanismo exacto, para nuestros propósitos la cuestión es más simple. Los mecanismos epigenéticos permiten que el medio afecte a la expresión (o a la no expresión) de genes y, en su mayor parte, de un modo que no es heredado. Por ejemplo, varios estudios de gran tamaño muestran que si una persona posee dos copias de una variante de un gen (una de cada progenitor) que controla el transportador de serotonina (también conocido como 5-HTT), que es un neurotransmisor clave, tienen un riesgo dos veces mayor de sufrir episodios depresivos. Pero eso solo es cierto si además sufren una fuerte crisis vital. Esto puede relacionarse con estudios de jóvenes macacos que muestran que en quienes poseen esa variante clave del gen 5-HTT, esta es metilada (y, por tanto, inactivada) cuando son sometidos a estrés. Esto sugiere el mecanismo por medio del cual el estrés puede producir sus efectos psicológicos: el estrés (si ocurre en los primeros años de vida) metila el gen que más tarde nos ayudaría a enfrentarnos al estrés, impidiendo la expresión del gen. Este efecto no es heredable, pero persiste durante toda la vida [506].

La biología del pensamiento
A raíz del artículo original de Amos Tvesky y Daniel Kahneman sobre «Decisión bajo incertidumbre: heurística y sesgos» (capítulo 13), se han realizado abundantes investigaciones que desembocaron en la concesión del premio Nobel a Kahneman en 2002. La conclusión más general de esos estudios es que los seres humanos poseemos una gran cantidad de sesgos, en su mayoría inconscientes, que permiten respuestas rápidas e intuitivas en nuestras acciones cotidianas. Este enfoque ha engendrado nuevas expresiones para explicar nuestra psicología inconsciente: agotamiento del ego (ego depletion), miswanting, facilidad cognitiva ( cognitive ease), anclaje (anchoring), cascadas de disponibilidad (availability cascades), olvido de la duración (duration neglect), priming, sesgo optimista ( optimism bias), aversión a las pérdidas (loss aversion), olvido de lo negativo (negativity neglect), autoinflación (self-inflation) o narración personal falsa ( false personal narrative).
Lo que posiblemente sea más importante es que Daniel Kahneman encuentra que, de muchas maneras, nuestro yo es doble, un «yo que experimenta» y un «yo que recuerda», que combinados producen nuestra psicología. También distingue entre pensar «rápido» y pensar «despacio», dos formas que surgen de dos sistemas cerebrales distintos. El pensamiento del sistema 1 es rápido, automático, intuitivo, difícil de educar y, por consiguiente, difícil de cambiar. Es lo que podríamos llamar también inconsciente, para distinguirlo del sistema 2, el pensamiento consciente, que es lento, deliberado, reflexivo y tiene metas a largo plazo. [507]
Michael Gazzaniga, director del Centro SAGE para el Estudio de la Mente de la Universidad de California en Santa Bárbara y presidente del Instituto de Neurociencia Cognitiva, se ha ocupado de estos mismos temas y también ha llegado a la conclusión de que el pensamiento se puede dividir en pensamientos conscientes lentos y pensamientos automáticos rápidos que, dice, están modelados por la selección natural, y que en nuestro cerebro, y en concreto en el hemisferio izquierdo, tenemos un «mecanismo de interpretación» que impone una coherencia, un orden en el mundo que experimentamos. Además, esta coherencia, que emerge de forma no consciente, de ningún modo es siempre correcta [508].
Este ámbito de la investigación nació cuando un psicólogo y un economista examinaron la toma de decisiones bajo incertidumbre y acabaron esbozando la base biológica de buena parte de nuestro comportamiento, de nuestra psicología. El orden convergente de las ciencias encuentra respaldos en lugares insospechados.

Economía del comportamiento
Sin duda sería excesivo decir que la psicología está desapareciendo. Sin embargo, puede decirse que, por una de sus fronteras, se está disolviendo en la química y la física, por otra en la genética (que también es química y física) y aún por otra en la etología y la sociología.
En otro sentido, sin embargo, la psicología se está expandiendo. Me refiero a su asociación con la economía. Por ejemplo, Richard Thaler es colega de Kahneman y Tversky pero ha sido aún más insistente en describir cómo se ha transformado la profesión económica gracias a los descubrimientos experimentales de la ciencia del comportamiento. En su libro de 2005, Todo lo que he aprendido con la psicología económica, narra sus progresos a lo largo de cuatro décadas, desde que clamaba en el desierto hasta que, en 2015, llegó a ser presidente de la Asociación Americana de Economía [509]. Al principio, como deja bien claro, la profesión de economista estaba dominada por racionalistas clásicos que daban por hecho que las personas eran seres racionales y que, como tales, siempre se comportaban de forma racional, lo que llevaba a creer que los mercados invariablemente reflejaban, en términos financieros, el estado más eficiente.
Tras señalar cierto número de anomalías en la esfera de la economía que eran incongruentes con la elección racional, e incluso escribir una columna sobre las anomalías en una revista de economía, Thaler demostró, de manera cada vez más convincente, que la heurística produce errores predecibles y que la racionalidad, en la jerga de la disciplina, está «acotada». Lo que esto significa es que las personas son seres racionales clásicos solo hasta cierto punto, y que muchos FSI (factores supuestamente irrelevantes) son de todo menos eso. A raíz de este análisis desarrolló el concepto de «contabilidad mental», muy distinta de la contabilidad clásica en el sentido de que la «aversión a las pérdidas» es lo más importante: nuestra aversión a las pérdidas es el doble de fuerte que nuestro deseo de ganancias. Esto explica por qué no siempre somos los seres racionales clásicos que imagina la economía tradicional.
Thaler también nos enseña de qué manera en el póquer, por ejemplo, como en tantas otras situaciones de la vida, las personas se comportan de manera distinta con el dinero que han ganado que con el que habían apostado: ahora corren más riesgos. Nos enseña que las personas poseen una comprensión instintiva de lo que es justo y cuando se les presenta la oportunidad castigan a quienes les explotan financieramente. Nos muestra que los profesores consiguen mejores resultados en sus alumnos si reciben una bonificación al principio del año escolar, de la cual se les va descontando si no cumplen con las metas acordadas, que si reciben una bonificación al final del año [510]. Nos enseña también que tenemos un «sesgo por el presente» y que las personas es más probable que inicien un plan de pensiones en el futuro cercano que en el momento presente. Nos dice que los padres que reciben del colegio un aviso antes de la época de exámenes lo agradecen y se imponen más para que sus hijos estudien [511].
Y así, desde una época en la que los autores podían tardar hasta seis años en publicar un artículo sobre economía conductual, hoy existe elJournal of Economic Behavior, elJournal of Economic Psychology, elJournal of Behavioral Decision Making y The Oxford Handbook of Behavioral Economics and the Law. Tal como demuestra este último título, la psicología conductual está penetrando en la profesión legal y Thaler y otros han trabajado recientemente para el 10 de Downing Street en Gran Bretaña y para la Casa Blanca en Estados Unidos [512]. Desde el premio Nobel de Daniel Kahneman en 2002, la integración de la psicología y la economía no ha hecho más que madurar.
Los últimos progresos quedan resumidos en los títulos de dos investigaciones recientes: «Racionalidad computacional: Un paradigma convergente para la inteligencia en cerebros, mentes y máquinas», y «Razonamiento económico e inteligencia artificial». Este último artículo considera la posibilidad de «una futura síntesis de la economía e inteligencia artificial engendrada por la emergencia de la machina economicus» [513].

* * * *

En su estado actual, la psicología se ha convertido, hasta cierto punto, en epítome del argumento de este libro. El comportamiento, sobre todo el humano, se ha convertido en el punto de convergencia de muchas ciencias: física, química, genética, teoría evolutiva, etología, sociobiología. El experimento publicado en mayo de 2015 en el que podían predecirse las intenciones de un paciente a partir del patrón de actividad de ciertas neuronas, si puede replicarse nos llevaría a un nuevo territorio científico, incluso filosófico (¿una física de la intención?). El solapamiento entre psicología y economía ha producido nuevas formas de comprender (y controlar) ciertos aspectos del comportamiento humano, pero también ha introducido todo un nuevo vocabulario que nos ayuda a explicarnos a nosotros mismos. Como logro, no es menor.
El caso es que todos estos nuevos desarrollos se dan a lo largo de varios frentes, de modo que una síntesis aún se encuentra lejos. No obstante, el vínculo con las técnicas de imagen del cerebro, que nos permiten identificar áreas de cerebro cada vez más específicas, con el tiempo podría conducirnos a una comprensión completamente nueva de la química/física del cerebro y de su organización en un contexto evolutivo. Estos avances de la psicología, en el caso de que se produzcan, se harán con el lenguaje de la física, la química y la teoría de la evolución. Esta convergencia, que ya ha comenzado, con el tiempo podría producir el orden emergente más interesante de cuantos podemos alcanzar.

Capítulo 17
Sueños de una unificación final: física, matemática, información y el universo

No fue hasta que los rusos sorprendieron al mundo con el lanzamiento del Sputnik 1 en octubre de 1957 cuando se dieron los primeros e indecisos pasos hacia una «red» tal como la conocemos hoy. El lanzamiento del satélite movió a la acción a Estados Unidos, y entre los proyectos de investigación que se introdujeron a consecuencia de este cambio en las normas para entablar combate había uno para explorar de qué modo se podían dispersar por el país los sistemas de comando y control, militares y políticos, de manera que, si se producía un ataque en un área, la nación todavía pudiera seguir funcionando en otra.
Se establecieron varias agencias para considerar distintos aspectos de la situación, entre ellas la Administración Nacional de Aeronáutica y del Espacio (NASA) y la Agencia de Proyectos de Investigación Avanzada (ARPA). Fue esta última la que recibió el encargo de investigar la seguridad de las estructuras de comando y control tras un ataque nuclear.
Los orígenes del universo digital, como se ha dado en llamar, se han comentado a fondo en varios libros recientes, uno de Walter Isaacson y otro de George Dyson, hijo de Freeman Dyson, un físico británico que trabajó en el Instituto de Estudios Avanzados de Princeton tras la segunda guerra mundial. Distintas personas sitúan los orígenes de internet en momentos distintos y uno de los primeros relatos lo atribuye a la mente de Vannebar Bush, el mismo hombre que ayudó a convencer al presidente Roosevelt de que Estados Unidos debía intentar fabricar una bomba atómica. Ya en 1945, Bush imaginó una máquina que permitiera «acceder» a todo el compendio del conocimiento humano. Uno de sus estudiantes, Claude Shannon, trabajó en una máquina mecánica para resolver ecuaciones diferenciales que había desarrollado Bush, y que más tarde llevaría a Shannon a concebir la ciencia de la información [514].
Fue Shannon quien, tras finalizar su tesis doctoral bajo la dirección de Bush y comenzar a trabajar para los Laboratorios Bell, se embarcó en un proyecto que desencadenaría lo que se ha calificado de tercera gran revolución de la física del siglo XX: «Igual que antes la relatividad y la teoría cuántica, la teoría de la información cambió radicalmente la forma en que los científicos contemplan el universo» [515]. Fue en el artículo de Shannon de 1948, «Una teoría matemática de la comunicación», donde por primera vez apareció el término dígito binario, o «bit» (por el inglés binary digit) (aunque el propio Shannon decía que el término había sido acuñado por un colega, John Tukey). También este momento puede verse como el nacimiento de la era digital.
Más o menos al mismo tiempo, la comunidad congregada en el Instituto de Estudios Avanzados (IAS) estaba constituido por una prieta red social de talentos inusuales que ayudó a poner en marcha algo más que la computación digital. Estuvo íntimamente asociado con el diseño y la fabricación de la bomba de hidrógeno, y después con los microprocesadores, internet y los misiles balísticos intercontinentales. Las personas que coincidieron entonces en el IAS posiblemente conformasen el mayor grupo de mentes matemáticas jamás congregado en un mismo lugar, un auténtico y poco reconocido centro de excelencia de la historia intelectual. John von Neumann y Alan Turing eran los guías, pero el grupo incluía además a Kurt Gödel, Oswald Veblen, Stanley Ulam, Norbert Wiener y Nils Barricelli.
Y es en estos, en lo que podríamos llamar los nacimientos gemelos de la era digital, donde hallamos el tema de este capítulo: que en la actualidad vivimos en una era dorada de las matemáticas en la cual la física, como veremos, ha llegado a un punto en el que la observación directa cada vez es más difícil, sino imposible, y la única manera de avanzar es por medio de la extrapolación matemática de la física que conocemos para ver adónde nos lleva. Junto al tema del próximo capítulo (el nexo cada vez más fuerte entre matemática y biología), que está relacionado con este, se nos plantean preguntas sobre la naturaleza última de la realidad, y sobre hasta qué punto esa realidad es matemática: sobre si el orden, definido por medio de ecuaciones matemáticas, no es solamente un principio organizador de la realidad, sino la realidad misma [516].
En el relato que sigue, conviene tener presente en todo momento el tema general: la presencia constante y creciente en otras ciencias de los cálculos matemáticos.

El vínculo entre números y biología
El verano en Princeton, Nueva Jersey, se ha descrito a menudo como «el interior de la boca de un perro». Pero el IAS también se ha descrito, a menudo por colegas envidiosos que desconocían qué investigaciones (secretas) se realizaban allí (los cálculos para «Ivy Mike», la prueba de la bomba de hidrógeno que se realizó en 1952), como el «Instituto de Salarios Avanzados», como un «hotel intelectual», o como el «Prinstituto».
Von Neumann, el director de este extraordinario grupo de mentes matemáticas, había nacido en Budapest en 1903, hijo de un abogado y banquero especialista en inversiones. Para su entrada en su gymnasium de Hungría lo prepararon no una sino dos institutrices (una alemana, la otra francesa) y tutores privados de italiano, esgrima y ajedrez. Llegaría a alcanzar fluidez en latín, griego, alemán, inglés y francés. Siempre vestido formalmente con traje y corbata, Von Neumann gozaba de un sentido del humor llano y una inagotable vida social; le enloquecían los coches rápidos y constantemente recibía multas. Inició su educación formal en matemáticas a los trece años.
Estudió matemáticas en Berlín (donde aprobó los exámenes sin asistir a clase) y, al mismo tiempo, química en Zúrich. Hizo su doctorado en 1926 en Gotinga, donde se cuenta que David Hilbert, el matemático más distinguido del momento, le hizo una sola pregunta: «En todos mis años, jamás había visto un traje de tarde tan bonito; díganme, por favor, ¿quién es el sastre del candidato?». Edward Teller, el «padre de la bomba de hidrógeno» y un antiguo amigo y colega, decía que «si algún día se desarrolla una raza sobrehumana, sus miembros se parecerán a Johnny von Neumann».
Tras doctorarse, Von Neumann publicó un buen número de artículos en los tres años siguientes, entre ellos uno sobre la teoría del juego, y un libro, Fundamentos matemáticos de la mecánica cuántica, que ochenta años después todavía se publica. Y así, cuando Oswald Veblen buscó un nuevo miembro para el departamento de matemáticas de Princeton, ofreció el puesto de lector visitante a Eugene Wigner y a Von Neumann. El cable en que se le ofrecía el contrato mencionaba salarios ocho veces superiores a los que se ganaban en Europa. Con el nazismo en auge, Von Neumann no se lo pensó dos veces antes de emigrar [517].
Colossus y ENIAC se desarrollaron durante la guerra como prototipos de máquinas de cálculo pensadas especialmente para descifrar códigos. Más tarde, la principal actividad del IAS fue el desarrollo de máquinas de cálculo cada vez más rápidas y sofisticadas que, como prioridad, permitieran realizar los cálculos necesarios para desarrollar la bomba de hidrógeno. Se trataba, pues, de una cuestión que los militares veían como suya, aunque había varias compañías comerciales interesadas en las posibilidades futuras de lo que empezaba a conocerse como computadoras.
El personal del IAS era plenamente consciente de que se encontraba sobre los cimientos de algo nuevo, algo que podía cambiar radicalmente el mundo. Una de las personas ya mencionadas, Stanley Ulam (otro refugiado, esta vez de Polonia, pasando por la Universidad de Cambridge y Wisconsin) fue el responsable de concebir lo que George Dyson califica como cuatro de las ideas más imaginativas del siglo XX para «aupar nuestra inteligencia». El «método de Montecarlo» fue el nombre (secreto) que recibió la idea de Ulam de utilizar números aleatorios para testar los niveles de incertidumbre de un sistema; el nombre se eligió por la semejanza entre el método y las técnicas de juego que un tío disoluto de Ulam utilizaba en los casinos de Montecarlo. El «diseño de Teller-Ulam» fue la propuesta de Ulam de usar la reacción (explosión) en un sistema para desencadenar otra en un sistema mayor. (Fue esto lo que condujo al desarrollo de la bomba de hidrógeno). Los «autómatas celulares autorreplicantes» fue la teoría que exploró la matemática, la lógica y los algoritmos de la reproducción, por ejemplo en organismos bioquímicos. Con la «propulsión nuclear de pulso» exploró el uso de explosiones nucleares para impulsar, por ejemplo, un cohete o un misil intercontinental.
Descrito como alguien en la frontera entre la verdadera originalidad y la simple excentricidad, Nils Barricelli tenía como interés principal (y esa fue la razón de que Von Neumann lo invitase al IAS) la matemática de la vida, el vínculo entre números y biología (al que dedicamos el próximo capítulo). Una parte de la falta de conformidad de Barricelli era que sospechaba que el ADN no era más que «números con forma de molécula», que las cadenas de polinucleótidos eran básicamente digitales. Esta línea de razonamiento no llegó muy lejos en aquel momento, pero subrayó (todavía lo hace) el hecho de que, en 1953, se engendraron tres revoluciones tecnológicas, y el IAS formó parte de las tres: el armamento termonuclear, las computadoras con programas almacenados y la elucidación de cómo almacena la vida sus propias instrucciones en forma de cadenas de ADN [518].
El siguiente avance trascendental, dirigido a incrementar la velocidad de cálculo, llegó a principios de la década de 1960 con la idea de la «conmutación de paquetes», desarrollada por Paul Baran. Inmigrante judío de la parte de Polonia que hoy es Bielorrusia, Baran inspiró su idea en el cerebro, que a veces puede recuperarse de una dolencia conmutando los mensajes que envía hacia nuevas rutas. La idea de Baran consistía en dividir un mensaje en paquetes más pequeños para luego enviarlos por vías distintas hacia su destino. La misma idea se le ocurrió casi al mismo tiempo a Donald Davies, un matemático e ingeniero galés, que a la sazón trabajaba en el Laboratorio Nacional de Física de Gran Bretaña junto a Alan Turing. El nuevo hardware fue acompañado de nuevos programas basados en una nueva teoría matemática, la teoría de colas, diseñada para evitar la acumulación de paquetes en nodos intermedios buscando las mejores alternativas [519].

La progresiva unión de las redes
En 1968 se estableció la primera «red», formada por tan solo cuatro localidades: UCLA, el Instituto de Investigación de Stanford (SRI), la Universidad de Utah y la Universidad de California en Santa Bárbara. El desarrollo tecnológico clave que permitió la red fue el llamado interfaz de proceso de mensajes o IMP, cuya tarea consistía en enviar paquetes de información a un lugar específico. Dicho de otro modo, en lugar de interconectar directamente los ordenadores anfitriones (hosts), ese trabajo se encargaría a los IMP, y cada IMP estaría conectado a un anfitrión. Los ordenadores podían ser máquinas distintas, que usasen programas distintos, pero los IMP hablarían un lenguaje común y podrían reconocer los destinos. A finales de la década de 1970 había quince «nodos», todos en universidades o laboratorios de ideas.
A finales de 1972 había en funcionamiento tres líneas que cruzaban el país, con grupos de IMP en cuatro áreas geográficas (Boston, Washington D.C., San Francisco y Los Ángeles), con un total de más de cuarenta nodos. Para entonces ARPANET, como se conocía en ese momento, era simplemente «la red», y aunque su papel seguía estando orientada estrictamente a la defensa, ya se habían encontrado usos más informales: juegos de ajedrez, encuestas o el servicio de comunicación de Associated Press. De ahí a los mensajes personales solo había un salto, y un día de 1972 nació el correo electrónico cuando Ray Tomlinson, un ingeniero de BBN, uno de los nodos comerciales, situado en Boston, diseñó un programa con direcciones electrónicas cuya característica más sobresaliente era la manera de separar el nombre del usuario del de la máquina que estaba usando. Tomlinson necesitaba un carácter que nunca se encontrase en el nombre de un usuario y, tras mirar el teclado, dio con el signo @. Era perfecto: significaba «en» y no tenía ningún otro uso. Tomlinson, un hombre robusto, grande y alegre, nunca ha dejado de ser perseguido para que confesara el contenido de aquel primer mensaje de correo electrónico, pero sostenía que era tan insignificante que lo había olvidado [520]. Falleció en 2016.
En 1975, la comunidad de la red ya había crecido hasta superar el millar, y entonces se produjo el siguiente avance fundamental, una idea de Vint Cerf, a quien se le ocurrió mientras esperaba sentado en el recibidor de un hotel de San Francisco a que comenzase un congreso. Nacido en New Haven, en Connecticut (donde se encuentra la Universidad de Yale), creció con un intenso interés por la música y tocaba el violoncelo. Con dieciséis años asistió a una clase magistral con Pau Casals, pero aquel mismo año su padre también lo llevó a ver un sistema llamado SAGE, el acrónimo en inglés de entorno terrestre semiautomático, una computadora que se utilizaba para el seguimiento de radar con el objetivo de detectar bombarderos rusos que se acercasen desde el Polo Norte. Cerf dirigió entonces su interés a la informática y estudió matemáticas en Stanford antes de unirse a IBM.
Para entonces, ARPANET ya no era la única red de computadoras. Otros países tenían sus propias redes y otros grupos científico-comerciales de Estados Unidos habían iniciado las suyas propias. Cerf empezó a considerar la posibilidad de unirlas todas por medio de una serie de lo que él llamaba puertas de enlace (gateways), para crear lo que algunos denominaban catenet, por red concatenada, y otros internet. No se requería más maquinaria, solo el desarrollo de los TCP, los protocolos de control de la transmisión, un lenguaje universal. En octubre de 1977, Cerf y sus colegas hicieron una demostración del primer sistema que daba acceso a más de una red. Había nacido la internet que hoy conocemos [521].
Su crecimiento fue acelerado. Ya no era puramente un ejercicio del departamento de defensa, aunque en 1979 todavía estaba casi confinado a unas 120 universidades y otras instituciones académicas o científicas. Por consiguiente, las principales iniciativas ya no provenían ahora de ARPA, sino de la Fundación Nacional para la Ciencia, que había establecido la Red de Investigación de Ciencias de la Computación (CSNET), y en 1985 creó una «espina dorsal» formada por cinco centros de supercomputación dispersos por Estados Unidos y una docena de redes regionales. Estas supercomputadoras eran a un tiempo los cerebros y las baterías de la red, una masiva reserva de memoria diseñada para absorber toda la información que los usuarios quisieran colocar allí y evitar los atascos. Cada universidad pagaba de 20.000 a 50.000 dólares anuales en concepto de conexión.
En enero de 1986 se celebró una gran cumbre en la costa oeste para poner orden en el correo electrónico, creando siete dominios o «Frodos» [xxxvi]. Estos eran para universidades (edu), gobierno (gov), compañías (com), militar (mil), organizaciones sin ánimo de lucro (org), proveedores de servicios de red (net) y entidades de tratados internacionales (int). Fue este nuevo orden lo que, tanto como cualquier otra cosa, permitió el fenomenal crecimiento de internet entre 1988 y 1989. El giro final se produjo en 1990, cuando unos investigadores del CERN, el Laboratorio Europeo de Física de Partículas, situado cerca de Ginebra, creó la World Wide Web. Esta utilizaba un protocolo especial, HTTP, diseñado por Tim Berners-Lee, y hacía que internet fuese mucho más fácil de consultar, de navegar [522].
Tim Berners-Lee (que recibió el título de sir en 2004) enseñó física en Oxford y trabajó para Plessey, la compañía de telecomunicaciones con sede en Poole (Dorset), antes de trasladarse al CERN en Ginebra. Fue allí, en el más importante nodo de internet de Europa, donde vio la oportunidad de juntar el hipertexto e internet. Hoy no le damos mayor importancia al hipertexto, acostumbrados como estamos a otros niveles secundarios de información en lo que leemos, pero en su momento fue toda una revolución en el mundo de los programas informáticos. Fue Berners-Lee quien lo hizo posible con «http», el acrónimo en inglés de protocolo de transferencia de hipertexto, y el primer sitio web se construyó en el CERN (en la parte francesa) y se puso en línea el 6 de agosto de 1991. La expresión «World Wide Web» nació en una cafetería del CERN e «info.cern.ch» fue la dirección del primer sitio web de la historia. Mosaic, el primer navegador verdaderamente popular, diseñado en la Universidad de Illinois, llegó en 1993. Solo desde entonces internet está disponible comercialmente, es fácil de usar y nos ha convertido a todos en habitantes de un universo digital [523].

El vínculo entre información y termodinámica
«La información es tan real y concreta como la masa, la energía o la temperatura. No podemos ver directamente ninguna de estas propiedades, pero las aceptamos como reales. La información es igual de real». Quien esto escribe es Charles Seife en su libro Descodificando el universo, donde a continuación destaca que cuando Claude Shannon publicó su artículo seminal, en el que mostraba que la información se podía cuantificar y medir, también comprendió que estaba íntimamente relacionada con la termodinámica. «Hay algo en la información que trasciende el medio en el que está almacenada. Es una propiedad física de los objetos afín a la energía, el trabajo o la masa… La naturaleza parece hablar en el lenguaje de la información».
De forma un tanto más prosaica Shannon comenzó a enseñar a los ingenieros de qué modo podían usar la lógica booleana (la matemática de la manipulación de ceros y unos, que recibe su nombre de George Boole, el matemático británico del siglo XIX que concibió este enfoque), para diseñar mejores interruptores para equipos eléctricos, incluidos las computadoras. Cuando Shannon comenzó a trabajar en los laboratorios Bell, el brazo de investigación de AT&T, se estaban desarrollando allí la primera computadora binaria y el transistor [524]. Allí y entonces se alumbró la «tecnología de la información». Lo que Shannon comprendió fue que el lenguaje escrito es una secuencia de símbolos y que los símbolos pueden escribirse como una secuencia de bits, de modo que cualquier pregunta cuya respuesta se pueda escribir en un lenguaje puede escribirse también como una secuencia de ceros y unos.
Para muchos, lo realmente emocionante fue cuando Shannon y sus colaboradores intentaron abordar un problema muy práctico de la tecnología de la comunicación: los errores (por ejemplo, el ruido de un línea telefónica) y la eliminación de la redundancia (no siempre deseable, puesto que la redundancia en un mensaje permite que se erosione sin pérdida de información). Al hacer los cálculos, se vio que las ecuaciones resultantes eran parecidas a las que Ludwig Boltzmann había obtenido al analizar la entropía en los gases. De ahí nació la idea de que la información nos permite entender la entropía como una medida de desorden. Y también que cuesta más energía mantener el orden que el desorden, que es la razón de que el desorden, la entropía, sea el estado natural, tanto en la termodinámica como en la información [xxxvii].
Por otra parte, los 0 y los 1 son estados cuánticos. O es uno o el otro: los estados intermedios no están permitidos. Y durante la transferencia entre el emisor de la información y el receptor, se produce un cambio físico; así pues, la información es física. Además, visto así, el acto de vivir (y esa expresión, «el acto», es crucial) puede verse como el proceso de replicar y preservar la información que comprende un cuerpo vivo. Como decía Schrödinger (capítulo 9), los seres vivos están luchando continuamente contra la degradación, manteniendo un orden interno pese a que el resto del universo siempre aumenta su entropía. Al alimentarse, consumiendo energía que por el momento nos llega del Sol, un organismo se mantiene en equilibrio. La vida, decía Schrödinger, es una delicada danza de energía, entropía e información. La vida existe para propagar y reproducir la propia información. Y esto, si bien se piensa, se parece mucho a lo que un gen es y hace [525].
Entre otras cosas, esto ha engendrado una nueva especialidad, la computación basada en el ADN. Lila Kari, una experta en informática y lenguaje, dice que «la computación basada en el ADN es una rama de la computación natural que se fundamenta en la idea de que se pueden utilizar procesos de la biología molecular para realizar operaciones aritméticas y lógicas sobre información almacenada en forma de hebras de ADN». En este enfoque, que en verdad puede calificarse de interdisciplinario, informáticos y biólogos moleculares colaboran para investigar las computaciones que de manera natural tienen lugar en la célula viva.
Además, arroja una nueva luz sobre la reproducción, que podemos ver no como la del ente sino como la de la información que contiene el ente. Esto es más fácil de entender si nos fijamos en las colonias de hormigas, en las que, por regla general, solo un organismo es fértil, la reina. El resto de hormigas, que se cuentan por miles, son estériles, y, sin embargo, cuidan de los huevos y las larvas de la reina hasta el estadio de adulto. Es la información inscrita en sus genes lo que las instruye para que obedezcan a la reina, renunciando a su propia reproducción [526]. La información es la entidad que se preserva.
También parece que la información almacenada en nuestro cerebro no es diferente de la información de nuestros genes. William Bialek, un biólogo de Princeton que ha investigado el cerebro de las moscas, que es relativamente simple, hace notar que las actividades cerebrales básicas comprenden un complejo proceso bioquímico: átomos de sodio y potasio situados en lados opuestos de una membrana celular intercambian posiciones, la neurona pasa de 0 a 1, y entonces, tras una fracción de segundo, vuelven a sus posiciones originales. En otras palabras, la actividad neuronal básica se parece mucho a una actividad binaria. Mostrando a las moscas imágenes simples, primitivas y muy contrastadas (una barra blanca, una barra negra, un barra en movimiento), Bialek ha investigado lo que podríamos llamar el «alfabeto» de las señales neuronales. Lo que ha encontrado es que el cerebro de la mosca puede transmitir en torno a cinco bits de información por milisegundo. «Aunque sea una máquina de procesamiento de bits extraordinariamente compleja, el cerebro de la mosca es, en cualquier caso, una máquina de procesamiento de bits [527] ».
Hasta aquí, bien. Pero la teoría de la información se torna mucho más compleja, y muchísimo más extraña, cuando se aplica a los últimos desarrollos de la física y la cosmología.

La física se torna matemática
Entramos así en el ámbito de la «ciencia irónica», una de las fases más recientes e intrigantes del pensamiento físico [xxxviii]. Algunos críticos sostienen que la «ciencia irónica» tiene tanto de especulación como de experimentación, que no hay pruebas empíricas reales de las ideas (a menudo) extravagantes que se proponen. Pero eso no es del todo justo. Buena parte de la especulación viene instigada (y respaldada) por cálculos matemáticos que apuntan a soluciones en las que palabras, imágenes visuales y analogías se desvanecen. Y por eso este desarrollo encuentra su lugar en este capítulo: en cierto modo, la física se ha tornado matemática. A lo largo del siglo XX, la física produjo ideas (de nuevas partículas, por ejemplo) que solo hallaron confirmación experimental mucho más tarde, así que quizá no haya nada nuevo aquí. En este momento vivimos en y entre tiempos, y no tenemos manera de saber si muchas de las ideas de la física perdurarán y serán respaldadas por experimentos.
Un buen lugar para comenzar es con los agujeros negros porque, por definición, no se puede saber casi nada sobre estas entidades. El público general conoció los agujeros negros en 1988, en Historia del tiempo: del Big Bang a los agujeros negros, del cosmólogo de Cambridge Stephen Hawking. Esta idea, como ya hemos comentado, fue alumbrada (en tiempos modernos) durante la década de 1960. Los agujeros negros se conciben como objetos superdensos que son el resultado de cierto tipo de evolución estelar en el que un gran cuerpo se colapsa sobre sí mismo bajo la fuerza de la gravedad hasta el punto de que nada, ni siquiera la luz, puede escapar. El descubrimiento de los púlsares, las estrellas de neutrones y la radiación de fondo en los años 1960 amplió considerablemente nuestra comprensión de este proceso, aparte de hacerlo real, no teórico.
En colaboración con Roger Penrose, entonces en Birkbeck College, en Londres, Hawking argumentó primero que en el centro de cada agujero negro, como en el principio del universo, debe de haber una «singularidad», un momento en el que la materia es infinitamente densa, infinitamente pequeña, en el que las leyes de la física que conocemos dejan de actuar. A esto añadió después la idea revolucionaria de que los agujeros negros podían emitir radiación (que llegó a conocerse como radiación de Hawking) y, en determinadas circunstancias, explotar. También decía que, del mismo modo que en la década de 1960 se descubrieron las radioestrellas gracias a nuevos radiotelescopios, debía ser posible detectar rayos X desde el espacio con la ayuda de satélites situados por encima de la atmósfera, que filtra esa radiación. El razonamiento de Hawking se basaba en cálculos que mostraban que a medida que la materia era absorbida por un agujero negro, se calentaba lo bastante como para emitir rayos X. En efecto, no tardaron en descubrirse cuatro fuentes de rayos X en una prospección del espacio, que se convirtieron en los primeros candidatos a agujeros negros observables. Cálculos posteriores de Stephen Hawking mostraron que, en contra de sus primeras ideas, los agujeros negros no se mantienen estables, sino que pierden energía en forma de gravedad, se contraen y con el tiempo, tras miles de millones de años, explotan, lo que posiblemente dé cuenta de ráfagas de energía ocasionales en el universo que hasta el momento no tenía explicación [528].

¿Vínculos con otros universos?
En la década de 1970, Hawking fue invitado a Caltech, donde conoció a Richard Feynman, con quien pudo conversar. Feynman era una autoridad en la teoría cuántica, y Hawking aprovechó el encuentro para desarrollar una explicación de cómo se había originado el universo. Hizo pública esta teoría en 1981, y nada menos que en el Vaticano. Lo que suscitó la teoría de Hawking fue un intento de imaginar qué ocurriría si un agujero negro se contrajera hasta el punto de desaparecer, teniendo en cuenta el problema de que la longitud teórica más pequeña es la longitud de Planck, derivada de la constante de Planck e igual a 10-35 metros. Cuando algo alcanza este tamaño (que, aunque pequeño, no es cero), ya no puede contraerse más y solo puede desaparecer. Con el mismo fundamento, el tiempo de Planck es de 10-43 segundos, de modo que cuando el universo llegó a ser, no pudo hacerlo en menos de este tiempo.
Hawking resolvió esta anomalía mediante un proceso que se comprende mejor con la ayuda de una analogía. Hawking nos pide que aceptemos, como decía Einstein, que el espacio-tiempo es curvo, como la superficie de un globo o la de la Tierra. (Pero conviene recordar que estas son solo analogías). Con la ayuda de otra analogía, Hawking dijo que el tamaño del universo en el momento de nacer era como un pequeño círculo dibujado, pongamos por caso, alrededor del Polo Norte. A medida que el universo (el círculo) se expande, es como si las líneas de latitud se expandiesen alrededor de la Tierra hasta que alcanzan el ecuador, y entonces comienzan a contraerse hasta llegar al Polo Sur en el Big Crunch. Sin embargo, y aquí es donde la analogía todavía resulta útil, en el Polo Sur, se vaya adonde se vaya, siempre se va hacia el norte: la geometría dicta que no pueda ser de otro modo. Hawking nos pide que aceptemos que en el nacimiento del universo se dio un proceso análogo. Del mismo modo que sur carece de sentido en el Polo Sur, no hay significado para antes en la singularidad del universo. El tiempo solo puede ir hacia delante [529].
La teoría de Hawking era un intento de explicar lo que había ocurrido «antes» del Big Bang. Entre otras cosas que preocupaban a los físicos acerca de la teoría del Big Bang se encontraba el hecho de que el universo, tal como lo conocemos, parece ser muy igual en todas las direcciones. ¿A qué se debía esa exquisita simetría? Si la mayoría de las explosiones no muestran un equilibrio tan perfecto, ¿qué hacía distinta a la «singularidad»? La respuesta vino de Alan Guth, del MIT, y de Andrei Linde, un físico ruso que emigró a Estados Unidos en 1990. Ambos científicos argumentaron que en el principio del tiempo, es decir, T = 10 -43 segundos, cuando el cosmos era más pequeño incluso que un protón, la gravedad fue durante un breve instante una fuerza de repulsión, no de atracción. A causa de esto, decían, el universo pasó por un rápido periodo inflacionario, aumentando en un factor de 10 30 en un lapso de 10-30 segundos, hasta alcanzar el tamaño de un pomelo, y a partir de entonces ha mantenido la tasa de expansión que vemos (y medimos) en la actualidad. La clave de esta teoría (que algunos críticos califican de «invención») es que es la explicación más parsimoniosa, es decir, más simple, que explica que el universo sea tan uniforme. La rápida inflación habría planchado todas las arrugas. También explica que el universo no sea completamente homogéneo, que haya agregados de materia que dan lugar a galaxias y estrellas y planetas, y otras formas de radiación, que forman gases [530].
Linde desarrolló además la teoría de que nuestro universo no es el único que engendró la inflación, que existe un «megaverso» con muchos universos de distintos tamaños, una idea que Hawking también había explorado. Los bebés universos son, de hecho, agujeros negros, burbujas en el espacio-tiempo. Retomando la analogía del globo, imaginemos una ampolla en su superficie, separada de esta por un estrecho istmo, equivalente a una singularidad. Ninguna información, y en verdad ninguno de nosotros, puede atravesar ese istmo, nadie sabe de la ampolla, que podría ser tan grande como el propio globo, incluso mayor. De hecho, podrían existir en cualquier número. Son función de la curvatura del espacio-tiempo y de la física de los agujeros negros. Por definición, nunca podemos tener de ellos una experiencia directa. En este sentido, no tienen ningún significado.
Otra teoría de científicos como Hawking es que «en principio» el agujero negro original y todos los universos subsiguientes se encuentran vinculados por lo que se conoce como «agujeros de gusano» o por «cuerdas cósmicas». En esta concepción, los agujeros de gusano son como minúsculos tubos que conectan distintas partes del universo, incluidos los agujeros negros, y por tanto, en teoría, podrían actuar como vínculos con otros universos. Sin embargo, son tan estrechos (su diámetro es de una longitud de Planck) que nada podría nunca atravesarlos sin la ayuda de una cuerda cósmica, que conviene resaltar que es una forma de la materia completamente teórica, concebida como un vestigio del Big Bang. Una cuerda cósmica también atraviesa el universo en unas franjas muy delgadas (pero muy densas) que se comportan de manera «exótica». Lo que esto significa es que cuando se comprime, se expande, y cuando se estira, se contrae. Por consiguiente, al menos en teoría, una cuerda cósmica podría mantener un agujero negro abierto. Esto, también en teoría, hace posible el viaje en el tiempo para alguna civilización futura [531].
El «principio antrópico» del universo enunciado por Martin Rees es algo más fácil de comprender. Rees, en otro tiempo astrónomo real, ofrece indicios indirectos de «universos paralelos». Su argumento es que para que exista la humanidad tiene que haberse producido un gran número de coincidencias, en el caso de que solo exista un universo. En un artículo anterior había argumentado que con cambiar un solo aspecto de nuestras leyes de la física (por ejemplo, aumentar la gravedad), el universo que conocemos sería muy distinto. Los cuerpos celestes serían más pequeños, más fríos, tendrían tiempos de vida más cortos, una geografía de la superficie muy distinta y tantas otras diferencias. Una consecuencia es que, con toda probabilidad, la vida tal como la conocemos solo puede emerger en universos con las leyes físicas de las que disfrutamos. Esto significa, en primer lugar, que es probable que existan otras formas de vida en el universo (ya que se aplican las mismas leyes físicas). Pero también significa que «probablemente» existan muchos otros universos, con otras leyes físicas, en los que existan formas de vida muy diferentes, o no haya vida. Rees sostiene que nosotros podemos observar nuestro universo y conjeturar sobre otros porque las leyes físicas lo permiten. E insiste en que eso es demasiada coincidencia. Casi con certeza deben existir otros universos muy distintos del nuestro [532].

La filosofía de la cosmología
Joseph Silk está de acuerdo. Dirige el proyecto internacional de Filosofía de la Cosmología, desde donde añade la idea de que «todo lo que puede ocurrir ocurrirá un número infinito de veces». Esta afirmación se sustenta en otra idea original de Ludwig Boltzmann, que pensaba que «toda posición y momento concebible de una partícula debe existir en algún lugar».
No es fácil hacerse con esta manera de entender las cosas, dice Silk, pero sería el clímax de los grandes cambios que desplazaron a la Tierra, luego al Sol y luego a nuestra propia galaxia de la posición especial que ocupaban como centro de la realidad física. Y ayudaría a explicar uno de los grandes misterios de la cosmología: la aceleración predicha por la teoría para la expansión del universo es mayor que el valor observado en un factor de 10120. La explicación más cómoda para esta enorme disparidad es la «inflación eterna», es decir, que la breve fase de expansión ultrarrápida se produce una y otra vez, engendrando una infinidad de nuevos universos en expansión [533].
Por extravagante que parezca esta idea, la cuestión no se zanja ahí. La concepción del cosmos de David Bohm, más difícil de comprender, conlleva una extensión de la idea de «campo» que englobe lo que Ernest Nagel describía como un «espacio matemáticamente continuo». Bohm explica su idea con la ayuda de una analogía, un experimento mental que propone un dispositivo formado por dos cilindros de vidrio concéntricos, el exterior fijo y el interior en rotación alrededor de su eje. Entre ellos hay un fluido viscoso, como la glicerina, y en este fluido se inyecta una gotita de tinta insoluble. Como el radio interior se mueve más deprisa que el exterior, la tinta se alarga formando un hilo cada vez más delgado. Con el tiempo, el hilo se hace tan fino que se torna invisible. No obstante, si se pudiera invertir la dirección de rotación del cilindro interior, las partes de este hilo reharían sus pasos y, de manera gradual, el hilo se recogería hasta formar de nuevo la gotita de tinta «y esta última de repente se nos aparecería ante la vista» [534]. Eso es lo que Bohm quiere decir cuando habla del «orden implicado» del cosmos, que en el espacio matemático continuo «no existe una división real entre mente y materia, psique y soma». El campo, el espacio matemático, contiene un orden invisible que emerge en las circunstancias adecuadas. Por descontado, en su teoría hay mucho más que eso, pero la idea de Bohm es que todos estamos relacionados con un «todo» y que, tarde o temprano, el entrelazamiento cuántico y el efecto túnel, las partículas y las entidades orgánicas, podrán relacionarse de este modo con el todo [xxxix].
En su libro de 1997, La estructura de la realidad, David Deutsch, un físico de Oxford, va un paso más allá y propone la física como una forma de teología, incorporando la obra de otros científicos como Frank J. Tipler, Roger Penrose, Alan Turing y Kurt Gödel.
Deutsch también toma como punto de partida que todos habitamos «universos paralelos», que, como dice Silk, existe un «multiverso» compuesto por muchos universos y que nosotros (o copias de nosotros) habitamos muchos de esos universos, de los que solo somos conscientes de una forma tenue e intermitente. Apoya su argumento, al menos en el libro, en una serie de patrones formados por la luz sobre una pantalla después de atravesar cierto número de rendijas. Dependiendo del número de rendijas por las que ha atravesado la luz, nos dice, algunas áreas de la pantalla serán blancas o serán oscuras. Este patrón solo puede explicarse, argumenta, si suponemos que, además de los fotones que podemos ver, que son «tangibles», hay también fotones «sombra» que son intangibles y que a veces «interfieren». Esto le lleva a la idea de universos paralelos y la idea es profunda, dice, porque explica mucho que de otro modo resulta incomprensible [535].
Su otra preocupación principal es que la computación, la matemática, también se armoniza con la física (por eso el mundo es comprensible), pero lo más importante es que constituye la única forma de conocimiento. El aumento de ese conocimiento computacional, nos dice, es el «propósito» de la vida. Contempla la idea de que, en un universo hecho de acuerdo con las leyes de la física y modelado por la matemática, en algún momento del futuro llegue a aprehenderse todo ese conocimiento matemático, computacional, y entonces «se habrá conquistado» la vida.
Desde este punto de partida, este autor, junto a Frank Tipler, de la Universidad Tulane de Nueva Orleans, considera un futuro muy lejano (miles de millones de años), en el cual ambos creen que el conocimiento (computacional) se habrá ampliado de forma inconmensurable respecto al que hoy poseemos, hasta el punto no ya de hacer habitual el viaje por el espacio, sino incluso el viaje en el tiempo, y en el que estemos en posición de evitar la fase final de nuestro universo, que, en el estado actual de nuestro conocimiento, acabará con el cataclismo del Big Crunch. Esto es, a grandes trazos, lo que Frank Tipler explora en su libro La física de la inmortalidad, en el que desarrolla su concepto del punto «omega» [536].
A medida que se acerque el Big Crunch y el universo se contraiga, se irá concentrando cada vez más energía en un espacio-tiempo más pequeño, lo que quiere decir que para entonces «las mentes de las personas correrán como programas informáticos en computadoras cuya velocidad física aumenta sin límite». En ese momento, dentro de miles de millones de años, con la potencia de computación de la que dispondremos entonces, la experiencia vendrá determinada no tanto por el tiempo transcurrido «como por las computaciones que se realicen en ese tiempo». (La cursiva es mía). «En un número infinito de pasos de computación hay tiempo para un número infinito de pensamientos, tiempo suficiente para que los pensadores se sitúen en el entorno de realidad virtual que deseen… No tendrán ninguna prisa porque subjetivamente vivirán para siempre. En un segundo, en un microsegundo, tendrán “todo el tiempo del mundo” para hacer más, experimentar más, crear más, infinitamente más de lo que haya podido nadie antes en el multiverso».
Habrá que hacer algunos preparativos, dice Deutsch. Sin embargo, y esto es crucial para la teoría, el conocimiento físico que tenemos en la actualidad implica que todo este razonamiento es justamente eso, razonamiento basado en el conocimiento actual, y por tanto no es especulación. Tendremos que «dirigir» el universo hacia el punto omega y, a lo largo del camino, habrá que sortear ciertos eventos. Uno se producirá dentro de unos 5.000 millones de años, cuando el Sol, si lo dejamos evolucionar según su natural, se convierta en una gigante roja y barra con toda la humanidad. Como dice Deutsch, uno podría pensar que de manera un tanto despreocupada, «tendremos que aprender a controlar o abandonar el Sol antes de que eso ocurra». Llega incluso a decir que la teoría del punto omega «merece convertirse en la teoría predominante del futuro» [537].
En ese punto omega, dice Tipler, se conocerá todo sobre el universo. Por consiguiente, lo que exista entonces será omnisciente, de lo que se sigue que será omnipotente y omnipresente. «Y de este modo [Tipler] sostiene que en el límite del punto omega hay una sociedad de personas omniscientes, omnipotentes y omnipresentes. A esta sociedad Tipler la identifica como Dios».
Deutsch hace hincapié en que existen enormes diferencias entre la idea de Dios de Tipler y aquello en lo que creen la mayoría de las personas religiosas de nuestros días. Cerca del punto omega, las personas serán tan distintas de nosotros que no podríamos comunicarnos con ellos. No podrían realizar milagros, pues no habrían creado el universo ni las leyes de la física, y por tanto nunca podrían violar esas leyes. Se opondrían a la fe religiosa y no tendrían el menor deseo de ser adorados (¿quién ejercería esa adoración?). Pero sí cree que la tecnología sería tan avanzada en ese momento que podrían resucitar a los muertos. Eso es así porque para entonces los ordenadores serían tan infinitamente potentes que podrían crear cualquier mundo virtual que haya existido, incluido nuestro mundo, en el que evolucionaron los humanos, lo cual, en un sistema infinito, les permitiría mejorar nuestro mundo materialmente, un mundo en el que la gente no morirá. Esto, dice Tipler, es una forma de cielo.
Lo que la gente haga realmente en el punto omega (gente muy distinta de nosotros, más allá de lo que podamos imaginar) solo puede ser objeto de una especulación informada, dicen Tipler y Deutsch. La razón de ello es que el punto omega es una singularidad en la que, por definición, las leyes de la física quedan en suspenso. Pero insisten en que la física y la matemática de nuestros días apoyan la evolución hasta el punto omega.
Es una visión arrebatadora y, huelga decirlo, tanto Deutsch como Tipler han sido criticados, y duramente, por una concepción «irónica» más, por una «especulación injustificada» sobre eventos tan lejanos en el futuro que carecen de significado para la mayoría de la gente. Pero ellos insisten en que sus teorías se fundamentan en los conocimientos reales de física y computación (matemática) que poseemos en la actualidad. Además, la vida ha proliferado en la Tierra durante unos 3.500 millones de años y nos ha llevado todo ese tiempo entender, por ejemplo, la futura desaparición del Sol. Debemos aprender a pensar de tales modos y con tales marcos temporales [538].
La importancia de la computación ha sido resaltada también en el «nuevo tipo de ciencia» propugnado por Stephen Wolfram. Este físico de origen británico, creador de Mathematica, un programa informático técnico, llega incluso a decir que «todos los procesos, tanto si son producidos por el esfuerzo humano como si ocurren de manera espontánea en la naturaleza, pueden concebirse como computaciones». La computación proporciona «un marco uniforme» con el que explorar los distintos procesos que se producen en la naturaleza. Existe, insiste, una «equivalencia fundamental entre muchos y distintos tipos de procesos» [539].
Wolfram llega a contemplar de este modo la convergencia y el orden emergente por medio de lo que llama «un nuevo tipo de ciencia», pero que en realidad es una ingeniosa analogía. En una extraordinaria iniciativa editorial, en lugar de ir esbozando su visión de manera gradual a través de revistas profesionales, que podrían estar sujetas a revisión por pares, Wolfram se retiró durante diez años para producir su obra maestra (un poco como Darwin, que tardó diez años en gestar El origen de las especies ), en la que la argumentación, supuestamente, está plenamente desarrollada. La obra de Wolfram, A New Kind of Science [Un nuevo tipo de ciencia], que publicó por su cuenta en 2002, ocupa 1.274 páginas e incluye un párrafo sobre por qué juzgó necesario escribir el libro con estilo desenfadado. En el momento de finalizar Convergencias, la obra de Wolfram había vendido cerca de 150.000 copias, que no es poco.
La analogía de Wolfram se basa en los llamados autómatas celulares, concebidos originalmente por Stanley Ulan, del Instituto de Estudios Avanzados de Princeton. Para entenderlo, imaginemos una retícula formada por un gran número de pequeños cuadrados, todos del mismo color y dispuestos de manera parecida a los numerosos y pequeños píxeles de la pantalla de un ordenador. Wolfram nos dice que su principal descubrimiento comenzó con la idea de tener un cuadrado en la fila superior con un color distinto (negro sobre blanco, por ejemplo), y esto estaría vinculado a un programa informático, un conjunto simple de reglas que rigen el sistema y determinan de qué color son los cuadrados en la fila inferior, y la inferior a esta, y así sucesivamente. En su versión más simple, las reglas podrían estipular que una celda o célula es negra si alguno de sus vecinos era negro en el paso anterior, y blanca, si ambos eran blancos. Una regla más compleja haría que una célula fuese negra si uno u otro, pero no los dos, fuesen negros en el paso anterior.
A partir de este simple principio, Wolfram halló que existían 256 conjuntos de reglas posibles de este tipo pero, y esto es lo que realmente le sorprendió (y le pareció importante), con el tiempo, a medida que se ejecutan estos programas en el ordenador, en los patrones que producen a menudo durante millones de generaciones se hacen patentes dos resultados básicos. Uno, que los patrones que se generan son, muchas veces, increíblemente complejos, aleatorios y sin repeticiones, mientras que en otras ocasiones emergen patrones claros que se repiten a intervalos regulares.
Para Wolfram, esto fue una revelación, y es lo que quiere compartir con nosotros. La idea de que unas pocas reglas simples pueden conducir tanto a una gran complejidad como a un orden, que orden y complejidad son dos caras de la misma moneda, es para él lo más importante del universo, porque el universo es tanto ordenado como aleatorio, y contiene tanto características simples como complejas. Para Wolfram, estas reglas simples lo explican todo.
A lo largo de su obra, Wolfram describe solo el comportamiento de autómatas celulares, patrones en blanco y negro, ocasionalmente otros colores, como el gris. Pero encuentra en los patrones muchas analogías con el mundo real. Por ejemplo, algunos de los patrones recuerdan el orden que vemos en la naturaleza, como las rayas de los tigres, la forma de las dunas de arena o las espirales de conchas y caracolas. En otras secciones argumenta que el propio espacio podría estar formado por unidades discretas, como las células de un autómata celular, y que eso nos ayuda a explicar las partículas fundamentales, que en esencia son «enredos» en esta red de unidades. Es ese enredo lo que se mueve e interactúa, y eso es la masa (lo que no está a años luz del bosón de Higgs, como veremos en este mismo capítulo).
Contemplar el espacio de este modo, dice, nos ayuda a entender la mecánica cuántica y fenómenos como la «superposición», la idea de que unas entidades puedan estar en dos lugares al mismo tiempo, porque en esencia se encuentran conectadas a través de la red del espacio. También nos muestra que si la forma básica de las células o «píxeles» (a falta de mejor palabra) es, por ejemplo, un hexágono en lugar de un cuadrado, el espacio resultante es curvo, tal como decía Einstein. Establece otra analogía con la memoria humana: los recuerdos son patrones en los píxeles del cerebro que engloban, respetan o se derivan de reglas simples que dan lugar a esos patrones. Por eso podemos recuperar recuerdos, porque los recuerdos parecidos se ajustan a unas configuraciones matemáticas parecidas.
Un último resultado, tal vez más fundamental, es que, según nos dice Wolfram, este enfoque nos ayuda a entender el misterio del libre albedrío. Las reglas simples con las que se inició la vida han dado lugar a una enorme complejidad. Además, para muchas de las reglas que describe, no es posible conocer, a partir del estado de complejidad de un momento determinado, cómo se llegó a ese estado, de qué modo las reglas llevaron los píxeles caóticos u ordenados hasta ese punto. Por consiguiente, las reglas no se pueden seguir hacia atrás, lo cual, añade, es análogo a la situación en la que nos encontramos con respecto al libre albedrío. Sabemos que ciertas reglas nos han llevado hasta este punto, pero no conocemos las reglas que rigen el futuro, y nunca podremos conocerlas. Por tanto, a todos los efectos, nos sentimos como si tuviéramos libre albedrío porque nunca conoceremos las reglas que subyacen a nuestro comportamiento. La matemática de la historia de la vida nos elude.
Las ideas de Wolfram fueron recibidas con críticas [540]. Esto se debe en parte a que los autómatas celulares son analogías de la vida, no la vida, y las lleva más lejos de lo que puede. Pero también a que el libro está repleto de expresiones como «tengo la fuerte sospecha», «parece posible», «es probable», «si no me equivoco», y la especulación encima de la analogía no es la idea que muchos tienen de la ciencia.
No obstante, pocos desestiman de un plumazo el ingente trabajo de Wolfram, quien encuentra un lugar en este libro gracias a sus conclusiones, de las cuales las más relevantes son:Matemática, psicología y evolución
Lee Smolin y Roberto Mangabeira Unger discrepan. Smolin es un conocido físico que ha investigado la gravedad cuántica, la teoría de cuerdas y ciertos refinamientos de la teoría de la relatividad, mientras que Unger es filósofo. En su libro, The Singular Universe and the Reality of Time [El universo singular y la realidad del tiempo] (2014), argumentan, en contra de las perspectivas que acabamos de comentar, que el vínculo entre matemática y naturaleza es engañoso y que solo existe un universo, aunque puedan haber existido universos sucesivos (con una sucesión lineal o cíclica), y que, a medida que el universo crece, a partir de él pueden crecer, como ramificaciones, otros universos. Esta es una diferencia mayor de lo que puede parecer. Tras la idea de un multiverso, o de universos paralelos, está la teoría de que tendrían leyes distintas, mientras que en la visión de Unger-Smolin todos los universos que surgen como ramificaciones tendrían las mismas leyes, de manera que, en principio, sería posible la comunicación entre ellos, es decir, el intercambio de información. Los universos paralelos, en cambio, se encuentran más allá de la investigación empírica. Nuestro universo singular es «extraordinariamente homogéneo e isotrópico y constituye, por lo tanto, un entorno propicio para los fenómenos repetidos y las conexiones regulares» [544]. Si el universo se desarrolló a partir de algo, sin embargo, algo precedió al Big Bang, cuando «las conexiones causales podrían no haber asumido todavía la forma de leyes y la división de la naturaleza en formas naturales perdurables aún no habría tenido lugar» [545].
Argumentan también que el tiempo es real, de lo que se deriva como principal consecuencia que todo en la estructura y las regularidades de la naturaleza cambia más tarde o más temprano, y que «llegar a ser» toma precedencia sobre «ser», el proceso toma precedencia sobre la estructura. Señalan que, por lo que sabemos, aunque el estado del universo enfriado es notablemente estable, las leyes de la naturaleza han cambiado por lo menos una vez en la historia del universo: durante la fase de inflación, cuando, como ya hemos visto, la gravedad podría haber sido temporalmente una fuerza de repulsión. A partir de aquí, Smolin y Unger consideran si otras leyes podrían haber cambiado también con el tiempo (lo que, como se recordará, era la idea de Schrödinger sobre el ADN). Unger y Smolin mencionan de manera específica (aunque casi de pasada) que estos cambios se podrían haber producido con la invención del sexo y con la invención de la mente. (No están solos en esto de preguntarse si la mente es un caso especial en lo que atañe a las leyes de la física). Unger y Smolin se preguntan si no podría haber en la naturaleza unas «metaleyes» más profundas que explicasen cómo se producen esos cambios. (Hay en esto un vínculo con los autómatas celulares de Wolfram.) [546] Y el espacio, dicen, podría emerger del tiempo.
También argumentan, en contra de Deutsch y Wolfram, que la matemática solo es selectivamente real. («El infinito es un artificio matemático… que se aplica de manera ilegítima a la cosmología»). La matemática, dicen, tiene dos objetos: las leyes de la naturaleza y ella misma. «Comienza con una exploración de las relaciones más generales del mundo, abstraídas del tiempo y de particularidades fenoménicas, pero escapa a los confines de nuestra experiencia perceptual. Inventa nuevos conceptos y nuevas maneras de conectarlos, inspirada por sus ideas previas y por los enigmas que plantea la ciencia natural [547] ». Insisten, sin embargo, en que la matemática no ofrece atajos a verdades atemporales sobre objetos incorruptibles, ya sea sobre la naturaleza, ya sobre algún «ámbito especial» de objetos matemáticos fuera de la naturaleza. «[La matemática] nunca sustituye el trabajo del descubrimiento científico y de la imaginación… Su objeto de estudio último es el mundo natural eviscerado (eviscerado de particulares vinculados al tiempo) que aborda la matemática [548] ». Su estar fuera del tiempo, su propósito de mantenerse fuera del tiempo, es lo que limita su utilidad y, en verdad, su realidad.
El enigma de las matemáticas, «la nada razonable eficacia de las matemáticas», como originariamente lo había expresado Eugene Wigner, se explica, dicen, por medio de la psicología y la evolución. La matemática es en realidad «ciega» a las distinciones fenoménicas y las variaciones temporales de la naturaleza y debemos ejercer una vigilancia autocrítica para evitar el pseudoplatonismo que, en su opinión, siempre ha estado muy extendido entre los matemáticos. Se refieren a la suposición injustificada de que las abstracciones son objetos de un tipo especial, «que habitan en una parte distinta de la realidad» [549]. Los números primos son tan factuales como característica del mundo como el hecho de que el agua se congele a 0 °C. Pero no son verdaderos o reales del mismo modo. Los vínculos entre la realidad del mundo, su pluralidad y sus conexiones pueden representarse matemáticamente (al menos algunos), pero eso no pasa de ser «un juego de nuestra invención», una realidad de «segundo orden» («vulgares platonismos»). La particularidad fenoménica del mundo («del tiempo y de la distinción difusa») nunca podrá eliminarse del todo y es tan interesante y en todos los sentidos tan importante como las abstracciones. «No existe una armonía preestablecida entre la intuición física o el descubrimiento experimental y la representación matemática [550] ». La realidad es impermanente, y la emergencia de lo nuevo «es un suceso que se repite en la historia del universo».
Desde el prisma de este libro, la tesis de Unger y Smolin es importante en dos sentidos. El primero, bastante obvio, es que cuestiona el consenso emergente sobre universos paralelos. El segundo, no menos obvio, es que arroja dudas sobre el papel preponderante de las matemáticas para entender el orden.

Teorías del todo: «la amalgama virtualmente completa de física y matemáticas»
La llamada «teoría del todo» también es una expresión irónica, pero en un sentido un tanto distinto. Se refiere al intento de describir toda la física fundamental mediante un solo conjunto de ecuaciones: nada más. Los físicos hace décadas que vienen diciendo que esta «solución final» está a la vuelta de la esquina (y recordemos que Einstein fracasó en su búsqueda de una teoría de campos unificada hace algo más de medio siglo). Pero la teoría del todo sigue dándoles esquinazo.
Hasta la década de 1960 había que reconciliar cuatro fuerzas: la gravedad, el electromagnetismo, la fuerza nuclear fuerte y la fuerza radiactiva débil. En aquella década, Sheldon Glashow, de Harvard, concibió un conjunto de ecuaciones, que desarrollaron Abdus Salam de Imperial College, en Londres, y Steven Weinberg, en Texas, quienes describieron la fuerza débil y el electromagnetismo y postularon tres nuevas partículas: W+, W- y Z0. Estas se observaron experimentalmente en 1983 en el CERN, en Ginebra. Así pues, junto a la nueva teoría que explicaba la interacción de los quarks (capítulo 11), el electromagnetismo, la fuerza débil y la fuerza fuerte se habían enlazado en un mismo conjunto de ecuaciones [551]. Este es un logro muy notable, pero que todavía deja fuera la gravedad, y es la incorporación de esta cuarta fuerza en el esquema general lo que constituiría, a ojos de los físicos, una teoría del todo.
Al principio probaron con una teoría cuántica de la gravedad. Es decir, los físicos postularon teóricamente la existencia de una o más partículas que explicasen la fuerza y le dieron el nombre de «gravitón» a la partícula de la gravedad, aunque las nuevas teorías presuponen que deben existir muchas más además de esa partícula. (Algunos físicos predicen ocho, otros 154, lo que da una idea de la monumental tarea que encaran). Pero entonces, a mediados de la década de 1980, los físicos fueron arrasados por una «revolución de las cuerdas» y, en 1995, por una segunda «revolución de las supercuerdas». En una peculiar repetición de la excitación que conmocionó a la física a principios del siglo XX, toda una nueva área de indagación se presentaba ante la vista a las puertas del siglo XXI.
La revolución de las cuerdas nació de una paradoja fundamental. Aunque cada una gozaba de méritos propios, la teoría general de la relatividad (que explica la estructura a gran escala del universo) y la mecánica cuántica (que explica la minúscula escala subatómica) eran, como ya se ha explicado, mutuamente incompatibles. Los físicos no podían creer que la naturaleza permitiese algo así. Como había dicho Newton, «a la naturaleza le place la simplicidad».
Había también otras preguntas fundamentales que los teóricos de las cuerdas tenían que afrontar: ¿por qué hay cuatro fuerzas fundamentales? ¿Por qué existe el número de partículas que existe, y por qué tienen las propiedades que tienen? (Unas preguntas que sin duda habrían fascinado a Mary Somerville). La respuesta que proponen los teóricos de las cuerdas es que el constituyente básico de la materia no es, en realidad, una serie de partículas (unas entidades en forma de punto) sino unas diminutas cuerdas unidimensionales que a menudo forman bucles. Estas cuerdas son tan pequeñas (alrededor de 10-33 centímetros) que no podemos observarlas con los actuales instrumentos de medición y, por tanto, al menos por el momento, son unos constructos completamente teóricos, matemáticos. Sea como fuere, según la teoría de las cuerdas, un electrón es una cuerda que vibra de cierto modo, y un quark arriba es una cuerda que vibra de otro modo, y una partícula tau es una cuerda que vibra de un tercer modo, y así el resto, igual que las cuerdas de un violín vibran de distinto modo para producir notas distintas. Como muestran los números, nos ocupamos aquí de unas entidades extraordinariamente pequeñas, unos 100 trillones de veces (1020) más pequeñas que un núcleo atómico. Sin embargo, según los teóricos de las cuerdas, a este nivel es posible reconciliar (unir) la gravedad y la teoría cuántica. Como resultado derivado y premio añadido, dicen también que de los cálculos surge de manera natural una partícula de la gravedad (el gravitón [552] ).
Al tratar con unas entidades tan diminutas como las cuerdas, surgen posibilidades que los físicos nunca habían siquiera considerado, y una de ellas es que podría haber «dimensiones ocultas», para explicar lo cual necesitamos una nueva analogía. Comencemos por la idea de que las partículas se ven como tales solo porque nuestros instrumentos carecen de la resolución necesaria para ver algo tan pequeño. Por usar un ejemplo de Brian Greene en El universo elegante: supercuerdas, dimensiones ocultas y la búsqueda de una teoría definitiva , pensemos en una manguera vista desde lejos. Parece un filamento en una dimensión, como una línea escrita en una página. Naturalmente, al acercarnos la vemos en dos dimensiones: siempre las había tenido, pero no estábamos lo bastante cerca para verlo. Los físicos dicen que ocurre (o podría ocurrir) lo mismo al nivel de las cuerdas. Hay dimensiones ocultas y enrolladas de las que todavía no somos conscientes. De hecho, dicen que podría haber once dimensiones en total, diez de espacio y una de tiempo. Esta es una idea difícil si no imposible de imaginar o visualizar, pero los científicos basan sus argumentaciones en razonamientos matemáticos (y con unas matemáticas que incluso los matemáticos encuentran difíciles). Sin embargo, cuando aceptan eso, muchas cosas del universo comienzan a encajar. Por ejemplo, los agujeros negros se explican como algo tal vez similar a las partículas fundamentales, y como portales a otros universos. Las dimensiones extra se necesitan también porque el modo como se pliegan y enrollan podría, según los teóricos de las cuerdas, determinar el tamaño y frecuencia de las vibraciones de las cuerdas; dicho de otro modo, explican por qué las «partículas» familiares tienen la masa y la energía y se encuentran en el número en que se encuentran. En su última configuración, la teoría de las cuerdas implica más que cuerdas: también hay membranas o «branas» de dos, tres y más dimensiones, pequeños paquetes cuya comprensión será la meta principal de la investigación del siglo XXI [553].
La teoría de las cuerdas fuerza hasta el límite la comprensión de cualquiera. Hasta el momento es teoría en un 99 %, es decir, esencialmente matemáticas. Los físicos comienzan a encontrar el modo de testar experimentalmente las nuevas teorías, pero a día de hoy no faltan escépticos que dudan de la existencia de las cuerdas (véase la conclusión). Además, a estos niveles tan pequeños podríamos entrar en «un dominio sin espacio ni tiempo». También eso fuerza nuestra comprensión.
Greene cree que esto podría ser un gran paso adelante filosófica y científicamente, un punto de inflexión «que podría darnos respuesta a la pregunta de cómo se originó el universo y por qué existe espacio y tiempo, un formalismo que nos acercaría un poco más a responder la pregunta de Leibniz de por qué hay algo en lugar de nada». Por último, en la teoría de las supercuerdas tenemos la amalgama virtualmente completa de física y matemáticas. Siempre han estado cerca la una de la otra, pero nunca tanto como ahora, cuando afrontamos la posibilidad de que, en cierto sentido, y pese a lo que digan Unger y Smolin, el fundamento último de la realidad sea matemático.

La mecánica cuántica y la teoría de la información convergen por medio de las matemáticas
Si realmente es así, la resolución no será necesariamente nítida. De hecho, podría hacer que todo fuera más complicado, y sería erróneo eludir esa cuestión. La mecánica cuántica y la teoría de la información han convergido de una forma matemática que, irónica o no, es terriblemente confusa para la mayoría de nosotros. En 1982, el físico Alain Aspect demostró el «entrelazamiento cuántico» por primera vez, pero desde entonces su experimento se ha repetido a menudo [554]. De hecho, se realiza de manera regular en Ginebra, donde Nicolas Gisin y sus colegas «golpean» con un láser un cristal hecho de potasio, niobio y oxígeno. Tal como Charles Seife cuenta la historia, cuando un cristal absorbe un fotón del láser, se divide en dos partículas entrelazadas que salen disparadas en direcciones opuestas, que entonces se llevan a cables de vidrio que discurren por varios pueblos alrededor del lago Ginebra. En el año 2000, el equipo de Gisin disparó fotones entrelazados a las poblaciones de Bernex y Bellevue, separadas por más de 9 kilómetros. Con la ayuda de un reloj increíblemente preciso, demostraron que las partículas «se comportaron del modo que Einstein había predicho: ambas estuvieron superpuestas y siempre parecían conspirar para tener propiedades iguales pero opuestas cuando se las medía».
Con la mecánica cuántica, la extrañeza cuántica alcanza una cima. El principio de superposición implica que una partícula puede estar en dos estados cuánticos al mismo tiempo. Puede tener espín arriba y abajo, o, en términos de información, puede ser a un tiempo 1 y 0, y estar en dos lugares al mismo tiempo. Por si eso no fuera lo bastante misterioso, el equipo de Ginebra determinó que si se enviase algún tipo de «mensaje» entre las dos partículas, tendría que viajar 10 millones de veces más deprisa que la velocidad de la luz [555].
Los físicos pueden explicar todo esto con la ayuda de la matemática, con lo que denominan teoría de la información cuántica, que, añaden, «está más íntimamente ligada a las leyes fundamentales de la física». Los bits cuánticos, o qubits, ocupan estados de superposición, e incluso pueden dividirse más de una vez y, de hecho, encontrarse en cuatro lugares al mismo tiempo. Y, si su entrelazamiento pudiera capturarse (lo que no está claro), podrían hacer cálculos mucho más deprisa. Una computadora cuántica superaría a las actuales en un orden de magnitud [556].
A este nivel, la teoría cuántica, igual que las supercuerdas, fuerzan la imaginación de cualquiera (y especialmente de quienes carecen de la competencia matemática necesaria para entender las ecuaciones). Pero no está libre de problemas. Uno está relacionado con la pregunta fundamental de por qué las entidades microscópicas deberían comportarse de forma distinta a como lo hacen las macroscópicas (a fin de cuentas, los instrumentos con los que medimos las entidades microscópicas son entidades macroscópicas). También se da el caso de que la teoría de la información no concuerda con la relatividad. Un tercer problema es que el entrelazamiento implica un intercambio de información, pero este está prohibido por la teoría. Y un cuarto problema es que si los agujeros negros consumen información (rayos cósmicos, por ejemplo, o fotones), eso violaría la ley de la conservación de la información, que es equivalente a la ley de la conservación de la energía (que es por donde comenzamos; véase el capítulo 1). Así que no podemos decir que ya estemos a las puertas de la unificación total de la física por medio de la matemática [xl].

«Convergencia: lo más profundo del universo»
Pese a la oposición a la unidad de las ciencias que se desarrolló a finales del siglo XX de parte de muchos críticos posmodernos (por lo general filósofos, sociólogos o historiadores de la ciencia), la mayoría de los científicos adoptan otro punto de vista. Freeman Dyson, profesor de física en el IAS de Princeton, no es un reduccionista, pero he aquí lo que dice en su libro El infinito en todas direcciones, publicado en 1988: «En términos generales es cierto que los más grandes científicos de cada disciplina son unificadores. Y especialmente en la física. Newton y Einstein fueron supremos unificadores. Los grandes triunfos de la física han sido triunfos de la unificación. Casi damos por sentado que el camino del progreso en la física será una unificación cada vez más amplia que pondrá cada vez más fenómenos en el ámbito de unos pocos principios fundamentales» [557].
Y esto es lo que dice Abdus Salam, quien, como se recordará, compartió el premio Nobel por su trabajo sobre la unificación de las interacciones electromagnéticas y débiles, en su Conferencia Paul Dirac de 1988, pronunciada en la Universidad de Cambridge con el título «La unificación de las fuerzas fundamentales»:
Otra de las áreas en las que la física de partículas ha hecho aportaciones importantes es en la cosmología temprana, hasta el punto de que esta se ha convertido en sinónimo de física de partículas. Esto se debe a que las transiciones de fase, que separan una era de la cosmología de otra, son también el mecanismo por medio del cual la fuerza unificada última se convierte en dos (gravedad más electronuclear), en tres (electrodébil más nuclear fuerte más gravedad), y finalmente en cuatro fuerzas (electromagnética más débil más nuclear fuerte más gravedad), a medida que desciende la temperatura global del universo [xli] ).
Estas no fueron las únicas figuras que hicieron hincapié en la unificación (véase, por ejemplo, la obra de John C. Taylor Hidden Unity in Nature’s Laws [La unidad oculta de las leyes de la naturaleza] (2001), aunque es muy técnica). Pero probablemente el más destacado defensor de una teoría del todo, desde un punto de vista estrictamente reduccionista, fue y es Steven Weinberg, catedrático de física en la Universidad de Texas en Austin, quien, recordemos una vez más, compartió el premio Nobel de Física de 1979 con Salam y Glashow. En 1993, Weinberg publicó El sueño de una teoría final, en el que defendía una visión de la ciencia reduccionista más o menos tradicional, que las partículas fundamentales son fundamentales como nada más lo es, que la física no busca solo describir el mundo a este nivel básico sino también explicarlo (¿por qué hay gravedad? ¿por qué hay mecánica cuántica?).
Reconocía que, para entonces, el reduccionismo se había convertido en «la Cosa Mala» de la ciencia, pero insistía en que «siguiendo las flechas de explicación hasta su origen, hemos descubierto un sorprendente patrón de convergencia, tal vez lo más profundo que hayamos aprendido hasta ahora sobre el universo ». (La cursiva es mía.) Hoy sabemos lo bastante sobre el «extraordinario grado de conexión» del conocimiento, decía, para esperar que esa convergencia crezca y se torne más precisa [558].
La publicación de su libro tuvo un telón de fondo muy concreto: era el momento en que el congreso de Estados Unidos estaba discutiendo la financiación del supercolisionador superconductor. El SSC era un equipo de experimentación sin ningún fin práctico que había de costar a los contribuyentes de Estados Unidos alrededor de 8.000 millones de dólares. Otros físicos, como Philip Warren Anderson, catedrático emérito en Cambridge y Princeton, sostenían que otros aspectos de la física (por ejemplo, la física de la materia condensada) eran igual de fundamentales y, además, potencialmente más útiles a largo plazo, de modo que merecían tanta financiación como la física de partículas, o incluso más.
Aun concediendo que la física de la materia condensada era importante, y que estaba mal financiada, Weinberg insistía en que la física de partículas era más fundamental, más que cualquier otra cosa. Al propio tiempo, aceptaba que muchos aspectos de la ciencia (las teorías de la turbulencia, por ejemplo, o la conciencia, la memoria, la conductividad a altas temperaturas) no se verían afectadas en lo más mínimo por el descubrimiento de una teoría del todo.
En 1929, decía, la física se había dirigido hacia «una visión del mundo más unificada» cuando Werner Heisenberg y Wolfgang Pauli describieron tanto a las partículas como a las fuerzas como manifestaciones de una realidad más profunda, «los niveles de los campos cuánticos» [559]. Aquella había sido una «síntesis deslumbrante», decía, y la palabra crucial es síntesis. Nadie entonces había podido ver hasta dónde nos llevaría y por implicación, argumentaba, nos encontrábamos en una situación parecida a las puertas del siglo XXI, cuando nadie podía decir adónde nos llevaría una teoría del todo, si llegaba a descubrirse. Le parecía, en cualquier caso, que la teoría de las cuerdas demostraría ser un gran paso.
Aunque aceptaba que no había garantía de que el progreso en otros campos de la ciencia se viera ayudado directamente por el descubrimiento de una teoría del todo, se mostraba convencido de que hay un «orden lógico en el seno de la naturaleza» y que el reduccionismo es, en realidad, una actitud hacia la naturaleza. «No es ni más ni menos que la percepción de que los principios científicos son como son a consecuencia de unos principios científicos más profundos (y, en algunos casos, accidentes históricos) y que todos estos principios se remontan a un conjunto único de leyes conectadas entre sí [560] ».
Pese a las dudas expresadas por otros (algunos de los cuales sostenían que las leyes que estudiamos son impuestas a la naturaleza por el modo en que realizamos las observaciones), Weinberg decía que su propia intuición era que existía una teoría definitiva esperando a ser descubierta, y que somos capaces de descubrirla. Quizá su impresión más fundamental, en este libro tan fundamental, sea que la actitud reduccionista proporciona «un filtro útil» que previene a los científicos de cualquier campo para no malgastar su tiempo en ideas que no merecen la pena. «En este sentido —insistía— hoy todos somos reduccionistas [561] ».
Cuando pronunció su Conferencia Dirac, en 1988, sobre «La unificación de las fuerzas fundamentales», Salam presentó dos cuadros que mostraban claramente las partículas y las fuerzas que formaban parte del modelo estándar de la física. Y añadió que todas aquellas partículas se conocían de forma directa con la excepción del quark cima y del bosón o partícula de Higgs. El quark cima fue identificado en 1995, y después, mucho más tarde, comenzó a entreverse la pieza final del puzle [562].

«El final de una era de unificación, el umbral de una nueva era»
Melbourne, Australia, 4 de julio de 2012. Es el primer día del Congreso Internacional de Física de Alta Energía, una reunión bienal que con los años transita de ciudad en ciudad. Hoy, sin embargo, se ha filtrado la noticia de que se va a anunciar algo «grande» y el auditorio principal se ha llenado mucho antes de que comiencen las conferencias. Al otro lado del mundo, en el CERN de Ginebra, desde donde se transmitirán en directo las dos conferencias principales, corre el mismo rumor y cientos de físicos se han presentado horas antes de que comiencen.
Las dos conferencias principales serán pronunciadas por Joe Incandela, un físico estadounidense, y Fabiola Gianotti, una física italiana. Son los investigadores principales de dos equipos rivales del CERN, conocidos como ATLAS y CMS, que, en una hábil jugada que aúna colaboración con rivalidad, se han enfrentado desde que el CERN estableció los dos grupos en 2009.
El núcleo de las charlas consiste en un pequeño número de gráficos que le dirían muy poco a quien no fuera un físico de alta energía bien informado. Sin embargo, tal como Sean Carroll cuenta la historia, los gráficos muestran más eventos de los esperados de cierta energía particular (colecciones de partículas que emergen de una sola colisión). Todos los físicos de la audiencia entienden al instante lo que significan: un nueva partícula. El GCH (Gran Colisionador de Hadrones) ha vislumbrado una parte de la naturaleza que hasta entonces nunca se había visto [563].
En Melbourne, el público estalla en aplausos. En Ginebra, incluso periodistas que se enorgullecen de haberlo visto todo aplauden con no menos entusiasmo. Todos están sobrecogidos por la «exquisita concordancia» entre los dos equipos.
Lo que habían encontrado era el «bosón de Higgs». O, al menos, algo que tenía la masa esperada, el nivel de energía esperado y se desintegraba del modo esperado según la teoría. Esta partícula había recibido su nombre del físico escocés Peter Higgs, que aquel día, con ochenta y tres años, se encontraba en el auditorio, y nunca había imaginado que la partícula fuera a encontrarse durante su vida. Había propuesto la existencia de la partícula ya en 1964, junto a otros colegas [xlii].
La importancia del bosón de Higgs estriba en que no se trata únicamente de una partícula fundamental, sino que es una entidad muy especial. Como ya hemos visto, hay tres tipos de partículas, las que conforman la materia (como los electrones y los quarks), las partículas de fuerza (fotones, gluones), y luego el bosón de Higgs. Este surge de un campo conocido como campo de Higgs que ocupa todo el espacio y proporciona, por así decirlo, el fondo sobre el que otras partículas reciben su masa. Sin él, la materia no existiría.
El descubrimiento fue un triunfo para el CERN y el Gran Colisionador de Hadrones, y para la organización de los científicos de Ginebra y otros lugares. El GCH es ciertamente un nombre prosaico para un increíble centro de actividad humana, increíble en el sentido de que hicieron falta 9.000 millones de dólares para construirlo sin que se esperase que produjese nada útil en los campos de la medicina o el transporte, por ejemplo, aunque de manera casi inadvertida dio lugar al World Wide Web [xliii].
El colisionador tiene un perímetro de unos 27 kilómetros, y contiene potentes imanes que se mantienen de tal modo que el interior de la máquina es más frío que el espacio exterior, con una temperatura inferior a la de la radiación cósmica de fondo que dejó el Big Bang. El CERN lleva a cabo muchos experimentos pero dos estaban dedicados a la búsqueda del bosón de Higgs, los conocidos como ATLAS (el acrónimo en inglés de «un aparato toroidal del GCH») y CMS (de «solenoide compacto de muones»), que en esencia son dos maneras de observar colisiones de protones. La idea de tener dos experimentos que buscaban lo mismo, aunque de forma un poco distinta, era parte de un enfoque diseñado para lograr dos objetivos complementarios. El primero era inyectar un poco de rivalidad en el sistema, espoleando la actividad, y el segundo que si los dos equipos llegaban a la misma respuesta, la veracidad de los resultados se vería más firmemente confirmada. Cada equipo estaba formado por un personal de 3.000 participantes: eran experimentos a gran escala se mire como se mire [564].
El hecho de que ambos experimentos obtuvieran la misma respuesta, una partícula con una masa de 100 GeV, igual a 100.000 millones de electronvoltios, y casi exactamente al mismo tiempo, fue uno de los grandes logros del CERN, y parte del encanto del descubrimiento del bosón de Higgs. Otra medida de la magnitud del logro es que la vida media del bosón de Higgs se estima en «algo menos» de un zeptosegundo (10-21 segundos), lo que significa que se desplaza menos de una milmillonésima de centímetro antes de desintegrarse [565].
Para la mayoría de nosotros es difícil concebir estas dimensiones, pero el descubrimiento del bosón de Higgs es importante por varias razones. En primer lugar, completa nuestro entendimiento de la realidad cotidiana. «Este es un imponente logro en la historia intelectual de la humanidad», en palabras de Sean Carroll. Por otro lado, el hecho de que el descubrimiento se haya realizado significa que, tal vez, la era de la ciencia del Big Bang no se haya acabado. Ahora que el bosón de Higgs es una pieza verificada del esquema, y ahora que el modelo estándar de la física está más o menos completo, hemos llegado al fin de una era de unificación, pero nos hallamos en el umbral de una nueva era.
La razón de ello es que el bosón de Higgs podría ser la puerta de entrada a la comprensión de la materia oscura. Y la materia oscura y la energía oscura son prueba de que el modelo estándar es insuficiente.
Cuando Max Planck comenzó a estudiar física en 1875, fue advertido de que ese campo del conocimiento estaba prácticamente completo y que no podía esperar ningún descubrimiento extraordinario. A los pocos años, él mismo había identificado el cuanto, se había aislado el electrón, se había descubierto la radiactividad y se había concebido la relatividad. Aunque ninguna de estas ideas trascendentales nacieron del interés por explotar sus posibilidades prácticas o comerciales, no tardaron en transformar nuestras vidas tanto como otros descubrimientos anteriores, si no más.
Hay quienes dudan de la naturaleza de la materia oscura, quienes dicen que podría ser como el flogisto o como el éter luminífero de tiempos pretéritos, más imaginado que real. Más aún son los que piensan que, como ni siquiera el GCH ha permitido hallar indicios que respalden esa idea, proseguir con la búsqueda sería demasiado caro. He ahí la medida de la importancia y el dilema que plantea el bosón de Higgs. Como ahora creemos que en el universo hay más materia oscura que de cualquier otro tipo, y que el bosón de Higgs podría ser el vehículo que nos permitiese explorar lo que es, quizá el sueño de Weinberg de una unificación final se encuentre mucho más cerca. Sin embargo, ¿a qué precio?
Aún más problemático, tal vez a largo plazo, sea lo que plantean dos científicos destacados, Joseph Silk y George Ellis. A finales de 2014, ambos argumentaron en Nature que «algunos científicos» parecen haber «dejado a un lado explícitamente» la necesidad de confirmar experimentalmente nuestras teorías más ambiciosas, «siempre que esas teorías sean lo bastante elegantes y explicativas». Se quejan, además, de que nos encontramos al final de una era, «rompiendo con siglos de tradición filosófica», de definir el conocimiento científico como empírico.
A este respecto, parte del problema radica en el propio modelo estándar, que pese a las «glorias de su confirmación» (en particular, el descubrimiento del bosón del Higgs), es también un callejón sin salida. Y lo es porque no ofrece ningún camino futuro que pueda llevar a unir el mundo cuántico y la relatividad de Einstein. Los físicos, como Silk, Ellis y otros han señalado, se han esforzado por superar el modelo estándar, muy especialmente con la idea de la supersimetría, que postula partículas compañeras de cada una de las partículas que conocemos. Esta teoría es elegante matemáticamente y podría explicar la materia oscura. El problema es que todavía no se han hallado partículas supersimétricas. Ni siquiera una.
Esto no es un desafío directo al Gran Colisionador de Hadrones pero, prosigue el argumento, si la falta de éxito se prolonga durante mucho más tiempo, ¿cuál será la respuesta? Muchos físicos llegarán a la conclusión de que la supersimetría es una bonita idea, pero solo eso. El riesgo, como Silk, Ellis y quienes piensan como ellos argumentan, es que otros simplemente «reajusten» sus modelos «para predecir partículas supersimétricas con masa fuera del alcance del poder de detección del GCH». Para esos teóricos, la elegancia está por encima de la confirmación empírica. Y también ellos se preguntan cuánto tiempo tendrían que esperar para obtener esa confirmación empírica. Se tardó medio siglo en detectar el bosón de Higgs. A medida que aumentan los costes de la física, ¿cuánto tiempo de espera podemos permitirnos [566] ? Puede discernirse una sensación de crisis.

La gran frustración
O tal vez dilema sea mejor palabra. El problema de un proceso como la convergencia, que es una idea poderosa, es que presupone un punto final definitivo. La convergencia se está produciendo en todos los campos, como este libro pretende poner de manifiesto, pero ahora el problema de la física es que podría resultar demasiado caro construir los equipos que podrían (solo podrían) producir esa convergencia definitiva. Es eso lo que llamamos «la gran frustración».

Capítulo 18
El orden espontáneo: la arquitectura de las moléculas, nuevos patrones en la evolución y la emergencia de la biología cuántica

En el capítulo 10 vimos cómo Georges Gaylord Simpson, en su libro This View of Life, remarcaba que la idea de Bacon de la unidad de la naturaleza y los intentos de Einstein por conseguir la unificación de los conceptos científicos «en forma de principios de creciente generalidad» habían sido, en muy gran medida, «valiosos y fructíferos». Pero a continuación insistía en que la biología ofrecía la oportunidad de añadir a nuestro marco de comprensión un principio adicional y muy distinto. Además de la reducción (la explicación en términos de principios físicos, químicos y mecánicos), la biología, «que es más complicada que la física», nos invita a introducir un segundo tipo de explicación, que llamó composicionista. Necesitamos entender las estructuras no solamente en términos reduccionistas sino también en términos de la utilidad adaptativa de esas estructuras y procesos para el organismo completo y para la especie a la que pertenece. Y, además, en términos de la función ecológica que esta desempeña en las comunidades de las que forma parte [567].
Su siguiente proposición, relacionada con esta, era, como se recordará, que en la escala que va de las partículas subatómicas a las comunidades multiespecíficas, «en algún lugar de esa escala [se produce] una marcada dicotomía» al nivel de la biología molecular. En su opinión esto, y la organización del organismo, constituían el hecho crucial, central, de la ciencia a partir de aquel momento. En tanto que evolucionista, a Gaylord Simpson le preocupaba poner énfasis en una visión adaptativa, no ya de la ciencia, sino también de la historia e incluso de la filosofía. Un enfoque reduccionista, decía, tenía su propio sentido; por ejemplo, las cadenas tróficas pueden explicarse en cierto modo por los enzimas que median las propiedades químicas y físicas subyacentes, y esos enzimas vienen especificados en el ADN, y el ADN, naturalmente, es una molécula hecha de átomos. Pero esta no puede ser nunca una explicación completa porque no permite hacer predicciones, y además no tiene en cuenta el contexto adaptativo en el que un animal vive y se reproduce [568]. Como se recordará, creía que era igualmente esencial para nuestra comprensión insistir en que los «enzimas del león» digieren la carne de la cebra porque eso permite que el león sobreviva. Aceptaba que los descubrimientos de la genética estaban haciendo más profundo el conocimiento reduccionista, pero insistía en que los descubrimientos paleontológicos hacían más profundo el conocimiento composicionista [569]. Ambos enfoques eran igual de necesarios.

La doctrina de la emergencia
El punto de vista de Gaylord Simpson estaba bien expresado, pero no era el primero que lo hacía. En su libro The Nature of the Physical World [La naturaleza del mundo físico], publicado un poco antes, en 1928, Arthur Eddington introdujo una distinción entre leyes de la naturaleza primarias y secundarias. «Las leyes primarias», argumentaba, controlan el comportamiento de partículas simples, mientras que las «leyes secundarias» se aplican a colecciones de átomos o moléculas. «Insistir en leyes secundarias equivale a resaltar que la descripción de comportamientos elementales no es suficiente para entender un sistema como un todo [570] ».
Esta es la idea que desarrolló Ernest Nagel, uno de varios emigrantes austro-húngaros a los Estados Unidos, cuya obra maestra, publicada en 1961, fue La estructura de la ciencia [571]. En ella exploraba las ideas de Eddington de la ciencia primaria y la ciencia secundaria, y argumentaba que algunas áreas de la ciencia eran reducibles a otras, pero no todas. Defendía, asimismo, la idea de que el reduccionismo, en sus momentos de mayor éxito, había conducido a nuevos descubrimientos («relaciones de dependencia íntimas y a menudo sorprendentes»), que la reducción puede ser un «progreso significativo» en la organización del conocimiento o no pasar de ser un ejercicio formal, y que el objetivo del reduccionismo era proveer de «mayor potencia» a la investigación significativa [572].
Pero su principal interés era la doctrina de la emergencia, que sostiene que hay en la naturaleza niveles de organización superiores «que no se pueden predecir a partir de las propiedades que se hallan a niveles “inferiores”» y que «el futuro no dejará de traernos novedades impredecibles» [573]. La «evolución emergente» era, en su opinión, el descubrimiento más importante de la ciencia; el hecho de que, por ejemplo, «el agua es transparente» no se puede deducir de ningún conjunto de enunciados sobre el hidrógeno y el oxígeno. «Está en la esencia de la evolución emergente que nada nuevo se añade desde fuera, que la “emergencia” es consecuencia de nuevos tipos de relaciones entre existentes» [574]. Nadie, por ejemplo, al predecir que nitrógeno e hidrógeno se combinan formando amoníaco (si es que se puede predecir) podría prever su característico olor. Las leyes de la naturaleza, decía, ejercen una fascinación inagotable, y no en poca medida por el hecho de que, por lo que sabemos, evolucionaron simultáneamente. Pero entonces, históricamente hablando, ¿cómo se relaciona una ley con otra? ¿Cuál es la ley, si es que hay alguna, que subyace a una melodía?
Su idea básica era que habitamos en lo que denominaba «un espacio matemáticamente continuo» que algún día serviría para explicar leyes, partículas y entidades macroscópicas [575]. (Conviene comparar esta idea con las de David Bohm que hemos comentado en el capítulo 17).
Este enfoque, que se centra en la emergencia y la organización espontánea, ganó popularidad y prestigio durante las últimas décadas del siglo XX, a medida que las matemáticas se fueron aplicando a los procesos biológicos, y estaba asociado, al menos en principio, con dos conocidos físicos, ambos galardonados con el premio Nobel.
El primero es Philip Warren Anderson. Premio Nobel de Física, catedrático en Cambridge y Princeton, Anderson publicó un artículo muy influyente en Science en 1972 con el título «Más es diferente». Comenzaba diciendo que «todos debemos comenzar con el reduccionismo, que acepto plenamente… La hipótesis reduccionista puede ser todavía un tema controvertido entre los filósofos, pero entre la mayoría de los científicos creo que no se cuestiona». Pero entonces introduce un concepto que esencialmente se erige sobre el punto de vista «composicionista» de Simpson y se ha hecho cada vez más popular. Se trata de su idea de la «emergencia», el proceso por el cual, en los sistemas complejos, la simple simetría de las partículas elementales se rompe, y el reduccionismo tiene que reemplazarse por lo que él prefería denominar «constructivismo», la idea de que hay en la naturaleza reglas (leyes) de la complejidad que, aunque nunca violan las leyes de la física de partículas, añaden nuevas leyes de construcción que son de todo punto tan fundamentales como las leyes más simples que gobiernan a los electrones y los fotones, por ejemplo. A medida que ascendemos por la jerarquía de las ciencias, «esperamos encontrar… a cada paso preguntas muy fundamentales sobre cómo encajar unas piezas menos complicadas en un sistema más complicado y entender los tipos de comportamiento básicamente nuevos que de ello resultan» [576]. Tanto la superconductividad como la biología molecular están entre los temas que citaba como ejemplos.
En este nuevo contexto, la superconductividad adquiría un nuevo significado. Se sabía desde hacía tiempo que, por ejemplo, existe una diferencia cualitativa entre agua y hielo. En un cristal, las moléculas se ordenan en una retícula regular que se sostiene por las fuerzas entre ellas. Ese orden de largo alcance no está presente en un líquido. Del mismo modo, en un grano de níquel magnetizado, por usar el ejemplo de John Taylor, los átomos individuales son como imanes diminutos y a bajas temperaturas los imanes atómicos se alinean todos del mismo modo, de modo que sus efectos se suman y el conjunto se convierte en un imán macroscópico. Sin embargo, si se calienta el níquel, la magnetización comienza a reducirse hasta que a 631 K cae a cero. En un tercer caso, cuando la temperatura de los metales se reduce hasta un nivel crítico, se manifiesta la superconductividad: la resistencia eléctrica desaparece totalmente y las corrientes eléctricas, una vez iniciadas, persisten indefinidamente [577]. Se han construido tecnologías enteras sobre la base de estos fenómenos, pero aquí su significación estriba en el hecho de que muestran orden espontáneo.

«Los aspectos evolutivos de la naturaleza tienen que expresarse en las leyes de la física»
El segundo premio Nobel que abrazó este punto de vista y lo amplió considerablemente fue Ilya Prigogine, con la ayuda de Isabelle Stengers. En una serie de libros, entre ellos Order Out of Chaos [Orden a partir del caos] (1984) y El fin de las certidumbres (1997), Prigogine, de los debidamente llamados Institutos Internacionales Solvay de Física y Química, en Bruselas, y galardonado en 1977 con el premio Nobel por sus investigaciones sobre la termodinámica de los sistemas fuera de equilibrio, expuso su opinión de que vivimos en una nueva era científica. Una era de complejidad, decía, en la cual las leyes de la naturaleza en el rango de las bajas energías (es decir, el de la física, química y biología macroscópicas, el ámbito en el que se desarrolla la existencia humana) necesitan ser reconfiguradas, o entendidas de otro modo. «Necesitamos una nueva formulación de las leyes fundamentales de la física».
En particular, aceptaba que «los aspectos evolutivos de la naturaleza tienen que expresarse en las leyes básicas de la física». Sin embargo, el elemento central de todo esto, decía, es que la naturaleza implica tanto procesos reversibles en el tiempo como procesos irreversibles en el tiempo, «pero es justo afirmar que los procesos irreversibles son la norma y los reversibles la excepción» [578]. Así pues, desde su punto de vista, la nueva unificación que necesitamos es entre la dinámica (que en esencia es la mecánica newtoniana) y la termodinámica, que, como ya vimos en el capítulo 1, incluye el fenómeno fundamental de la entropía, que está relacionado con el tiempo y es irreversible. El hombre que primero comprendió esto, en opinión de Prigogine, fue Ludwig Boltzmann, cuya identificación del carácter estadístico de la naturaleza encarna la nueva actitud: la «flecha del tiempo» penetra en todo.
Tanto Boltzmann como Darwin, observaba Prigogine, reemplazaron el estudio de individuos por el estudio de poblaciones «y demostraron que ligeras variaciones… que se produzcan durante un largo periodo de tiempo pueden generar evolución a nivel colectivo». La evolución biológica no puede definirse a nivel individual, decía, y también este es un aspecto esencial. «Vivimos en un mundo de múltiples fluctuaciones que son las manifestaciones macroscópicas de propiedades fundamentales de las fluctuaciones que surgen en el nivel microscópico de los sistemas dinámicos inestables». De este modo, decía, «la biología y la física comienzan a converger» [579].
La termodinámica de sistemas fuera del equilibrio se produce de un modo probabilístico, como Boltzmann (y Maxwell) comprendieron originariamente, y eso garantiza que sean irreversibles. Lo que era nuevo, lo que Prigogine señalaba tal vez más claramente que Eddington, Simpson o Anderson, es que estos procesos conducen a una autoorganización espontánea, lo que explica, y refleja, tanto la unidad como la diversidad de la naturaleza. El mantenimiento de la organización en la naturaleza no se alcanza (no puede alcanzarse) mediante una gestión central: «El orden solo puede mantenerse por autoorganización» [580]. Por eso la naturaleza es a un tiempo ordenada y diversa.
Pese a que en ciertos sentidos se estaban acercando, la diferencia esencial entre la física y la biología es que los organismos y procesos biológicos expresan mucha más complejidad. Comprender esto es lo que, decía Prigogine, había abierto un nuevo capítulo en la matemática y la física teórica: el estudio del caos y la complejidad, donde lo importante es que «aunque el problema del caos no puede resolverse al nivel de las trayectorias individuales, puede resolverse al nivel de agregados» [581]. Insistía en que hay nuevas propiedades de la materia en situaciones alejadas del equilibrio en las que aparecen «estructuras disipativas» y autoorganización. (Los organismos vivos son estructuras disipativas, que solo pueden mantener un equilibrio captando nuevas fuentes de energía, como el alimento).
Para valorar todo esto plenamente, necesitamos sumergirnos en la «caoplejidad», una síntesis de caos y complejidad. En 1987, en Caos: la creación de una ciencia, James Gleick presentó esta nueva área de actividad intelectual al público general. La investigación sobre el caos parte del concepto de que hay muchos fenómenos en el mundo que, como dicen los matemáticos, son no lineales, lo que significa que en principio son impredecibles. El más famoso de estos es el llamado «efecto mariposa», que dice que una mariposa que bata sus alas en el Medio Oeste americano, por ejemplo, puede desencadenar toda una cascada de eventos que podría culminar en un monzón en el Lejano Oriente.
Un segundo aspecto de la teoría es el de la propiedad «emergente», que se refiere a que, como también decía Prigogine, en la Tierra hay fenómenos que «no pueden predecirse, o entenderse, examinando solamente las partes del sistema». La conciencia es un buen ejemplo, pues incluso si puede entenderse (lo cual es discutible), no puede, dicen los críticos, entenderse a partir de una inspección de las neuronas y las sustancias químicas del cerebro. No obstante, esto solo es parte de lo que dicen los científicos del caos. También argumentan que la llegada de la computación nos permite realizar matemáticas más potentes que nunca, y que con el tiempo podremos modelar (y por tanto simular) sistemas complejos, como las moléculas grandes, las redes neuronales, el crecimiento de la población o los patrones del clima. En otras palabras, podremos revelar el orden que subyace al aparente caos [582].
La idea básica de la caoplejidad se la debemos a Benoit Mandelbrot, un judío polaco que con once años, en 1936, escapó a Francia con sus padres. Después de la guerra, Benoit se formó como matemático aplicado en IBM, donde identificó lo que él llamó «fractales», del latín fractus, que significa «quebrado». (Su libro, La geometría fractal de la naturaleza, salió a la luz en 1982). El fractal perfecto, o «conjunto de Mandelbrot» (uno de los más sorprendentes descubrimientos de las matemáticas, a decir de Arthur C. Clarke, el escritor de ciencia ficción), es una línea de costa, pero hay otros, como los copos de nieve o los árboles. Cuanto más de cerca se mira, más intrincado es el dibujo, a menudo con patrones que se repiten a distintas escalas. Por ejemplo, el conocido contorno en forma de bota de Italia, visto desde un avión a doce mil metros de altitud, es a un tiempo distinto y el mismo que el contorno visto desde un avión a cinco mil metros de altura. Como estos contornos nunca se resuelven en líneas suaves, o dicho de otro modo, nunca se ajustan a una función matemática simple, Mandelbrot lo calificó de «los objetos más complejos de la matemática». Por otro lado, resulta que unas reglas matemáticas simples, ejecutadas por un programa informático, pueden generar, al cabo de muchas generaciones, patrones complicados, que nunca se repiten a sí mismos. A partir de aquí, y de su observación de fractales en la naturaleza, los matemáticos infieren que hay en la naturaleza algunas reglas muy potentes que rigen sistemas aparentemente caóticos y complejos, y que todavía están por revelar. (Algo que se puede comparar con el trabajo de Stephen Wolfram, capítulo 17).
Sin embargo, y esto es lo que realmente interesó a Prigogine, y luego a muchos otros, cuando nos desplazamos de unas condiciones de equilibrio a otras muy alejadas del equilibrio, nos movemos de lo repetitivo y universal a lo específico y único. «Cerca del equilibrio la materia se comporta de forma “repetitiva”. En cambio, lejos del equilibrio aparecen diversos mecanismos… podemos presenciar la aparición de relojes químicos, reacciones químicas que se comportan de una forma rítmica y coherente. También podemos presenciar procesos de autoorganización que llevan a la formación de estructuras no homogéneas y cristales fuera del equilibrio [583] ».
Dos ejemplos simples bastarán para recalcar el fenómeno. El primero se refiere a la llamada «inestabilidad de Rayleigh-Bénard», que se produce cuando se calienta un líquido. Al principio se calienta la parte inferior y se establece un flujo permanente de calor que se mueve del fondo a la superficie. Cuando este gradiente traspasa un umbral, el estado de reposo del fluido (el estado estacionario en el que el calor se transmite solo por conducción, sin convección) se torna inestable, y se produce una convección que corresponde al movimiento coherente de agregados de moléculas, incrementándose la tasa de transferencia de calor. El movimiento de convección que se produce corresponde en realidad a una compleja organización espacial del sistema. Millones de moléculas se mueven de forma coherente, formando células de convección hexagonales de un tamaño característico [584]. Un segundo ejemplo es la reacción de Beloúsov-Zhabotinsky (o B-Z), que recibe su nombre de Boris Beloúsov y Anatol Zhabotinsky, pero fue mejorada por Art Winfree y Jack Cohen. Si cuatro sustancias químicas determinadas se mezclan en unas proporciones precisas en un disco de poco grosor, al principio forman un capa azul uniforme. Sin embargo, de forma súbita, esta adquiere un color marrón-rojizo y al cabo de un tiempo, sin razón aparente, se forman unos pequeños lunares azules. Cuando estos crecen, su centro se torna rojo. A medida que lo que ahora son círculos azules se expanden, la mancha roja del interior también lo hace, y dentro aparecen de nuevo unos lunares, esta vez azules. Pronto el disco entero está lleno de anillos concéntricos de rojo y azul, todos expandiéndose lentamente y chocando unos con otros. En ciertas condiciones, la reacción B-Z puede producir también espirales, pero lo importante, lo que tuvo tanta influencia, es el orden espontáneo que se genera automáticamente en una materia inorgánica [585]. [xliv] Los diseños de la reacción B-Z aparecen reflejados en los patrones que aparecen en colonias de la ameba Dictyostelium discoideum, un moho mucilaginoso que, cuando pierde calor o humedad, se agrega formando un cuerpo multicelular que puede moverse en busca de un ambiente más favorable. La agregación es desencadenada por la liberación de una sustancia especial por ciertas células, conocidas como células «pioneras». Prigogine creía que la vida debía haber comenzado de este modo, mediante la autoorganización de sustancias inorgánicas, para lo que encontraba una razón indirecta en el hecho de que los aproximadamente 15.000 millones de años que nos separan del Big Bang son un periodo «sorprendentemente breve. Para expresarlo en años, podemos concebir la Tierra como un reloj. Quince mil millones de revoluciones es sin duda un número pequeño si recordamos que en el átomo de hidrógeno, el electrón realiza ¡unos 10 billones de rotaciones por segundo!» [586].
Dos personas han llevado este razonamiento más lejos, en una nueva fusión de matemática y biología.

«El moderno renacimiento de la biología matemática»: la matemática como «lenguaje natural»
«La biología», insiste Stuart Kauffman, «es sin duda más difícil que la física». Este científico ha hecho investigaciones diversas en varias instituciones, en Santa Fe, Seattle, Vermont y Oxford, pero en su principal libro, The Origins of Order: Self-Organization and Selection in Evolution [Los orígenes del orden: autoorganización y selección en la evolución], se propone responder a la pregunta: «¿Cuáles son las fuentes del bello y asombroso orden que adorna al mundo vivo?» [587]. Y lo hace desde la perspectiva de la biología matemática, donde Kauffman es, en las palabras de uno de los revisores de su libro, «uno de los pioneros del moderno renacimiento de la biología matemática». (¡Cómo le hubiera gustado a Mary Somerville vivir en este tiempo!) [588]
El orden biológico subyacente, concluye el libro, obedece la primera y la segunda ley de la termodinámica y es de carácter molecular (recordemos que Oppenheim y Putnam, y Gaylord Simpson, habían identificado el nivel molecular como el más crítico en la jerarquía reduccionista). «Su conceptualización descansa firmemente en la física y la química». Las ideas de Kauffman se sitúan en dos áreas principales: la emergencia de orden espontáneo dentro de las células, en particular entre las proteínas, y la «morfología ordenada» de los organismos, que también poseen ciertas reglas arquitectónicas (y, por tanto, matemáticas) inherentes dentro de las cuales ha de operar la selección natural. Aunque esto puede limitar la diversidad de formas, también ayuda a acelerar el proceso evolutivo.
La tesis general de Kauffman es que la selección natural darwiniana es limitada en su capacidad para explicar la diversidad de formas orgánicas que vemos a nuestro alrededor. La selección natural se vio ayudada por las propiedades inherentes físicas y matemáticas de las moléculas, produciendo con el tiempo, según la teoría de la complejidad, un orden complejo y «profundamente inmanente» que todavía no comprendemos [589].
La biología molecular, dice Kauffman, nos lleva al «interior más recóndito» de los mecanismos últimos de la célula, la complejidad y la capacidad de evolucionar. Al propio tiempo, «la matemática, la física, la química y la biología están revelando el enorme alcance de los poderes de autoorganización. En comparaciones filogenéticas de secuencias de aminoácidos de una proteína determinada, vemos que la tasa de evolución es casi constante durante largos periodos de tiempo, hasta tal punto que el proceso de sustitución de aminoácidos se ha calificado de “reloj evolutivo molecular”» [590]. Esta es una notable forma de autoorganización.
El logro de Kauffman no es solo su argumentación, sino el hecho de que relaciona esa argumentación con procesos biofísicos, o fisiológicos, con todo detalle. Por ejemplo, muestra de qué forma el sistema genómico de cualquier célula (diferenciada) de un metazoo superior contiene del orden de 10.000 a 100.000 genes estructurales y reguladores «cuya actividad orquestada constituye el programa de desarrollo que subyace a la ontogenia desde el huevo fecundado». El sistema inmune de los humanos contiene tal vez 100 millones de moléculas de anticuerpos distintas organizadas en «patrones armonizados» y los sistemas neuronales contienen quizá miles de millones de neuronas para evaluar y categorizar el medio interior y exterior. «¿Cómo, debemos preguntarnos, pueden estos fantásticos sistemas emerger simplemente por medio de mutación y selección?». Su mensaje es que «en contra de nuestras más profundas intuiciones, los sistemas masivamente desordenados pueden “cristalizar” de forma espontánea en un elevado grado de orden» [591]. Kauffman aplica la teoría matemática de los sistemas dinámicos, a la que considera el «lenguaje natural» del comportamiento integrado.
Esta teoría es un desarrollo de las ecuaciones diferenciales de Newton que conducen a la emergencia de lo que los matemáticos denominan atractores, en los que el sistema se «congela», y al hacerlo forma grandes agregados conectados que o bien son estables, o bien oscilan de forma regular. Estos atractores son características totalmente naturales de la organización espontánea y constituyen las piezas de construcción de la evolución (véanse más adelante ejemplos concretos).
Pero un logro aún mayor de Kauffman es el de mostrar, también con gran detalle, cómo con la ayuda de la lógica booleana, el concepto de bits, 0 y 1, primero se construyen las moléculas, luego los genes (cómo patrones reconocibles de aminoácidos se reiteran en los genes de distintos animales: erizo de mar, Drosophila, ratón, humano), y cómo se forman las células (la levadura tiene 3 tipos celulares, las medusas de 20 a 30, los humanos adultos, 254). Nos ofrece, por ejemplo, «mapas de destino» de larvas que muestran qué células larvarias acabarán formando qué órganos. Y, por último, nos muestra cómo las células del mapa de destino se ordenan matemáticamente durante la formación de los órganos. En todo momento, se puede demostrar que los procesos se ajustan a principios matemáticos.

Los patrones básicos de la evolución
También Robert Wesson abordó más o menos el mismo problema, el de la extraordinaria complejidad de la evolución, en su libro Beyond Natural Selection [Más allá de la selección natural] (1993 [592] ). Este investigador sénior de la Institución Hoover en Stanford se planteaba dos objetivos en su libro. Uno era mostrar, con un nivel de detalle que resultase convincente, que la selección natural no puede explicar por sí sola toda la diversidad que vemos a nuestro alrededor (como el hecho de que muchos rasgos se contradigan o sean claramente maladaptativos). Y, en segundo lugar, sugerir otra dinámica de la evolución que pudiera reforzar la selección natural.
Wesson, como D’Arcy Wentworth Thompson, creía que los biólogos había saldado demasiado fácilmente el problema de la evolución. «Siempre podemos concebir una ventaja adaptativa plausible para un rasgo observado o supuesto» [593]. Sin embargo, le parecía que no faltaban pruebas contra ciertos aspectos del darwinismo. Algunas familias de plantas (cola de caballo, licopodio, ginkgo) apenas han sufrido modificaciones durante decenas, centenas o miles de años. Los abundantes fósiles ofrecen pocos indicios de cambio gradual. El auge de las aves le parecía notable teniendo en cuenta que el aire ya estaba ocupado por numerosos y «aparentemente eficientes» lagartos voladores y pterosauros. Desconocemos los estadios que llevaron a los peces a dar origen a los anfibios y los primeros animales terrestres aparecen «con cuatro extremidades, cintura pelviana y escapular, costilla y cabeza diferenciada… En unos pocos millones de años, hace más de 320 millones de años, aparecen en el registro de repente una docena de órdenes de anfibios, ninguno de ellos aparentemente ancestral respecto a ningún otro» [594].
Otros ejemplos: las aves vuelan, sin experiencia previa, recorriendo distancias inmensas, a menudo sin puntos de referencia. Así, las crías del cuco bronceado, un mes después de que hayan partido sus padres de Nueva Zelanda, cruzan volando unos 1.900 kilómetros de océano hasta Australia, y luego 1.600 kilómetros más hacia el norte, hasta las islas Salomón y Bismarck. «El viaje parece innecesario, puesto que no hay gran necesidad de huir de un invierno suave… y no está claro por qué los padres les obligan a orientarse por sí mismos» [595]. Se han observado miles de mutaciones de Drosophila, pero la mayoría son triviales o patológicas: ninguna sugiere un órgano nuevo. El mirlo acuático (Cinclus), una pequeña ave que se alimenta de insectos que busca en el fondo de riachuelos, tiene aspecto de ave terrestre. Aunque usa sus alas para nadar, esta ave, igual que la iguana marina, no ha desarrollado pies palmeados. Las numerosas patas de los ciempiés son una mala idea para la locomoción [596]. Las serpientes prácticamente han renunciado al oído, pese a su evidente utilidad. Y ¿por qué las aves no tienen dientes? ¿Por qué los ciervos forman una cornamenta nueva cada año? Las ovejas, los bueyes y los antílopes no lo hacen.
Muchas adaptaciones parecen carecer de sentido (la melena del macho del león, por ejemplo, que le dificulta la persecución de sus presas), mientras que otras son un derroche (los aguacates producen centenares de flores por cada una que madura). Hay muchas especies poligínicas, en las que los machos hacen poco más que inseminar. Y ¿por qué tiene que morir el bambú después de florecer?
Con tantos sinsentidos y derroches, ¿son realmente la evolución y la selección natural los motores eficientes que suponemos?
No es que Wesson dude de la evolución. No lo hace. Solo piensa que a menudo hace las cosas de la forma más difícil y no cree que la selección natural (el mecanismo clásico del darwinismo) sea de ningún modo suficiente para explicar la diversidad que vemos. Su respuesta al dilema es, una vez más, matemática. Wesson cree firmemente que la idea de «atractor», tal como la utilizan Prigogine y Kauffman, era útil, que la información se transmite por medio de los genes de tal modo que de manera natural forma patrones, autoorganización derivada de las propiedades físicas y matemáticas de la materia, «no un plano grande y único, sino un conjunto de muchos planos parcialmente superpuestos». Claramente existe, por ejemplo, una capacidad autodirigida de restauración de un patrón tras una lesión y algunos patrones (algunos atractores) son más fuertes que otros, también de forma muy clara. Y el patrón está antes que las partes. Por ejemplo, el «atractor de seis patas» es más fuerte que el «atractor de cuatro patas». Las seis patas aparecen en muchos millones de especies de insectos de una forma muy similar, mientras que el plan corporal de cuatro extremidades se ha visto modificado de muy distintas maneras en dinosaurios, aves, peces y mamíferos [597].
En otras palabras, la evolución avanza mediante el desarrollo de una serie de «planes básicos», regularidades organizadas de manera espontánea entre las proteínas, y así es como se establecieron los taxones de orden superior. Para subrayar esto, señala que desde principios del Cámbrico (hace 540-480 millones de años) no han aparecido filos nuevos, no ha surgido ninguna clase nueva desde hace al menos 125 millones de años, y ningún orden desde las radiaciones posteriores a la era de los dinosaurios, hace 65 millones de años. «La evolución ha dejado atrás estadios anteriores cuando ha podido producir nuevos filos y nuevas clases [598] ». Los océanos, donde se originó la vida, hace mucho tiempo que no producen innovaciones importantes. Y, a medida que las estructuras han ido evolucionando, las innovaciones más complejas son menos profundas. ¿Es esto una manifestación biológica de la entropía?
En último análisis, incluso nosotros, los humanos, somos una amalgama de biología y matemáticas. Tal como lo expresa Wesson, ni un animal del tamaño de una rata ni uno del tamaño de un elefante habrían podido domeñar el fuego, fundir metales o producir el resto de los requisitos de una civilización tecnológica. La selección natural actuó ayudada por la autoorganización de la materia sobre la base de principios matemáticos y físicos en un grado que a día de hoy apenas comenzamos a comprender.

El paseo cuántico de la clorofila
Como se recordará del capítulo 7, fue Pascual Jordan quien primero pensó en casar la física cuántica con la biología, una idea que discutió con Niels Bohr en Copenhague a principios de la década de 1930. Se recordará también que Jordan se vio involucrado en la insidiosa implicación de la ideología nazi en la ciencia, con la consecuencia de que fue arrinconado después de la segunda guerra mundial.
Hubo de pasar un tiempo antes de que la biología cuántica retomara el vuelo, pero sus logros recibieron cierto reconocimiento en un pequeño congreso sobre el tema celebrado en la Universidad de Surrey en 2012, así como con el establecimiento del proyecto de Modelos y Matemáticas en las Ciencias Biológicas y Sociales, que comenzó en 2010 en la Universidad de Surrey [599].
Jim Al-Khalili y Johnjoe McFadden, en su libro sobre biología cuántica, fruto del congreso de Surrey, nos instan a considerar que hay tres «estratos» en la realidad. En la capa superior, el mundo visible está lleno de objetos como las manzanas que caen, las balas de cañón, los trenes de vapor o los aeroplanos, «cuyos movimientos quedan descritos por la mecánica newtoniana». Por debajo de esta se encuentra la capa termodinámica de «partículas como bolas de billar», cuyo movimiento es casi del todo aleatorio y es responsable de generar las leyes del «orden a partir del desorden» que rigen el comportamiento de objetos como los motores de vapor. La capa más inferior es la de las partículas fundamentales «gobernadas por leyes cuánticas ordenadas». Las características visibles de la mayoría de los objetos con los que interactuamos parecen descansar sobre las capas newtoniana o termodinámica, «mientras que los organismos vivos tiene raíces que penetran hasta los cimientos cuánticos de la realidad» [600]. También nos dicen que los tres grandes misterios de la ciencia son el origen del universo, el origen de la vida y el origen de la conciencia, y argumentan que la mecánica cuántica está implicada en los tres.
Entre los campos de investigación en los que han sido pioneros los biólogos cuánticos se cuenta el comportamiento de orientación de ciertas aves, insectos y peces migratorios, la explicación de la acción catalítica, la fotosíntesis, los genes y la conciencia. No es una lista carente de ambición para una ciencia tan joven. Nos centraremos en la fotosíntesis y la genética porque los trabajos sobre la conciencia todavía son fundamentalmente especulativos.
Los principales argumentos de los biólogos cuánticos son que, a nivel molecular, muchos procesos biológicos importantes son muy rápidos (del orden de billonésimas de segundo) y están confinados a distancias atómicas muy cortas, justamente las dimensiones en las que la superposición, el entrelazamiento y el efecto de túnel cuántico permiten que se produzcan ciertos procesos que no son posibles en el marco de la mecánica clásica.
Tomemos el caso de la clorofila. Esta sustancia, nos dicen, probablemente sea la segunda molécula más importante de nuestro planeta (la primera es el ADN). Podemos describirla como una estructura bidimensional compuesta por «mallas de pentágonos» hechas fundamentalmente de átomos de carbono y nitrógeno que encierran un átomo central de magnesio y de la que nace una larga cola de átomos de carbono, oxígeno e hidrógeno. El electrón más exterior del átomo de magnesio está débilmente unido al resto (de acuerdo con las leyes orbitales de Bohr y el principio de exclusión de Pauli), de modo que si absorbe un fotón de energía solar, puede saltar hacia la «jaula» de carbono circundante. Simplificando bastante, cuando ocurre esto, el electrón excitado (y ahora sin casa), el «excitón», tiene que transferirse a una unidad molecular de fabricación conocida como centro de reacción, donde el electrón impulsa el fundamental proceso de la fotosíntesis.
Tradicionalmente, el problema para entender este proceso era que los centros de reacción están bastante lejos (en términos de nanómetros) de las moléculas excitadas de clorofila y nadie sabía qué camino seguía el electrón, o cómo «sabía» qué camino tomar. Una teoría sostenía que simplemente hacía un «paseo aleatorio», pero eso parecía poco eficiente en un proceso, el de la fotosíntesis, que por lo demás sí lo es.
La solución al problema la encontró en 2007 un equipo de la Universidad de California. Usando un tipo especial de espectroscopia electrónica (véanse los capítulos 5 y 9), que puede sondear la estructura y dinámica internas de los sistemas moleculares más pequeños, dispararon tres pulsos sucesivos de láser hacia una proteína sintetizada por unos microbios fotosintéticos llamados bacterias verdes del azufre. Los láseres de pulsos descargan su energía en ráfagas muy rápidas y con tasas de repetición muy precisas y, según nos explican Khalili y McFadden, generan una señal de luz que recogen unos detectores. Pueden emitir en un solo segundo unos 2.000 billones de pulsos, lo que implica, y esto es lo importante, un tiempo muchos miles de veces menor que el tiempo que requiere una molécula para realizar una sola rotación de vibración. El equipo examinó un conjunto especial de resultados que correspondían a unos 50-60 femtosegundos (un femtosegundo es una milbillonésima de segundo, o 10-15). Lo que hallaron fue una señal que aumentaba y decrecía y «oscilaba durante al menos seiscientos femtosegundos [601] ». El significado de este resultado tan técnico es que estas oscilaciones son análogas a la interferencia de franjas claras y oscuras en el experimento de dos rendijas que constituye una característica tan propia de la actividad cuántica. En otras palabras, el excitón no seguía un único camino a través del «laberinto de la clorofila», sino que «seguía varias rutas simultáneamente». Por extensión del concepto de paseo aleatorio, este proceso recibió el nombre de paseo cuántico. Desde entonces, se ha observado también en algas y en la espinaca [602].
En el caso de los genes, la actividad cuántica está implicada en un proceso conocido como tautomerización que ya observaron Watson y Crick en su segundo artículo sobre la estructura del ADN, publicado en 1953. En este proceso se produce un movimiento de protones dentro de una molécula (esencialmente entre posiciones alternativas) que puede generar formas mutagénicas de nucleóticos. Los protones que conectan los enlaces de hidrógeno son entidades cuánticas (tanto partículas como ondas) y pueden moverse en direcciones opuestas. Si resultan estar en la forma tautomérica en el momento de la reproducción, entonces, por medio del efecto de túnel cuántico, se pueden superar los diferenciales de energía que normalmente existen de manera natural, lo que significa que, por ejemplo, una molécula de timina se podría aparear con una guanina (lo que en términos clásicos es imposible), produciendo una mutación. Esto aún no se ha observado de manera directa, pero sí indirecta. En un estudio de genes específicos de levadura, de ratón y de humanos, se encontró que cuando la información genética se transcribía de ADN a ARN, en preparación para la síntesis de proteínas, los genes que se «leen» con mayor frecuencia (y «leer» es una forma de medición que, como nos enseña la teoría cuántica, «interfiere» con los cuantos que se están midiendo) mutan más a menudo, hasta treinta veces más. Estas investigaciones son muy recientes pero parecen apuntar a que la mutación genética podría ser también un proceso cuántico.
La emergencia de la biología cuántica, pese a lo reciente que es, representa en cierto sentido el clímax de la ruta que hemos seguido a lo largo de todo este libro. Si los procesos cuánticos modelan la mutación, este podría ser un modo en que la energía impulsa directamente la evolución y los dos grandes hilos con los que comenzamos han terminado por unirse.

* * * *

Una cosa está clara. Sea o no la biología más compleja que la física, lo cierto es que es muy compleja. Más aún, estos avances recientes de la biología prometen una mayor convergencia que enriquecerá a la teoría evolutiva. Si se confirma la naturaleza cuántica de la mutación, nos ayudará a explicar el origen de la diversidad, que es lo que hace posible la evolución. En un sentido muy real, la evolución se habrá convertido en un proceso cuántico. Y las investigaciones matemáticas sobre el orden espontáneo, en particular el ejemplo del atractor, muestran de qué modo la evolución se ha visto facilitada (y acelerada) por procesos organizados de manera natural que la llevaron a producir niveles de diversidad que algunos dudaban que se pudieran conseguir en el tiempo transcurrido.
En conjunto, lo que esto significa es que podríamos encontrarnos a las puertas de la más importante revisión del darwinismo desde que en 1859 vio la luz la idea original de la selección natural. Este es un buen ejemplo de cómo el reduccionismo (la convergencia) suscita nuevos campos de indagación y nos lleva a nuevos niveles de comprensión. El vínculo entre los procesos cuánticos y la teoría de la evolución sería la mayor convergencia que nadie pudiera esperar.

Capítulo 19
El origen biológico de las artes, la física y la filosofía, la física de la sociedad, la neurología y la naturaleza humana

He aquí una lista tan fascinante como provocadora. Los lenguajes del mundo varían en el grado con el que utilizan términos de colores, pero lo hacen con un orden. Los lenguajes que solo tienen dos términos para los colores, los utilizan para distinguir el blanco del negro. Los que solo tienen tres términos tienen palabras para negro, blanco y rojo. Los que tienen cuatro, tienen palabras para negro, blanco, rojo y verde o amarillo. Los que solo tienen cinco términos tienen palabras para negro, blanco, rojo, verde y amarillo. Los que solo tienen seis términos, tienen palabras para negro, blanco, rojo, verde, amarillo y azul.
Edward O. Wilson, el sociobiólogo que conocimos en el capítulo 13, produce esta lista en su libro de 1998, Consilience: la unidad del conocimiento [603]. Lo que nos quería decir es que si los términos para los colores básicos se combinasen al azar, los vocabularios humanos se extraerían «sin orden ni concierto» de un conjunto de combinaciones matemáticas formado por 2.036 casos, cuando en realidad los estudios muestran que en su mayor parte los vocabularios escogen solamente entre veintidós casos.
Este es un aspecto menor (pero llamativo) del argumento general de Wilson, que «los genes atan corto a la cultura» [604]. Es un argumento discutido en algunos círculos, pero Wilson intenta presentarlo en un contexto más amplio, y nos sirve de introducción a este último capítulo. Si las ciencias han convergido durante los últimos dos siglos, y dados los éxitos de la ciencia en general, y del método reduccionista, ¿debe sorprendernos que intenten atraer al resto de la actividad humana hacia su esfera?
«La mayor empresa de la mente —dice Wilson en el mismo libro— ha sido y será siempre intentar vincular las ciencias y las humanidades [605] ». Además, la filosofía, «la contemplación de lo desconocido, es un dominio en recesión. Compartimos el fin de convertir tanto como sea posible la filosofía en ciencia». No es arrogancia. Durante las dos últimas generaciones, dice, «casi se ha abandonado del todo el ideal de la unidad del conocimiento que nos legaron el Renacimiento y la Ilustración», con el resultado de que las ciencias sociales han reemplazado en muchos lugares a las humanidades [606].
Lejos de condenarlo, Wilson se dispone a mostrarnos cómo el orden revelado por las ciencias puede ayudarnos a explicar y enriquecer la cultura y la apreciación de la cultura. Las sociedades, dice, se ordenan alrededor de seis principios sociobiológicos (a los que ya aludimos en el capítulo 13):selección de parentesco, inversión parental,estrategia de apareamiento, estatus, expansión y defensa territorialy acuerdo contractual. Sobre esta base, reconoce cuatro «puentes» entre la ciencia natural y la ciencia social: neurociencia cognitiva, genética conductual humana, biología evolutiva y ciencias ambientales. Por medio de estos intermediarios, añade, se ha producido una coevolución gen-cultura y es en este aspecto, por encima de todo, donde los humanos difieren del resto de los animales [607].
A lo largo del tiempo, estos intermediarios han promovido la emergencia de universales o cuasiuniversales en la evolución de la cultura. Las artes, sostiene Wilson, están «enfocadas de manera innata» hacia ciertas formas y temas pero, por lo demás, están «libremente construidas» [608]. Y va mucho más lejos cuando afirma que «las artes no han sido modeladas únicamente por genios errantes nacidos de circunstancias históricas y experiencias personales idiosincrásicas. Las raíces de la inspiración se remontan muy atrás en la historia, hasta los orígenes genéticos del cerebro humano, y son permanentes». Más aún, «las metáforas, las consecuencias de la creciente activación del cerebro durante el desarrollo, son las piezas de construcción del pensamiento creativo». Los primeros templos se erigieron como metáforas de montañas, ríos, animales. Estudios sobre las pinturas de mayor éxito revelan que son las imágenes que con mayor probabilidad excitan la actividad en un EEG del cerebro. El arte imita, intensifica y «geometriza», en bien de la claridad. El arte «se mantiene fiel a las antiguas normas fundamentales hereditarias que definen la estética humana» [609].
Incluso en la ficción, dice, vemos un pequeño número de «arquetipos» básicos que han evolucionado bajo normas epigenéticas y que podemos reconocer por su reiterada aparición en la narrativa:Lo que engendró las artes fue la necesidad de «imponer orden sobre la confusión causada por la inteligencia» [610]. Los antiguos buscaban el modo de expresar y controlar (a veces por medio de la magia) la pasmosa profusión de su entorno. Y las artes todavía satisfacen esta «función primigenia».
El origen biológico de las artes, aunque solo sea una hipótesis de trabajo (dice Wilson), viene respaldada por el hecho de que, por ejemplo, Hollywood funciona bien en Singapur, o de que también africanos y asiáticos, no solo europeos, ganen premios Nobel de Literatura: los temas cuasiuniversales son precisamente eso, casi universales. Por la misma razón, la actividad de excitación cerebral es especialmente alta cuando a los sujetos se les muestran pictogramas de lenguas asiáticas, glifos de los antiguos egipcios o de los mayas, y fotografías de lo que la mayoría consideraría mujeres hermosas. A juzgar por ello, parece que existe una biología de la belleza.
Mucha gente dirá que eso es craso, que lleva la ciencia demasiado lejos, a ámbitos a los que no pertenece. Pero Wilson insiste en que todavía vivimos en un mundo paleolítico, emocionalmente, y que el vínculo entre las ciencias naturales y las sociales, cada vez más estrecho, ofrece la forma mejor, la única incluso, de progresar y revitalizar las artes. Ya no basta con la teología, concluye, y la filosofía no ofrece «ningún sustituto prometedor. Sus intrincadas reflexiones y su timidez profesional han llevado a la cultura moderna a una quiebra de significación» [611].

«La moralidad, una rama de la ciencia aún por desarrollar»
El mayor estudio de hermanos gays, publicado en febrero de 2014, descubrió que dos regiones del genoma (una área del cromosoma X llamada Xq28 y una segunda en un recoveco del centro del cromosoma 8, conocida como 8q12) proporcionaban el indicio más fuerte hasta el momento de que la orientación sexual de los hombres se determina biológicamente. En un experimento muy distinto, se halló que algunos monos (por ejemplos, los capuchinos y los chimpancés, pero no tanto los macacos Rhesus y menos los micos nocturnos), además de los humanos, renuncian a una parte de una recompensa y se la ceden a un compañero si iguala la recompensa total y preserva la cooperación [612].
Puesto que todavía hay lugares en el mundo donde la homosexualidad es un delito, el primer resultado podría ayudar a modificar actitudes. El segundo experimento podría ser un indicio de la evolución de un sentido de la justicia. Ambos son importantes para nuestra comprensión de la moralidad y prueban una vez más que la ciencia extiende su alcance de varias e importantes maneras, acercando distintos aspectos de la actividad humana.
Sam Harris, el filósofo y neurocientífico estadounidense, dio a su libro de 2010, The Moral Landscape [El paisaje moral], el subtítulo «Cómo puede la ciencia determinar los valores humanos». Su argumento era que el significado de moralidad y «el gran propósito de la vida» son en realidad preguntas sobre el bienestar de unos seres conscientes. Así pues, los valores «se traducen en hechos susceptibles de ser entendidos científicamente… Del mismo modo que no existe una física cristiana, o un álgebra musulmana, veremos que no existe una moralidad cristiana o musulmana. En verdad, sostengo que la moralidad debería considerarse una rama poco desarrollada de la ciencia». Afirmaba que la ciencia «se ocupará cada vez más de las preguntas más profundas de la vida», lo que llamaba «el paisaje moral» del florecimiento humano, cuyos picos corresponden a las alturas del bienestar potencial y cuyos valles representan el mayor sufrimiento posible [613].
Aunque admite que es demasiado pronto para tener una plena comprensión de cómo florecen las personas, insiste en que comienza a emerger una explicación fragmentaria. Sabemos, por ejemplo, que existe una conexión entre las experiencias de la infancia temprana y la capacidad de una persona para establecer relaciones sanas más tarde en su vida (capítulo 13). Y sabemos que las relaciones de cuidado y afecto están relacionadas con ciertas sustancias del cerebro (como veremos más adelante en este mismo capítulo).
Estos argumentos nos permiten decir, concluye Harris, que la bondad se puede definir no como afirma una religión o filosofía particular, sino como un conjunto de actitudes, elecciones y comportamientos que potencialmente afectan a nuestro bienestar y al de otras mentes conscientes. Mirad a vuestro alrededor, nos dice, y veréis que algunas personas llevan vidas mejores que otras y que esas diferencias están relacionadas de una forma ordenada «y no del todo arbitraria, con estados del cerebro humano, y con los estados del mundo». Esto es todo lo que necesitamos como punto de partida, dice, lo que lo lleva a afirmar que hay respuestas correctas e incorrectas a las preguntas morales igual que hay respuestas correctas e incorrectas a las preguntas de la física, «y esas respuestas pueden caer algún día dentro del alcance de las ciencias de la mente, cada vez más maduras». La conciencia humana es el único dominio inteligible de valor, y «bienestar» es todo lo que de una manera inteligible podemos valorar. Es ahí donde debemos centrar nuestras actividades e inquietudes [614].
A la hora de seguir este enfoque, cree que nada hay más importante que la cooperación humana, y que un conocimiento pleno de nuestra evolución moral, de la que son ingredientes principales la selección de parentesco, el altruismo recíproco y la selección sexual (todas ellas áreas de la sociología), ayuda a explicar cómo hemos evolucionado para ser cada uno no «un simple yo atomizado, esclavo de su interés en sí mismo, sino un yo social dispuesto a servir con otros al interés común».
Esto significa que nuestra propia felicidad requiere que extendamos el círculo de nuestro interés personal hacia otros, a la familia y amigos e incluso a perfectos extraños cuyos placeres y penas nos importan. Sabemos esto, dice, en parte porque es fácil observar una jerarquía moral en las sociedades humanas. Muchas tribus «primitivas» son en realidad salvajes y en ellas la crueldad y la desconfianza, por ejemplo, son más manifiestas que en sociedades evolucionadas. Nos hace ver cómo las sociedades más justas e igualitarias (Suecia, Noruega, Holanda) se caracterizan por tener menos violencia (robos y violaciones), menos crimen, mayor esperanza de vida y menor mortalidad infantil, menos corrupción y más caridad hacia las naciones más pobres. Estas tendencias y correlaciones no son arbitrarias [615].
Harris da una lista de las regiones del cerebro implicadas en la cognición moral (la corteza prefrontal y los lóbulos temporales) y argumenta que los estudios de neuroimagen muestran que la cooperación está asociada con un incremento de la actividad en el sistema de recompensa del cerebro. Y explica que los estudios del cerebro mediante IRMf muestran que las mismas áreas están implicadas, del mismo modo, cuando se cree en una ecuación matemática (frente a poner en duda otra) y cuando se cree en una proposición ética (frente a poner en duda otra). Esto, asevera, nos muestra que no existe una diferencia real entre la objetividad y el desapego científicos y los juicios de valor. Nuestro bienestar no depende de la religión, sino de la interacción entre «lo que ocurre en nuestro cerebro y lo que ocurre en el mundo» y cuanto mejor entendamos esta interacción, más tenderemos a producir vidas que merecen, más que otras, ser vividas [616].

La química del cariño
Donde Harris seguía un enfoque muy general, Patricia Churchland, una neurofilósofa canadiense-estadounidense, realiza un análisis más enfocado. En su libro Braintrust: What Neuroscience Tells Us About Morality [Cerebro de confianza: qué nos dice la neurociencia sobre la moralidad], uno de sus puntos de partida es la «pesadilla» (su palabra) que supone evaluar cuestiones morales enfrentadas de manera que se pueda maximizar la felicidad para nosotros y para el mayor número de personas. «Nadie tiene la menor idea de cómo comparar los dolores de cabeza ligeros de millones de personas con las piernas rotas de tres… las necesidades de los dos hijos propios con las de un centenar de niños de Serbia con daños cerebrales a los que no nos une ningún parentesco [617] ». Afirma a continuación que la moralidad comienza con la evolución y la teoría del apego, la cual, por supuesto, no está desvinculada de la evolución.
La familia es la «placa base» de la sociabilidad humana, dice, y el cuidado de la familia, la confianza en ella, es el fundamento de esa sociabilidad. La moralidad, desde este punto de vista, gira esencialmente en torno a mantener la sociabilidad en el contexto más amplio posible. La familia nos enseña cómo y en quién confiar, y la experiencia nos enseña cómo ampliar esa confianza (a parientes y, fuera de ese círculo, a compañeros de los diversos grupos a los que pertenecemos, y aún más allá, por ejemplo, a socios de negocios, rivales potenciales y competidores).
Desde una perspectiva psicológica, la moralidad es un esquema con cuatro dimensiones para el comportamiento social que se va modelando por medio de procesos entrelazados: el cuidado y atención a los demás, el reconocimiento de los estados psicológicos de los otros, la resolución de problemas en un contexto social y el aprendizaje de prácticas sociales. Según esta hipótesis, dice, los valores son más importantes que las normas [618].
Pero ¿cómo se manifiesta eso en las neuronas? Su respuesta se centra sobre todo en una descripción de la acción de dos neuropéptidos del cerebro, la oxitocina y la arginina vasopresina. Junto a otras hormonas, afectan nuestro comportamiento social, en particular nuestro comportamiento «maternalizante», pues hacen que las madres se preocupen y cuiden de sus hijos y el resto de nosotros confiemos en los demás. De paso, nos explica cómo evolucionó este comportamiento, haciendo énfasis en una «versión anterior» a la oxitocina y la vasopresina, la vasotocina, que desempeña un papel en el comportamiento de apareamiento de los anfibios. Mediante un proceso similar, otra sustancia química, la naloxona, que bloquea los receptores opioides, tiene en los monos el efecto de tornarlos indiferentes a sus bebés.
Los receptores para estas sustancias se encuentran en áreas muy específicas del cerebro y desempeñan un papel en el comportamiento social y, cuando son deficientes, tienen efectos perniciosos sobre el comportamiento [619]. Lo que Churchland nos quiere decir es que «el comportamiento social y el comportamiento moral parecen formar parte del mismo abanico de acciones». En juegos de laboratorio de rivalidad y cooperación económica, los sujetos que recibían oxitocina por vía nasal antes de los juegos exhibían un comportamiento más confiado (mayor cooperación) que los rivales que no habían recibido el tratamiento. En otros casos, la administración de oxitocina reducía los niveles de miedo y ansiedad en situaciones sociales y, en determinadas circunstancias (sobre todo entre los hombres), ayudaba a los sujetos a evaluar lo que pasaba por la mente de otras personas [620]. Aún en otros experimentos, los neurocientíficos han puesto de manifiesto que unos niveles reducidos de serotonina se correlacionan con un aumento del rechazo de ofertas «injustas» en un juego de transacciones y que, una vez más, esos episodios se producen en áreas específicas del cerebro.
Otros de los experimentos que describe Churchland muestran que sin darnos cuenta imitamos a las personas que admiramos, que los bebés se sienten atraídos de forma innata hacia personas parecidas, y que cuando las personas están con otras en las que confían, sus niveles de oxitocina aumentan. Concluye Churchland que la moralidad (nuestros valores), se forma a partir de la experiencia familiar, mediada por una serie de sustancias que podemos identificar y que actúan en áreas específicas del cerebro. Esta explicación altamente reduccionista no es completa, como ella misma admite. Pero socava la idea de que la moralidad provenga de Dios o de cualquier otra filosofía no evolutiva.

La física de la sociedad
¿Es posible que podamos concebir algo parecido al «análisis matemático de la sociedad»? El escritor científico Philip Ball se lo pregunta en su libro de 2004, Masa crítica: cambio, caos y complejidad, en el que parte de la observación de que la física ha llegado a tener la confianza, «tal vez incluso la arrogancia», de aventurarse en las ciencias sociales. Nadie se ha lanzado deliberadamente a construir un física de la sociedad, dice. «Lo que ocurre es que los físicos se han dado cuenta de que disponen de herramientas que pueden aplicarse a esta nueva tarea [621] ». Considera entonces diversos fenómenos: el comportamiento de las personas en las multitudes, los movimientos del tráfico, los mercados de valores, el crimen, las interacciones en los vecindarios, las reglas matemáticas que gobiernan el crecimiento de las ciudades, la expansión de las enfermedades e incluso el matrimonio.
Ball encontró un buen número de ejemplos de organización espontánea. Por ejemplo, cuando la gente camina por un pasillo en direcciones opuestas tiende a organizarse espontáneamente en flujos opuestos, lo que reduce la necesidad de maniobras de último segundo para evitar colisiones. Cuando en medio del camino hay árboles u otros objetos, la gente los usa de manera espontánea como hitos de separación, aunque no se especifique nada. En una situación peligrosa, como un incendio en un club nocturno, la gente, llevada por el pánico, corre hacia las salidas, lo que en realidad incrementa el tiempo necesario para vaciar la habitación. Las simulaciones numéricas demuestran que si la gente se mueve a una velocidad moderada (menos de un metro por segundo), se puede evacuar el local de forma ordenada. A velocidades mayores, la gente se agolpa y la fricción cobra protagonismo; trabados hombro con hombro, la gente «no consigue atravesar la puerta aunque la tengan abierta enfrente» [622]. Curiosamente, lo mismo pasa en un salero, aunque ninguno de los granos sea mayor que el agujero.
En cuanto al tráfico, la física estadística nos puede ayudar a entender cómo se mueven los vehículos y cómo se forman los atascos. La física de gases y fluidos también es útil, y se ha demostrado que existen semejanzas entre la forma en que se desarrollan los movimientos del tráfico y el crecimiento bacteriano [623]. Aunque esto no vaya a resolver los problemas de un día para otro, ayuda a tomar medidas de seguridad y predecir mejor los embotellamientos.
Los conductores se supone que comparten ciertas características generales que resultan ser de la mayor importancia. En una carretera despejada, aceleran hasta la velocidad preferida, frenan para mantener una distancia de seguridad con el vehículo de enfrente, que depende de la velocidad, y tienen respuestas imperfectas que hacen más probable la sobrerreacción. Esto tiene que combinarse entonces con la identificación de tres estados de flujo de tráfico, de manera muy parecida a la dinámica de fluidos: flujo libre (gas), denso (líquido) y atasco (sólido). Los factores cruciales en el flujo del tráfico son la velocidad y la densidad. A medida que aumenta la densidad del tráfico, el flujo puede mantenerse si los conductores, de manera colectiva, deciden arriesgarse a mantener su velocidad a medida que el tráfico aumenta, como si todos llevasen activado el control automático de velocidad de crucero. Pero este estado es frágil, del tipo que los físicos denominan «metaestable», un estado que pueden presentar tanto los gases como los líquidos o los sólidos. Por ejemplo, un líquido puede enfriarse por debajo de su punto de congelación sin que se torne sólido. Pasa por la habitual transición de fase, se torna metaestable, y entonces se dice que está superenfriado. Pero si se produce la menor perturbación, se congela de sopetón. Otra de las semejanzas con la física es que la metaestabilidad se alcanza en un solo sentido. Se puede llegar a un estado de flujo libre aumentando la densidad del tráfico desde valores bajos (menores velocidades), pero no reduciéndola desde valores altos. Lo mismo ocurre en los líquidos: se puede obtener agua superfría enfriándola, pero no calentando el hielo.
En el tráfico metaestable, cuando tanto la densidad como la velocidad son relativamente altas, el comportamiento es parecido al de un líquido metaestable: cualquier perturbación puede producir un embotellamiento. La causa suele ser que un conductor frene de improviso, quizá porque piense que está demasiado cerca del vehículo de delante, esté llamando por el móvil o dé paso a un vehículo que se incorpora a la carretera. La más breve perturbación puede destruir el flujo y precipitar la congestión.
De este análisis de la física del flujo surgen un par de posibilidades prácticas. Como la causa principal de que la gente frene de pronto es la incorporación de otros conductores al carril, confinar los vehículos a un solo carril solamente durante las horas punta ayudaría a evitar las perturbaciones y facilitar el flujo. Y sugiere también que el sistema americano, donde se puede ir a cualquier velocidad en cualquiera de los carriles, es mejor que el europeo, en el que los vehículos más lentos se quedan en los carriles «lentos». Como la mayoría de los camiones se quedan en los carriles lentos, los coches que les alcanzan por detrás suelen cambiar de carril. Si, en cambio, se permite a los camiones que circulen por otros carriles, entonces, siempre que mantengan una velocidad constante (y relativamente alta) a satisfacción de los conductores de coches, y suponiendo que cada uno se mantiene en su carril, se obtendrá un flujo rápido [624].
Algo parecido se ha visto con relación al crimen y su mayor o menor tendencia a propagarse e instalarse en un barrio. Es como si los barrios pudieran estar también en estados metaestables en los que cambios súbitos, por ejemplo en las condiciones sociales, o en los regímenes de castigo de los delincuentes, pudieran producir un cambio rápido acompañado de un súbito aumento o disminución de la criminalidad. Ball cita los cambios que se produjeron en la ciudad de Nueva York durante la década de 1990, cuando, en un periodo de cinco años, la tasa de crimen total cayó a la mitad y los asesinatos bajaron en un 64 %. Si la analogía física de la metaestabilidad se puede aplicar aquí, una zona de baja criminalidad con una pequeña localidad que tenga una tasa elevada constituye una amenaza para la sociedad en general. La metaestabilidad en la sociedad es un concepto útil, siempre y cuando pueda identificarse [625].
Una de las conclusiones de Ball converge con las de Patricia Churchland. Cita a William Newmarch, un estadístico británico cuando se dirige a la Sociedad Estadística de Londres en 1860:
El sol y la lluvia hace tiempo que han escapado al control de magos y adivinos, la religión prácticamente ha reducido sus pontífices y sacerdotes a simples ministros con funciones muy circunscritas… y ahora los hombres empiezan a darse cuenta de que todo intento de elaborar o administrar leyes que no se basen en una visión certera de las circunstancias sociales no es más que una impostura en una de sus formas más gigantescas y peligrosas [626].

La matemática y el arte
En una serie de grandes historias culturales, Exploring the Invisible: Art, Science and the Spiritual [Explorando lo invisible: arte, ciencia y lo espiritual] (2002), y Mathematics + Art [matemática + arte] (2015), Lynn Gamwell, de la Escuela de Artes Visuales de Nueva York, ha explorado la influencia de las ideas matemáticas sobre las prácticas artísticas, fijándose en cómo surgieron juntas las matemáticas modernas y el arte abstracto en esferas de influencia fundamentalmente germanas, y argumenta que el idealismo alemán, que condujo al arte abstracto, es en sí mismo una forma de abstracción que dominó el pensamiento alemán durante al menos dos siglos, a partir de la década de 1750. Sostiene que «los colores y formas libres de significado» del primer arte abstracto y la formalidad del constructivismo reflejan las ideas del matemático David Hilbert, en el sentido de que las matemáticas son en sí mismas un sistema autónomo de signos libres de significado. Argumenta que la lógica simbólica elaborada por Gottlob Frege y Bertrand Russell condujo a la filosofía analítica, «que expresaron los escultores Henry Moore y Barbara Hepworth, y los escritores T. S. Eliot y James Joyce». La búsqueda de la simetría (por ejemplo, en los trabajos de Einstein sobre masa y energía) inspiraron a los artistas concretos suizos, liderados por Max Bill, «a crear arte con una sorprendente geometría». Y sostiene que los hallazgos matemáticos de Kurt Gödel, por ejemplo que no puede existir un fundamento sólido de axiomas, comparten terreno con las imágenes paradójicas de René Magritte y M. C. Escher.
Espléndidamente ilustrado y fruto de una cuidadosa investigación, uno no puede por menos que apreciar sus argumentaciones [627].

La neurofilosofía y la metafísica anticuada: la matemática de los músculos
Ya no creemos en los demonios, los cuatro humores, el flogisto, la fuerza vital o el éter luminífero. Son anticuados conceptos precientíficos que la ciencia ha rechazado para siempre. ¿Podemos aplicar el mismo razonamiento a nuestra comprensión de la naturaleza humana? Muchas personas así lo creen y este es un campo que ha crecido con la convergencia de dos disciplinas distintas: la filosofía y la neurología.
La idea básica es que nuestra comprensión tradicional, basada en el sentido común, de la mente, de la naturaleza humana, nuestra «psicología popular», es precientífica y lleva 2.500 años estancada. Por esta razón, incluso las categorías en las que pensamos (estados mentales como las creencias o los deseos) son conceptos mal formados, o simplemente no existen, y con el tiempo lograremos explicarlos en términos de procesos neurofisiológicos de bajo nivel. Al fin y al cabo, las antiguas teorías precientíficas de la física popular, la biología popular y la cosmología popular han quedado suplantadas y no hay razón para creer en la psicología popular solo porque haya persistido durante más tiempo. Sabemos que a menudo nuestras intuiciones son erróneas.
El indigesto término que ha recibido este enfoque es «materialismo eliminativo». En su versión más fuerte, sostiene que palabras y conceptos como «intención», «amor» y «conciencia» no hacen referencia a nada real y acabarán siendo sustituidas gracias a los progresos de la neurociencia. En parte, este nuevo enfoque interdisciplinario ha llevado a algunos filósofos a examinar a fondo la neurología y explorar si su experiencia en las distintas aproximaciones al pensamiento se puede combinar con los últimos hallazgos de la ciencia del cerebro, para llevarnos aún más lejos.
En cierto sentido, parte de este proceso se podría haber incluido en el capítulo 16 porque los filósofos nos han ofrecido algunas de las exposiciones más claras de la investigación sobre el cerebro, enseñándonos cómo varios aspectos de la psicología se han endurecido en el seno de la neurología. Por ejemplo, en un libro anterior a Braintrust titulado Neurophilosophy: Toward a Unified Science of the Mind-Brain [Neurofilosofía: hacia una ciencia unificada de la mente-cerebro], la misma Patricia Churchland nos ofrece una explicación clara de las investigaciones de Andras Pellionisz y Rodolfo Llinás y su teoría de redes de tensores acerca de cómo las entradas sensoriales en un organismo se convierten en respuesta muscular [628]. Estas investigaciones muestran que, si el patrón de entrada neurológica se modela como un tipo de vector (matemático) y el movimiento muscular como otro tipo, se encuentra una relación matemática entre ellos que puede calcularse (esta función es lo que los matemáticos denominan tensor ). En un segundo ejemplo, Churchland explica que las investigaciones sobre la visión en los anfibios han revelado que la red de neuronas de entrada conforma un mapa o malla más o menos bidimensional que se superpone, literalmente, a un mapa o malla más o menos coexistente que estimula movimientos musculares. Los vínculos entre ellos permiten que los organismos respondan en relación con el espacio [629].
Todo esto hay que ponerlo al lado de las abundantes investigaciones que muestran los cambios que se producen en las sinapsis del cerebro (que crecen o desaparecen) como respuesta a alteraciones en el entorno. El hecho de que las neuronas disparen de un modo binario y que la geometría (aunque muy compleja) constituya ahora una característica de la estructura del cerebro, el hecho de que estas sean entidades matemáticas ofrece confirmación, para los materialistas eliminativos, de que algún día podremos arrumbar la «psicología popular» y avanzar.
Son muchos los que de manera tajante se muestran en desacuerdo con esta premisa y creen que, en realidad, la psicología popular es muy útil y, por añadidura, un sistema de explicación de una eficacia tolerable. Por eso, entre otras cosas, ha sobrevivido.
El debate más intenso se centra en los «qualia», en cómo la cualidad de lo amarillo es representada en las neuronas, o cómo distinguimos el sabor de una ciruela del de una manzana con un número tan limitado de papilas gustativas. Algunos materialistas eliminativos dicen que estos son problemas semánticos que desaparecerán cuando sepamos más. Otros creen que forman parte de un todo complejo acerca del cual todavía no sabemos cómo hablar.
El progreso, si es que se produce, parece ser fragmentario y casual. Pero quizá sea eso lo que cabe esperar. Algunos de los resultados (como los de Pellionisz y Llinás) son fascinantes, y eso ya dice algo.

La filosofía en la era de la ciencia: la naturaleza de la naturaleza humana
Los rápidos y sísmicos progresos que se han producido en la ciencia, y en neurología tanto como en cualquier otro campo, han traído consigo muchos nuevos dilemas políticos, sociales y morales: calentamiento global, contraceptivos fiables, superpoblación, obesidad, sin olvidar las implicaciones de la propia evolución. Pero el dilema en el que culmina la historia que se desenvuelve en este libro, como Patricia Churchland y muchos otros señalan, es la propia naturaleza humana. Ahora que nos acercamos a un tiempo (que tal vez ya hemos alcanzado) en el que podemos interferir en nuestro propio orden biológico, enmendarlo, incluso dirigirlo, ¿adónde nos dirigimos? ¿Qué orden buscamos? ¿Cómo afecta eso (si lo hace) a la ciencia que estamos realizando? Hay cuatro filósofos que cabe destacar como epítomes de quienes más han reflexionado sobre el alcance de la ciencia reciente en cuanto a la comprensión de quiénes somos y de qué modo pensamos: Daniel Dennett, Hilary Putnam, Jonathan Glover y Jürgen Habermas.
Dennett destaca por sus reflexiones sobre el libre albedrío, una cuestión que ha fascinado hasta la obsesión a teólogos y filósofos durante siglos, con nombres tan distinguidos como Descartes, Kant y Schopenhauer, todos los cuales abordaron el problema. La cuestión se ha tornado si cabe más intratable a raíz del éxito de la ciencia porque, en un mundo completamente material en el que se ha demostrado que las piezas básicas de construcción (la física de las partículas y sus interacciones) se comportan de acuerdo con leyes invariantes (las cuatro fuerzas), el «determinismo» parece quedar establecido y, por consiguiente, en teoría, parecería que todo en el universo es, y siempre ha sido, predestinado desde el pistoletazo de salida. Extremadamente complicado, sin duda, pero en cualquier caso inevitable.
El objetivo de Dennett en Freedom Evolves ( La evolución de la libertad), de 2003, es mostrar que el determinismo y la inevitabilidad o fatalismo no son lo mismo en absoluto, y para hacerlo pone el énfasis en cómo ha evolucionado la libertad. Un ave que vuela por el cielo es más libre que una medusa que nada en los estrechos confines de los océanos. Los humanos gozamos de más libertad que una «bacteria químicamente excitada» o una almeja que cierra su concha por reflejo cuando algo la golpea. Los adultos tienen más libertad que los niños pequeños [630].
Como hemos evolucionado hacia unos agentes con conciencia de sí mismos, con capacidad para examinarse, con capacidad para usar lenguajes, los humanos podemos reflexionar de manera consciente y deliberada sobre cursos de acción alternativos antes de escoger entre ellos. Vivimos en sociedades complejas, entre otras personas que son igualmente inteligentes y reflexivas, y nuestro conocimiento de esta igualdad conlleva un sentido moral, una conciencia, que es otro aspecto de la libertad que, por lo que sabemos y observamos, no poseen otros organismos.
Dicho de otro modo, la libertad que (según creemos) poseemos nos ha llegado por un proceso natural. No hay duda de que somos más libres que los animales inferiores, así que el determinismo (y la evolución) ha producido grados diversos de libertad (relativa) y, por consiguiente, ¿debemos preocuparnos por la nuestra? Tal vez no seamos completamente libres (signifique eso lo que signifique), pero somos más libres que otras especies. El fatalismo nos enseña que el esfuerzo humano no cambia nada de lo que pasa, pero vemos con claridad que el esfuerzo a menudo sí produce un efecto. No hay necesidad alguna de «interrumpir» el determinismo, dice Dennett, imaginando «oasis de indeterminación cuántica» que solo podrían producir «espasmos de aleatoriedad, no libertad». En cuanto consideramos los pensamientos y sentimientos humanos como partes que han evolucionado en la naturaleza, se comprende que la naturaleza ha llevado a la evolución de la libertad, que ese es uno de los propósitos evolutivos de los pensamientos y los sentimientos: ayudar a las personas a decidir cuál es su mejor curso de acción [631].
El filósofo (pero también matemático y experto en computación) Hilary Putnam ha explorado un territorio más extenso que Dennett. Lo conocimos en el capítulo 10, al considerar la unidad de la ciencia. En Philosophy in an Age of Science [La filosofía en una edad de la ciencia] (2012), reflexiona, entre muchos otros temas, sobre las implicaciones de la mecánica cuántica, el teorema de Gödel y sus lecciones para la naturaleza humana, el estatus de la ciencia cognitiva y el problema de la clonación.
Putnam es notorio por su cambio de opinión. Esto hace más difícil hacer una presentación breve y precisa de su posición, pero al mismo tiempo es refrescante que un pensador prominente admita tan a menudo en público que sus antiguos puntos de vista eran erróneos. Probablemente refleje la condición humana más fielmente de lo que la mayoría de nosotros estamos dispuestos a admitir [632].
El estudio filosófico de la ciencia, nos dice, combina el estudio de la naturaleza «y algunas de la limitaciones de la razón humana» [633]. Le preocupa si nuestros «estados mentales» son «simplemente nuestros estados computacionales (implícitamente definidos por un “programa” que nuestros cerebros “ejecutan” de manera innata)», que la analogía del software no logra captar nuestras intenciones o nuestras intuiciones, y si alguna vez se podrá identificar la verdad en «condiciones epistémicamente ideales», pues ello podría implicar una «indagación científica infinitamente prolongada» que haría inalcanzable ese ideal [634]. «La verdad podría estar un paso más allá de lo que podemos verificar». También le preocupan las afirmaciones del filósofo de Oxford John Lucas y de Roger Penrose, el físico matemático también de Oxford, en el sentido de que, en esencia, el teorema de Gödel, referido a los «procesos no computacionales» (procesos que, en principio, no pueden ser realizados por una computadora digital, aunque su espacio de memoria fuese infinito), implica que nuestro cerebro no puede ser idéntico a nuestra mente, «y que, en consecuencia, nuestra mente es inmaterial» [635].
Putman también se implicó mucho en discusiones sobre mecánica cuántica, en particular sobre hasta qué punto nuestros instrumentos de medida limitan lo que sabemos y hasta qué punto ese límite se encuentra en nuestro intelecto. Le parecía que, desde la revolución cuántica, algunos científicos se han apresurado a aceptar que la mente humana ha alcanzado su límite con la extrañeza cuántica, que esencialmente está más allá de nuestro entendimiento. Muchos físicos adoptan el punto de vista de que ya es suficiente que podamos usar la teoría cuántica para hacer predicciones que luego sean confirmadas experimentalmente (como de hecho ha ocurrido, y con enorme precisión, como hemos visto en el capítulo 11). Pero a Putnam no le bastaba con eso. Estaba de acuerdo con Einstein cuando decía que las teorías físicas no son simples sistemas formales que producen predicciones, sino que tenemos que comprender por qué funcionan las predicciones y cuál es la realidad subyacente. En opinión de Putnam, mientras aquello que denomina el mundo microobservable funcione sobre la base de unos principios distintos de los que rigen el mundo macroobservable, algo nos queda por comprender. La función de onda de la dualidad onda-partícula, por ejemplo, es esencialmente una entidad matemática. ¿En qué sentido podemos decir que existe? ¿Qué significado puede tener que hagamos afirmaciones sobre no-observables que no se aplican a observables? A Putnam le parecía que entender la mecánica cuántica de un modo incompatible con el realismo científico era problemático [636].
De igual modo, ¿qué significa decir, como arguyen algunos filósofos, que los microobservables no existen hasta que son medidos, mientras que los macroobservables retienen valores bien definidos en todo momento? (Cita a Einstein cuando, la única ocasión en que se encontraron, le dijo que no creía que su cama desapareciera, o cambiara de forma o medidas, al minuto de dejar la habitación). Al fin y al cabo, medir microobservables es cierto tipo de interacción entre un microobservable y un macroobservable. Putnam se plantea la pregunta, no del todo retórica, de si en el mundo cuántico el principio de conservación de la energía se viola, pero a un nivel demasiado pequeño como para ser observado [637]. Argumenta que no existe una distinción absoluta entre hecho y valor, ni siquiera en la ciencia. Tenemos que saber qué hechos y observaciones podemos considerar fiables, y eso depende de nuestra experiencia y de nuestros juicios razonables [638].
Como tantos filósofos interesados en la ciencia, Putnam quedó fascinado e intrigado por el anuncio hecho en febrero de 1997 por Ian Wilmut y colaboradores del Instituto Roslin de Edimburgo de que habían conseguido clonar una oveja, «Dolly». Lo que más preocupaba a Putnam, naturalmente, era la posibilidad de la clonación humana, puesto que no parecía haber ningún principio moral tradicional que guiase a las personas sobre qué hacer. Representaba, sin duda, una oportunidad para las parejas infértiles de explorar una nueva manera de concebir un hijo, pero era la oportunidad que ofrecía a las personas fértiles de «diseñar» a sus hijos lo que, creía, más preocupación, incluso miedo, provocaba en la gente. Pensaba que la dignidad de ser humano quedaría mermada por la clonación y que, como también decía Patricia Churchland, las familias naturales son imágenes morales sobre las que se fundamenta la sociedad, y esa imagen debía ser diversa e «inesperada» para ser plenamente autónoma y digna. Creía que la posibilidad de la clonación introducía un nuevo derecho humano: «El “derecho” a que cada recién nacido sea una completa sorpresa para sus padres» [639].

¿Qué tipo de personas debería haber? Lo que crece y lo que se hace
La posibilidad de que, al menos en teoría, podamos crear personas «según pedido», de que podamos «jugar a ser Dios» con respecto a las generaciones futuras, fue abordado también por el filósofo de Oxford Jonathan Glover en dos libros, What Sort of People Should There Be? [¿Qué tipo de personas debería haber?], y Choosing Children: Genes, Disability and Design [Niños a elección: Genes, discapacidad y diseño [640] ].
Dicho rápido y mal, las principales preguntas eran: ¿debemos intentar alterar la composición genética de las generaciones futuras?, ¿hasta dónde debemos llegar? y ¿quién tomaría las decisiones? Pero Glover mostró que las preguntas no se acababan aquí. Aunque muchas personas consideraban (y siguen considerando) errónea la idea de intervenir de este modo, Putnam nos recordó que llevamos muchos años interviniendo en las vidas humanas a través de la investigación médica, los programas contra la pobreza, los regímenes fiscales y diversas formas de eugenesia. Y aunque muchas personas aprobarían el uso de la investigación sobre el ADN para eliminar discapacidades de la población, esto mismo plantea la pregunta de hasta qué punto la discapacidad es una deficiencia. Cita a este respecto el caso de una pareja de lesbianas, ambas sordas, que decidieron usar esperma de un hombre con sordera congénita para que su hijo fuese sordo. ¿Qué actitud debemos adoptar ante algo así? ¿Contraviene eso el orden «natural»?
El filósofo alemán Jürgen Habermas también se ocupó de estas cuestiones. En su libro El futuro de la naturaleza humana (2002), anticipó lo que llamó nuevas formas de «vida dañada» que podríamos estar a punto de infligir sobre nosotros mismos. Nos advierte de que podríamos estar cruzando una línea con profundas implicaciones para nuestra comprensión de la libertad, y que eso requiere una resolución filosófica, y no técnico-científica-psiquiátrica [641].
En el futuro, los niños de una generación serán dotados por otra generación (la de sus padres) de características irrevocables. Y se pregunta, ¿qué efecto tendrá esto sobre la comprensión personal de uno mismo, del sentido de ser? Para Habermas, esta nueva tecnología difumina la frontera entre «lo que crece» y «lo que se hace», entre el azar y la elección, que son ingredientes esenciales de lo que somos, de quienes sentimos que somos. Para Habermas, si se permite que estos procesos continúen, las generaciones futuras pueden convertirse en cosas antes que seres. En sus palabras, se verá comprometida la ética de «ser plenamente uno mismo» [642].
Para Habermas, esto no solo supone una amenaza a nuestro esencial «sentido de ser», sino también a nuestra capacidad para vernos a nosotros mismos igualmente libres y autónomos, a la idea de la «universalidad antropológica», que el hombre es el mismo en todos los lugares. Para Habermas, la evolución de la especie es cosa de la naturaleza. Intervenir en este proceso como poco marca una nueva época en la historia de la humanidad, y posiblemente algo peor. La evolución, insiste, no debería ser un ejercicio de bricolaje, por bienintencionados que sean los padres [643].
Su preocupación era que una intervención así se convirtiera nada menos que en una tercera «descentralización» de nuestra cosmovisión, tras Copérnico y Darwin, de manera que el sentido del «yo» de una persona y su comprensión del «nosotros» quedasen alterados irrevocablemente, con consecuencias incalculables para nuestra vida moral compartida.

La mayor de las innovaciones, el mayor de los dilemas
Estas son grandes preguntas, lo bastante para quitarle el aliento a cualquiera. Y no desaparecen. Nuestro poder para intervenir en nuestra propia evolución es, posiblemente, la mayor de las innovaciones de todos los tiempos, el mayor de los dilemas, porque es también, al menos en teoría, la mayor de las oportunidades. A medida que se vaya precisando la convergencia entre la biología molecular, la biología cuántica, la genética y el comportamiento, a medida que dispongamos de mayor y mejor conocimiento sobre la naturaleza de las enfermedades, aumentarán las oportunidades de mejorar la condición humana.
Algunas decisiones serán más fáciles que otras, o lo parecerán. ¿Qué persona razonable no querría ver un mundo libre de VIH/sida? Aunque, por otro lado, el mundo ya está superpoblado…
Otras decisiones serán mucho más difíciles, y, entre ellas, Jonathan Glover y Jürgen Habermas han destacado algunas de las más inquietantes. Manipular el sentido del yo, por ejemplo, algo que preocupa a Habermas, posiblemente nos preocupe a muchos, si nos parásemos a pensarlo. Pero es aquí donde nos ha llevado la convergencia de las ciencias. En cierto sentido, ha clarificado o nos ha ayudado a replantear algunos de nuestros dilemas morales tradicionales. ¿Qué tipo de personas debería haber en el futuro? ¿Quién hubiera pensado hace tan solo un cuarto de siglo que se pudiera siquiera plantear esta pregunta? ¿Acaso hay un dilema mayor?

Conclusión
Superposiciones, patrones, jerarquías: ¿un orden preexistente?

Dios es amor. El amor es ciego. Ray Charles es ciego. Ray Charles es Dios. Este silogismo entre travieso y malicioso se lo debemos a Robert Laughlin. Catedrático de física en la Universidad de Stanford en California, premio Nobel de Física en 1998, Laughlin es uno de los escritores científicos más sabios e ingeniosos del momento, y sus teorías sobre la naturaleza y el sentido de la ciencia son tan profundas como, a menudo, divertidas. En 2005 publicó un importante libro, cuyo desmedido y disparatado título, A Different Universe: Reinventing Physics from the Bottom Down [Un universo diferente: la reinvención de la física en la Edad de la Emergencia], no le hace justicia. Aparte de su colección de chistes ingeniosos y jugosas anécdotas, presentaba un rompedor argumento muy pertinente para la historia que este libro ha ido deshilando, y en especial para la pregunta de adónde nos dirigimos ahora. De paso, Laughlin se despacha a gusto con algunas de las ideas más queridas de los científicos del siglo XXI. (La teoría de las cuerdas es el estudio de la materia «imaginaria», construida a partir de objetos extensos, no de partículas puntuales, «como hasta el día de hoy la experimentación ha mostrado que son». Las teorías sobre el origen del universo en el Big Bang son «inherentemente no falsables», pese a los muy publicitados «indicios» en su apoyo [las comillas son suyas], como la radiación cósmica de fondo de microondas) [644]. Pero antes de ocuparnos de Laughlin como se merece, por así decirlo, debemos situarnos en el contexto.
El tema de este libro es la gran convergencia, las crecientes interconexiones entre las diversas ciencias y la historia entrelazada, entretejida y coherente que todas juntas nos explican. Por el camino, hemos mencionado varios de los principales personajes que han puesto de manifiesto solpamientos y coincidencias intrigantes e instructivas entre distintas disciplinas, que han descubierto patrones y jerarquías en lugares sorprendentes. Alguno, como Mary Somerville, Hermann von Helmholtz, Albert Einstein, Erwin Schrödinger, Otto Neurath, Rudolf Carnap, Hilary Putnam, Philip Warren Anderson, Edward O. Wilson, Ilya Prigogine, Abdus Salam, Stuart Kauffman o Steven Weinberg, han explorado las implicaciones de estas interconexiones, la forma que podría tener cualquier unidad final y qué podría significar. Estos personajes son todos conocidos como reduccionistas, como hemos visto, y el enfoque que representan, conviene recordarlo, se denomina reduccionismo.
Llegados a este punto, es importante decir que, en los últimos años, desde las décadas de 1970 y 1980, pero sobre todo durante la década de 1990, ha proliferado un movimiento contrario. Estaba formado fundamentalmente por filósofos, historiadores, sociólogos e incluso unos pocos especialistas en computación, pero no tanto por científicos. Este bando asevera que el reduccionismo es casi un pecado, que las ciencias nunca constituirán un único proyecto unificado, que, en realidad, las ciencias son una des unión y que decir lo contrario es «imperialista» y «patriarcal» [645]. Estos individuos se muestran escépticos ante la posibilidad de que haya un orden preexistente en el mundo que nos rodea. Argumentan que el «orden aparente» es en muchos sentidos un artefacto de los métodos que usamos para estudiar el mundo, e insisten en que las ciencias no nos ofrecen ninguna visión privilegiada de cómo funciona «realmente» el mundo. En su lugar, en palabras de un filósofo, existe un «realismo promiscuo» en el mundo, una «conciencia antecedente de diversidad». Hay muchas maneras distintas de entender el mundo observable, y ningún método o explicación goza de precedencia [646].
En un ejemplo famoso se destaca la diferencia entre conejos y liebres, comparando el conocimiento que tiene un cazador de los conejos, que corren a sus madrigueras cuando presienten un peligro, y de las liebres, que se fían de su velocidad para ponerse a salvo de los zorros. Esta, nos dicen, es una diferencia tan «esencial» entre dos especies como lo sería la comprensión evolutiva de su relación. Más aún, es más importante para la supervivencia de los conejos y las liebres que su posición teórica en un árbol evolutivo. No hay ninguna clasificación dada por Dios de «los innumerables y diversos productos del proceso evolutivo»; al contrario, «hay muchas formas plausibles y defendibles de hacerlo», dependiendo de las circunstancias.
Desde este punto de vista, hay grados de esencialismo, dependiendo del propósito y el uso, y se hace notar que, en cualquier caso, no hay muchas divisiones precisas en la biología, lo que pone en tela de juicio, por ejemplo, las especies normales, con tantas semejanzas entre individuos que se deben a circunstancias históricas tanto como a los detalles genéticos evolutivos [647]. La argumentación llega al punto de decir, por ejemplo, que los gatos y las montañas, los perros y los topos existen en «un sentido metafísicamente tan robusto como los electrones y los quarks (suponiendo, claro está, que estos últimos existan)» [648].
Todo lo cual, sostienen, es un reflejo de la «exagerada deferencia» con la que se trata a las ciencias físicas, de acuerdo con una «tremenda exageración de sus logros». Todo está hecho de su propia «sustancia única» y no hay razón para que concedamos «ningún tipo de primacía ontológica a cosas que no están hechas de nada». La reducción ayuda a explicarcómo cierto tipo de cosas ocurren pero no nos ayuda a entender qué hará una cosa compleja [649].
Otro de los argumentos de los desunificadores es que, por ejemplo, la genética molecular es demasiado compleja para permitir una reducción. «El reduccionismo es una condición local de la investigación científica, no una marea irresistible que barre toda la ciencia hacia un patrón cada vez más ordenado». «No podemos elaborar una teoría de los sistemas complejos mediante la suma o agregación de sistemas simples [650] ». La afirmación de que cualquier secuencia de frecuencias génicas puede ajustarse a alguna función es «matemáticamente trivial» y, en cualquier caso, no es posible. «Los estados mentales representan distintos niveles de abstracción a partir de descripciones físicas de estados neurales, de modo que no puede haber una ley de la naturaleza que obtenga unos a partir de los otros [651] ». «Las entidades mentales (si es que lo mental puede siquiera considerarse como “entidades”) no parecen estar hechas de nada». «La relación entre ciencia y metafísica en la filosofía contemporánea suele ser enfermiza. Buena parte de la metafísica contemporánea muestra hacia la ciencia una reverencia casi fetichista [652] ».
Con un espíritu más analista, podemos dividir el antirreduccionismo entre un tipo «blando» y otro «duro». En el tipo blando (Ian Hacking, Richard Creath), se señala, por ejemplo, que no existe ningún vínculo teórico entre, digamos, la electrónica y la antropología cultural, que están demasiado apartados como para constituir una prueba de la unidad de nada. Que aunque las ciencias se unifican de tanto en cuanto en uno u otro aspecto, la unidad de la ciencia es realmente una «preferencia por la coherencia», no un hecho en la ciencia actual. Y que James Clerk Maxwell, el mayor de los unificadores, se refería en realidad a «armonía», no a «unidad» [653]. Suele hacerse referencia en este bando a la tesis de «Poincaré-Duhem-Quine», que dice que es muy difícil argüir que una teoría haya sido falsada basándose en un solo experimento porque suele haber muchas explicaciones alternativas. Los antirreduccionistas blandos argumentan que no existe consenso sobre el método científico (metodológicamente hablando, no está unificada) y que no hay una sola «matriz disciplinar» que determine de manera específica la práctica científica. Señalan también que si bien la unificación puede funcionar hasta cierto punto, también funciona la diversificación. En la biología, por ejemplo, la micro- y la macrobiología se tratan de forma distinta en distintas universidades por razones administrativas. Por último, dicen que la unidad que las matemáticas parecen conferir a las ciencias es espuria porque, como Wittgenstein insistía en decir, la matemática es en sí misma un «batiburrillo», no una sola cosa [654].
Los antirreduccionistas «duros» (John Dupré, Richard Rorty, Peter Galison) usan un lenguaje mucho más implacable. Dupré considera que todos los intentos por privilegiar a la ciencia por encima de todas las otras formas de conocimiento es una especie de cientismo, un término con el que pretende, dice, ser deliberadamente «abusivo». Denuncia el «imperialismo» de la ciencia, la «tiranía» y el «imperialismo causal» de lo microfísico. Rorty abunda sobre este punto, y no haya ninguna diferencia esencial entre las actividades de la química y de la crítica literaria, o entre la biología y la moralidad. Peter Galison argumenta que la física de partículas cambió fundamentalmente en la década de 1960, transformada por la ciencia informática, que creó un nuevo tipo de científico nuclear, «ni un teórico ni un conseguidor de datos, sino un procesador de datos especializado en el uso de computadoras». Por el camino, dice, la computadora dejó de ser una herramienta para convertirse en un sustituto de la propia naturaleza que de manera artificial acerca a científicos que nunca antes habían tenido nada de qué hablar. En este contexto, según un punto de vista, los matemáticos se convirtieron en análogos de mineros de diamantes que «encontraban teoremas extraordinarios en medio de una escoria de observaciones carentes de interés» [655].
Como se ve, los antirreduccionistas duros no dejan pasar una oportunidad para mostrarse rudos con la ciencia y los científicos. Dupré argumenta que la matemática puede servir para conferir una «pátina de respetable complejidad» y que, sin las matemáticas, algunas disciplinas podrían incluso desaparecer [656]. Y por si eso no fuera bastante, añade: «Rechazar todas las formas de reduccionismo, y rechazar la suposición de un nexo causal completo, deja del todo abierta la pregunta de cuánto orden podría haber en el mundo. Podría haber muchos tipos de fenómenos en los que no se pueda hallar ningún tipo de regularidad; e incluso si la hay, queda en duda hasta qué punto es general» [657]. Adopta la tesis de que las leyes podrían ser locales, propias de poblaciones y de sus factores contingentes; por ejemplo, algunas personas no fuman y sin embargo contraen cáncer de pulmón. Desde esta perspectiva, nunca podemos saber, para un caso particular, qué causa algo [658]. Y esto lo lleva a concluir una parte de su argumentación: «Así pues, la insistencia en la unanimidad contextual [que, si se insiste en explicaciones reduccionistas, causa y efecto deberían aplicarse en todo lugar y en todo tiempo, sin excepción] realmente nos lleva a mostrarnos de acuerdo con las compañías de tabaco en que no hay ninguna prueba de que fumar provoque enfermedades». Y, para rematarlo: «Quizá las teorías generales de la sociología, la psicología humana o la meteorología acaben aceptándose. Pero no veo ninguna razón a priori para esperar o incluso desear tales desarrollos» [659].
Se pueden hacer varias observaciones sobre este debate. La primera tiene que ver con su temperatura. Es candente, intemperado, abusivo. ¿Por qué? Se puede entender que ciertos debates científicos sean muy divididos y divisivos. El debate sobre el cambio climático, sin ir más lejos, si el planeta se está calentando y si son o no las acciones humanas la causa de ese calentamiento. Con independencia de los méritos que pueda tener el argumento, es fácil comprender que puede llegar a afectar a las vidas de millones de personas, gente que trabaja en los negocios de los combustibles fósiles, los viajes o el transporte, el turismo, por no mencionar la gente que vive en islas o en regiones costeras de cota baja donde un aumento del nivel del mar supondría una amenaza para sus hogares. El nivel del mar ha subido y bajado en el pasado. Es un debate potencialmente existencial. Lo mismo puede decirse sobre las disputas aparentemente irresolubles sobre raza y cociente intelectual. Los ingresos potenciales de muchas personas, su capacidad para alimentar a sus familias, su autoestima, la experiencia brutalmente desagradable de la discriminación, todo ello puede depender del resultado de este debate, en el que la propia integridad de las medidas es un importante punto de discusión.
Pero ¿la unidad o no de las ciencias acaso tiene la menor influencia sobre la vida de nadie? La historia convergente que explican las ciencias presenta una fantástica coherencia, es la mayor historia jamás contada y encarna tantos deleites como ideas penetrantes. Nos dice quiénes somos, y en muchos sentidos nada hay más importante que eso. Pero ¿influye en nuestras vidas de manera tan directa como el cambio climático, o de forma tan desagradable como las diferencias raciales (si es que hay alguna)? Lo cierto es que no.
Una de las claves para entender la estridencia de este debate se encuentra en el lenguaje que usan algunos de los antirreduccionistas más duros, como cuando hablan del «imperialismo» de la física, de su miedo al imperialismo, de la tiranía de lo microfísico, de que es hegemónica y patriarcal. Estos son términos de abuso familiares en los posmodernistas que critican, en esencia, el pensamiento occidental moderno, y que fundamentalmente beben de un autor francés, Michael Foucault, cuyo mensaje central era que «el poder es omnipresente» en la vida en general y en la vida occidental en particular. Como él mismo decía: «El conocimiento siempre está entrelazado con las relaciones de poder, ambos se refuerzan mutuamente» [660]. O en su máxima más célebre: «El saber es la máscara del poder».
Algunos de los antirreduccionistas admiten que existe «actualmente una rabia» contra la razón, de la que el posmodernismo, cuando constituía una fuerza hacia finales del siglo XX, era parte, y que existe «actualmente una propensión a socavar las ciencias con escepticismo» [661]. John Dupré llega incluso a decir, y en más de una ocasión, que las ciencias son «demasiado inmaduras» para considerarlas unificadas, y que la enorme dificultad que suponen las matemáticas para muchos actúa como obstáculo para entrar en la disciplina que, insiste, «sirve para incrementar los beneficios económicos y de otro tipo de que gozan los miembros de las profesiones científicas» [662].
Dado el veneno que fluye sin barreras de los críticos posmodernos de la ciencia unificada, es poco menos que chocante que acaben llegando a conclusiones tan (no hay otra palabra para describirlas) patéticas. Las ciencias no están unificadas, insisten, sino que «muestran un parecido de familia», se asemejan a una cuerda hecha de hilos más pequeños. Otros dicen que las ciencias están «orquestadas» más que unificadas. La «armonía integrada» es permisible, no la unidad. Uno no puede más que preguntarse a qué venía tanta vituperación y tanto jaleo.
Es del todo cierto que todavía no tenemos, y tal vez nunca tengamos, una explicación causal unificada desde el Big Bang hace 13.800 millones de años hasta el Taj Mahal o Carnegie Hall o el teatro de la ópera de Sídney o el Gran Colisionador de Hadrones. Como tampoco debemos permitir que la búsqueda de la unidad nos hechice, como al parecer hechizó a Einstein hacia el final de su vida, lo que puede llevarnos a identificar vínculos donde no los hay. Pero la narración esbozada en este libro, resultado de descubrimientos científicos con patrones coherentes y entrelazados, coincidentes, jerárquicos, no podría existir si el reduccionismo no fuese cierto a algún nivel amplio y fundamental.
Un problema añadido de la perspectiva antirreduccionista es que continuamente se producen en la ciencia nuevos hallazgos que contradicen abiertamente sus argumentos. Hace ya algún tiempo que sabemos, por ejemplo, que hay fotocélulas en el ojo, comúnmente conocidas como bastones, formadas por capas de membranas y que captan fotones. Sabemos que murciélagos y delfines utilizan una especie de sonar que les permite moverse con la ayuda de ultrasonidos. Sabemos que las vacas y los guisantes tienen un gen casi idéntico, llamado gen de la histona H4. Su código en el ADN ocupa 306 caracteres y en su mayor parte este texto es idéntico en vacas y guisantes, que solo difieren en dos de los 306 caracteres. Las pruebas fósiles indican que el antepasado común de vacas y guisantes vivió hace 1.500 millones de años [663]. Sabemos que la vasotocina, una versión evolutivamente anterior de los neurotransmisores conductuales oxitocina y vasopresina, desempeñaba un papel en el comportamiento de apareamiento de los anfibios. ¿Cómo podemos explicar cualquiera de estos procesos, de muy diversos niveles de complejidad, si no es con la ayuda del reduccionismo? Se han descubierto ocho especies de bacterias que viven solamente de la electricidad. Suelen vivir sobre el sedimento de los lechos oceánicos y demuestran que algunas formas de vida pueden prescindir de los azúcares intermedios y aprovechar la energía en su forma más pura: electrones captados directamente de la superficie de metales.
En el capítulo dedicado al «endurecimiento» de la psicología, explicamos que las imágenes de resonancia magnética funcionan porque ponen de manifiesto el distinto comportamiento de tejidos sanos y enfermos bajo magnetización. Los SQUIDS, o dispositivos superconductores de interferencia cuántica, permiten identificar en el cerebro la localización precisa de tumores cerebrales y las vías eléctricas anómalas asociadas a las arritmias cardíacas y los focos epilépticos (las fuentes localizadas de algunos tipos de ataques epilépticos). Y como respuesta directa a la opinión expresada por John Dupré sobre el tabaco, podemos insistir en el estudio mencionado en el capítulo 16 que muestra que los fumadores desarrollaban la enfermedad de las arterias coronarias o no dependiendo de su genotipo para la lipoproteína lipasa y de su genotipo para la apolipoproteína E4 (APOE4). Su objeción ya ha encontrado respuesta en la ciencia reduccionista.
Luego está el fenómeno, recientemente descrito, de la evolución reductiva, por el que varios parásitos que provocan enfermedades han perdido su anterior complejidad al especializarse a la vida en nichos más simples. Todos ellos retienen estructuras que se acepta que provienen de las mitocondrias y se conocen como hidrogenosomas o mitosomas [664]. En otras palabras, estos organismos han pasado de ser simples a ser complejos y de nuevo a ser más simples, moviéndose en ambos sentidos de la jerarquía reductiva.
Por último, podemos retomar los resultados presentados en mayo de 2015 y mencionados ya en el prefacio, acerca de unos investigadores que insertaron dos pequeños chips de silicio en la corteza parietal posterior de una persona tetrapléjica, un total de 96 microelectrodos que podían registrar la actividad de unas 100 neuronas al mismo tiempo [665]. Como ya comentamos, los investigadores hallaron que podían leer de manera fiable hacia dónde tenía el paciente la intención de mover su brazo izquierdo o derecho. Una neurona incrementaba su actividad cuando el paciente imaginaba que giraba su hombro, y la reducía cuando imaginaba que se tocaba la nariz. El hecho de que este experimento pudiera arrojar luz sobre las intenciones del hombre plantea un auténtico desafío para los antirreduccionistas, que sencillamente se han visto superados por los desarrollos de la ciencia. John Dupré, uno de los antirreduccionistas más duros, dice que las entidades mentales «no parecen estar hechas de nada». ¿Se refiere a esto? ¿De dónde vendría la energía que sustenta tales entidades?
El experimento con el hombre tetrapléjico podría mostrar (si se repite) que sus intenciones (entidades mentales) quedaban reflejadas en los patrones de actividad de tan solo 100 neuronas del cerebro (que contiene 86.000 millones más). Podemos, pues, tras su debida consideración, rechazar los argumentos antirreduccionistas y seguir adelante.

La emergencia de la precisión: ¿La más importante?
Es hora de retornar a Robert Laughlin y lo haremos, primero, a través de Stuart Kauffman, a quien ya conocimos en el capítulo 18. Desde el Instituto Santa Fe, que se dedica enteramente a estudiar los «sistemas adaptativos complejos», Kauffman ha intentado seguir las ideas de Philip Warren Anderson en lo que concierne a la biología molecular. Su tesis básica es que hay en el mundo que nos rodea muchos ejemplos de «orden espontáneo» (capítulo 17), que la física y la matemática de la materia proporcionan, hasta cierto punto, «orden gratis». Esto se acerca, sin ser lo mismo, a decir que en verdad hay un orden preexistente en el mundo, a cierto nivel. La principal aportación de Kauffman, como ya hemos comentado, es el desarrollo de una matemática del orden biológico que parte de su opinión, que ya hemos mencionado, de que la selección natural, por sí sola y en el tiempo de que ha dispuesto, nunca podría explicar la generación de la ingente cantidad de diversidad organizada que vemos a nuestro alrededor. Como ya mencionamos en el capítulo correspondiente, Kauffman sostiene que la vida se originó mediante un proceso de autocatálisis colectiva de estructuras moleculares primarias parecidas a enzimas. Sobre esta base, argumenta que la vida no es un simple fruto de la casualidad, sino que cabe esperarla a partir de los principios del orden espontáneo.
En un libro posterior, Reinventing the Sacred: A New Vision of Science, Reason and Religion [La reinvención de lo sacro: una nueva visión de la ciencia, la razón y la religión], Kauffman argumenta que la emergencia es la idea más importante y radical de la ciencia actual, y que representa además una visión herética que nos ayuda, más allá de los «recién descubiertos» límites del reduccionismo, a explicar «los enseres del universo» [666]. Pero todavía conserva la esperanza en la unificación, aunque sea una nueva unificación. Los principios de la emergencia, dice, «podrían vincular una vez más la materia, la energía y la información en un marco unificado» [667].
Algunos aspectos de esta perspectiva son estimulantes (detectar auténticos solapamientos e interconexiones es placentero por sí mismo, como decía Einstein), pero hay dos problemas. Kauffman se presenta a sí mismo como un hereje en el mundo de la ciencia, pero se siente un poco demasiado satisfecho en su condición de hereje como para serlo de verdad. Los auténticos herejes pasan años en el desierto, no en un instituto bien financiado cerca del desierto de Nuevo México. No es tanto un hereje como un evangelista de lo que ya está emergiendo como nueva ortodoxia. Y lo que es más importante, tal vez su idea de que el descubrimiento del origen de la vida se encuentra «a la vuelta de la esquina» no resulta tan impresionante ahora como a principios de la década de 1990, cuando primero hizo esa afirmación. Además, su matematización de la biología molecular sigue siendo solo eso, en la práctica, una forma de biología teórica que hasta el momento no ha generado aplicaciones ni generalizaciones. (Por ejemplo, su observación de que el número de tipos de células de un organismo es la raíz cuadrada del número de genes es curiosa, pero, hasta el momento, nada más que eso).
Steven Strogatz ha sugerido que muchos aspectos del mundo natural demuestran el orden espontáneo, desde las luciérnagas que realizan sus destellos en concierto por la noche, hasta el aplauso espontáneamente sincronizado en un auditorio, hasta la sincronía menstrual en monjas, presas y compañeras de clase, y tantos otros casos. Y que se producen patrones espontáneos en el tráfico, y que los corazones a veces pierden su sincronicidad, con efectos catastróficos. El orden espontáneo queda, por tanto, establecido, y parece confirmar la aseveración original de Gaylord Simpson y de Anderson de que hay leyes de constructivismo por encima de las leyes de las partículas elementales [668]. Este es un aspecto fundamental.

La era de la emergencia: otro punto de inflexión
¿Y ahora qué?
Como Anderson, Robert Laughlin parte del reduccionismo. «Todos los físicos, en el fondo, son reduccionistas, yo incluido. No deseo impugnar el reduccionismo tanto como establecer el lugar que le corresponde en el gran esquema de las cosas… Todos secretamente ansiamos una teoría definitiva, un conjunto de reglas maestras del que fluya toda verdad, un conjunto maestro de normas de las que pueda seguirse toda la verdad… Nuestra preocupación por las causas últimas confiere a la física un atractivo especial incluso para quienes no son científicos, por mucho que, se mire como se mire, sea técnica y abstrusa… Los físicos suponen que el mundo es preciso y ordenado [669] ». Y prosigue, dejando claro que «el mundo natural está regulado tanto por los fundamentos como por los poderosos principios de organización que se siguen de ellos. Estos principios son trascendentales… Las leyes de la naturaleza que nos importan… emergen a través de una autoorganización colectiva y realmente no requieren conocimiento de sus partes componentes para poder ser comprendidas y aprovechadas [670] ». Esto es lo más importante, cree Laughlin, y, por ello, argumenta que nos encontramos en el fin de una era y que la «frontera» del reduccionismo ha quedado «oficialmente clausurada [671] ».
El mundo natural todavía puede verse como una «jerarquía interdependiente de ascendencias», y, en realidad, es gracias a este estado de cosas «por lo que el mundo es cognoscible». Pero existe un vínculo de la mayor importancia entre precisión, organización y orden. Es parte de un proceso por el que todas las áreas de la vida (la economía no menos que la psicología o la biología cuántica) se están «endureciendo», con lo que quiere significar que se están tornando más exactas y predictivas. La velocidad de la luz en el vacío se conoce hoy en día con una precisión de más de una parte en 10 billones, y los relojes atómicos tienen una precisión de una parte en 100 billones [672].
Incluso las fases de la materia (sólido, líquido, vapor) son fenómenos de organización. La propiedad que apreciamos en cada caso es orden. Y es aquí donde la naturaleza estadística, la incertidumbre, de las partículas elementales se torna más cierta a medida que los fenómenos se hacen más grandes y más complejos, de donde se sigue, y esto es lo importante, que las reglas de lo microscópico pueden ser perfectamente verdaderas y, sin embargo, irrelevantes para los fenómenos macroscópicos [673]. Digámoslo de nuevo: la precisión emergente, que nace de la naturaleza incierta y probabilística de las partículas, puede ser la mayor de todas las emergencias . El vínculo entre la incertidumbre estadística de las partículas elementales y la precisión organizada en un grado fantástico es espontánea: una función del modo en que las moléculas se organizan entre ellas de manera natural.
Laughlin sitúa el punto de inflexión de esta nueva visión de la naturaleza en 1980, cuando el físico alemán Klaus von Klitzing, que a la sazón trabajaba en el Laboratorio de Alto Campo Magnético de Grenoble, descubrió un elevado nivel de reproducibilidad en ciertas mediciones electrónicas. Además, eran estables para un amplio espectro de fuerzas del campo magnético, y halló que producían una resistencia que era combinación de tres constantes fundamentales: e, la carga del electrón; h, la constante de Planck, y c, la velocidad de la luz. Esta convergencia era extraordinaria por sí sola, pero lo realmente importante y lo que atrajo la atención de físicos de todo el mundo fue la extrema y sorprendente precisión y reproducibilidad de las mediciones, su fiabilidad. Las mediciones de resistencia tenían una precisión de una parte en 10.000 millones, lo que equivale a contar el número de habitantes de la Tierra sin equivocarse en un solo. No menos sorprendente era el hecho de que esta notable fiabilidad se desvaneciese del todo si la muestra era demasiado pequeña. Los experimentos llevaron también al descubrimiento de nuevas fases de la materia, una de las cuales llevaba una fracción exacta de la carga de un electrón: e/3. Esto coincidía justamente con la carga de los quarks [674]. Una vez más, convergencia donde nadie esperaba encontrarla, y con unas matemáticas que habrían fascinado a Mary Somerville.

Cómo la naturaleza se organiza a sí misma
Lo esencial de estos experimentos, la razón por la que Laughlin los considera un punto de inflexión, es que muestran que es la organización de entidades fundamentales, su orden, lo que produce nuevas fases que nadie había predicho. Este fue un momento decisivo, dice Laughlin, «en el que la ciencia física pisó con firmeza fuera de la era del reduccionismo y traspasó el umbral hacia la era de la emergencia. La prensa no científica suele describir este cambio como la transición de la era de la física a la era de la biología, pero eso no es del todo correcto. Lo que estamos presenciando es una transformación de una cosmovisión en la que el objetivo de entender la naturaleza rompiéndola en partes cada vez más pequeñas es reemplazada por el objetivo de entender cómo la naturaleza se organiza a sí misma» [675]. El principio de organización (el orden emergente) se manifiesta en superconductores igual que en el sonido o en las propiedades del vacío [676]. Lo mismo puede decirse de las propiedades que se describen en la nanoingeniería. Una vez más, esto se acerca a afirmar que en el mundo hay un orden preexistente. El fenómeno del orden espontáneo es una propiedad íntima de la naturaleza.
A la vista de todo esto, es razonable preguntarse, dice Laughlin, a qué escala empiezan a importar para la vida los principios colectivos de organización. Su respuesta es que hay abundantes indicios circunstanciales que apuntan a que ya a la escala de moléculas individuales de proteínas comienza a manifestarse tanto la emergencia estable como la inestable [677]. Las proteínas son moléculas grandes y para funcionar de manera eficiente requieren algo parecido a la rigidez mecánica, «una propiedad emergente que solo se produce en sistemas de gran tamaño». Y los patrones de plegado de las proteínas, de los que tanto se ha hablado, sugieren que no pueden depender de fuerzas interatómicas, pues tendrían que amoldarse a la ecuaciones del movimiento. Los procesos biológicos a gran escala, como el metabolismo y la expresión génica, dependen de principios colectivos.
Una persona obsesionada con la verdad última, dice Laughlin en otro de sus paréntesis cáusticos, es una persona que pide a gritos que le alivien de la carga del dinero. No obstante, él mismo asistió a un taller interdisciplinario sobre emergencia de todo un día en la Universidad de Stanford, junto a otros asistentes igualmente distinguidos, entre ellos Carl Djerassi, inventor de la píldora anticonceptiva; el conocido cosmólogo Andrei Linde y la antropóloga franco-americana Denise Schmandt-Besserat, cuyas ideas sobre el origen de la escritura en Oriente Medio se acercan a la ortodoxia. Tras abandonarse a las lluvias de ideas, los paseos por las colinas costeras y la ingestión de cajas de vino (¿cajas?), este grupo llegó, entre otras, a la siguiente conclusión: «Emergencia significa crecimiento de una estructura organizativa compleja a partir de reglas simples. Emergencia significa inevitabilidad sobre cómo son ciertas cosas. Emergencia significa impredictibilidad, en el sentido de que sucesos pequeños pueden provocar cambios grandes y cualitativos en sucesos mayores. Emergencia es una ley de la naturaleza a la que los humanos estamos subordinados» [678].
Laughlin no se mostró en desacuerdo con nada de esto, pero lo expresó así: «Las leyes de la física cuántica, las leyes de la química, las leyes del metabolismo y las leyes de los conejos que huyen de los zorros en el patio de mi universidad descienden todas ellas unas de otras, pero las últimas de la lista son al final las únicas que cuentan para el conejo» [679].
Hemos de conceder, aunque sea de mala gana, que Newton no acertó del todo cuando dijo que a la naturaleza le place la simplicidad. Si Putnam y Laughlin y Kauffman y Prigogine y Anderson y Gaylord Simpson tienen razón, hay en la naturaleza una suerte de gran bisagra entre las partículas elementales y las moléculas, sobre todo las orgánicas. Estas últimas se organizan de manera espontánea y de tal modo que parecen tener poco que ver con las propiedades de las propias partículas. Aunque no contravienen esas propiedades, la información que contienen las partículas no afecta al comportamiento y la forma de las moléculas, como sugiere la naturaleza cuántica de la mutación (capítulo 18). Y es esa organización espontánea la que ha dado origen a los diversos (y, sin embargo, relacionados, ordenados) sistemas complejos que comprenden el mundo. Está en la naturaleza de las moléculas, como Schrödinger apuntó primero, que la incertidumbre del mundo cuántico se convierta en la certitud del mundo que se nos manifiesta a los sentidos. Por eso las moléculas orgánicas son tan grandes y están formadas por tantos átomos. Y la organización espontánea, que imbuye toda la naturaleza, es la razón de que exista convergencia y explica su importancia. La convergencia es la prueba del orden espontáneo.

Energía y evolución, de nuevo
Un último paso de la argumentación tiene que ver con la unificación de la materia, la energía y la información que Kauffman desearía ver. Todas las buenas historias deben acabar, en cierto sentido, donde empezaron, y esta no pretende ser distinta.
El principio del final de esta historia (de momento) tuvo lugar en mayo de 2010, cuando un equipo de biólogos japoneses que tomaban muestras del fondo del Pacífico cerca de un volcán llamado Myonjin Knoll, recogieron unos gusanos poliquetos que se aferraban a una surgencia hidrotermal. Estas surgencias submarinas se conocen desde la década de 1970, y fueron todo un descubrimiento para geólogos y oceanógrafos, pero también para biólogos, que no han parado de describir a grandes profundidades extrañas formas de vida que sobreviven a enormes presiones en la más completa oscuridad, muy lejos del sol.
Entre los poliquetos, los biólogos japoneses descubrieron un microorganismo, al que dieron el nombre de Parakaryon myojinensis, muy grande para ser una bacteria y que, tras un examen detallado, resultó ser difícil de clasificar. Más que difícil, imposible. Ellos mismos lo describieron como un «paracariota» para reflejar su sugerencia de que su forma es intermedia entre un procariota y un eucariota (véase el capítulo 12). Para el biólogo británico Nick Lane, el nuevo organismo es aún mucho más interesante, pues observó que poseía una pared celular, un núcleo rodeado de una membrana nuclear y varios endosimbiontes y características internas, y le pareció que podría tratarse de un procariota que hubiera adquirido endosimbiontes y estaba «cambiando hacia una célula que se asemeja a un eucariota, en una especie de recapitulación evolutiva». (La cursiva es añadida) [680].
No es difícil de entender que Lane estuviera tan entusiasmado. Todos los biólogos (y quienes no lo son) están interesados en cómo, dónde y por qué se originó la vida, y en si podría volver a hacerlo, aquí en la Tierra o en otro planeta. Más aún, si la evolución fuera a comenzar de nuevo, ¿seguiría un curso distinto? La idea de que Parakaryon myojinensis estuviera repitiendo una de las transiciones evolutivas más antiguas e importantes era claramente de la mayor importancia [681].
Por desgracia, solo se ha encontrado un único espécimen de P. myojinensis, así no sabemos más de él. Si es tan raro, quizá ya se haya extinguido. (Aunque otro microbio hallado en las turbias profundidades del Atlántico Norte y publicado en mayo de 2015 se asemeja también a una forma de transición, y también a un antepasado de los eucariotas) [682].
No obstante, P. myojinensis también revestía un interés especial para Lance porque él forma parte de un grupo de biólogos que vienen estudiando los orígenes de la vida en una iniciativa de investigación que ha quedado eclipsada por otras áreas de la biología molecular, pero que podría llegar a ser fundamental. Lo que argumenta este grupo es que la visión ortodoxa de que la vida se originó cuando una «sopa» de sustancias químicas fue alcanzada por los rayos, convirtiéndose en materia orgánica (aminoácidos), no se aguanta. El propio Lane ha calculado que solo la evolución de la fotosíntesis «habría requerido cuatro rayos por segundo por cada kilómetro cuadrado de océano… No hay tantos electrones en cada rayo» [683].
Su punto de vista, que comparte con muchos de sus colegas, y que ya se ha estudiado hasta el nivel atómico (antirreduccionistas, tomen nota), y ha sido respaldado por varios experimentos y observaciones, es que la vida en la Tierra comenzó precisamente en las surgencias hidrotermales, a gran profundidad en el océano, en los márgenes de las grandes placas tectónicas, que son las zonas donde la energía (desintegración radiactiva) escapa del centro del planeta en forma de calor. Estas surgencias aparecen en dos formas, fumarolas y respiraderos alcalinos, y pueden formar grandes chimeneas, algunas con el tamaño de un rascacielos de veinte pisos. (Uno descubierto en la dorsal Mesoatlántica en 2000 recibió el apodo de «Ciudad Perdida» a causa de sus enormes chimeneas y torres de carbonato de calcio) [684]. Es en estos respiraderos alcalinos donde Lane y sus colegas creen que se originó la vida.
Esto nos interesa porque, como dice el propio Lane, «la energía es esencial para la evolución» y esto, naturalmente, nos lleva de vuelta adonde empezamos, a las dos grandes teorías unificadoras de la década de 1850. La idea de Lane, que refleja las opiniones de muchos otros colegas, es que el origen de la vida fue impulsado por un flujo de energía, que el fenómeno de los gradientes de protones ocupa un lugar central en la emergencia de las células, y que su uso restringió las formas de los seres vivos. La importancia de los gradientes de protones fue sugerida primero por el excéntrico biólogo británico Peter Mitchell. Es común encontrarlos en la respiración celular, cuando la concentración de protones (H+) es más alta en un lado de una membrana lipídica que en el otro, y funcionan de una forma análoga al agua a un lado de una presa hidráulica, impulsando turbinas que producen electricidad, una forma de energía que Lane llama «proticidad».
La importancia de esto reside en que los océanos de hace 4.000 millones de años eran más ricos en CO2 que en la actualidad, por lo que el agua era ligeramente ácida. De este modo, cuando las soluciones alcalinas de las surgencias se encontraban con la acidez de los océanos, debía producirse de manera natural un gradiente de protones parecido. Además, esto no ocurría solamente en los océanos, sino también en «microporos», minúsculos hoyuelos que se forman en la sustancia de los respiraderos alcalinos [685]. Sabemos que los lípidos forman vesículas de manera espontánea, especialmente si se encuentran confinados en microporos, lo que tal vez nos indique dónde y cómo se formaron las primeras células que respiraban. La geoquímica dio paso a la bioquímica, a la combinación de protones (H +) con CO2, que de otro modo es improbable. También explica que en el corazón de los enzimas respiratorios se encuentre sulfuro de hierro. Tanto el hierro como el sulfuro son comunes en las surgencias y también habrían contribuido a generar gradientes de energía [686].
Lane también nos dice que las primeras bacterias que habrían emergido de este modo no evolucionaron más durante 2.000 millones de años: se mantuvieron simples. El siguiente cambio, como ya comentamos en el capítulo 12, se produjo cuando una célula incorporó a otra en su interior (una endosimbiosis), creando de este modo una célula eucariótica en la que los endosimbiontes se convirtieron en mitocondrias y, con el tiempo, dieron lugar a todas las formas de vida complejas: plantas, animales, hongos, etc. También en este caso, el hecho importante es que las mitocondrias (que están emergiendo como unos orgánulos más importantes de lo que se creía hasta ahora) permitieron a las células eucariotas metabolizar mucha más energía que las procariotas. Según un cálculo, las células eucariotas pueden soportar un genoma 5.000 veces más grande que una bacteria [687]. La complejidad no sería posible sin las mitocondrias, que actúan como «baterías» de las células, proporcionando copiosa energía.
Hay mucho más en esta «revolución copernicana», como se la ha descrito. (Este término, del que tanto se ha abusado, en este caso podría estar justificado). Ahora creemos saber por qué las mitocondrias solo se heredan por vía materna, por qué algunos animales viven más que otros, por qué hay dos sexos y no más, todo lo cual bien podría respaldar la opinión de muchos biólogos de que la idea original de Peter Mitchell del gradiente de protones, por la que recibió el premio Nobel en 1978, es una idea biológica a la altura de las de Einstein, Heisenberg y Schrödinger en la física y es la idea más «contraria a la intuición» que ha visto la biología desde Darwin.
De confirmarse estas ideas, contribuirán también a nuestras ideas de un orden convergente en el mundo. Pero lo básico que hay que recordar sobre el orden biológico histórico es que fue una forma particular de energía lo que dio el pistoletazo de salida a la vida, y una segunda innovación en la bioenergética lo que permitió que se formase y proliferase la vida compleja, tras 2.000 millones de años sin demasiados cambios. Este proceso de bioenergía en dos fases podría llegar a convertirse en la nueva ortodoxia [688].

Un paso adelante en la comprensión del orden
Quizá merezca la pena repetir una vez más que estos procesos biológicos se comprenden hoy al nivel atómico. Los antirreduccionistas tienen razón cuando dicen que no sabemos por qué el mundo adopta la forma que tiene, pero ya no pueden eludir el hecho de que cada vez entendemos mejor cómo funciona el mundo y que los vínculos entre las ciencias crecen de manera inexorable. Las investigaciones de Lane engloban una íntima amalgama de geología, oceanografía, física, química y biología, mucho más de lo que Mary Somerville habría podido siquiera comenzar a imaginar. Además, avalan la observación de Patricia Churchland cuando dice que «es obvio que ya no importa dónde acaba una disciplina y dónde comienza otra».
El «porqué» puede, en cualquier caso, no ser más que una engañosa quimera. La historia contada en estas páginas no es un línea recta, como ya dijimos desde un buen principio, pero es una línea, una narración o explicación que se sostiene, no un mero artefacto de los instrumentos con los que se han hecho las observaciones. La coherencia de la convergencia es demasiado amplia para que eso sea cierto. Hay un orden en nuestro mundo y en cómo llegamos aquí. Y el hecho de que lo hayamos revelado hilo a hilo, sin ideas preconcebidas, lo hace si cabe más extraordinario e interesante.
Y es la convergencia, los solapamientos e interconexiones, los hallazgos unificadores y sus implicaciones, los patrones y las jerarquías, las indicaciones de un orden preexistente, lo que nos mantiene interesados. Por eso los argumentos que discurren de Arthur Eddington, George Gaylord Simpson, Philip Warren Anderson e Ilya Prigogine hasta Stuart Kauffman y Robert Laughlin son tan bienvenidos y tan importantes. La propia idea de amalgamar el orden espontáneo y la autoorganización en el concepto de emergencia significa ni más ni menos que quienes vivimos en estos tiempos experimentamos un cambio cualitativo en nuestra comprensión del orden y del lugar que ocupa en nuestras vidas.
También sabemos ahora que si algún día llegamos a vislumbrar un orden preexistente, los desarrollos recientes nos llevan a pensar que, como dice Stuart Kauffman, ese orden vinculará materia, energía e información. Esa sería la convergencia definitiva.

¿Se «endurecerán» otras ciencias?
Ya hemos visto cómo una de las ciencias «blandas», la psicología, se ha endurecido durante las últimas cinco décadas. Tal vez ahora, con esta nueva perspectiva, algunas de las otras ciencias más blandas, como la sociología, la economía, la antropología o la criminología, se organizarán mejor y producirán resultados más predictivos. (La huella genética ya ha revolucionado la investigación criminal, mientras que Adam Benforado, de la Universidad de Drexel, en Filadelfia, propone entre otras cosas usar IRM f para cribar a los jurados y evitar sesgos inherentes hacia ciertos grupos). ¿Podrá la creciente capacidad de computación, la proliferación de grandes bases de datos, algunas recogidas con muy bajo coste a través de las redes sociales, combinarse para revelar un orden cada vez mayor en nuestro ajetreado mundo?
Por ejemplo, matemáticos, físicos y psicólogos han examinado ya diversos aspectos del capitalismo. Un estudio (cierto que basado en una muestra pequeña) halló que los banqueros mercantiles son más deshonestos que la población general (vaya sorpresa). Pero si hay un tema predominante, es lo que la revista Science, en un número especial, llamaba «la ciencia de la desigualdad». Esta surge de comprender, quizá tarde, que en el capitalismo, salvo por unas pocas décadas después de las dos guerras mundiales del siglo XX, cuando muchos estados industriales urbanizados avanzados fueron económicamente boyantes, el orden económico básico de esos países les ha llevado a generar una disparidad cada vez mayor en el reparto de la riqueza entre la población [689].
Este hallazgo, que se aplica a muchos países, parece sólido y se ha logrado posible gracias a las posibilidades que ofrece el análisis de datos masivos, que ha permitido examinar las declaraciones de la renta de los dos últimos siglos. Por su utilidad potencial, y solo con un poco de exageración, se ha comparado con otras bases de datos masivos como el Proyecto Genoma Humano, que también está produciendo un nuevo orden en la medicina: el tratamiento personalizado sobre la base de la constitución genética individual. ¿Es ahí adonde va la ciencia o adonde se espera que vaya? La riqueza de los datos de las declaraciones de la renta significa, en palabras de Science, que se les puede aplicar «el modo de hacer de la ciencia»: analizarlos, extraer inferencias causales, formular hipótesis [690].
Una explicación del hallazgo principal (la creciente desigualdad) se la debemos a economistas con un sólido conocimiento de matemáticas que argumentan que a lo largo de la historia (salvo por los periodos de posguerra antes mencionados), la rentabilidad del capital siempre ha sido mayor que la tasa global de crecimiento económico a largo plazo (en la actualidad, por ejemplo, 4-5 % frente a 2 %). En consecuencia, quienes poseen el capital inevitablemente acrecentarán su riqueza más que quienes tienen que trabajar para vivir [691].
Los matemáticos tienen otra teoría, aunque no menos pesimista. Victor Yakovenko, un físico teórico de la Universidad de Maryland, compara la distribución del capital con la entropía en los gases (volvemos a encontrar la entropía como analogía). Donde se produce actividad aleatoria, dice, se acaba obteniendo una distribución exponencial (no equitativa) de la entidad que se considere, tal como ocurre con la distribución de los niveles de energía de las moléculas de un gas. En otras palabras, la propia naturaleza del mercado libre, que incluye elementos de aleatoriedad, está destinada a producir las desigualdades que vemos [692].
La pregunta ahora es qué actitud debemos adoptar ante estos resultados. ¿Cabe esperar que la gente admita estas conclusiones porque llevan el sello de «leyes» científicas, con la inevitabilidad y necesidad que eso implica? El reciente furor alrededor de las pruebas científicas del cambio climático, con acusaciones de engaños y tergiversaciones lanzadas en todos las direcciones, sugiere que no será así. ¿Nos alejan estos últimos hallazgos de la metáfora de Adam Smith de la «mano invisible» que mueve el mercado capitalista?
Otras ciencias han examinado los efectos de la gran desigualdad sobre el bienestar físico y psicológico de quienes se encuentra del lado malo de la divisoria, y han demostrado que esos efectos son sustanciales. Con el tiempo, las políticas basadas en esos estudios podrían aliviar algunos de los efectos desafortunados, pero es improbable que puedan resolver todas las deficiencias que han identificado los economistas. Algunos han predicho que la creciente desigualdad provocará agitación social, pero en los países más pobres, sobre todo en África (donde la desigualdad en los ingresos puede ser tan marcada como en el occidente desarrollado) estar del lado malo de la divisoria aumenta también la incidencia de enfermedades.
No es lectura agradable, pero los últimos avances en las matemáticas del orden parecen sugerir que los problemas sociales que vemos a nuestro alrededor no son tanto el resultado del fracaso de ciertas políticas como problemas estructurales inherentes al sistema. O no solo eso. Son, si se prefiere, un resultado del ingrediente de orden preexistente que hay en el mundo. Para muchos, tal vez para todos, esta es una conclusión difícil de digerir y podemos estar de acuerdo con Philip Ball cuando dice que no se construye un mundo ideal sobre la base científica de la planificación del tráfico, el análisis de mercados, la criminología, el diseño de redes o la teoría del juego. Por otro lado, debemos asimilar lo que también él dice: la ciencia nos muestra que el mundo de las relaciones sociales humanas no está abierto a todas las posibilidades. «La cuestión», concluye, «es si realmente podemos confiar en que sabremos distinguir entre ley moral y ley física», y que si la teoría científica se convirtiera en justificación de las elecciones morales, «habría excedido sus obligaciones» [693].
Pero ¿es eso todavía cierto? La ciencia avanza constantemente, y también la convergencia. En su reciente libro, The Master Algorithm [El algoritmo maestro], Pedro Domingos reflexiona sobre si las máquinas que aprenden podrán algún día discernir patrones (orden) en las masas de datos que ahora producimos [694]. «Dependiendo de la cosmovisión de cada uno, el desarrollo de un algoritmo maestro es lo más emocionante o lo más aterrador».
Sin duda es cierto que comprender las leyes de las partículas fundamentales no nos permite predecir el curso de la evolución a lo largo de millones de años, o el comportamiento de los conejos en el patio de la universidad del profesor Laughlin. Pero, al mismo tiempo, la gran convergencia de las ciencias prosigue, como nos muestra la investigación de Nick Lane, o el advenimiento de la biología cuántica, y la convergencia se está extendiendo a nuevas áreas de nuestro mundo, tal como muestra la física del tráfico o la nueva exploración de la moralidad. Además, si gente como David Deutsch, Stephen Wolfram o Joseph Silk tienen razón y nuestra capacidad de computación sigue creciendo, como parece probable si las computadoras cuánticas realmente están a la vuelta de la esquina, algunas de las ideas más extravagantes con las que nos hemos encontrado no parecerán tan descabelladas como lo parecen ahora. ¿De verdad podemos descartar para siempre la posibilidad de un algoritmo maestro?
Excitante o aterrador, insistir en que la ciencia no tiene nada que decir sobre la moral o la política o los asuntos sociales sin duda es evitar la pregunta, tal vez para evitar o retrasar el momento de enfrentarnos a cuestiones difíciles. Si, por dar un solo ejemplo, la desigualdad de la riqueza fuera función del capitalismo de libre mercado y eso llegara a ser convincente para una masa crítica de gente, ¿qué entonces? ¿Desencadenaría esa convicción nuevos procesos de pensamiento radical diseñados para desprendernos de lo que a todas luces sería una nueva realidad?
Lo que al menos podemos decir es que necesitamos urgentemente nuevas ideas sobre las manifestaciones de orden superior. La convergencia implica orden, el orden implica predicciones cada vez más precisas, y las predicciones precisas son la sangre de la ciencia. Hemos tardado en plantarnos a las puertas de la relativamente nueva y del todo prometedora ciencia del orden. Ahora solo nos resta esperar que pronto se haga realidad.

Agradecimientos

Entre las personas que he consultado durante la elaboración de este libro, a las que deseo expresar mi más sincero agradecimiento, están las siguientes: David Ambrose, Anne Baring, Peter Bellwood, Jonathan Cox, Mike Jones, David Henn, Andrew John, Thomas LeBien, Gerard LeRoux, George Loudon, Brian Moynahan, Ingborg Müller, Andrew Nurnberg, Nicholas Pearson, Navaratna Rajaram, Chris Scarre, Allan Scott, Robin Straus, Randall White y David Wilkinson. Cualquier error o solecismo que haya quedado son de mi entera responsabilidad. También deseo mostrar mi agradecimiento a los autores de varios libros publicados recientemente que, junto a libros anteriores, conforman nada menos que una edad dorada de la erudición en la historia de la ciencia. En primer lugar, gracias a John Gribbin, probablemente el más prolífico e imaginativo de los historiadores de la ciencia que escriben a principios del siglo XXI, con obras que van de historias generales a estudios específicos sobre entidades como la Real Sociedad de Londres o el cuanto. Helge Kragh, Paul Davies y Philip Ball han explorado a fondo la física como ciencia y como institución. Ian Inkster, Margaret Jacob y Joel Mokyr han hecho mucho por reorientar de una manera sensata la relación entre la ciencia y la tecnología en obras que han servido de inspiración para esta. Lo mismo puedo decir de las ideas presentadas por Steven Shapin a lo largo de los años. Con James Secord, más que con ningún otro, la ciencia victoriana ha cobrado vida.
Aún más importante, tal vez, sea la deuda contraída con todos aquellos que han reflexionado a fondo sobre el orden, ya sea en el universo, ya entre las partículas elementales, las moléculas, en los sistemas complejos, en el cerebro o en la matemática: Philip Warren Anderson, David Bohm, Patricia Churchland, Brian Greene, George Johnson, Stuart Kauffman, David Knight, Robert Laughlin, Jacques Monod, Sebastian Seung y Edward O. Wilson. Gracias también a los muchos otros autores cuyas obras se citan en las páginas anteriores y al personal de la Biblioteca de Londres y la Biblioteca Haddon de Cambridge.
Habiendo escrito yo mismo varias obras sobre la historia de las ideas, parte de lo presentado aquí aparece ya en otros títulos (y de otras maneras). Estos solapamientos se indican como corresponde en las Notas, pero, en cualquier caso, lo presentado aquí está convenientemente actualizado y ampliado.
Notas al pie de página
[1] Ruth Moore, Niels Bohr: The Man and the Scientist, Hodder & Stoughton, Londres, 1967, p. 51.
[2] Helge Kragh, «The Theory of the Periodic System», en A. P. French y P. J. Kennedy (eds.), Niels Bohr: A Centenary Volume, Harvard University Press, Cambridge, MA, y Londres, 1985, p. 62.
[3] C. W. Ceram, The First Americans: A Study of North American Archaeology, Harcourt Brace Jovanovich, Nueva York, 1971, p. 126 (hay trad. cast.: El primer americano, Destino, Barcelona, 1973).
[4] A. E. Douglass, Climatic Cycles and Tree Growth, vols. 1-11, Washington D.C. Carnegie Institution, 1936, pp. 2 y 116-122; véase también Ceram, op. cit., p. 128.
[5] John Bowlby, Child Care and the Growth of Love, Penguin Books, Londres, 1953.
[6] Bowlby, op. cit., pp. 161 y ss.
[7] Bowlby escribiría tres voluminosos e importantes libros a partir de estos estudios: Attachment and Loss: 1: Attachment (1969);Attachment and Loss: 2: Separation (1973) y Attachment and Loss: 3: Loss, Sadness and Depression (1980) (hay trad. cast.: La pérdida afectiva, Paidós, Madrid, 1993). Mantuvo en todas ellas el enfoque etológico y evolutivo, argumentando que el comportamiento que habían observado él y Ainsworth (y, a día de hoy, muchos otros) se podía relacionar con la adaptatividad evolutiva de los cazadores-recolectores, y que la funciónBowlby última del apego era la supervivencia.
[8]Child Care, op. cit., pp. 181 y ss.
[9] Allan Chapman: Mary Somerville and the World of Science, Canopus, 2004, Bristol, p. 23.
[10] Chapman, op. cit., p. 23. Véase también: Kathryn A. Neeley, Mary Somerville: Science, Illumination and the Female Mind, Cambridge University Press, Cambridge, 2001.
[11] Neeley, op. cit., p. 23.
[12] Chapman, op. cit., p. 27.
[13] Elizabeth Chambers Patterson, Mary Somerville and the Cultivation of Science, 1815-1840, Martinus Nijhoff, Boston y La Haya, 1983, p. 331.
[14] Patterson, op. cit., p. x.
[15] Chapman, op. cit., p. 38.
[16] Mary Somerville, Collected Works of Mary Somerville (9 volúmenes), edición e introducción de James Secord, Thoemmes Continuum, Bristol, 2004, vol. 4, p. xxviii.
[17] Patterson, op. cit., p. 123.
[18] James Clerk Maxwell, «Grove’s ‘Correlation of Physical Forces’», Nature, 10 (20 de agosto de 1874), 3024, p. 303. Citado en Secord, op. cit., p. 266.
[19] Joanna Baillie a Mary Somerville, 1 de febrero de 1832; en Martha Somerville (ed.), Personal Recollections, from Early Life to Old Age, of Mary Somerville , John Murray, Londres, 1873, p. 206; citado en Secord, op. cit., p. 267.
[20] Secord, op. cit., p. 413.
[21] Neeley, op. cit., pp. 35-37.
[22]Ibid., p. 40.
[23]Ibid., pp. 2-3.
[24] Secord, op. cit., p. 59.
[25] Secord, op. cit., vol. 4, viii.
[26]Ibid.
[27] Neeley, op. cit., pp. 121-123.
[28] Iwan Rhys Morus, When Physics Became King, University of Chicago Press, Chicago y Londres, 2005, p. 63. Thomas Kuhn, The Essential Tension, selected studies in scientific tradition and change , University of Chicago Press, Chicago y Londres, 1977, p. 68 (hay trad. cast.: La tensión esencial: estudios selectos sobre la tradición y el cambio en el ámbito de la ciencia , FCE España, Madrid, 1983).
[29] P. M. Harman, Energy, Force and Matter: The Conceptual Development of Nineteenth-Century Physics , Cambridge University Press, Cambridge, 1982, p. 144. J. C. Poggendorff, Annalen der Physik und Chemie, J. A. Barth, Leipzig, 1824.
[30] Harman, op. cit., p. 145.
[31] Dan Charly Christensen, Hans Christian Ørsted: Reading Nature’s Mind, Oxford: Oxford University Press, 2013, p. 4. Richard Holmes, The Age of Wonder: How the Romantic Generation Discovered the Wonder and Terror of Science , Harper Press, Londres, 2008, p. 208 (hay trad. cast.: La edad de los prodigios: terror y belleza en la ciencia del romanticismo , Turner, Madrid, 2012).
[32] Thomas S. Kuhn, The Essential Tension, op. cit., pp. 97-98.
[33] Crosbie Smith, The Science of Energy: A Cultural History of Energy Physics in Victorian Britain , Athlone, Londres, 1998, p. 9. John Theodore Merz, A History of European Thought in the Nineteenth Century, Dover, Nueva York, 1904 y 1965, vol. 1, pp. 23 y 204.
[34] Crosbie Smith, op. cit., p. 72.
[35]Ibid.
[36] John Gribbin, Science: A History: 1543-2001, Allen Lane, Londres, 2002, p. 586 (hay trad. cast.: Historia de la ciencia: 1543-2001, Crítica, Barcelona, 2003).
[37] Crosbie Smith, op. cit., p. 110.
[38]Ibid., p. 8.
[39]Ibid., p. 74.
[40]Ibid.
[41]Dictionary of Scientific Biography, III, pp. 303-310.
[43] Harman, op. cit., p. 149.
[44] Morus, op. cit., p. 65.
[45] L. Campbell y W. Garnett, The Life of James Clerk Maxwell, Macmillan, Londres, 1882, p. 143.
[46] Basil Mahon, The Man who Changed Everything: the Life of James Clerk Maxwell , Wiley, Londres y Nueva York, 2003, p. 2; Raymond Floodet al. (eds.), James Clerk Maxwell, Perspectives on his Life and Work, Oxford University Press, Oxford, 2014, p. 241.
[47] Flood et al., op. cit., p. 14.
[48] Mahon, op. cit., p. 36.
[49] Flood et al., op. cit., p. 14.
[50] Mahon, op. cit., p. 69.
[51]Ibid., p. 61.
[52] Gribbin, op. cit., p. 432; Flood et al., op. cit., pp. 190-91.
[53] Flood et al., op. cit., p. 279.
[54] C. Jungnickel y R. McCormmach, The Intellectual Mastery of Nature, vol. 1, p. 164. Citado en Morus, op. cit., p. 147. Véase también: Yehuda Elkana, The Discovery of the Conservation of Energy, Hutchinson, Londres, 1974.
[55] Harman, op. cit., pp. 148-50. Engelbert Broda, Ludwig Boltzmann: Mensch, Physiker, Philosoph, Franz Deuticke, Viena, 1955, pp. 57-66 y pp. 74 y ss., acerca de la muerte térmica.
[56] Carlo Cercignani, Ludwig Boltzmann: The Man Who Trusted Atoms, Oxford University Press, Oxford, 1998, especialmente pp. 120 y ss., acerca de la interpretación estadística de la entropía. Este libro también contiene algunas divertidas viñetas de Boltzmann hechas por Karl Przibram.
[57] Carl Boyer, A History of Mathematics, 2.ª ed. rev. por Uta C. Merzbach, Wiley, Nueva York, 1991, p. 497 (hay trad. cast.: Historia de la matemática, Alianza, Madrid, 2013).
[58] Richard Holmes, The Age of Wonder: How the Romantic Generation Discovered the Beauty and Terror of Science , Harper Press, Londres, 2008, p. 60 (hay trad. cast.: La edad de los prodigios: terror y belleza en la ciencia del romanticismo , Turner, Madrid, 2012).
[59] Holmes, op. cit., p. 65.
[60]Ibid., p. 71.
[61]Ibid., p. 81.
[62]Ibid., p. 87. Sir William Herschel, The Herschel Chronicle: The Life Story of Sir William Herschel and his sister Caroline Herschel , edición de Constance A. Lubbock, Cambridge University Press, Cambridge, 1933.
[63] Holmes, op. cit., p. 88.
[64]Ibid., p. 91. Sobre Flamsteed, véase: Flamsteed’s Stars: New Perspectives on the Life and Work of the First Astronomer Royal, 1646-1719 , edición de Francis Willmoth, Boydell Press, Woodbridge, Suffolk, en asociación con National Maritime Museum, Londres, 1997.
[65] Holmes, op. cit., p. 102.
[66]Ibid.
[67]Ibid., p. 112.
[68]Ibid., p. 123.
[69]Ibid., 192. Sobre Laplace, véase: Charles Coulston Gillispie, con la colaboración de Robert Fox y Ivor Grattan-Guinness, Pierre-Simon Laplace, 1749-1827, a Life in Exact Science, Princeton University Press, Princeton y Chichester, 1997.
[70] Holmes, op. cit., p. 203.
[71] Maria Rosa Antognazza, Leibniz: An Intellectual Biography, Cambridge University Press, Cambridge, 2009, p. 177.
[72] Peter Bowler, Evolution: The History of an Idea, University of California Press, Berkeley, 1989, p. 40.
[73] Mott T. Greene, Geology in the Nineteenth Century: Changing Views of a Changing World , Cornell University Press, Ithaca, NY, 1982, p. 36; Abraham Gottlob Werner, Kurze Klassifikation und Beschreibung der verschiedenen Gebirgsarten , 1789; reedición de Haber, Nueva York, 1971, con una introducción de Alexander Ospovat; Rachael Laudan, From Mineralogy to Geology: The Foundations of a Science: 1650-1830 , University of Chicago Press, Chicago y Londres, 1987, pp. 48 y ss. Sobre la teoría del color de Werner, véase: Patrick Syme, Werner’s Nomenclature of Colours, W. Blackwood, Edimburgo, 1821.
[74] Charles Gillispie, Genesis and Geology: A Study of the Relations of Scientific Thought, Natural Theology, and Social Opinion in Great Britain, 1790-1850 , Harvard University Press, Cambridge, MA, 1951, p. 48; Jack Repcheck, The Man Who Found Time: James Hutton and the Discovery of the Earth’s Antiquity , Simon & Schuster, Londres, 2003, quien dice que la prosa de Hutton era «impenetrable» y que, en su época, no había demasiado interés en la antigüedad de la Tierra, http://www-groups.dcs.st-and.ac.uk/history/Printonly/Hutton_James.html .
[75] Gillispie, op. cit., pp. 41-42.
[76]Ibid., p. 68.
[77]Ibid., p. 84.
[78]Ibid., p. 101.
[79] Bowler, op. cit., p. 116.
[80]Ibid., p. 110.
[81]http://www.ucmp.berkeley.edu/.history/Sedgwick/html. Sobre Buckland, véase: Nicolaas A. Rupke, The Great Chain of History: William Buckland and the English School of Geology (1814-1849) , Clarendon Press, Oxford, 1983.
[82] Gillispie, Genesis and Geology, op. cit., p. 133.
[83] Bowler, op. cit., p. 138.
[84]Ibid., p. 130.
[85] Peter J. Bowler, The Non-Darwinian Revolution, Johns Hopkins University Press, Baltimore y Londres, 1988, p. 13.
[86] James A. Secord, Victorian Sensation: The Extraordinary Publication, Reception, and Secret Authorship of «Vestiges of the Natural History of Creation» , University of Chicago Press, Chicago y Londres, 2000, p. 388; p. 526 para la comparación de la historia de las ediciones de Vestiges y Origin (El origen de las especies).
[87] Edward Lurie, Louis Agassiz: A Life in Science, University of Chicago Press, Chicago, 1960, pp. 97 y ss. sobre el desarrollo del concepto de edad de hielo por Agassiz. Pero había algo más. Entre las morrenas se encontraron cantidades considerables de diamantes. Estos se forman en las profundidades de la Tierra y alcanzan la superficie con el magma fundido que producen los volcanes, lo que constituía una nueva prueba de la acción continuada de los volcanes. Esto refuerza el hecho de que el descubrimiento de las edades de hielo confirmaron tanto la antigüedad de la Tierra como el enfoque uniformista en la geología. J. D. Macdougall, A Short History of Planet Earth, John Wiley & Sons, Nueva York y Londres, 1996, pp. 206-210.
[88] Ernst Mayr, The Growth of Biological Thought, The Belknap Press of Harvard University Press, Cambridge, MA, 1982, p. 590.
[89] Mayr, op. cit., p. 321.
[90] Sobre el viaje de Wallace a Extremo Oriente, véase: James T. Costa, Wallace, Darwin and the Origin of Species, Harvard University Press, Cambridge, MA, 2014, pp. 223-231.
[91] Sobre su interés por la reforma agraria, véase Martin Fichman, An Elusive Victorian: The Evolution of Alfred Russel Wallace, University of Chicago Press, Chicago y Londres, 2004, pp. 145-146.
[92] Peter Bowler, Charles Darwin, the Man and his Influence, Cambridge University Press, Cambridge, 1990, p. 36 (hay trad. cast: Charles Darwin: el hombre y su influencia, Alianza, Madrid, 1995).
[93]Ibid., p. 39.
[94]Ibid., p. 42. Véase también: Jonathan Conlin, Evolution and the Victorians: Science, Culture and Politics in Darwin’s Britain , Bloomsbury Academic, Londres, 2014.
[95] Bowler, op. cit., p. 47.
[96]Ibid.
[97]Ibid., p. 60.
[98]Ibid., p. 64. Peter Godfrey-Smith, Darwinian Populations and Natural Selection, Oxford University Press, Oxford, 2009.
[99] Secord, op. cit., pp. 224 y 230.
[100] Mayr, op. cit., p. 501.
[101] Bowler, The Non-Darwinian Revolution, op. cit., p. 132.
[102]Ibid., p. 145.
[103]Ibid., p. 175. Sobre su reciente y sorprendente cambio de opinión sobre la evolución, véase: Thomas Nagel, Mind and Cosmos: Why the Materialist, Neo-Darwinian Conception of Nature is Almost Certainly False , Oxford University Press, Oxford, 2012 (hay trad. cast.: La mente y el cosmos: por qué la concepción neo-darwinista materialista de la naturaleza es, casi con certeza, falsa . Biblioteca Nueva, Madrid, 2014).
[104] David Dennett, Darwin’s Dangerous Idea, Simon & Schuster, Nueva York y Londres, 1995, p. 21 (hay trad. cast.: La peligrosa idea de Darwin: evolución y significados de la vida , Galaxia Gutenberg, Barcelona, 2000).
[105] Paul Strathern, Mendeleyev’s Dream: The Quest for the Elements, Hamish Hamilton, Londres, 2000, p. 262 (hay trad. cast.: El sueño de Mendeléiev, de la alquimia a la química, Siglo XXI, Madrid, 2000).
[106] Strathern, op. cit., p. 265.
[107]Ibid., p. 267.
[108]Ibid., p. 275. Michael Gordin, A Well-Ordered Thing: Dimitrii Mendeleev and the Shadow of the Periodic Table , Basic Books, Nueva York, 2004, pp. 18ff.
[109] Strathern, op. cit., p. 282.
[110]Ibid., p. 285.
[111]Ibid., p. 292. Gordin, op. cit., p. 182.
[112] Helge Kragh, Quantum Generations: A History of Physics in the Twentieth Century , Princeton University Press, Princeton y Oxford, 2002, p. 8 (hay trad. cast.: Generaciones cuánticas: una historia de la física en el siglo XX , Akal, Madrid, 2007).
[113]New Dictionary of Scientific Biography, III, pp. 291-294.
[114]Physicists’ Biographies, p. 2. http://physicist.info/.
[115] Rollo Appleyard, Pioneers of Electrical Communication, Macmillan, Londres, 1930, p. 131.
[116] Kragh, op. cit., p. 30.
[117]Dictionary of Scientific Biography, XI, pp. 519-521.
[118] Kragh, op. cit., p. 107.
[119] Dennis Brian, The Curies: A Biography of the Most Controversial Family in Science , N Wiley, Nueva York y Londres, 2005, p. 52.
[120] Brian, op. cit., p. 54.
[121]Ibid., p. 55.
[122] J. G. Crowther, The Cavendish Laboratory: 1874-1974, Macmillan, Londres, 1974. p. 107. Véase también: G. P. Thomas, J. J. Thomson and the Cavendish Laboratory in His Day, Nelson, Londres, 1964. Y Richard P. Brennan, Heisenberg Probably Slept Here: The Lives, Times and Ideas of the Great Physicists of the Twentieth Century , Wiley, Nueva York y Chichester, 1997. p. 115.
[123] Steven Weinberg, Facing Up: Science and Its Cultural Adversaries, Harvard University Press, Cambridge, MA, y Londres, 2001, p. 71.
[124] Brennan, op. cit., p. 94. Véase la línea de tiempo de Max Planck en Brandon R. Brown, Planck: Driven by Vision, Broken by War, Oxford University Press, Oxford, 2015, p. xvii.
[125] Richard Rhodes, The Making of the Atomic Bomb, Simon & Schuster, Nueva York y Londres, 1988, p. 50.
[126] Brennan, op. cit., p. 109.
[127]Ibid., p. 122.
[128] Weinberg, op. cit., p. 105. Véase también: Sir Mark Oliphant, Rutherford: Recollections of the Cambridge Days, Elsevier, Ámsterdam y Nueva York, 1972
[129] Kragh, op. cit., p. 53.
[130] Rhodes, op. cit., p. 50.
[131] C. P. Snow, The Physicists, Macmillan, Londres, 1981, p. 56.
[132] Rhodes, op. cit., p. 69; Snow, op. cit., p. 58.
[133] Ruth Moore, Niels Bohr: The Man and the Scientist, Hodder & Stoughton, Londres, 1967, p. 71. Véase también Rhodes, op. cit., pp. 69-70.
[134] Walter Isaacson, Einstein: His Life and Universe, Simon & Schuster, Nueva York y Londres, 2007, p. 92 (hay trad. cast.: Einstein: su vida y su universo, Debate, Barcelona, 2008).
[135] Isaacson, op. cit., p. 38.
[136]Ibid., pp. 36-37.
[137] Ronald W. Clark, Einstein: The Life and Times, Hodder & Stoughton, Londres, 1973, pp. 61-62.
[138] Brennan, op. cit., p. 57.
[139]Ibid., p. 89.
[140] Isaacson, op. cit., p. 108.
[141]Ibid., p. 111.
[142]Ibid., p. 120. Para una buena idea del contexto filosófico, véase: Jimena Canales, The Physicist and the Philosopher: Einstein, Bergson and the Debate that Changed Our Understanding of Time , Princeton University Press, Princeton y Oxford, 2015, especialmente el capítulo 15 («Full-Blooded Time»).
[143] Isaacson, op. cit., p. 126.
[144] Brian Cox y Jeff Forshaw, Why Does E=mc2 (and Why Should We Care)?, Da Capo Press, Cambridge, MA, 2009, p. 100 (hay trad. cast.: ¿Por qué E = mc2? (¿y por qué debería importarnos?) Debate, Barcelona, 2013).
[145] Cox y Forshaw, op. cit., p. 130.
[146]Ibid., p. 49.
[147] Richard Wolfson, Simply Einstein, Norton, Nueva York, 2003, p. 156; véase también Isaacson, op. cit., p. 138.
[148] Isaacson, op. cit., pp. 148 y 157.
[149]Ibid., p. 193. Jeroen van Dongen, Einstein’s Unification, Cambridge University Press, Cambridge, 2010, en especial los capítulos 3 y 6.
[150] Albrecht Fölsing, Albert Einstein: A Biography, traducción y versión abreviada de Ewald Osers, Viking, Nueva York, 1997, p. 374. Véase también Isaacson, op. cit., p. 224.
[151] A. Vibert Douglas, The Life of Arthur Stanley Eddington, Thomas Nelson & Sons, Londres, 1956, p. 38; L. P. Jacks, Sir Arthur Eddington: Man of Science and Mystic, Cambridge University Press, Cambridge, 1949, pp. 2 y 17; John Gribbin, Companion to the Cosmos, Weidenfeld & Nicolson, Londres, 1996, pp. 92 y 571 (hay trad. cast.: Diccionario del cosmos, Crítica, Barcelona, 1997).
[152] Douglas, op. cit., p. 39; Brennan, op. cit., p. 76.
[153] Douglas, op. cit., p. 40; Brennan, op. cit., p. 77.
[154] Kragh, op. cit., p. 344.
[155] Paul Halpern, Einstein’s Dice and Schrödinger’s Cat: How Two Great Minds Battled Quantum Randomness to Create a Unified Theory of Physics , Basic Books, Nueva York, 2015.
[156] C. P. Snow, The Search, Charles Scribner’s Sons, Nueva York, 1958, p. 88.
[157] Rhodes, op. cit., p. 137.
[158] David Wilson, Rutherford: Simple Genius, Hodder & Stoughton, Londres, 1983, p. 404.
[159] Rhodes, op. cit., p. 137; Moore, Niels Bohr, op. cit., p. 21.
[160] Emilio Segrè, From X-Rays to Quarks, W. H. Freeman, Londres y Nueva York, 1980, p. 124.
[161] Kragh, op. cit., p. 145.
[162] Arthur I. Miller, Deciphering the Cosmic Number: The Strange Friendship of Wolfgang Pauli and Carl Jung , W. W. Norton, Nueva York y Londres, 2009, p. 55.
[163] Moore, op. cit., p. 137.
[164] Strathern, op. cit., p. 74.
[165] Werner Heisenberg, Physics and Beyond, Harper, Nueva York, 1971, p. 38 (hay trad. cast.: Más allá de la física, Biblioteca de Autores Cristianos, Madrid, 1974).
[166] Moore, op. cit., p. 138.
[167] Heisenberg, op. cit., p. 61.
[168] Moore, op. cit., p. 139.
[169] Snow, The Physicists, op. cit., p. 68.
[170] Moore, op. cit., p. 14.
[171] John A. Wheeler y W. H. Zurek (eds.), Quantum Theory and Measurement, Princeton University Press, Princeton, 1983, p. 209. Véase también: Werner Heisenberg, «Theory, Criticism and a Philosophy», en Abdus Salam, Unification of Fundamental Forces, The First of the 1988 Dirac Memorial Lectures , Cambridge University Press, Cambridge, 1990, pp. 85-124 (hay trad. cast.: La unificación de las fuerzas fundamentales, Gedisa, Barcelona, 1991).
[172] Moore, op. cit., p. 138.
[173] Gerald Holton, Thematic Origins of Scientific Thought, Harvard University Press, Cambridge, MA, 1973, p. 120.
[174] Kragh, op. cit., p. 167.
[175] David Wilson, op. cit., p. 449.
[176] Rhodes, op. cit., p. 155
[177]Ibid., pp. 160-162.
[178] Brian, op. cit., p. 209.
[179] James Chadwick, «Some personal notes on the search for the neutron», Proceedings of the Tenth Annual Congress of the History of Science , 1964, p. 161.
[180] Kragh, op. cit., p. 185.
[181]Ibid., p. 187.
[182]Ibid. Véase también: «The First Cyclotrons», American Institute of Physics, www://aip.org.
[183] Kragh, op. cit., p. 189.
[184] Thomas Hager, Force of Nature: The Life of Linus Pauling, Simon & Schuster, Nueva York, 1995, p. 113.
[185] Hager, op. cit., p. 138.
[186]Ibid., p. 141.
[187]Ibid., p. 148.
[188]Ibid., p. 142. J. D. Dunitz, «Linus Carl Pauling», Biographical Memoirs of Fellows of the Royal Society, 1996, vol. 42, pp. 316-326.
[189] Hager, op. cit., p. 143.
[190]Ibid., p. 145.
[191]Ibid., p. 159. Suman Seth, Crafting the Quantum: Arnold Sommerfeld and the Practice of Theory: 1890-1926 , MIT Press, Cambridge, MA, y Londres, 2010, especialmente el capítulo 6.
[192] Hager, op. cit., pp. 154-155. John Horgan, «Profile: Linus C. Pauling-Stubbornly Ahead of His Time», Scientific American, vol. 266 (3), pp. 36-40.
[193] Hager, op. cit., p. 159. Sobre la influencia de Weisskopf, véase: Kurt Gottfried y J. David Jackson, «Mozart and Quantum Mechanics: An Appreciation of Victor Weisskopf», Physics Today, vol. 56, n.º 2, pp. 43-47 (febrero de 2003).
[194] Hager, op. cit., p. 165.
[195]Ibid., p. 166. A. Rich, «Linus Pauling» (1901-1994), Nature, vol. 371, n.º 6495, 1994, p. 285.
[196] Hager, op. cit., pp. 182 y 282.
[197]Ibid., p. 168. Para una introducción a la obra de George Wheland, véase: Kostas Gavroglu y Ana Simoes, «From Physical Chemistry to Quantum Chemistry: How Chemists Dealt with Mathematics», International Journal for Philosophy of Chemistry, vol. 18, n.º 1, 2012, pp. 45-69.
[198] Henry J. John, Jan Evangelista Purkyne: Czech Scientist and Patriot, 1787-1869 , The American Philosophical Society, Filadelfia, 1959. El capítulo VI trata de Goethe y Purkyne y hay un apéndice sobre las contribuciones de Purkyne a la psicología.
[199] Henry Harris, The Birth of the Cell, Yale University Press, New Haven, Conn., 1999, p. 88.
[200] T. Schwann, Mikroskopische Untersuchungen über die Vebereinstimmung in der Struktur und dem Wachstum der Thiere und Planzen , Sanderschen Buchhandlung, Berlín, 1839. Citado en Harris, op. cit., p. 100.
[201] John Buckingham, Chasing the Molecule, Sutton, Stroud, 2004, p. 109.
[202] Diarmuid Jeffreys, Aspirin: The Remarkable Story of a Wonder Drug, Bloomsbury, Londres, 2004, pp. 56-57 (hay trad. cast.: Aspirina: la extraordinaria historia de la droga maravillosa, Ediciones de Intervención Cultural, Vilassar de Dalt, 2009). Véase también: R. Benedikt, The Chemistry of the Coal-Tar Colours, traducción de E. Knecht, George Bell, Londres, 1886, pp. 1-2.
[203] John Joseph Beer, The Emergence of the German Dye Industry, University of Illinois Press, Urbana, 1959, p. 10.
[204] Beer, op. cit., p. 33.
[205]Ibid., p. 88.
[206]New Dictionary of Scientific Biography, VII, pp. 157-161.
[207]Ibid.
[208] Sobre la relación entre Virchow y Koch, véase: Frank Ryan, Tuberculosis: The Greatest Story Never Told, Swift Publishing, Bromsgrove, 1992, pp. 9 y ss. Bernhard Möllers, Robert Koch: Persönlichkeit und Lebenswerk, 1843-1910, Schmorl & von Nachf, Hannover, 1950, capítulo IV, pp. 512-517.
[209] Ragnhild Münch, Robert Koch und sein Nachlass in Berlin, Walter de Gruyter, Berlín, 2003, pp. 41-46 sobre la expedición del cólera. Véase también: Möllers, op. cit., pp. 139-147.
[210] Thomas Dormandy, The White Death: A History of Tuberculosis, Hambledon, Londres, 1999, pp. 132, 199 n, 265 n.
[211] Claude Quétel, Le Mal de Naples: Histoire de la Syphilis, Editions Seghers, París, 1986; traducción inglesa: History of Syphilis, Polity Press en asociación con Basil Blackwell, Londres, 1990, pp. 2 y ss.
[212] Martha Marquardt, Paul Ehrlich, Heinemann, Londres, 1949, p. 160.
[213] Marquardt, op. cit., pp. 175-176.
[214] Joseph Fruton, Proteins, Enzymes, Genes: The Interplay of Chemistry and Biology , Yale University Press Newhaven, Conn., 1999; Ernst Mayr, The Growth of Biological Thought, op. cit., pp. 750-751.
[215] Bruce Wallace, The Search for the Gene, Cornell University Press, Ithaca, NY, 1992, pp. 57-58.
[216] Bryan Magee, Men of Ideas: Some Creators of Contemporary Philosophy, Oxford University Press, Oxford, 1978, p. 96.
[217] Magee, op. cit., pp. 102-103.
[218] Rudolf Carnap, The Unity of Science, Kegan Paul, Londres, 1934, p. 10.
[219] Otto Neurath, Rudolf Carnap y Charles Morris (eds.), International Encyclopaedia of Unified Science, Chicago University Press, Chicago, 1938-1955, p. 2.
[220]Ibid., p. 15.
[221]Ibid., p. 20.
[222]Ibid., p. 28. Véase también el capítulo 7 de James Scott Johnston, John Dewey’s Earlier Logical Theory, State University of New York Press, Albany, NY, 2014.
[223] Neurath et al., op. cit., p. 34.
[224]Ibid., p. 46.
[225]Ibid., p. 49. Véase también: capítulo 3 de A. W. Carus, Carnap and Twentieth-Century Thought: Explication and Enlightenment , Cambridge University Press, Cambridge, 2007.
[226] Neurath et al., op. cit., p. 59.
[227]Ibid., p. 61.
[228]Ibid., p. 28. Véase también el capítulo 11 de Michael Friedman y Richard Creath, The Cambridge Companion to Carnap, Cambridge University Press, Cambridge, 2007.
[229] Neurath et al., op. cit., p. 35.
[230]Ibid., p. 64.
[231]Ibid., p. 66. Para una presentación general, véase: Hans Reichenbach, Modern Philosophy of Science: Selected Essays, traducción y edición de Maria Reichenbach, Routledge and Paul, Londres; Humanities Press, Nueva York, 1959 (hay trad. cast.: Moderna Filosofía de la ciencia, Tecnos, Madrid, 1965).
[232] Neurath et al., op. cit., p. 97.
[233] Jim Al-Khalili y Johnjoe McFadden, Life on the Edge: the Coming of Age of Quantum Biology, Bantam, Londres, 2014, p. 50.
[234] Al-Khalili y McFadden, op. cit., p. 51.
[235]Ibid., p. 52.
[236] D’Arcy Wentworth Thompson, On Growth and Form, Cambridge University Press, Cambridge, 1961 (edición y versión abreviada de John Tyler Bonner), p. 178 (hay trad. cast.: Sobre el crecimiento y la forma, Akal, Madrid, 2011).
[237] Wentworth Thompson, op. cit., p. 278.
[238]Ibid., p. 2.
[239] Gale Christianson, Edwin Hubble: Mariner of the Nebulae, Farrar, Straus & Giroux, Nueva York, 1995, p. 199. Véase también: John Gribbin, Copernicus to the Cosmos, Phoenix, Londres, 1997, pp. 2 y 186 y ss.
[240] Clark, Einstein, op. cit., p. 406.
[241] Christianson, op. cit., p. 55.
[242] Gribbin, Companion to the Cosmos, op. cit., pp. 92-93.
[243] Kragh, op. cit., p. 230.
[244] Philip Ball, Serving the Reich: The Struggle for the Soul of Physics under Hitler , Bodley Head, Londres, 2013, p. 85 (hay trad. cast.: Al servicio del Reich: la física en tiempos de Hitler, Turner, Madrid, 2014).
[245] Albert Einstein, The Born-Einstein Letters: friendship, politics and physics in uncertain times; correspondence between Albert Einstein and Max and Hedwig Born from 1916 to 1955 with commentaries by Max Born , traducción de Irene Born, Macmillan, Basingstoke, 2005, pp. 113 y ss. (hay trad. cast.: Albert Einstein-Max Born: cartas, 1916-1955: y algunos aledaños , S.T.I. Ediciones, 2015).
[246] John Cornwell, Hitler’s Scientists, Viking, Londres, 2003, Penguin, 2004, p. 130 (hay trad. cast.: Los científicos de Hitler: ciencia, guerra y pacto con el diablo , Paidós, Barcelona, 2005). Para una perspectiva inusual sobre Einstein, véase Dennis P. Ryan (ed.), Einstein and the Humanities, Greenwood Press, Nueva York y Londres, 1987, con capítulos sobre las implicaciones morales de la relatividad, las respuestas poéticas a la relatividad y sobre relatividad y psicología.
[247] Ball, op. cit., p. 133. Ruth Lewin Sime, Lisa Meitner: A Life in Physics, University of California Press, Los Ángeles y Berkeley, 1996.
[248] Cornwell, op. cit., pp. 208-210.
[249] Robert Jungk, Brighter than a Thousand Suns, Victor Gollancz en asociación con Rupert Hart Davis, Londres, 1968, pp. 67-77 (hay trad. cast.: Más brillante que mil soles, Argos Vergara, Barcelona, 1976).
[250] Rhodes, op. cit., p. 261.
[251] Peter Watson, A Terrible Beauty: The People and Ideas that Shaped the Modern Mind , Phoenix, Londres, 2000, pp. 392-393.
[252] David C. Cassidy, Uncertainty: the life and science of Werner Heisenberg, W. H. Freeman, Londres, 1992, p. 420.
[253]Ibid.
[254] Ball, op. cit., p. 188. Ruth Lewin Sime, «Lisa Meitner’s Escape from Germany», American Journal of Physics, vol. 58, n.º 3, 1990, pp. 263-267.
[255] Rhodes, op. cit., p. 119.
[256] Para mayores detalles sobre los cálculos de Peierls, véase Ronald Clark, The Birth of the Bomb, Phoenix House, Londres, 1961, p. 323.
[257] Rhodes, op. cit., p. 212.
[258] Laura Fermi, Atoms in the Family, University of Chicago Press, Chicago, 1954, p. 123 (hay trad. cast.: Átomos en mi familia. (Mi vida con Enrico Fermi), Marfil, Alicante, 1956).
[259] Kragh, op. cit., p. 265; y Rhodes, op. cit., p. 379.
[260] Rhodes, op. cit., p. 389; también: Kragh, op. cit., p. 266.
[261] Rhodes, op. cit., pp. 450-451. Leslie R. Groves, Now It Can Be Told: The Story of the Manhattan Project, Harper Bros, Nueva York, 1962.
[262] Jane Wilson (ed.), «All in Our Time»,Bulletin of the Atomic Scientists, 1975; citado en Rhodes, op. cit., p. 440.
[263] Rhodes, op. cit., pp. 494 y 496-500.
[264] Paul Tibbets, «How to Drop an Atomic Bomb», Saturday Evening Post, 8 de junio de 1946, p. 136.
[265] Jungk, op. cit., capítulos XI, XII y XIV.
[266] Hager, op. cit., p. 184.
[267]Ibid., p. 185.
[268] Ernst Mayr, op. cit., pp. 722-726.
[269] Robin Marant Henig, A Monk and Two Peas, The Story of Gregor Mendel and the Discovery of Genetics , Weidenfeld & Nicolson, Londres, 2000, p. 16 (hay trad. cast.: El monje en el huerto, Debate, Barcelona, 2001).
[270] Para comprender el contexto en que se produjeron los descubrimientos de Mendel, véase: Peter J. Bowler, The Mendelian Revolution: The Emergence of Hereditarian Concepts in Modern Science and Society , Athlone Press, Londres, 1989, especialmente p. 100.
[271] Bowler, The Mendelian Revolution, op. cit., p. 282.
[272] Véase, por ejemplo: Eileen Magnello, «The Reception of Mendelism by the Biometricians and the Early Mendelians (1899-1909)», en Milo Keynes et al. (eds.), A Century of Mendelism in Human Genetics, actas de un simposio organizado por el Instituto Galtony y celebrado en la Real Sociedad de Medicina, CRC Press, Londres/Boca Raton, 2004, pp. 19-32.
[273] Mayr, op. cit., pp. 750-751.
[274] Bruce Wallace, The Search for the Gene, Cornell University Press, Ithaca, 1992, p. 57-58; Mayr, op. cit., p. 748.
[275] Augustine Brannigan, The Social Basis of Scientific Discoveries, Cambridge University Press, Cambridge, 1981, pp. 89-119.
[276] Peter J. Bowler, The Mendelian Revolution, op. cit., p. 132.
[277] Raphael Falk, Genetic Analysis: A History of Genetic Thinking, Cambridge University Press, Cambridge, 2009, pp. 81 y ss.
[278] T. H. Morgan, A. H. Sturtevant, H. J. Muller y C. B. Bridges, The Mechanism of Mendelian Heredity, Henry Holt, Nueva York, 1915; véase también: Bowler, The Mendelian Revolution, op. cit., p. 134.
[279] David Kath (ed.), The Darwinian Heritage, Princeton University Press, Princeton, en asociación con Nova Pacifica, 1985, pp. 762-763.
[280] Ian Tattersall, The Fossil Trail, Oxford University Press, Oxford y Nueva York, 1995, pp. 89-94.
[281] Tattersall, op. cit., p. 95.
[282] Hager, op. cit., p. 189.
[283]Ibid., p. 190.
[284] Erwin Schrödinger, What Is Life?, Cambridge University Press, Cambridge, 1944, p. 77 (hay trad. cast.: ¿Qué es la vida?, Tusquets, Barcelona, 1984).
[285] Moore, op. cit., p. 396.
[286] Hager, op. cit., p. 285.
[287] J. G. Crowther, op. cit., p. 301. Soraya de Chadarevian,Designs forLife: Molecular Biology after World War II, Cambridge University Press, Cambridge, 2002, p. 252.
[288] De Chadarevian, op. cit., p. 7.
[289]Ibid., p. 98.
[290]Ibid., p. 109.
[291] Crowther, op. cit., p. 302.
[292]Ibid., p. 61.
[293]Ibid., p. 69.
[294] Hager, op. cit., p. 373.
[295]Ibid., p. 383.
[296]Ibid., p. 399.
[297] Paul Strathern, Crick, Watson and DNA, Arrow, Londres, 1997, pp. 37-38 (hay trad. cast.: Crick, Watson y el ADN, Siglo XXI, Madrid, 1999). James D. Watson, The Double Helix, Weidenfeld & Nicolson, Londres, 1968, passim.
[298] Robert Oltby, Francis Crick: Hunter of Life’s Secrets, Cold Spring Harbor Lab Press, Cold Spring Harbor, NY, 2009, p. 4.
[299] Oltby, op. cit., p. 128.
[300] Strathern, op. cit., p. 42.
[301] Moore, op. cit., p. 397. Matt Ridley, Francis Crick: Discoverer of the Genetic Code, Harper Press, Londres, 2006, pp. 32-33.
[302] James D. Watson, op. cit., p. 85.
[303] James D. Watson, op. cit., pp. 82-83; Strathern, op. cit., pp. 57-58. Sobre el choque de personalidades, véase: Anne Sayre, Rosalind Franklinand DNA, W. W. Norton, Nueva York, 1975, especialmente los capítulos 5 y 8 (hay trad. cast.: Rosalind Franklin y el ADN, Horas y Horas, Madrid, 1997).
[304] Oltby, op. cit., p. 59.
[305]Ibid., p. 180.
[306] Strathern, op. cit., p. 82.
[307] Oltby, op. cit., p. 185. De Chadarevian, op. cit., p. 184.
[308] Paul Oppenheim y Hilary Putnam, «Unity of Science as a Working Hypothesis», en Herbert Feigl, Michael Scriven y Grover Maxwell (eds.), Concepts, Theories and the Mind-Body Problem, University of Minnesota Press, Minneapolis, 1958. p. 8.
[309] Oppenheim y Putnam, op. cit., p. 16.
[310]Ibid., p. 17
[311]Ibid., p. 21.
[312]Ibid., p. 23. Véase también el capítulo 6, «The Diversity of the Sciences», en Hilary Putnam, Words and Life (edición de James Conant), Harvard University Press, Cambridge, MA, 1994.
[313] Oppenheim y Putnam, op. cit., p. 24.
[314]Ibid., p. 28.
[315]Ibid., p. 30.
[316] George Gaylord Simpson, This View of Life: The World of an Evolutionist, Harcourt Brace and World Inc., Nueva York, 1964.
[317] Gaylord Simpson, op. cit., p. viii.
[318]Ibid., p. 37.
[319]Ibid., p. viii.
[320]Ibid., pp. 172-173. Véase el capítulo 9 de: Leo F. Laporte, George Gaylord Simpson: Palaeontologist and Evolutionist, Columbia University Press, Nueva York, 2000.
[321] Simpson, op. cit., p. 93.
[322]Ibid., p. 107.
[323]Ibid., p. 105.
[324]Ibid., p. 107. Véase, por ejemplo, «Species as an evolutionary concept», pp. 109 y ss. de Laporte, op. cit.
[325] Simpson, op. cit., pp. 110-111.
[326]Ibid., p. 181.
[327] John Gribbin, Q is for Quantum: Particle physics from A to Z, Phoenix, Londres, 1998, pp. 381 y ss.
[328] George Gamow, The Creation of the Universe, Viking, Londres, 1952. En la p. 42 discute la temperatura actual del espacio en el universo (hay trad. cast.: La creación del universo, RBA, Barcelona, 1993). Véase también: Gino Segrè, Ordinary Geniuses: Max Delbrück, George Gamow, and the Origins of Genomics and Big Bang Cosmology , Viking, Nueva York, 2011, p. 13.
[329] Gribbin, Q is for Quantum, op. cit., p. 190.
[330]Ibid., p. 547.
[331] Véanse las entradas sobre «quark», «baryon» y «lepton» en: Gribbin, Q is for Quantum, op. cit., y pp. 190-191 sobre las primeras investigaciones sobre los quarks. Véase Murray Gell-Mann, The Quark and the Jaguar, Little, Brown, Nueva York, 1994, p. 11, sobre por qué escogió «quark».
[332] Gribbin, Cosmos, op. cit., p. 51; Kragh, op. cit., p. 347.
[333] Steven Weinberg, The First Three Minutes: A Modern View of the Origin of the Universe , Basic Books, Nueva York, 1977, p. 47 (hay trad. cast.: Los tres primeros minutos del universo, Alianza, Madrid, 1996).
[334] Weinberg, op. cit., p. 49.
[335]Ibid., pp. 126-127.
[336]Ibid., p. 52.
[337] Kragh, op. cit., p. 359.
[338] Gribbin, Q is for Quantum, op. cit., p. 371.
[339] Gribbin, Companion to the Cosmos, op. cit., p. 401.
[340]Ibid.
[341] Richard Mason (ed.), Cambridge Minds, Cambridge University Press, Cambridge, 1994, p. 55.
[342] Brian Cox y Jeff Forshaw, op. cit., p. 168.
[343] Weinberg, op. cit., capítulo 5, sobre todo pp. 101 y ss. Véase también: John Gribbin, The Birth of Time, Weidenfeld & Nicolson, Londres, 1999, pp. 50-52, que ofrece otra síntesis y más observaciones astronómicas (hay trad. cast.: El nacimiento del tiempo, cómo medimos la edad del universo, Paidós, Barcelona, 2000).
[344] Gribbin, Companion to the Cosmos, op. cit., p. 401.
[345]Ibid., pp. 353-354.
[346] Gribbin, Cosmos, p. 5.
Ibid., p. 41.
[348]Ibid., p. 108.
[349]Ibid., p. 112.
[350] W. Wertenbaker, The Floor of the Sea: Maurice Ewing and the Search to Understand the Earth , Little, Brown, Boston, 1974, p. 205.
[351] Wertenbaker, op. cit., p. 205.
[352] Roger M. McCoy, Ending in Ice: The Revolutionary Idea and Tragic Expedition of Alfred Wegener , Oxford University Press, Oxford, 2006, p. 7.
[353] David. R. Oldroyd, Thinking about the Earth, The Athlone Press, Londres, 1996, p. 250.
[354] McCoy, op. cit., p. 22.
[355]Ibid., p. 25.
[356]Ibid., p. 29.
[357] Oldroyd, op. cit., p. 257.
[358] R. Gheyselinck, The Restless Earth, The Scientific Book Club, Londres, 1939, p. 281 (hay trad. cast.: La tierra inquieta: una geología para todos, Labor, Barcelona, 1971). Véase el mapa de geonsinclinales en Oldroyd, op. cit., p. 275.
[359] George Gamow, Biography of the Earth, Macmillan, Londres, 1941, p. 133.
[360] Wertenbaker, op. cit., p. 364.
[361]Ibid., p. 371.
[362]Ibid., p. 374.
[363] Robert Muir Wood, The Dark Side of the Earth, Allen & Unwin, Londres, 1985, pp. 165-166.
[364] Sobre los mohos mucilaginosos, véase: Richard Fortey, The Earth: An Intimate History, HarperCollins, Londres, 2004, pp. 81 y ss.; sobre la fauna de Ediacara, véase Ibid., pp. 86 y ss. Esta fauna recibe su nombre de las colinas de Ediacara, en Australia del Sur, donde se descubrió.
[365] J. D. MacDougall, A Short History of Planet Earth, Wiley, Nueva York, 1996, p. 52.
[366] Fortey, op. cit., pp. 102 y ss.
[367] John Noble Wilford, The Riddle of the Dinosaurs, Faber & Faber, Londres y Boston, 1986, pp. 221 y ss. (hay trad. cast.: El enigma de los dinosaurios, Planeta, Barcelona, 1987).
[368] Walter Alvarez, T. Rex and the Crater of Doom, Princeton University Press, Princeton y Londres, 1997, p. 69 (hay trad. cast.: Tyrannosaurus rex y el cráter de la muerte, Crítica, Barcelona, 1998).
[369] MacDougall, op. cit., p. 160; véase también el gráfico de las extinciones marinas en p. 162.
[370] Donald R. Prothero, After the Dinosaurs: The Age of Mammals, Indiana University Press, Bloomington, IN, 2006, p. 130.
[371] Prothero, op. cit., p. 199.
[372]Ibid., pp. 240-241.
[373] Willard F. Libby, Radiocarbon Dating, 2.ª ed., Phoenix Science/Chicago University Press, Chicago, 1965, p. 26 (hay trad. cast.: Datación radiocarbónica, Labor, Barcelona, 1970).
[374] Colin Renfrew, Before Civilisation: The Radiocarbon Revolution and Prehistoric Europe , Jonathan Cape, Londres, 1973.
[375] Renfrew, op. cit., p. 93.
[376]Ibid., pp. 160 y 170.
[377] Virginia Morell, Ancestral Passions: The Leakey Family and the Quest for Humankind’s Beginnings , Simon & Schuster, Nueva York, 1995, p. 57.
[378] Hay un mapa detallado de la garganta en Mary Leakey, Olduvai Gorge: My Search for Early Man, Collins, Londres, 1979, pp. 52-53.
[379] Morell, op. cit., p. 181.
[380] Mary Leakey, op. cit., p. 74.
[381] L.S.B. Leakey, «Finding the World’s Earliest Man», National Geographic, septiembre de 1960, pp. 421-435.
[382] Walter Bodmer y Robin McKie, The Book of Man: The Quest to Discover our Genetic Heritage, Little, Brown, Londres, 1994, p. 218.
[383] Brian M. Fagan, The Journey from Eden: The Peopling of Our World, Thames & Hudson, Londres, 1990, pp. 27-28; Bodmer & McKie, op. cit., pp. 218-219.
[384] Colin Renfrew, Archaeology and Language, Jonathan Cape, Londres, 1987, pp. 9-13 (hay trad. cast.: Arqueología y lenguaje: la cuestión de los orígenes indoeuropeos , Crítica, Barcelona, 1990).
[385] Fagan, op. cit., p. 186.
[386] Renfrew, Archaeology and Language, op. cit., pp. 9-13.
[387]Ibid., p. 205.
[388] Dan O’Neill, The Last Giant of Beringia: The Mystery of the Bering Land Bridge , Westview, Nueva York, 2004, p. 6.
[389] O’Neill, op. cit., p. 8. Para conocer las investigaciones más recientes sobre este tema, véase: «Welcome to Beringia», que ofrece un resumen de un serie rápida de trabajos que han puesto de manifiesto que los pueblos antiguos permanecieron en el puente de tierra mucho más tiempo del que se pensaba: Science, vol. 343, pp. 961-963 y 979-980, 28 de febrero de 2014.
[390] O’Neill, op. cit., p. 13.
[391]Ibid.
[392]Ibid., p. 17.
[393] J. Louis Giddings, Ancient Men of the Arctic, Secker & Warburg, Londres, 1968.
[394] O’Neill, op. cit., p. 114.
[395]Ibid., pp. 145-147. Renée Hetherington et al., «Climate, African and Beringian subaerial continental shelves, and migration of early peoples», Quarternary International (2007), DOI:10.1016/j. quaint.2007.06.033.
[396] Robert A. Hinde, «Konrad Lorenz (1903-89) y Niko Tinbergen (1907-88)», en Ray Fuller (ed.), Seven Pioneers of Psychology, Routledge, Londres, 1994, pp. 76-77 y 81-82. Niko Tinbergen, The Animal in its World (2 vols.), George Allen & Unwin, Londres, 1972, especialmente el volumen 1, pp. 250 y ss.; Hans Kruuk, Niko’s Nature: The life of Niko Tinbergen and his science of animal behavior , Oxford University Press, Oxford, 2003. p. 74. Véase también: Richard W. Burkhardt, Jr, Patterns of Behaviour: Konrad Lorenz, Niko Tinbergen and the Founding of Ethology , University of Chicago Press, Chicago, 2005, que hace hincapié en los vínculos entre etología y sociobiología, psicología y biología, y etología y «economía del comportamiento».
[397] Jane Goodall, Through a Window: Thirty Years with the Chimpanzees of Gombe, Weidenfeld & Nicolson, Londres, 1990, p. 13.
[398] Goodall, op. cit., p. 12.
[399]Ibid., p. 30.
[400]Ibid., pp. 101 y ss.
[401]Ibid., p. 242.
[402] Robert Ardrey, African Genesis, Collins, Londres, 1961.
[403] Véase, por ejemplo: F. W. Marlowe, «Hunter-gathers and human evolution», Evolutionary Anthropology: Issues, News and Reviews, vol. 14, n.º 2, 2005, pp. 54-67.
[404] Clifford Geertz, Local Knowledge, Basic Books, Nueva York, 1983, p. 8 (hay trad. cast.: Conocimiento local: ensayos sobre la interpretación de las culturas , Paidós, Barcelona, 2011).
[405] Geertz, op. cit., p. 435.
[406] La obra de Geertz prosigue en forma de dos series de conferencias publicadas en forma de libro. Véase: Works and Lives, Polity, Londres, 1988; y After the Fact, Harvard University Press, Cambridge, MA, 1995 (hay trad. cast.: Tras los hechos: dos países, cuatro décadas y un antropólogo, Paidós, Barcelona, 1993).
[407] Noam Chomsky, Language and the Mind, Harcourt Brace, Nueva York, 1972, pp. 13 y 100 y ss. (hay trad. cast.: El lenguaje y el entendimiento, Seix-Barral, Barcelona, 1977).
[408] John Lyons, Chomsky, Fontana/Collins, Londres, 1970, p. 14 (hay trad. cast.: Chomsky, Grijalbo, Barcelona, 1974). Noam Chomsky, Syntactic Structures, Mouton, La Haya, 1957 (hay trad. cast.: Estructuras sintácticas, Siglo XXI, Buenos Aires, 1999).
[409] R. L. Trivers, «The Evolution of Reciprocal Altruism», The Quarterly Review of Biology, vol. 46, n.º 1, 1971, pp. 35-57; y «Parent-Offspring Conflict», American Zoologist, vol. 14, n.º 1, 1974, pp. 249-264.
[410] Daniel Kahneman y Amos Tversky. «Judgment under Uncertainty: Heuristics and Biases», Science, vol. 185, n.º 4157, 1974, pp. 1124-1131.
[411] Jacques Monod, Chance and Necessity: An Essay on the Natural Philosophy of Modern Biology , Alfred A. Knopf, Nueva York, 1970, p. 158 (hay trad. cast.: El azar y la necesidad, Tusquets, Barcelona, 1987).
[412] Monod, op. cit., p. 168.
[413]Ibid., p. 177.
[414] Edward O. Wilson, Sociobiology: The New Synthesis, Harvard University Press, Cambridge, MA, 1975; edición abreviada, 1980, p. 19 (hay trad. cast.: Sociobiología, Omega, Barcelona, 1980).
[415] Wilson, op. cit., p. 17.
[416] E. O. Wilson, Consilience: The Unity of Knowledge, Nueva York: Vintage, 1998, pp. 125 y 218 (hay trad cast.: Consilience: la unidad del conocimiento, Crítica, Barcelona, 1999).
[417] Wilson, Sociobiology, op. cit., p. 253.
[418]Ibid., p. 331.
[419]Ibid., p. 340.
[420] Wilson, Consilience, op. cit., pp. 125 y 218.
[421] John Alcock, The Triumph of Sociobiology, Oxford University Press, Oxford, 2001, pp. 177-178.
[422] Alcock, op. cit., pp. 200-201.
[423]Ibid., pp. 200-201. Noam Chomsky, Language and Problems of Knowledge: MIT Press, Cambridge, MA, 1988, p. viii. Chomsky, op. cit., p. 152.
[424] John Savino y Marie D. Jones, Supervolcano: The Catastrophic Event that Changed the Course of Human History , New Page, Franklin Lakes, NJ, 2007, p. 125.
[425] Savino y Jones, op. cit., ibid.
[426]Ibid., pp. 132 y 144. Véase también: Michael D. Petraglia et al., «Middle Paleolithic Assemblages from the Indian Subcontinent Before and After the Toba supereruption», Science, vol. 317, julio de 2007, pp. 114-116.
[427] Michael Petraglia et al., op. cit. Véase también: Kate Ravilious, «Exodus on the Exploding Earth», New Scientist, 17 de abril de 2010, pp. 28-33.
[428] Curiosamente, el mapa de la explosión de Toba se superpone al del tsunami de las Navidades de 2004, que ocurrió a causa de un terremoto en Simeulue, frente a la costa occidental del norte de Sumatra, y afectó a la mayor parte de Sri Lanka y el sur de la India.
[429] Stephen Oppenheimer, Eden in the East: The Drowned Continent of South East Asia, Weidenfeld & Nicolson, Londres, 1998, p. 17 (hay trad. cast.: Los senderos del Edén: orígenes y evolución de la especie humana , Crítica, Barcelona, 2004).
[430] Savino and Jones, op. cit., p. 47.
[431] C. Leonard Woolley, The Sumerians, Clarendon Press, Oxford, 1929, p. 6.
[432] Oppenheimer, op. cit., p. 17.
[433]Ibid., p. 18.
[434]Ibid.
[435] Peter Bellwood, First Farmers: the Origins of Agricultural Societies, Blackwell, Oxford, 2005, pp. 130 y 133.
[436] Oppenheimer, op. cit., p. 35.
[437]Ibid., p. 24.
[438]Ibid., p. 32.
[439]Ibid., p. 39.
[440]Ibid., p. 62.
[441] Geoff Bailey, «World Prehistory from the Margins: The Role of Coastlines in Human Evolution», Journal of Interdisciplinary Studies in History and Archaeology , vol. 1, n.º 1 (verano de 2004), p. 43.
[442] David Frawley y Navaratna Rajaram, Hidden Horizons: Unearthing 10,000 Years of Indian Culture, Swaminarayan Aksharpith, Shahibaug, Amdavad-4, 2006, pp. 61 y 65.
[443] Georg Feuerstein et al., In Search of the Cradle of Civilisation, Wheaton, Quest Books, Illinois y Chennai, India, 2001, p. 91.
[444] Oppenheimer, op. cit., p. 317.
[445]Ibid., lámina 1, frente a la p. 208.
[446]Ibid., p. 378.
[447]Ibid., p. 359.
[448]Ibid., p. 373.
[449] Johanna Nichols, Linguistic Diversity in Space and Time, University of Chicago Press, Chicago y Londres, 1992, pp. 9-10.
[450] Mircea Eliade, A History of Religious Ideas, vol. 1, Collins, Londres, 1979, p. 20 (hay trad. cast.: Historia de las creencias y las ideas religiosas, Paidós, Barcelona, 2010).
[451] Eliade, op. cit., p. 5.
[452] Anne Baring y Jules Cashford, The Myth of the Goddess: Evolution of an Image, Arkana/Penguin Books, 1991/1993, pp. 9-14 (hay trad. cast.: El mito de la diosa: evolución de una imagen, Siruela, Madrid, 2014).
[453] Elizabeth Wayland Barber y Paul Barber, When They Severed Earth from Sky: How the Human Mind Shapes Myth , Princeton University Press, Princeton y Oxford, 2006, passim.
[454]Nature, DOI:10.1038/nature07995.
[455] Haim Ofek, Second Nature: Economic Origins of Human Evolution, Cambridge University Press, Cambridge, 2011, especialmente los mapas de las págs. 185 y 188.
[456]Nature, DOI:10.1038/nature08837.
[457] Malcolm Potts y Roger Short, Ever Since Adam and Eve: The Evolution of Human Sexuality, Cambridge University Press, Cambridge, 1995, p. 85 (hay trad. cast.: Historia de la sexualidad: desde Adán y Eva, Cambridge University Press, Madrid, 2001).
[458] Chris Scarre, «Climate change and faunal extinction at the end of the Pleistocene», capítulo 5 de The Human Past, edición de Chris Scarre, Thames & Hudson, Londres, 2006, p. 13. Véase también: Peter Bellwood, First Farmers, op. cit., p. 65.
[459] David R. Harris (ed.), The Origin and Spread of Agriculture and Pastoralism in Eurasia , University College London Press, Londres, 1996, p. 135.
[460] Peter Watson, Ideas: A History from Fire to Freud, Phoenix/ Weidenfeld & Nicolson, Londres, 2006, p. 77; y Harris (ed.),op. cit., p. 264 (hay trad. cast.: Ideas: historia intelectual de la humanidad, Crítica, Barcelona, 2006).
[461] Jacques Cauvin, The Birth of the Gods and the Origins of Agriculture, Cambridge University Press, Cambridge, 2000 (ed. or. en francés, 1994; traducción de Trevor Watkins), p. 15.
[462] Cauvin, op. cit., pp. 39-48.
[463] Peter Watson, The Great Divide: Nature and Human Nature in the Old World and the New , Harper Perennial, 2012, p. 133 (hay trad. cast.: La gran divergencia: cómo y por qué llegaron a ser diferentes el viejo mundo y el nuevo , Crítica, Barcelona, 2012).
[464] Brian Fagan, The Long Summer: How Climate Changed Civilization, Basic Books, Nueva York, 2004, p. 103 (hay trad. cast.: El largo verano: de la Era Glacial a nuestros días, Gedisa, Barcelona, 2007).
[465] Michael Balter, The Goddess and the Bull: Çatalhöyük: An archaeological journey to the dawn of civilization , Free Press, Nueva York, 2005, pp. 176 y ss. David Grimm, «Dawn of the dog», Science, vol. 348, n.º 6232, 17 de abril de 2015.
[467] Elaine Pagels, Adam and Eve and the Serpent, Weidenfeld & Nicolson, Londres, 1988, p. 29.
[468] Pagels, op. cit., p. 27.
[469] Sobre el «refugio» de Beringia, véase: el número especial de Science, «Welcome to Beringia», vol. 343, 28 de febrero de 2014, pp. 961-963, 979-989; y Heather Pringle, «Ancient Infant was Ancestor of Today’s Native Americans», Science, vol. 343, 14 de febrero de 2014, pp. 716-717; Timothy Taylor, The Prehistory of Sex, Fourth Estate, Londres, 1997, pp. 132 y 144.
[470] Charles Seife, Decoding the Universe: How the New Science of Information Is Explaining Everything in the Cosmos, from Our Brains to Black Holes , Viking/Penguin, Nueva York y Londres, 2007 (hay trad. cast.: Descodificando el universo: cómo la nueva ciencia de la información nos explica todo el cosmos, desde nuestro cerebro hasta los agujeros negros , Ellago, Castellón, 2009).
[471]Ibid., p. 137.
[472] Jared Diamond, Guns, Germs and Steel: the Fates of Human Societies, W. W. Norton, Nueva York y Londres, 2005, p. 47 (hay trad. cast: Armas, gérmenes y acero: la sociedad humana y sus destinos, Debate, Barcelona, 1988).
[473] Peter D. Clift y R. Alan Plumb, The Asian Monsoon: causes, history and effects, Cambridge University Press, Cambridge, 2008, p. 136.
[474]. Brian Fagan, The Long Summer: How Climate Changed Civilisation, Granta, Londres, 2004, p. 170 (hay trad. cast.: El largo verano: de la Era Glacial a nuestros días, Gedisa, Barcelona, 2007).
[475] Fagan, The Long Summer, op. cit., ibid.
[476] Clift y Plumb, op. cit., p. 214.
[477] Andrew Sherratt, «Alcohol and Its Alternatives», en Jordan Goodmanet al. (eds.), Consuming Habits: Drugs in History and Anthropology, Routledge, Londres y Nueva York, 1995, pp. 16-17.
[478] Sherratt, «Alcohol and Its Alternatives», op. cit., pp. 17-18.
[479] Peter T. Furst, Hallucinogens and Culture, Chandler & Sharp, Novato, CA, 1976/88, pp. 2-3 (hay trad. cast.: Los alucinógenos y la cultura, FCE de España, Madrid, 2002).
[480] Elisabeth Benson y Lisa Lucero (eds.), Complex Polities in the Ancient Tropical World, Archaeological Papers of the American Anthropological Association, n.º 9, 1999, pp. 151-165.
[481] Carl O. Sauer, Agricultural Origins and Dispersals, MIT Press, Cambridge, MA, 1952/1969, p. 73.
[482] Véase la ilustración de la pág. 431 de Peter Watson, The Great Divide: Nature and Human Nature in the Old World and the New , HarperCollins, Nueva York, 2011; este libro comenta más extensamente las cuestiones que se discuten en este capítulo (hay trad. cast.: La gran divergencia: cómo y por qué llegaron a ser diferentes el viejo mundo y el nuevo , Crítica, Barcelona, 2012).
[483] Stuart Piggott, Wagon, Chariot and Carriage, Thames & Hudson, Londres y Nueva York, 1992, p. 16. Robert Drews, The End of the Bronze Age: Changes in Warfare and the Catastrophe ca. 1200 BC , Princeton, NJ: Princeton University Press, 1994, pp. 104, 106, 112, 119 y 125.
[484] Sherratt, op. cit., p. 392.
[485] Gérard Chaliand, Nomadic Empires: From Mongolia to the Danube, traducción de A. M. Berrett, Transaction, Rutgers, NJ, 2005, pp. 8-10. A. M. Khazanov, Nomads and the Outside World, traducción de Julia Crookenden, Cambridge University Press, Cambridge, 1984, p. 92.
[486] Daniel Hillel, The Natural History of the Bible: An Environmental Exploration of the Hebrew Scriptures , Columbia University Press, Nueva York, 2006, pp. 16-18 y 56-62. Véase también: Dafna Langgut, Israel Finkelstein y Thomas Litt, «Climate and the Late Bronze Collapse: New Evidence from the Southern Levant», Tel Aviv, vol. 40, 2013, pp. 149-175.
[487] Guy G. Stroumsa, The End of Sacrifice: Religious Transformation in Late Antiquity , traducción de Susan Emanuel, University of Chicago Press, Chicago, 2009, pp. 53-54.
[488] Geoffrey W. Conrad y Arthur A. Demarest, Religion and Empire: The Dynamics of Aztec and Inca Expansionism , Cambridge University Press, Cambridge, 1984, pp. 26 y 29 (hay trad. cast.: Religión e imperio: dinámica del expansionismo azteca e inca, Alianza, Madrid, 1988); David Carrasco, Quetzalcoatl and the Irony of Empire: Myths and Prophecies in the Aztec Tradition , edición revisada, University Press of Colorado, Boulder, CO, 2000, pp. 104 y ss.
[489] Colin Barras, «Dawn of a Continent», New Scientist, 4 de julio de 2015, pp. 28-33; véase también: Watson, The Great Divide, op. cit., pp. 512 y ss.
[490] Hillel, op. cit., pp. 56-62.
[491] Gilbert Ryle, The Concept of Mind, Hutchinson, Londres, 1949, pp. 36 y ss. y 319 y ss.
[492] Miles Weatherall, In Search of a Cure: A History of Pharmaceutical Discovery, Oxford University Press, Oxford, 1990, p. 254.
[493] Weatherall, op. cit., p. 257.
[494] James Le Fanu, The Rise and Fall of Modern Medicine, Little, Brown, Londres, 1999, p. 68.
[495] Le Fanu, op. cit., ibid.
[496] David Healy, The Anti-Depressant Era, Harvard University Press, Cambridge, MA, 1997, pp. 52-54, donde se discute el influyente artículo sobre este tema publicado en Nature en 1960.
[497] Michael Rutter, Genes and Behaviour: Nature-Nurture Interplay Explained, Blackwell, Oxford, 2006, pp. 71 y ss.
[498] Rutter, op. cit., pp. 71 y ss. Véase también: Nicholas Rose y Joelle M. Abi-Rached, Neuro: The New Brain Sciences and the Management of the Mind, Princeton University Press, Princeton y Oxford, 2013, pp. 78-81.
[499] Rose y Abi-Rached, op. cit., pp. 131-132.
[500] Rutter, op. cit., p. 147. Lucas A. Mongiat y Alejandro F. Schindre, «A price to pay for adult neurogenesis», Science, vol. 344, pp. 594-595, 9 de mayo de 2014; Emily Underwood, «Lifelong memories may reside in nets around brain cells», Science Weekly News, Science, 30 de octubre de 2015.
[501] Clare Wilson, «Psychiatry: The Reboot Starts Here», New Scientist, 10 de mayo de 2014, pp. 10-12. J. Andrew Pruszynski y Jörn Diedrichsen, «Reading the Mind to Move the Body», Science, 22 de mayo de 2015, vol. 348, número 6237, pp. 860-861; y Tyson Afialo y once autores más, «Decoding motor imagery from the posterior parietal cortex of a tetraplegic human», pp. 906-910 del mismo número. «Paralysed man thinks to walk»,New Scientist, 3 de octubre de 2015, p. 17; Journal of Neuroengineering and Rehabilitation, doi.org/7wc.
[502] Paul Gilbert y Kent G. Bailey (eds.), Genes on the Couch: Explorations in Evolutionary Psychology, Psychology Press, Londres, 2002, pp. 127-129, 168-169. Véase también: Kalman Glantz y John D. Pearce, Exiles from Eeden: Psychotherapy from an Evolutionary Perspective , W. W. Norton, Nueva York y Londres, 1989.
[503] Rutter, op. cit., pp. 178-210.
[504]Ibid., p. 112.
[505] Nessa Carey, The Epigenetics Revolution: How Modern Biology is Rewriting our Understanding of Genetics, Disease and Inheritance , Icon Books, Londres, 2011, pp. 67-72 (hay trad. cast.: La revolución epigenética: de cómo la biología moderna está reescribiendo nuestra comprensión de la genética, la enfermedad y la herencia , Ediciones de Intervención Cultural, Barcelona, 2013).
[506] Carey, op. cit., pp. 247-249.
[507] Daniel Kahneman, Thinking Fast and Slow, Allen Lane, Londres, 2011, parte 7, pp. 277 y ss. (hay trad. cast.: Pensar rápido, pensar despacio, Debate, Barcelna, 2012).
[508] Michael S. Gazzaniga, Who’s in Charge? Free Will and the Science of the Brain, Robinson, Londres, 2012 (hay trad. cast.: ¿Quién manda aquí?: el libre albedrío y la ciencia del cerebro , Paidós, Barcelona, 2012). El capítulo 3, pp. 75-103 está dedicado a «El intérprete». Véase también pp. 108-114 y 168-172.
[509] Richard Thaler, Misbehaving: The Making of Behavioural Economics, Allen Lane, Londres, 2015 (hay trad. cast.: Todo lo que he aprendido con la psicología económica: el encuentro entre la economía y la psicología, y sus implicaciones para los individuos , Deusto, Barcelona, 2016).
[510] Thaler, op. cit., p. 314.
[511]Ibid., p. 339.
[512]Ibid., p. 330.
[513] David C. Parkes y Michael P. Wellman, «Economic reasoning and artificial intelligence», Science, 17 de julio de 2015, vol. 349, n.º 6245, pp. 267-272; y Samuel J. Gershman et al., «Computational rationality: A converging paradigm for intelligence in brains, minds and machines», Science, 17 de julio de 2015, vol. 349, n.º 6245, pp. 273-278.
[514] Charles Seife, Decoding the Universe: How the New Science of Information is Explaining Everything in the Cosmos, from our Brains to Black Holes , Viking, Nueva York, 2006, p. 59 (hay trad. cast.: Descodificando el universo: cómo la nueva ciencia de la información nos explica todo el cosmos, desde nuestro cerebro hasta los agujeros negros , Ellago, Castellón, 2009).
[515] Seife, op. cit., ibid.
[516]Ibid., p. 101.
[517] George Dyson, Turing’s Cathedral: The Origins of the Digital Universe, Penguin, Londres, 2012, p. 11.
[518] Dyson, op. cit., p. 9.
[519] Katie Hafner y Matthew Lyon, Where Wizards Stay up Late: The Origins of the Internet, Simon & Schuster, Londres, 1996, pp. 253-254. John Naughton, A Brief History of the Future: The Origins of the Internet, Weidenfeld & Nicolson, Londres, 1999, pp. 92-119, passim.
[520] Naughton, op. cit., pp. 140 y ss.; Hafner y Lyon, op. cit., p. 192.
[521] Hafner y Lyon, op. cit., pp. 204 y 223-227.
[522]Ibid., pp. 253 y 257-258.
[523] Brian Winston, Media, Technology and Society: a History from the Telegraph to the Internet , Routledge, Londres, 1998.
[524] Seife, op. cit., p. 58.
[525]Ibid., p. 89.
[526]Ibid., p. 95.
[527]Ibid., pp. 116-117.
[528] Michael White y John Gribbin, Stephen Hawking: A Life in Science, Viking, Nueva York y Londres, 1992, pp. 137-138.
[529] White y Gribbin, op. cit., pp. 154-155.
[530]Ibid., pp. 208 y 274-275.
[531]Ibid., pp. 292-301.
[532] Martin Rees, Just Six Numbers: The Deep Forces that Shape the Universe, Weidenfeld & Nicolson, Londres, 1999; White y Gribbin,op. cit., pp. 216-217 (hay trad. cast.: Seis números nada más, Debate, Barcelona, 2001).
[533] Véase, por ejemplo, New Scientist, 11 de marzo de 2014.
[534] David Bohm y B. J. Hiley, The Undivided Universe: An Ontological Interpretation of Quantum Theory , Routledge, Londres, 1993, p. 358.
[535] David Deutsch, The Fabric of Reality, Penguin Books, Londres, 1997, pp. 352 y ss. (hay trad. cast.: La estructura de la realidad, Anagrama, Barcelona, 2002).
[536] Frank J. Tipler, The Physics of Immortality: Modern Cosmology, God and the Resurrection of the Dead , Macmillan, Londres, 1995 (hay trad. cast.: La física de la inmortalidad: la cosmología moderna y su relación con Dios y la resurrección de los muertos , Alianza, Madrid, 2005).
[537] Deutsch, op. cit., p. 358.
[538]Ibid.
[539] Stephen Wolfram, A New Kind of Science, Wolfram Media, Inc., Champaign, Illinois, 2002, pp. 715-716.
[540] Véase, por ejemplo: Steven Weinberg, «Is the Universe a Computer?», New York Review of Books, 24 de octubre de 2002; Philip Ball, «Life, the Universe and a Game of Chequers», Guardian, 14 de julio de 2002; George Johnson, «A New Kind of Science: You know that Space-Time thing? Never Mind», New York Times, 6 de junio de 2002; Judith Rosen, «Weighing Wolfram’s ‘New Kind of Science’», Publishers Weekly, 13 de enero de 2003.
[541] Wolfram, op. cit., p. 474.
[542]Ibid., p. 719.
[543]Ibid., p. 772.
[544] Lee Smolin y Roberto Mangabeira Unger, The Singular Universe and the Reality of Time, Cambridge University Press, Cambridge, 2014, p. 331.
[545] Smolin y Unger, op. cit., p. 142.
[546]Ibid., p. 275.
[547]Ibid., p. xii. Compárese con: Lee Smolin, The Trouble with Physics: The Rise of String Theory, the Fall of Physics and What Comes Next , Penguin, Londres, 2013, que considera alternativas a la teoría de cuerdas.
[548] Smolin y Unger, op. cit., pp. 102 y 112.
[549]Ibid., p. 301.
[550]Ibid., pp. 328 y 346.
[551] Brian Greene, The Elegant Universe: Superstrings, Hidden Dimensions and the Quest for the Ultimate Theory , Jonathan Cape, Londres, 1998, pp. 174-176 (hay trad. cast.: El universo elegante: supercuerdas, dimensiones ocultas y la búsqueda de una teoría definitiva , Crítica, Barcelona, 2005).
[552] Greene, op. cit., pp. 10-13.
[553]Ibid., pp. 329-331.
[554] Seife, op. cit., p. 177.
[555]Ibid., p. 178.
[556]Ibid., p. 181.
[557] Freeman Dyson, Infinite in All Directions, Harper and Row, Cornelia and Michael Bessie Books, Nueva York, 1988 (hay trad. cast.: El infinito en todas direcciones, Tusquets, Barcelona, 1991).
[558] Abdus Salam, «The Unification of Fundamental Forces», The 1988 Paul Dirac Lecture, Cambridge University Press, Cambridge, 1988, p. 128.
[559] Weinberg, op. cit., p. 136.
[560]Ibid., p. 141.
[561]Ibid., p. 50.
[562] Salam, op. cit., pp. 29-30.
[563] Sean Carroll, The Particle at the End of the Universe: The Hunt for the Higgs and the Discovery of a New World , Oneworld, Nueva York y Londres, 2012, p. 4 (hay trad. cast.: La partícula al final del universo: del bosón de Higgs al umbral de un nuevo mundo , Debate, Barcelona, 2013).
[564] Carroll, op. cit., p. 89.
[565]Ibid., p. 99.
[566]Ibid., p. 170. Véase New Scientist, 20 de junio de 2015, pp. 5 y 33-35 para una discusión; y Adam Frank y Marcelo Gleiser, «A crisis at the edge of physics», International New York Times, 9 de junio de 2015.
[567] Gaylord Simpson, This View of Life, op. cit.
[568]Ibid., p. viii.
[569]Ibid., pp. 110-111.
[570] Arthur Eddington, The Nature of the Physical World, Macmillan, Londres, 1928, pp. 172-173.
[571] Ernest Nagel, The Structure of Science: Problems in the Logic of Scientific Explanation , Routledge & Kegan Paul, Londres, 1961 (hay trad. cast.: La estructura de la ciencia, Paidós, Barcelona, 1991). Citado en Ilya Prigogine e Isabelle Stengers, Order Out of Chaos: Man’s New Dialogue with Nature, Flamingo/Fontana, Londres, 1984, p. 8.
[572] Nagel, op. cit., pp. 362-363.
[573]Ibid., pp. 367-380 y 433-435.
[574]Ibid., p. 372.
[575]Ibid., p. 380.
[576] Philip Warren Anderson, «More is Different: Broken Symmetry and the nature of the hierarchical structure of science», Science, 4 de agosto de 1972, vol. 177, n.º 4047, pp. 393-396. Véase también: Ilya Prigogine, The End of Certainty, Free Press, Nueva York, 1996, pp. 16 y 18 (hay trad. cast.: El fin de las certidumbres, Taurus, Barcelona, 1996).
[577] Los ejemplos de John Taylor se encuentran en su libro Hidden Unity in Nature’s Laws, Cambridge University Press, Cambridge, 2001, pp. 290-295.
[578] Prigogine, End of Certainty, op. cit., p. 18.
[579] Prigogine, Order Out of Chaos, op. cit., p. 162.
[580]Ibid., p. 71.
[581]Ibid., p. 87.
[582] James Gleick, Chaos: Making a New Science, Penguin, Nueva York, 1987 (hay trad. cast.: Caos: la creación de una ciencia, Crítica, Barcelona, 2012).
[583] Prigogine, Order Out of Chaos, op. cit., p. 13; End of Certainty, op. cit., p. 173.
[584] Véase, por ejemplo: Paul Davies (ed.), The New Physics, Cambridge University Press, Cambridge, 1989, p. 321; y Prigogine, Order Out of Chaos, op. cit., p. 152.
[585] Davies, op. cit., pp. 322-323. Para saber más sobre la reacción de Belousov-Zhabotinsky, véase: Philip Ball, Designing the Molecular World, Princeton University Press, Princeton, 1994, pp. 308-309.
[586] Prigogine, Order Out of Chaos, op. cit., p. 152. Sobre las reacciones en amebas, véase: Ball, op. cit., p. 310.
[587] Stuart Kauffman, The Origins of Order: Self-Organization and Selection in Evolution , Oxford University Press, Oxford, 1993.
[588] Ronald Fox, Biophysics Journal, vol. 65, diciembre de 1993, pp. 2698-2699.
[589] Kauffman, op. cit., p. 154.
[590]Ibid.
[591]Ibid., p. 173.
[592] Robert Wesson, Beyond Natural Selection, MIT Press, Cambridge, MA, 1991.
[593] Wesson, op. cit., p. 17.
[594]Ibid., p. 50.
[595]Ibid., p. 70.
[596]Ibid., p. 89.
[597]Ibid., p. 200.
[598]Ibid., p. 297.
[599] Al-Khalili y McFadden, Life on the Edge, op. cit., p. x.
[600]Ibid., p. 297.
[601]Ibid., p. 128. Véase también: Philip Ball, Designing the Molecular World, op. cit., p. 99.
[602]Ibid., p. 131.
[603] Edward O. Wilson, Consilience: The Unity of Knowledge, Knopf, Nueva York, 1998, p. 162 (hay trad cast.: Consilience: la unidad del conocimiento, Crítica, Barcelona, 1999).
[604] Wilson, Consilience, op. cit., pp. 125 y 218.
[605]Ibid., p. 8.
[606]Ibid., p. 12.
[607]Ibid., p. 127.
[608]Ibid., p. 218.
[609]Ibid., p. 221.
[610]Ibid., p. 225.
[611]Ibid.
[612] A. R. Sanders et al., «Genome-wide scan demonstrates significant linkage for male sexual orientation», Psychological Medicine, DOI: 1017/SOO3 3291714002451. También: http://www.sciencedaily.com/releases/2014/09/140918141151.htm .
[613] Sam Harris, The Moral Landscape: How Science Can Determine Human Values, Free Press, Nueva York, 2010, p. 4.
[614] Harris, op. cit., pp. 28-30.
[615]Ibid., p. 73.
[616]Ibid., p. 191.
[617] Patricia Churchland, Braintrust: What Neuroscience Tells Us About Morality, Princeton University Press, Princeton y Oxford, 2011, p. 178.
[618] Churchland, op. cit., p. 9.
[619]Ibid., p. 52.
[620]Ibid., p. 77.
[621] Philip Ball, Critical Mass: How One Thing Leads to Another, William Heinemann, Londres, 2004, p. 35 (hay trad. cast.: Masa crítica: cambio, caos y complejidad, Turner, Madrid, 2008).
[622] Ball, op. cit., pp. 165-178.
[623]Ibid., p. 195.
[624]Ibid., p. 199.
[625]Ibid., p. 398.
[626]Ibid., p. 415.
[627] Lynn Gamwell, Mathematics + Art: A Cultural History, Princeton University Press, Princeton y Oxford, 2015.
[628] Patricia Churchland, Neurophilosophy: Toward a Unified Science of the Mind-Brain, MIT Press, Cambridge, MA, 1986, sobre todo los capítulos 3 (sobre las investigaciones de Andras Pellionisz y Rodolfo Llinás), 5 y 7.
[629] Churchland, Braintrust, op. cit., pp. 48-59, 77-78 y 201-202 sobre la oxitocina/vasopresina.
[630] Daniel Dennett, Freedom Evolves, Allen Lane, Londres, 2003; véase también la interesante reseña del libro de Dennett firmada por Mary Midgley en The Guardian, 1 de marzo de 2003.
[631] Dennett, op. cit., p. 89.
[632] Hilary Putnam, Philosophy in an Age of Science: Physics, Mathematics and Skepticism , edición de Mario de Caro y David Macarthur, Harvard University Press, Cambridge, MA, 2012, capítulo 2, pp. 51 y ss.
[633] Putnam, op. cit., p. 52.
[634]Ibid., p. 59.
[635]Ibid., p. 244.
[636]Ibid., p. 131.
[637]Ibid., p. 138.
[638]Ibid., pp. 41-42. Véase también: Tim Maudlin, «The Tale of Quantum Logic», capítulo 6 en Yemima Ben-Menahem (ed.), Hilary Putnam, Cambridge University Press, Cambridge; y Nancy Cartwright, «Another Philosopher looks at Quantum Mechanics», capítulo 7 del mismo libro.
[639]Ibid., p. 336.
[640] Jonathan Glover, What Sort of People Should There Be?, Penguin, Londres, 1984; y Choosing Children: Genes, Disability and Design, Oxford University Press , Oxford, 2006. Véase también: Julian Savulescu y Nick Bostrom, Human Enhancement, Oxford University Press, Oxford, 2013.
[641] Jürgen Habermas, The Future of Human Nature, Polity Press, Cambridge, 2003, p. 38 (original en alemán: Die Zukunft der menschlichen Natur. Auf dem Weg zu einer liberalen Eugenik? , Suhrkamp, Frankfurt am Main 2001; hay trad. cast.: El futuro de la naturaleza humana: ¿hacia una eugenesia liberal? , Paidós, Barcelona, 2002).
[642] Habermas, op. cit., pp. 39 y 48.
[643]Ibid., pp. 56 y 79-78 y 87.
[644] Robert Laughlin, A Different Univers: Reinventing Physics from the Bottom Down , Basic Books, Nueva York, 2005, p. 211.
[645] John Dupré, The Disorder of Things: Metaphysical Foundations of the Disunity of Science , Harvard University Press, Cambridge, MA, 1993, p. 1.
[646] Dupré, op. cit., p. 19.
[647]Ibid., pp. 62-63.
[648]Ibid., p. 89.
[649]Ibid., p. 92.
[650] Peter Galison y David J. Stump (eds.), The Disunity of Science: Boundaries, Contexts, and Power, Stanford University Press, Stanford, CA, 1996, p. 135.
[651] Dupré, op. cit., p. 147.
[652]Ibid., p. 167.
[653] Galison y Stump, op. cit., p. 39.
[654]Ibid., p. 68.
[655]Ibid., p. 139.
[656] Dupré, op. cit., p. 224.
[657]Ibid., p. 115.
[658]Ibid. ; véase también Dupré, op. cit., p. 182.
[659]Ibid., p. 199.
[660] Galison y Stump, op. cit., p. 402.
[661]Ibid., p. 67.
[662] Dupré, op. cit., p. 224.
[663] Richard Dawkins, The Blind Watchmaker, Longman, Londres, 1986/ Penguin 1988 y 1991, p. 123 (hay trad. cast.: El relojero ciego, RBA, Barcelona, 1993).
[664] Nick Lane, The Vital Question: Why Is Life the Way It Is?, Profile Books, Londres, 2015, p. 39 (hay trad. cast.: La cuestión vital: ¿por qué la vida es como es?, Ariel, Barcelona, 2016).
[665]Science, 22 de mayo de 2015, vol. 348, n.º 6237, pp. 860-861 y 906.
[666] Stuart Kauffman, Reinventing the Sacred: A New View of Science, Reason, and Religion , Basic Books, Nueva York, 2010, p. 36.
[667] Kauffman, Reinventing the Sacred, op. cit., p. 98.
[668] Steven Strogatz, Sync: The Emerging Science of Spontaneous Order, Penguin, Londres, 2003/2004, passim pero especialmente pp. 168-183.
[669] Laughlin, op. cit., pp. xv, 4 y 12.
[670]Ibid., p. xi.
[671]Ibid., p. 5.
[672]Ibid., p. 15.
[673]Ibid., p. 50.
[674]Ibid., p. 63. Véase también: Robert Laughlin, The Crime of Reason and the Closing of the Scientific Mind, Basic Books, Nueva York, 2008, donde carga contra unas cuantas ideas científicas más que considera erróneas (como los agujeros negros).
[675] Laughlin, A Different Universe, op. cit., p. 76.
[676]Ibid., p. 109.
[677]Ibid., p. 170.
[678]Ibid., pp. 200-201.
[679]Ibid., p. 219.
[680] Nick Lane, op. cit., p. 132.
[681]Ibid., p. 133.
[682]Ibid., p. 134. Science, vol. 348, Issue 6235, 8 de mayo de 2015, pp. 615-616.
[683] Nick Lane, op. cit., p. 92.
[684]Ibid., p. 107.
[685]Ibid., p. 173. Lane introdujo la importancia de la mitocondria y la «energía protónica» en un libro anterior: Power, Sex, Suicide: Mitochondria and the Meaning of Life, Oxford University Press, Oxford, 2005.
[686] Lane, The Vital Question, op. cit., pp. 103-104.
[687]Ibid., p. 173.
[688]Ibid., p. 134.
[689] Adam Benforado, Unfair: The New Science of Criminal Injustice, Crown, Nueva York, 2015. Science, 28 de noviembre de 2014, vol. 345, n.º 6213, p. 1146.
[690]Ibid., p. 1147.
[691]Ibid., p. 1148.
[692]Ibid., p. 1146.
[693] Philip Ball, Critical Mass, op. cit., pp. 581-583.
[694] Pedro Domingos, The Master Algorithm: How the quest for the ultimate learning machine will remake our world , Basic Books/Penguin, Nueva York y Londres, 2015.

Notas al fin del libro
[i] Joseph Justus Scaliger (1540-1609) y Gerardus Vossius (1577-1649) contribuyeron a llevar la historia y las humanidades más allá de la teología.
[ii] La mayoría de los términos en inglés de esta cita pueden entenderse sin mayor dificultad. Sciolist es una persona que finge tener un conocimiento que no posee, natur-forscher puede traducirse por «examinador de la naturaleza», y en los equivalentes en inglés, nature-poker sería quien hurga en la naturaleza, y nature-peeper, quien mira furtivamente la naturaleza. (N. del t.)
[iii] La ley del inverso del cuadrado se aplica cuando una fuerza o energía se irradia de forma homogénea desde una fuente puntual hacia un espacio tridimensional, por ejemplo, desde una bombilla. Como la superficie de una esfera es proporcional al cuadrado de su radio, la radiación emitida (la luz en este ejemplo) se esparce sobre un área que aumenta en proporción al cuadrado de la distancia a la fuente. Cuando nos sentamos junto a una luz para leer, el fenómeno se nos manifiesta claramente. Si movemos la silla a una distancia de la fuente de luz que sea el doble de la inicial, la luz disminuye en proporción al cuadrado, es decir, 22, y por tanto es cuatro veces más tenue.
[iv] «Bobalicón», en la jerga escocesa. (N. del t.)
[v] Sir Edwin Henry Landseer (1802-1873), pintor inglés conocido por sus pinturas de animales y célebre por las esculturas de leones de la plaza Trafalgar de Londres. (N. del t.)
[vi] Las universidades de Oxford y Cambridge. (N. del t.)
[vii] Esta fue la obra sobre la que escribió Mary Somerville en su primer intento de producir algo para la Sociedad para la Difusión del Conocimiento Útil, y que finalmente publicó John Murray (véase la introducción).
[viii] Génesis 2:2 y Salmos 90:4. (N. del t.)
[ix] «Peso atómico» es hoy en día un término histórico. Hoy se prefiere hablar de masa atómica relativa. Aunque el número atómico del hidrógeno es 1, su masa atómica relativa es 1,008. Este es un número relativo a los átomos de otros elementos, y tiene en cuenta las ligeras diferencias entre isótopos (como el deuterio en el caso del hidrógeno), que no se conocían en tiempos de Mendeléyev.
[x] La Medalla Davy, en honor a Humphry Davy (1778-1829), reconoce investigaciones sobresalientes en química.
[xi] Los halógenos se obtienen de minerales o sales, y forman ácidos al unirse con hidrógeno.
[xii] En 1995, Nature informó de que podría no haber muerto por culpa del radio, sino de los rayos X.
[xiii]Dux («líder», en latín) se pronuncia en inglés igual que ducks, es decir, «patos». (N. del t.)
[xiv] Un tercer tipo de radiación, parecida a los rayos X, fue descubierta en 1900 por el físico francés Paul Ulrich Villard. De las tres, esta era la más penetrante, y solo podía frenarse con plomo. Se conoce como radiación gamma.
[xv] ¿Exactamente hasta qué punto eran pequeños los átomos? Jean Baptiste Perrin (1870-1942) usó los trabajos de Maxwell y las matemáticas de Einstein para estimar el tamaño de las moléculas de agua y de los átomos que las forman. Llegó a la conclusión, en 1913, de que los átomos medían aproximadamente una cienmillonésima de un centímetro: 250 millones de ellos alcanzarían una longitud de unos 2,6 centímetros. En la actualidad (es decir, en el siglo XXI), podemos fotografiarlos y aumentarlos lo bastante como para verlos a simple vista.
[xvi] Si el lector tiene dificultades para visualizar algo que es a un mismo tiempo una partícula y una onda, no se encuentra solo. Tratamos aquí de cualidades que son esencialmente matemáticas, y todas las analogías visuales y el lenguaje común resultan inadecuados. Niels Bohr dijo que quien no se «marea» con la idea misma de lo que los físicos más tarde llamarían «extrañeza cuántica» es que ha perdido la cordura.
[xvii] El cálculo corresponde al factor de dilatación, o factor de Lorentz, ? = 1/v(1 - c2/v2), donde v es la velocidad del objeto (el tren) y c es la velocidad de la luz (300.000 kilómetros por segundo o, en las unidades de velocidad del tren, 1.080.000.000 kilómetros por hora). (N. del t.)
[xviii] Esta es la traducción usual de la expresión original en alemán, die glück- lichste Gedanke, que se vertería mejor como «el más afortunado».
[xix] Más tarde doblaría su predicción. Un segundo de arco es un ángulo de 1/3.600 de grado.
[xx] El año luz (la distancia recorrida por la luz en un año, unos 9,46 billones de kilómetros) fue propuesto originalmente por Friedrich Bessel (1784-1846), director del Observatorio Königsberg, quien se percató de la necesidad de una unidad de longitud que hiciera comprensibles las enormes distancias interestelares. Hasta entonces se usaba la Unidad Astronómica (UA), equivalente al radio de la órbita de la Tierra alrededor del Sol, aproximadamente 150 millones de kilómetros.
[xxi] La Sociedad Kaiser Wilhelm para el Avance de la Ciencia financiaba institutos de investigación científica fuera de las universidades alemanas, con el fin de que las figuras más destacadas quedasen libres de la carga docente. Tras la segunda guerra mundial se le cambió el nombre por el de Sociedad Max Planck.
[xxii] Después de que Carl von Ossietzky fuese galardonado con el premio Nobel de la Paz en 1936, no se permitió a ningún alemán aceptar ninguno de los premios Nobel.
[xxiii] La anexión de Austria por Alemania. (N. del t.)
[xxiv] Aunque uno de los pocos libros que hacen referencia a Mendel, Die Pflanzen Mischlinge [Las plantas híbridas, 1881], de S. O. Focke, pasó por las manos de Darwin.
[xxv] Del inglés quasar, abreviatura de quas[i stell]ar [radio source], es decir, fuente cuasiestelar de ondas de radio. (N. del t.)
[xxvi] La concepción moderna de la antimateria fue formulada originariamente por Paul Dirac a finales de la década de 1920, cuando trabajaba en una combinación de la teoría de Einstein de la relatividad especial y la teoría cuántica. Dirac (a quien algunos consideran solo por detrás de Einstein por su imaginación de físico, y por delante de Bohr y los otros) halló que sus cálculos conducían a la sorprendente predicción de un electrón con carga positiva. Este con el tiempo se llamaría positrón y se observaría experimentalmente en numerosas ocasiones. Todas las otras partículas tienen sus equivalentes de antimateria, partículas idénticas en todos los sentidos pero de carga opuesta. Aunque las partículas de la antimateria y las de la materia son tan parecidas, su existencia en el mundo difiere enormemente. Todo nuestro mundo está hecho de materia, y este desequilibrio sigue siendo un rompecabezas sin explicación. Sin él, la materia y la antimateria sin duda se habrían aniquilado mutuamente hace miles de millones de años, en el principio del tiempo, y no habría habido ningún universo. Se han observado pequeñas cantidades de antimateria en cúmulos galácticos, pero, en esencia, el misterio sigue en pie. Y tal como demuestra un párrafo de la página siguiente, no es el único.
[xxvii] En algunos departamentos de geología de las universidades actuales, el 22 de octubre todavía se celebra (irónicamente) el cumpleaños de la Tierra.
[xxviii] Cretáceo proviene del latín creta, tiza. K es la abreviatura tradicional, tomada de la palabra alemana con el mismo significado: Kreide.
[xxix] En 1968, la Academia Sueca de las Ciencias, que administraba los premios Nobel de acuerdo con el testamento original de Alfred Nobel, fue designada responsable de administrar el premio Sveriges Riksbank de economía en honor a Nobel, y este premio, que hoy conocemos como el Nobel de Economía, fue concedido por primera vez en 1969.
[xxx] El espinoso (Gasterosteus aculeatus) es un pequeño pez de aguas costeras, y ocasionalmente de aguas dulces o salobres, donde freza. Es nativo del norte de Europa, Asia y América del Norte, y se usa en experimentación por ser fácil de mantener en acuarios. (N. del t.)
[xxxi] Así se expresa en la versión estándar revisada (1952). En la versión King James (1611), el mismo pasaje se traslada así: «Multiplicaré en gran manera tus penas y tu concepción; con pena traerás al mundo a tus hijos».
[xxxii] En otro caso reciente, se ha utilizado la moderna astronomía para explicar la expansión durante los inicios del cristianismo. William K. Hartmann, cofundador del Instituto de Ciencia Planetaria de Tucson, en Arizona, ha argumentado que la conversión de Saúl de camino a Damasco, que se cree que tuvo lugar en el año 35 d. C., cuando vio una luz brillante en el cielo y creyó oír la voz de Jesús, recuerda «la secuencia que se observa en un bólido», y se parece mucho al bólido que cruzó Cheliábinsk, en Rusia, en 2013. Se cuentan entre los paralelos que el bólido de Cheliábinsk brillaba tres veces más que el Sol, como Saúl/Pablo afirmaba, que él y sus compañeros cayeron al suelo (igual que algunas personas cuando el bólido ruso explotó en el cielo, generando una onda expansiva sobre Cheliábinsk), y que quedó cegado (en Cheliábinsk hubo personas que sufrieron fotoqueratitis, la ceguera temporal causada por la radiación ultravioleta intensa {Véase: New Scientist, 25 de abril de 2015, pp. 8-9; y Meteoritics & Planetary Science, doi.org/3vn})
[xxxiii] Así llamados a causa de los tres anillos que tiene su estructura química, que difiere en solo dos átomos de la clorpromazina.
[xxxiv] Estos son algunos de los nombres comerciales de los fármacos fluoxetina (Prozac), paroxetina (Paxil) y sertralina (Zoloft). El lector interesado puede encontrar información detallada en http://www.vademecum.es. (N. del t.)
[xxxv] En octubre de 2015 se dio a conocer el caso de un hombre de 26 años que tenía paralizadas ambas piernas y había caminado por primera vez en cinco años «solo con pensar en ello». Científicos de la Universidad de California en Irvine desarrollaron un casco de electrodos que «detecta si una persona está pensando en caminar o en estar parado», y lo ajustaron para recibir señales cerebrales de su voluntario, que caminó 3,8 metros hasta un cono de tráfico.
[xxxvi] Antes de los servidores de dominios, cada computadora tenía un nombre propio, y uno de los más populares era Frodo, por el nombre de un hobbit de J. R. R. Tolkien. (N. del t.)
[xxxvii] Algunos físicos no ven más que una analogía en esta similitud entre termodinámica e información.
[xxxviii] La expresión fue acuñada por John Horgan enThe End of Science (hay trad. cast.: El fin de la ciencia, Paidós Ibérica, Barcelona, 1998) para referirse a la ciencia «especulativa» y «postempírica» que «ofrece puntos de vista, opiniones, que como mucho son interesantes, pero no convergen hacia la verdad». (N. del t.)
[xxxix] El efecto túnel es otro de los aspectos extraños de la teoría cuántica. La analogía más popular que usan los físicos es la de una bola de cojinete que se hace rodar por una cuesta arriba. En la física clásica, si la bola no se impulsa con la energía suficiente, no podrá llegar a lo alto y rodar hasta el otro lado. En el mundo cuántico, en cambio, en el que la bola es tanto una partícula como una onda, el elemento onda puede atravesar la colina como por un túnel y alcanzar el otro lado tomando energía «prestada» del material que atraviesa.
[xl] En octubre de 2015, un congreso celebrado en Oxford dio a conocer que hay varios equipos trabajando en computadoras cuánticas, con la intención de tener una operativa en 2020. (Ver a: Jacob Aron, «Quantum Technology to hit the streets», New Scientist, 17 de octubre de 2015, p. 10.)
[xli] Por cierto, Salam no intentó tan solo unificar la física, sino también a los físicos. Aseguraba que Wolfgang Pauli veneraba a Paul Dirac, que Dirac veneraba a Heisenberg, que Heisenberg veneraba a Bohr y que Bohr veneraba a Einstein. (Steven Weinberg,Dreams of a Final Theory: The Scientist’s Search forthe Ultimate Laws of Nature, Vintage, Nueva York, 1993, pp. 14 y 33 (hay trad. cast.: El sueño de una teoría final: la búsqueda de las leyes fundamentales de la naturaleza , Crítica, Barcelona, 1994). Véase también: John C. Taylor, Hidden Unity in Nature’s Laws, Cambridge University Press, Cambridge, 2001. Hay buenos capítulos sobre: «La teoría cuántica y la relatividad especial», «El orden rompe la simetría», «Qué mantiene unidos a los quarks», «¿Cómo distinguimos el futuro del pasado?», y «Teoría de cuerdas: más allá de los puntos». El punto fuerte de este libro no es tanto su originalidad como su organización y claridad.)
[xlii] Peter Higgs y François Englert recibieron el premio Nobel de Física en 2013 «por su descubrimiento teórico de un mecanismo que contribuye a nuestra comprensión del origen de la masa de las partículas subatómicas».
[xliii] Naturalmente, la capacidad de manipular partículas ha tenido aplicaciones en medicina, tecnología de los alimentos y muchas áreas de la biología.
[xliv] Los reactivos son ácido malónico y sales que contienen bromato e iones bromuro. Durante la reacción, el ácido malónico se convierte en ácido bromomalónico.