Las lagartijas no se hacen preguntas - Leonard Mlodinow

A Simon Mlodinow

Parte 1
Los pensadores erguidos

La experiencia más bella y profunda que puede tener un hombre es el sentido del misterio. Es el principio que subyace a la religión y a todos los empeños serios de las artes y las ciencias. Quien no haya tenido nunca esta experiencia, me parece que, si no muerto, al menos está ciego.

Albert Einstein, Mi credo, 1932
Contenido:
1. El anhelo de conocimiento
2. Curiosidad
3. Cultura
4. Civilización
5. Razón
1. El anhelo de conocimiento
Mi padre me habló en cierta ocasión de un escuálido preso del campo de concentración de Buchenwald que tenía conocimientos de matemáticas. Lo que a una persona le viene a la cabeza cuando oye la palabra «pi» nos dice algo sobre ella. Para el «matemático» era la relación entre la circunferencia de un círculo y su diámetro. Si le hubieran preguntado a mi padre, que apenas tenía educación primaria, me habría contestado que era un círculo de masa de harina rellena de manzana[I].
Un día, a pesar del abismo que los separaba, el preso matemático le propuso a mi padre que resolviera un problema. Mi padre le dio vueltas durante unos cuantos días, pero no logró desentrañarlo. Cuando volvió a ver al preso, le preguntó por la solución. El hombre no se la quería dar, le decía que tenía que descubrirla por sí mismo. Pasó algún tiempo, y mi padre volvió a preguntárselo, pero el otro preso se aferraba a su secreto como si fuera un lingote de oro. Mi padre intentó reprimir su curiosidad, pero no pudo. En medio del hedor y la muerte que lo rodeaban, se obsesionó con la respuesta. Por fin el otro preso le propuso un trato: le revelaría la solución si le daba su mendrugo de pan. No sé lo que pesaría mi padre por aquel entonces, pero cuando lo liberó el ejército estadounidense no llegaba a los cuarenta kilos. Pese a ello, su anhelo de saber era tan fuerte que se había desprendido de su mendrugo de pan a cambio de la respuesta.
Fue al final de mi adolescencia cuando mi padre me contó este episodio, que me afectó profundamente. La familia de mi padre había desaparecido, sus posesiones habían sido confiscadas y su cuerpo privado de alimento, debilitado, golpeado. Los nazis los habían despojado de todo lo palpable, pero su deseo de pensar y razonar y conocer había sobrevivido. Era prisionero, pero su mente era libre para vagar, y lo hizo. Comprendí entonces que la búsqueda del conocimiento es el más humano de nuestros deseos, y que, por diferentes que fueran nuestras circunstancias, mi propia pasión por entender el mundo tenía su origen en el mismo instinto que la de mi padre.
Cuando me dediqué a estudiar ciencias, en la universidad y después, mi padre no me preguntaba tanto sobre las cuestiones técnicas de lo que aprendía como sobre su significado subyacente: de dónde venían las teorías, por qué me parecían hermosas, qué nos decían sobre nosotros como seres humanos. Este libro, escrito décadas más tarde, es mi intento de dar por fin respuesta a aquellas preguntas.
Hace varios millones de años, los humanos empezamos a erguirnos, alterando nuestros músculos y esqueleto de manera que nos permitiera caminar en una postura erecta, lo que liberó nuestras manos para reconocer y manipular los objetos de nuestro entorno y ensanchó el panorama de nuestra visión, que ahora nos permitía explorar en la lejanía. Pero al tiempo que erguíamos la postura, nuestra mente se elevaba por encima de la de otros animales y nos permitía explorar el mundo no ya con la vista, sino con el pensamiento. Caminamos erguidos pero, por encima de todo, somos pensadores.
La nobleza de la raza humana radica en nuestro anhelo de conocimiento, y lo que nos hace únicos como especie queda reflejado en los logros que hemos alcanzado, tras miles de años de esfuerzo, en nuestro empeño por descifrar el enigma que es la naturaleza. Si a un humano de la antigüedad le hubieran dado un microondas para calentar su carne de uro, tal vez pensara que en su interior había un ejército de laboriosos y minúsculos dioses que encendían hogueras diminutas bajo la comida, y luego desaparecían milagrosamente cuando se abría la puerta. Pero igual de milagrosa es la verdad: que un puñado de leyes abstractas, simples e inviolables, explican todo nuestro universo, desde el funcionamiento de un microondas hasta los prodigios naturales del mundo que nos rodea.
A medida que avanzaba nuestro conocimiento del mundo natural, pasamos de percibir las mareas como un fenómeno regido por una diosa a entenderlas como el resultado de la atracción gravitatoria de la Luna, y dejamos de ver las estrellas como dioses que flotan en el firmamento a identificarlas como hornos nucleares desde los cuales nos llegan fotones. Hoy entendemos el funcionamiento interno de nuestro Sol, a cientos de millones de kilómetros de nuestro planeta, y la estructura de un átomo más de mil millones de veces más pequeño que nosotros. Que hayamos logrado descodificar estos y otros fenómenos naturales no es solo un prodigio, es también una historia épica y fascinante.
Hace algún tiempo formé parte del equipo de guionistas de una temporada de la serie televisiva Star Trek: La nueva generación. En mi primera reunión de guiones, sentado a una mesa poblada con todos los guionistas y productores del programa, lancé una idea para un episodio que me entusiasmaba porque en ella intervenía la astrofísica real del viento solar. Todos los ojos estaban centrados en mí, el físico de la sala, mientras excitadamente explicaba los detalles de mi idea y la ciencia que había detrás. Cuando acabé (había tardado menos de un minuto), miré lleno de orgullo y satisfacción a mi jefe, un taciturno productor de mediana edad que en otro tiempo había trabajado como detective de homicidios en la policía de Nueva York. Me miró un momento con un rostro extrañamente ilegible y luego pronunció con gran énfasis: «¡Cierra el pico, jodido empollón!».
Cuando me sobrepuse al bochorno, comprendí que lo que intentaba decirme de tan sucinta manera era que me habían contratado por mi capacidad para contar historias, no para montar unas clases extraescolares sobre la física de las estrellas. Asumí su opinión, y desde entonces he dejado que me guíe en todo lo que escribo. (Su otra sugerencia memorable: si alguna vez sospechas que te van a despedir, baja la calefacción de tu piscina).
En las manos equivocadas, la ciencia, como todos sabemos, puede ser aburrida hasta decir basta. Pero la historia de lo que sabemos y de cómo lo sabemos no es aburrida en absoluto. Al contrario, es tremendamente emocionante. Llena de episodios de descubrimiento que no son menos cautivadores que un episodio de Star Trek o el primer viaje a la Luna, poblada de personajes tan apasionados e idiosincrásicos como los que conocemos en el arte, la música o la literatura, de buscadores cuya insaciable curiosidad llevó a nuestra especie desde sus orígenes en la sabana africana a la sociedad en la que hoy vivimos.
¿Cómo lo lograron? ¿Cómo pasamos de ser una especie que apenas había aprendido a caminar erguida y vivía de frutos, bayas y raíces que recolectaba con sus propias manos a una que vuela en aviones, envía mensajes al instante por todo el mundo y recrea en enormes laboratorios las condiciones del universo primigenio? Esa es la historia que quiero contar, porque conocerla es entender nuestra herencia como seres humanos.
Se ha convertido en un cliché decir que en la actualidad el mundo es plano. Pero si es cierto que las distancias y diferencias entre países se van reduciendo, también lo es que las diferencias entre el hoy y el ayer van aumentando. Cuando se construyeron las primeras ciudades, hacia el 4000 a. C., la manera más rápida de viajar a larga distancia era en una caravana de camellos, que se desplazaba a unos pocos kilómetros por hora. De mil a dos mil años más tarde se inventó el carro[1], que elevó la velocidad máxima hasta unos 30 kilómetros por hora. No fue hasta el siglo XIX cuando la locomotora a vapor permitió al fin viajar deprisa, con velocidades de más de 150 kilómetros por hora a finales de la centuria. Pero aunque a los humanos nos llevó dos millones de años pasar de correr a 15 kilómetros por hora a atravesar un país a 150 kilómetros por hora, solo hicieron falta cincuenta años más para alcanzar el siguiente factor de diez, con la creación de un avión que podía volar a 1500 kilómetros por hora. Y en los años 1980, los humanos ya viajábamos a más de 25 000 kilómetros por hora en la lanzadera espacial.
La evolución de otras tecnologías también muestra la misma aceleración. Es el caso de las comunicaciones. Aun en el siglo XIX, la agencia Reuters usaba palomas mensajeras para enviar las cotizaciones de bolsa entre ciudades[2].
Más tarde, a mediados del siglo XIX, se extendió el telégrafo, y en el siglo XX, el teléfono. Hicieron falta ochenta y un años para que el teléfono fijo alcanzara una penetración de mercado del 75%, pero el teléfono móvil logró lo mismo en veintiocho años, y el teléfono inteligente en tan solo trece. Durante los últimos años, primero el correo electrónico, luego los mensajes de texto, suplantaron en buena medida a las llamadas telefónicas como medio de comunicación, y hoy el teléfono cada vez se usa menos para hacer llamadas y más como ordenador de bolsillo.
«El mundo actual», decía el economista Kenneth Boulding, «es tan distinto del mundo en el que nací como aquel mundo lo era del de Julio César [3]».
Boulding nació en 1910 y murió en 1993. Los cambios que presenció, y muchos otros que se han producido desde entonces, fueron productos de la ciencia y de la tecnología que esta alimenta. Esos cambios forman parte de la vida humana más que en cualquier otro tiempo pasado, y nuestro éxito en el trabajo y en la sociedad depende cada vez más de nuestra habilidad para asimilar las innovaciones y para innovar nosotros mismos. Hoy, incluso quienes no trabajan en la ciencia o la tecnología se enfrentan a retos que los obligan a innovar para seguir siendo competitivos, y por eso la naturaleza del descubrimiento es un tema que nos importa a todos.
Para ganar perspectiva sobre nuestra posición actual y albergar alguna esperanza de entender adónde nos dirigimos, es necesario saber de dónde venimos. Los mayores triunfos de la historia intelectual del hombre (la escritura y la matemática, la filosofía natural y las diversas ciencias) suelen presentarse aislados, como si cada uno de ellos no tuviera nada que ver con los otros. Pero esa manera de ver las cosas hace hincapié en los árboles, no en el bosque. Olvida, por su propia naturaleza, la unidad del conocimiento humano. El desarrollo de la ciencia moderna, por ejemplo, que a menudo se proclama como la obra de «genios aislados» como Galileo o Newton, no surgió de un vacío social o cultural. Hundió sus raíces en el modo de acercarse al conocimiento que inventaron los antiguos griegos, creció con las grandes preguntas que planteaba la religión, se desarrolló de la mano de nuevas formas artísticas, fue influido por las lecciones de la alquimia y habría sido imposible sin progresos sociales que van del desarrollo de las grandes universidades de Europa a invenciones mundanas como la de los sistemas de correo que conectaron ciudades y países cercanos. La ilustración griega, a su vez, nació de las asombrosas invenciones intelectuales de pueblos más antiguos, en tierras como Mesopotamia y Egipto.
A causa de estas influencias y conexiones, la historia de cómo llegaron los humanos a entender el cosmos no consiste en viñetas aisladas, sino que forma, como la mejor ficción, una narración coherente, un todo unificado cuyas partes tienen numerosas interconexiones, y que comienza en los albores de la humanidad. En lo que sigue, ofrezco una guía selectiva de esa odisea de descubrimiento.
Nuestro viaje se inicia con el desarrollo de la mente de los humanos modernos y se centra en las eras críticas y los puntos de inflexión durante los cuales esa mente realizó saltos hasta nuevas maneras de mirar el mundo. A lo largo del camino, presentaré algunos de los personajes fascinantes cuyas únicas y personales cualidades y modos de pensar desempeñaron un papel importante en esas innovaciones.
Como tantos otros relatos, este se divide en tres partes. La parte I, que se extiende a lo largo de millones de años, sigue la evolución del cerebro humano y su propensión a preguntarse «¿por qué?». Nuestros porqués nos empujaron a nuestras primeras indagaciones espirituales y, con el tiempo, nos llevaron a desarrollar la escritura y la matemática y el propio concepto de ley, que son las herramientas necesarias para la ciencia. En su momento, aquellos porqués nos llevaron a concebir la filosofía, la idea de que el mundo material responde a ritmos y razones que, en principio, podemos comprender.
La siguiente fase de nuestro periplo explora el nacimiento de las ciencias duras. Es una historia de revolucionarios que gozaron del don de ver el mundo de otro modo, y de la paciencia, la determinación, el ingenio y el coraje para persistir en su empeño durante los años o incluso décadas que precisaron para desarrollar sus ideas. Estos pioneros, pensadores como Galileo, Newton, Lavoisier y Darwin, lucharon largo y duro contra la doctrina establecida de su tiempo, de manera que sus historias son inevitablemente historias de lucha personal en las que, a veces, estuvo en juego hasta su propia vida.
Por último, como en tantos buenos relatos, el nuestro da un giro inesperado justo cuando sus héroes tienen razones para pensar que se acercan al final de su viaje. En un extraño giro argumental, cuando la humanidad creía que había descifrado todas las leyes de la naturaleza, pensadores como Einstein, Bohr y Heisenberg descubrieron un nuevo dominio de la existencia, un dominio invisible en el que había que reescribir aquellas leyes. Ese «otro» mundo, con sus leyes sobrenaturales, se desarrolla a una escala demasiado pequeña para que podamos aprehenderla directamente: el microcosmos del átomo, regido por las leyes de la física cuántica. Son esas leyes las responsables de los grandes y cada vez más rápidos cambios que nuestra sociedad experimenta en la actualidad, pues fue la comprensión del mundo cuántico lo que permitió la invención de los ordenadores, los teléfonos móviles, los televisores, los láseres, la internet, los métodos de imagen en medicina, el mapeo genético y muchas de las nuevas tecnologías que han revolucionado la vida moderna.
Mientras que la Parte 1 de este libro abarca millones de años y la Parte 2 varios siglos, la parte 3 apenas comprende unas pocas décadas, lo que refleja la aceleración exponencial del conocimiento humano, y la novedad de nuestras incursiones en este extraño mundo.
La odisea humana del descubrimiento abarca muchas eras, pero los temas de nuestro empeño por entender el mundo no varían nunca, pues surgen de nuestra propia naturaleza humana. Uno de estos temas le resultará familiar a cualquiera que trabaje en un campo dedicado a la innovación y el descubrimiento: la dificultad de concebir un mundo, o una idea, distintos del mundo o las ideas que ya conocemos.
En los años 1950, Isaac Asimov, uno de los mejores y más creativos autores de ciencia ficción de todos los tiempos, escribió la trilogía Fundación , una serie de novelas en las que la acción se sitúa a muchos miles de años en el futuro. En estas novelas, los hombres se desplazan cada día para trabajar en sus oficinas mientras las mujeres se quedan en casa. En tan solo unas pocas décadas, esa visión del futuro lejano ya era cosa del pasado. Si lo traigo a colación es porque ilustra una limitación casi universal del pensamiento humano: nuestra creatividad queda restringida por el pensamiento convencional que nace de creencias de las que no podemos despojarnos, o que ni siquiera pensamos en cuestionar.
La otra cara de la dificultad de concebir el cambio es la dificultad de aceptarlo, y ese es otro de los temas recurrentes de nuestra historia. A los seres humanos, el cambio puede resultarnos abrumador. El cambio es exigente con nuestra mente, nos aleja del ámbito en que nos sentimos más cómodos, quebranta nuestros hábitos mentales. Produce confusión y desorientación. Requiere que nos despojemos de nuestras viejas maneras de pensar, y ese despojarnos no es elección nuestra sino imposición. Más aún, a menudo los cambios desencadenados por el progreso científico desbaratan sistemas de creencias que comparte un gran número de personas, y que posiblemente afecten a sus profesiones y modos de vida. En consecuencia, las nuevas ideas científicas suelen topar con resistencia, indignación y ridículo.
La ciencia es el alma de la tecnología moderna, la raíz de la civilización moderna. Está en la base de muchas de las cuestiones políticas, religiosas y éticas de nuestros días, y las ideas que la sustentan están transformando la sociedad a un ritmo cada vez más rápido. Pero del mismo modo que la ciencia desempeña un papel fundamental en la formación de los patrones del pensamiento humano, no es menos cierto que los patrones del pensamiento humano han jugado un rol decisivo en la formación de nuestras teorías científicas. Y es que la ciencia es, como bien señalaba Einstein, «tan subjetiva y psicológicamente condicionada como cualquier otra rama del empeño humano[4]».
Este libro es un intento por describir los desarrollos de la ciencia con ese espíritu: como un empeño determinado tanto intelectual como culturalmente cuyas ideas solo pueden entenderse mediante un examen de las situaciones personales, psicológicas, históricas y sociales que lo modelaron. Ver la ciencia de este modo no solo arroja luz sobre la propia empresa, sino también sobre la naturaleza de la creatividad y la innovación, y, en un sentido más amplio, sobre la condición humana.

2. Curiosidad
Para entender las raíces de la ciencia, tenemos que examinar las raíces de la especie humana. Los humanos somos la única especie dotada tanto de la capacidad como del deseo de entendernos a nosotros mismos y a nuestro mundo. Ese es el mayor de los dones, el que nos aparta del resto de los animales, y es la razón de que seamos nosotros quienes estudiamos a los ratones y los conejillos de Indias y no ellos los que nos estudien a nosotros. El ansia de conocer, reflexionar y crear, ejercido a lo largo de miles de años, nos ha dado las herramientas para sobrevivir, para construirnos un nicho ecológico único. Usando el poder de nuestro intelecto, no la potencia física, hemos modificado nuestro entorno para que se ajuste a nuestras necesidades, en lugar de permitir que sea nuestro entorno quien nos conforme, o nos venza. Durante millones de años, la fuerza y la creatividad de nuestras mentes han vencido los obstáculos que han puesto a prueba la fuerza y la agilidad de nuestros cuerpos.
De niño, mi hijo Nicolái solía capturar lagartijas que cuidaba como mascotas, algo que uno puede hacer cuando vive en el sur de California. Los dos observamos que cuando nos acercábamos a los animales, primero se quedaban inmóviles y luego, cuando nos agachábamos para cogerlos, salían corriendo. Con el tiempo nos dimos cuenta de que si llevábamos una caja grande, podíamos colocarla invertida sobre la lagartija antes de que se escapara, y luego deslizar por debajo una lámina de cartón para completar la captura. Personalmente, si camino por una calle oscura y desierta y veo algo sospechoso, no me quedo inmóvil; cruzo inmediatamente al otro lado. Así que es bastante lógico suponer que si dos grandes depredadores se me acercasen y me mirasen atentamente mientras sostienen una enorme caja, me temería lo peor y saldría pitando. Las lagartijas, sin embargo, no se cuestionan su situación; actúan únicamente por instinto. Ese instinto desde luego les resultó útil durante los muchos millones de años que precedieron a Nicolái y su caja, pero les falló con mi hijo.
Los humanos quizá no seamos el último grito en condición física, pero gozamos de la habilidad de complementar el instinto con la razón y, lo que es más importante para nuestros propósitos, de hacernos preguntas sobre nuestro entorno. Esos son los prerrequisitos del pensamiento científico, y son características cruciales de nuestra especie. Por eso es ahí donde comienza nuestra aventura: con el desarrollo del cerebro humano, con sus dotes únicas.
Nosotros mismos nos llamamos «humanos», pero en realidad esta palabra no se refiere solamente a nosotros, Homo sapiens sapiens, sino a todo un género que se llama Homo. Este género incluye otras especies como Homo habilis y Homo erectus, pero esos parientes nuestros desaparecieron hace mucho tiempo. En el torneo con una sola eliminación que llamamos evolución, todas las otras especies humanas resultaron ser inadecuadas. Solo nosotros, gracias al poder de nuestras mentes, hemos vencido a todo lo que ha puesto a prueba nuestra supervivencia (hasta el momento).

01.jpg
Representación artística de Protungulatum. De Maureen A. O'Leary et al., «The Placental Mammal Ancestor and the Post-K-Pg Radiation of Placentals», Science, 339 (8 de febrero de 2013), pp. 662-667.

No hace mucho tiempo, el hombre que entonces era presidente de Irán dijo que los judíos descendían de los monos y los cerdos. Siempre es esperanzador que un fundamentalista de la religión crea en la evolución, así que no estoy seguro de que deba criticarle, pero en realidad los judíos, como el resto de los humanos, no descienden de los monos y los cerdos, sino de simios y ratas, o al menos de unos animalejos parecidos a las ratas [5].
Conocida como Protungulatum donnae en la literatura científica, nuestra abuelísima, la progenitora de los primates ancestrales y de todos los mamíferos como nosotros, fue, por lo que sabemos, una especie simpática de rabo peludo cuyos miembros pesaban apenas un cuarto de kilo.
Los científicos creen que estos pequeños animales comenzaron a corretear por su hábitat hace unos sesenta y seis millones de años, poco después de que un asteroide de unos diez kilómetros de ancho se estrellase contra la Tierra. Aquella catastrófica colisión lanzó a la atmósfera el polvo suficiente para ahogar los rayos del Sol durante un largo periodo de tiempo, y generó gases invernadero suficientes para disparar las temperaturas una vez se hubo depositado el polvo. El doble golpe de la oscuridad seguida de temperaturas elevadas acabó con un 75% de las especies de plantas y animales, pero para nosotros fue una suerte, pues creó un nicho ecológico en el que unos animales que parían a sus crías podían sobrevivir y propagarse sin ser engullidos por voraces dinosaurios u otros depredadores. Durante las decenas de millones de años que siguieron, mientras, unas tras otras, surgían especies nuevas y se desvanecían hasta extinguirse, una rama del árbol familiar de Protungulatum evolucionó hasta nuestros ancestros monos y simios, y luego siguió ramificándose, hasta producir a nuestros parientes vivos más cercanos, los chimpancés y los bonobos (chimpancés pigmeos) y, por último, al lector de este libro y a todos los seres humanos.
En la actualidad, la mayoría de la gente se siente cómoda con el hecho de que la Abuela tuviera cola y comiera insectos. Yo voy más allá de la simple aceptación: me dejo fascinar y emocionar por nuestra ascendencia, y por la historia de nuestra supervivencia y evolución cultural. Creo que el hecho de que nuestros antepasados fuesen ratas y simios es uno de los hechos más estupendos de nuestra naturaleza: en nuestro asombroso planeta, una rata y sesenta y seis millones de años dieron lugar a científicos que estudian las ratas y al hacerlo descubren sus propias raíces. Por el camino, desarrollamos cultura y religión y ciencia, y reemplazamos los nidos de ramas de nuestros ancestros con resplandecientes rascacielos de acero y hormigón.
La velocidad de este desarrollo intelectual ha ido aumentando drásticamente. La naturaleza necesitó unos sesenta y seis millones de años para producir el «simio» del que descendieron todos los humanos; el resto de nuestra evolución física se produjo en solo unos millones. Es como si, en palabras del psicólogo Julian Jaynes, «toda la vida evolucionase hasta cierto punto, y luego dentro de nosotros mismos diera un giro de noventa grados y sencillamente explotase en una dirección distinta[6]».
Al principio, el cerebro animal evolucionó por la más primaria de las razones: para permitir moverse mejor. La habilidad de moverse, es decir, de encontrar alimento y refugio y de escapar de los enemigos, es, por supuesto, una de las características fundamentales de los animales. Cuando miramos hacia atrás en el camino de la evolución a animales como los nematodos, los gusanos de tierra y los moluscos, vemos que los primeros precursores del cerebro sirven para controlar el movimiento excitando músculos en el orden adecuado. Pero el movimiento no vale de mucho sin la capacidad de percibir el entorno, así que incluso los animales más simples tienen alguna forma de percatarse de lo que los rodea: células que reaccionan ante ciertas sustancias químicas, por ejemplo, o ante los fotones de la luz, enviando impulsos eléctricos a los nervios que gobiernan el control del movimiento. Para cuando apareció Protungulatum donnae, estas células quimiosensibles o fotosensibles habían evolucionado hasta constituir los sentidos del olfato y de la vista, y aquel haz de nervios que controlaba el movimiento de los músculos se había convertido en un cerebro.
Nadie sabe con exactitud cómo se fue organizando el cerebro de nuestros antepasados en componentes funcionales, pero incluso en el cerebro moderno, mucho más de la mitad de las neuronas está dedicada al control motor y a los cinco sentidos. En cambio, la parte de nuestro cerebro que nos separa de los animales «inferiores» es relativamente pequeña, y llegó mucho más tarde.
Uno de los primeros animales casi humanos merodeó por la Tierra hace solo de tres a cuatro millones de años [7].
No lo conocimos hasta un caluroso día de 1974, cuando un antropólogo llamado Donald Johanson, del Instituto sobre los Orígenes Humanos de Berkeley, dio con un diminuto fragmento de un hueso del brazo que sobresalía del abrasado suelo de un arroyo seco en las remotas regiones del norte de Etiopía. Johanson y un estudiante no tardaron en desenterrar otros huesos: de la cadera y de la caja torácica, además de vértebras e incluso un trozo de mandíbula. En total, hallaron casi la mitad del esqueleto de una hembra. Tenía la pelvis femenina, el cráneo pequeño, las piernas cortas y los brazos largos y caídos. No era como para sacarla a bailar, pero aquella dama de hace 3,2 millones de años se considera un vínculo con nuestro pasado, una especie de transición, y posiblemente el antepasado a partir del cual evolucionó todo nuestro género biológico.
Johanson llamó a esta nueva especie Australopithecus afarensis, que significa «simio meridional de Afar», por la región de Etiopía en la que realizó su descubrimiento. También bautizó los huesos como Lucy, por la canción de los Beatles «Lucy in the Sky with Diamonds», que sonaba en la radio del campamento mientras Johanson y su equipo celebraban su hallazgo. Andy Warhol dijo que todo el mundo consigue quince minutos de fama, y tras millones de años, por fin le llegaron a Lucy. O, para ser más precisos, a la mitad de Lucy, porque su otra mitad no apareció nunca.
Es asombroso lo mucho que pueden discernir los antropólogos a partir de unos pocos huesos. Los grandes dientes de Lucy, en unas mandíbulas adaptadas para romper y masticar, sugieren que tenía una dieta vegetariana formada por raíces, semillas y frutos de cubierta dura [8].
Su estructura esquelética indica que tenía un vientre de gran tamaño, necesario para contener el largo intestino que habría requerido para digerir la gran cantidad de materia vegetal que le servía de sustento. Lo más importante, sin embargo, es que la estructura de su columna y de las rodillas indica que caminaba más o menos erguida [9], y un hueso de un miembro de su especie, que Johanson y sus colaboradores descubrieron no muy lejos en 2011, revela un pie parecido al nuestro, con arcos adecuados para caminar, no para agarrarse a las ramas. La especie de Lucy había evolucionado de la vida en los árboles a la vida sobre el suelo, lo que permitió a sus miembros buscar alimento entre un mosaico de ecosistemas de bosque y pradera y sacar provecho de nuevas fuentes de alimento que se encuentran en el suelo, como las raíces y tubérculos ricos en proteínas. A decir de algunos, fue esta forma de vida la que dio origen a todo el género Homo.
Imaginemos que vivimos en una casa y que nuestra madre es la vecina de al lado, y la suya la de al lado, y así sucesivamente. Nuestro linaje humano no es tan lineal, pero, dejando a un lado algunas complejidades, es interesante imaginar que conducimos por esa calle, viajando hacia el pasado y pasando por generación tras generación de antepasados. Si así lo hiciéramos[10], tendríamos que conducir casi seis mil quinientos kilómetros para llegar a la casa de Lucy, una «mujer» que, con apenas un metro de estatura, treinta kilos de peso y el cuerpo cubierto de pelo, se nos antojaría más un chimpancé que una parienta. A medio camino habríamos pasado por la casa de un antepasado separado de Lucy por unas 100 000 generaciones, la primera especie lo bastante parecida a nosotros (por su esqueleto y, según creen los científicos, por su mente) como para que la clasifiquemos dentro del género Homo[11]. Los científicos han llamado a esta especie humana de hace dos millones de años Homo habilis, «humano hábil».
Homo habilis vivió en las inmensas sabanas africanas en un momento en el que, a causa del cambio climático, los bosques se encontraban en recesión. Aquellas llanuras herbáceas no eran un entorno fácil donde subsistir, pues daban cobijo a un gran número de terribles depredadores. Los menos peligrosos de estos depredadores competían por el alimento con Homo habilis; los más peligrosos, intentaban convertir en alimento a aquellos humanos hábiles. Fue justamente gracias a su ingenio como sobrevivían aquellos humanos: tenían un flamante cerebro de mayor tamaño, más o menos el de un pomelo pequeño. En la escala de tamaños de frutas, esa potencia cerebral es menor que la de nuestro melón cantalupo pero el doble que el volumen de la naranja de Lucy [II].
Cuando comparamos especies distintas, sabemos por experiencia que suele haber una correlación aproximada entre la capacidad intelectual y el peso medio del encéfalo relativo al tamaño corporal. De este modo, a partir de su volumen encefálico podemos concluir que el humano hábil suponía una mejora intelectual sobre Lucy y los de su estirpe. Por suerte, podemos estimar el tamaño y la forma del encéfalo de los humanos y otros primates aunque la especie lleve mucho tiempo extinguida, porque su cerebro se ajusta bien a su cráneo, lo que significa que si encontramos un cráneo de primate, básicamente disponemos de un molde del cerebro que en otro tiempo contuvo.
Para que nadie se lleve al engaño de pensar que estoy diciendo que la talla de sombrero es un indicador de la inteligencia, debo aclarar que cuando los científicos afirman que pueden estimar la inteligencia comparando el tamaño cerebral, solo se refieren a las comparaciones entre los tamaños medios de especies distintas. El tamaño del cerebro varía considerablemente entre los individuos de una especie, pero dentro de una especie, el volumen encefálico no se relaciona directamente con la inteligencia[12].

02.jpg
Homo habilis.

Por ejemplo, el cerebro humano moderno pesa de media 1360 gramos. Sin embargo, el cerebro del poeta inglés Lord Byron pesaba unos 2270 gramos, mientras que el del escritor y premio Nobel francés Anatole France pesaba poco más de 900, y el de Einstein, 1220. Luego está el caso de un hombre llamado Daniel Lyons, que falleció en 1907 con cuarenta y un años. Su peso corporal y su inteligencia eran normales, pero cuando se pesó su cerebro durante la autopsia, se halló que apenas llegaba a los 680 gramos. La moraleja del cuento es que, dentro de una especie, la arquitectura del cerebro (la naturaleza de las conexiones entre neuronas y grupos de neuronas) es mucho más importante que su tamaño.
El cerebro de Lucy solo era ligeramente mayor que el de un chimpancé, y lo que es más importante, la forma de su cráneo indica que el aumento de la potencia cerebral se concentraba en regiones del cerebro que se ocupan del procesamiento sensorial, mientras que los lóbulos frontal, temporal y parietales, las regiones del cerebro que forman la sede del lenguaje y el razonamiento abstracto, se mantenían relativamente poco desarrolladas. Lucy fue un paso adelante hacia el género Homo, pero no llegaba a alcanzarlo. Eso cambió con Homo habilis.
Como Lucy, el Humano Hábil se mantenía erguido, con las manos libres para llevar cosas, pero a diferencia de Lucy, usaba esa libertad para experimentar con su entorno[13].
Y así fue como, hace unos dos millones de años, un Homo habilis Einstein, o una Marie Curie, o, lo que tal vez sea más probable, varios genios antiguos por su propia cuenta, realizaron el primer gran descubrimiento de la humanidad: si se golpea una piedra con otra en un ángulo oblicuo, se consigue desprender un fragmento de roca afilado, como un cuchillo. Aprender a golpear una piedra contra otra puede no parecer el principio de una revolución social y cultural. Ciertamente, producir un trozo de piedra afilado palidece en comparación con la invención de la bombilla, internet o las galletas de chocolate. Pero fue nuestro primer pasito hacia la comprensión de que éramos capaces de aprender sobre la naturaleza y transformarla para mejorar nuestra propia existencia, y de que podíamos confiar en que nuestro cerebro nos confiriera poderes que complementaban y a menudo excedían los de nuestro cuerpo.
Para una criatura que nunca había visto una herramienta de ningún tipo, una especie de enorme diente artificial que se podía agarrar con la mano y usar para cortar es una invención que cambia la vida, y de hecho ayudó a cambiar por completo la forma en que vivían los humanos. Lucy y su estirpe eran vegetarianos; los estudios microscópicos del desgaste de los dientes de Homo habilis, y las marcas de corte en huesos hallados cerca de sus esqueletos, indican que los Humanos Hábiles usaron sus cuchillos de piedra para añadir carne a su dieta [14].
La dieta vegetariana sometía a Lucy y a los de su especie a la escasez estacional de alimento. Una dieta mixta ayudó a Homo habilis a salvar esos periodos de escasez. Y como la carne es una forma más concentrada de nutrientes que la materia vegetal, los carnívoros requieren una cantidad menor de alimento que los vegetarianos. Por otro lado, no hay que cazar y matar una cabeza de brécol, mientras que procurarse alimento animal puede ser bastante difícil si no se dispone de armas letales, de las que carecían los Humanos Hábiles. En consecuencia, Homo habilis obtenía la mayor parte de la carne de la carroña que dejaban depredadores como los tigres de dientes de sable, que, con sus potentes zarpas delanteras y sus dientes como cuchillos, mataban presas a menudo más grandes de lo que ellos mismos podían consumir. Pero incluso la vida de carroñero puede ser difícil si, como le ocurría a Homo habilis, hay que competir con otras especies. Así que la próxima vez que nos pongamos nerviosos por esperar media hora en nuestro restaurante preferido, debemos intentar recordar que nuestros antepasados, para obtener su sustento, tenían que pelearse con bandas de feroces hienas.
En su lucha por obtener alimento, las piedras afiladas de los Humanos Hábiles debieron hacer más fácil y rápida la tarea de arrancar la carne de los huesos, lo que debió ayudarles a competir en mejores términos con animales que ya nacían con una buena dote de herramientas equivalentes [15].
Así que cuando aparecieron estos instrumentos, se hicieron tremendamente populares, y fueron la herramienta humana predilecta durante casi dos millones de años. De hecho, fueron piedras como estas, esparcidas alrededor de los fósiles de Homo habilis, las que inspiraron el nombre de «Humano Hábil» con el que Louis Leakey y sus colaboradores bautizaron a esta especie a principios de la década de 1960. Desde entonces, estos cantos tallados se han encontrado en tal abundancia en las excavaciones que a menudo hay que andarse con cuidado para no pisarlos.
De unas piedras afiladas a un trasplante de hígado hay mucho trecho, pero, tal como refleja el uso que hacía de sus herramientas, la mente de Homo habilis ya había superado las habilidades de cualquiera de sus parientes simios actuales. Por ejemplo, aun después de años de entrenamiento por investigadores de primates, los bonobos no consiguen dominar el uso de herramientas de piedra simples del tipo de las que empleaba Homo habilis[16]. Estudios recientes con técnicas de neuroimagen sugieren que esta capacidad para diseñar, planificar y usar herramientas surgió con el desarrollo evolutivo de una red especializada en el uso de herramientas en el hemisferio izquierdo de nuestro cerebro[17].
Hay unos pocos y tristes casos de humanos con daños en esa red que se quedan a la altura de los bonobos: pueden identificar herramientas, pero, como yo mismo antes del primer café, no llegan a averiguar cómo usar los instrumentos más simples, como un cepillo de dientes o un peine [18].
Pese a sus avances en la potencia cognitiva, esta especie humana de hace más de dos millones de años, Homo habilis, no es más que una sombra de los humanos modernos: aún tenían un cerebro relativamente pequeño, poca estatura, brazos largos y un rostro que solo un cuidador de zoo podría amar. Pero tras su aparición, no pasaría mucho tiempo (a una escala geológica) antes de que surgieran otras especies de Homo. La más importante de estas, las que la mayoría de los expertos considera el antepasado directo de nuestra propia especie, fue Homo erectus, o «Humano Erguido», que se originó en África hace alrededor de 1,8 millones de años[19].
Los restos de esqueletos nos dicen que esta especie guardaba un parecido mucho mayor con la nuestra que Homo habilis, no solo por estar más erguido, sino también por ser más grande y alto (casi metro y medio de estatura), y tener extremidades largas y un cráneo mucho más grande, lo que permitió la expansión de los lóbulos frontal, temporal y parietales del cerebro.
Aquel cráneo de mayor tamaño tuvo consecuencias para el parto. Una de las cosas de las que no tienen que preocuparse los fabricantes de coches cuando rediseñan uno de sus modelos es cómo conseguir que los nuevos Honda se deshagan del tubo de escape de los modelos anteriores. La naturaleza sí que tiene que preocuparse de cuestiones parecidas, y, en el caso de Homo erectus, el rediseño de la cabeza ocasionó algunos problemas: las hembras de Homo erectus tenían que ser más grandes que sus predecesores para dar a luz a sus bebés de cabeza y cerebro grandes. Así, mientras que una hembra de Homo habilis era solo un 60% mayor que el macho, en promedio la mujer de Homo erectus pesaba un 85% más que su compañero.
Los nuevos cerebros merecieron la pena, porque el Humano Erguido marcó otro cambio abrupto y magnífico en nuestra evolución. Vieron el mundo, y se enfrentaron a sus desafíos de una forma distinta que sus predecesores. En concreto, fueron los primeros humanos con el ingenio y la planificación necesarias para crear herramientas complejas de piedra y madera: hachas, cuchillos y hendedores de cuidada factura que requerían de otras herramientas para su fabricación. Hoy atribuimos a nuestro cerebro la habilidad de crear ciencia y tecnología, arte y literatura, pero la capacidad de nuestro cerebro para concebir herramientas complejas fue mucho más importante para nuestra especie, pues nos ofreció una ventaja que nos ayudó a sobrevivir.
Gracias a sus herramientas avanzadas, los Humanos Erguidos podían cazar, no solo buscar carroña, lo que aumentó la disponibilidad de carne en su dieta. Si las recetas de ternera de los modernos libros de cocina comenzasen por decir, «Cace y mate una ternera», la mayoría nos conformaríamos con recetas de libros como Las delicias de la berenjena. Pero en la historia de la evolución humana, la nueva capacidad de cazar representó un gigantesco salto adelante que permitió un mayor consumo de proteína y una menor dependencia de los enormes volúmenes de vegetales que antes eran necesarios para sobrevivir. Los Humanos Erguidos probablemente hayan sido también la primera especie en aprender que la fricción entre dos materiales genera calor, y en descubrir que el calor enciende el fuego. Con el fuego, Homo erectus pudo hacer lo que ningún otro animal: mantenerse caliente en climas que de otro modo habrían sido demasiado fríos para vivir.
Me resulta reconfortante pensar que, aunque voy a cazar a la carnicería y mi idea de usar una herramienta es llamar al carpintero, provengo de una gente que eran bastante duchos en estas cosas prácticas, por mucho que tuvieran el ceño salido y unos dientes que podrían partir un bastón. Lo más importante es que aquellos nuevos logros de la mente permitieron que Homo erectus se expandiera desde África hacia Europa y Asia, y que persistiera como especie durante más de un millón de años.
Si los avances en nuestra inteligencia nos permitieron fabricar complejas herramientas de caza y cortar la carne, también crearon una necesidad nueva y apremiante, pues perseguir y acorralar a un animal grande y rápido en una sabana es algo que se hace mejor en grupo. Y así fue como, mucho antes de formar equipos de estrellas del baloncesto o el fútbol, nuestro género se vio sometido a una presión evolutiva para desarrollar la suficiente inteligencia social y las habilidades de planificación necesarias para juntarse en grupos y conseguir cazar antílopes y gacelas. Por consiguiente, el nuevo estilo de vida de los Humanos Erguidos favoreció la supervivencia de quienes pudieran comunicarse y planificar mejor. Una vez más, vemos aquí que los orígenes de la naturaleza de los humanos modernos hunde sus raíces en la sabana africana.
Hacia el final del reinado de los Humanos Erguidos, hace tal vez medio millón de años, Homo erectus evolucionó hacia una nueva forma, Homo sapiens, con un poder cerebral todavía mayor. Aquellos primeros o «arcaicos» Homo sapiens no eran todavía seres que pudiéramos reconocer como humanos actuales: tenían el cuerpo más robusto y el cráneo más grande y grueso, pero su cerebro todavía no era tan grande como el nuestro. Anatómicamente, los humanos modernos se clasifican como una subespecie de Homo sapiens que probablemente no surgió de los primeros Homo sapiens hasta más o menos 200 000 a. C.
Casi no lo conseguimos: un sorprendente análisis del ADN realizado recientemente por antropólogos genéticos indica que hace unos 140 000 años un suceso catastrófico, probablemente relacionado con el cambio climático, diezmó la población de humanos modernos, todos los cuales vivían entonces en África. Durante ese periodo, la población entera de nuestra subespecie se desplomó hasta quedar en apenas unos centenares, convirtiéndonos en lo que hoy calificaríamos de «especie en peligro de extinción», como el gorila de montaña o la ballena azul. Isaac Newton, Albert Einstein y cualquier otra persona de la que hayamos oído hablar, además de los varios miles de millones que hoy vivimos en el mundo, todos descienden de aquellos pocos centenares que sobrevivieron[20].
Que entonces nos salváramos por los pelos quizá sea señal de que la nueva subespecie de cerebro más grande todavía no era lo bastante lista para sobrevivir a largo plazo. Pero entonces sufrimos otra transformación, y esta nos confirió unos prodigiosos poderes mentales. No parece que se debiera a un cambio en nuestra anatomía física, ni siquiera en la anatomía de nuestro cerebro. Parece más bien una reorganización del modo de funcionar de nuestro cerebro. Sea como fuere, fue aquella metamorfosis lo que permitió que nuestra especie produjera científicos, artistas, teólogos y, de manera más general, personas que piensan del mismo modo que lo hacemos nosotros.
Los antropólogos se refieren a esa última transformación mental como el desarrollo de «moderna conducta humana». Lo de «moderna conducta» no quiere decir comprar o tomar bebidas alcohólicas mientras se mira un partido, sino al ejercicio del pensamiento simbólico complejo, el tipo de actividad mental que con el tiempo nos llevaría a la moderna cultura humana. Hay cierta polémica sobre cuándo se produjo eso, pero la fecha más aceptada sitúa la transición hacia el 40 000 a. C[21].
Hoy a nuestra subespecie la llamamos Homo sapiens sapiens, o «humano sabio, sabio». (Una especie acaba recibiendo un nombre así cuando ella misma lo escoge). Pero los cambios que condujeron a nuestro cerebro más grande no salieron baratos. Desde el punto de vista del consumo de energía, el moderno cerebro humano es el segundo órgano más caro del cuerpo humano, por detrás del corazón [22].
En lugar de dotarnos de un cerebro con costes operativos, la naturaleza podría habernos concedido unos músculos más fuertes, que, en comparación con el cerebro, consumen tan solo una décima parte de calorías por unidad de masa. Sin embargo, la naturaleza decidió no convertir a nuestra especie en la mejor dotada físicamente[23].
Los humanos no somos especialmente fuertes, ni tampoco los más ágiles. Nuestros parientes más cercanos, el chimpancé y el bonobo, se abrieron paso hasta su nicho ecológico gracias a su capacidad para tirar con una fuerza de más de quinientos kilogramos y gracias a disponer de dientes duros y afilados con los que partir los frutos de cáscara resistente. A diferencia de ellos, yo lo paso mal incluso con las palomitas de maíz.
A falta de una masa muscular impresionante, los humanos tenemos un cráneo descomunal, lo que nos convierte en unos consumidores ineficientes de la energía de los alimentos, ya que nuestro cerebro, que solo representa alrededor del 2% del peso corporal, consume un 20% de la energía que ingerimos. Mientras que otros animales tienen las condiciones para sobreponerse a las asperezas de la vida en la jungla o la sabana, nosotros estamos más preparados para sentarnos en un café a tomar un cortado. Esa tendencia a sentarnos, sin embargo, no debe subestimarse, pues cuando lo hacemos, pensamos y cuestionamos.
En 1918, el psicólogo alemán Wolfgang Köhler publicó un libro, Experimentos sobre la inteligencia de los chimpancés, que habría de convertirse en un clásico. Se trataba de una exposición de los experimentos que había realizado con estos simios mientras era director de una estación que la Academia de Ciencias de Prusia tenía en Tenerife, en las islas Canarias. A Köhler le interesaba entender de qué modo resolvían los problemas los chimpancés, por ejemplo, cómo procurarse alimento que se ha colocado fuera de su alcance, y es mucho lo que sus experimentos revelan sobre los dones mentales que compartimos con otros primates. Pero si comparamos la conducta de los chimpancés con la nuestra, su libro también nos dice mucho sobre los talentos humanos que nos ayudan a compensar nuestras limitaciones físicas.
Uno de los experimentos de Köhler es especialmente revelador. Clavó un plátano en el techo y observó que los chimpancés aprendían a apilar cajas para subirse a ellas y alcanzar la fruta, pero no parecían tener el menor conocimiento de las fuerzas implicadas en lo que hacían. Por ejemplo, a veces intentaban colocar una caja sobre uno de sus cantos, o, si se colocaban piedras en el suelo para que las cajas se inclinasen, no se les ocurría retirarlas [24].
En una versión actualizada del experimento se enseñó a chimpancés y a niños de tres a cinco años a apilar bloques en forma de L para obtener una recompensa. Luego, sin que se dieran cuenta, se cambiaban los bloques por otros trucados de manera que se volcaban cuando los chimpancés o los niños intentaban apilarlos. Los chimpancés persistieron durante un tiempo, y por ensayo y error intentaron sin éxito conseguir la recompensa; sin embargo, no se pararon a examinar los bloques desequilibrados. Los niños también fracasaron en la nueva tarea (que de hecho era imposible), pero no se conformaron con darse por vencidos, sino que examinaron los bloques en un intento por determinar dónde estaba el problema [25].
Desde una temprana edad, los humanos buscamos respuestas, una comprensión teórica de nuestro entorno, nos preguntamos «¿por qué?».
Cualquiera que tenga la menor experiencia con niños sabe de su pasión por preguntar por qué. En los años 1920, el psicólogo Frank Lorimer la hizo oficial: observó a un niño de cuatro años durante un periodo de cuatro días y apuntó todas las veces que el niño preguntó por qué durante ese tiempo [26].
Hubo cuarenta preguntas, por ejemplo ¿por qué la regadera tiene dos asas? o ¿por qué tenemos cejas?, o mi favorita, ¿por qué no tienes barba, mamá? Los niños de todo el mundo hacen sus primeras preguntas a una tierna edad, cuando todavía balbucean y aún no hablan un lenguaje gramatical. El acto de preguntar es tan importante para nuestra especie que hay un indicador universal que nos lo da a conocer: todos los lenguajes, tonales o no tonales, emplean una entonación ascendente parecida para las preguntas [27].
Ciertas tradiciones religiosas ven en el acto de preguntar la más alta forma de aprehensión, y tanto en la ciencia como en la industria, la habilidad para formular las preguntas adecuadas posiblemente sea el mayor talento que uno pueda poseer. Los chimpancés y los bonobos pueden aprender a usar signos rudimentarios para comunicarse con sus entrenadores, incluso para responder preguntas, pero nunca las formulan. Son físicamente potentes, pero no son pensadores.
Los humanos nacemos con el ansia por comprender lo que nos rodea, pero parece que también tenemos al nacer (o al menos adquirimos a una edad muy temprana) una intuición sobre cómo funcionan las leyes de la física. Parece que entendamos de forma innata que todos los eventos están causados por otros eventos, y que gocemos de una intuición rudimentaria de las leyes que, tras miles de años de esfuerzo, fue a revelarnos Isaac Newton.
En el Laboratorio de Cognición Infantil de la Universidad de Illinois, los científicos llevan treinta años estudiando la intuición física de los bebés mediante el procedimiento de sentar a las madres con sus hijos frente a un pequeño escenario o una mesa y observar cómo reaccionan los bebés ante los sucesos que allí se representan. La pregunta científica es la siguiente: en lo que atañe al mundo físico, ¿qué saben estos bebés y desde cuándo lo saben? Lo que han descubierto es que poseer cierta intuición sobre cómo funciona la física parece ser un aspecto esencial de lo que significa ser humano, incluso en la más tierna infancia.
En una serie de estudios, se sentaba a unos bebés de seis meses frente a una vía horizontal sujeta a la base de una rampa inclinada [28].
Junto a la rampa, los investigadores colocaban un animal de juguete montado sobre ruedas, mientras que en lo alto de la rampa había un cilindro. En cuanto se soltaba el cilindro, los bebés presenciaban excitados cómo este rodaba cuesta abajo hasta que chocaba con el juguete y lo hacía rodar medio metro por la vía. Luego venía la parte que excitaba a los investigadores: si reproducían el montaje con un cilindro de distinto tamaño en lo alto de la rampa, ¿sabrían predecir los bebés que, tras la colisión, el juguete sería enviado a una distancia proporcional al tamaño del cilindro?
Lo primero que se me ocurrió cuando oí hablar de este experimento fue: ¿cómo sabemos qué predice un bebé? Ya me cuesta bastante entender lo que piensan mis hijos, y con más de diez y veinte años ya saben hablar. ¿Tenía alguna idea de lo que pensaban cuando solo reían, hacían muecas y babeaban? Lo cierto es que cuando pasamos el tiempo suficiente con unos bebés, comenzamos a atribuirles pensamientos por sus expresiones faciales, pero es difícil confirmar científicamente si nuestra intuición es correcta. Si vemos que un bebé arruga la cara como una pasa, ¿se debe a que tiene unos gases muy molestos o a que se ha enterado por la radio de que la bolsa ha caído quinientos puntos? Sé que mi propia expresión sería la misma en los dos casos, pero con los bebés, el aspecto es lo único que tenemos. Sin embargo, los psicólogos disponen de una aplicación para determinar lo que está prediciendo un bebé. Le muestran una cadena de eventos y miden durante cuánto tiempo observa la escena. Si los sucesos no se producen del modo que el bebé espera, seguirá mirando, y cuanto más sorprendente sea lo que ocurre, más tiempo sostendrá la mirada.
En el experimento de la rampa, los científicos hicieron que la mitad de los bebés mirasen una segunda colisión en la que el cilindro era mayor que la primera vez, mientras que los otros presenciaron una segunda colisión en la que el cilindro era menor. En ambos casos, sin embargo, los astutos investigadores dispusieron las cosas de tal modo que el juguete rodase más lejos que en la primera colisión, hasta el final de la vía. Los bebés que vieron el cilindro más grande no reaccionaron de forma excepcional ante los sucesos. Pero los bebés que vieron cómo el juguete llegaba más lejos después de ser golpeado por un cilindro más pequeño lo miraron durante más tiempo, dando la impresión de que se estuvieran rascando la cabeza, si supiesen cómo hacerlo.
Saber que un impacto grande envía el juguete más lejos que un impacto pequeño no le sitúa a la par de Isaac Newton, pero, como ilustra este experimento, parece que los humanos realmente poseemos cierta comprensión innata del mundo físico, un sofisticado instinto de lo que nos rodea que complementa nuestra innata curiosidad y está mucho más desarrollada en los humanos que en otras especies.
A lo largo de millones de años, nuestra especie evolucionó y progresó, adquiriendo un cerebro más potente, esforzándose como individuos para aprender todo lo que pudieran sobre el mundo. El desarrollo de la mente humana moderna fue un desarrollo necesario para entender la naturaleza, pero no suficiente. Por eso, el siguiente capítulo de nuestra historia es el relato de cómo comenzamos a preguntarnos por nuestro entorno y a trabajar intelectualmente en grupo para encontrar respuestas. Es el relato del desarrollo de la cultura humana.

3. Cultura
Los que nos miramos al espejo cada mañana vemos algo que pocos animales llegan a reconocer: a nosotros mismos. Algunos sonreímos ante nuestra imagen y nos lanzamos un beso, otros corremos a cubrir el desastre con maquillaje o a afeitarnos, para no parecer desaliñados. Sea como sea, en el conjunto de los animales, la reacción humana es rara. Si la tenemos es porque a lo largo del sendero de nuestra evolución, los humanos nos hicimos conscientes de nosotros mismos. Más importante aún es que comenzamos a comprender con claridad que al rostro que vemos en los reflejos, con el tiempo, le saldrán arrugas, le crecerá el pelo en lugares bochornosos y, lo peor de todo, dejará de existir. En otras palabras, comenzamos a pensar en la mortalidad.
Nuestro cerebro es nuestra máquina mental, y fue en pos de la supervivencia como desarrollamos uno con la capacidad de pensar simbólicamente, de cuestionar y razonar. Pero una máquina, cuando ya se tiene, se puede dedicar a muchos usos, y a medida que la imaginación de Homo sapiens sapiens avanzaba, y a grandes pasos, darnos cuenta de que un día todos hemos de morir ayudó a que nuestro cerebro se ocupara de cuestiones existenciales como «¿quién se encuentra al cargo del cosmos?». Esta no es una pregunta científica per se, pero el camino hacia preguntas como «¿qué es un átomo?» comenzaron con indagaciones como aquellas, además de otras más personales, como «¿quién soy?» o «¿puedo modificar mi entorno en mi propio beneficio?». Fue entonces, cuando los humanos nos alzamos sobre nuestros orígenes animales y comenzamos a hacer estas indagaciones, cuando dimos nuestro siguiente paso hacia una especie cuya distinción radica en pensar y preguntar.
El cambio en los procesos del pensamiento que nos llevaron a los humanos a considerar aquellas cuestiones, probablemente se gestase durante decenas de miles de años, más o menos desde el momento, posiblemente hace unos cuarenta mil años, cuando nuestra subespecie comenzó a manifestar lo que consideramos conductas modernas. Pero no floreció hasta hace unos doce mil años, hacia el final de la última edad de hielo. Los científicos llaman a los dos millones de años que llevan hasta ese periodo Era Paleolítica, y a los siete u ocho mil años siguientes, Era Neolítica. Estos nombres provienen de las raíces griegas palaio, que significa «viejo», neo, que significa «nuevo», y lithos, que significa «piedra»; en otras palabras, Vieja Edad de Piedra (Paleolítico) y Nueva Edad de Piedra (Neolítico), ambas caracterizadas por el uso de herramientas de este material. Aunque a los amplios cambios que nos llevaron de la Vieja a la Nueva Edad de Piedra los calificamos de «revolución neolítica», no tuvo nada que ver con las herramientas de piedra, sino con la forma de pensar, con las preguntas que nos hacíamos, con los problemas de la existencia que consideramos importantes.
Los humanos paleolíticos migraban a menudo, y, como mis hijos adolescentes, seguían la comida. Las mujeres recolectaban plantas, semillas y huevos, en tanto que los hombres solían cazar y buscar carroña. Estos nómadas se desplazaban estacionalmente o incluso diariamente, atesoraban pocas posesiones y vivían siempre a merced de la naturaleza, buscando la abundancia de la naturaleza y soportando sus rigores [29].
Con todo, la tierra era solo lo bastante generosa para sustentar alrededor de dos personas en cinco kilómetros cuadrados, de modo que durante la mayor parte de la Era Paleolítica la gente vivía en pequeños grupos errantes, por lo general de menos de un centenar de individuos. El término «revolución neolítica» se acuñó en los años 1920 para describir la transición de ese estilo de vida a una nueva existencia en la que los humanos comenzaron a establecerse en pequeños poblados formados por una o dos docenas de viviendas, y pasaron de recolectar su alimento a producirlo.
Ese cambio llevó a una tendencia a modificar activamente el entorno en lugar de simplemente reaccionar ante él. En lugar de vivir de aquello que la generosidad de la naturaleza les ofrecía, la gente que vivía en aquellos pequeños poblados recogía materiales sin ningún valor intrínseco en su forma natural para luego modificarlos y convertirlos en objetos valiosos. Por ejemplo, construían chozas con madera, adobe y piedra; forjaban herramientas con el cobre metálico que encontraban en la naturaleza, fabricaban cestos con ramitas, retorcían las fibras extraídas de lino y otras plantas y animales formando hebras con las que luego tejían ropas más ligeras, porosas y fáciles de lavar que las pieles de animales que llevaban antes, y modelaban y cocían cuencos y jarras de arcilla que podían usar para cocinar o almacenar excedentes de comida[30].
A primera vista, la invención de objetos como las jarras de arcilla puede no parecer más profunda que comprender lo difícil que es llevar agua en el bolsillo. Y lo cierto es que hasta hace poco tiempo muchos arqueólogos creían que la revolución neolítica no había sido más que una adaptación dirigida a hacer más fácil la vida. El cambio climático al final de la última edad de hielo, hace unos diez a doce mil años, causó la extinción de muchos animales de gran tamaño y alteró las pautas migratorias de otros. Esto, se razonaba, había afectado a la disponibilidad de alimento para los humanos. Algunos especularon también que el número de humanos había crecido hasta el punto de que la caza y la recolección ya no bastaban para sustentar la población. Los asentamientos y el desarrollo de herramientas complejas eran, bajo esta perspectiva, una reacción a aquellas circunstancias.
Pero esta teoría no carece de problemas. Para empezar, la malnutrición y las enfermedades dejan su impronta en los huesos y los dientes. Durante los años 1980, sin embargo, las investigaciones realizadas sobre los restos esqueléticos del periodo anterior a la revolución neolítica no revelaron ninguno de estos daños, lo que sugiere que la gente de aquella época no sufría privaciones nutricionales. De hecho, los indicios paleontológicos sugieren que los primeros agricultores tenían más problemas de columna, peor dentadura, más anemia y deficiencias vitamínicas, y morían más jóvenes que las poblaciones de recolectores que los precedieron[31].
Más aún, la adopción de la agricultura parece haber sido gradual, no el resultado de una amplia catástrofe climática. Además, muchos de los primeros asentamientos no mostraban signos de haber domesticado plantas o animales.
Solemos imaginar el modo de vida de cazadores y recolectores de los primeros humanos como una dura lucha por la existencia, como un programa de telerrealidad en el que unos famélicos concursantes viven en la jungla y se ven obligados a comer insectos y guano de murciélago. ¿No sería mejor la vida si aquellos recolectores pudieran comprar herramientas y semillas en Leroy Merlin y plantar nabos? No necesariamente, pues los estudios realizados sobre los pocos pueblos de cazadores y recolectores que quedan en lugares prístinos e inalterados de Australia y África hasta los años 1960 sugieren que las sociedades nómadas de hace miles de años podrían haber gozado de «plenitud material [32]».
Por lo general, la vida nómada consiste en asentarse temporalmente en un lugar hasta que se agotan las fuentes de alimento de un área razonable de explotación. Cuando ocurre esto, los recolectores se desplazan. Como tienen que llevarse consigo todas sus posesiones, los pueblos nómadas valoran más las cosas pequeñas que las grandes, están satisfechos con pocos bienes materiales y suelen tener poco sentido de la propiedad. Estos aspectos de la cultura nómada hicieron que a los ojos de los antropólogos occidentales que comenzaron a estudiarlos en el siglo XIX, les parecieran pobres y necesitados. Pero los nómadas, por regla general, no se enfrentan a una dura lucha por el alimento o, de manera más general, por la supervivencia. De hecho, los estudios del pueblo san (los bosquimanos) de África revelaron que sus actividades para obtener alimento eran más eficientes que las de los agricultores de la Europa anterior a la segunda guerra mundial, e investigaciones más amplias sobre grupos de cazadores-recolectores desde el siglo XIX hasta mediados del siglo XX muestran que por término medio el nómada trabaja solamente de dos a cuatro horas al día [33].
Incluso en la árida región de Dobe en África, con una precipitación anual de apenas 150 a 250 milímetros, los recursos alimenticios resultaron ser «variados y abundantes». En cambio, la agricultura primitiva exige deslomarse durante largas horas acarreando piedras y rocas, desbrozando y roturando terrenos duros con las más primitivas herramientas.
Estas observaciones sugieren que las viejas teorías sobre las razones de la sedentarización de los humanos no nos cuentan la historia completa. Al contrario, hoy muchos creen que la revolución neolítica no fue, en primer término, una revolución inspirada por consideraciones prácticas, sino más bien una revolución mental y cultural alimentada por el crecimiento de la espiritualidad humana. Este punto de vista se asienta en el que quizá sea el más sorprendente y notable descubrimiento arqueológico de los tiempos modernos, que nos sugiere que la nueva manera de relacionarse con la naturaleza no siguió al desarrollo de un modo de vida sedentario, sino que lo precedió. Ese descubrimiento es el gran monumento conocido como Göbekli Tepe, una expresión turca que describe el aspecto que tenía antes de excavarlo: «colina panzuda [34]».
Göbekli Tepe se encuentra en lo alto de una colina en lo que hoy es la provincia de Urfa, en el sureste de Turquía. Es una magnífica estructura construida hace 11 500 años (7000 antes que la Gran Pirámide) gracias a los hercúleos esfuerzos no de pobladores neolíticos, sino de cazadores-recolectores que todavía no habían abandonado el modo de vida nómada. Pero lo más sorprendente es el uso para el que fue erigido. Precediendo a la Biblia hebrea en unos 10 000 años, todo parece indicar que Göbekli Tepe era un santuario religioso.
Los pilares de Göbekli Tepe se encuentran dispuestos en círculos de hasta veinte metros de diámetro. Cada círculo contenía en el centro dos pilares adicionales en forma de T, aparentemente figuras humanoides de cabeza oblonga y cuerpo largo y delgado. El más alto de ellos sobrepasa los cinco metros de altura. Su construcción requirió el transporte de enormes piedras, algunas de hasta dieciséis toneladas, a pesar de que se hizo antes de la invención de las herramientas de metal, antes de la invención de la rueda y antes de que la gente aprendiese a domesticar animales como bestias de carga. Más aún, a diferencia de los edificios religiosos de tiempos posteriores, Göbekli Tepe se construyó antes de que la gente viviera en ciudades que pudieran proveer una fuente grande y organizada de trabajadores. En palabras de National Geographic, «descubrir que los cazadores-recolectores habían construido Göbekli Tepe fue como descubrir que alguien hubiera construido un 747 en su sótano con una navaja».
Los primeros científicos que dieron con el monumento fueron unos antropólogos de la Universidad de Chicago y de la Universidad de Estambul, mientras realizaban una prospección de la región en los años 1960. Observaron varias losas de piedra caliza que sobresalían del suelo, pero no les dieron importancia, considerándolas restos de un cementerio bizantino abandonado. La comunidad de antropólogos emitió un profundo bostezo. Pasaron tres décadas, y en 1994 un agricultor de la región tropezó con su arado en lo alto de lo que resultó ser un enorme pilar enterrado. Klaus Schmidt, un arqueólogo que trabajaba por aquella zona y que había leído el informe de la Universidad de Chicago, decidió echar un vistazo. «Al minuto de verlo, supe que tenía dos opciones», decía. «Marcharme y no decirle nada a nadie, o pasar el resto de mi vida trabajando aquí [35]».
Hizo esto último, estudiando el yacimiento hasta su muerte en 2014.
Como Göbekli Tepe es anterior a la invención de la escritura, no disponemos de fragmentos de textos sagrados que, una vez descodificados, arrojen luz sobre los rituales que allí se practicaban. La conclusión de que Göbekli Tepe era un lugar de adoración se basa en comparaciones con prácticas y sitios religiosos posteriores. Por ejemplo, tallados en los pilares de Göbekli Tepe se encuentran diversos animales, pero a diferencia de las pinturas rupestres de la Era Paleolítica, no se corresponden con los animales que los constructores de Göbekli Tepe debían cazar para subsistir, y tampoco representan iconos relacionados con la caza o con las acciones de la vida diaria, sino que representan animales amenazadores como leones, culebras, jabalíes, escorpiones y una fiera parecida a un chacal con la caja torácica expuesta. Se cree que se trata de personajes simbólicos o míticos, el tipo de animales que más tarde se asociaría con la adoración.
Para los antiguos habitantes, visitar Göbekli Tepe debía representar un compromiso muy serio, pues se encuentra en medio de la nada. De hecho, nunca se han hallado indicios de que nadie viviera jamás en aquella área: ni fuentes de agua, ni casas, ni restos de hogares. Lo que sí encontraron los arqueólogos fueron los huesos de miles de gacelas y uros que debieron ser transportados como alimento desde lejanos lugares de caza. Ir a Göbekli Tepe era hacer un peregrinaje, y los indicios señalan que atraía a cazadores-recolectores nómadas de hasta cien kilómetros a la redonda.
Göbekli Tepe «muestra que primero fueron los cambios socioculturales, luego la agricultura», dice Ian Hodder, arqueólogo de la Universidad de Stanford. En otras palabras, el surgimiento de rituales religiosos realizados en grupo parece haber sido una razón importante para que los humanos comenzaran a asentarse a medida que los centros religiosos atraían a los nómadas hacia sus estrictas órbitas, hasta que se formaron pueblos basados en sistemas compartidos de creencias y significados[36].
Göbekli Tepe se construyó en una época en la que todavía rondaban tigres de dientes de sable[III] por los parajes de Asia, y el último de nuestros parientes no pertenecientes a Homo sapiens, un cazador y fabricante de herramientas con aspecto de hobbit, de apenas un metro de estatura, bautizado como Homo floresiensis, tan solo llevaba algunos siglos extinguido. Y, sin embargo, sus antiguos constructores, por lo que sabemos, ya habían pasado de hacerse preguntas pragmáticas sobre la vida a plantearse también preguntas espirituales. «Puede argumentarse sólidamente», dice Hodder, que Göbekli Tepe «es el verdadero origen de las complejas sociedades modernas [37]».
Otros animales resuelven problemas sencillos para obtener alimento, otros animales usan instrumentos simples, pero una actividad que nunca se ha observado, ni siquiera en una forma rudimentaria, en ningún animal aparte del humano es intentar comprender su propia existencia. Así que cuando los últimos pueblos paleolíticos y los primeros neolíticos desviaron su atención de la simple supervivencia y la dirigieron a verdades «no esenciales» sobre ellos mismos y su entorno, se produjo uno de los pasos más significativos de la historia del intelecto humano. Si Göbekli Tepe es la primera iglesia de la humanidad (al menos que sepamos), merece un lugar de honor en la historia de la religión, pero también en la historia de la ciencia, puesto que refleja un salto en nuestra conciencia existencial, el inicio de una era en la que los humanos comenzamos a dedicar un gran esfuerzo a responder las grandes preguntas sobre el cosmos.
La naturaleza necesitó millones de años para producir, mediante la evolución, una mente humana capaz de hacerse preguntas existenciales, pero en cuanto eso ocurrió, hizo falta una fracción infinitesimal de ese tiempo para que nuestra especie desarrollara culturas que le darían la vuelta a nuestra manera de vivir y pensar. Los pueblos neolíticos empezaron a asentarse en pequeños pueblos y luego, a medida que su arduo trabajo en el campo consiguió aumentar su producción de alimentos, en pueblos de mayor tamaño, de manera que la densidad de población se disparó desde apenas dos personas en cinco kilómetros cuadrados a un par de cientos[38].
El más impresionante de estos nuevos grandes asentamientos era Çatalhöyük, construido hacia 7500 a. C. en las llanuras del centro de Turquía, a apenas unos cientos de kilómetros al oeste de Göbekli Tepe[39].
Los análisis de restos de animales y plantas hallados allí sugieren que sus habitantes cazaban vacas, cerdos y caballos salvajes y recogían tubérculos, gramíneas, bellotas y pistachos, pero se dedicaban poco a la agricultura. Lo que es más sorprendente es que las herramientas y los instrumentos hallados en las casas indican que los habitantes construían y mantenían sus propias casas y realizaban su propio arte. Parece que no existía la división del trabajo. Eso no resultaría extraño en un pequeño poblado de nómadas, pero Çatalhöyük era el hogar de hasta ocho mil personas (unas dos mil familias), todas las cuales, en palabras de un arqueólogo, «iban a lo suyo».

03.jpg
Ruinas de Göbekli Tepe.

Por esta razón, los arqueólogos no consideran que asentamientos como Çatalhöyük y otros parecidos sean ciudades, ni siquiera pueblos grandes. Habrían de pasar todavía varios miles de años para que apareciera el primero de estos. La diferencia entre un asentamiento y una ciudad no es solamente cuestión de tamaño[40].
Es función de las relaciones sociales dentro de la población, en la medida que esas relaciones afectan a los medios de producción y distribución. En las ciudades se establece una división del trabajo, lo que significa que los individuos y familias dependen de otros para obtener ciertos bienes y servicios. Al centralizar la distribución de varios bienes y servicios que todos necesitan, la ciudad libera a los individuos y familias de la necesidad de hacerlo todo por sí mismos, lo que a su vez permite que algunos se dediquen a actividades especializadas. Por ejemplo, si la ciudad se convierte en un centro donde los excedentes agrícolas cosechados por labradores que viven en los campos circundantes pueden distribuirse entre los habitantes, personas que de otro modo se habrían ocupado de recolectar (o cultivar) alimentos quedan libres para practicar profesiones, y llegar a ser artesanos o sacerdotes. Pero en Çatalhöyük, aunque los habitantes viviesen en casas contiguas, los artefactos indican que cada familia se ocupaba de las actividades prácticas de la vida más o menos con independencia de las otras.
Si cada uno de los grupos familiares tenía que ser autosuficiente, si no había manera de obtener la carne del carnicero, o conseguir que un fontanero arregle las tuberías, o reemplazar un móvil dañado por el agua llevándolo al Apple Store más cercano y fingiendo que no se ha caído en el váter, ¿por qué habrían de molestarse en establecerse pared con pared como en un pueblo?

04.jpg
Línea del tiempo.

Lo que vinculaba y unía a las gentes de asentamientos como Çatalhöyük parece haber sido el mismo pegamento que llevaba a los humanos neolíticos hasta Göbekli Tepe: los inicios de una cultura común y unas creencias espirituales compartidas.
La contemplación de la mortalidad humana se convirtió en una de las características de aquellas culturas emergentes. En Çatalhöyük, por ejemplo, vemos indicios de una nueva cultura de la muerte y el morir que difería drásticamente de la que tenían los nómadas. Durante sus largos viajes salvando colinas y vadeando caudalosos ríos, los nómadas no se pueden permitir el lujo de llevar a los débiles y enfermos.
Por esa razón, es habitual en las tribus nómadas que, cuando están en marcha, dejen atrás a los viejos que están demasiado débiles para seguirlos. Las prácticas de quienes se asentaron en Çatalhöyük y otros pueblos olvidados de Oriente Próximo era casi la contraria. Sus unidades familiares extensas a menudo se mantenían físicamente cercanas, no solo en la vida sino también en la muerte: en Çatalhöyük, enterraban a sus muertos bajo el suelo de las casas [41].
Los bebés a veces se enterraban bajo el umbral de la entrada a una habitación. Debajo de un gran edificio, un equipo de excavación descubrió setenta cuerpos. En algunos casos, un año después del enterramiento, los habitantes abrían la tumba y usaban un cuchillo para cortar la cabeza del muerto, que usaban con fines ceremoniales [42].
Los habitantes de Çatalhöyük se preocupaban por su mortalidad, pero también manifestaban un nuevo sentido de la superioridad humana. En la mayoría de las sociedades de cazadores-recolectores, los animales se tratan con gran respeto, como si cazador y presa fuesen compañeros. Los cazadores no pretenden controlar a sus presas, sino que entablan cierto tipo de amistad con los animales que van a ofrecer su vida al cazador. En Çatalhöyük, en cambio, todos los murales representan personas que hostigan y acosan toros, osos y jabalíes. Ya no se veía a los humanos como compañeros de los animales; ahora los dominaban, los usaban igual que las ramitas con las que hacían sus cestos[43].
Esta nueva actitud conduciría con el tiempo a la domesticación de los animales[44].
A lo largo de los dos mil años siguientes se domesticaron las ovejas y las cabras, y luego las vacas y los cerdos. Al principio hubo caza selectiva: se descastaban los rebaños salvajes para conseguir un equilibro de edades y sexo, y se intentaba protegerlos de sus depredadores naturales. Con el tiempo, sin embargo, los humanos fueron haciéndose responsables de todos los aspectos de la vida de aquellos animales. Como los animales domesticados ya no tenían que defenderse por sí mismos, respondieron evolucionando hacia nuevos atributos físicos además de un comportamiento más manso, un cerebro más pequeño y una menor inteligencia. También empezaron a controlar plantas como el trigo, la cebada, las lentejas y los guisantes, entre otros, y fueron dejando la ocupación de recolector para hacerse agricultores.
La invención de la agricultura y la domesticación de los animales catalizaron nuevos saltos intelectuales relacionados con la maximización de la eficiencia de aquellas actividades. Los humanos estaban ahora motivados para aprender y sacar provecho de las reglas y regularidades de la naturaleza. Resultaba útil saber cómo se reproducían los animales y cómo crecían las plantas. Esos fueron los principios de lo que habría de convertirse en la ciencia, pero a falta de método científico o de cualquier apreciación de las ventajas del razonamiento lógico, las ideas mágicas y las ideas religiosas se mezclaban, y a menudo sustituían a las teorías y las observaciones empíricas con un fin que era más práctico que el de la ciencia pura en la actualidad: ayudar a los humanos a ejercer su poder sobre el funcionamiento de la naturaleza.
A medida que los humanos comenzaron a hacer preguntas sobre la naturaleza, la gran expansión de los asentamientos neolíticos proporcionó una nueva manera de darles respuesta. Ahora la búsqueda de conocimiento ya no era necesariamente el empeño de un individuo o de pequeños grupos, sino que podía reunir las contribuciones de un gran número de mentes. Aquellos humanos que prácticamente habían abandonado la práctica de la caza y la recolección de alimentos, ahora unían fuerzas en la caza y recolección de ideas y conocimiento.
Cuando me decidí a hacer un doctorado, el reto que escogí para mi tesis fue desarrollar un nuevo método para encontrar soluciones aproximadas a las ecuaciones cuánticas irresolubles que describen el comportamiento de los átomos de hidrógeno en el fuerte campo magnético que rodea a las estrellas de neutrones, las estrellas más densas y pequeñas que conocemos en el universo. No tengo la menor idea de por qué escogí ese tema, y al parecer tampoco mi director, que enseguida perdió el interés. Pasé un año entero desarrollando varias técnicas de aproximación nuevas que, una tras otra, resultaron no resolver el problema mejor que cualquiera de los métodos existentes, y por tanto no servían para obtener un título de doctor. Entonces ocurrió que un día estuve charlando con un investigador posdoctoral que tenía su despacho en el edificio en el lado opuesto a mi oficina. Él trabajaba en un nuevo enfoque para entender el comportamiento de las partículas elementales llamadas quarks, que se presentan en tres «colores». (Este término, aplicado a los quarks, no tiene nada que ver con la definición cotidiana de «color»). La idea era imaginar (matemáticamente) un mundo con un número infinito de colores, en lugar de tres. A medida que hablábamos sobre los quarks, que no guardan la menor relación con el trabajo que yo estaba haciendo, surgió una nueva idea: ¿Y si resolviera mi problema suponiendo no que vivimos en un mundo de tres dimensiones, sino en uno de infinitas dimensiones?
Si la idea parece extraña y descabellada, es porque lo era. Pero a medida que trabajamos la matemática, descubrimos que, curiosamente, aunque no podía resolver mi problema tal como se manifestaba en el mundo real, sí podía hacerlo si reformulaba el problema en infinitas dimensiones. Una vez tuve la solución, «todo» lo que restaba por hacer para doctorarme era averiguar cómo modificar la respuesta para tener en cuenta que en realidad vivimos en un espacio tridimensional.
Este método resultó ser muy potente: ahora podía hacer los cálculos en un papel y obtener resultados de mucha mayor exactitud que los complejos cálculos por ordenador que otros utilizaban. Tras un año de esfuerzos infructuosos, acabé realizando el núcleo duro de lo que habría de ser mi tesis doctoral sobre la «expansión a gran N» en tan solo unas pocas semanas y, durante el año siguiente, aquel investigador posdoctoral y yo produjimos una serie de artículos en los que aplicábamos la idea a otras situaciones y otros átomos[45].
Al final, un químico galardonado con el premio Nobel llamado Dudley Herschbach leyó sobre nuestro método en una revista con el apasionante nombre dePhysics Today. Le cambió el nombre a la técnica por el de «escalado dimensional» y empezó a aplicarlo a su propio campo [46].
Al cabo de una década ya había incluso una conferencia científica enteramente dedicada a la técnica. Si explico esta historia no es porque demuestre que uno puede escoger un tema penoso, malgastar un año siguiendo callejones sin salida y aun así acabar realizando un descubrimiento interesante, sino para ilustrar el hecho de que la lucha humana por saber e innovar no es una serie de empeños aislados y personales sino una empresa cooperativa, una actividad social que para tener éxito requiere que los humanos vivan en asentamientos que ofrezcan a las mentes muchas otras mentes con las que interactuar.
Esas otras mentes pueden encontrarse igual en el presente que en el pasado. Abundan los mitos sobre genios aislados que revolucionan nuestra comprensión del mundo o realizan milagrosas hazañas de invención en el dominio de la tecnología, pero invariablemente son ficción. Por ejemplo, se dice de James Watt, que desarrolló el concepto de caballo de potencia y en cuyo honor se dio el nombre de vatio a la unidad de potencia, que la idea para el motor de vapor le vino como una súbita inspiración mientras miraba cómo salía vapor de una tetera. En realidad, Watt concibió la idea para su invento mientras reparaba una versión anterior de la invención, que cuando le puso las manos encima ya llevaba unos cincuenta años en uso [47].
De igual modo, Isaac Newton no inventó la física cuando, sentado solo en el campo, vio caer una manzana. Pasó años reuniendo información que otros habían recopilado sobre las órbitas de los planetas. Y si no hubiera recibido inspiración de una visita casual del astrónomo Edmond Halley (el del cometa), que le preguntó sobre una cuestión matemática que le intrigaba, Newton nunca habría escrito sus Principia, que contienen sus célebres leyes del movimiento y son la razón de que hoy lo reverenciemos. Tampoco Einstein habría completado su teoría de la relatividad de no haber podido recuperar viejas teorías matemáticas que describían la naturaleza del espacio curvo, ayudado por su amigo matemático Marcel Grossmann. Ninguno de estos grandes pensadores habría alcanzado sus grandes logros en un vacío; dependieron de otros pensadores y del conocimiento humano previo, y fueron alimentados y formados por las culturas en las que vivían inmersos. Y no es solo la ciencia y la tecnología lo que se erige sobre el trabajo de profesionales que les antecedieron; también las artes. T. S. Eliot llegó incluso a proclamar que «los poetas inmaduros imitan, los poetas maduros roban… y los buenos poetas lo convierten en algo mejor, o por lo menos en algo diferente [48]».
La «cultura» se define como comportamiento, conocimiento, ideas y valores que adquirimos de quienes viven a nuestro alrededor, y es diferente en distintos lugares. Los humanos modernos actuamos de acuerdo con la cultura en la que crecimos, y también adquirimos buena parte de nuestro conocimiento a través de la cultura, lo cual es cierto de nosotros más que de ninguna otra especie. De hecho, investigaciones recientes sugieren que los humanos están incluso evolutivamente adaptados a enseñar a otros humanos[49].
No es que otras especies no manifiesten cultura. Lo hacen. Por ejemplo, los investigadores que estudian los distintos grupos de chimpancés han descubierto que, del mismo modo que la gente de todo el mundo a menudo acierta a identificar como norteamericano a una persona que cuando viaja por el mundo busca restaurantes donde sirvan batidos y hamburguesas, también ellos podían observar un grupo de chimpancés e identificar su lugar de origen solo a partir de su repertorio de conductas[50].
En total, los científicos identificaron treinta y ocho tradiciones que varían entre las comunidades de chimpancés. Los de Kibale (Uganda), Gombe (Nigeria) y Mahale (Tanzania) brincan durante las lluvias intensas, arrastrando ramas para golpear el suelo. Los chimpancés del bosque Tai de Costa de Marfil y de Bossou (Guinea) cascan las nueces de Coula aplastándolas con una piedra plana contra un trozo de madera. En otros grupos de chimpancés se ha observado el uso de plantas medicinales, que transmiten por vía cultural. En todos estos casos, la actividad cultural no es instintiva o redescubierta en cada generación, sino algo que los jóvenes aprenden imitando a sus madres.
El ejemplo mejor documentado de descubrimiento y transmisión cultural de conocimiento en los animales nos llega desde la pequeña isla de Kijima, en el archipiélago japonés[51].
A principios de la década de 1950, los guardas de esta isla alimentaban cada día a los macacos tirándoles boniatos en la playa. Los monos hacían lo que buenamente podían para sacudir la arena antes de comer el boniato. Pero un día de 1953, a una hembra de dieciocho meses llamada Imo se le ocurrió la idea de llevar el boniato hasta el agua y lavarlo. Esto no solo retiraba los granos de arena sino que dejaba la comida más salada y gustosa. Pronto algunos de los compañeros de juego de Imo aprendieron su truco. Poco a poco, sus madres también lo adoptaron, y luego los machos, salvo un par de los machos más viejos. Los monos no se enseñaban unos a otros, sino que se miraban e imitaban. Al cabo de unos pocos años, prácticamente toda la comunidad había desarrollado el hábito de lavar su alimento. Más aún, hasta entonces los macacos habían evitado el agua; ahora comenzaba a jugar en ella. La pauta de comportamiento se transmitió de generación en generación y se mantuvo durante décadas. Como las comunidades de playa de los humanos, los macacos habían desarrollado una cultura propia y característica. A lo largo de los años, los científicos han encontrado indicios de cultura en muchas especies, en animales tan dispares como las orcas, los cuervos, y, naturalmente, otros primates[52].
Lo que nos distingue a los humanos parece ser el hecho de que somos los únicos animales capaces de construir sobre el conocimiento e innovaciones del pasado. Un día, un humano observó que las cosas redondeadas giran e inventó la rueda. Con el tiempo, inventamos carros, norias, poleas y, cómo no, ruletas. Imo, en cambio, no construyó sobre un conocimiento anterior de otros monos, ni otros monos lo hicieron sobre el suyo. Los humanos hablamos entre nosotros, nos enseñamos unos a otros, buscamos mejorar ideas antiguas e intercambiamos conocimiento e inspiraciones. Los chimpancés y otros animales no lo hacen. El arqueólogo Christopher Henshilwood ha dejado dicho que «los chimpancés pueden enseñar a otros chimpancés a cazar termitas, pero no mejoran la técnica, no se dicen "vamos a probar con otro tipo de palito", sino que hacen lo mismo una y otra vez [53]».
Los antropólogos denominan «trinquete cultural» al proceso por el cual la cultura se construye sobre cultura previa (con relativamente poca pérdida [54]). El trinquete cultural representa una diferencia esencial entre la cultura de los humanos y las de otros animales, y es una herramienta que surgió en las nuevas sociedades sedentarias, donde el deseo de estar junto a pensadores afines y reflexionar con ellos sobre las mismas cuestiones se convirtió en el nutrimento que permitiría la floración del conocimiento avanzado.
Los arqueólogos a veces comparan las innovaciones culturales con virus[55].
Como estos, las ideas y el conocimiento requieren ciertas condiciones (en este caso, condiciones sociales) para prosperar. Cuando se dan esas condiciones, como en las poblaciones grandes y bien conectadas, los individuos de una sociedad pueden infectarse unos a otros, y la cultura se propaga y evoluciona. Las ideas que resultan ser útiles, o que simplemente proporcionan comodidad, sobreviven y engendran una nueva generación de ideas.
Las compañías modernas cuyo éxito depende de la innovación lo saben muy bien. Google incluso lo convirtió en una ciencia al colocar mesas largas y estrechas en su cafetería para que los comensales tuvieran que sentarse juntos, y diseñando las colas de servicio de comida de modo que durasen de tres a cuatro minutos, no tan largas que sus empleados se hastiasen y decidieran comer comida instantánea, pero lo bastante para que se encontrasen unos con otros y hablasen. O el caso de Bell Labs, que entre las décadas de 1930 y 1970 fue la organización más innovadora del mundo, responsable de muchas de las innovaciones clave que hicieron posible la moderna era digital, entre ellas el transistor y el láser. En Bell Labs, la investigación colaborativa se valoraba tanto que los edificios se diseñaban para maximizar la probabilidad de encuentros casuales, y la descripción de uno de los puestos de trabajo incluía un viaje a Europa cada verano para actuar como intermediario entre las ideas científicas de allí y de Estados Unidos [56].
Lo que Bell Labs entendía es que quienes viajan a grupos culturales más amplios tienen más posibilidades de concebir innovaciones. En palabras del genetista evolutivo Mark Thomas, a la hora de generar nuevas ideas, «no se trata de lo listo que uno sea, sino de lo bien conectado que esté[57]».
La interconexión es un mecanismo clave en el trinquete cultural, y uno de los grandes dones de la revolución neolítica.
Cierta noche, poco después de que mi padre cumpliera setenta y seis años, fuimos a dar un paseo después de cenar. Al día siguiente lo ingresaban para operarlo. Llevaba años enfermo, tenía prediabetes, y había sufrido un ictus, un ataque al corazón y, lo peor desde su punto de vista, un ardor de estómago crónico y una dieta que excluía casi todo lo que le gustaba. Mientras caminábamos lentamente aquella noche, se apoyó en su bastón, alzó los ojos de la calle al cielo, y dijo lo mucho que le costaba aceptar que aquella podía ser la última noche que viera las estrellas. Entonces empezó a desgranar los pensamientos que le venían a la mente al contemplar la posibilidad de una muerte cercana.
Aquí en la Tierra, me dijo, vivimos en un universo caótico y agitado que le había afligido en su juventud con los cataclismos del Holocausto y en la vejez con una aorta que, contra todas las especificaciones de diseño, se estaba abultando peligrosamente. El firmamento, me dijo, siempre le había sugerido un universo que seguía unas leyes completamente distintas, un reino de planetas y soles que se movían serenamente por sus órbitas inmemoriales y que parecían perfectos e indestructibles. Habíamos hablado de eso a menudo a lo largo de los años. El tema solía surgir cada vez que le describía mis últimas aventuras en la física, y entonces me preguntaba si realmente creía que los átomos de los que están hechos los seres humanos siguen las mismas leyes que los átomos del resto del universo, de lo inanimado y lo muerto. No importa cuántas veces le respondiera que sí, que así lo creía, él seguía sin convencerse.
Con la posibilidad de su propia muerte en la mente, supuse que estaría menos dispuesto que nunca a creer en las leyes impersonales de la naturaleza y que, como tantas personas en momentos así, sus pensamientos se inclinarían por un Dios benevolente. Mi padre raramente hablaba de Dios, pues aunque había crecido creyendo en el Dios tradicional, y todavía quería creer, los horrores que había presenciado se lo hacían muy difícil. Aquella noche, mientras contemplaba las estrellas, pensé que quizá se estuviera dirigiendo a Dios en busca de consuelo, pero lo que me dijo me sorprendió. Deseaba que yo tuviera razón sobre las leyes de la física, me dijo, porque ahora le confortaba la posibilidad de que, a pesar de la confusión de la condición humana, estuviera hecho de lo mismo que las perfectas y románticas estrellas.
Los humanos llevamos pensando en ese tipo de cuestiones al menos desde la revolución neolítica, y todavía no tenemos las respuestas, pero en el momento en que despertamos a las preguntas existenciales, el siguiente hito en el sendero humano hacia el conocimiento sería el desarrollo de herramientas, mentales esta vez, que nos ayudasen a dar con las respuestas.
Las primeras de esas herramientas no parecen nada del otro mundo, nada a la altura del cálculo matemático o el método científico. Pero son las herramientas fundamentales del pensador, y llevan con nosotros tanto tiempo que tendemos a olvidar que no siempre formaron parte de nuestra constitución mental. Sin embargo, para que se produjera el progreso hubimos de aguardar a la aparición de profesiones que se ocupasen de perseguir ideas y no de procurar alimento; a la invención de la escritura de manera que el conocimiento pudiera preservarse e intercambiarse; a la creación de las matemáticas, que habrían de convertirse en el lenguaje de la ciencia; y, por último, a la invención del concepto de ley. A su manera tan épicos y transformadores como la llamada revolución científica en el siglo XVII, estos desarrollos surgieron no como el producto de individuos heroicos que concebían grandes pensamientos, sino como el subproducto gradual de la vida en las primeras ciudades verdaderas.

4. Civilización
Una de las citas célebres de Isaac Newton dice: «Si he visto más lejos ha sido por alzarme sobre los hombros de gigantes». Escribió esto en 1676 en una carta a Robert Hooke con la intención de destacar que había construido sobre la obra de Hooke y también sobre la de René Descartes. (Hooke se convertiría más tarde en su amargo enemigo). Newton ciertamente aprovechó las ideas de quienes le precedieron; de hecho, parece que se aprovechó de ellas incluso a la hora de componer la propia sentencia en la que proclamaba que se había aprovechado de ellas, pues en 1621, el vicario Robert Burton escribió: «Un enano alzado sobre los hombros de un gigante puede ver más lejos que el propio gigante», y luego, en 1651, el poeta George Herbert escribió: «Un enano sobre los hombros de un gigante es el que ve más lejos de los dos»; y aun en 1659, el puritano William Hicks escribió: «Un pigmeo sobre el hombro de un gigante ve más lejos que el propio gigante[58]».
Por lo que parece, en el siglo XVII los enanos o los pigmeos encima de enormes brutos eran habituales en las imágenes sobre las indagaciones intelectuales.
Los antecedentes a los que Newton y los otros se referían eran los de su pasado más o menos inmediato. En cambio, tiende a olvidarse el papel desempeñado por las generaciones que nos precedieron en muchos miles de años. Pero aunque hoy nos gusta vernos como un pueblo avanzado, llegamos a donde estamos solo gracias a las profundas innovaciones que se produjeron cuando los pueblos neolíticos evolucionaron hasta las primeras ciudades verdaderas. El conocimiento abstracto y las tecnologías mentales que desarrollaron aquellas civilizaciones antiguas desempeñaron un papel crítico en la formación de nuestras ideas sobre el universo, y en nuestra habilidad para explorarlas.

05.jpg

Las primeras ciudades no aparecieron de repente, como si un día los nómadas decidieran agruparse y cuando se dieron cuenta ya estaban cazando y recolectando patas de pollo envueltas en celofán y poliestireno. Bien al contrario, la transformación de los pueblos en ciudades fue un desarrollo gradual y natural que se produjo cuando el modo de vida agrícola quedó establecido, a lo largo de un periodo de cientos o miles de años. Esa lenta evolución deja lugar para la interpretación por lo que respecta al momento preciso en que un asentamiento puede calificarse de ciudad. Pese a la incertidumbre, lo que solemos reconocer como las primeras ciudades aparecieron en el Oriente Próximo alrededor de 4000 a. C [59].
Tal vez la más destacada de esas ciudades, y una fuerza importante en la tendencia a la urbanización, sea la gran ciudad amurallada de Uruk, en lo que hoy es el sureste de Irak, cerca de la ciudad de Basora[60].
Aunque el Oriente Próximo fue la primera región en urbanizarse, no era una tierra fácil en la que ganarse la vida. Los primeros en establecerse lo hicieron por el agua. Eso puede parecer un mal paso, si se considera que buena parte de aquella tierra es un desierto. Pero aunque el clima es desfavorable, la geografía es acogedora, pues en medio de la región hay una larga depresión en la tierra por la que fluyen los ríos Tigris y Éufrates y sus afluentes, creando unas llanuras ricas y fértiles. Esas llanuras reciben el nombre de Mesopotamia, del griego antiguo «entre ríos». Los primeros asentamientos eran simples poblados de tamaño restringido por los límites de los ríos. Más tarde, algo después de 7000 a. C., las comunidades agrícolas aprendieron a excavar canales y embalses para aumentar el alcance de los ríos, y con el tiempo, al aumentar la provisión de alimento, se hizo posible la urbanización.
El riego no era fácil. Quien haya excavado un canal, como yo he hecho para colocar el tubo de un aspersor de césped, sabrá de qué hablo. La primera parte me fue bien, y me refiero a la de comprar la pala. Luego comenzaron las dificultades. Alcé la hermosa herramienta y la clavé con tal autoridad que vibró al rebotar contra el duro suelo. Al final, conseguí completar la tarea apelando a una autoridad mayor: un tipo con una excavadora mecánica. Las ciudades actuales requieren excavaciones de todo tipo, y pocos somos los que nos paramos a admirarlas. Pero los canales de riego del antiguo Oriente Próximo, de muchos kilómetros de longitud y más de dos metros de anchura, excavados con herramientas rudimentarias y sin la ayuda de máquinas, eran una auténtica maravilla del mundo antiguo.
Traer agua a los campos desde los límites naturales de los ríos requería del trabajo agotador de cientos o miles de trabajadores, además de planificadores y supervisores para dirigirlos. Había varias razones para que los agricultores contribuyeran con su trabajo a esta empresa de grupo. Una era la propia presión del grupo. Otra era que participar en los trabajos era la única manera de regar las tierras propias. Fuese cual fuese su motivación, los esfuerzos de los agricultores merecieron la pena. Los excedentes de comida y la vida sedentaria permitían que la familia pudiera sostener y cuidar más hijos, y que una fracción mayor de ellos sobreviviera. La tasa de nacimientos se aceleró al tiempo que disminuía la tasa de mortalidad infantil. En 4000 a. C., la población crecía con rapidez. Los pueblos crecieron hasta convertirse en villas, las villas en ciudades, y las ciudades se hicieron mayores.
Uruk, construida en las tierras altas colindantes con las marismas del golfo Pérsico, fue la más fructífera de aquellas primeras ciudades. Llegó a dominar su región, superando en mucho el tamaño de cualquier otro asentamiento. Aunque es difícil estimar la población de las ciudades antiguas a partir de las estructuras y los restos descubiertos por los arqueólogos, parece que Uruk tenía entre cincuenta y cien mil habitantes, diez veces más que Çatalhöyük [61].
Eso haría de Uruk una ciudad pequeña en tiempos modernos, pero Uruk era el Nueva York, el Londres, el Tokio, el São Paulo de su época.
Los habitantes de Uruk araban sus campos con un arado de siembra, un instrumento especializado y difícil de utilizar que echa semilla en un surco mientras lo abre. Drenaron humedales y excavaron canales con cientos de canales menores que los conectaban. En las tierras de regadío, cultivaban diversos cereales como el trigo y la cebada, y frutales de huerta, sobre todo palmeras datileras. Cuidaban ovejas, burros, vacas y cerdos y capturaban peces y aves acuáticas de los cercanos humedales, y tortugas acuáticas de los ríos. Mantenían rebaños de cabras y búfalos de agua para obtener leche, y bebían una buena cantidad de cerveza producida a partir de cebada. (Las pruebas químicas de vasijas antiguas revelan indicios de cerveza de hasta hace 7000 años).
Lo que confiere importancia a estos avances es que el auge de las profesiones especializadas requirió un mayor conocimiento de los materiales, las sustancias químicas y los ciclos de vida y necesidades de plantas y animales[62].
La producción de alimentos dio origen a pescadores, labradores, pastores y cazadores. La fabricación de herramientas pasó de ser una ocupación a tiempo parcial en todas las casas a ser una ocupación a tiempo completo para una clase de profesionales dedicados a una habilidad particular. El pan se convirtió en el producto de los panaderos, y la cerveza, en el de los cerveceros[63]. Aparecieron tabernas, y con ellas los taberneros, a veces mujeres. Gracias a los restos de un taller donde debía manipularse metal fundido, suponemos la existencia de fundiciones. También la cerámica parece haber dado lugar a una profesión: miles de cuencos simples de borde biselado que parecen haber sido producidos en masa en tamaños estandarizados sugieren, si no una tienda de todo a cien, al menos una fábrica centralizada dedicada a la producción de cerámica.
Otros trabajadores especializados dedicaban sus energías a la ropa. Las obras de arte de esa época que han sobrevivido hasta nuestros días nos muestran tejedores, y los antropólogos han descubierto fragmentos de telas de lana. Además, los restos animales muestran que alrededor de esa época los pastores comenzaron a cuidar muchas más ovejas que cabras. Como las cabras son mejores productores de leche, el aumento de las ovejas en los rebaños podría reflejar un mayor interés en la lana. Además, los huesos revelan que esos pastores mataban sus ovejas a una edad avanzada, lo cual no es muy buena idea si uno está interesado en la carne, pero sí si se cuidan por su lana[64].
Todas estas profesiones especializadas eran una bendición para cualquiera que quisiera cerveza o leche y el cuenco donde beberla, pero también representaron un grandioso hito en la historia del intelecto humano, porque los esfuerzos combinados de todos aquellos nuevos especialistas generaron una explosión de conocimiento sin precedentes. Sí, era un conocimiento adquirido por razones puramente prácticas y mezclado con mitos y rituales. Y sí, las recetas de la cerveza incluían las instrucciones para ganarse el favor de las diosas que regían la producción y goce de aquella bebida fermentada. No es nada que uno esperaría encontrar publicado en Nature, pero fue el embrión del que más tarde crecería el conocimiento científico, buscado por su valor intrínseco.
Además del desarrollo de profesiones cuyo fin era la producción de cosas, había también un puñado de especialistas que aparecieron más o menos por aquel tiempo y no se centraban en el trabajo físico o la producción de alimentos o bienes materiales, sino en actividades de la mente.
Dicen que uno se siente más unido a quienes están en su misma profesión que a los miembros de cualquier otro grupo. Yo soy tan nefasto en la mayoría de las actividades prácticas como lo soy cavando zanjas, y lo que me salva en el mundo laboral es la capacidad de sentarme y pensar todo el día sin cansarme, un camino que he tenido la fortuna de poder seguir. Por eso siento un vínculo con aquellos antiguos profesionales de la mente. Aunque multiteístas y supersticiosos, son mis deudos, y los de cualquiera que tenga el privilegio de ganarse la vida pensando y estudiando.
Las nuevas profesiones «intelectuales» surgieron porque el modo de vida urbano que echó raíces en Mesopotamia durante aquella época requería algún tipo de organización centralizada, lo que implicaba crear sistemas y reglas, y recoger y registrar información.
Por ejemplo, la urbanización requirió el desarrollo de sistemas de intercambio, además de un organismo que supervisara esos intercambios; una producción de alimentos mayor pero estacional implicó la creación de sistemas comunitarios de almacenamiento; y el hecho de que los agricultores y las personas que de ellos dependían, a diferencia de las tribus nómadas, no pudieran abandonar fácilmente su lugar de vida en caso de ataque hizo necesaria una milicia o un ejército. De hecho, las ciudades-Estado de Mesopotamia se hallaban involucradas constantemente en guerras intestinas por el control de las tierras y las fuentes de agua.
También había una gran demanda de trabajadores organizados para la construcción de obras públicas. De un lado, había que construir gruesos muros alrededor de las ciudades para disuadir a los enemigos. Por otro lado, había que construir carreteras para los vehículos dotados de las recién inventadas ruedas, en tanto que la agricultura exigía proyectos de regadío cada vez más extensos. Y, naturalmente, la propia existencia de una nueva autoridad central requería la construcción de grandes edificios para albergar a los burócratas.
Luego está la necesidad de una policía[65].
Cuando la población de los asentamientos se contaba por docenas o centenares, todos debían conocerse. Pero cuando la población creció hasta los millares, eso ya no era posible, y los habitantes se encontraban a menudo en situaciones en las que interactuaban con extraños, lo cual alteraba la naturaleza de los conflictos entre personas. Antropólogos, psicólogos y neurocientíficos han estudiado cómo cambia la dinámica de grupo a medida que los grupos crecen, pero a un nivel muy básico es fácil entender lo que ocurre. Si a alguien que no me gusta lo voy a ver toda la vida, lo mejor es fingir. Y fingir que alguien nos gusta suele excluir cosas como romperle una tablilla de arcilla en la cabeza para robarle la cabra. Pero si a una persona no la conozco y creo que nunca más volveré a verla, la expectativa de todo ese delicioso queso de cabra puede ser demasiado buena para dejarla escapar. En consecuencia, los conflictos ya no se producían únicamente entre familiares, amigos o conocidos, sino también entre extraños, y hubo que crear métodos formales de resolución de conflictos, además de fuerzas policiales, lo que dio pie a otra fuerza motriz para la formación de un aparato centralizado de gobierno.
¿Quiénes fueron los regentes de las primeras ciudades, las personas que hicieron posibles todas esas actividades centralizadas? En Mesopotamia no existía la distinción que hoy establecemos entre Iglesia y Estado: eran inseparables. Cada ciudad albergaba un dios o diosa, y cada dios o diosa era la deidad patrona de una ciudad. Los habitantes de cada ciudad creían que sus dioses gobernaban su existencia y que habían construido la ciudad como su propia casa [66].
Si una ciudad decaía, creían que era porque sus dioses la habían abandonado. De este modo, la religión dejó de ser únicamente el sistema de creencias que mantenía unida a la sociedad, para convertirse en el poder ejecutivo que obligaba al cumplimiento de las leyes. Y lo que es más, gracias al temor a los dioses, la religión era un útil instrumento para motivar la obediencia. «Los bienes eran recibidos por el dios de la ciudad y redistribuidos entre las gentes», escribió el estudioso de Oriente Próximo Marc Van De Mieroop. «El templo, la casa del dios, era la institución central que aseguraba el funcionamiento del sistema… El templo, situado en la ciudad, era el centro de todo [67]».
A consecuencia de ello, en lo más alto de la sociedad de Uruk surgió la posición de sacerdote-rey, cuya autoridad se derivaba de su papel en el templo.
Autoridad significa poder, pero, para ser eficaz, los gobernantes tienen que poder recoger datos. Por ejemplo, si la clase religiosa dirigente tenía que supervisar el intercambio de bienes y trabajo, cobrar impuestos y ejecutar contratos, necesitaba gente que recogiera, procesara y almacenara información relevante para todas esas actividades. Hoy, cuando pensamos en la burocracia del gobierno, le atribuimos el mismo peso intelectual que a un equipo de fútbol de tercera, pero fue gracias a aquellas primeras burocracias gubernamentales como surgió una clase intelectual especializada. Y fue por sus necesidades burocráticas por lo que se inventaron las más importantes tecnologías mentales jamás desarrolladas: la lectura, la escritura y la aritmética.
Hoy vemos en estas las competencias más elementales, y aprendemos las técnicas básicas algo después de abandonar los pañales y antes de conseguir nuestro primer móvil inteligente. Pero solo nos parecen elementales porque algún otro las inventó hace mucho tiempo, y desde entonces han sido transmitidas por maestros que se esforzaron en enseñárnoslas. Si alguien hubiera llevado el título de profesor en la antigua Mesopotamia, lo habría sido de lectura, caligrafía, cuenta y suma, y aun así habría enseñado y estudiado las ideas más avanzadas de su tiempo.
Una diferencia sorprendente entre nosotros y los otros millones de especies de animales de la Tierra es que una mente humana puede influir en los pensamientos de otras de una forma muy compleja y llena de matices. El tipo de control del pensamiento al que estoy aludiendo es el que se produce a través del lenguaje. Otros animales pueden usar señales de miedo o peligro, de hambre o afecto, para comunicarse entre ellos y, en ocasiones, también con nosotros, pero carecen de la capacidad para aprender conceptos abstractos o de encadenar más de unas pocas palabras con sentido. Un chimpancé puede, si se le ordena, escoger una carta con el dibujo de una naranja, y un loro puede irritarnos con una inacabable retahíla de «Polly quiere una galleta». Pero su capacidad es nula para ir más allá de simples peticiones, órdenes, advertencias o identificaciones [68].
Cuando en la década de 1970 unos científicos enseñaron lenguaje de signos a unos chimpancés con el fin de investigar si podían dominar la estructura innata subyacente de la gramática y la sintaxis, el lingüista Noam Chomsky señaló: «Es tan probable que un simio posea capacidad para el lenguaje como que en algún lugar exista una isla con una especie de ave no voladora que espera que unos seres humanos le enseñen a volar [69]».
Décadas más tarde, parece que Chomsky tenía razón.
Del mismo modo que ninguna ave inventó el vuelo y que los volantones no tienen que ir a la escuela para aprender a volar, el lenguaje es natural para los humanos y solo para los humanos. Nuestra especie tenía que participar en complejas conductas cooperativas para sobrevivir en su medio salvaje, y, como no dejo de recordarle a mis hijos adolescentes, señalar y gruñir no llevan muy lejos. En consecuencia, igual que la capacidad de mantenerse erguido o de ver, el lenguaje evolucionó como adaptación biológica, ayudado por un gen que se encuentra en los cromosomas humanos por lo menos desde los antiguos neandertales, que es hasta donde hemos podido identificarlo.
Como la capacidad para el lenguaje es innata, uno esperaría que se manifestara ampliamente y que se hubiera inventado independientemente, una y otra vez, alrededor del mundo, en cualquier congregación de gente que haya vivido en grupo. De hecho, antes de la revolución neolítica, debía haber tantas lenguas como tribus. Una de las razones que nos llevan a creer que es así es que, antes del inicio de la colonización británica de Australia, a finales del siglo XVIII, había en el continente australiano quinientas tribus de pueblos indígenas, con un tamaño medio de quinientos individuos, que todavía seguían un modo de vida preneolítico, y cada una de aquellas tribus tenía su propia lengua[70].
De hecho, tal como ha observado Steven Pinker: «Nunca se ha descubierto una tribu muda, y no hay ningún registro que nos indique que una región haya sido la "cuna" del lenguaje, desde donde se habría extendido hacia otros grupos previamente desprovistos de lenguaje [71]».
Aunque el lenguaje es un importante rasgo definitorio de la especie humana, el lenguaje escrito es un rasgo definitorio de la civilización humana, y una de sus herramientas más importantes. Hablar nos permitió comunicarnos con un grupo pequeño en nuestra vecindad; escribir nos permitió intercambiar ideas con personas que se hallasen lejos, tanto en el espacio como en el tiempo. Hizo posible una ingente acumulación de conocimiento, una forma de que la cultura se construya sobre el pasado y, al hacerlo, nos permitió sobrepasar los límites de nuestros conocimientos y recuerdos individuales. El teléfono y la internet han cambiado el mundo, pero antes de que apareciesen, la escritura fue la primera y más revolucionaria tecnología de las comunicaciones.
El habla nos vino dada: nadie tuvo que inventarla. Pero la escritura sí, y hay muchas tribus que nunca dieron ese paso. Aunque no le demos importancia, la escritura es una de las grandes invenciones de todos los tiempos, y una de las más difíciles. La magnitud de la tarea queda reflejada en el hecho de que, aunque los lingüistas han documentado más de tres mil lenguajes que aún se hablan en la actualidad en todo el mundo, solo alrededor de un centenar de ellos tienen forma escrita[72].
Y lo que es más importante, a lo largo de toda la historia humana la escritura se inventó de forma independiente solo en contadas ocasiones, abriéndose camino por el mundo sobre todo a través de la difusión cultural, tomada o adaptada de sistemas existentes en lugar de ser reinventada una y otra vez.
mos que el primer uso de la palabra escrita, en algún momento antes de 3000 a. C., se produjo en Sumeria, en el sur de Mesopotamia. Solo tenemos lacerteza de otra invención independiente de un sistema de lectura, en México, en algún momento antes de 900 a. C [73].
Además, es posible que los sistemas de escritura egipcio (3000 a. C.) y chino (1500 a. C.) sean también invenciones independientes. Todos los sistemas de escritura que conocemos han surgido de alguna de estas pocas invenciones.
A diferencia de la mayoría de la gente, he tenido la experiencia personal de intentar «inventar» la palabra escrita, porque cuando tenía ocho o nueve años y era un lobato de los Scouts, nuestro líder de la manada nos planteó el reto de intentar crear nuestro propio sistema de escritura. Cuando Mr. Peters nos devolvió el trabajo después de evaluarlo, pude ver que estaba impresionado con el mío. Lo que había hecho no tenía nada que ver con el trabajo de los otros niños, que se habían limitado a crear pequeñas variaciones de las letras del alfabeto inglés. Mi sistema de escritura, en cambio, tenía un aspecto completamente nuevo.
Antes de devolverme el trabajo, Mr. Peters lo examinó una última vez. Yo no le gustaba, y pude ver que intentaba encontrar fallos, de dar con la manera de evitar alabar el genio creativo que parecía subyacer a aquella obra. «Has hecho… un buen trabajo», musitó. Dudó antes de pronunciar la palabra «bueno», como si usarla conmigo significase tener que pagar a su inventor el sueldo de un mes en regalías. Y entonces, mientras extendía el papel para que lo cogiera, de pronto retiró la mano. «Vas a catequesis los domingos, ¿verdad?». Asentí con la cabeza. «¿Está basada de algún modo la escritura que has inventado en el alfabeto hebreo?». No podía mentir. Sí, como los otros, yo solo había tomado un alfabeto que conocía y había hecho variaciones en las letras. Nada de lo que avergonzarse, pero quedé desolado. Mr. Peters nunca me había definido como un niño, sino como un niño judío, y ahora le había dado la razón.
Nuestro pequeño encargo de los Scouts puede parecer todo un reto, pero gozábamos de una ventaja fundamental sobre quienes inventaron por primera vez la escritura: ya nos habían enseñado a dividir nuestro lenguaje hablado en sonidos elementales y representarlos con letras individuales. También habíamos aprendido que ciertos sonidos fundamentales, como th y sh, no corresponden a letras únicas, y podíamos distinguir entre sonidos como p y b, lo cual nos podría haber resultado difícil de no haber tenido ninguna experiencia previa con ningún tipo de sistema de escritura.
Para hacerse una idea de lo difícil que es esa tarea, basta con intentar identificar los bloques básicos del sonido cuando alguien habla una lengua extranjera. Cuanto menos familiar nos resulte (por ejemplo, chino para un hablante de una lengua indoeuropea), más difícil es la tarea. Y si es todo un reto identificar sonidos discretos, más aún lo es captar sutilezas como la diferencia entre p y b. De algún modo, sin embargo, la civilización sumeria superó aquellos retos y creó un lenguaje escrito.
Cuando se inventan tecnologías nuevas, a menudo ocurre que su aplicación inicial difiere mucho del papel que acabará desempeñando en la sociedad. De hecho, para quienes trabajan en campos alimentados por la innovación y el descubrimiento, es importante darse cuenta de que los inventores de nuevas tecnologías, incluidos, como veremos más adelante, los inventores de las teorías científicas, a menudo no acaban de entender el verdadero significado de lo que se les ha ocurrido.
Si uno piensa en la escritura como una tecnología, como el registro de la palabra escrita en arcilla (y más adelante otros sustratos, como el papel), parece natural comparar su evolución con el desarrollo de la tecnología de la grabación del sonido. Cuando Thomas Edison inventó esa tecnología, no tenía la menor idea de que la gente acabaría usándola para grabar música[74].
Creyó que tenía poco valor comercial, salvo quizá para guardar en la memoria las últimas palabras de un moribundo o como máquina de dictado para las oficinas. De modo parecido, el uso inicial de la escritura fue muy diferente del que acabaría desempeñando en la sociedad. Al principio, se usaba simplemente para guardar registros y elaborar listas, aplicaciones con tanto contenido literario como una hoja de Excel.
Las primeras inscripciones escritas que conocemos se hicieron sobre unas tablillas de arcilla halladas en un complejo de templos del yacimiento de Uruk. Se trataba de listas de elementos como sacos de grano o cabezas de ganado. Otras tablillas detallan la división del trabajo. Por ejemplo, sabemos por ellas que la comunidad religiosa de uno de los templos empleaba dieciocho panaderos, treinta y un cerveceros, siete esclavos y un herrero [75].
Gracias a traducciones parciales, sabemos también que los trabajadores recibían raciones fijas de provisiones como cebada, aceite y telas, y que una profesión llevaba el título de «líder de la ciudad», y otra el de «grande del ganado». Aunque uno puede imaginar muchas razones para escribir, el 85% de las tablillas escritas encontradas en excavaciones son registros de contabilidad. Del 15% restante, la mayoría servían para instruir a los futuros contables[76].
Sin duda había mucho que aprender, porque la contabilidad era compleja. Por ejemplo, los humanos, los animales y el pescado seco contaban con un sistema de números, mientras que los cereales, el queso y el pescado fresco usaban otro[77].
En el momento de su origen, la escritura estaba limitada a estos fines puramente utilitarios. No había novelas para pasar el rato ni teorías del universo, solo documentos de registros burocráticos como facturas, listas de bienes y signos personales de afirmación o «firmas» que daban autenticidad a tales cosas. Puede parecer mundano, pero tuvo profundas implicaciones: sin la escritura no habría habido civilización urbana porque la gente habría carecido de la capacidad de crear y mantener las complejas relaciones simbióticas que constituyen el rasgo definitorio de la vida de la ciudad.
En una ciudad, constantemente damos y recibimos unos de otros, comprando y vendiendo, cobrando, enviando y recibiendo, tomando prestado y prestando, pagando por trabajo o siendo pagados, y haciendo o cumpliendo promesas. Sin un lenguaje escrito, todas estas actividades recíprocas se habrían perdido en el caos o se habrían deshecho en conflictos. Basta con imaginar una semana de nuestra vida en la que no se pudiera registrar de ningún modo ningún suceso, ninguna transacción, ni siquiera la producción realizada o las horas de trabajo. Sospecho que ni podríamos acabar un partido de baloncesto profesional sin que los dos equipos cantaran victoria.
Los primeros sistemas de escritura eran tan primitivos como su propósito. Empleaban guiones genéricos para representar un número de algún elemento, ya fuese fruta, animales o personas. Con el tiempo, para que fuese más fácil distinguir qué marcas pertenecían a las ovejas y cuáles a los propietarios de las ovejas, debió ser natural añadir más complejidad dibujando pequeños pictogramas junto a los números, así que los escritos comenzaron a usar imágenes a modo de palabras. Los estudiosos han identificado el significado de más de un millar de aquellos primeros pictogramas. Por ejemplo, se usaba el contorno de una cabeza de vaca para decir «vaca», tres semicírculos dispuestos en forma de triángulo para decir «montañas», y un triángulo con una marca para la vulva representaba «mujer». También había símbolos compuestos, como el signo para mujer esclava (literalmente, una mujer «sobre las montañas»), construido con el signo de «mujer» añadido al signo de «montaña[78]».
Con el tiempo, los pictogramas se usaron también para expresar verbos y construir oraciones. Así, los pictogramas para una mano y una boca se colocaban junto al signo de «pan» para formar el pictograma de «comer[79]».
Los primeros escribas trazaban sus pictogramas sobre tablillas de arcilla planas con la ayuda de instrumentos puntiagudos. Más tarde, los símbolos se producían presionando contra la arcilla unos punzones que producían marcas en forma de cuña. Ese tipo de pictograma recibe el nombre de cuneiforme , del latín «en forma de cuña». Se han encontrado miles de esas tablillas en las ruinas de Uruk, simples listas de cosas o números, desprovistas de gramática.
La desventaja de un lenguaje escrito basado en pictogramas es que, a causa del gran número de pictogramas, es extremadamente difícil de aprender. Esta complejidad obligó a la formación de una pequeña clase de escritores, miembros de la clase de pensadores a la que he aludido antes. Estos primeros estudiosos profesionales se convirtieron en una casta privilegiada que disfrutaba de un estatus elevado, y gozaban de un templo o un palacio. En Egipto, parece que incluso estaban exentos de impuestos.
Los restos arqueológicos indican que alrededor de 2500 a. C., la necesidad de escribas produjo otra gran innovación: las primeras escuelas del mundo, conocidas en Mesopotamia como «casas de tablillas[80]».
Estas al principio estaban conectadas con templos, pero más tarde se alojaron en edificios privados. El nombre proviene de las tablillas de arcilla que constituían la base de su actividad; es probable que cada aula tuviera estantes donde poner las tablillas a secar, un horno para cocerlas y baúles donde almacenarlas. Como los sistemas de escritura todavía eran muy complejos, los aspirantes a escriba tenían que estudiar durante muchos años para memorizar y aprender a reproducir los miles de intrincados caracteres cuneiformes. Es fácil subestimar la importancia de ese paso para la marcha del progreso intelectual humano, pero la idea de que la sociedad debe crear una profesión dedicada a transmitir el conocimiento, y que los estudiantes deben pasar años aprendiéndola, era algo totalmente nuevo, una auténtica revelación para nuestra especie.
Con el tiempo, los sumerios consiguieron simplificar su lenguaje escrito y, al mismo tiempo, usarlo para comunicar pensamientos e ideas cada vez más complejos. Descubrieron que a veces podían escribir una palabra difícil de representar adaptando el símbolo de otra palabra que sonara igual pero fuera fácil de representar. En un ejemplo en mi propia lengua, el pictograma para la palabra «to» (hacia) se podría hacer a partir del pictograma de la palabra «two» (dos), modificado con un símbolo mudo, llamado determinativo, para indicar el significado alternativo. Una vez inventaron este método, los sumerios comenzaron a crear símbolos para designar terminaciones gramaticales, por ejemplo usando un símbolo modificado para la palabra «shun» para representar el sufijo -tion[IV]. Descubrieron que podían usar un truco parecido para escribir palabras más largas con otras más cortas, como hoy uno podría escribir la palabra «today» (hoy) a partir de los símbolos de «two» y «day». Hacia 2900 a. C. estas innovaciones habían permitido que el número de pictogramas distintos del lenguaje sumerio se redujera de dos mil a unos quinientos.
A medida que el lenguaje escrito se convertía en una herramienta más flexible, más fácil de manipular y con capacidad para una comunicación más compleja, las casas de tablillas pudieron ensanchar su ámbito para incluir la instrucción en escritura y aritmética y, más tarde, el vocabulario especializado de los nacientes estudios de astronomía, geología, mineralogía, biología y medicina, que al principio no incluían principios, solo listas de palabras y su significado[81].
Las escuelas también enseñaban una suerte de filosofía práctica, «dichos sabios», que eran prescripciones para una vida plena recogidos de los ancianos de la ciudad. Eran sentencias directas y pragmáticas, como «No te cases con una prostituta». Aún quedaba lejos Aristóteles, pero era un paso adelante respecto a contar granos y cabras, y son los inicios de las empresas intelectuales y de las instituciones que más tarde darían origen al mundo de la filosofía y el comienzo de la ciencia.
Pero alrededor de 2000 a. C., la cultura escrita de Mesopotamia había vuelto a evolucionar, esta vez con el desarrollo de un corpus literario que apelaba a los componentes emocionales de la condición humana[82].
Una tablilla de piedra de esta era que apareció en un yacimiento arqueológico situado a unos mil kilómetros al sur de la actual ciudad de Bagdad lleva inscrito el poema de amor más antiguo que conocemos. Con la voz de una sacerdotisa que profesa su amor por un rey, describe sentimientos tan frescos y reconocibles hoy como hace cuatro mil años:

Novio mío, caro a mi corazón,
Divina es tu belleza, amado,
Me has cautivado, me has dejado temblorosa ante ti;
Novio mío, llévame a tu lecho.
Novio mío, de mí has tomado el placer,
Dile a mi madre, ella te ofrecerá manjares;
mi padre, te agasajará.

En algún momento, durante los siglos que siguieron a este poema, se produjo otra innovación: representar las vocalizaciones que constituían una palabra. Esto alteró radicalmente la naturaleza de la escritura, pues ahora los símbolos correspondían a sílabas, no a ideas. Era una evolución lógica del viejo truco sumerio de usar, por ejemplo, la palabra «shun» para representar la sílaba -tion. No sabemos con exactitud cuándo y cómo se produjo este avance, pero es razonable pensar que el desarrollo de una forma de escritura más económica tuvo algo que ver con el florecimiento del comercio cosmopolita, pues debía ser engorroso escribir con pictogramas la correspondencia comercial y los registros de negocios. En cualquier caso, hacia 1200 a. C. había aparecido el sistema de escritura fenicio, el primer gran alfabeto de la historia de la humanidad [83].
Lo que antes requería memorizar centenares de complicados símbolos, ahora se podía escribir con solo dos docenas de símbolos básicos en varias combinaciones. El alfabeto fenicio acabaría siendo adoptado y adaptado para su uso por el arameo, el persa, el hebreo y el árabe, y también, hacia el 800 a. C., por el griego. Y desde Grecia se expandió, con el tiempo, por toda Europa [84].
Las primeras ciudades necesitaron, además de la lectura y la escritura, ciertos avances en matemáticas. Siempre he pensado que las matemáticas ocupan un lugar especial en el corazón humano. Claro, pensarán otros, igual que el colesterol. De acuerdo, la matemática tiene sus detractores, y los ha tenido durante toda la historia. Ya en el año 415 de nuestra era, san Agustín escribió: «Existe el peligro de que los matemáticos hayan hecho un pacto con el diablo para oscurecer el espíritu y confinar al hombre en los lazos del infierno [85]».
Quienes tanto lo enfurecían debían ser astrólogos o numerólogos, dos de los usos principales del oscuro arte de las matemáticas hasta nuestros días. Creo haber oído decir lo mismo a mis hijos en varias ocasiones, aunque con menos elocuencia. En cualquier caso, gusten o no gusten, las matemáticas y la lógica representan una parte importante de la psique humana.
A lo largo de los siglos, las matemáticas se han usado con muchos fines, pues, como la ciencia, las matemáticas, tal como las definimos hoy, no son tanto un empeño intelectual específico como una forma de acceder al conocimiento, un método de razonamiento en el que uno formula cuidadosamente conceptos y supuestos y extrae conclusiones tras la aplicación de una lógica rigurosa. Lo que suele calificarse de «primeras matemáticas», sin embargo, no son matemáticas en aquel sentido, igual que la escritura de los registros sumerios no es escritura en el sentido de Shakespeare.

06.jpg
Ruinas de la antigua Babilonia vistas desde el antiguo palacio de verano de Saddam Hussein. Foto de la armada de Estados Unidos tomada por el ayudante de fotógrafo de primera clase Arlo K. Abrahamson. Imagen liberada por la armada de Estados Unidos con el identificador 030529-N-5362A-001.

Las primeras matemáticas son como las matemáticas que mis hijos y otros estudiantes se hartan de estudiar en el colegio: un conjunto de reglas que pueden aplicarse, de forma más o menos mecánica, a la resolución de tipos específicos de problemas. En las primeras ciudades de Mesopotamia, esos problemas pertenecían sobre todo al seguimiento del dinero, los materiales y la fuerza de trabajo, a la aritmética de los pesos y medidas, y al cálculo del interés simple y compuesto: el mismo tipo de cuestiones mundanas que suscitaron el desarrollo de la escritura, e igual de esencial para el funcionamiento de la sociedad urbana[86].
La aritmética es tal vez la más fundamental de las ramas de la matemática. Incluso los pueblos primitivos emplean algún sistema para contar, aunque no pasen de los cinco dedos de una mano. Los niños pequeños también parecen haber nacido con la habilidad de determinar el número de objetos de una colección, aunque solo hasta el número cuatro[87].
Pero para ir más allá del recuento, que es un conjunto de herramientas que ya poseemos al poco de salir del útero, tenemos que dominar la suma, la resta, la multiplicación y la división, y estas son habilidades que desarrollamos gradualmente durante la niñez.
Las primeras civilizaciones urbanas introdujeron reglas y métodos formales y a menudo sofisticados de cálculo aritmético, e inventaron métodos para resolver ecuaciones con incógnitas, que es lo que hoy hacemos con el álgebra. Comparada con la actual, la suya era como mucho rudimentaria, pero desarrollaron lo que podríamos llamar recetas, quizá a cientos, para realizar cálculos complejos que requerían la resolución de ecuaciones cuadráticas y cúbicas. Y llegaron más allá de los usos simples para los negocios, aplicando sus técnicas a la ingeniería. Por ejemplo, antes de excavar un canal, un ingeniero de Babilonia, una región del sur de Mesopotamia, debía calcular el trabajo necesario computando el volumen de tierra que había que mover y dividiéndolo por la cantidad que cada cavador podía mover en un día. Y antes de construir un edificio, un ingeniero babilónico debía hacer cálculos análogos para determinar el número de trabajadores y de adobes que necesitaría.
Pese a sus logros, los matemáticos de Mesopotamia se quedaron cortos en una importante cuestión pragmática. La práctica de la matemática es un arte, y el medio de ese arte es el lenguaje simbólico. A diferencia del lenguaje común, los símbolos y las ecuaciones de las matemáticas no expresan solamente ideas, sino relaciones entre ideas. Por eso, si existe un héroe no aclamado de la matemática, es la notación. La buena notación hace que las relaciones sean precisas y evidentes y facilita la capacidad de la mente humana para pensar sobre ellas; la mala notación hace que el análisis lógico sea ineficiente y poco manejable. La matemática babilónica cae en esta segunda categoría: todas las recetas y cálculos se expresaban en el lenguaje cotidiano.
Una tablilla babilónica, por ejemplo, contenía el siguiente cálculo: «4 es la longitud y 5 es la diagonal. ¿Cuál es la altura? Su tamaño es desconocido. 4 veces 4 es 16. 5 veces 5 es 25. Se sustrae 16 de 25 y queda 9. ¿Cuántas veces qué da 9? 3 veces 3 es 9. 3 es la altura». En la notación moderna, eso mismo se escribiría así:

x2 + 42 = 52,

x = √(52 – 42) = √(25 – 16) = √9 = 3

La gran desventaja de un enunciado matemático como el de esta tablilla no es solo su falta de concisión, sino el hecho de que no podemos usar reglas algebraicas para realizar operaciones con ecuaciones escritas en prosa.
La innovación de la notación hubo de esperar hasta la edad clásica de la matemática india, que comenzó alrededor de 500 d. C. Es difícil sobreestimar la importancia de lo que consiguieron aquellos matemáticos. Utilizaron el sistema en base diez e introdujeron el cero como número, con las propiedades de que la multiplicación de cualquier número por cero da cero y de que la suma de cero a cualquier número da ese mismo número. Inventaron también los números negativos con el propósito de representar deudas, aunque, como uno de los matemáticos señaló, «la gente no los aprueba». Y lo más importante, emplearon símbolos para designar incógnitas. Sin embargo, las primeras abreviaturas aritméticas (p de «plus» para la suma y m de «minus» para la sustracción) no se introdujeron en Europa hasta el siglo XV, y el signo de la igualdad no se inventó hasta 1557, cuando Robert Recorde de Oxford y Cambridge escogió el símbolo que todavía utilizamos porque le pareció que no hay dos cosas más parecidas que unas líneas paralelas (y porque las líneas paralelas ya se usaban como ornamentos tipográficos, de manera que los impresores no tenían que hacer un nuevo tipo [88]).
Me he centrado en el número, pero los pensadores de las primeras ciudades también hicieron grandes progresos en la matemática de las formas, no solo en Mesopotamia, sino también en Egipto. Allí, la vida giraba en torno al Nilo, que inundaba su valle durante cuatro meses al año, recubriendo las tierras con un limo nutritivo, pero creando el caos en las lindes de las propiedades. Cada año, después de que se inundaran los campos, los oficiales tenían que determinar de nuevo las lindes de las tierras de los labradores, y sus superficies, sobre las que se basaban los gravámenes [89].
Dada la importancia de las medidas, los egipcios desarrollaron métodos fiables, aunque un tanto complicados, de calcular el área de cuadrados, rectángulos, trapezoides y círculos, así como el volumen de cubos, cajas, cilindros y otras figuras relacionadas con los graneros. El término «geometría» proviene de aquellas prospecciones de terrenos, del griego «medición de la Tierra».
Tan avanzada era la geometría práctica de los egipcios que en el siglo XIII a. C. los ingenieros egipcios podían nivelar una viga de quince metros con un margen de error de medio milímetro[90].
Pero al igual que la aritmética y el álgebra rudimentaria de los babilonios, la geometría de los antiguos egipcios tenía poco en común con lo que hoy llamamos matemática. Se creó con fines prácticos, no para satisfacer el ansia de conocimiento de las verdades profundas sobre su mundo. Así que antes de que la geometría pudiese alcanzar las alturas que más tarde serían exigidas por el desarrollo de la ciencia física, era necesario elevarla de una empresa práctica a un empeño teórico. Los griegos, en especial Euclides, consiguieron esto durante los siglos IV y V a. C.
El desarrollo de la aritmética, el álgebra mejorada y la geometría permitirían el desarrollo de unas leyes teóricas de la ciencias varios siglos más tarde, pero cuando intentamos imaginar esa cadena de descubrimiento, echamos en falta un paso que podría no resultar evidente para quienes vivimos hoy: antes de que nadie pudiera teorizar sobre las leyes particulares de la naturaleza, había que inventar el propio concepto de ley.
Los grandes progresos tecnológicos que conllevan muchas e importantes ramificaciones son fáciles de ver como revolucionarios. Sin embargo, las nuevas formas de pensar, las nuevas maneras de perseguir el conocimiento, pueden ser menos conspicuas. Una forma de pensar cuyo origen raramente consideramos es la idea de entender la naturaleza en términos de leyes.
Hoy no pensamos dos veces en la noción de ley científica, pero como tantas grandes innovaciones, esta solo se ha hecho obvia desde su desarrollo. Observar el funcionamiento de la naturaleza e intuir, como hizo Newton, que por cada acción hay una reacción igual y opuesta, pensar no en términos de casos sino de pautas abstractas de comportamiento, fue un enorme avance en el desarrollo de la humanidad. Es una forma de pensar que evolucionó despacio, con tiempo, y no tuvo sus raíces en la ciencia, sino en la sociedad.
El término «ley» tiene hoy muchos y distintos significados. Las leyes científicas proporcionan descripciones de cómo se comportan los objetos, pero no nos ofrecen ninguna explicación sobre por qué siguen esas leyes. No hay incentivos para la obediencia, ni penalizaciones por lo contrario, que se apliquen a rocas o planetas. En cambio, en los dominios social y religioso, las leyes no describen cómo se comporta la gente, sino cómo deben hacerlo, y proporcionan razones para obedecer, bien para ser buenas personas, bien para evitar castigos. El término «ley» se usa en ambos casos, pero hoy estos dos conceptos guardan poco en común. Sin embargo, cuando surgió la idea, no se establecía distinción entre las leyes de los dominios humano e inanimado. Se creía que los objetos inanimados estaban sujetos a leyes del mismo modo que las personas estaban gobernadas por códigos religiosos y éticos.
La idea de ley tuvo su origen en la religión[91].
Cuando los primeros pobladores de Mesopotamia miraban a su alrededor, veían un mundo al borde del caos, salvado solo por los dioses, que preferían el orden, aunque fuese de forma mínima y arbitraria[92].
Estas deidades de aspecto humano actuaban, como nosotros, movidos por la emoción y el capricho e intervenían constantemente en las vidas de los mortales. Había dioses para todo, literalmente a millares, dioses para los cerveceros, dioses para los agricultores, los escribas, los comerciantes o los artesanos. Había un dios de los rediles del ganado. Había también demonios; uno causó una epidemia, otro era una hembra llamada Extinguidor, que mataba a los niños pequeños. Y cada ciudad-Estado no tenía solo su dios propio, sino toda una corte de dioses subordinados que se ocupaban de trabajos como el de portero, jardinero, embajador o peluquero.
La adoración de todos estos dioses implicaba la aceptación de un código ético formal. Es difícil imaginar la vida sin la protección que brinda un sistema legal, pero antes del advenimiento de las ciudades, los nómadas carecían de códigos legales formales. La gente sabía qué comportamientos serían aprobados o condenados por otros, pero no había reglas de conducta abstractas en forma de edictos como «No matarás». El comportamiento no estaba gobernado por una serie de estatutos generales, sino, en cada caso particular, por la preocupación por lo que pensarían otros y el temor a represalias por parte de los más poderosos.
Los dioses de la Mesopotamia urbana, sin embargo, tenían demandas éticas específicas, exigían a su rebaño que siguiera reglas formales que iban desde «Ayuda al prójimo» hasta «No vomites en los arroyos». Este es el primer caso de un poder superior que promulga lo que podríamos considerar leyes formales [93].
Y las violaciones de estas leyes no podían tomarse a la ligera, pues quien las perpetraba podía verse aquejado por problemas como la enfermedad o la muerte, castigos administrados por dioses demoníacos con nombres como «Fiebre», «Ictericia» o «Tos».
Los dioses también actuaban a través de los regentes terrenales de la ciudad, quienes derivaban su autoridad de su conexión teológica. En tiempos del primer imperio babilónico, en el siglo XVIII a. C., emergió una teoría teológica de la naturaleza más o menos unificada, en la que un dios trascendente establecía leyes referidas tanto a las personas como a lo que hoy llamaríamos el mundo inanimado [94].
Ese conjunto de leyes humanas civiles y criminales se conoce como Código de Hammurabi. Recibe su nombre del rey babilónico regente, a quien el dios Marduk encomendó «traer la norma de la rectitud a la tierra, para destruir a los pérfidos y malvados».
El Código de Hammurabi fue promulgado en 1750 a. C., alrededor de un año antes de la muerte de Hammurabi. No era precisamente un modelo de derechos democráticos: las clases altas y la realeza eran tratados con indulgencia y gozaban de mayores privilegios, mientras que los esclavos podían ser comprados y vendidos, o asesinados. Pero el código contenía normas de justicia, y la dureza del ojo por ojo de la Torá, que aún tardaría unos mil años en llegar. Decretaba, por ejemplo, que quien fuese cogido robando debía morir, quien hurtase mientras ayudaba a apagar un incendio debía ser echado a las llamas, una «hermana de dios» que abriera una taberna debía ser quemada hasta la muerte, quien causase una inundación por ser «demasiado perezoso» para mantener adecuadamente su azud debía reemplazar todo el cereal que se hubiese echado a perder, y quien jurase ante Dios que había sido robado mientras guardaba un dinero encomendado por otro, no tendría que devolverlo[95].
Las leyes del Código de Hammurabi se tallaron en un bloque de basalto de unos dos metros y medio de altura, obviamente con la intención de ser mostrado en público como referencia. El bloque se descubrió en 1901 y hoy se exhibe en el Louvre. No fue, como las pirámides, una gran logro físico, pero sí un monumental logro intelectual, un intento de construir un andamiaje de orden y racionalidad que abarcase todas las interacciones sociales de la sociedad babilónica (comerciales, monetarias, militares, maritales, médicas, éticas y demás), y hoy es el ejemplo más antiguo conocido de un regente que establece todo un corpus de leyes para su pueblo.
Como ya he dicho, se creía que el dios Marduk no regía únicamente al pueblo, sino que gobernaba también sobre los procesos físicos: legislaba igual para las estrellas que para los humanos. Y por eso, paralelamente al Código de Hammurabi, se atribuía a Marduk la creación de un código para que lo siguiera la naturaleza. Esas leyes, que gobernaban lo que conocemos como mundo inanimado, constituyen las primeras leyes científicas en el sentido de que describen el funcionamiento de los fenómenos naturales[96].
No eran, sin embargo, leyes de la naturaleza en el sentido moderno porque solo proporcionan una vaga indicación de cómo se comporta la naturaleza; como el Código de Hammurabi, aquellas leyes eran más bien preceptos y decretos que Marduk ordenaba a la naturaleza que observara.
La idea de que la naturaleza «obedece» leyes en el mismo sentido que lo hacen las personas persistiría durante miles de años. Por ejemplo, Anaximandro, uno de los grandes filósofos naturales de la Grecia clásica, decía que todas las cosas emanan de una sustancia primordial, y que vuelven a ella, pues de lo contrario tendrían que «expiar y ser juzgadas por su iniquidad, de acuerdo con el orden del tiempo [97]».
De igual modo, Heráclito dice que «el Sol no transgredirá sus límites, pues de otro modo [la diosa de la justicia] lo encontraría [y castigaría]». De hecho, el término «astronomía» tiene sus raíces en la palabra griega nomos, que significa «ley» en el sentido de la ley humana. No fue hasta Kepler, en el siglo XVII, cuando el término «ley» comenzó a usarse en el sentido moderno, con el significado de generalización, basada en la observación, que describe el comportamiento de algunos fenómenos naturales pero sin asignarles un propósito o motivo. Aun así, no fue una transición repentina, pues aunque Kepler ocasionalmente escribió sobre leyes matemáticas, incluso él creía que Dios ordenaba al universo que siguiera el principio de la «belleza geométrica», y explicaba que el movimiento de los planetas probablemente fuera el resultado de que la «mente» del planeta percibiera su ángulo y calculase su órbita.
El historiador Edgar Zilsel, que estudió la historia de la idea de la ley científica, escribió que «parece que el hombre tiende a interpretar la naturaleza… de acuerdo con las pautas de la sociedad». En otras palabras, nuestros intentos por formular las leyes de la naturaleza parecen nacer de nuestra natural tendencia a entender nuestra existencia personal y nuestras experiencias, y la cultura en la que crecemos influye en nuestra manera de aproximarnos a la ciencia.
Zilsel reconocía que todos creamos narrativas mentales para describir nuestras vidas, y que construimos aquellas a partir de lo que nos enseñan y lo que experimentamos, generando una concepción de quiénes somos y cuál es nuestro lugar en el universo. Elaboramos así un conjunto de leyes que describen nuestro mundo personal y el significado de nuestra vida. Antes de la guerra, por ejemplo, las leyes que parecían gobernar la vida de mi padre le llevaban a esperar decencia de su sociedad, de los tribunales, algo aproximado a la justicia, del mercado comida y de su Dios protección. Esa era su visión del mundo, y sobre su validez se sentía tan despreocupado como un científico que ve como su teoría pasa todos los test.
Pero aunque las estrellas y los planetas se vienen atrayendo unos a otros fielmente desde hace miles de millones de años, en el mundo humano las leyes se pueden cambiar o revocar en cuestión de horas. Eso fue lo que le ocurrió a mi padre y a tantos otros en septiembre de 1939. Durante los meses previos, mi padre había finalizado un curso sobre diseño de moda en Varsovia, y había comprado dos nuevas máquinas de coser alemanas y alquilado una pequeña habitación en el apartamento de un vecino, donde había abierto un taller de costura. Entonces los alemanes invadieron Polonia y, el 3 de septiembre, entraron en su ciudad natal, Częstochowa. El gobierno de ocupación no tardó en promulgar una serie de decretos antisemíticos que condujeron a la confiscación de todo lo que tuviese algún valor: joyas, coches, radios, muebles, dinero, apartamentos, incluso juguetes de niños. Las escuelas judías se clausuraron y declararon ilegales. Se obligó a los adultos a llevar símbolos con la estrella de David. De la manera más arbitraria, los judíos eran detenidos en la calle y obligados a realizar algún trabajo forzado. Otros morían por el disparo caprichoso de cualquier demente.
Aquello, que destruyó la estructura física del mundo de mi padre, también alteró irrevocablemente el andamiaje mental y emocional que la envolvía. Tristemente, el Holocausto es una historia que se ha repetido, a diferentes escalas, en muchas otras ocasiones, antes y después. Si nuestra experiencia humana conforma nuestra idea de ley científica, no es de extrañar que durante la mayor parte de su historia a la humanidad le resultase difícil imaginar que el mundo pudiera estar gobernado por regularidades absolutas y bien definidas que son inmunes al capricho, desprovistas de propósito y no sujetas a la intervención divina.
Aun hoy, mucho después de que Newton produjera su conjunto de leyes de tan monumental éxito, mucha gente sigue sin creer que esas leyes sean de aplicación universal. No obstante, siglos de progreso han recompensado a los científicos, que reconocieron que la ley física y la ley humana responden a pautas claramente distintas.
Nueve años antes de su muerte, a los setenta y seis años, Albert Einstein describió su vida dedicada a la comprensión de las leyes físicas del universo de este modo: «Ante mí tenía aquel mundo inmenso, que existe con independencia de nosotros, los seres humanos, y que se nos presenta como un enorme y eterno enigma, al menos parcialmente accesible a nuestra inspección y razonamiento. La contemplación de este mundo me llamaba como una liberación… El camino al paraíso… ha resultado ser fiable, y nunca he lamentado haberlo escogido». En cierto modo, creo que mi padre, hacia el fin de su propia vida, halló un sentimiento parecido al de la «liberación» de aquel pensamiento.
Para nuestra especie, Uruk fue el principio de un largo camino para descifrar ese eterno enigma. Las primeras y balbuceantes civilizaciones del Oriente Próximo establecieron los cimientos de la vida intelectual, y luego construyeron sobre ellos, dándonos una clase de pensadores que crearon las matemáticas, el lenguaje escrito y el concepto de ley. El siguiente paso en la floración y la maduración de la mente humana se dio en Grecia, a más de mil kilómetros de distancia. El gran milagro griego engendró la idea de demostración matemática, las disciplinas de la ciencia y la filosofía, y el concepto de lo que hoy llamamos «razón», todo ello unos dos mil años antes de Newton.

5. Razón
En 334 a. C., Alejandro, el rey del estado griego de Macedonia, con solo veintidós años de edad dirigió un ejército de experimentados ciudadanos-soldados a través del Helesponto en los inicios de una larga campaña para conquistar el vasto imperio persa. Por casualidad, mientras escribo esto, yo mismo tengo un hijo de veintidós años cuyo nombre, Alexéi, tiene la misma raíz griega. Dicen que hoy los chicos crecen más rápido que nunca, pero si hay algo que no imagino a Alexéi haciendo es dirigir un ejército de experimentados ciudadanos-soldados hacia Mesopotamia para enfrentarse al imperio persa. Hay varios relatos antiguos de cómo logró su victoria aquel joven rey macedonio, la mayoría de los cuales incluyen el consumo de grandes cantidades de vino. Sea como fuere, su larga campaña de conquistas lo llevó más allá del Paso Jáiber. Para cuando murió, a los treinta y tres años de edad, había logrado lo bastante en su corta existencia para que se le conozca desde entonces como Alejandro Magno.
En tiempos de la invasión de Alejandro, Oriente Próximo estaba salpicado de ciudades como Uruk que habían existido durante miles de años. Para poner esto en perspectiva, si Estados Unidos hubiera existido tanto tiempo como Uruk, a estas alturas ya estaríamos más o menos en nuestro presidente número seiscientos.
Pasear por las calles de aquellas antiguas ciudades conquistadas por Alejandro debía impresionar profundamente, pues uno se habría encontrado deambulando por inmensos palacios, extensos jardines regados por canales especiales y magníficos edificios de piedra decorados con columnas coronadas con tallas de grifos y toros. Eran sociedades vibrantes y complejas, en absoluto en declive. Sin embargo, sus culturas habían sido superadas intelectualmente por el mundo de habla griega que las había conquistado, personificado en su joven líder, un hombre que se había educado con el mismísimo Aristóteles.
Con la conquista de Mesopotamia por Alejandro, el sentimiento de que todo lo griego era superior no tardó en propagarse por todo el Oriente Próximo [98].
Los niños, siempre en la vanguardia de los cambios culturales, aprendieron el lenguaje griego, memorizaron la poesía griega y adoptaron el deporte de la lucha. El arte griego se hizo popular en Persia. Beroso, un sacerdote de Babilonia, Sanjuniatón, un fenicio, y Flavio Josefo, un judío, escribieron historias de sus pueblos con el propósito de mostrar su compatibilidad con las ideas griegas. Hasta los impuestos se helenizaron: comenzaron a registrarse en el relativamente nuevo alfabeto griego, y sobre papiro, en lugar de en tablillas en escritura cuneiforme. Pero el aspecto más importante de la cultura griega que Alejandro trajo consigo no tenía nada que ver con las artes o la administración. Fue lo que él mismo había aprendido de primera mano con Aristóteles: una forma nueva, racional, de encarar la lucha por conocer nuestro mundo, un magnífico punto de inflexión en la historia de las ideas humanas. El propio Aristóteles, por su parte, construía sobre las ideas de varias generaciones de científicos y filósofos que habían comenzado a desafiar las antiguas verdades sobre el universo.
En los primeros años de la antigua Grecia, la manera de entender la naturaleza que tenían los griegos no era muy distinta de la que tenían los mesopotámicos. El tiempo inclemente se podía explicar diciendo que Zeus sufría una indigestión, y si los agricultores tenían una mala cosecha, pensaban que los dioses estaban enfurecidos. No hay un mito de la creación en el que la Tierra sea una gotita del estornudo del dios de las alergias, pero bien podría, pues en los milenios que siguieron a la invención de la escritura, el corpus de las palabras humanas registradas revela una formidable profusión de historias sobre el origen del mundo y las fuerzas que lo gobernaban. Lo que todas tenían en común era la descripción de un universo turbulento creado por un dios inescrutable a partir de algún tipo de vacío informe. La propia palabra «caos» viene del término griego para la nada que, según se decía, había precedido a la creación del universo.
Si antes de la creación solo había el caos, no parece que después de la creación del mundo los dioses de la mitología griega se esforzasen mucho en poner orden. Rayos, vendavales, sequías, inundaciones, accidentes, enfermedades, todas estas y muchas otras plagas irregulares de la naturaleza pasaron factura a la vida y la salud de los seres humanos. Egoístas, traicioneros y caprichosos, los dioses se imaginaban causa constante de calamidades por ira, o simplemente por despreocupación, como si fueran elefantes en una cacharrería y nosotros los cacharros. Esta es la teoría primitiva del cosmos que se transmitió oralmente de generación en generación en Grecia, hasta que por fin la escribieron Homero y Hesíodo hacia el 700 a. C., más o menos un siglo después de que la escritura llegase a la cultura griega. A partir de entonces, fue la base de la educación griega, formando la sabiduría aceptada de generaciones de pensadores[99].
A quienes vivimos en la sociedad moderna con los beneficios de una larga historia de pensamiento científico, se nos hace difícil de entender que los antiguos pensasen así de la naturaleza. La idea de estructura y orden en la naturaleza nos parece tan evidente a nosotros como a ellos la idea de que los dioses lo controlaban todo. Hoy, nuestras actividades cotidianas están cuantificadas, asignadas a ciertas horas y minutos. Nuestras tierras están delineadas por latitud y longitud, nuestras direcciones marcadas con nombres y números de calle. Hoy, si el mercado de valores baja tres puntos, un experto nos da una explicación, tal vez que la bajada se debe a nuevas preocupaciones por la inflación. Claro que otro experto puede decir que se debe a lo que pasa en China, y un tercero puede atribuirlo a una actividad poco usual de las manchas solares, pero, ya sean correctas o incorrectas, esperamos que nuestras explicaciones estén basadas en causas y efectos.
Exigimos a nuestro mundo causalidad y orden porque estos conceptos están arraigados en nuestra cultura, en nuestra propia conciencia. A diferencia de nosotros, sin embargo, los antiguos carecían de una tradición matemática y científica, de modo que el marco conceptual de la ciencia moderna, la idea de predicciones numéricas precisas, la noción de que los experimentos repetidos deberían producir resultados idénticos, el uso del tiempo como un parámetro para seguir el desarrollo de los acontecimientos, todo ello habría sido difícil de aprehender o aceptar. Para los antiguos, la naturaleza parecía estar regida por el tumulto, y creer en unas leyes físicas del orden debía parecerles tan extravagante a ellos como a nosotros los relatos de unos dioses salvajes y caprichosos (o, quizá, tal como nuestras propias y estimadas teorías les parecerán a los historiadores que las estudien de aquí a mil años).
¿Por qué habría de ser la naturaleza predecible, explicable a partir de conceptos que el intelecto humano puede descubrir? Albert Einstein, un hombre a quien no habría sorprendido descubrir que el continuo del espacio-tiempo se podía doblar en la forma de un pretzel salado, se confesaba perplejo ante el hecho, mucho más simple, de que la naturaleza tenga orden, y escribió: «Uno debería esperar un mundo caótico, que de ningún modo pueda ser aprehendido por la mente[100]».
Y prosigue diciendo que, en contra sus expectativas, «lo más incomprensible del universo es que sea comprensible[101]».
Las vacas no entienden las fuerzas que las mantienen pegadas al suelo, ni los cuervos saben nada sobre la aerodinámica que les permite volar. Con su declaración, Einstein expresaba una observación trascendental y exclusivamente humana: que el orden gobierna el mundo y que las reglas que gobiernan el orden de la naturaleza no tienen por qué explicarse con mitos. Son conocibles, y los humanos gozan de la capacidad, única entre todos los organismos de la Tierra, de descifrar la naturaleza. Esa lección tiene profundas implicaciones, pues si podemos descifrar el diseño del universo, podemos usar ese conocimiento para comprender qué lugar ocupamos en él, y podemos buscar la manera de manipular la naturaleza para crear productos y tecnologías que mejoren nuestras vidas.
El nuevo enfoque racional hacia la naturaleza tuvo su origen durante el siglo VI a. C. con un grupo de pensadores revolucionarios que vivieron en el territorio griego de la costa del Egeo, esa gran bahía del Mediterráneo que separa las actuales Grecia y Turquía. Varios cientos de años antes de Aristóteles, al mismo tiempo que Buda traía una nueva tradición filosófica a la India y Confucio a China, aquellos primerísimos filósofos griegos realizaron un cambio de paradigma, pasando a ver el universo como algo ordenado, no aleatorio: como Cosmos, no Caos. Es difícil exagerar lo profundo de aquel cambio y en qué medida ha conformado desde entonces la conciencia humana.
La región donde surgieron estos pensadores radicales era una tierra mágica de parras, huertos de higueras y olivos, y ciudades prósperas y cosmopolitas [102].
Aquellas ciudades se situaban en la desembocadura de ríos y golfos que desaguaban en el mar, y en el extremo de carreteras que discurrían hacia el interior. Según Heródoto, era un paraíso donde «el aire y el clima son los más bellos de todo el mundo». Su nombre era Jonia.
Los griegos habían fundado muchas ciudades-Estado en lo que hoy es la península de Grecia y en el sur de Italia, pero eran simples provincias; el centro de la civilización griega era la Jonia turca, a apenas varios cientos de kilómetros al oeste de Göbekli Tepe y Çatalhöyük. La vanguardia de la ilustración griega se encontraba en la ciudad de Mileto, situada en el litoral del golfo de Latmus, desde donde se accedía al Egeo, y de allí al Mediterráneo [103].
Según Heródoto, en el cambio del primer milenio antes de Cristo, Mileto había sido un modesto asentamiento habitado por carianos, un pueblo descendiente de los minoicos. Entonces, alrededor de 1000 a. C., soldados de Atenas y sus alrededores conquistaron la región. Hacia 600 a. C. el nuevo Mileto se había convertido en una suerte de Nueva York de la antigüedad que atraía desde toda Grecia refugiados pobres y trabajadores que buscaban una vida mejor.

07.jpg

Con el paso de los siglos, la población de Mileto se hinchó hasta los 100 000 habitantes, y la ciudad se convirtió en un centro de gran lujo y riqueza, la más opulenta de las ciudades jónicas e incluso de todo el mundo griego. Desde el Egeo, los pescadores de Mileto traían lubinas, salmonetes y mejillones. Del rico suelo, los labriegos cosechaban cereales e higos, la única fruta conocida por los griegos que se podía conservar durante algún tiempo, mientras que los huertos les proveían de olivas para producir aceitunas y aceite, la versión de la antigua Grecia de la mantequilla, el jabón y el combustible. Además, el acceso al mar convirtió a Mileto en un importante centro para el comercio. Productos como el lino, la madera, el hierro o la plata se compraban en las docenas de colonias que los ciudadanos de Mileto habían establecido hasta Egipto, y sus hábiles artesanos creaban cerámica, muebles y finas lanas que exportaban a otras regiones.
Pero Mileto no era solamente una encrucijada para el intercambio de bienes, también era un lugar para compartir ideas. En la ciudad se encontraban y hablaban gentes de docenas de culturas dispersas, y los milesios también viajaban a lugares lejanos, exponiéndose a muchos y diversos lenguajes y culturas. Mientras sus habitantes discutían sobre el precio de la salazón, unas tradiciones se encontraban con otras y unas supersticiones con otras, haciéndolos más abiertos a nuevas formas de pensar y promoviendo una cultura de la innovación y, en particular, una importantísima predisposición a cuestionar las convenciones. Además, la riqueza de Mileto creó ocio, y con el ocio vino la libertad de dedicar tiempo a reflexionar sobre las preguntas de nuestra existencia. Así, por la confluencia de muchas circunstancias favorables, Mileto se convirtió en un paraíso sofisticado y cosmopolita y en un centro de pensadores, creando la tormenta perfecta con todos los factores necesarios para una revolución del pensamiento.
Fue en este ambiente, en Mileto y después en toda Jonia, donde surgió un grupo de pensadores que comenzaron a cuestionar las explicaciones religiosas y mitológicas de la naturaleza que se venían transmitiendo desde hacía miles de años. Fueron los Copérnicos y los Galileos de su tiempo los pioneros que gestaron la filosofía y la ciencia.
El primero de estos pensadores fue, según Aristóteles, un hombre llamado Tales, nacido hacia 624 a. C. Suele decirse que muchos filósofos griegos vivían en la pobreza, y si los tiempos antiguos se parecían en algo a los nuestros, incluso un filósofo famoso podría haber conseguido una existencia más próspera con cualquier trabajo, aunque fuese vendiendo aceitunas en la carretera. Pero la tradición nos dice que Tales fue una excepción, un mercader astuto y opulento que no tenía problemas para financiar el tiempo que dedicaba a pensar y reflexionar. De él se dice que, en cierta ocasión, ganó una fortuna controlando el mercado de prensas de olivas y cobrando precios desorbitados por el aceite, como una OPEP de un hombre solo. También se dice que estuvo implicado en la política de la ciudad y que había conocido muy de cerca a su dictador, Trasíbulo.
Tales usó su riqueza para viajar. En Egipto, descubrió que si bien los egipcios tenían experiencia en la construcción de pirámides, carecían del conocimiento para medir su altura. Sin embargo, como ya hemos visto, habían desarrollado una original serie de reglas matemáticas que utilizaban para determinar el área de las parcelas de tierra con fines impositivos. Tales adaptó aquellas técnicas de geometría de los egipcios para calcular la altura de las pirámides, y demostró que con ellas también se podía determinar la distancia a los barcos en el mar. Aquello lo convirtió en toda una celebridad en el antiguo Egipto.
A su regreso a Grecia, Tales trajo consigo la matemática egipcia, traduciendo su nombre a su lengua nativa. Pero en sus manos la geometría dejó de ser una simple herramienta para medir y calcular para convertirse en un conjunto de teoremas enlazados por deducción lógica. Fue el primero en demostrar verdades geométricas en lugar de limitarse a enunciar como hechos unas conclusiones que parecían funcionar [104]; más tarde, el gran geómetra Euclides incluiría algunos de los teoremas de Tales en sus Elementos. No obstante, por impresionantes que fueran sus avances en matemáticas, la verdadera razón de su fama se encuentra en su manera de explicar los fenómenos del mundo físico.
Para Tales, la naturaleza no era asunto de la mitología, sino que funcionaba según principios científicos que podían usarse para explicar y predecir fenómenos que hasta entonces se habían atribuido a la intervención de los dioses. Tales fue, por lo que sabemos, la primera persona que entendió la causa de los eclipses, y el primer griego que propuso que la Luna brillaba porque reflejaba la luz del Sol.
Incluso cuando se equivocó, Tales fue notable en la originalidad de su pensamiento y sus ideas. Es el caso de su explicación de los terremotos. En tiempos de Tales, se creía que estos se producían cuando el dios Poseidón se enfadaba y golpeaba la Tierra con su tridente. Pero Tales sostenía lo que debía parecer una idea extravagante: que los terremotos no tenían nada que ver con los dioses. Su explicación no se encuentra entre las que hoy oiría de alguno de mis amigos sismólogos de Caltech, pues creía que el mundo era una hemiesfera que flotaba en una extensión de agua inacabable y que los terremotos se producían cuando el agua se embravecía. No obstante, el análisis de Tales es rompedor por sus implicaciones, pues intentó explicar los terremotos como la consecuencia de un proceso natural, y empleó argumentos empíricos y lógicos para respaldar sus ideas. Pero quizá lo más importante sea que llegó a plantearse la pregunta de por qué se producen los terremotos.
En 1903, el poeta Rainer Maria Rilke le dio un consejo a un estudiante que es igual de cierto para la ciencia que para la poesía: «Sé paciente con todo lo que no esté resuelto en tu corazón e intenta amar las preguntas», escribió, y «vive las respuestas [105]».
La mayor habilidad en la ciencia (y a menudo también en los negocios) es la de plantearse buenas preguntas, y Tales prácticamente inventó la idea de hacerse preguntas científicas. Allí donde mirara, incluido el firmamento, veía fenómenos que pedían a gritos una explicación, y su intuición lo llevó a reflexionar sobre fenómenos que con el tiempo arrojarían luz sobre el funcionamiento fundamental de la naturaleza. No solo se preguntó por los terremotos, también por el tamaño y la forma de la Tierra, las fechas de los solsticios y la relación entre la Tierra, el Sol y la Luna, las mismas preguntas que mil años más tarde llevarían a Isaac Newton a su gran descubrimiento de la gravedad y las leyes del movimiento.
En reconocimiento a lo radical de la fractura con el pasado que había creado Tales, Aristóteles se referiría más tarde a este pensador y a otros también jónicos como los primeros physikoi, o físicos, el grupo al que tengo el orgullo de pertenecer, y al que pertenecía el propio Aristóteles. El término viene del griego physis, que significa «naturaleza», y que Aristóteles escogió para describir a quienes buscan explicaciones naturales a los fenómenos, en contraste con los theologoi, los teólogos, que buscan explicaciones sobrenaturales.
Aristóteles sentía menor admiración, sin embargo, por los miembros de otro grupo radical: quienes usaban las matemáticas para modelar la naturaleza. El crédito de tal innovación corresponde a un pensador de la generación posterior a la de Tales, que no vivía muy lejos de este, en la isla egea de Samos.
Algunos nos pasamos las horas de trabajo intentando entender cómo funciona el universo. Otros no han llegado siquiera a dominar el álgebra. En tiempos de Tales, los miembros del primer grupo también eran miembros del segundo, pues, como ya hemos comentado, el álgebra tal como la conocemos (y la mayor parte de la matemática aparte del álgebra) todavía no se había inventado.
Para el científico de hoy en día, entender la naturaleza sin la ayuda de ecuaciones sería como intentar entender los sentimientos de la pareja cuando todo lo que esta dice es «estoy bien». Y es que la matemática es el vocabulario de la ciencia, es lo que nos permite comunicar una idea teórica. Los científicos no siempre sabemos usar el lenguaje para revelar pensamientos personales e íntimos, pero somos expertos en comunicar nuestras teorías mediante la matemática. El lenguaje de las matemáticas permite a la ciencia sumergirse más profundamente en teorías, y de una forma más inteligible y precisa que con el lenguaje común, puesto que se trata de un lenguaje con reglas inherentes de razonamiento y lógica que no cesan de ampliar su significado, permitiendo que se desdoble y reverbere de formas a veces inesperadas.
Los poetas describen sus observaciones por medio del lenguaje; los físicos las suyas con las matemáticas. Cuando un poeta acaba un poema, el trabajo del poeta llega a su fin, pero cuando un físico escribe un «poema» matemático, ahí empieza su trabajo. Aplicando las reglas y los teoremas de la matemática, el físico tiene que forzar ese poema a revelar sobre la naturaleza lecciones que su propio autor quizá nunca habría imaginado. Y es que las ecuaciones no solo contienen ideas, sino que ofrecen las consecuencias de esas ideas a cualquiera que posea la perspicacia y la persistencia suficientes para extraerlas. Eso es lo que consigue el lenguaje de la matemática: facilita la expresión de principios físicos, ilumina las relaciones entre ellos y guía el razonamiento humano sobre ellos.
A principios del siglo VI a. C., sin embargo, eso no lo sabía nadie. A la especie humana todavía no se le había ocurrido que las matemáticas pudieran ayudarnos a entender cómo funciona la naturaleza. Fue Pitágoras (c. 570-c. 490 a. C.), el fundador de la matemática griega, el inventor del término «filosofía» y la maldición de los estudiantes de secundaria de todo el mundo, que tienen que dejar el móvil a un lado el tiempo suficiente para entender el significado de

a2 + b2 = c2,

quien al parecer fue el primero en ayudarnos a usar las matemáticas como el lenguaje para las ideas científicas. En la antigüedad, el nombre de Pitágoras no se asociaba únicamente con el genio; también llevaba un halo mágico y religioso [106].
Se le veía como nosotros habríamos visto a Einstein si además de físico hubiera sido el Papa. A través de muchos escritores posteriores, hemos recibido información abundante sobre la vida de Pitágoras, además de varias biografías. Pero hacia el primer siglo después de Cristo, los relatos se tornan poco fiables, teñidos por intenciones religiosas o políticas que llevaban a los escritores a distorsionar sus ideas y magnificar su lugar en la historia.
Un dato que parece ser cierto es que Pitágoras nació en Samos, al otro lado de la bahía desde Mileto. Todos sus antiguos biógrafos coinciden también en que en algún momento entre los dieciocho y los veinte años Pitágoras visitó a Tales, entonces anciano y cercano a la muerte. Consciente de que su antigua brillantez se apagaba, Tales se disculpó por su decaído estado mental. No sabemos qué lecciones impartió, pero Pitágoras quedó impresionado. Muchos años más tarde, se le podía ver a veces sentado en su casa, cantando canciones de alabanza a su antiguo maestro.
Como Tales, Pitágoras viajó mucho, probablemente hasta Egipto, Babilonia y Fenicia. Dejó Samos a los cuarenta años, cuando la vida bajo el tirano de la isla, Polícrates, se le hizo insoportable, y fue a recalar en Croton, en lo que hoy es el sur de Italia. Atrajo allí a un gran número de seguidores, y al parecer fue allí donde comprendió que el orden matemático subyace al mundo físico.
Nadie sabe cómo se desarrolló el lenguaje en sus inicios, aunque yo siempre he imaginado un hombre de las cavernas que se golpea el pie y grita ¡ay!, y alguien piensa: «Qué nueva e interesante manera de expresar los sentimientos», y pronto todo el mundo estaría hablando. El origen de las matemáticas como lenguaje de la ciencia también está envuelto en el misterio, pero en este caso tenemos al menos una leyenda que lo describe.
De acuerdo con la leyenda, un día Pitágoras salió a caminar y pasó junto a una herrería, donde escuchó el sonido de los martillos del herrero y se percató de que existía una pauta en los tonos que producían los distintos martillos al golpear contra el hierro. Pitágoras corrió al interior de la forja y experimentó con los martillos, y se dio cuenta de que las diferencias de tono no dependían de la fuerza empleada por el hombre que golpeaba ni de la forma precisa del martillo, sino de su tamaño o, lo que es equivalente, su peso.
Pitágoras regresó a su casa y siguió experimentando, no con martillos sino con cuerdas de distintas longitudes y tensiones. Como otros jóvenes griegos, había recibido una educación en música, sobre todo flauta y lira. Los instrumentos musicales griegos de aquella época eran el resultado de pruebas y errores, de experiencia y de intuición. Pitágoras, en cambio, había descubierto con sus experimentos una ley matemática que gobernaba los instrumentos de cuerda y podía usarse para definir una relación precisa entre la longitud de las cuerdas musicales y los tonos que producen.
Hoy describiríamos la relación de Pitágoras diciendo que la frecuencia del tono es inversamente proporcional a la longitud de la cuerda. Supongamos, por ejemplo, que una cuerda produce cierta nota cuando se pulsa. Si se presiona la cuerda en el punto medio, produce una nota un octavo más alta, es decir, con una frecuencia del doble. Si se presiona a un cuarto de su longitud, el tono asciende otro octavo, a cuatro veces la frecuencia original. ¿Fue realmente Pitágoras quién descubrió esta relación? Nadie sabe hasta qué punto son ciertas las leyendas sobre Pitágoras. Por ejemplo, probablementeno demostrase el «teorema de Pitágoras» que tanto agobia a los estudiantes de secundaria; creemos que fue uno de sus seguidores quien primero lo demostró, pero la fórmula ya se conocía desde hacía siglos. En cualquier caso, la verdadera aportación de Pitágoras no fue que demostrase ninguna ley específica, sino que promoviese la idea de un cosmos estructurado conforme a ciertas relaciones numéricas, y su influencia no se debe a que descubriese conexiones matemáticas en la naturaleza sino a que las celebrase. En palabras del estudioso de los clásicos Carl Huffman, Pitágoras fue importante «por el honor que otorga a los números y por sacarlos del ámbito práctico del comercio al señalar las correspondencias entre el comportamiento de los números y el de las cosas[107]».
Mientras que Tales decía que la naturaleza sigue reglas ordenadas, Pitágoras fue un paso más allá, afirmando que la naturaleza sigue reglas matemáticas. Enseñaba que la verdad fundamental del universo es una ley matemática. El número, creía Pitágoras, es la esencia de la realidad.
Las ideas de Pitágoras ejercieron una gran influencia sobre otros pensadores griegos que le siguieron, especialmente sobre Platón, y sobre científicos y filósofos de toda Europa. Pero de todos los defensores griegos de la razón, de todos los grandes estudiosos griegos que creían que el universo se podía entender mediante el análisis racional, con mucho el más influyente para el futuro desarrollo de la ciencia no fue Tales, que inventó la manera de enfocar ese análisis, ni Pitágoras, que lo dotó de las matemáticas, ni siquiera Platón, sino el estudiante de Platón que más tarde sería tutor de Alejandro Magno: Aristóteles.
Nacido en Estagira, una ciudad del noreste de Grecia, Aristóteles (384-322 a. C.) fue hijo de un hombre que había sido médico personal del abuelo de Alejandro, el rey Amintas. Quedó huérfano de joven y con diecisiete años fue enviado a Atenas a estudiar en la Academia de Platón. Después de Platón, la palabra «academia» vino a significar lugar de aprendizaje, pero en su tiempo era simplemente el nombre de unos jardines públicos a las afueras de Atenas que albergaban el bosquete donde Platón y sus alumnos gustaban de reunirse. Aristóteles permaneció allí veinte años.
A la muerte de Platón, en 347 a. C., Aristóteles dejó la Academia, y pocos años más tarde se convirtió en el tutor de Alejandro. No está claro por qué el rey Filipo II lo escogió como tutor de su hijo, pues Aristóteles todavía no se había ganado su reputación. Sea como fuere, a Aristóteles debió parecerle una buena idea convertirse en el tutor del heredero del rey de Macedonia. Recibía buenos honorarios, y obtuvo otros beneficios cuando Alejandro conquistó Persia y buena parte del resto del mundo. Pero después de que Alejandro accediera al trono, Aristóteles, ya con cincuenta años, regresó a Atenas, donde, en el curso de trece años, produjo la mayor parte de las obras por las que es conocido. Nunca más volvió a ver a Alejandro.
El tipo de ciencia que Aristóteles enseñaba probablemente no fuera idéntico al que él mismo había aprendido de Platón. Aristóteles fue un pupilo destacado de la Academia, pero nunca se encontró cómodo con el énfasis de Platón en las matemáticas. Su propio sesgo era hacia la observación detallada de la naturaleza, no hacia las leyes abstractas, y por tanto muy distinto del enfoque de Platón y de la ciencia que practicamos en la actualidad.
En el instituto, yo disfrutaba mucho con las clases de química y física. Viendo lo mucho que me apasionaban, mi padre solía pedirme que se las explicase. Al venir de una familia judía pobre que solo había podido enviarlo a la escuela religiosa de su pueblo, había recibido una educación más centrada en las teorías del Sabbath que en las teorías de la ciencia, y como nunca pasó del séptimo curso, tenía todo el trabajo por delante.

08.jpg
Aristóteles junto a Platón (izquierda), en un fresco de Rafael.

Comencé nuestra exploración diciendo que la física es por encima de todo el estudio de una cosa: el cambio. Mi padre lo pensó un momento y luego refunfuñó. «No sabes nada del cambio», me dijo. «Eres demasiado joven y nunca lo has experimentado». Alegué que por supuesto que lo había experimentado, pero me respondió con una de esas viejas expresiones yidis que suenan muy profundas o muy estúpidas, dependiendo de la tolerancia que uno tenga por las viejas expresiones yidis. «Hay cambio», me dijo, «y cambio».
Desprecié su aforismo como solo un adolescente es capaz de hacerlo. En la física, le dije, no hay ni cambio ni cambio; solo hay CAMBIO. De hecho, uno podría decir que la principal aportación de Isaac Newton a la creación de la física tal como hoy la conocemos fue su invención de un enfoque matemático unificado que se podía usar para describir todo cambio, de la naturaleza que fuese. La física de Aristóteles, que tuvo su origen en Atenas dos mil años antes de Newton, tiene sus raíces en una forma mucho más intuitiva y menos matemática de entender el mundo, y pensé que sería más accesible a mi padre. Así, con la esperanza de hallar en ella algo que me hiciera más fácil explicarle las cosas, comencé a leer sobre el concepto aristotélico de cambio. Tras muchos esfuerzos, aprendí que si bien Aristóteles hablaba griego y jamás había pronunciado una palabra en yidis, lo que en esencia creía era esto: «Hay cambio, y hay cambio».
En la versión de mi padre, la segunda invocación de la palabra «cambio» resultaba ominosa, pues con ella quería referirse al tipo de cambio violento que había experimentado tras la invasión de los nazis. Esa distinción entre cambio normal o natural, de un lado, y cambio violento, del otro, es la misma que hacía Aristóteles, quien creía que todas las transformaciones que uno observa en la naturaleza pueden categorizarse como naturales o violentas.
En la teoría aristotélica del mundo, el cambio natural es aquel que tiene su origen dentro del propio objeto[108]. En otras palabras, la causa del cambio natural es intrínseca a la naturaleza o composición del objeto. Consideremos, por ejemplo, el tipo de cambio que llamamos movimiento, el cambio de posición. Aristóteles creía que todo está hecho de varias combinaciones de cuatro elementos fundamentales (tierra, aire, agua y fuego), y que cada uno de ellos tiene una tendencia natural a moverse. Para Aristóteles, las rocas caen hacia la tierra y la lluvia hacia el mar porque la tierra y el mar son los lugares naturales de reposo de esas sustancias. Hacer que una roca vuele hacia arriba requiere intervención externa, mientras que cuando una roca cae, sigue su tendencia intrínseca y ejecuta un movimiento «natural».
En la física moderna, no se necesita ninguna causa para explicar por qué un objeto se mantiene en reposo o en movimiento uniforme con una velocidad y dirección constantes. De igual modo, en la física de Aristóteles, no era necesario explicar por qué los objetos ejecutan movimientos naturales, por qué las cosas que están hechas de tierra y agua caen, o por qué el aire y el fuego ascienden. Este análisis refleja lo que vemos en el mundo a nuestro alrededor, donde las burbujas suben en el agua, las llamas parecen ascender hacia el aire, los objetos pesados caen desde el cielo, los mares y océanos descansan sobre la tierra y la atmósfera se extiende por encima de todo.
Para Aristóteles, el movimiento era solo uno de muchos procesos naturales, como el crecimiento, la descomposición o la fermentación, todos los cuales están gobernados por los mismos principios. Veía el cambio natural, en todas sus variadas formas (la combustión de un tronco, el envejecimiento de una persona, el vuelo de un ave, la caída de una bellota) como la realización de su potencial inherente. El cambio natural, en el sistema de creencias de Aristóteles, es lo que nos impulsa en nuestra vida cotidiana. Es el tipo de cambio que no provoca sorpresas, el que damos por supuesto.
Pero en ocasiones el curso natural de los acontecimientos se ve perturbado, y el movimiento, o cambio, es impuesto por algo externo. Así ocurre cuando se lanza una piedra al aire, cuando se arrancan las vides del suelo o se sacrifican pollos para alimento, o cuando perdemos el trabajo o los fascistas invaden un continente. Estos son los cambios que Aristóteles llama «violentos».
En el cambio violento, según Aristóteles, un objeto cambia o se mueve en una dirección que viola su naturaleza. Aristóteles buscaba entender la causa de ese tipo de cambio, y escogió un término para designarlo: lo llamó «fuerza».
Como su concepto de cambio natural, la doctrina aristotélica del cambio violento se corresponde bien con lo que observamos en la naturaleza: la materia sólida, por ejemplo, cae hacia abajo por sí misma, pero para que se mueva en cualquier otra dirección, hacia arriba o de lado, se necesita una fuerza, un esfuerzo.
El análisis del cambio que hizo Aristóteles es notable porque, aunque veía a su alrededor los mismos fenómenos que los otros grandes pensadores de su tiempo, a diferencia de estos, él se remangó y realizó observaciones sobre el cambio con un detalle enciclopédico sin precedentes, cambio tanto en las vidas de las personas como en la naturaleza. En su intento por descubrir lo que tienen en común todos los tipos de cambio, estudió las causas de los accidentes, la dinámica de la política, el movimiento del buey cuando acarrea cargas pesadas, el crecimiento de los embriones de pollo, la erupción de los volcanes, las alteraciones del delta del Nilo, la naturaleza de la luz del Sol, el ascenso del calor, el movimiento de los planetas, la evaporación del agua, la digestión del alimento en los animales con varios estómagos, la forma en que las cosas se funden o se queman. Diseccionó animales de todo tipo, a veces cuando ya estaban camino de descomponerse, y si otros se quejaban del hedor, él se mofaba.
Aristóteles denominó Física a su intento de crear una explicación sistemática del cambio, asociándose de este modo a la herencia de Tales. Su física era vasta en su ambición, englobando tanto lo vivo como lo inanimado, los fenómenos del cielo o los de la tierra. Hoy las distintas categorías de cambio que analizó son el objeto de estudio de ramas enteras de la ciencia: física, astronomía, climatología, biología, embriología, sociología, etc. De hecho, Aristóteles fue un escritor prolífico, un auténtico hombre-Wikipedia. Sus aportaciones incluyen algunos de los estudios más ambiciosos jamás abordados por persona alguna a la que no se haya diagnosticado un trastorno obsesivo-compulsivo. De acuerdo con las crónicas de la antigüedad, produjo en total 170 obras académicas, de las cuales nos han llegado aproximadamente un tercio, entre ellas: Meteorológicos, Metafísica, Ética, Política, Retórica, Poética, Acerca del cielo, Acerca de la generación y la corrupción, Acerca del alma, De la memoria y la reminiscencia, Sobre el sueño y la vigilia, Sobre el ensueño, Sobre la adivinación por el sueño, Sobre la longitud y la brevedad de la vida, Sobre la juventud y la vejez, Historia de los animales, Partes de los animales , y tantas más.
Mientras su antiguo pupilo Alejandro se dedicaba a conquistar Asia, Aristóteles regresó a Atenas y fundó una escuela llamada Liceo. Allí, mientras paseaba por una avenida pública o caminaba por los jardines, enseñaba a sus estudiantes lo que había aprendido a lo largo de los años [V].
Pero aunque fue un gran maestro y un brillante y prolífico observador de la naturaleza, la manera que tenía Aristóteles de acercarse al conocimiento era muy distinta de lo que hoy llamamos ciencia.
Según el filósofo Bertrand Russell, Aristóteles fue «el primero en escribir como un profesor… un maestro profesional, no un poeta inspirado [109]».
Russell decía que Aristóteles es «Platón diluido por el sentido común». Ciertamente, Aristóteles daba mucho valor a ese rasgo. Como la mayoría de nosotros. Es lo que nos frena de responder a esos amables individuos de Nigeria que nos envían mensajes por correo electrónico prometiendo que si hacemos hoy una transferencia de mil dólares, mañana nos transferirán cien mil millones. Sin embargo, si examinamos las ideas de Aristóteles desde nuestra perspectiva, sabiendo lo que hoy sabemos, se podría decir que es precisamente en la devoción de Aristóteles por las ideas convencionales donde encontramos la mayor diferencia entre el enfoque actual de la ciencia y el de Aristóteles, y donde hallamos también una de las mayores deficiencias de la física aristotélica, pues aunque el sentido común no deba ignorarse, a veces lo que se necesita es sentido no común.
En la ciencia, para progresar, a menudo hay que desafiar a lo que el historiador Daniel Boorstin llamaba «la tiranía del sentido común [110]».
Es sentido común, por ejemplo, que si empujamos un objeto, este se deslice, luego se frene y acabe por pararse. Pero para percibir las leyes del movimiento subyacentes, hay que mirar más allá de lo obvio, como hizo Newton, e imaginar cómo se movería un objeto en un mundo teóricamente libre de fricción. De manera parecida, para entender el mecanismo último de la fricción es necesario mirar más allá de la fachada del mundo material para «ver» que los objetos deben estar hechos de átomos invisibles, un concepto que ya habían propuesto un siglo antes Leucipo y Demócrito, pero que Aristóteles no aceptó.
Aristóteles también demostró una gran deferencia hacia la opinión común, hacia las instituciones e ideas de su tiempo, y escribió: «Lo que todos creen es cierto[111]».
Y a los que dudaban, les decía: «Quien destruye esta fe difícilmente hallará otra más creíble». Un vívido ejemplo de lo mucho que Aristóteles confiaba en la sabiduría convencional, y de lo mucho que eso distorsionaba su manera de ver las cosas, es su argumento un tanto tortuoso de que la esclavitud, que él y la mayoría de sus coetáneos aceptaban, es inherente a la naturaleza del mundo físico. Usando un tipo de argumentación que recuerda extrañamente al de sus escritos sobre física, Aristóteles asevera que «en todas las cosas que forman un todo compuesto y que están hechas de partes… sale a la luz una distinción entre el elemento rector y el elemento regido. Tal dualidad existe en los organismos vivos, pero no solo en ellos; tiene su origen en la constitución del universo [112]».
A causa de esta dualidad, argumentaba Aristóteles, hay hombres que por su naturaleza son libres y hombres que por su naturaleza son esclavos.
En la actualidad se nos presenta a los científicos y a otros innovadores como gente extravagante y poco convencional. Supongo que hay algo de verdad en el estereotipo. Conocí un profesor de física que cada día componía su almuerzo con lo que se ofrecía gratis en la cafetería: la mayonesa le proporcionaba las grasas, el kétchup la verdura y las galletas saladas, los carbohidratos. A otro amigo le gustaban los embutidos pero detestaba el pan, y en el restaurante no tenía el menor recelo en pedir de almuerzo una solitaria montaña de salami, que comía con cuchillo y tenedor como si de un bistec se tratara.
El pensamiento convencional no es una buena actitud para el científico, o para cualquiera que quiera innovar, y a veces el precio es la forma en que otros lo miran. Pero como veremos una y otra vez, la ciencia es el enemigo natural de las ideas preconcebidas y de la autoridad, incluso de la autoridad del propio establishment científico. Las ideas revolucionarias necesariamente requieren que uno esté dispuesto a ir a contracorriente de lo que todos creen verdadero, a reemplazar las viejas ideas por otras nuevas y creíbles. Si existe una barrera al progreso que sobresalga en toda la historia de la ciencia, y del pensamiento humano en general, es la lealtad indebida a las ideas del pasado y del presente. Por eso, si tuviera que seleccionar a alguien para una posición creativa, miraría con recelo un exceso de sentido común, anotaría los rasgos extravagantes en la columna de los pros, y mantendría bien surtida la mesa de los condimentos.
Otro importante conflicto entre el enfoque de Aristóteles y el de la ciencia posterior es que aquella era cualitativa, no cuantitativa. La física actual, incluso en su forma más simple del instituto, es una ciencia de la cantidad. Los estudiantes que aprenden aun lo más elemental de la física saben que un coche que circula a cien kilómetros por hora se mueve veintiocho metros cada segundo. Saben que si se deja caer una manzana, su velocidad aumentará en treinta y cinco kilómetros por hora cada segundo. Realizan cálculos matemáticos como los que llevan a determinar que cuando nos dejamos caer en una silla, la fuerza ejercida sobre nuestra columna cuando la silla nos para la caída puede llegar a ser, durante una décima de segundo, de más de cuatrocientos kilogramos. La física de Aristóteles no era así. Al contrario, se quejaba largamente de los filósofos que pretendían convertir la filosofía «en matemática [113]».
Naturalmente, cualquier intento por convertir la filosofía natural en una ciencia cuantitativa estaba impedido por el estado del conocimiento en la antigua Grecia. Aristóteles no tenía cronómetros, ni relojes de dos manillas, ni su formación le había llevado nunca a pensar en los acontecimientos en función de sus duraciones precisas. Además, los campos del álgebra y la aritmética, que habrían sido necesarios para manipular esos datos, no habían avanzado desde los tiempos de Tales. Como ya hemos visto, todavía no se habían inventado los símbolos de más, menos e igual, como tampoco nuestro sistema numérico o conceptos como «kilómetros por hora». Sin embargo, algunos estudiosos de los siglos XIII y posteriores realizaron progresos en la física cuantitativa con la ayuda de instrumentos y matemáticas que no eran mucho más avanzadas, de modo que no eran estas las únicas barreras a la ciencia de las ecuaciones, las mediciones y la precisión numérica. Más importante era el simple hecho de que Aristóteles, como todos los demás, no estaba interesado en la descripción cuantitativa.
Incluso cuando se ocupó del movimiento, el análisis de Aristóteles fue solo cualitativo. No tenía, por ejemplo, más que una vaga idea de la velocidad, al estilo de que «algunas cosas llegan más lejos que otras en un periodo de tiempo parecido». Eso a nosotros nos suena al tipo de mensaje que podríamos encontrar en una galleta de la suerte, pero en tiempos de Aristóteles parecía lo bastante preciso. Con una noción solamente cualitativa de la velocidad, solo podían tener una idea muy borrosa de la aceleración, que es el cambio en la velocidad o la dirección, y que nosotros enseñamos a los estudiantes de secundaria. Ante tan profundas diferencias, si alguien pudiera viajar a aquella época en una máquina del tiempo y le diera un libro de física newtoniana a Aristóteles, este no lo habría entendido mejor que un libro de recetas de pasta para microondas. Y no es tanto que hubiera sido incapaz de entender lo que Newton quería decir con «fuerza» o «aceleración»; es que no le habría interesado en lo más mínimo.
Lo que sí interesaba a Aristóteles, mientras llevaba a cabo sus detalladas observaciones, era que el movimiento y otros tipos de cambio parecían producirse hacia un fin. Entendía el movimiento, por ejemplo, no como algo que deba medirse sino como un fenómeno cuyo propósito podía discernirse. Un caballo tira de un carro para moverlo por la carretera, una cabra camina con el fin de encontrar alimento, un ratón corre para evitar ser comido, los conejos machos montan a las hembras para hacer más conejos.
Aristóteles creía que el universo era un gran ecosistema diseñado para funcionar de manera armoniosa. Veía un propósito allí donde miraba. Si cae el agua es porque las plantas la necesitan para crecer. Si crecen las plantas es porque los animales las comen. Las semillas de la vid crecen hasta convertirse en parra y los huevos se convierten en pollos para actualizar la potencia que existe en esas semillas y esos huevos. Desde tiempos inmemoriales, la gente siempre había llegado a entender el mundo mediante proyecciones de su propia experiencia. Por eso en la antigua Grecia era mucho más natural analizar el propósito de los sucesos del mundo físico que intentar explicarlos por medio de las leyes matemáticas que desarrollaban Pitágoras y sus seguidores.
Aquí vemos de nuevo la importancia para la ciencia de las preguntas concretas que uno decide plantearse. Aunque Aristóteles hubiera aceptado la idea de Pitágoras de que la naturaleza obedece leyes cuantitativas, no habría captado el mensaje sencillamente porque estaba menos interesado en los detalles cuantitativos de las leyes que en la pregunta de por qué los objetos las siguen. ¿Qué impulsa a la cuerda de un instrumento musical, o a una roca en caída libre, a comportarse con regularidad numérica? Estas son las cuestiones que habrían apasionado a Aristóteles, y es aquí donde vemos la mayor desconexión entre su filosofía y la actual manera de hacer ciencia, pues donde Aristóteles percibía lo que interpretaba como propósito en la naturaleza, la ciencia actual no lo hace.
Esa característica del análisis de Aristóteles, es decir, su búsqueda de propósito, ejerció una gran influencia sobre el pensamiento humano posterior. Lo haría para siempre muy estimado entre los filósofos cristianos, pero impidió el progreso científico durante casi dos mil años porque era completamente incompatible con los potentes principios de la ciencia que hoy guían nuestras investigaciones. Cuando dos bolas de billar chocan, las leyes establecidas por Newton, y no un gran propósito subyacente, determinan lo que pasa después.
La ciencia surgió del fundamental deseo humano de conocer nuestro mundo y encontrarle sentido, y por eso no puede extrañar que el anhelo de propósito que motivó a Aristóteles todavía hoy encuentre eco en muchas personas. La idea de que «todo ocurre por alguna razón» puede reconfortar a quienes buscan entender un desastre natural u otra tragedia. Para esas personas, la insistencia de los científicos en que el universo no está guiado por ningún sentido de propósito puede hacer que la disciplina de la ciencia parezca fría y desalmada.
Pero hay otra manera de verlo, y la conozco bien por mi padre. Cuando surgía el tema del propósito, mi padre solía referirse no a algo que le hubiese sucedido a él, sino a un incidente que había vivido mi madre antes de que se conocieran, cuando solo tenía diecisiete años. Los nazis habían ocupado su ciudad, y uno de ellos, por alguna razón que mi madre nunca sabría, ordenó que una docena de judíos, entre ellos mi madre, se arrodillaran en fila sobre la nieve. Entonces caminó de un extremo al otro de la fila parándose cada pocos pasos para disparar en la cabeza a uno de sus cautivos. Si aquello formaba parte de algún gran plan de Dios o de la naturaleza, mi padre no quería tener nada que ver con ese Dios. Para la gente como mi padre, puede haber alivio en la idea de que nuestras vidas, trágicas o triunfantes, sean el resultado de las mismas leyes indiferentes que crean las supernovas, y en que, buenas o malas, en último término son un regalo, un milagro que de algún modo nace de aquellas estériles ecuaciones que rigen nuestro mundo.
Aunque las ideas de Aristóteles dominaron el pensamiento sobre el mundo natural hasta los días de Newton, hubo a lo largo de los años muchos observadores que sembraron la duda sobre sus teorías. Pensemos, por ejemplo, en la idea de que los objetos que no ejecutan su movimiento natural solo se desplazan cuando sobre ellos actúa una fuerza. El propio Aristóteles se dio cuenta de que esto planteaba la pregunta de qué empuja a una flecha, una jabalina o cualquier otro proyectil después del impulso inicial. Su explicación era que, debido al hecho de que la naturaleza «aborrece» el vacío, tras el impulso inicial las partículas del aire corren a ocupar el espacio posterior al proyectil y lo empujan hacia delante. Los japoneses parecen haber adaptado con éxito la idea para empaquetar más pasajeros en los vagones del metro de Tokio, pero hasta el propio Aristóteles tenía sus dudas acerca de su teoría. Su debilidad se tornó más obvia que nunca durante el siglo XIV, cuando la proliferación de cañones hizo que resultase absurda la idea de que unas partículas de aire corran a ocupar el espacio detrás de las pesadas balas de cañón y las empujen.
Tan importante como eso es el hecho de que a los soldados que disparaban aquellos cañones les importaba bien poco si las balas eran empujadas por partículas de aire o por minúsculas e invisibles ninfas. Lo que deseaban saber era la trayectoria que seguirían sus proyectiles, y en concreto si aquella trayectoria acabaría sobre las cabezas de sus enemigos. Esta desconexión ilustra el verdadero abismo que se extendía entre Aristóteles y quienes más tarde se llamarían científicos: cuestiones como la trayectoria de un proyectil, su velocidad y posición en cada momento, no revestían interés para Aristóteles. Sin embargo, si uno quiere aplicar las leyes de la física para realizar predicciones, esas cuestiones son cruciales, y por eso las ciencias que un día reemplazarían a la física de Aristóteles, las que harían posible, entre otras cosas, calcular la trayectoria de una bala de cañón, se centraban en los detalles cuantitativos de los procesos que se producen en el mundo (fuerzas, velocidades y tasas de aceleración que podían medirse), y no en el propósito o las razones filosóficas de esos procesos.
Aristóteles sabía que su física no era perfecta, y escribió: «El mío es el paso primero y, por tanto, pequeño, aunque hecho con mucha reflexión y arduo trabajo. Debe verse como un primer paso, y juzgado con indulgencia. Si tú, quien me lee o escucha mis lecciones, crees que he hecho tanto como justamente puede esperarse de un paso inicial… reconocerás lo que he conseguido y me perdonarás por lo que he dejado para que consigan otros [114]».
Aquí, Aristóteles expresa un sentimiento que compartió con la mayoría de los genios de la física posteriores. Pensamos en ellos, los Newtons y los Einsteins, como sabios seguros de su conocimiento, incluso arrogantes. Pero como veremos, al igual que Aristóteles, estaban confundidos sobre muchas cosas, y además, al igual que Aristóteles, lo sabían.
Aristóteles murió en 322 a. C., a los sesenta y dos años, aparentemente por un trastorno del estómago. Un año antes había huido de Atenas, cuando su gobierno promacedónico fue derrocado tras la muerte de su antiguo estudiante Alejandro. Aunque Aristóteles permaneció veinte años en la Academia de Platón, siempre se sintió como un extranjero en Atenas. De aquella ciudad, escribió: «Las mismas cosas no son igualmente apropiadas para un extranjero que para un ciudadano; es difícil quedarse[115]».
Tras la muerte de Alejandro, sin embargo, la cuestión de si quedarse o no se hizo crítica, pues se produjo una peligrosa reacción contra cualquiera que estuviera asociado con Macedonia, y Aristóteles era consciente de que la ejecución de Sócrates, por motivos políticos, había sentado el precedente de que una copa de cicuta es una potente refutación de cualquier argumento filosófico. Con su habitual hondura de reflexión, Aristóteles decidió que era mejor arriesgarse a salir corriendo que correr el riesgo de convertirse en mártir, y ofreció un motivo elevado para aquella decisión (impedir que los atenienses, una vez más, pecasen «contra la filosofía [116]»), pero la decisión, como en general la forma en que Aristóteles enfocaba la vida, era eminentemente práctica.
Tras la muerte de Aristóteles, sus ideas se transmitieron de generación en generación a través de los estudiantes del Liceo y de otros que escribieron comentarios sobre sus obras. Sus teorías se fueron apagando, como todo el conocimiento, durante el inicio de la Edad Media, pero emergieron de nuevo a lo largo de la Alta Edad Media entre los filósofos árabes, de quienes más tarde las aprendieron los estudiosos del mundo occidental. Con algunas modificaciones, su pensamiento acabó convirtiéndose en la filosofía oficial de la Iglesia católica romana, y así, durante los nueve siglos siguientes, estudiar la naturaleza era estudiar a Aristóteles.
Hemos visto cómo nuestra especie adquirió un cerebro para hacerse preguntas y la propensión a plantearlas, además de las herramientas (escritura, matemáticas y el concepto de ley) con las que comenzar a darles respuesta. Con los griegos, al aprender a utilizar la razón para analizar el cosmos, arribamos por fin a las costas de un nuevo y glorioso mundo de la ciencia. Pero aquello no fue más que el principio de la magna aventura de exploración que nos aguardaba.

Parte 2
Las ciencias

Los dogmas del tranquilo pasado son inadecuados… debemos adoptar una nueva manera de pensar y actuar.
Abraham Lincoln, Segundo Mensaje Anual, 1 de diciembre de 1862.

Contenido:
6. Una nueva manera de razonar
7. El universo mecánico
8. De qué están hechas las cosas
9. El mundo animado


6. Una nueva manera de razonar
He gozado de la enriquecedora experiencia de colaborar en dos libros con amigos, el físico Stephen Hawking y el líder espiritual Deepak Chopra. Sus visiones del mundo no serían más dispares si habitasen en universos diferentes. La mía propia se parece bastante a la de Stephen, la de los científicos, y se aleja mucho de la de Deepak, lo que seguramente explica que decidiéramos titular nuestro libro War of the Worldviews ( Guerra de las visiones del mundo), en lugar de ¿No es maravilloso lo mucho que coincidimos?
Deepak vive apasionadamente sus creencias, y en el tiempo que viajamos juntos, intentó siempre convertirme y cuestionar mi manera de entender el mundo. Él la llamaba reduccionismo porque yo creo que las leyes matemáticas de la física pueden, en último término, explicarlo todo en la naturaleza, incluida la especie humana. En particular, como ya he dicho, yo creo, junto a la mayoría de los científicos actuales, que todo (insisto, incluidos nosotros) está hecho de átomos y partículas elementales de la materia que interaccionan por medio de las cuatro fuerzas fundamentales de la naturaleza, y que si llegamos a entender cómo funciona todo eso podríamos, al menos en principio, explicar todo lo que ocurre en el mundo. En la práctica, naturalmente, no disponemos ni de la información suficiente sobre nuestro entorno, ni de computadoras lo bastante potentes para usar nuestras teorías fundamentales en el análisis de fenómenos como el comportamiento humano, así que la pregunta de si la mente de Deepak está regida por las leyes de la física se nos va a quedar sin respuesta.
En principio, nada tenía que objetar a que Deepak me caracterizara como reduccionista; sin embargo, me irritaba cada vez que lo hacía porque el modo en que lo decía me abochornaba y me ponía a la defensiva, como si solo un desalmado pudiera pensar como pensaba yo. De hecho, en las reuniones con acólitos de Deepak, a veces me sentía como un rabino ortodoxo en una convención de productores de cerdo. Siempre me planteaban preguntas capciosas como «¿Te dicen tus ecuaciones lo que experimento cuando miro un cuadro de Vermeer o escucho una sinfonía de Beethoven?». O bien: «Si la mente de mi esposa es de verdad partículas y ondas, ¿cómo explicas el amor que siente por mí?». Tenía que admitir que su amor por él no tenía explicación. Pero ningún amor se explica con ecuaciones. Para mí, esa no era la cuestión esencial. Como herramienta para entender el mundo físico, aunque no nuestra experiencia mental (de momento), la aplicación de ecuaciones matemáticas ha gozado de un éxito sin precedentes.
Quizá no podamos predecir el tiempo que hará la semana que viene siguiendo el movimiento de cada átomo y aplicando los principios fundamentales de la física atómica y nuclear, pero sí tenemos una ciencia de la meteorología que utiliza modelos matemáticos de alto nivel y se las arregla bastante bien para predecir el tiempo que hará mañana. De igual modo, tenemos ciencias aplicadas que estudian los océanos, la luz y el electromagnetismo, las propiedades de los materiales, las enfermedades y docenas de otros aspectos de nuestro mundo cotidiano con métodos que nos permiten dar a nuestro conocimiento usos extraordinarios, ni siquiera soñados hace apenas unos siglos. En la actualidad, al menos entre los científicos, existe un acuerdo prácticamente universal sobre la validez del enfoque matemático para entender el mundo físico. Sin embargo, hizo falta mucho tiempo para que este enfoque se impusiera.
La aceptación de la ciencia moderna como un sistema metafísico basado en la idea de que la naturaleza se comporta de acuerdo con ciertas regularidades tuvo su origen en los griegos, pero la ciencia no logró el primero de sus éxitos convincentes en el uso de estas leyes hasta el siglo XVII. Aquel salto, de las ideas de filósofos como Tales, Pitágoras o Aristóteles a las de Galileo y Newton, fue enorme. Pero no debería haber requerido dos mil años.
El primero de los grandes obstáculos que se interpusieron en el camino que llevaría a aceptar la herencia griega y construir sobre ella fue la conquista romana de Grecia en 146 a. C. y de Mesopotamia en 64 a. C. El auge de Roma marcó el principio de varios siglos de declive en el interés por la filosofía, la matemática y la ciencia, incluso entre las élites intelectuales de habla griega, porque los romanos, con su mentalidad práctica, no le daban demasiada importancia a aquellas disciplinas. Un comentario de Cicerón expresa de forma clara el desdén de los romanos por las indagaciones teóricas: «Los griegos», decía, «otorgaban al geómetra el mayor de los honores y, por consiguiente, nada tuvo con ellos progreso más ilustre que las matemáticas. Entre nosotros, sin embargo, este arte encuentra su límite en su utilidad para contar y medir[117] ». En efecto, durante los aproximadamente mil años de duración de la república romana y el imperio romano que la sucedió, se emprendieron enormes e impresionantes proyectos de ingeniería que sin duda requerían medir y contar; sin embargo, no produjeron un solo matemático digno de mención. Este es un hecho sorprendente y prueba del tremendo efecto que tiene la cultura sobre el progreso de la matemática y la ciencia.
Si Roma no proveyó un entorno propicio para la ciencia, tras la disolución del imperio romano occidental, en 476 d. C., las cosas solo empeoraron. Las ciudades se redujeron, se desarrolló el sistema feudal, la cristiandad dominó Europa, y los monasterios rurales, y más tarde las escuelas catedralicias, se convirtieron en los centros de la vida intelectual, lo que significaba que toda erudición se centraba en cuestiones religiosas, mientras que las indagaciones sobre la naturaleza se consideraban frívolas o indignas[118].
Con el tiempo, la herencia intelectual de los griegos se desvaneció en el mundo occidental.
Por suerte para la ciencia, en el mundo árabe la clase regente musulmana valoraba las enseñanzas griegas. No es que persiguieran el conocimiento por sí mismo, una pretensión que la ideología musulmana aprobaba tan poco como la cristiana. Pero había ricos mecenas árabes dispuestos a financiar traducciones de la ciencia griega al árabe porque creían que era útil. Ciertamente, hubo un periodo de varios siglos durante el cual los científicos medievales islámicos realizaron grandes progresos en disciplinas prácticas como la óptica, la astronomía, la matemática y la medicina, superando a los europeos, cuya propia tradición intelectual yacía dormida[VI][119].
Sin embargo, en los siglos XIII y XIV, cuando los europeos comenzaban a desperezarse de su largo sueño, la ciencia del mundo islámico había iniciado un grave declive[120].
La causa hay que buscarla en varios factores. Para empezar, las fuerzas religiosas conservadoras lograron imponer una concepción cada vez más estrecha de la utilidad práctica, que consideraban la única justificación aceptable de la investigación científica. Además, para que la ciencia florezca, la sociedad debe ser próspera y ofrecer posibilidades de mecenazgo privado o del gobierno, pues la mayoría de los científicos carecen de los recursos para sustentar su trabajo en un mercado abierto. A finales de la Edad Media, sin embargo, el mundo árabe fue atacado por fuerzas externas, desde Gengis Kan a los cruzados, y desbaratado también por guerras intestinas. Unos recursos que antes se hubieran dedicado a las ciencias y las artes, ahora se desviaban a la guerra, a la lucha por la supervivencia.
Otra de las razones por las que comenzó a estancarse el estudio de la ciencia fue que las escuelas que comenzaron a dominar sobre un buen segmento de vida intelectual del mundo árabe no la valoraban. Conocidas como madrazas, eran una suerte de fundaciones benéficas sustentadas por donaciones religiosas de fundadores y benefactores que desconfiaban de la ciencia. Por ello, toda la educación se centraba en la religión, excluyendo la filosofía y la ciencia [121].
La enseñanza de estas disciplinas tenía que producirse fuera de aquellas escuelas. Sin instituciones que los sostuvieran o los agruparan, los científicos quedaron aislados, creándose una enorme barrera para la formación e investigación científica especializada.
Los científicos no pueden existir en un vacío. Incluso los más grandes se benefician enormemente de la interacción con otros de su disciplina. En el mundo islámico, la falta de contacto personal entre científicos impidió el cruce de ideas que tan fértil resulta para el progreso de la ciencia. Además, sin los saludables beneficios de las críticas mutuas, se hacía difícil controlar la proliferación de teorías que carecían de soporte empírico, así como encontrar una masa crítica de defensores de aquellos científicos y filósofos que sostenían puntos de vista que desafiaban la sabiduría convencional [122].
Algo comparable a este tipo de asfixia intelectual ocurrió en China, otra gran civilización que podría haber desarrollado la ciencia moderna antes que los europeos[123].
De hecho, China tenía una población de más de 100 millones de personas durante la Baja Edad Media (1200-1500), aproximadamente el doble de la población de Europa en el mismo periodo. Sin embargo, el sistema educativo de China resultó ser, como el del mundo islámico, muy inferior al que se estaba desarrollando en Europa, al menos por lo que respecta a la ciencia, porque estaba fuertemente controlado y centrado en el aprendizaje literario y moral, y prestaba muy poca atención a la innovación y creatividad científicas. Esa situación se mantuvo prácticamente inalterada desde principios de la dinastía Ming (hacia 1368) hasta el siglo XX. Como en el mundo árabe, solo se consiguieron pequeños avances en la ciencia (no así en la tecnología), y se produjeron a pesar del sistema educativo, y no gracias a él. A los pensadores que se mostraban críticos con el statu quo intelectual y que intentaban desarrollar y sistematizar las herramientas intelectuales necesarias para impulsar la vida mental se los disuadía con dureza, igual que se disuadía de usar datos como medio para progresar en el conocimiento. También en la India el establishment hindú, centrado en una estructura de castas, insistía en la estabilidad a expensas del progreso intelectual [124].
En consecuencia, aunque el mundo árabe, China e India produjeron grandes pensadores en otros dominios, no produjeron científicos equivalentes a los que, en Occidente, crearían la ciencia moderna.
El resurgimiento de la ciencia en Europa comenzó hacia el fin del siglo XI, cuando el monje benedictino Constantino el Africano comenzó a traducir antiguos tratado médicos griegos del árabe al latín[125].
Como en el mundo árabe, la motivación para estudiar los sabios griegos era su utilidad, y aquellas primeras traducciones estimularon la traducción de otras obras prácticas de medicina y astronomía. Entonces, en 1085, durante la reconquista cristiana de España, bibliotecas enteras de libros árabes cayeron en manos cristianas, y durante las décadas siguientes se tradujo un gran número de ellos, en parte gracias a la generosa financiación de obispos interesados.
Es difícil imaginar el impacto de todas aquellas obras, pero debió ser como si un arqueólogo contemporáneo hallara y tradujera tablillas con textos de la antigua Babilonia y descubriera que presentaban avanzadas teorías científicas, mucho más sofisticadas que las nuestras. Durante varios siglos, el mecenazgo de las traducciones se convirtió en un símbolo de estatus entre la élite social y comercial del Renacimiento. A consecuencia de ello, el conocimiento así recobrado se extendió más allá de la Iglesia, convirtiéndose en un bien preciado que los ricos coleccionaban igual que hoy coleccionan arte; de hecho, los ricos exhibían sus libros y mapas del mismo modo que hoy exhibimos esculturas o pinturas. Con el tiempo, el nuevo valor otorgado al conocimiento con independencia de su valor utilitario llevó a una valorización de la actividad científica que minó el sentido de «propiedad» de la verdad que detentaba la Iglesia[126].
Rivalizando con la verdad revelada en las Escrituras y en la tradición eclesiástica, había ahora una nueva verdad: la revelada por la naturaleza.
Pero la traducción y la lectura de antiguas obras griegas no constituyen una «revolución científica». Fue el desarrollo de una nueva institución, la universidad, lo que realmente transformaría Europa[127].
Esta se convertiría en la impulsora del desarrollo de la ciencia tal como la conocemos hoy, y mantendría a Europa en la vanguardia de la ciencia durante muchos siglos, produciendo los mayores avances científicos que el mundo ha conocido.
La revolución de la educación vino alimentada por la creciente opulencia y la multitud de oportunidades profesionales para la clase educada [128].
Ciudades como Bolonia, París, Padua y Oxford adquirieron reputación como centros de enseñanza, y estudiantes y profesores gravitaron hacia ellas en gran número. Los profesores se instalaban de forma independiente o bajo los auspicios de una escuela existente. Con el tiempo, se organizaron en asociaciones voluntarias inspiradas en los gremios comerciales. Pero aunque aquellas asociaciones se llamaban a sí mismas «universidades», al principio no eran más que simples alianzas, sin edificio ni ubicación fija. Las universidades en el sentido actual llegaron décadas más tarde: Bolonia en 1088, París hacia 1200, Padua hacia 1222 y Oxford en 1250. Estas universidades se centrarían en la ciencia natural, no en la religión, y eran lugar de encuentro de estudiosos, que allí podían interactuar y estimularse [129].
No quiere eso decir que la universidad de la Europa medieval fuese el Jardín del Edén. Aún en 1495, por ejemplo, las autoridades alemanas vieron la necesidad de redactar un estatuto que de manera explícita prohibiera que cualquier persona asociada a la universidad empapara a los novatos con orina, un estatuto que ya no existe pero que todavía exijo a mis alumnos que respeten. Por su parte, los profesores no disponían de aulas y se veían obligados a pronunciar sus conferencias en albergues, iglesias e incluso burdeles. Y lo que es peor, era habitual que los profesores fueran pagados directamente por los estudiantes, quienes también podían contratarlos o despedirlos. En la Universidad de Bolonia se daba un extraño giro de lo que hoy es la norma: los estudiantes penalizaban a los profesores por retrasos o ausencias injustificados, o por no responder las preguntas difíciles. Además, si una conferencia no era interesante o se desarrollaba a un ritmo demasiado lento o demasiado rápido, los alumnos abucheaban y escarnecían al profesor. En Leipzig, las tendencias agresivas se desmadraron tanto que la universidad tuvo que aprobar una norma que prohibía apedrear a los docentes.
Pese a estas dificultades prácticas, las universidades europeas actuaron como grandes facilitadores del progreso científico, en parte porque pusieron en contacto a unas personas con otras para compartir y debatir ideas. Los científicos pueden soportar distracciones como estudiantes que los abuchean y hasta el ocasional lanzamiento de orina, pero subsistir sin inacabables seminarios académicos, eso es impensable. En la actualidad, la mayoría de los avances científicos surgen de la investigación en las universidades, como debe ser, pues allí es donde va a parar la mayor parte de los fondos para investigación básica. Pero igual de importante ha sido, históricamente, el papel que ha desempeñado la universidad como lugar de encuentro de mentes.
A la revolución científica que nos distanciaría del aristotelismo, que transformaría nuestra forma de ver la naturaleza e incluso la sociedad, la que sentaría los cimientos de quienes somos, suele atribuírsele un principio con la teoría heliocéntrica de Copérnico y una culminación con la física de Newton. Sin embargo, eso nos da una imagen simplificada; aunque uso el término «revolución científica» como útil atajo, los científicos que la protagonizaron tenían creencias y objetivos muy diversos, no eran en absoluto un grupo unido que de forma deliberada luchase por crear un nuevo sistema de pensamiento. Más importante aún es el hecho de que los cambios a los que hace referencia la «revolución científica» fueron en realidad cambios graduales: los grandes estudiosos del 1550 al 1700 que construyeron la gran catedral de conocimiento que tuvo a Newton como pináculo no salieron de la nada. Fueron los pensadores medievales de las primeras universidades europeas quienes hicieron el arduo trabajo de sentar los cimientos.
Lo más sólido de aquella cimentación se debe al trabajo de un grupo de matemáticos de Merton College, en Oxford, entre 1325 y 1359. La mayoría de la gente sabe, aunque solo sea vagamente, que los griegos inventaron la idea de ciencia pero hubo que esperar a los tiempos de Galileo para que naciera la ciencia moderna. En comparación, la ciencia medieval recibe muy poco respeto, lo cual es una lástima, porque los estudiosos de aquella época realizaron progresos sorprendentes pese a vivir en un tiempo en el que la verdad de las aseveraciones no se juzgaba tanto por su coherencia con las observaciones empíricas como por lo bien o mal que encajaban con un sistema de creencias basado en la religión, una cultura enemiga de la ciencia tal como la entendemos hoy.
El filósofo John Searle relata un incidente que ilustra hasta qué punto difería la concepción del mundo entre nosotros y los pensadores medievales. La historia se centra en una iglesia gótica de Venecia llamada Madonna dell'Orto (Madona del Huerto). El plan original era llamarla iglesia de San Cristóforo, pero mientras se construía, apareció misteriosamente una imagen de la virgen en un huerto adyacente. El nombre se cambió porque se supuso que la estatua había caído del cielo, un suceso que se consideraba un milagro. No se planteó más duda sobre aquella explicación sobrenatural que la que hoy plantearíamos sobre la interpretación terrenal de un incidente como ese. «Aunque la estatua apareciese en los jardines del Vaticano», escribe Searle, «las autoridades de la Iglesia no dirían que había caído del cielo[130]».

09.jpg
Biblioteca de Merton College, en Oxford. Imagen del interior de la biblioteca de Merton College, extraída de J. Wells, The Charm Oxford, Simpkin, Marshall, Hamilton, Kent & Co., Londres, 1920.

En una ocasión, durante una velada, saqué el tema de los logros de los científicos medievales. Dije que su obra me parecía impresionante, dada su cultura y las dificultades a las que tenían que enfrentarse. Hoy los científicos nos quejamos del tiempo que «perdemos» solicitando financiación para nuestros proyectos, pero al menos tenemos oficinas con calefacción y no tenemos que cazar gatos para comer cuando fracasan las cosechas alrededor de nuestra ciudad, por no mencionar los horrores de la Peste Negra, que llegó en 1347 y mató a la mitad de la población [131].
Aquel encuentro de amigos estaba lleno de académicos, así que la persona con la que charlaba no reaccionó a mis reflexiones como lo haría cualquier hijo de vecino: dándose cuenta de repente de que tenía que llenar la copa. En su lugar, me dijo, incrédula: «¿Científicos medievales? Vamos, hombre. Pero si operaban a los pacientes sin anestesia. Hacían pociones curativas con jugo de lechuga, cicuta y la vesícula biliar de un jabalí castrado. ¿Y no creía en las brujas incluso el gran Tomás de Aquino?». Ahí me pilló. No tenía ni idea. Pero más tarde lo busqué y tenía razón. Sin embargo, a pesar de su enciclopédico conocimiento de ciertos aspectos de la medicina medieval, no había oído hablar de las ideas medievales, mucho más duraderas, en el ámbito de la ciencia física, que a mí me parecen aún más milagrosas a la vista del penoso estado del conocimiento medieval en otros campos. Así pues, aunque tuve que conceder que no dejaría que me tratase un médico medieval que viajase a nuestra época en una máquina del tiempo, me mantuve firme con respecto a los avances que habían realizado aquellos pensadores medievales en las ciencias físicas.
Pero ¿qué hicieron aquellos olvidados ídolos de la física? Para empezar, de entre todos los tipos de cambio que consideraba Aristóteles, identificaron el cambio de posición, es decir, el cambio en el movimiento, como el más fundamental. Aquella fue una observación profunda y clarividente, pues la mayor parte de los tipos de cambios que observamos son específicos de las sustancias implicadas: la descomposición de la carne, la evaporación del agua, la caída de las hojas de los árboles. En consecuencia, no le ofrecen mucho al científico que busca lo universal. Las leyes del movimiento, en cambio, son leyes fundamentales que se aplican a toda la materia. Pero hay otra razón para considerar especiales las leyes del movimiento: a nivel submicroscópico, son la causa de todos los cambios macroscópicos que experimentamos en nuestras vidas. La razón de ello, como hoy sabemos (y como ya habían conjeturado algunos antiguos atomistas griegos), es que los muchos tipos de cambios que experimentamos en el mundo cotidiano pueden entenderse, en último término, analizando las leyes del movimiento que actúan sobre las piezas de construcción fundamentales de los materiales: los átomos y las moléculas.
Aunque los estudiosos de Merton College no descubrieron aquellas leyes generales del movimiento, intuyeron que existían y prepararon el camino para que otros las descubrieran siglos más tarde. En particular, crearon una rudimentaria teoría del movimiento que no tenía nada que ver con la ciencia de otros tipos de cambio, y nada que ver tampoco con la idea de finalidad.
La tarea a la que se enfrentaron los estudiosos de Merton no era fácil, si se tiene en cuenta que las matemáticas necesarias para el más simple de los análisis del movimiento eran, en el mejor de los casos, primitivas. Había, además, otro grave obstáculo, y superarlo fue un triunfo todavía mayor que arreglárselas con las limitadas matemáticas de su época, pues no se trataba de una barrera técnica, sino de una limitación impuesta por la forma de pensar sobre el mundo: a los pensadores de Merton, al igual que Aristóteles, les entorpecía una visión del mundo en la que el tiempo desempeñaba un papel esencialmente cualitativo y subjetivo.
Quienes estamos impregnados de la cultura del mundo desarrollado experimentamos el paso del tiempo de un modo que la gente de otras épocas no reconocería. Durante la mayor parte de la existencia de la humanidad, el tiempo era un marco muy elástico que se estiraba y contraía de una forma completamente personal. Aprender a pensar sobre el tiempo como algo que no es inherentemente subjetivo fue un paso difícil pero de gran alcance, tan importante para el progreso de la ciencia como el desarrollo del lenguaje o darse cuenta de que podía entenderse el mundo por medio de la razón.
Por ejemplo, buscar regularidades en el desarrollo temporal de un suceso, descubrir acaso que una roca siempre tarda un segundo en caer cinco metros, habría sido algo revolucionario en tiempos de los estudiosos de Merton. Para empezar, nadie tenía la menor idea de cómo medir el tiempo con precisión, y el concepto de minutos y segundos era del todo desconocido[132].
De hecho, el primer reloj que medía horas de igual duración no se inventó hasta los años 1330. Antes, el día, de la longitud que fuera, se dividía en doce intervalos iguales, lo que significaba que una «hora» podía ser el doble de larga en junio que en diciembre (en Londres, por ejemplo, variaba entre 38 y 82 de los actuales minutos). Que aquello no le molestara a nadie refleja el hecho de que la gente se conformaba con una noción vaga y cualitativa del tiempo. A la luz de esto, la idea de velocidad, es decir, la distancia viajada por unidad de tiempo, habría parecido de lo más pintoresca.
Ante tamaños obstáculos, parece milagroso que los estudiosos de Merton consiguieran sentar los fundamentos conceptuales del estudio del movimiento. Sin embargo, llegaron incluso a establecer la primera regla cuantitativa del movimiento jamás enunciada, la «regla de Merton»: La distancia recorrida por un objeto que acelera desde el reposo a un ritmo constante es igual a la distancia recorrida por un objeto que se mueve durante el mismo intervalo de tiempo a la mitad de la velocidad punta del objeto en movimiento acelerado [133] .
Sin duda, es todo menos conciso. Aunque hace tiempo que lo conozco, al verlo de nuevo he tenido que leerlo dos veces solo para entender de qué habla. Pero la opacidad de la expresión de la regla nos ayuda a entender algo, pues ilustra hasta qué punto resultaría más fácil la ciencia en cuanto los científicos aprendieran a usar (a inventar, si hiciera falta) la matemática apropiada.
En el lenguaje matemático actual, la distancia recorrida por un objeto que acelera desde el reposo a un ritmo constante puede escribirse como ½ a × t2. La segunda cantidad, la distancia recorrida por un objeto que se mueve durante el mismo intervalo de tiempo a la mitad de la velocidad punta del objeto en movimiento acelerado , es simplemente

½ (a × t) × t.

Así pues, el anterior enunciado de la regla de Merton se convierte en

½ a × t2 = ½ (a × t) × t.

Esto no solo es más conciso, sino que hace que la veracidad del enunciado resulte obvia, al menos para quien tenga conocimientos básicos de álgebra.
Quien haya olvidado esos conocimientos, no tendrá más que preguntarle a cualquier estudiante de sexto curso. De hecho, cualquier niño que empiece la educación secundaria sabe más matemáticas que el más avanzado de los científicos del siglo XIV. Sería interesante saber si se podrá hacer una afirmación parecida sobre los niños del siglo XXVIII en comparación con los del siglo XXI. No hay duda de que la capacidad matemática humana no ha dejado de avanzar durante los últimos siglos.
Un ejemplo cotidiano de lo que dice la regla de Merton es este: si aceleramos el coche de manera constante de cero a cien kilómetros por hora, recorreremos la misma distancia que si hacemos el mismo camino a cincuenta kilómetros por hora. Suena igual que mi madre recriminándome por ir tan rápido, pero aunque hoy la regla de Merton parece de sentido común, los estudiosos de Merton no lograron demostrarla. Aun así, la regla tuvo un gran impacto en el mundo intelectual y no tardó en difundirse por Francia, Italia y otras partes de Europa [134].
La demostración llegó al poco tiempo del otro lado del Canal, de la Universidad de París, donde trabajaban otros pensadores como los de Merton. Su autor fue Nicole Oresme (1320-1382), un filósofo y teólogo que con el tiempo llegaría a ser obispo de Lisieux. Para conseguir la prueba, Oresme tuvo que hacer lo que los físicos han hecho una y otra vez a lo largo de la historia: inventar nuevas matemáticas.
Si la matemática es el lenguaje de la física, la falta de una matemática adecuada hace que un físico sea incapaz de hablar o incluso razonar sobre un tema. La compleja y poco familiar matemática que necesitó Einstein para formular la relatividad general debe ser la razón de que en cierta ocasión le aconsejara a una colegiala: «No te preocupes por lo que te cuesta la matemática: te aseguro que a mí me cuesta mucho más [135]».
O, como dijo Galileo: «El libro [de la naturaleza] no puede entenderse si uno no aprende primero a entender el lenguaje y leer las letras con las que está compuesto. Está escrito en el lenguaje de las matemáticas, y sus caracteres son triángulos, círculos y otras figuras geométricas, sin los cuales es humanamente imposible comprender una sola de sus palabras; sin los cuales uno da vueltas por un oscuro laberinto[136]».
Para arrojar un poco de luz a ese oscuro laberinto, Oresme inventó un tipo de diagrama con la intención de representar la física de la regla de Merton. Aunque no entendía sus diagramas del mismo modo que los entendemos hoy, pueden considerarse la primera representación geométrica de la física del movimiento y, por lo tanto, el primer gráfico.
Siempre me ha parecido curioso que mucha gente sepa quién inventó el cálculo matemático, aunque pocos lo usen, mientras que pocos saben quién inventó los gráficos, aunque todos los usan. Supongo que se debe a que hoy la idea de un gráfico nos parece obvia. En cambio, en tiempos medievales la idea de representar cantidades con líneas y formas en el espacio resultó ser absolutamente original, quizá incluso un poco estrafalaria.
Para hacerse una idea de lo difícil que es conseguir aun el más simple de los cambios en la manera de pensar de la gente, me gusta recordar la historia de otra invención estrafalaria: las notas Post-it, esos pequeños cuadrados de papel con un tira de adhesivo reutilizable en uno de sus lados que permite pegarlos a cualquier sitio. Esas notas las inventó en 1974 Art Fry, un ingeniero químico de la compañía 3M. Supongamos, sin embargo, que no se hubiesen inventado entonces, y que hoy yo me presentara ante un inversor con la idea y un prototipo de un bloque de notas. El inversor sin duda reconocería la mina de oro que le estaba ofreciendo y correría a poner dinero. ¿O no?
Por extraño que parezca, la mayoría se retraería, como prueba el hecho de que cuando Fry presentó su idea a los responsables de mercadotecnia de 3M, una compañía bien conocida por sus adhesivos y por sus innovaciones, no mostraron el menor entusiasmo y creyeron que les costaría mucho vender algo que tendría que tener un precio más alto que los pedazos de papel a los que supuestamente reemplazaría.

10.jpg
Gráfico que ilustra la regla de Merton.

¿Por qué no corrieron a hacerse con el tesoro que Fry les ofrecía? Porque en la época anterior al Post-it, la idea de que uno pudiera necesitar pegar trozos de papel con una banda de adhesivo débil sobre cualquier cosa era algo imposible de imaginar [137].
Así que el reto que se le planteaba a Albert Fry no era solo inventar el producto, sino cambiar el modo de pensar de la gente. Si para una simple nota de Post-it aquel desafío fue difícil, cuál no será el grado de dificultad para algo que realmente importe.
Por suerte, Oresme no necesitó ninguna nota Post-it para su prueba. Veamos cómo interpretaríamos hoy su argumentación. Para empezar, situemos el tiempo en el eje horizontal y la velocidad en el vertical. Supongamos ahora que el objeto que estamos considerando empieza en el tiempo cero y se mueve durante cierto tiempo a una velocidad constante. Ese movimiento es representado por una línea horizontal. Si sombreamos el área delimitada por esa línea, obtenemos un rectángulo. Por otro lado, la aceleración constante viene representada por una línea que se eleva con cierto ángulo porque, a medida que aumenta el tiempo, también lo hace la velocidad. Si sombreamos la región que queda por debajo de esa línea, nos queda un triángulo.
El área bajo esas curvas, es decir, las áreas sombreadas, representa velocidad multiplicada por tiempo, que es igual a la distancia recorrida por el objeto. Usando este análisis, y sabiendo cómo calcular las áreas de rectángulos y triángulos, es fácil demostrar la validez de la regla de Merton.
Una de las razones por las cuales Oresme no se lleva el crédito que merece es que no publicó muchas de sus obras. Además, aunque acabo de explicar cómo lo interpretaríamos hoy, el marco conceptual que utilizó no era en absoluto tan detallado y cuantitativo como el que he descrito, y era del todo distinto de nuestra moderna comprensión de la relación entre las matemáticas y las cantidades físicas. Ese nuevo entendimiento surgiría de una serie de innovaciones sobre los conceptos de espacio, tiempo, velocidad y aceleración, que sería una de las contribuciones más importantes del gran Galileo Galilei (1564-1642).
Aunque los estudiosos medievales que trabajaban en las universidades de los siglos XIII y XIV realizaron algunos progresos en la tradición del método científico racional y empírico, la gran explosión de la ciencia europea no se siguió de manera inmediata. En su lugar, fueron los inventores e ingenieros quienes transformaron la sociedad y la cultura europeas a finales de la Edad Media, un periodo que coincidió con las primeras sacudidas del Renacimiento, que se extendió aproximadamente del siglo XIV al XVII.
Estos primeros innovadores del Renacimiento crearon la primera gran civilización que no estuvo impulsada principalmente por el ejercicio de la musculatura humana. Se desarrollaron ruedas hidráulicas, molinos de viento, nuevos tipos de engranajes mecánicos y otros dispositivos que se incorporaron a la vida en los pueblos para impulsar aserraderos, molinos de harina y toda una variedad de ingeniosas máquinas. Su innovación tecnológica tuvo poco que ver con la ciencia teórica, pero sentaron las bases para posteriores avances al generar más riqueza, que ayudó a promover el aprendizaje y la alfabetización, y fomentar la idea de que entender la naturaleza puede ayudar a mejorar la condición humana [138].
El espíritu emprendedor de principios del Renacimiento también nos trajo la invención de una tecnología que tuvo una influencia directa e importante sobre la ciencia posterior y sobre la sociedad en general: la imprenta. Aunque los chinos ya habían inventado los tipos móviles siglos antes (hacia 1040), resultaron ser poco prácticos por el uso de pictogramas en su escritura, que creaba la necesidad de miles de caracteres distintos. En Europa, sin embargo, la aparición de la imprenta mecánica de tipos móviles alrededor de 1450 lo cambió todo. En 1483, por ejemplo, para preparar un libro para su impresión, la Imprenta Ripoli cobraba tres veces más de lo que cobraría un escriba para copiar el libro. Sin embargo, con la misma preparación, Ripoli podía producir mil o más copias mientras el escriba producía una sola[139].
Por consiguiente, en el curso de unas décadas se habían imprimido en Europa más libros de los que habían producido los escribas durante todos los siglos anteriores.
La imprenta reforzó a la naciente clase media y revolucionó la circulación de ideas e información por toda Europa. De repente, el conocimiento y la información estaban disponibles para un grupo mucho más amplio de ciudadanos. En solo unos años ya se habían imprimido los primeros textos de matemáticas, y hacia 1600 se había publicado cerca de un millar[140].
Además, se produjo una nueva oleada de recuperación de textos antiguos. Igual de importante es el hecho de que aquellos que tenían ideas nuevas, ahora tenían una audiencia mucho mayor para sus proposiciones, y quienes, como los científicos, prosperaban mediante el escrutinio y la ampliación de las ideas de otros, no tardaron en tener un mayor acceso al trabajo de sus pares.
A consecuencia de estos cambios en la sociedad europea, su establishment era menos fijo y uniforme que los del mundo islámico, China o India. Estas sociedades se habían tornado rígidas, centradas en una estrecha ortodoxia. La élite europea, en cambio, se había visto empujada y doblegada por los intereses encontrados de la ciudad y el campo, la Iglesia y el Estado, el Papa y los emperadores, además de las exigencias de una nueva intelligentsia laica y un creciente consumismo. De este modo, a medida que evolucionaba la sociedad europea, sus artes y su ciencia ganaban más libertad para cambiar, y así lo hicieron, dando lugar a un nuevo y más práctico interés por la naturaleza [141].
Tanto en las artes como en la ciencia, aquel nuevo énfasis en la realidad natural se convirtió en el alma del Renacimiento. El propio término implica un nuevo nacimiento, y sin duda representó un nuevo principio tanto en la existencia física como en la cultura: comenzó en Italia justo después de que la Peste Negra matase entre un tercio y la mitad de la población europea, y se extendió lentamente, alcanzando el norte de Europa en el siglo XVI.
En el arte, los escultores del Renacimiento aprendieron anatomía, y los pintores aprendieron geometría, centrándose ambos en crear representaciones más fieles de la realidad a partir de observaciones precisas. Las figuras humanas se representaban ahora en su entorno natural, y con precisión anatómica, al tiempo que se sugería la tridimensionalidad mediante el uso de luces y sombras y de la perspectiva lineal. Los sujetos de los pintores también mostraban ahora emociones realistas, con rostros que ya no exhibían la cualidad plana, como de otro mundo, del anterior arte medieval. Los músicos del Renacimiento, por su parte, estudiaron la acústica, mientras que los arquitectos examinaron a fondo las proporciones armónicas de los edificios. Y los estudiosos interesados en la filosofía natural, lo que hoy llamamos ciencia, pusieron un nuevo interés en recoger datos y extraer de ellos conclusiones en lugar de usar análisis puramente lógicos sesgados por el deseo de confirmar su visión religiosa del mundo.
Leonardo da Vinci (1452-1519) posiblemente sea quien mejor ejemplifica el ideal científico y humanista de ese periodo, que no reconocía una clara separación entre la ciencia y las artes. Científico, ingeniero e inventor, también fue pintor, escultor, arquitecto y músico. En todos estos ámbitos, Leonardo intentó comprender el mundo humano y el natural mediante la observación detallada. Sus notas y estudios de ciencia e ingeniería ocupan más de diez mil páginas, y como pintor no se contentó con observar a los sujetos que posaban para él, sino que estudió anatomía y diseccionó cadáveres humanos. Mientras que los estudiosos que lo precedieron habían visto la naturaleza en términos de rasgos cualitativos generales, Leonardo y sus contemporáneos invirtieron un enorme esfuerzo en percibir los pormenores del diseño de la naturaleza, y pusieron menos énfasis en la autoridad de Aristóteles y de la Iglesia.
Fue en este clima intelectual, hacia el final del Renacimiento, cuando nació Galileo en la ciudad de Pisa, en 1564, justo dos meses antes que otro titán, William Shakespeare. Galileo fue el primero de los siete hijos de Vincenzo Galilei, un conocido intérprete de laúd y teórico de la música.
Vincenzo provenía de una familia noble, no del tipo de familia noble que hoy nos vendría a la mente, los que salen a la caza del zorro y sorben té cada tarde, sino del tipo que tiene que usar su nombre para conseguir un trabajo[142]. Vincenzo probablemente hubiera deseado ser de los del otro tipo, pues amaba el laúd y lo tocaba siempre que podía (paseando por la ciudad, cabalgando, sentado en la ventana, estirado en la cama), una práctica que no le reportaba demasiado dinero.
Con la esperanza de guiar a su hijo hacia una forma de vida lucrativa, Vincenzo envió al joven Galileo a estudiar medicina en la Universidad de Pisa. Pero Galileo estaba más interesado en la matemática que en la medicina, y comenzó a recibir clases privadas sobre la obra de Euclides y Arquímedes, e incluso de Aristóteles. Años más tarde confesaría a sus amigos que hubiera preferido dejar las clases de la universidad para dedicarse al dibujo y la pintura. Vincenzo, sin embargo, lo había empujado a una carrera más práctica siguiendo la vieja teoría paternal de que es mejor aceptar ciertos compromisos que verse abocado a una vida en la que una cena consiste en sopa de semillas de cáñamo y asaduras de ternera.
Cuando Vincenzo se enteró de que Galileo se había interesado más por las matemáticas que por la medicina, debió parecerle como si hubiera decidido graduarse en vivir de la herencia, por magra que esta fuera. Poco importaba. Al final, Galileo no acabó licenciándose ni en medicina, ni en matemática ni en nada por el estilo. Abandonó los estudios y comenzó un periplo vital que lo vería crónicamente corto de dinero, y a menudo endeudado.
Tras dejar la universidad, Galileo se mantuvo dando clases privadas de matemáticas. Más tarde se enteró de una plaza de lector que ofrecía la Universidad de Bolonia. Aunque tenía veintitrés años, cuando solicitó la plaza dijo, en una curiosa variación del redondeo, que tenía «alrededor de veintiséis». Parece que la universidad quería a alguien «alrededor» de una edad mayor y contrató a un individuo de treinta y tres años que además se había licenciado. Con todo, aun siglos más tarde, debe ser reconfortante para cualquiera que haya sido rechazado en una posición académica que esa experiencia la comparte nada menos que con el gran Galileo.
Dos años más tarde, Galileo llegó por fin a ser profesor, en Pisa. Allí enseñó a su estimado Euclides y también impartió un curso sobre astrología destinado a ayudar a los estudiantes de medicina a determinar cuándo sangrar a sus pacientes. Sí, el hombre que tanto hizo por la revolución científica también aconsejaba a los futuros doctores sobre las implicaciones de la posición de Acuario para la colocación de sanguijuelas. En nuestros días la astrología ha quedado desacreditada, pero en épocas anteriores, cuando poco sabíamos de las leyes de la naturaleza, la idea de que los cuerpos celestes afectasen a nuestras vidas aquí en la Tierra parecía razonable. Al fin y al cabo, es cierto del Sol y también de la Luna, pues desde hace mucho tiempo se sabe de su correlación con las mareas.
Galileo hacía vaticinios astrológicos tanto por interés personal como por interés económico, cobrando a sus estudiantes doce escudos por una lectura. Con cinco al año, podía doblar su salario de profesor de sesenta escudos, una suma con la que a duras penas podía arreglárselas.
También le gustaba apostar, y en una época en la que nadie sabía demasiado sobre las matemáticas de las probabilidades, Galileo no fue solo un pionero en su cálculo, sino que tampoco se le daban mal los faroles.

11.jpg
Galileo Galilei en una pintura del artista flamenco Justus Sustermans de 1636.

Frisando los treinta, alto y robusto, de complexión clara y pelo rojizo, Galileo solía estar bien considerado. Sin embargo, su contrato en Pisa no duró mucho. Aunque por lo general respetuoso con la autoridad, tenía tendencia al sarcasmo y podía ser cáustico con sus adversarios intelectuales y con los administradores que lo irritasen. Y lo que en Pisa lo irritó hasta decir basta fue que la universidad insistiera tercamente en que los docentes vistieran sus togas no solo cuando enseñaban, sino también cuando se desplazaban por la ciudad.
Galileo, que gustaba de escribir poesía, contraatacó componiendo un poema dedicado a las autoridades de la universidad. Su tema era la vestimenta, que Galileo criticaba argumentando que era una fuente de engaño. Por ejemplo, sin ropa, según proclamaban sus versos, una novia podía mirar a su posible cónyuge y «ver si se queda corto o si tiene mal francés, y así informada tomarlo, o dejarlo a su antojo [143]».
Un poema que sin duda no caería bien a los parisinos, pero que tampoco gustó en Pisa. Galileo volvió a verse sin trabajo.
Pero no hay mal que por bien no venga, y Galileo no tardó en conseguir un puesto cerca de Venecia, en la Universidad de Padua, con un sueldo inicial de 180 escudos al año, el triple de su antiguo salario, y más tarde describiría el tiempo que pasó allí como los mejores dieciocho años de su vida.
Para cuando Galileo llegó a Padua, ya estaba desencantado con la física aristotélica [144].
Para Aristóteles, la ciencia consistía en observación y teoría. Para Galileo, faltaba un paso crucial, el uso de experimentos, y en sus manos la física experimental avanzó tanto como la teoría. Los estudiosos de la naturaleza llevaban siglos realizando experimentos, pero por lo común con el fin de ilustrar ideas que ya aceptaban. Hoy, en cambio, los científicos realizan experimentos para testar ideas de una forma rigurosa. Los experimentos de Galileo caen a medio camino. Eran exploraciones, más que ilustraciones, pero no llegaban a ser pruebas rigurosas.
Hay dos aspectos de los experimentos de Galileo que son especialmente importantes. En primer lugar, cuando obtenía un resultado que lo sorprendía, no lo rechazaba[145].
En segundo lugar, sus experimentos eran cuantitativos, una idea revolucionaria en su tiempo.
Los experimentos de Galileo se parecen a los que cualquier estudiante de instituto de nuestros días puede ver en una clase de ciencias, aunque, por supuesto, su laboratorio difería bastante de los que hoy vemos en los colegios, pues carecía de electricidad, gas, agua y equipos sofisticados, y por «equipos sofisticados» me refiero, por ejemplo, a un reloj. En consecuencia, Galileo tuvo que convertirse en un MacGyver del siglo XVI, montando complejos aparatos a partir de los equivalentes renacentistas de la cinta adhesiva y el desatascador. Por ejemplo, para hacer un cronómetro, Galileo practicó un pequeño orificio en el fondo de un cubo grande. Cuando necesitaba cronometrar un suceso, llenaba el cubo con agua, recogía la que se colaba y luego la pesaba; el peso del agua era proporcional a la duración del suceso.
Galileo empleó este «reloj de agua» para abordar la controvertida cuestión de la caída libre, el proceso por el que un objeto cae hacia la tierra. Para Aristóteles, la caída libre es un tipo de movimiento natural gobernado por ciertas reglas empíricas, como: «si la mitad del peso se desplaza una distancia en un tiempo determinado, su doble [el peso entero] lo hará en la mitad de tiempo». Dicho de otro modo, los objetos caen a una velocidad constante y proporcional a su peso.
Si se piensa un poco, es de sentido común: una roca cae más deprisa que una hoja. Así pues, dada la falta de instrumentos de medición o registro y lo poco que se sabía sobre el concepto de aceleración, la descripción de la caída libre que hacía Aristóteles debía parecer razonable. Pero si lo pensamos un poco más, también viola el sentido común. Como el astrónomo jesuita Giovanni Riccioli señalaría, incluso el águila mitológica que mató a Esquilo dejando caer una tortuga sobre su cabeza sabía instintivamente que un objeto que cae sobre una cabeza hace más daño si se tira de mayor altura [146], lo que implica que los objetos aumentan de velocidad mientras caen. A consecuencia de tales consideraciones, existía una larga tradición de debate sobre esta cuestión, y a lo largo de los siglos habían sido varios los estudiosos que habían expresado escepticismo sobre la teoría de Aristóteles.
Galileo sabía de las críticas y quería hacer sus propias indagaciones sobre el asunto. Sin embargo, sabía que su reloj de agua no era lo bastante preciso para experimentar con la caída de objetos, de modo que tenía que encontrar un proceso que fuese más lento pero que demostrara los mismos principios físicos. Decidió medir el tiempo que tardaban en deslizarse por un plano inclinado y liso unas bolas de bronce bien pulidas, variando el ángulo de inclinación.
Estudiar la caída libre haciendo mediciones de unas bolas que se deslizan por una rampa es un poco como comprar ropa por el aspecto que tienen en internet: siempre hay el peligro de que la ropa le siente peor a uno mismo que a un estupendo modelo. A pesar de ello, este tipo de razonamiento está en el centro de la manera de pensar de los físicos modernos. El arte de diseñar un buen experimento se basa en buena parte en saber qué aspectos de un problema son importantes y deben preservarse y cuáles se pueden ignorar, así como en saber de qué modo interpretar los resultados experimentales.
En el caso de la caída libre, el genio de Galileo radicó en diseñar el experimento de las bolas teniendo en cuenta dos criterios. En primer lugar, tenía que reducir la velocidad de los objetos lo bastante para poder medirlos; en segundo lugar, e igual de importante, buscaba minimizar los efectos de la resistencia del aire y de la fricción. Aunque la fricción y la resistencia del aire forman parte de nuestra experiencia cotidiana, le pareció que oscurecían la simplicidad de las leyes fundamentales que rigen la naturaleza. Las rocas caen más rápido que las plumas en el mundo real, pero Galileo sospechaba que las leyes subyacentes dictaban que en un vacío deberían caer del mismo modo. Debemos «desembarazarnos de estas dificultades», escribió, «y habiendo descubierto y demostrado los teoremas, en el caso de no resistencia… usarlos y aplicarlos [al mundo real]… con las limitaciones que nos dicte la experiencia[147]».
Con ángulos pequeños, las bolas del experimento de Galileo rodaban bastante despacio, así que era fácil obtener los datos. Observó que con estos ángulos pequeños, la distancia recorrida por la bola siempre era proporcional al cuadrado del intervalo de tiempo. Se puede demostrar matemáticamente que eso significa que la bola adquiere velocidad a una tasa constante, es decir, que la bola experimenta una aceleración constante. Además, Galileo observó que esa tasa de caída de la bola no dependía de lo pesada que fuera.
Lo que de verdad resultaba sorprendente era que aquello seguía siendo cierto cuando el plano se inclinaba con ángulos cada vez más pendientes; no importaba cuál fuera el ángulo: la distancia recorrida por la bola siempre era independiente del peso de la bola y proporcional al cuadrado del tiempo que tardaba en rodar. Pero si eso es cierto para un ángulo de cuarenta, cincuenta, sesenta o incluso setenta u ochenta grados, ¿por qué no para un ángulo de noventa? Aquí es donde aparece el razonamiento de Galileo que hoy nos resulta tan actual: dijo que sus observaciones de la bola que rodaba por un plano debían seguir siendo ciertas para la caída libre, que puede considerarse como el «caso límite», cuando el plano se inclina con un ángulo de noventa grados. En otras palabras, planteó la hipótesis de que si inclinaba el plano hasta el máximo, hasta que estuviese vertical y la bola ya no rodase sino que estuviera en caída libre, todavía aumentaría su velocidad a una tasa constante, lo que significaba que la ley que observaba en el plano inclinado también valía para la caída libre.
De este modo, Galileo reemplazó la ley de la caída libre de Aristóteles con la suya propia. Aristóteles había dicho que las cosas caen a una velocidad proporcional a su peso, pero Galileo, postulando un mundo idealizado en el que se manifestaban las leyes fundamentales, había llegado a una conclusión distinta: sin la resistencia que ofrece un medio como el aire, todos los objetos caen con la misma aceleración constante.
Si a Galileo le gustaban las matemáticas, también tenía afición por la abstracción, hasta tal punto que a veces se entretenía dejando que escenas enteras se desarrollasen totalmente en su imaginación. Quienes no son científicos llaman a eso fantasía; los científicos lo llaman experimento mental, al menos cuando trata sobre física. Lo bueno de imaginar experimentos que se producen puramente en la mente es que uno se ahorra el engorro de montar aparatos que realmente funcionen, pero todavía se pueden examinar las consecuencias lógicas de ciertas ideas. Así fue como, además de tumbar la teoría aristotélica de la caída libre con sus experimentos prácticos con planos inclinados, Galileo también utilizó experimentos mentales para meter baza en el debate sobre otra de las críticas fundamentales a la física de Aristóteles, la concerniente al movimiento de los proyectiles.
¿Qué es lo que, después de aplicada la fuerza inicial cuando se dispara un proyectil, sigue impulsándolo hacia delante? Aristóteles había conjeturado que eran partículas de aire que corren a ocupar el espacio tras el proyectil y continuamente lo empujan, pero incluso él dudaba de su explicación, como hemos comentado.
Galileo abordó la cuestión imaginando un barco en el mar, con hombres que juegan a lanzarse la pelota en un camarote, mariposas que revolotean alrededor, peces que nadan en una pecera en reposo sobre una mesa y agua que gotea de una botella. Galileo «observó» que todo eso se desarrollaba exactamente del mismo modo cuando el barco se mueve a velocidad constante que cuando está al pairo. Llegó a la conclusión de que como todo en un barco se mueve junto al barco, su movimiento debe «imprimirse» a los objetos, de manera que cuando el barco se mueve, su movimiento se convierte en una especie de línea base para todo lo que hay en él. ¿No podría ser que del mismo modo, el movimiento de un proyectil se imprima en el proyectil? ¿Podría ser esa la razón de que la bala de cañón siga moviéndose?
Las reflexiones de Galileo lo llevaron a la más profunda de sus conclusiones, otra ruptura radical con la física aristotélica. Negando la aseveración de Aristóteles de que los proyectiles requieren una razón para su movimiento, una fuerza, Galileo proclamó que todos los objetos que se encuentran en movimiento uniforme tienden a mantener ese movimiento, del mismo modo que los objetos en reposo tienden a permanecer en reposo.
Por «movimiento uniforme» Galileo se refería al movimiento en una línea recta y con una velocidad constante. El estado de «reposo» es entonces simplemente un caso particular del movimiento uniforme en el que la velocidad es cero. La observación de Galileo recibiría el nombre de ley de la inercia. Newton la adaptaría más tarde para convertirla en su primera ley del movimiento. Unas pocas páginas después de enunciar la ley, Newton añade que Galileo la había descubierto, lo cual constituye uno de los pocos casos en que Newton cede el crédito a otro [148].
La ley de la inercia explica el problema del proyectil que tanta desazón había provocado entre los aristotélicos. Según Galileo, una vez disparado, un proyectil se mantendrá en movimiento a no ser que alguna fuerza lo pare. Como la ley de la caída libre de Galileo, esta ley representa una profunda ruptura con Aristóteles: lo que Galileo afirmaba era que un proyectil no necesita la continua aplicación de una fuerza para mantenerse en movimiento; en la física de Aristóteles, el movimiento continuo en ausencia de fuerza, o «causa», era inconcebible.
A raíz de lo que le había explicado sobre Galileo, mi padre, a quien gustaba comparar cualquier persona importante de la que se le hablase con algún personaje de la historia judía, llamó a Galileo el Moisés de la ciencia. Lo decía porque Galileo había conducido a la ciencia lejos del desierto aristotélico y en dirección a la tierra prometida. La comparación es especialmente adecuada porque, como Moisés, Galileo no llegó a pisar la tierra prometida: nunca llegó a identificar la gravedad como una fuerza o a descifrar su forma matemática (para eso habría que esperar a Newton) y todavía se aferró a algunas de las creencias aristotélicas. Por ejemplo, Galileo creía en un tipo de «movimiento natural» que no era uniforme y sin embargo no necesitaba estar causado por una fuerza: el movimiento en círculos alrededor del centro de la Tierra. Galileo debía creer que ese es el tipo de movimiento natural que permite que los objetos mantengan el ritmo de la Tierra mientras esta da vueltas.
Estos últimos vestigios del sistema de Aristóteles tenían que ser abandonados antes de que pudiera emerger una verdadera ciencia del movimiento. Por razones como esta, un historiador describió la concepción de la naturaleza de Galileo como «una amalgama imposible de elementos incompatibles, nacida de las cosmovisiones mutuamente contradictorias entre las que se debatía[149]».
Las aportaciones de Galileo a la física fueron verdaderamente revolucionarias. Sin embargo, hoy es célebre sobre todo por su conflicto con la Iglesia católica por afirmar, en contra de la opinión de Aristóteles (y Ptolomeo), que la Tierra no es el centro del universo sino un planeta más que, como los otros, describe una órbita alrededor del Sol. La idea de un universo heliocéntrico se remonta al menos a Aristarco, en el siglo III a. C., pero la versión moderna se debe a Copérnico (1473-1543[150]).
Copérnico fue un revolucionario ambivalente que no perseguía desafiar la metafísica de su tiempo, sino simplemente arreglar la antigua astronomía griega: lo que le irritaba era que el modelo geocéntrico solo funcionaba si se introducía un gran número de complicadas construcciones geométricas ad hoc. Su modelo, en cambio, era mucho más refinado y sencillo, incluso elegante. En el espíritu del Renacimiento, no apreciaba solamente su relevancia científica, sino también su forma estética. «Me parece más fácil creer esto», escribió, «que embrollar la cuestión suponiendo un gran número de esferas, como se ven obligados a hacer quienes desean mantener la Tierra en el centro[151]».
Copérnico ya había escrito sobre su modelo en 1514, pero privadamente, y luego pasó décadas realizando observaciones astronómicas para respaldarlo. Como Darwin varios siglos más tarde, hizo circular sus ideas con discreción, solamente entre amigos en los que confiaba, por miedo a ser escarnecido por el pueblo y la Iglesia. No obstante, aunque conocía el peligro, también sabía que con una adecuada gestión política podría atemperar la reacción de la Iglesia, y cuando Copérnico por fin publicó sus ideas, dedicó el libro al Papa, con una larga explicación de por qué su contenido no era herejía.
Al final, tanta prevención fue irrelevante, pues no publicó su libro hasta 1543 y para entonces yacía en su lecho de muerte; hay quien dice que no vio la versión final impresa de su libro hasta el mismo día en que falleció. Irónicamente, incluso después de publicado, su libro tuvo poco impacto hasta que científicos posteriores como Galileo lo adoptaron y comenzaron a divulgarlo.
Aunque Galileo no es el autor de la idea de que la Tierra no es el centro del universo, aportó algo igual de importante: usó un telescopio (que improvisó a partir de una versión mucho más rudimentaria inventada no mucho tiempo antes) con el que halló pruebas sorprendentes y convincentes en su apoyo.
Todo empezó por accidente. En 1597, Galileo estaba escribiendo y enseñando en Padua sobre el sistema ptolemaico, dando pocas indicaciones de que albergara la menor duda sobre su validez[VII].
Más o menos al mismo tiempo tuvo lugar un incidente en Holanda que nos recuerda lo importante que es en la ciencia estar en el lugar adecuado (Europa) en el momento adecuado (en este caso, unas pocas décadas después de Copérnico). El incidente, que llevaría a Galileo a cambiar su opinión, tuvo lugar cuando dos niños que jugaban en el taller de un humilde fabricante de anteojos llamado Hans Lippershey juntaron dos lentes y miraron a través de ellas a la lejana veleta que había en lo alto de la iglesia del pueblo. La vieron aumentada. Según lo que Galileo escribió más tarde sobre este incidente, Lippershey miró a través de las lentes, «una convexa y la otra cóncava… y confirmó el inesperado resultado, y así [inventó] el instrumento [152]».
Había creado un catalejo.
Tendemos a pensar en el desarrollo de la ciencia como en una serie de descubrimientos, cada uno de los cuales conduce al siguiente gracias a los esfuerzos de algún solitario gigante intelectual con una clara y extraordinaria visión. Pero la visión de los grandes descubridores de la historia intelectual suele ser más borrosa que clara, y sus logros deben más a sus amigos y colaboradores (y a la suerte) de lo que dicen las leyendas y los propios descubridores desean admitir. En este caso, el catalejo de Lippershey tenía tan solo de dos a tres aumentos, y cuando Galileo oyó hablar de él unos años más tarde, en 1609, no le impresionó demasiado. Solo se interesó porque su amigo Paolo Sarpi, que el historiador J. L. Heilbron describe como un «formidable y polifacético monje antijesuita», le vio posibilidades al instrumento: pensó que si se pudiera mejorar, podría tener aplicaciones militares importantes para Venecia, una ciudad no amurallada que dependía para su supervivencia de la temprana detección de cualquier ataque enemigo inminente.
Sarpi buscó la ayuda de Galileo, quien, entre sus muchas y variadas actividades para complementar sus ingresos, dedicaba algún tiempo a la fabricación de instrumentos científicos. Ni Sarpi ni Galileo eran expertos en la teoría de la óptica, pero, mediante ensayo y error, en unos pocos meses Galileo había desarrollado un instrumento de nueve aumentos. Se lo regaló a un deslumbrado Senado Veneciano a cambio de una extensión de por vida de su puesto y de que le doblaran su salario de entonces, hasta cobrar mil escudos. Con el tiempo, Galileo mejoraría su telescopio hasta treinta aumentos, el límite práctico para un instrumento con ese diseño (un ocular plano-cóncavo y un objetivo plano-convexo).
Hacia diciembre de 1609, para cuando Galileo ya había desarrollado un telescopio de veinte aumentos, lo dirigió al cielo y apuntó al cuerpo celeste más grande del firmamento nocturno, la Luna. Aquella observación, y otras que realizaría, proporcionaron las mejores pruebas hasta la fecha de que Copérnico tenía razón sobre el lugar de la Tierra en el cosmos.
Aristóteles había afirmado que los cielos formaban un reino aparte, hecho de una sustancia distinta y gobernado por leyes distintas que hacían que todos los cuerpos celestes se movieran en círculos alrededor de la Tierra. Lo que Galileo vio, sin embargo, fue una Luna «irregular, rugosa y llena de cavidades y prominencias, no muy distinta de la faz de la Tierra, atravesada por cadenas de montañas y profundos valles [153]».
En otras palabras, la Luna no parecía pertenecer a otro «reino». Galileo vio también que Júpiter tenía sus propias lunas. El hecho de que aquellas lunas describieran órbitas alrededor de Júpiter y no de la Tierra violaba la cosmología de Aristóteles al tiempo que respaldaba la idea de que la Tierra no era el centro del universo, sino un simple planeta junto a otros.
Conviene aclarar que cuando digo que Galileo «vio» algo, no me refiero únicamente a que pusiera el ojo en el telescopio, apuntase a algún lugar y se regocijase con una serie de imágenes nuevas y revolucionarias, como si estuviese viendo un espectáculo en un planetario. Muy al contrario, sus observaciones requirieron largos periodos de esfuerzos difíciles y tediosos, pues tenía que forzar la vista durante horas para mirar a través de sus lentes imperfectas y mal montadas (para los estándares actuales) y esforzarse por entender lo que veía. Cuando observaba la Luna, por ejemplo, podía «ver» montañas solamente mediante el tedioso registro e interpretación del movimiento, semana tras semana, de las sombras que proyectaban. Más aún, solo podía ver de cada vez una centésima de la superficie, de modo que para crear un mapa global, tenía que realizar numerosas observaciones escrupulosamente coordinadas.
Estas dificultades ilustran el hecho de que, por lo que respecta al telescopio, el genio de Galileo no radicaba tanto en cómo había perfeccionado el instrumento como en el modo en que lo había aplicado. Por ejemplo, cuando percibió lo que aparentaba ser, pongamos por caso, una montaña lunar, no se fio sin más de las apariencias, sino que estudió las luces y las sombras y aplicó el teorema de Pitágoras para estimar la altura de la montaña. Cuando observó las lunas de Júpiter, al principio creyó que se trataba de estrellas, y solo tras múltiples observaciones cuidadosas y meticulosas, y un cálculo a partir del movimiento conocido del planeta, se dio cuenta de que las posiciones de las «estrellas» con respecto a Júpiter cambiaban de un modo que sugería que describían círculos.
Una vez realizados estos descubrimientos, Galileo, aunque reacio a entrar en debates teológicos, deseaba reconocimiento, y comenzó a dedicar mucha energía a hacer públicas sus observaciones y a luchar por que se sustituyera la cosmología aceptada de Aristóteles por el sistema heliocéntrico de Copérnico. Con ese propósito, en marzo de 1610 publicó El mensajero de las estrellas, un panfleto que describía los portentos que había observado. El libro se convirtió de inmediato en un superventas, y aunque (en el formato moderno) no pasaba de sesenta páginas, dejó admirado al mundo de los estudiosos, pues describía detalles portentosos y nunca antes vistos de la Luna y los planetas. La fama de Galileo no tardó en extenderse por Europa, y todos deseaban mirar a través de un telescopio.
Aquel septiembre, Galileo se mudó a Florencia para aceptar la prestigiosa posición de «matemático principal de la Universidad de Pisa y filósofo del gran duque». Retuvo su salario anterior, pero no tenía la obligación de enseñar o siquiera residir en la ciudad de Pisa. El gran duque en cuestión era Cosme II de Médicis, gran duque de Toscana, y el nombramiento de Galileo fue tanto el resultado de una campaña para ganarse el favor de los Médicis como el fruto de sus grandes logros. Había llegado incluso al extremo de llamar «planetas medicianos» a las lunas recién descubiertas en Júpiter.
Poco después del nombramiento, Galileo cayó terriblemente enfermo y permaneció encamado durante meses. Irónicamente, es probable que padeciera el «mal francés», la sífilis, a consecuencia de su afición a las prostitutas venecianas. Pero incluso enfermo, Galileo siguió luchando por persuadir a influyentes pensadores de la validez de sus hallazgos. Y al año siguiente, cuando había recobrado su salud, su estrella se había elevado tanto que fue invitado a Roma, donde pronunció conferencias sobre su trabajo.
En Roma, Galileo conoció al cardenal Maffeo Barberini y le fue concedida audiencia en el Vaticano con el papa Pablo V. Fue un viaje triunfante en todos los sentidos, y Galileo supo presentar con diplomacia sus diferencias con la doctrina oficial de la Iglesia para no causar ninguna ofensa, pues la mayor parte de sus conferencias se centraron en las observaciones que había realizado con su telescopio, sin discutir demasiado sus implicaciones.
Era inevitable, sin embargo, que sus posteriores escarceos políticos lo llevasen a un conflicto con el Vaticano, pues la Iglesia había aprobado una versión del aristotelismo creada por santo Tomás de Aquino que era incompatible con las observaciones y explicaciones de Galileo; además, a diferencia de su político predecesor Copérnico, Galileo podía ser insufriblemente arrogante, incluso cuando discutía con teólogos aspectos relacionados con la doctrina de la Iglesia. Y así fue como, en 1616, Galileo fue reclamado en Roma para defenderse a sí mismo ante varias autoridades de alto rango de la Iglesia.
La visita acabó con un aparente empate: Galileo no fue condenado, ni sus libros condenados, e incluso tuvo otra audiencia con el papa Pablo V, pero las autoridades le prohibieron enseñar que el Sol, y no la Tierra, es el centro del universo, y que la Tierra se mueve alrededor del Sol, y no al contrario [154].
Al final, el episodio le causaría graves problemas, pues gran parte de la evidencia usada en el juicio de la Inquisición contra Galileo diecisiete años más tarde se extraería de los encuentros durante los cuales las autoridades de la Iglesia le habían prohibido explícitamente enseñar el copernicanismo.
Durante un tiempo, sin embargo, las tensiones se relajaron, especialmente después de que en 1623 el amigo de Galileo, el cardenal Barberini, se convirtiera en el papa Urbano VIII. A diferencia del papa Pablo V, Urbano VIII en general veía la ciencia con buenos ojos, y durante los primeros años de su papado mantuvo audiencias con Galileo.
Animado por aquella atmósfera más amistosa, con el ascenso de Urbano Galileo comenzó a trabajar en un nuevo libro, que acabó con sesenta y ocho años de edad, en 1632. El fruto de aquella labor recibió el título de Dialogo sopra i due massimi sistemi del mondo ( Diálogo sobre los dos máximos sistemas del mundo). Pero el «diálogo» era extremadamente sesgado, y la Iglesia reaccionó (y con razón) como si el título del libro hubiese sido Por qué la doctrina de la Iglesia es errónea y el papa Urbano un idiota.
El diálogo de Galileo adopta la forma de una conversación entre amigos: Simplicio, un entregado seguidor de Aristóteles; Sagredo, una persona inteligente que adopta una visión neutral; y Salviati, que expone argumentos persuasivos a favor de las ideas de Copérnico. Galileo se había sentido cómodo escribiendo el libro porque lo había comentado con Urbano, y este parecía aprobarlo. Pero Galileo le había asegurado al Papa que su propósito al escribirlo era defender a la Iglesia y a la ciencia italiana de la acusación de que el Vaticano había prohibido el heliocentrismo por ignorancia, y por ello la aprobación de Urbano dependía del supuesto de que Galileo presentaría los argumentos intelectuales de ambos lados sin juzgarlos. Si Galileo de verdad lo intentó, fracasó estrepitosamente. En palabras de su biógrafo J. L. Heilbron, el Dialogo de Galileo «despreciaba a los filósofos de la Tierra fija como si fueran menos que humanos, ridículos, estrechos de mente, necios e idiotas, mientras alababa a los copernicanos como intelectos superiores [155]».
Había otro insulto. El papa Urbano VIII había querido que Galileo incluyera en el libro una advertencia, un pasaje que afirmase la validez de la doctrina de la Iglesia; pero en lugar de enunciar la advertencia en propia voz, como el pontífice le había pedido, Galileo hizo que la afirmación de la religión fuera en boca de Simplicio, un personaje que Heilbron califica de «bobalicón». El papa Urbano, que no era ningún bobalicón, se sintió hondamente ofendido.
Cuando se calmaron los cielos, Galileo fue condenado por violar el edicto de la Iglesia de 1616 contra la enseñanza del copernicanismo y forzado a renunciar a sus creencias. Su ofensa tenía tanto que ver con el poder y el control o «posesión» de la verdad como con los aspectos concretos de su cosmovisión[VIII].
La mayoría de quienes constituían la élite intelectual de la Iglesia reconocían que la visión de Copérnico era probablemente correcta; a lo que objetaban era a que un renegado difundiera esa palabra y retase la doctrina de la Iglesia[156].
El 22 de junio de 1633, vestido con la camisa blanca de la penitencia, Galileo se arrodilló ante el tribunal que lo había juzgado y se doblegó ante la exigencia de que afirmase la autoridad de las Escrituras, declarando: «Yo, Galileo, hijo del fallecido Vincenzo Galilei, florentino, de setenta años de edad… juro que siempre he creído, creo ahora y, con la ayuda de Dios, creeré en el futuro todo aquello que sostiene, predica y enseña la Santa Católica y Apostólica Iglesia[157]».
Pese a proclamar que siempre había aceptado la doctrina de la Iglesia, Galileo prosiguió confesando que había defendido la perniciosa teoría copernicana incluso «después de haber sido jurídicamente intimado» por la Iglesia a efectos de que «abandonase la falsa opinión de que el Sol es el centro del mundo y que no se mueve y que la Tierra no es el centro del mundo y se mueve…».
Lo realmente interesante es cómo se expresa la confesión de Galileo: «escribí y di a la imprenta un libro», dice, «en el que trato de la mencionada doctrina ya condenada y aporto razones con mucha eficacia a favor de ella». Así que incluso cuando jura lealtad a la versión de la verdad que predica la Iglesia, no deja de defender el contenido de su obra.
Al final, Galileo se rinde diciendo que «queriendo apartar de la mente de Vuestras Eminencias y de todos los fieles cristianos esta vehemente sospecha que justamente se ha concebido de mí, con el corazón sincero y fe no fingida abjuro, maldigo y detesto los mencionados errores y herejías… y juro que en el futuro nunca diré ni afirmaré, de viva voz o por escrito, cosas tales por las que de mí se pueda tener similar sospecha».
Galileo no recibiría un castigo tan duro como el que la Inquisición había aplicado a Giordano Bruno, quien también había afirmado que la Tierra giraba alrededor del Sol y por esta herejía había sido quemado en la hoguera en Roma en 1600. No obstante, el juicio dejó bien clara la posición de la Iglesia.
Dos días después, Galileo fue dado en custodia al embajador florentino. Pasó sus últimos años en una especie de arresto domiciliario en su villa de Arcetri, cerca de Florencia. Mientras vivía en Padua, Galileo había tenido tres hijos fuera del matrimonio. De ellos, la niña con la que había tenido una relación más cercana había muerto por la peste en Alemania, y su otra hija se había distanciado de él, pero su hijo, Vincenzo, vivía cerca y lo cuidó con gran afecto. Aunque prisionero, Galileo podía recibir visitas, incluso de herejes, siempre y cuando no fuesen matemáticos. Uno de ellos fue el joven poeta inglés John Milton, quien más tarde se referiría a Galileo y su telescopio en El paraíso perdido.
Irónicamente, fue durante este tiempo en Arcetri cuando Galileo escribió sus ideas más trabajadas sobre la física del movimiento en el libro que consideraba su mejor obra: Consideraciones y demostraciones matemáticas sobre dos nuevas ciencias. El libro no pudo publicarse en Italia a causa de la prohibición impuesta por el Papa contra sus escritos, de modo que fue llevado clandestinamente a Leiden y publicado en 1638.
Para entonces, la salud de Galileo estaba flaqueando. Era ciego desde 1637, y al año siguiente comenzó a sufrir debilitantes problemas digestivos. «Todo me asquea», escribió, «el vino es malo para mi cabeza y ojos, el agua para el dolor de mi costado… he perdido la gana, nada me apetece y si me apeteciera [los doctores] me lo prohibirían[158]».
Con todo, su mente se mantenía alerta, y un visitante que lo vio poco antes de su muerte comentó que, pese a la prohibición de recibir visitantes de su profesión, poco tiempo antes había disfrutado de la discusión entre dos matemáticos. Murió a los setenta y siete años de edad en 1642, el año del nacimiento de Newton, en presencia de su hijo, Vincenzo, y, cómo no, de unos cuantos matemáticos.
Galileo había deseado ser enterrado junto a su padre en la basílica principal de la Santa Cruz, en Florencia. El sucesor del gran duque Cosme, Fernando, había planeado incluso construirle allí una gran tumba, frente a la de Miguel Ángel. El Papa Urbano hizo saber, sin embargo, que «no es bueno construir mausoleo para [tales hombres]… porque la buena gente podría escandalizarse y predisponerse con la Santa autoridad [159]».
En consecuencia, los parientes de Galileo sepultaron sus restos en una pequeña cámara bajo el campanario de la iglesia y celebraron un modesto ritual al que asistieron únicamente unos pocos amigos, parientes y seguidores. Aun así, muchos, incluso dentro de la Iglesia, sintieron la pérdida. De la muerte de Galileo escribió con valentía el bibliotecario de la corte del cardenal Barberini, en Roma: «No afecta solo a Florencia, sino a todo el mundo y todo nuestro siglo, que de este divino hombre ha recibido más esplendor que de casi todos los otros filósofos[160]».

7. El universo mecánico
Cuando Galileo publicó sus Consideraciones y demostraciones matemáticas sobre dos nuevas ciencias, había llevado la cultura humana hasta el umbral de un nuevo mundo. Isaac Newton dio los últimos y gigantescos pasos y, al hacerlo, dibujó la hoja de ruta para toda una nueva manera de pensar. Tras Newton, la ciencia abandonó la visión aristotélica de una naturaleza empujada por el propósito y abrazó en su lugar un universo pitagórico regido por los números. Después de Newton, la afirmación jónica de que el mundo podía entenderse mediante la observación y la razón se transformó en una gran metáfora: el mundo es como un reloj con un mecanismo gobernado por leyes numéricas que hacen que todos los aspectos de la naturaleza puedan predecirse con precisión, incluso, a decir de algunos, las interacciones humanas.
En la lejana América, los Padres Fundadores adoptaban el pensamiento newtoniano además de la teología cuando afirmaban, en la Declaración de Independencia, que «las leyes de la naturaleza y del Dios de la naturaleza autorizan» al pueblo a la autodeterminación política [161].
En Francia, tras la Revolución y su antagonismo hacia la ciencia, Pierre-Simon de Laplace llevó la física newtoniana a un nuevo nivel de sofisticación matemática para luego proclamar que, con la ayuda de la teoría newtoniana, un intelecto superior podía «incluir en la misma fórmula los movimientos de los mayores cuerpos del universo y los de sus átomos más diminutos; nada le será incierto, y el futuro, como el pasado, estarán presentes ante sus ojos».
Hoy todos razonamos como newtonianos. Hablamos de la fuerza del carácter de una persona, o de que una enfermedad se propaga de forma acelerada. Hablamos de inercia física e incluso mental, o del impulso que demuestra un equipo deportivo. Pensar en tales términos habría sido insólito antes de Newton; no pensar en tales términos sería insólito en nuestros días. Incluso quienes no saben nada de las leyes de Newton han mamado sus ideas. Por eso, estudiar la obra de Newton es estudiar nuestras propias raíces.
Como la visión del mundo de Newton nos resulta hoy tan familiar, tenemos que hacer un esfuerzo para darnos cuenta de lo asombroso y brillante de su creación. De hecho, cuando en el instituto me introdujeron por primera vez en las «leyes de Newton», me parecieron tan simples que no entendía para qué tanto alboroto. Me parecía raro que una de las personas más inteligentes de la historia de la ciencia hubiera necesitado muchos años para crear lo que yo, un adolescente de quince años, podía aprender en unas pocas clases. ¿Cómo era posible que unos conceptos que a mí me parecían tan accesibles hubieran sido tan difíciles de comprender hace unos pocos siglos?
Mi padre parecía entenderlo. Mientras que yo les explico a mis hijos historias como la de los Post-it, mi padre solía recurrir a las historias de su viejo país. Cuando la gente miraba el mundo hace siglos, veían una realidad muy distinta a la que percibimos hoy. Solía explicarme que, siendo un adolescente en Polonia, él y algunos amigos habían puesto unas sábanas encima de una cabra, que luego habían soltado en la casa familiar. Todos los mayores creyeron haber visto un fantasma. Vale que era la noche de la celebración judía del Purim, y todos los mayores estaban bastante borrachos, pero mi padre no usó su embriaguez para explicar su reacción, decía que sencillamente interpretaban lo que veían en términos del contexto de sus creencias, y estaban cómodos y familiarizados con el concepto de fantasma. A mí puede parecerme ignorancia, me dijo, pero lo que Newton le dijo al mundo sobre las leyes matemáticas del universo probablemente le pareciera tan extraño a la gente de su día como a mí los fantasmas de sus mayores. Es cierto: hoy, aun sin tomar ningún curso de física, en cada uno de nosotros reside algo del espíritu de Newton. En cambio, si no hubiéramos crecido en una cultura newtoniana, esas leyes que hoy nos parecen tan evidentes habrían resultado, para la mayoría de nosotros, incomprensibles [162].
Al describir su vida poco antes de su muerte, Newton presentó de este modo sus contribuciones: «No sé qué le debo parecer al mundo, pero, por lo que a mí respecta, me parece haber sido como un niño jugando a la orilla del mar, entreteniéndome con el hallazgo, aquí y allí, de un guijarro más liso o una concha más hermosa que la anterior, mientras el gran océano de la verdad se extendía a mis pies, desconocido [163]».
Cada uno de los guijarros de Newton habría constituido una carrera monumental para científicos menos brillantes y productivos que él. Además de sus trabajos sobre la gravedad y el movimiento, dedicó muchos años a desvelar los secretos de la óptica y la luz, e inventó la física tal como la conocemos hoy, además del cálculo matemático. Cuando le dije esto a mi padre, que antes de que yo comenzara a estudiar su obra nunca había oído hablar de Newton, frunció el ceño y me dijo: «No seas como él. ¡Cíñete a un solo campo!». Al principio reaccioné a aquello con la condescendencia que tan bien se les da a los adolescentes, pero quizá mi padre tuviera razón. Newton estuvo muy cerca de convertirse en un genio que empezaba muchas cosas y no acababa ninguna. Por suerte, como veremos, intervino el destino, y hoy se considera que con Newton dio comienzo toda una revolución del conocimiento.
Una de las cosas que Newton nunca hizo fue, precisamente, jugar a la orilla del mar. De hecho, aunque sacó mucho provecho de sus ocasionales interacciones con científicos de otros lugares de Gran Bretaña y de la Europa continental (a menudo por correo), nunca se alejó demasiado del pequeño triángulo que unía su lugar de nacimiento, Woolsthorpe, su universidad, Cambridge, y su capital, Londres. Tampoco parece que «jugase» nunca en cualquiera de los sentidos que la mayoría de nosotros damos a esta palabra. La vida de Newton no incluía muchos amigos o familiares a los que se sintiera cercano, ni siquiera una sola amante, pues, al menos hasta sus últimos años, conseguir que Newton tuviera una vida social era como convencer a unos gatos para que jugaran a Scrabble. Tal vez lo más revelador sea un comentario de un pariente lejano, Humphrey Newton, que fue su ayudante durante cinco años y dijo que solo había visto reír a Newton en una ocasión, cuando alguien le preguntó por qué habría de interesarle a nadie estudiar a Euclides.
Newton sentía una pasión puramente desinteresada por entender el mundo, no el anhelo de mejorarlo en beneficio de la humanidad. Logró mucha celebridad durante su vida, pero no tuvo con quien compartirla. Logró el triunfo intelectual pero nunca el amor. Recibió los mayores reconocimientos y honores, pero pasó la mayor parte de su vida inmerso en rencillas intelectuales. Ojalá pudiera decir que este gigante del intelecto era un hombre empático y afable, pero si tenía alguna de esas tendencias, logró reprimirlas y presentarse como un arrogante misántropo. Era el tipo de hombre que, si decías que el día era gris, diría, «No, en realidad el cielo es azul». Y lo más molesto es que podía probarlo. El físico Richard Feynman (1918-1988) expresó los sentimientos de más de un científico ensimismado cuando escribió un libro que tituló ¿Qué te importa lo que piensen los demás? Newton nunca escribió unas memorias, pero de haberlo hecho probablemente las habría titulado Espero haberte cabreado bastante o tal vez Deja de molestarme, imbécil.
Stephen Hawking me dijo en una ocasión que, en cierto sentido, estaba contento de estar paralizado, pues le permitía centrarse mucho más intensamente en su trabajo. Supongo que Newton podría haber dicho, por la misma razón, que vivir en su propio mundo en lugar de perder el tiempo compartiéndolo con otros tenía grandes ventajas. De hecho, un estudio reciente dice que los estudiantes que son brillantes en matemáticas tienen una tendencia mucho mayor a seguir una carrera científica si carecen de grandes habilidades verbales[164].
Siempre he sospechado que tener pocas habilidades sociales también está correlacionado con el éxito en la ciencia. Yo, desde luego, he conocido bastantes científicos de éxito que habrían sido considerados demasiado raros para contratarlos en un lugar que no sea una de las grandes universidades de investigación. Uno de mis compañeros de doctorado llevaba los mismos pantalones y la misma camiseta blanca todos los días, aunque se rumoreaba que en realidad tenía dos conjuntos, así que de vez en cuando debía lavar la ropa. Otro de mis compañeros, un famoso profesor, era tan tímido que cuando hablabas con él, escondía la mirada, hablaba flojito y se retiraba un poco si notaba que te acercabas a menos de cinco palmos. Estas dos últimas conductas causaban problemas en las charlas informales después de una conferencia, porque era difícil oírlo. En nuestro primer encuentro, durante mis días en la escuela de doctorado, cometí el error de acercarme demasiado y luego seguirlo ingenuamente cada vez que se retiraba, hasta que casi se cae encima de una silla.
La ciencia es un tema de magnífica belleza. Pero aunque el progreso de la ciencia requiere la fecundación cruzada de ideas que solo puede ser el resultado de la interacción con otras mentes creativas, también exige largas horas de aislamiento, lo que puede dar cierta ventaja a quienes no gustan demasiado de la vida social o incluso prefieren vivir solos. Como dejó escrito Albert Einstein: «Uno de los motivos más fuertes que conduce a los hombres al arte o la ciencia es el de escapar de la vida cotidiana con su dolorosa crudeza y su vana monotonía… Cada uno hace de este cosmos y de su construcción el punto de apoyo de su vida emocional con el fin de hallar de este modo la paz y la seguridad que no puede encontrar en el apretado remolino de la experiencia personal[165]».
El desdén de Newton por las empresas habituales del mundo le permitió perseguir sus intereses con pocas distracciones, pero también lo llevó a retener buena parte de su obra científica, decidiendo no publicar la gran mayoría de sus escritos. Por suerte, tampoco se deshizo de ellos: era una urraca digna de su propio programa de telerrealidad, solo que en vez de acaparar cachivaches, revistas viejas y zapatos de cuando era niño, los «trastos» de Newton eran bosquejos sobre cualquier cosa, desde matemáticas, física, alquimia, religión y filosofía a un registro de cada penique que había gastado o descripciones de lo que sentía por sus padres.
Newton guardaba prácticamente todo lo que escribía, incluso hojas con cálculos provisionales y viejas libretas, lo que, para quien esté dispuesto a escarbar, permite entender hasta un extremo insólito la evolución de sus ideas científicas. La mayoría de sus papeles científicos fueron donados finalmente a la biblioteca de Cambridge, su casa intelectual. Pero otros papeles, millones de palabras en total, acabaron subastándose en Sotheby's, donde el economista John Maynard Keynes fue uno de los postores y compró la mayoría de los escritos de Newton sobre alquimia.
Richard Westfall, biógrafo de Newton, pasó veinte años estudiando su vida, y al final llegó a la conclusión de que Newton «no era reducible a los criterios con los que comprendemos a otros seres humanos[166]».
Si Newton era un alienígena, al menos era de los que nos dejan sus diarios.
Los esfuerzos de Newton por comprender el mundo nacían de una extraordinaria curiosidad, un intenso anhelo por descubrir que parecía surgir completamente de su interior, como el impulso que llevó a mi padre a cambiar su mendrugo de pan por la solución a aquel problema matemático. Pero en el caso de Newton había algo más que alimentaba aquel anhelo. Aunque lo admiramos como un modelo de racionalidad científica, sus indagaciones sobre la naturaleza del universo estaban, como las de otros desde los tiempos de Göbekli Tepe, íntimamente ligadas a su espiritualidad y su religión. Para Newton, que creía que Dios se nos revela tanto a través de su palabra como de su obra, estudiar las leyes del universo era estudiar a Dios, y el fervor científico solo una de las formas que adoptaba el fervor religioso[167].
La afición de Newton por la soledad y sus largas horas de trabajo fueron sus grandes activos, al menos desde el punto de vista de sus logros intelectuales. Su retiro al ámbito de la mente supuso un gran beneficio para la ciencia, pero a cambio de un enorme coste para el hombre que fue, y posiblemente tenga relación con la soledad y el dolor de su infancia.
Cuando yo iba al colegio, los niños que no eran populares me daban pena, sobre todo porque yo era uno de ellos. Pero para Newton fue mucho peor. Fue impopular para su propia madre. Había llegado al mundo el 25 de diciembre de 1642, como uno de esos regalos de Navidad que no has puesto en la lista. Su padre había fallecido unos meses antes, y su madre, Hannah, debió pensar que la existencia de Isaac sería solo un inconveniente temporal, pues había nacido prematuramente y no se esperaba que sobreviviera. Más de ochenta años más tarde, Newton le dijo al marido de su sobrina que al nacer era tan pequeño que habría cabido en una olla de un litro, y tan débil que tenía que llevar un cojín alrededor del cuello para mantenerlo sobre los hombros. Tan pésima era la situación de aquel pequeño cabezón que dos mujeres que fueron enviadas a por provisiones a un par de kilómetros se entretuvieron por el camino, seguras de que el niño estaría muerto a su vuelta. Pero se equivocaron. El cojín del cuello era la única tecnología necesaria para mantener vivo al bebé.
Si Newton nunca le vio la utilidad a tener gente a su alrededor tal vez fuera porque su madre nunca viera la utilidad de tenerlo a él. Cuando el niño tenía tres años, la madre se casó con un opulento rector, el reverendo Barnabas Smith, que le doblaba la edad con creces y quería una mujer joven, pero no un joven hijastro.
No hay manera de saber qué tipo de atmósfera familiar creó todo aquello, pero cabe suponer que hubo tensiones, pues años más tarde, en notas que escribió sobre su juventud, Isaac recordaba «amenazar a mi padre y a mi madre Smith con quemarlos, y con ellos la casa [168]».
Isaac no explica cómo reaccionaron sus padres a su amenaza, pero sabemos que no tardó en ser proscrito al cuidado de su abuela. Isaac y ella se llevaban mejor, pero el listón no estaba demasiado arriba. Desde luego no se daban mucho afecto: en los escritos y garabateos que Isaac dejó al morir no hay de ella un solo recuerdo afectuoso. Al menos tampoco recordaba que quisiera quemarla e incendiar su casa.
Cuando Isaac contaba diez años, el reverendo Smith murió, de modo que regresó a su casa por un breve periodo, uniéndose a un hogar que ahora incluía los tres niños del segundo matrimonio de su madre. Un par de años después de la muerte de Smith, Hannah lo despachó a un colegio puritano en Grantham, a unos trece kilómetros de Woolsthorpe. Mientras estudiaba allí, se alojó en casa de un boticario y químico llamado William Clark que admiraba y estimulaba la inventiva y curiosidad de Newton. El joven Isaac aprendió a triturar sustancias químicas con mano y mortero; midió la intensidad de las tormentas saltando contra el viento y midiendo la distancia salvada por su salto; construyó un pequeño molino de viento adaptado para ser accionado por un ratón en una cinta de correr, y un carro de cuatro ruedas en el que se sentaba y accionaba con una manivela. También creó una cometa que llevaba en la cola una linterna encendida, y la hacía volar por la noche, atemorizando a los vecinos.
Aunque se llevaba bien con Clark, con sus compañeros de clase ya era otra historia. En el colegio, ser diferente y sin duda intelectualmente superior le reportó a Newton la misma reacción que veríamos hoy: los otros niños lo odiaban. La vida solitaria pero intensamente creativa que llevó de niño fue una preparación para la vida creativa pero torturada y aislada que llevaría durante la mayor parte (por suerte no toda) de su vida adulta.
Cuando Newton se acercaba a su diecisiete aniversario, su madre lo sacó de la escuela, decidida como estaba a que volviera a casa para ocuparse de las tierras de la familia. Pero a Newton lo de la agricultura no se le daba muy bien, lo que prueba que uno puede ser un genio calculando las órbitas de los planetas pero un completo inútil cuando se trata de cultivar alfalfa. Y lo que es más, no le importaba nada. Mientras sus vallas se caían por el abandono y sus cerdos se colaban en sus campos de maíz, Newton construía ruedas de agua en un arroyo o simplemente leía. Tal como escribe Westfall, se rebeló contra una vida desperdiciada «pastoreando ovejas y paleando estiércol[169]».
La mayoría de los físicos que conozco también lo harían.
Por fortuna, intervinieron el tío de Newton y su antiguo maestro en Grantham. Reconociendo el genio de Newton, hicieron que lo enviasen al Trinity College, en Cambridge, en junio de 1661. Allí se vería expuesto al pensamiento científico de su época, aunque solo fuera para un día rebelarse contra él y cambiarlo de raíz. Sus sirvientes celebraron su partida, no porque se alegrasen por él, sino porque siempre los había tratado mal. Su personalidad, según decían, solo valía para la universidad.
Cambridge se convertiría en el hogar de Newton durante más de tres décadas y media, en la zona cero de la revolución del pensamiento que estallaría durante aquel tiempo. Aunque esa revolución suele presentarse como una serie de epifanías, sus esfuerzos por comprender los secretos del universo se parecían más a una guerra de trincheras, a una extenuante batalla tras otra para conquistar terreno de una forma gradual y a elevado precio en tiempo y energía. Nadie de menor genio o dedicación menos fanática habría perseverado en esa lucha.
Al principio, incluso las condiciones de vida de Newton eran motivo de esfuerzo. Cuando Isaac se mudó a Cambridge, su madre le concedió un estipendio de solo diez libras, aunque ella gozaba de unos confortables ingresos anuales de más de setecientas libras. El estipendio lo situaba en lo más bajo de la estructura social de la universidad de Cambridge.
Un sizar, en la rígida jerarquía de Cambridge, era un estudiante pobre que recibía comida y matrícula gratis y ganaba una pequeña cantidad de dinero asistiendo a estudiantes más ricos: peinándolos, limpiándoles las botas, trayéndoles pan y cerveza, y vaciando sus orinales. Para Newton, ser un sizar habría sido una promoción: él era un subsizar, alguien con los mismos deberes domésticos que un sizar pero que tenía que pagarse la comida y las clases a las que asistía. Debió de ser duro para Newton haber de tragar con convertirse en sirviente de la misma casta de chicos que siempre lo habían atormentado en Grantham. Así que en Cambridge pudo probar lo que se siente viviendo «abajo».
En 1661, las Consideraciones y demostraciones matemáticas sobre dos nuevas ciencias de Galileo apenas tenían dos décadas, y como el resto de sus obras, todavía no habían afectado demasiado el plan de estudios de Cambridge, lo que significa que a cambio de su servicio y sus pagos, Newton recibía lecciones que trataban de todo lo que los estudiosos conocían sobre el mundo, siempre y cuando esos estudiosos fuesen Aristóteles: cosmología aristotélica, ética aristotélica, lógica aristotélica, filosofía aristotélica, física aristotélica, retórica aristotélica… Leía a Aristóteles en sus escritos originales, leyó todos los libros del plan de estudios, pero no acabó ninguno porque, como a Galileo, los argumentos de Aristóteles no le convencían.
Pese a ello, los escritos de Aristóteles constituían para Newton el primer acercamiento un poco sofisticado al conocimiento, y aunque lo repudiase, de ese ejercicio aprendió a abordar diversos problemas de la naturaleza y a pensar en ellos de una forma coherente y organizada, y desde luego con una asombrosa dedicación. De hecho, Newton, que era soltero y raramente se solazaba en actividades de ocio, trabajaba más que nadie a quien yo haya conocido, dieciocho horas al día, siete días a la semana. Es un hábito que mantendría durante muchas décadas.
Desengañado con todos los escritos de Aristóteles que formaban el plan de estudio de Cambridge, Newton comenzó su largo camino hacia una nueva manera de pensar en 1664, cuando sus notas indican que ya había iniciado su propio programa de estudio, leyendo y asimilando la obra de los grandes pensadores europeos modernos, entre ellos Kepler, Galileo y Descartes. Aunque no fue un estudiante especialmente distinguido, Newton se las arregló para graduarse en 1665 y recibir el título de estudiante becado, con cuatro años de apoyo financiero para nuevos estudios.
Entonces, en el verano de 1665, un terrible brote de peste afligió a Cambridge y la universidad tuvo que cerrar hasta la primavera de 1667. Mientras permanecía cerrada, Newton se retiró a la casa de su madre en Woolsthorpe y allí prosiguió su trabajo en solitario. En algunas historias, el año 1666 recibe el nombre de annus mirabilis de Newton. Según la leyenda, Newton, aposentado en la granja familiar, inventó el cálculo matemático, descifró las leyes del movimiento, y, tras ver cómo caía una manzana, descubrió su ley de la gravitación universal.
Ese, desde luego, no habría sido un mal año. Pero no ocurrió así. La teoría de la gravitación universal no era tan simple como una sola idea brillante que se pudiera aprehender por algún tipo de revelación, era todo un cuerpo de trabajo que constituyó la base de toda una nueva tradición científica [170].
Y lo que es más, esa imagen de las historias ilustradas que nos muestran a un Newton que ve caer una manzana es destructiva, porque da a entender que los físicos progresan por medio de ideas luminosas, grandiosas y súbitas, como alguien que después de golpearse la cabeza puede predecir las tormentas. En realidad, incluso para Newton, el progreso requirió muchos golpes en la cabeza, y muchos años para procesar sus ideas y alcanzar una verdadera comprensión de todo lo que implicaban. Los científicos soportamos el dolor que causan esos golpes porque, como los jugadores de fútbol americano, amamos el deporte más de lo que odiamos el dolor.
Una de las razones que llevan a muchos historiadores a dudar de aquellas milagrosas revelaciones es que las ideas sobre física que se le ocurrieron a Newton durante el periodo de la peste no llegaron todas al mismo tiempo, sino a lo largo de tres años, de 1664 a 1666. Además, no se produjo ninguna revolución newtoniana al final de ese periodo: en 1666, ni siquiera Newton era newtoniano. Todavía concebía el movimiento uniforme como algo que surge en el interior del cuerpo en movimiento, y por el término «gravedad», entendía alguna propiedad inherente que surge del material del que está hecho un objeto, no una fuerza externa ejercida por la Tierra. Las ideas que desarrolló entonces fueron solo un principio, y un principio que lo dejó perplejo y debatiéndose acerca de muchas cosas, incluidas las fuerza, la gravedad y el movimiento, es decir, todo lo básico que más tarde constituiría el tema de su gran obra, Principia Mathematica.
Podemos hacernos una buena idea de lo que Newton pensaba en la granja de Woolsthorpe porque, como era su costumbre, lo escribió todo en un enorme cuaderno, más vacío que lleno, que había heredado del reverendo Smith. Newton tuvo suerte de tener ese cuaderno y, en años posteriores, de tener el papel suficiente para los millones de palabras y anotaciones matemáticas con las que registró su trabajo.
Ya he mencionado innovaciones como la universidad y el uso de ecuaciones matemáticas, pero hay otros facilitadores de la revolución científica que no celebramos porque los damos por supuestos, entre ellos la creciente disponibilidad de papel. Por suerte para Newton, el primer molino de papel con éxito comercial se había establecido en 1588. Igual de importante es el hecho de que el servicio de correos de su majestad, el Royal Mail, se había abierto al público en 1635, lo que permitió que el antisocial Newton mantuviera correspondencia en papel con otros científicos, incluso en lugares lejanos. Pero el papel todavía era un bien preciado en tiempos de Newton, por lo que tenía en gran aprecio el cuaderno, que él llamaba Waste Book (literalmente, «Cuaderno de desechos»). En él hallamos los detalles de la aproximación de Newton a la física del movimiento, un raro atisbo a las ideas en desarrollo de una mente brillante.
Sabemos, por ejemplo, que el 20 de enero de 1665 Newton empezó a escribir en su Waste Book una extensa indagación matemática, no filosófica, del movimiento. Algo esencial para sus análisis fue el desarrollo del cálculo, un nuevo tipo de matemática diseñada para el análisis del cambio.

12.jpg
Los gráficos de (a) a (c) representan el movimiento uniforme a (a) velocidad cero (estacionario), (b) velocidad baja, y (c) velocidad alta. El gráfico (d) representa un movimiento acelerado.

En la tradición de Oresme, Newton concebía el cambio como la pendiente de una curva. Por ejemplo, si en un gráfico representamos en el eje vertical la distancia que recorre un objeto, frente al tiempo en el eje horizontal, la pendiente de la línea corresponde a su velocidad.
Así pues, una línea horizontal representa una posición que no cambia, mientras que una línea inclinada o una curva indican que la posición del objeto está cambiando drásticamente, que se está moviendo a gran velocidad.
Pero Oresme y otros habían interpretado los gráficos de una forma más cualitativa a como lo hacemos hoy. No se entendía, por ejemplo, que un gráfico de la distancia en función del tiempo representase, en cada punto, la distancia recorrida en el tiempo indicado por la coordenada del eje horizontal. Tampoco se interpretaba la pendiente de ese gráfico como la velocidad del objeto en cada momento. Para los físicos, antes de Newton, la velocidad era velocidad media, la distancia total recorrida dividida por el tiempo que había durado el viaje.
Eran, además, cálculos muy poco precisos, pues el tiempo solía medirse en horas, días o incluso semanas. No fue posible medir periodos cortos de tiempo hasta 1670, cuando el relojero inglés William Clement inventó el reloj de péndulo, que por fin permitió medir el tiempo con precisión de segundos.
Pasar de los promedios a los valores de los gráficos y sus pendientes en cada punto individual fue la revelación de los análisis de Newton. Abordó un problema que nadie había atacado antes: ¿cómo se define la velocidad instantánea del objeto, su velocidad en cada instante? ¿Cómo se divide la distancia recorrida por el tiempo transcurrido cuando el intervalo de tiempo no es más que un único punto? E incluso, ¿tiene eso algún sentido? En su Waste Book, Newton se ocupó de este problema.
Si a Galileo le gustaba imaginar «casos límite», como un plano que se inclina más y más hasta que se acerca a la vertical, Newton llevó la idea a un nuevo extremo. Para definir la velocidad instantánea en un momento dado en el tiempo, imaginó primero que calculaba la velocidad media del modo tradicional, sobre algún intervalo de tiempo que incluía el punto en cuestión. Luego imaginaba algo nuevo y abstracto: encogía ese intervalo más y más hasta que, en el caso límite, su tamaño se acercaba a cero.
Dicho de otro modo, Newton imaginó que un intervalo se podía hacer tan pequeño que sería menor que cualquier número finito, pero mayor que cero. Hoy a la longitud de un intervalo así la llamamos «infinitesimal». Si se calcula la velocidad media sobre un intervalo de tiempo y se reduce este hasta el infinitesimal, se obtiene la velocidad del objeto en un instante, su velocidad instantánea.
Las reglas matemáticas para hallar la velocidad instantánea en un momento dado (o, de manera más general, la pendiente de una curva en un punto determinado) constituyen la base del cálculo matemático[IX].
Si los átomos son los indivisibles de los que están hechos los compuestos, los infinitesimales son como indivisibles que construyen espacio y tiempo.
Con su cálculo, Newton había inventado la matemática del cambio. En particular, en lo que atañe al movimiento, introdujo una definición sofisticada de la velocidad instantánea a una cultura que acababa de crear su primera técnica de medición de la velocidad: lanzando una cuerda con nudos atada a un tronco por la popa de un navío y contando el número de nudos que pasaban en un tiempo determinado. Ahora, por primera vez, tenía sentido hablar de la velocidad de un objeto (o del cambio de cualquier cosa) en un momento dado.
Hoy usamos el cálculo para describir cambios de todo tipo: el flujo del aire sobre las alas de un avión, el crecimiento de las poblaciones y la evolución de los fenómenos atmosféricos, las subidas y bajadas de la bolsa, la evolución de las reacciones químicas. En cualquier industria en la que se pueda hacer el gráfico de una cantidad, en todas las áreas de la ciencia moderna, el cálculo es una herramienta esencial [X].
El cálculo permitiría a Newton relacionar la cantidad de fuerza aplicada a un objeto en un tiempo dado con su cambio en velocidad en ese momento. Permitiría también sumar todos esos cambios infinitesimales a la velocidad para obtener la trayectoria recorrida por un objeto en función del tiempo. Pero esas leyes y métodos tardarían décadas en llegar.
En la física, como en la matemática, el Waste Book de Newton llegó mucho más lejos de lo que nadie pudiera imaginar entonces. Antes de Newton, por ejemplo, la colisión de objetos se veía como una especie de competición entre sus constituciones internas, como dos musculosos gladiadores esforzándose por sacar al contrincante de la arena. En cambio, en la forma de pensar de Newton cada objeto se analiza únicamente en términos de la causa que se le aplica, es decir, de la fuerza.
Pese a estos progresos en la forma de pensar, en los más de cien axiomas del Waste Book relacionados con este problema Newton proporciona solamente una concepción intrincada y defectuosa de lo que entiende por «fuerza». En particular, no da ninguna pista sobre cómo cuantificar esa fuerza, por ejemplo la que ejerce la atracción de la Tierra o la que causa el «cambio de movimiento» de un objeto. La imagen que Newton comenzó a dibujar durante sus años en Woolsthorpe es algo que iría perfeccionando durante casi veinte años, algo, por consiguiente, muy alejado de la chispa necesaria para encender una revolución newtoniana.
El físico Jeremy Bernstein relata la historia de una visita del físico austriaco Wolfgang Pauli a Estados Unidos en 1958. Pauli presentó una teoría en la Universidad de Columbia a una audiencia que incluía a Niels Bohr, que se mostró escéptico. Pauli le concedió que a primera vista su teoría podía parecer un poco loca, pero Bohr le replicó que no, que el problema era que su teoría no era lo bastante loca. Pauli se dirigió entonces a la audiencia y se lo discutió: «¡Sí, mi teoría es lo bastante loca!». Bohr insistió: «¡No, tu teoría no es lo bastante loca!». Pronto los dos famosos científicos se andaban persiguiendo por la tarima gritándose como dos chiquillos [171].
Si explico esta historia es para remarcar que todos los físicos, y todos los innovadores, tienen más ideas equivocadas que correctas, y si son buenos en lo que hacen, también tienen ideas locas, que son las mejores, aunque naturalmente solo si son correctas. Separar lo correcto de lo incorrecto no es un proceso sencillo; puede llevar mucho tiempo y esfuerzo. Por eso debemos sentir algo de simpatía hacia las personas que tienen ideas extravagantes. Newton fue uno de ellos: tras un principio tan prometedor durante los años de la peste, pasó buena parte de la siguiente fase de su vida persiguiendo ideas equivocadas que muchos de los estudiosos que después analizaron su obra consideraban locuras.
Todo comenzó bastante bien. En la primavera de 1667, poco después de que Cambridge volviera a abrir sus puertas, Newton regresó al Trinity College. Aquel otoño, Trinity celebró unas oposiciones a plazas. Todos, en algún momento, nos enfrentamos a situaciones concretas que tienen un efecto desmesurado sobre nuestro futuro: retos personales, entrevistas de trabajo que pueden cambiar nuestras vidas, pruebas de entrada a universidades o colegios profesionales que más tarde pueden ejercer una gran influencia sobre nuestras oportunidades. La oposición del Trinity College fue, para Newton, todo eso en un solo paquete, pues su resultado habría de determinar si aquel joven de veinticuatro años podría permanecer en la universidad en una posición más elevada llamadafellow o si, por el contrario, tendría que regresar a una vida dedicada a pastorear ovejas y palear estiércol [172].
Sus perspectivas no parecían buenas, pues no se había celebrado una oposición en el Trinity College desde hacía tres años y solo había nueve plazas, pero muchos más candidatos, muchos de ellos con conexiones políticas. Algunos incluso tenían cartas firmadas por el rey ordenando su elección. Sin embargo, Newton fue elegido.
Con su carrera de granjero definitivamente a sus espaldas, uno pensaría que Newton se calzó y se metió de lleno en la tarea de convertir los pensamientos de su Waste Book en el cálculo y el movimiento en las leyes de Newton. Pero no lo hizo, sino que, durante los años siguientes, realizó algunas notables investigaciones en dos campos muy distintos, óptica y matemática, y especialmente álgebra. Esta última le valió de mucho, pues pronto fue visto como un genio por la pequeña comunidad de matemáticos de Cambridge. En consecuencia, cuando el influyente Isaac Barrow dejó su prestigioso puesto como profesor Lucasiano de matemáticas (el que siglos más tarde ocuparía Stephen Hawking), a todos los efectos dispuso que Newton ocupase su cargo [173].
El salario era fenomenal para la época: la universidad de Newton estaba ahora dispuesta a darle diez veces más de lo que su madre había estado dispuesta a proporcionarle: cien libras al año.
Los trabajos de Newton sobre óptica no le reportaron tantos beneficios. Cuando todavía era un estudiante, había leído los trabajos recientes sobre óptica y sobre la luz del científico de Oxford Robert Boyle (1627-1691), que también había sido un pionero de la química, y de Robert Hooke (1635-1703), un hombre «encorvado y de pálido semblante» que era buen teórico y mejor experimentador, como había demostrado cuando trabajaba como ayudante de Boyle. Los trabajos de Boyle y Hooke inspiraron a Newton, aunque nunca lo admitió. Al poco tiempo ya no solo calculaba, también experimentaba, puliendo lentes y haciendo mejoras en el telescopio.
Newton abordó el estudio de la luz desde todos los ángulos[174].
Apretó un punzón contra su propio ojo hasta que vio blanco y círculos de colores. ¿Venía la luz de la presión? Miró al Sol tanto tiempo como pudo aguantarlo (tanto, que tardó días en recuperarse) y observó que cuando dejaba de mirar el Sol, los colores aparecían distorsionados. ¿Era el color real o producto de la imaginación?
Para estudiar el color en el laboratorio, Newton practicó un orificio en la persiana de la única ventana que había en su estudio para permitir el paso de un rayo de sol. Su luz blanca era, a decir de los filósofos, la más pura, la luz completamente desprovista de color. Hooke había hecho pasar esa luz a través de prismas y había observado que de estos emergía luz de colores, llegando a la conclusión de que las sustancias transparentes como el prisma producen color. Newton también hizo pasar la luz a través de prismas, pero llegó a una conclusión distinta. Observó que, si bien los prismas dividen la luz blanca en colores, cuando la luz que pasaba era de color, este emergía inalterado. Al final, Newton llegó a la conclusión de que el cristal no producía el color, sino que, al torcer de distinto modo los rayos de distintos colores, lo que hacía era separar de la luz blanca los colores que la componen. La luz blanca no era pura, proclamó Newton, sino una mezcla.
Observaciones como esta llevaron a Newton a una teoría de la luz y el color que desarrolló entre 1666 y 1670. El resultado fue la conclusión (le enfureció que Hooke la llamase hipótesis) de que la luz está compuesta de rayos de diminutos «corpúsculos», cual átomos. Hoy sabemos que los detalles concretos de la teoría de Newton son erróneos. Es cierto que la idea de los corpúsculos de luz sería resucitada por Einstein varios siglos más tarde; hoy los llamamos fotones. Pero los corpúsculos de luz de Einstein son partículas cuánticas que no obedecen la teoría de Newton.
Aunque los trabajos de Newton sobre el telescopio le reportaron fama, la idea de la luz como corpúsculos fue recibida en su tiempo, como más tarde en tiempos de Einstein, con gran escepticismo. En el caso de Robert Hooke, cuya teoría describía la luz como ondas, fue recibida con hostilidad. Más aún, Hooke se quejó de que Newton solo había creado variaciones sobre los experimentos que él había realizado anteriormente y los había hecho pasar por propios.
Varios años saltándose las comidas y pasando las noches sin dormir para investigar sobre óptica habían acabado para Newton en una batalla intelectual que pronto se tornó acre y rabiosa. Para empeorar las cosas, Hooke era un hombre impulsivo que disparaba desde la cintura y redactaba sus respuestas a Newton en apenas unas horas, mientras que Newton, meticuloso y cuidadoso con todo lo que hacía, sentía la necesidad de trabajar a fondo sus réplicas. En una ocasión, tardó meses.
Aun dejando a un lado la animosidad personal, Newton se había estrenado en la vertiente social del método científico, en la discusión pública y el debate de las ideas. No le gustó en absoluto, y siendo alguien que ya tendía al aislamiento, se retiró.
Aburrido con las matemáticas y furioso con las críticas hacia su óptica, a mediados de la década de 1670 Newton, con poco más de treinta años pero ya con el pelo cano y por lo general despeinado, prácticamente cortó lazos con toda la sociedad científica. Se mantendría aislado durante la década siguiente.
La aversión a la crítica no era la única causa de su nuevo y casi total aislamiento: durante los últimos años, mientras aún trabajaba sobre matemática y óptica, Newton dirigió la atención de sus semanas de cien horas de trabajo hacia dos nuevos intereses que no tenía ninguna prisa por discutir con nadie. Se trata de los «locos» programas de investigación por los que tanto ha sido criticado desde entonces. Desde luego no cabe duda de que caían fuera de los cauces habituales: el análisis matemático y textual de la Biblia y la alquimia.
A los estudiosos de Newton, la decisión de dedicarse a la teología y la alquimia suele parecerles incomprensible, como si hoy un científico renunciase a enviar artículos a Nature para escribir panfletos de cienciología. Sin embargo, esos juicios no toman en cuenta la verdadera ambición de aquella empresa, pues lo que unía sus esfuerzos en física, teología y alquimia era un objetivo común: la lucha por entender la verdad sobre el mundo. Vale la pena considerar esos esfuerzos brevemente, no porque resultasen ser correctos, no porque prueben que Newton tenía episodios de locura, sino porque resaltan la frontera, a menudo tan fina, que separa la investigación científica fructífera de la infructuosa.
Newton creía que la Biblia prometía que la verdad les sería revelada a los hombres piadosos, aunque algunos de sus elementos no fuesen evidentes en una simple lectura del texto. También creía que los hombres píos del pasado, entre ellos grandes alquimistas como el médico suizo Paracelso, habían adivinado conocimientos importantes que habían incluido en su obra de forma cifrada para así ocultarlos a los infieles. Después de encontrar su ley de la gravedad, Newton quedó convencido de que Moisés, Pitágoras y Platón ya la conocían[175].
Que Newton trasladara esas ideas a un análisis matemático de la Biblia es comprensible, dados sus talentos. Su trabajo lo llevó a lo que consideraba fechas precisas para la creación, el arca de Noé y otros acontecimientos bíblicos. También calculó, y revisó repetidas veces, una predicción del fin del mundo basada en la Biblia[176].
Una de sus últimas predicciones era que el mundo se acabaría en algún momento entre 2060 y 2344. (No sé si será así, pero curiosamente coincide con algunos escenarios de cambio climático global).
Además, Newton llegó a dudar de la autenticidad de algunos pasajes y quedó convencido de que un fraude masivo había corrompido el legado de la primera Iglesia para apoyar la idea de Cristo como Dios, una idea que él consideraba idólatra. En suma, no creía en la Trinidad, lo cual resulta irónico para un profesor del Trinity College. También era peligroso, pues casi con seguridad habría perdido su cargo, y quizá mucho más, si sus puntos de vista hubieran llegado a oídos de según qué personas. Pero aunque Newton estaba decidido a reinterpretar el cristianismo, se mostró muy circunspecto acerca de permitir que su trabajo quedase expuesto al público, pese al hecho de que era este trabajo sobre religión, y no su revolucionario trabajo en ciencia, lo que Newton consideraba más importante.
La otra pasión de Newton durante aquellos años, la alquimia, también consumió una gran cantidad de tiempo y energía, y aquellos estudios proseguirían durante treinta años, mucho más tiempo del que dedicó a sus indagaciones sobre física. También consumieron dinero, pues Newton montó un laboratorio de alquimia y una biblioteca. Asimismo en este caso nos equivocaríamos si desestimáramos sus esfuerzos como algo no científico, puesto que, al igual que en sus otras empresas, realizó sus investigaciones con sumo cuidado y, dadas las creencias subyacentes de Newton, con buen raciocinio. Una vez más, Newton llegó a conclusiones que hoy nos resultan difíciles de entender porque su razonamiento se inscribe en un contexto más amplio que hoy nos parece completamente extraño.
Hoy pensamos en los alquimistas como personas con barba y toga que cantan conjuros mientras convierten nuez moscada en oro. Efectivamente, el primer alquimista que conocemos fue un egipcio llamado Bolos de Mendes, que vivió hacia 200 a. C. y finalizaba cada «experimento» con el conjuro: «Una naturaleza se regocija en otra. Una naturaleza destruye a otra. Una naturaleza domina a otra», como si desgranara lo que suele pasarle a una pareja después de casarse [177].
Pero las naturalezas a las que se refería Bolos eran sustancias químicas, y sin duda tenía cierto conocimiento de las reacciones químicas. Newton creía que, en el pasado lejano, estudiosos como Bolos habían descubierto verdades profundas que desde entonces se habían perdido pero que se podían recuperar analizando los mitos griegos, que estaba convencido que eran recetas alquímicas escritas en código.
En sus investigaciones alquímicas, Newton mantuvo su meticuloso enfoque científico, realizando mil y un experimentos cuidadosos y tomando abundantes notas. El futuro autor de los Principia, que a menudo es considerado el mejor libro de la historia de la ciencia, también pasó años garabateando cuadernos llenos de observaciones de laboratorio como estas: «Disolver verde león volátil en la sal central de Venus y destilar. Este espíritu es el león verde Venus, el Dragón Babilónico que todo lo mata con su veneno, pero conquistado tras ser mitigado por las Tórtolas de Diana, es el Enlace de Mercurio [178]».
Cuando comencé mi carrera en la ciencia, idolatraba a los héroes habituales, los Newtons y Einsteins de la historia y los genios contemporáneos como Feynman. Entrar en un campo que ha producido a todos esos grandes pone mucha presión sobre un joven científico. Sentí esa presión cuando recibí mi nombramiento como profesor en Caltech[179].
Me sentí como la noche anterior a mi primer día en secundaria, cuando me preocupaba por las clases de gimnasia, y sobre todo por ducharme a la vista de todos los otros niños. En la física teórica, uno también se desnuda, no físicamente, sino intelectualmente, mientras los otros miran y juzgan.
Esas inseguridades raramente se comentan o se comparten, pero son comunes. Cada físico tiene que encontrar su propia manera de gestionar esa presión, pero la consecuencia que todos tienen que evitar para tener éxito es la tendencia a temer equivocarse. Se dice de Thomas Edison que solía aconsejar: «Para tener una gran idea, hay que tener muchas». Y sin duda cada innovador acaba en más callejones sin salida que en gloriosos bulevares, así que el miedo a girar en la calle equivocada garantiza que nunca se va a llegar a ningún lugar interesante. Cuánto me hubiera gustado saber, en aquel momento de mi carrera, de todas las ideas equivocadas y años perdidos de Newton.
Para quienes, como yo, se reconfortan sabiendo que personas que a veces son brillantes y aciertan otras veces se equivocan, tranquiliza saber que incluso un genio como Newton podía descarriarse. Averiguó que el calor es el resultado del movimiento de minúsculas partículas de las que creía que se componía toda la materia, pero cuando pensó que tenía tuberculosis, bebió una «cura» de trementina, agua de rosas, cera de abejas y aceite de oliva. (La cura supuestamente servía también para los pechos irritados y la mordedura de un perro rabioso). Sí, inventó el cálculo, pero también creyó que la planta del templo perdido del rey Salomón, en Jerusalén, contenía pistas matemáticas sobre el fin del mundo.
¿Cómo llegó Newton a desviarse tanto de su camino? Cuando se examinan las circunstancias, hay un factor que destaca sobre los otros: su aislamiento. El aislamiento intelectual llevó a la proliferación de la mala ciencia en el mundo árabe, y lo mismo debía ocurrirle a Newton, aunque en su caso el aislamiento se lo imponía él mismo, pues se guardaba para sí sus creencias sobre religión y alquimia, decidido a no arriesgarse al ridículo o incluso a la censura exponiendo aquellas ideas al debate intelectual. No había un «buen Newton» y un «mal Newton», un Newton racional y otro irracional, escribió el filósofo de Oxford W. H. Newton-Smith[180].
Si Newton se desvió fue por no someter sus ideas a debates y desafíos «en el foro público», que es una de las más importantes «normas de la institución de la ciencia».
Alérgico a las críticas, Newton dudaba igualmente de compartir las revolucionarias investigaciones que había realizado sobre la física del movimiento durante los años de la peste. Cuando ya llevaba quince años en su puesto de profesor Lucasiano, aquellas ideas seguían siendo un trabajo inédito e inacabado. En consecuencia, en 1684, a la edad de cuarenta y un años, este trabajador incansable y antiguo prodigio no había producido más que una pila de notas desorganizadas y ensayos sobre alquimia y religión, un estudio lleno de tratados matemáticos inacabados, y una teoría del movimiento que todavía era confusa e incompleta. Newton había realizado investigaciones detalladas en diversos campos pero no había alcanzado conclusiones sólidas, dejando ideas sobre matemática y física que eran como una solución sobresaturada de sal: llena de contenido que aún no ha cristalizado.
Tal era el estado de la carrera de Newton en aquel momento. Dice el historiador Westfall: «Si Newton hubiese fallecido en 1684 y sus papeles hubieran sobrevivido, habríamos sabido por ellos que había vivido un genio. Sin embargo, en lugar de alabarlo como una figura que conformó el moderno intelecto, como mucho lo mencionaríamos en un breve párrafo para lamentar su fracaso en alcanzar la cima [181]».
Que no fuese así el destino de Newton no se debe a ninguna decisión consciente de publicar y diseminar su trabajo. Al contrario, en 1684 el curso de la historia científica se vio alterado por un encuentro casi casual, una interacción con un colega que proporcionó justamente las ideas y el estímulo que Newton necesitaba. De no haber sido por aquel encuentro, la historia de la ciencia, y el mundo de nuestros días, hubieran sido muy distintos, y no para mejor.
La semilla que crecería hasta convertirse en el mayor avance de la ciencia que el mundo ha visto germinó después de que Newton conociera a un colega que casualmente pasaba por Cambridge en el calor del final del verano.
En enero de aquel trascendental año, el astrónomo Edmond Halley (el que da nombre al cometa) había asistido a una reunión de la Royal Society de Londres, una influyente sociedad intelectual dedicada a la ciencia, para discutir un tema candente del día con otros dos colegas. Décadas antes, con la ayuda de datos planetarios de una precisión sin precedentes recogidos por el noble alemán Tycho Brahe (1546-1601), Johannes Kepler había descubierto tres leyes que parecían describir las órbitas de los planetas. Había declarado que las órbitas de los planetas eran elipses con el Sol en uno de los focos, y había identificado ciertas reglas que esas órbitas obedecen, por ejemplo, que el cuadrado del tiempo que tarda un planeta en completar una órbita es proporcional al cubo de su distancia media al Sol. En cierto sentido, sus leyes eran hermosas y concisas descripciones de cómo se mueven los planetas por el espacio, pero en otro sentido eran observaciones vacías, enunciados ad hoc que no proporcionaban ninguna explicación de por qué debían seguir esas órbitas.
Halley y sus dos colegas sospechaban que las leyes de Kepler reflejaban alguna verdad más profunda. En particular, conjeturaron que las leyes de Kepler podían obtenerse si se suponía que el Sol empujaba a cada planeta hacia sí con una fuerza que se hacía más débil en proporción al cuadrado de la distancia al planeta, una forma matemática que se denomina «ley del inverso del cuadrado».
Que una fuerza que emana en todas las direcciones desde un cuerpo distante como el Sol pudiera disminuir en proporción al cuadrado de la distancia a ese cuerpo es algo que puede argumentarse a partir de consideraciones geométricas. Imaginemos una gigantesca esfera, tan grande que el Sol es un simple punto en su centro. Todos los puntos de la superficie de esa esfera serán equidistantes al Sol, así que, a falta de una razón para creer de otro modo, uno pensaría que la influencia física del Sol (en esencia, su «campo de fuerza») debería extenderse uniformemente por la superficie de la esfera.
Ahora imaginemos una esfera que sea, por ejemplo, dos veces más grande. Las leyes de la geometría nos dicen que cuando se dobla el radio de una esfera, se cuadriplica su superficie, de manera que la fuerza de atracción del Sol se repartiría ahora sobre un área cuatro veces mayor. Tiene sentido pensar, entonces, que en un punto cualquiera de esa esfera mayor, la atracción del Sol será una cuarta parte de lo que era en la menor. Así es como funciona la ley del inverso del cuadrado: a medida que nos alejamos, la fuerza disminuye en proporción al cuadrado de la distancia.
Halley y sus colegas sospechaban que tras las leyes de Kepler había una ley del inverso del cuadrado, pero ¿cómo podían demostrarlo? Uno de ellos, Robert Hooke, dijo que podía hacerlo. El otro, Christopher Wren, más conocido hoy como arquitecto pero que también era un conocido astrónomo, le ofreció a Hooke un premio a cambio de la prueba. Hooke lo rechazó. Era bien conocido por su carácter veleidoso, pero las razones que dio resultan sospechosas: dijo que se guardaría de revelar la demostración para que otros, al fracasar en sus intentos por resolver el problema, pudieran apreciar su dificultad. Quizá Hooke sí que resolvió el problema. Quizá también diseñó un dirigible que podía volar hasta Venus. En cualquier caso, nunca proporcionó la demostración.
Siete meses después de aquel encuentro, Halley, que entonces estaba en Cambridge, decidió buscar al solitario profesor Newton. Como Hooke, Newton dijo que había hecho algunas indagaciones que podían probar la conjetura de Halley. Como Hooke, no se las enseñó. Rebuscó entre algunos papeles pero, al no hallar la prueba, le prometió que la buscaría y se la enviaría a Halley más tarde. Pasaron los meses y Halley no recibía nada. Es inevitable preguntarse qué pasaba por la mente de Halley. Les pregunta a dos personas hechas y derechas y sofisticadas que le ayuden a resolver un problema, y uno le dice, «conozco la respuesta, ¡pero no te la doy!», y el otro es como si le hubiera dicho, «el perro se comió mis deberes». Wren seguía conservando la recompensa en sus manos.
Newton finalmente encontró la prueba que estaba buscando, pero al examinarla de nuevo halló que era errónea. Sin embargo, no se dio por vencido; volvió a revisar sus ideas y por fin dio con la prueba. Aquel noviembre, le envió a Halley un tratado breve de nueve páginas en el que demostraba que las tres leyes de Kepler eran efectivamente consecuencias matemáticas de una ley de atracción que seguía el inverso del cuadrado. A aquel breve tratado le dio el título de De Motu Corporum in Gyrum (Sobre el movimiento de los cuerpos en órbita).
Halley estaba entusiasmado. Reconoció en el trabajo de Newton un tratamiento revolucionario, y quería que la Royal Society lo publicara. Pero Newton puso reparos. «Ahora ando detrás de esta cuestión», le dijo, «y preferiría conocerlo hasta el fondo antes de publicar mis artículos.» [182] ¿Newton «preferiría conocerlo»? Dado que lo que sucedió a continuación fue un esfuerzo hercúleo que produjo lo que posiblemente sea el más significativo descubrimiento intelectual jamás realizado, aquellas palabras constituyen una de las mayores expresiones de comedimiento de toda la historia. Newton llegaría «hasta el fondo» demostrando que tras la cuestión de las órbitas planetarias hay una teoría universal del movimiento y la fuerza que se aplica a todos los objetos, e igual en el cielo que en la Tierra.
Durante los dieciocho meses siguientes, Newton no hizo otra cosa que trabajar en aquel tratado breve que se convertiría en los Principia. Era una máquina de física. Siempre había tenido el hábito, cuando se sumergía en un problema, de saltarse las comidas e incluso las horas de sueño. Según una fuente, su gato engordó a causa de la comida que él dejaba en la bandeja, y su antiguo compañero de habitación de la universidad explicó que a menudo encontraba a Newton por la mañana en el mismo lugar donde lo había dejado la noche anterior, todavía trabajando en el mismo problema. Pero esta vez Newton llegó a nuevos extremos. Cortó prácticamente todo contacto humano. Raramente salía de su estancia, y en las pocas ocasiones en que se acercaba al comedor de la universidad, mordisqueaba cualquier cosa de pie y enseguida regresaba a sus habitaciones.
Por fin Newton había cerrado la puerta de su laboratorio de alquimia y había archivado sus investigaciones teológicas. Siguió pronunciando sus clases, tal como se requería de él, pero aquellas conferencias parecían extrañamente oscuras e imposibles de seguir. Más tarde se supo por qué: Newton simplemente se había presentado a cada sesión de clase para leer borradores de sus Principia.
Newton no había avanzado demasiado en su trabajo sobre la fuerza y el movimiento durante las décadas que habían transcurrido desde que había sido votado fellow de Trinity; no obstante, en los años 1680 era un intelecto mucho más sólido que en los años de la peste, en la década de 1660. Poseía más madurez matemática y, gracias a sus estudios de alquimia, más experiencia científica. Algunos historiadores creen incluso que fueron sus años de estudio de la alquimia los que hicieron posible el gran descubrimiento de la ciencia del movimiento que le permitiría escribir los Principia.
Irónicamente, uno de los catalizadores del gran descubrimiento de Newton fue una carta de Robert Hooke que recordaba haber recibido cinco años antes. La idea que Hooke proponía era que el movimiento orbital podía verse como la suma de dos tendencias distintas. Pensemos en un objeto (como un planeta) que describe una órbita circular alrededor de otro objeto que lo atrae (como el Sol). Supongamos que el cuerpo en órbita tiene tendencia a seguir en línea recta, es decir, a salirse de su órbita curva y salir disparado en línea recta, como un coche cuando el conductor se sale de una curva a causa de la lluvia. Es lo que los matemáticos llaman salirse por la tangente.
Supongamos además que el cuerpo tiene una segunda tendencia, una atracción hacia el centro de la órbita. Los matemáticos llaman movimiento radial a este tipo de movimiento. Una tendencia hacia el movimiento radial, decía Hooke, puede complementar una tendencia hacia el movimiento tangencial, de manera que, conjuntamente, estas dos tendencias produjeran un movimiento orbital.

13.jpg
Movimiento circular representado como el resultado de un movimiento tangencial y un movimiento radial.

Es fácil entender que esa idea encontrara eco en Newton, quien, como se recordará, mejorando la ley de la inercia de Galileo había propuesto en su Waste Book que todos los cuerpos tienden a seguir moviéndose en línea recta salvo que sobre ellos actúe alguna causa externa, o fuerza. Para un cuerpo en órbita, la primera tendencia, la de salirse de la órbita en línea recta, se deriva de manera evidente de aquella ley. Newton comprendió que si añadía a ese esquema una fuerza que atrae un cuerpo hacia el centro de la órbita, conseguía proporcionar la causa del movimiento radial que constituía el segundo ingrediente esencial de Hooke.
Pero ¿cómo se describe todo eso matemáticamente? Y, en concreto, ¿cómo se establece la conexión entre la forma matemática particular de la ley del inverso del cuadrado y las propiedades matemáticas particulares de las órbitas que Kepler había descubierto?
Imaginemos que dividimos el tiempo en minúsculos intervalos. En cada intervalo, podemos pensar que el objeto se mueve tangencialmente en una pequeña cantidad y, al mismo tiempo, radialmente en una pequeña cantidad. El resultado neto de estos dos movimientos es que regresa a su órbita, pero un poco más adelante en el círculo respecto al lugar donde había empezado. Si repetimos esto muchas veces, el resultado es una órbita serrada, como se muestra en la figura acompañante.
Si en una órbita como esta hacemos los intervalos de tiempo lo bastante pequeños, el recorrido se puede hacer tan cercano a un círculo como uno quiera. Aquí es donde podían aplicarse los resultados de Newton sobre cálculo: si los intervalos de tiempos son infinitesimales, el recorrido es, a todos los efectos, un círculo.
Esta es la descripción de las órbitas que Newton pudo crear gracias a su nueva matemática. Imaginó un cuerpo en órbita que se mueve tangencialmente y «cae» radialmente, creando una línea serrada, y luego tomó el caso límite, en el que los segmentos rectos de la línea serrada se hacen minúsculos, hasta desaparecer. Así, la línea serrada se convertía en un círculo.
Visto así, el movimiento orbital no es más que el movimiento de un cuerpo que continuamente está siendo desviado de su recorrido tangencial por la acción de una fuerza que lo atrae desde algún centro. El movimiento se demuestra andando: usando la ley del inverso del cuadrado para describir la fuerza centrípeta en la matemática que describe las órbitas, Newton obtuvo las tres leyes de Kepler, tal como Halley le había pedido.
Demostrar que la caída libre y el movimiento orbital eran dos casos particulares de las mismas leyes de la fuerza y el movimiento fue uno de los mayores triunfos de Newton, pues de una vez y para siempre refutó la afirmación de Aristóteles de que cielo y tierra eran dominios distintos. Si las observaciones astronómicas de Galileo habían revelado que las características de otros planetas eran muy parecidas a las de la Tierra, el trabajo de Newton había demostrado que las leyes de la naturaleza también se aplican a otros planetas y no son únicas de nuestro planeta.
No obstante, ni siquiera en 1684 los descubrimientos de Newton sobre gravedad y movimiento fueron las repentinas revelaciones que sugiere la historia de la manzana. Al contrario, parece que la idea fundamental de que la gravedad es universal se fue formando en Newton de manera gradual mientras trabajaba en revisiones de los primeros borradores de los Principia[183].
Si anteriormente los científicos sospechaban que los planetas ejercían una fuerza de gravedad, creían que esta solo afectaba a sus satélites, no a otros planetas, como si cada planeta fuese un mundo particular, con sus propias leyes. De hecho, el propio Newton había comenzado por investigar solamente si la causa de que las cosas cayeran en la Tierra podía explicar también la atracción de la Luna por nuestro planeta, no la atracción de los planetas por el Sol.
Es testimonio de la creatividad de Newton, de su capacidad para pensar fuera de los límites de la convención, que acabase cuestionando esa sabiduría convencional. Escribió a un astrónomo inglés para pedirle datos sobre los cometas de 1680 y 1684, además de las velocidades orbitales de Júpiter y Saturno al acercarse el uno al otro. Tras realizar una serie de extenuantes cálculos sobre aquellos datos tan precisos y comparar los resultados, quedó convencido de que la misma ley de la gravedad se aplicaba a todos los lugares, en la Tierra, pero también entre los cuerpos celestes. Entonces revisó el texto de los Principia para reflejar esto.
La solidez de las leyes de Newton no recaía únicamente en su revolucionario contenido conceptual. Con ellas también podía hacer predicciones de una precisión sin precedentes y podía compararlas con los resultados de experimentos. Por ejemplo, usando datos sobre la distancia a la Luna y el radio de la Tierra y tomando en cuenta minucias como la distorsión de la órbita de la Luna a causa de la atracción por el Sol, la fuerza centrífuga debida a la rotación de la Tierra y las desviaciones de la forma de la Tierra respecto a una esfera perfecta, Newton llegó a la conclusión de que, a la latitud de París, un cuerpo dejado caer desde el reposo debería descender cuatro metros y cincuenta y ocho centímetros durante el primer segundo [184].
Esto, nos informaba el siempre meticuloso Newton, coincidía con experimentos con un ajuste mejor que una parte por tres mil[185].
Más aún, repitió concienzudamente el mismo experimento con varios materiales (oro, plata, plomo, cristal, arena, agua y trigo), y llegó a la conclusión de que cada cuerpo, con independencia de su composición, y tanto si está en la Tierra como en los cielos, atrae a todos los otros cuerpos y la atracción siempre responde a la misma ley.
Para cuando Newton acabó de llegar «hasta el fondo» de lo que había comenzado, De Motu Corporum in Gyrum había crecido de ocupar nueve páginas a llenar tres volúmenes, los Principia, o, con su título completo, Philosophiæ Naturalis Principia Mathematica ( Principios matemáticos de la filosofía natural).
En los Principia, Newton ya no trataba solamente del movimiento de los cuerpos en órbita, sino que elaboraba una teoría general de la fuerza y el movimiento. En el fondo estaban las interacciones entre tres cantidades: fuerza, momento (que llamaba cantidad de movimiento) y masa.
Acabamos de ver lo que hubo de esforzarse Newton para desarrollar sus leyes. Veamos ahora qué significan esas tres leyes. La primera es un refinamiento de la ley de la inercia de Galileo, con la importante idea añadida de que la fuerza es la causa del cambio:
Primera ley: Todo cuerpo persevera en su estado de reposo o movimiento uniforme y rectilíneo a no ser que sea obligado a cambiar su estado por fuerzas impresas sobre él.
Newton, como Galileo, identifica el movimiento en el que un objeto se desplaza en línea recta con una velocidad constante como el estado natural de las cosas. Como hoy tendemos a pensar en términos newtonianos, se nos hace difícil apreciar lo contraria a la intuición que resultaba esta idea. Por lo general, el movimiento que observamos en el mundo no parece seguir lo que Newton describe: las cosas se aceleran al caer, o se frenan en contacto con el aire, o siguen un recorrido curvo en su caída hacia la Tierra. Newton sostenía que, en cierto sentido, todos estos eran movimientos que se desviaban de la norma, el resultado de fuerzas invisibles como la gravedad o la fricción. Si un objeto no se perturba, decía, se moverá de manera uniforme; si su recorrido es curvado o su velocidad cambia, es que sobre él actúa alguna fuerza.
El hecho de que los objetos no perturbados persistan en su estado de movimiento es lo que nos permite explorar el espacio. En la Tierra, un Ferrari puede acelerar de cero a cien en menos de cuatro segundos, pero tiene que trabajar mucho para mantener esa velocidad a causa de la fricción y la resistencia del aire. En el espacio exterior, un vehículo solo tropieza aproximadamente con una molécula perdida cada 160 000 kilómetros, de modo que no hay que preocuparse por la fricción o la resistencia. Por consiguiente, cuando se consigue que una nave se mueva, seguirá moviéndose en línea recta y a velocidad constante sin frenarse como un Ferrari. Y si se mantienen en marcha los motores, se sigue acelerando sin perder ninguna energía en la fricción. Si, por poner un caso, nuestra nave tuviera la misma aceleración que un Ferrari y se mantuviera durante un año, y no durante un segundo, alcanzaría más de la mitad de la velocidad de la luz.
Naturalmente, hay algunos problemas prácticos, como el peso del combustible que hay que llevar y los efectos de la relatividad, de la que nos ocuparemos más adelante. Además, si quisiéramos llegar a una estrella, necesitaríamos apuntar muy bien: los sistemas estelares están tan dispersos que si apuntásemos la nave al azar, por término medio viajaría más lejos de lo que ha viajado la luz desde el Big Bang antes de encontrar otro sistema solar.
Newton no consideró la posibilidad de visitar otros planetas, pero, habiendo enunciado que la fuerza causa aceleración, en su segunda ley cuantifica la relación entre la cantidad de fuerza, la masa y la tasa de aceleración (en términos modernos, «cambio de movimiento» significa cambio de momento, es decir, es igual a la masa por la aceleración):
Segunda ley: El cambio de movimiento es proporcional a la fuerza motriz impresa y ocurre según la línea recta a lo largo de la cual aquella fuerza se imprime.
Supongamos que empujamos una carreta con un niño dentro. La ley dice que, ignorando la fricción, si un empujón aplicado durante un segundo haría que una carreta con niño, con un peso conjunto de 35 kilogramos, se desplazase a ocho kilómetros por hora, entonces si en esa carreta ponemos a nuestro adolescente y el peso total es ahora de 70 kilogramos, tendríamos que empujar el doble de fuerte, o el doble de tiempo, para conseguir la misma velocidad. Lo bueno es que (una vez más, ignorando la fricción) podríamos acelerar un avión jumbo de 350 000 kilogramos empujando con una fuerza 10 000 veces mayor, lo que es difícil, o 10 000 veces más tiempo, lo que solo requiere paciencia. Así que si pudiéramos mantener nuestro nivel de esfuerzo durante 10 000 segundos, que es solo dos horas y cuarenta y siete minutos, podríamos llevar de paseo a todo un jumbo lleno de pasajeros.
Hoy la segunda ley de Newton la escribimos F = ma, es decir, la fuerza es igual a la masa por la aceleración, pero la segunda ley de Newton no se escribió en forma de ecuación hasta mucho después de su muerte, transcurrido casi un siglo desde que la enunciara.
En su tercera ley, Newton dice que la cantidad total de movimiento en el universo no cambia. Puede cambiarse entre objetos, pero no añadirse ni sustraerse. La cantidad total de movimiento que hay aquí hoy ya estaba aquí cuando el universo empezó y seguirá estando mientras haya movimiento.
Es importante comprender que, en la explicación de Newton, una cantidad de movimiento en una dirección añadida a un movimiento equivalente en la dirección contraria produce una cantidad total de movimiento igual a cero. Por tanto, puede alterarse un objeto de un estado de reposo a un estado de movimiento sin violar la tercera ley de Newton siempre y cuando su movimiento se vea compensado por un cambio de movimiento en la dirección opuesta de otro cuerpo. Newton lo expresa así:
Tercera ley: Con toda acción ocurre siempre una reacción igual y contraria.
Esta frase de aspecto inocente nos dice que si una bala vuela hacia delante, la escopeta se mueve hacia atrás. Si un patinador empuja hacia atrás contra el hielo con su patín, él se moverá hacia delante. Si tosemos, expeliendo aire hacia delante por la boca, la cabeza vuela hacia atrás (y, según un artículo de la revista Spine, con una aceleración que en promedio triplica la de la gravedad de la Tierra [186]). Y si una nave espacial lanza gases calientes por sus cohetes posteriores, acelerará hacia delante con un momento igual en magnitud pero opuesto en dirección al de los gases calientes que expulsa hacia el vacío del espacio.
Las leyes que Newton enunció en los Principia no eran solo abstracciones. Logró ofrecer pruebas convincentes del hecho de que aquellos pocos principios matemáticos que enunciaba se podían usar para explicar innumerables fenómenos del mundo real. Entre las aplicaciones, mostró cómo la gravedad crea las irregularidades observadas en el movimiento de la Luna, explicó las mareas, calculó la velocidad del sonido en el aire, y mostró que la precesión de los equinoccios es un efecto de la atracción gravitatoria de la Luna sobre el abultamiento ecuatorial de la Tierra.
Estos eran logros asombrosos, y el mundo ciertamente se asombró. Pero en cierto modo, lo más impresionante era que Newton entendiera que la aplicación práctica de sus principios estaba restringida por determinados límites. Supo ver, por ejemplo, que aunque sus leyes del movimiento eran, por lo general, excelentes aproximaciones a lo que vemos que sucede a nuestro alrededor, en un sentido absoluto solo eran correctas en un mundo idealizado, en el que no hay resistencia del aire ni fricción.

14.jpg

Una gran parte del genio de Newton, como del de Galileo, radica en que supieran reconocer que la realidad se nos manifiesta complicada por innumerables factores que actúan a nuestro alrededor, y que, pese a ello, fueran capaces de despojarla de esas complicaciones para revelar las elegantes leyes que actúan a un nivel más fundamental.
Tomemos el caso de la caída libre. Los objetos que se dejan caer aumentan de velocidad tal como dictan las leyes de Newton, pero solo al principio. Salvo que el objeto se deje caer en un vacío, el medio por el que cae acabará por frenar la aceleración. Es así porque cuanto más deprisa cae un objeto por un medio, mayor es la resistencia que experimenta, ya que topa con más moléculas del medio por segundo, y también porque las colisiones son más violentas. Al final, a medida que el objeto aumenta de velocidad, la gravedad y la resistencia del medio se compensan, y el objeto deja de ganar velocidad.
Esa velocidad máxima es lo que ahora llamamos velocidad terminal. La velocidad terminal y el tiempo de caída necesario para alcanzarla dependen de la forma y peso del objeto, así como de las propiedades del medio por el que cae. Así, mientras que un objeto que cae en un vacío aumenta su velocidad cada segundo en 35 kilómetros por hora, una gota de agua que cae por el aire deja de acelerarse cuando alcanza unos 25 kilómetros por hora; para una pelota de pingpong, esa velocidad es de 32, para un pelota de golf, de 144, y para una bola de jugar a los bolos, de 560.
Nuestra velocidad terminal es de unos 200 kilómetros por hora con las extremidades extendidas, y de 320 kilómetros por hora si nos enroscamos en una bola. Si saltamos desde una gran altitud, donde el aire es más delgado, podemos caer lo bastante rápido como para superar la velocidad del sonido, que es de 1225 kilómetros por hora. Un austriaco temerario hizo justamente eso en 2012: saltó desde un globo a una altitud de 38 969 metros y alcanzó una velocidad de 1357,6 kilómetros por hora (el norteamericano Alan Eustace saltó desde una altitud mayor en 2014 pero no alcanzó tanta velocidad). Aunque Newton no sabía lo suficiente sobre las propiedades del aire como para derivar esas velocidades terminales, en el volumen II de los Principia expuso el esquema teórico de la caída libre que acabo de presentar.
Poco antes del nacimiento de Newton, el filósofo y científico Francis Bacon escribió: «El estudio de la naturaleza… [ha logrado] pocos éxitos [187]».
Pocas décadas después de la muerte de Newton, el físico y sacerdote Roger Boscovich escribió, en cambio, que «si se conocieran las leyes de fuerzas, y la posición, velocidad y dirección de todos los puntos en un instante determinado», sería posible «predecir todos los fenómenos que de necesidad se siguieran de ellos [188]».
La poderosa mente que explica el cambio de tono entre estas dos épocas pertenecía a Newton, que ofreció respuestas tan precisas y profundas a los principales enigmas científicos de su tiempo que durante un siglo solo fue posible realizar progresos en los temas que él no había abordado.
El 19 de mayo de 1686 la Royal Society acordó publicar los Principia, pero solo si Halley pagaba el coste de la impresión. Halley no tuvo más opción que acceder. La Society no era una editorial. Se había aventurado en ese negocio en 1685 y se había quemado publicando un libro llamado The History of Fishes (La historia de los peces) del que, pese a su excitante título, no se habían vendido muchas copias. Con sus recursos mermados, la Society ya no podía siquiera proporcionar a Halley las cincuenta libras al año que recibía como secretario; en su lugar, le pagó con copias de The History of Fishes. Así que Halley aceptó los términos de la Society. El libro saldría al año siguiente.
Al pagar la publicación, Halley se convirtió, esencialmente, en el editor de Newton. También, de manera informal, se ocupó de las correcciones del texto y de la distribución de los Principia. Envió copias del tratado a todos los principales filósofos y científicos de la época, y el libro arrasó en Gran Bretaña como una tempestad. No tardó en comentarse en las cafeterías y círculos intelectuales de toda Europa. Pronto quedó claro que Newton había escrito un libro destinado a cambiar el pensamiento humano, la obra más influyente de la historia de la ciencia.
Nadie estaba preparado para una obra de tal amplitud y profundidad. Tres de los principales periódicos de opinión de la Europa continental lo alabaron en sus reseñas, y uno dijo que ofrecía «los más perfectos mecanismos que uno pueda concebir [189]».
Incluso John Locke, el gran filósofo de la Ilustración, que no era matemático, «se dispuso a entender a fondo el libro». Todos coincidían en que Newton había logrado por fin derrocar el viejo imperio de la física cualitativa de Aristóteles y que su obra sería a partir de entonces el patrón que guiaría la manera de hacer ciencia.
Si hubo una reacción negativa a los Principia, vino sobre todo de quienes se quejaban de que algunas de sus ideas centrales no fuesen exclusivas de Newton. El filósofo y matemático alemán Gottfried Wilhelm Leibniz, quien de manera independiente, aunque un poco más tarde, había inventado el cálculo infinitesimal, argumentó que Newton intentaba acaparar el crédito. Sin duda: el quisquilloso Newton creía que en un momento dado solo podía haber un descodificador del conocimiento divino en la Tierra, y en su tiempo, ese era él [190].
Entretanto, Robert Hooke decía de los Principia que eran «el más importante descubrimiento de la naturaleza desde la creación del mundo», para luego pasar a reclamar amargamente que Newton le había robado la importante idea de la ley del inverso del cuadrado. Esta reclamación no era injustificada, pues parece que la idea básica era de Hooke, aunque Newton la desarrollase matemáticamente.
Algunos también acusaron a Newton de promover «poderes ocultos» o sobrenaturales, pues su fuerza de la gravedad actuaba a distancia, lo que permitía que cuerpos masivos afectasen a otros objetos lejanos a través del vacío del espacio sin que existiese un medio aparente que transmitiera su influencia. Este último punto también tendría perplejo a Einstein, en particular el hecho de que la influencia de la gravedad newtoniana se transmitiera instantáneamente. Aquel aspecto de la teoría newtoniana violaba la teoría de la relatividad especial de Einstein, que decía que nada puede viajar a una velocidad superior a la de la luz. Einstein no se quedó en las palabras y creó su propia teoría de la gravedad, la relatividad general, que puso remedio al problema y acabó sustituyendo a la teoría de la gravedad de Newton. Los coetáneos de Newton que criticaron la idea de que la gravedad actuase a distancia no pudieron, sin embargo, proponer ninguna alternativa y hubieron de reconocer el enorme potencial científico del logro de Newton.
La reacción de Newton a las críticas fue muy distinta de su respuesta a la hostilidad con la que a principios de la década de 1670 se había acogido su obra sobre óptica[191].
Entonces, acobardado por Hooke y otros, se había retirado del mundo y cortado la mayoría de sus conexiones. Ahora, convencido de que sus investigaciones conducían a una conclusión y consciente de la gran significación de su propio logro, entró como un vendaval en la refriega. Se encaró a sus críticos con contraataques fieros y sonoros que continuaron, en el caso de los argumentos sobre el crédito, hasta que Hooke y Leibniz murieron, y aun después. En cuanto a la acusación de ocultismo, Newton respondió con un descargo: «Estos principios los considero, no cualidades ocultas… sino leyes generales de la naturaleza… cuya verdad se nos manifiesta a través de los fenómenos, aunque todavía no se hayan descubierto sus causas[192]».
Los Principia cambiaron la vida de Newton no solo porque ahora fuese reconocido como un gran hito en la historia intelectual, sino porque lo convirtieron en un personaje público, y la fama no le desagradó. Se tornó más social y, durante los veinte años siguientes, abandonó la mayoría de sus indagaciones radicales sobre teología. También moderó, aunque sin dejarlos, sus trabajos sobre alquimia.
Los cambios comenzaron en marzo de 1687, poco después de que Newton terminase su gran obra. Más envalentonado que nunca, participó en una batalla política entre la Universidad de Cambridge y el rey Jacobo II. El rey, que intentaba llevar a Inglaterra hacia el catolicismo romano, intentó presionar a la universidad para que concediera un título a un monje benedictino sin requerirle los exámenes habituales ni los juramentos a la Iglesia de Inglaterra. La universidad se impuso, y para Newton aquel fue un punto de inflexión. Su participación en la refriega lo convirtió en una figura política tan destacada en Cambridge que cuando el senado de la universidad se reunió en 1689, votó por que él fuese enviado al Parlamento como uno de sus representantes.
Por lo que sabemos, no se implicó demasiado durante el año que pasó en el Parlamento, hablando únicamente para quejarse de las corrientes de aire frío. Pero adquirió cierto gusto por Londres y por la admiración que le prodigaban los más destacados intelectuales y financieros que conoció. En 1696, tras treinta y cinco años en Cambridge, Newton dejó la vida académica para mudarse.
Con aquella transición, Newton pasaba de un cargo de gran prestigio a un puesto burocrático relativamente menor en Londres: alcaide de la casa de la moneda. Pero Londres lo había hechizado y, bien entrado en la cincuentena, notaba que sus capacidades intelectuales empezaban a disminuir. Además, comenzaba a preocuparle su salario académico. En otro tiempo le había parecido generoso, pero como alcaide de la casa de la moneda aumentaría considerablemente, hasta cuatrocientas libras. Tal vez también comprendiera que, siendo un destacado intelectual de Inglaterra, con el politiqueo adecuado podría promocionarse al cargo superior de director de la casa de la moneda cuando este quedase libre, como en efecto ocurrió en 1700. En su nuevo cargo, sus ingresos aumentaron hasta una media de 1650 libras, unas setenta y cinco veces más que un artesano medio, un nivel salarial que hacía palidecer su antiguo sueldo en Cambridge. En consecuencia, durante los siguientes veintisiete años vivió con el estilo de los mejores círculos de Londres, y le encantó.
Newton también ascendió hasta lo más alto de la organización que había publicado su obra magna: en 1703, tras la muerte de Hooke, fue elegido presidente de la Royal Society. Sin embargo, ni la edad ni el éxito lo habían dulcificado. Gobernó la Society con puño de hierro, incluso expulsando a miembros de las sesiones si mostraban el menor signo de «levedad o indecoro[193]».
También se mostró cada vez menos dispuesto a compartir el crédito por cualquiera de sus descubrimientos, y usó el poder que le otorgaba su posición para afirmar su primacía mediante diversos planes vindicativos.

15.jpg
Isaac Newton en su juventud y en su madurez.

El 23 de marzo de 1726, la Royal Society anotó en su registro: «Con la presidencia vacante tras el deceso de sir Isaac Newton, en el día de hoy no se celebrará sesión[194]».
Newton había muerto unos pocos días antes, a los ochenta y cuatro años de edad.
Newton llevaba tiempo esperando su muerte, pues vivía aquejado de una grave inflamación crónica de los pulmones. Ya había sufrido muchas otras enfermedades, lo que era de esperar en un alquimista cuyo cabello, analizado siglos después, revelaría niveles de plomo, arsénico y antimonio cuatro veces superiores a los normales, y un nivel de mercurio quince veces superior al normal [195].
No obstante, a la muerte de Newton, el diagnóstico fue una piedra en la vesícula. El dolor había sido atroz.
El destino de Newton contrasta fuertemente con el de Galileo. Con los años, a la luz de los éxitos de la ciencia newtoniana, la oposición de la Iglesia a las nuevas ideas de la ciencia se había enfriado hasta el punto de que incluso los astrónomos católicos de Italia habían adquirido el derecho no ya a enseñar, sino a desarrollar más la teoría copernicana, siempre y cuando aseveraran una y otra vez, como en nuestros días están obligados a hacer los profesores de Kansas respecto a la evolución, que «solo es una teoría[196]». Entretanto, en Inglaterra el potencial de la ciencia para asistir a la industria y mejorar el nivel de vida de las personas era incontestable. La ciencia había desarrollado una cultura coherente de experimentación y cálculo y se había convertido en una empresa que gozaba de enorme prestigio, al menos entre los niveles elevados de la sociedad. Más aún, durante los últimos años de Newton, Europa estaba entrando en un periodo en el que la oposición a la autoridad sería uno de los motivos de la cultura europea, ya fuera por oposición a las ideas de antiguas autoridades como Aristóteles o Ptolomeo, ya a la autoridad de la religión y las monarquías.
Nada ilustra mejor la acogida que recibieron Galileo y Newton que sus respectivos ritos funerarios. Mientras que en el caso de Galileo solo se permitió un funeral modesto y privado y fue enterrado en un oscuro rincón de la iglesia en la que había pedido ser sepultado, la capilla ardiente de Newton se instaló en la abadía de Westminster, donde, tras ser enterrado, se erigió un gran monumento con un sarcófago de piedra sobre un pedestal que guarda sus restos. En el sarcófago se esculpió en bajorrelieve un grupo de jóvenes que sostienen instrumentos que representan los grandes descubrimientos de Newton, y en su tumba se inscribió lo siguiente:
Aquí yace Isaac Newton, Caballero, que con una fuerza intelectual casi divina y principios matemáticos de su peculiar invención, exploró el curso y cifra de los planetas, los recorridos de los cometas, las mareas de los océanos, las disimilitudes en los rayos de luz, y, lo que ningún otro estudioso había concebido, las propiedades de los colores de este modo producidos. Diligente, sagaz y fiel, en sus exposiciones de la naturaleza, la antigüedad y las Sagradas Escrituras, defendió con su filosofía la majestad de Dios todopoderoso y bueno, y expresó con sus maneras la simplicidad del Evangelio. Mortales, ¡regocijaros de que haya existido tal y tan gran ornamento de la raza humana! Nació el 25 de diciembre de 1642 y murió el 20 de marzo de 1726 [197].
Conjuntamente, las vidas de Galileo y Newton se habían extendido durante más de 160 años, y juntas habían presenciado, y en muchos aspectos ejecutado, buena parte de lo que hoy llamamos revolución científica.
En su larga carrera, Newton logró decirnos muchas cosas sobre nuestro planeta y nuestro sistema solar usando sus leyes del movimiento y la única ley de la fuerza que había descubierto, la que describe la gravedad. Pero sus ambiciones habían ido mucho más allá de ese conocimiento. Creía que la fuerza era la causa última de todo cambio que se produce en la naturaleza, desde las reacciones químicas a la reflexión de la luz en un espejo. Y lo que es más, estaba seguro de que en un tiempo futuro, cuando consiguiésemos entender las fuerzas de atracción y repulsión que actúan a pequeñas distancias entre las diminutas «partículas» que constituyen la materia (su versión del viejo concepto de los átomos), sus leyes del movimiento serían suficientes para explicar todo lo que se podía observar en el universo.
Hoy nos parece evidente la clarividencia de Newton. Su visión de lo que significaría entender las fuerzas entre los átomos era muy acertada. Pero eso no ocurriría hasta 250 años más tarde. Y cuando ocurrió, descubrimos que las leyes que gobiernan los átomos no encajan en el marco que él había construido para la física, sino que revelarían un nuevo mundo más allá de la experiencia de nuestros sentidos, una nueva realidad que los humanos podemos concebir únicamente con la imaginación, una realidad de arquitectura tan exótica que las famosas leyes de Newton tendrían que ser sustituidas por un nuevo conjunto de leyes que a Newton le habrían parecido más extrañas incluso que la física de Aristóteles.

8. De qué están hechas las cosas
Al llegar a la adolescencia me sentí intrigado por dos formas muy distintas que sigue la ciencia para acercarse a los secretos del universo. No dejaba de oír extraños rumores sobre lo que hacían los físicos, sobre su descubrimiento de las leyes cuánticas, que al parecer decían que yo podía estar en dos lugares al mismo tiempo. Dudaba de que esas afirmaciones fuesen ciertas en la vida real, y de todas formas no había tantos lugares en los que yo quisiera estar. Pero también oía hablar de los más terrenales secretos que perseguían los químicos, secretos violentos y peligrosos que parecían tener poco que ver con la llave maestra del universo pero apelaban a mi sentido de la aventura y prometían concederme un tipo de poder que uno no suele alcanzar de niño. Enseguida estuve mezclando amoníaco con tintura de yodo, perclorato de potasio con azúcar, y polvo de cinc con nitrato y cloruro de amonio, y haciendo saltar cosas por los aires. Dijo Arquímedes que con una palanca lo bastante larga podría mover el mundo; yo pensaba que con las sustancias químicas caseras adecuadas podía hacer que explotase. Ese es el poder que da el conocimiento de las sustancias que nos rodean.
Los primeros pensadores científicos del mundo abrieron el camino a estas dos formas de indagación sobre el funcionamiento del mundo físico. Se preguntaron qué causa los cambios, e investigaron de qué están hechas las cosas y de qué modo su composición determina sus propiedades. El propio Aristóteles ofreció una hoja de ruta para los dos, pero sus caminos resultaron no tener salida.
Newton y sus predecesores llegaron muy lejos en su comprensión del problema del cambio. Newton también intentó entender la ciencia de la materia, pero no fue ni de lejos tan buen químico como físico. El problema no era que su intelecto fuese insuficiente, ni siquiera que siguiese el largo camino, al final sin salida, de la alquimia. Lo que lo frenó fue que, si bien la ciencia de las sustancias (la química) iba evolucionando al lado de la ciencia del cambio (la física), se trata de dos ciencias de muy distinto carácter. La química es más sucia y más complicada, y explorarla tan a fondo como había estudiado el cambio habría requerido el desarrollo de varias innovaciones tecnológicas, muchas de las cuales ni siquiera se habían inventado en tiempos de Newton. En consecuencia, Newton no pudo avanzar, y la química se quedó sin una figura sobresaliente que la catapultase (y a él o ella) hacia la grandeza. Hubo de desarrollarse de una forma más gradual, con varios pioneros compartiendo los focos.
La historia de cómo averiguó la humanidad de qué están hechas las cosas la siento muy próxima a mi corazón porque la química fue mi primera pasión. Crecí en un pequeño apartamento dúplex en Chicago que tenía cuartos pequeños y abarrotados, pero un sótano espacioso donde pude construir a mis anchas mi propia Disneylandia: un complejo laboratorio de química lleno de estantes con frascos de vidrio, polvos de vivos colores y botellas con los más potentes ácidos y álcalis.
Tenía que obtener algunas de las sustancias químicas ilegalmente o con la ayuda involuntaria de mis padres («Con unos litros de ácido muriático, podría limpiar los orines de gato del cemento»). Sin preocuparme por tener que recurrir al engaño, descubrí que estudiando química podía aprender a crear unos fuegos artificiales muy fardones, al mismo tiempo que satisfacía mi curiosidad interior sobre el mundo. Y como Newton, supongo, también me di cuenta de que tenía muchas ventajas frente a intentar tener una vida social. Las sustancias químicas son más fáciles de conseguir que los amigos, y cuando quería jugar con ellas nunca me decían que tenían que estar en casa para lavarse el pelo o, con menos cortesía, que no se juntaban con bichos raros. Al final, sin embargo, como suele ocurrir con los primeros amores, la química y yo comenzamos a distanciarnos. Comencé a flirtear con un nuevo tema, la física. Fue entonces cuando aprendía que las distintas áreas de la ciencia no solo se centran en preguntas distintas, sino que tienen culturas distintas.
La diferencia entre la física y la química brillaba en todo su esplendor a través de los errores que cometía. Aprendí bastante rápido, por ejemplo, que si mis cálculos de física acababan en la ecuación «4 = 28», no significaba que hubiera descubierto alguna verdad profunda y previamente desconocida, sino que había cometido algún error. Pero era un error inocuo, un gazapo que solo existía sobre el papel. En la física, esas meteduras de pata conducen de forma casi inevitable a un benigno aunque frustrante sinsentido matemático. La química es otra cosa. Mis errores en química tendían a producir grandes cantidades de humo y fuego, además de quemaduras de ácido en la carne, y dejaban cicatrices que persistían durante décadas.
Mi padre caracterizaba las diferencias entre la química y la física con la ayuda de sus dos conocidos que más se acercaban a practicarlas. El «físico» era el hombre (en realidad matemático) del campo de concentración que le explicó cómo resolver el acertijo matemático a cambio de pan. El hombre al que llamaba «químico» era alguien a quien había conocido en la resistencia judía, antes de ser deportado a Buchenwald[XI][198].
Mi padre había formado parte de un grupo que planeaba sabotear el ferrocarril que atravesaba su ciudad, Częstochowa. El químico decía que podía hacer que el tren descarrilase con un explosivo colocado estratégicamente en las vías, pero tenía que salir a hurtadillas del gueto judío para agenciarse algunos de los materiales necesarios, que insistía que podía obtener mediante robos y sobornos. Eso le llevó varias semanas, pero no regresó de su última misión y nunca más se supo de él.
El físico, me explicaba mi padre, era un hombre tranquilo y elegante que se refugiaba de los horrores del campo como mejor sabía: retirándose al mundo de la mente. El químico tenía la personalidad de un vaquero y un soñador de mirada salvaje, y se lanzó a la acción para enfrentarse al caos del mundo a pecho descubierto. Aquella, decía mi padre, era la diferencia entre la química y la física.
Qué duda cabe que, a diferencia de los primeros físicos, los primeros químicos tenían que dotarse de cierta valentía física, porque las explosiones accidentales eran un riesgo de su trabajo, igual que los envenenamientos, ya que a menudo identificaban las sustancias por el gusto. Quizá el más célebre de los primeros experimentadores fuera Carl Scheele, un farmacéutico y químico sueco. Scheele sobrevivió al hito de convertirse en el primer químico que produjo el intensamente corrosivo y venenoso gas de cloro y el que, de forma un tanto milagrosa, logró describir de forma precisa el gusto del cianuro de hidrógeno, un gas extremadamente tóxico, sin morir en el intento. Sin embargo, en 1786, a la edad de cuarenta y tres años, Scheele sucumbió a una enfermedad sospechosamente parecida a un envenenamiento agudo por mercurio[199].
A un nivel más personal, me sorprendió que la diferencia entre el químico y el físico se pareciera a la diferencia entre mi padre y yo. Tras la desaparición del químico, él y otros cuatro conspiradores siguieron con el plan usando únicamente herramientas de mano («destornilladores de todo tipo», me dijo) en lugar de un explosivo en su intento por aflojar los raíles[200].
El plan se torció cuando uno de los saboteadores se asustó y atrajo la atención de unos agentes de las SS. Al final, solo mi padre y otro de los saboteadores salieron con vida, tumbados entre los raíles mientras un tren de mercancías les pasaba por encima. Yo, en cambio, casi nunca participo en acciones de importancia en el mundo externo, solo calculo las consecuencias de las cosas usando ecuaciones y papel.
La brecha entre físicos y químicos refleja tanto los orígenes como las culturas de estas dos disciplinas. Mientras que la física comenzó con las elucubraciones teóricas de Tales, Pitágoras y Aristóteles, la química nació en las trastiendas de los comerciantes y en los oscuros antros de los alquimistas. Aunque quienes practicaban estas disciplinas estaban motivados por el deseo puro de conocer, la química también hundía sus raíces en lo práctico, a veces con el deseo de mejorar la vida de la gente, otras veces por simple avaricia. Hay nobleza en la química, la nobleza del anhelo de conocer y conquistar la materia; pero también ha habido siempre la posibilidad de enriquecerse.
Las tres leyes del movimiento que Newton descubrió eran en cierto sentido simples, aunque yaciesen ocultas a la vista por la niebla de la fricción y la resistencia del aire y la invisibilidad de la fuerza de la gravedad. La química, en cambio, no está regida por un conjunto de ecuaciones análogas a las tres leyes universales del movimiento que enunció Newton. Es mucho más complicada, pues nuestro mundo nos ofrece una pasmosa diversidad de sustancias, que la ciencia de la química fue entendiendo y ordenando de una manera gradual.
El primer descubrimiento fue que algunas sustancias, los elementos, son fundamentales, en tanto que las demás están formadas por distintas combinaciones de elementos. Intuitivamente, esto ya lo comprendieron los griegos. Para Aristóteles, por ejemplo, un elemento es «uno de aquellos cuerpos en el que pueden descomponerse otros cuerpos pero que él mismo no puede ser dividido en otros[201]. Identificó cuatro: tierra, aire, agua y fuego.
Es obvio que muchas sustancias están hechas de otras sustancias. La sal con el agua produce agua salada, el hierro con el agua forma herrumbre, el vodka con el vermú hace un martini. Por otro lado, también podemos descomponer muchas sustancias en sus componentes, a menudo calentándolas. Por ejemplo, cuando se calienta la caliza, se descompone en cal y un gas, dióxido de carbono. El azúcar da carbono y agua. Sin embargo, este tipo de observación ingenua no lleva muy lejos porque no es una descripción universalmente aplicable de lo que ocurre. Por ejemplo, cuando se calienta agua, se transforma en un gas, pero ese gas no es químicamente diferente del líquido, simplemente ha adoptado una forma física distinta. El mercurio, cuando se calienta, tampoco se rompe en sus componentes; al contrario, se combina con el oxígeno invisible del aire formando un compuesto que los alquimistas también denominaban cal.
Luego está la combustión, como cuando se quema la madera. Al quemarse, la madera se convierte en fuego y ceniza, pero sería incorrecto concluir que la madera esté hecha de fuego y ceniza. Más aún, en contra de la categorización de Aristóteles, el fuego no es una sustancia, sino la luz y el calor producidos por otras sustancias durante una reacción química. Lo que realmente se emite cuando se quema la madera son gases invisibles, sobre todo dióxido de carbono y vapor de agua, pero en total más de un centenar de gases[202], y los antiguos no disponían de la tecnología que les habría permitido recoger aquellos gases, y mucho menos separarlos e identificarlos.
Las dificultades de este tipo impedían averiguar qué sustancias estaban hechas de dos o más sustancias, y cuáles eran fundamentales. A causa de tal confusión, muchos pensadores antiguos, como Aristóteles, identificaron erróneamente el agua, el fuego y demás como elementos fundamentales y en cambio no lograron reconocer como elementos a los siete metales elementales (mercurio, cobre, hierro, plomo, estaño, oro y plata) que ya conocían.
Del mismo modo que el nacimiento de la física dependió de nuevas invenciones matemáticas, el nacimiento de la verdadera química hubo de aguardar a ciertas invenciones tecnológicas: equipos para pesar sustancias con precisión, para medir el calor emitido o absorbido en las reacciones, para determinar si una sustancia es un ácido o un álcali, para capturar, evacuar y manipular gases, y para controlar la temperatura y la presión. Solo con avances como estos, que se produjeron durante los siglos XVII y XVIII, pudieron comenzar los químicos a desembrollar las enredadas hebras de su conocimiento y a desarrollar maneras fructíferas de pensar sobre las reacciones químicas. No obstante, es testimonio de la perseverancia humana el hecho de que incluso antes de esos avances técnicos, quienes practicaban los oficios que aparecieron en las antiguas ciudades acumularon un gran corpus de conocimiento en diversos campos como la tinción, la elaboración de perfumes, la fabricación de cristal, la metalurgia y el embalsamamiento.
El embalsamamiento fue lo primero. En este ámbito, los inicios de las ciencias químicas se remontan a Çatalhöyük porque, aunque no embalsamaban los cadáveres, desarrollaron una cultura de la muerte y una forma particular de cuidar de sus muertos. En tiempos del antiguo Egipto, la creciente preocupación por el destino de los muertos condujo a la invención de la momificación, que se consideraba la clave de la felicidad en el más allá; al menos no había clientes defraudados que dijeran lo contrario. De este modo se generó una demanda de sustancias para embalsamar. Nació una nueva industria que perseguía, por usar la expresión de DuPont, mejorar las cosas para una vida mejor después de la muerte, por medio de la química.
Al mundo nunca le han faltado soñadores y, entre ellos, los felices que alcanzan sus sueños, o que al menos se ganan la vida intentándolo. Los de este último grupo no se distinguen necesariamente por su talento o conocimiento, pero inevitablemente destacan por su capacidad de trabajo. Para los emprendedores e innovadores del antiguo Egipto, hacerse rico perfeccionando el proceso de embalsamamiento debió ser un sueño, pues invirtieron largas y arduas horas en el intento. Con el tiempo, por medio de un extenso proceso de ensayo y error, los embalsamadores egipcios aprendieron a utilizar una potente combinación de sales de sodio, resinas, mirra y otros conservantes que conseguían proteger los cadáveres de la descomposición, y todo lo descubrieron sin conocimiento alguno de los procesos químicos involucrados, o de qué produce la descomposición de los cuerpos.
Como el embalsamamiento era un negocio, no una ciencia, sus descubrimientos se trataban menos como las teorías de los antiguos Einsteins que como las recetas de roscos de pan de Einstein Bros. Bagels: eran secretos bien guardados. Y como el embalsamamiento estaba asociado con la muerte y el inframundo, quienes practicaban este arte eran vistos como magos y brujos. Con el tiempo aparecieron otras profesiones herméticas que produjeron conocimiento sobre minerales, aceites, extractos de flores, vainas y raíces de plantas, vidrio y metales. Aquí, en la protoquímica que se practicaba en los oficios, se encuentran los orígenes de la misteriosa y mística cultura de la alquimia.
Como grupo, quienes practicaban estas disciplinas construyeron un gran cuerpo de conocimiento experto, especializado pero inconexo. Aquel conjunto diverso de conocimiento técnico comenzó a cuajar en un campo de estudio unificado cuando el griego Alejandro Magno fundó su capital egipcia, Alejandría, en la desembocadura del Nilo, en 331 a. C.
Alejandría era una ciudad espléndida, con elegantes edificaciones y avenidas de treinta metros de anchura. Varias décadas después de su fundación el rey griego de Egipto, Ptolomeo II, construyó la joya de la corona de su cultura, el Museo. A diferencia de los museos actuales, este no exhibía artefactos, sino que albergaba a más de un centenar de científicos y estudiosos que recibían un estipendio estatal, alojamiento y comidas gratis de la cocina del Museo. Asociada a esta institución había una gran biblioteca de medio millón de documentos, un observatorio, laboratorios de disección, jardines, un zoo y otras instalaciones para la investigación. Era un glorioso centro de exploración del conocimiento, un monumento vivo y funcional a la búsqueda humana del saber. Fue el primer instituto de investigación del mundo, y desempeñaría un papel parecido al que siglos después tendría la universidad en Europa, aunque, tristemente, estaba destinada a ser destruida por un incendio en el siglo II d. C [203].
Alejandría no tardó en convertirse en una meca de la cultura y, en un par de siglos, en la mayor y más espléndida ciudad del mundo. Allí se cruzaron varias teorías griegas de la materia y del cambio con todo el abanico de conocimiento químico egipcio, y aquel encuentro de ideas lo cambió todo.
Durante milenios, antes de la invasión griega, el conocimiento egipcio de las propiedades de las sustancias había sido práctico. Ahora, sin embargo, la física griega ofrecía un marco teórico en el que los griegos podían situar su conocimiento. En particular, la teoría aristotélica de la materia proporcionaba una explicación de cómo cambian e interactúan las sustancias. Naturalmente, la teoría de Aristóteles no era correcta, pero inspiró un enfoque más unificado a la ciencia de las sustancias.
Un aspecto de la teoría de Aristóteles tuvo una especial influencia: sus ideas sobre la transformación de las sustancias. Fijémonos, a modo de ejemplo, en el proceso de la ebullición. Aristóteles consideraba que el elemento agua poseía dos cualidades esenciales: la de ser húmeda y la de ser fría. Caracterizaba el elemento aire, en cambio, como húmedo y caliente. Desde esta perspectiva, la ebullición puede verse como un proceso en el que el elemento fuego actúa convirtiendo la frialdad del agua en calor, y transformando de este modo el agua en aire. Los egipcios, que enseguida se percataron de los posibles beneficios de este concepto, quisieron ir un poco más lejos: si el agua se podía transformar en aire, ¿sería posible transformar otros materiales bajos en oro? Un poco como mi hija, Olivia, que cuando le dijimos que si dejaba el diente bajo la almohada podía conseguir un dólar del ratoncito Pérez, enseguida replicó, «¿y cuánto me darían por los recortes de las uñas?».
Los egipcios observaron que el oro, igual que los elementos fundamentales de Aristóteles, poseía algunas cualidades esenciales: es un metal, es blando y es amarillo. Solo el oro tiene todas esas cualidades que, en distintas combinaciones, pueden encontrarse en muchas otras sustancias. ¿Sería posible hallar el modo de transferir propiedades entre sustancias? En particular, si el proceso de ebullición permitía alterar con la ayuda del fuego una propiedad física del agua, convirtiéndola así en aire, ¿no habría un proceso análogo que permitiera transmutar en oro una combinación de sustancias metálicas, blandas y amarillas?
A raíz de este tipo de consideraciones, hacia 200 a. C. unos balbuceos de auténtico conocimiento químico se habían mezclado con ideas de la filosofía griega, y la antigua protoquímica del embalsamamiento, la metalurgia y otras actividades prácticas habían suscitado un enfoque unificado para explorar el cambio químico. Nacía así la alquimia con el objetivo central de producir oro, y más tarde también el «elixir de la vida» que había de proporcionarnos la eterna juventud.
Los historiadores discuten exactamente cuándo puede decirse que brota la química, pero la química no es alfalfa, y la fecha en que finalmente emerge es más cuestión de opinión que un hecho preciso. Algo que nadie puede discutir, sin embargo, es que la alquimia sirvió a un propósito útil: con independencia de cuándo alcanzó la química su forma moderna, es la ciencia que surgió de las artes y el misticismo de aquella antigua doctrina.
El primer empujón que encaminó la química de la brujería a los métodos de la ciencia se lo debemos a uno de los personajes más extraños de la historia del pensamiento humano. Nacido en un pequeño pueblo de lo que hoy es Suiza, Theophrastus Bombast von Hohenheim (1493-1541) fue enviado por su padre a la edad de veintiún años a estudiar metalurgia y alquimia, pero más tarde afirmaría que se había graduado en medicina, y adoptó esa profesión. Aún no había cumplido los treinta años cuando cambió su nombre por el de Paracelso, que significa «más grande que Celso», en referencia al médico romano del siglo I d. C. Como las obras de Celso eran muy populares en el siglo XVI, con el cambio de sobrenombre Paracelso consiguió pasar de ser un Bombast a ser alguien cuyo nombre exhibía aquella cualidad. Pero en el cambio había algo más que autobombo: Paracelso clamaba a voces su desdén por el enfoque reinante en la medicina. Ese desdén lo demostró de una forma bastante gráfica cuando se unió a los estudiantes en su tradicional hoguera de verano y echó a las llamas, junto a algunos puñados de azufre, las obras médicas del venerado médico griego Galeno.
Las quejas de Paracelso hacia Galeno eran las mismas que expresarían Galileo y Newton hacia Aristóteles: su obra había quedado invalidada por las observaciones y la experiencia de otros que habían practicado la disciplina. En concreto, Paracelso estaba convencido de que la idea convencional de que la enfermedad está causada por un desequilibrio entre unos misteriosos fluidos corporales llamados humores no había resistido la prueba del tiempo. Al contrario, estaba persuadido de que las enfermedades eran causadas por agentes externos, y que las causas se podían atacar mediante la administración de las drogas adecuadas.
Fue la búsqueda de esas «drogas adecuadas» lo que llevó a Paracelso a un intento de transformar la alquimia. Esta disciplina había dado muchos frutos, como el descubrimiento de nuevas sustancias (sales metálicas, ácidos minerales y alcohol), pero Paracelso quería que abandonase su búsqueda del oro y se centrara en el objetivo mucho más importante de crear sustancias químicas que tuvieran un lugar en el laboratorio del cuerpo y pudieran usarse para curar enfermedades concretas.

16.jpg
Paracelso, en una copia del siglo XVII de un original desaparecido del artista flamenco Quentin Massys (1466-1529).

De igual modo, Paracelso quería reformar los métodos de la alquimia, que eran imprecisos y poco rigurosos. Avezado en el arte de la promoción tanto como en el de la medicina, inventó un nuevo nombre para su renovada versión de la alquimia. Reemplazó el prefijo árabe al (que significa «la») por la palabra griega que significa «medicina», iatro, y creó así el término «iatroquímica». Todo un palabro, así que no tardó en transformarse en «quimia», que está en la base de nuestra palabra «química».
Las ideas de Paracelso influirían más tarde en Isaac Newton y en su rival Leibniz, y ayudarían a conducir la alquimia hacia una nueva identidad como ciencia de la química. Pero aunque Paracelso fue un apasionado cruzado de su nuevo enfoque, su efectividad en la persuasión personal se veía limitada por algunos problemas de personalidad. Podía resultar bastante ofensivo, y cuando digo «ofensivo», quiero decir que «estaba como una cabra».
Paracelso era lampiño y afeminado y no sentía el menor interés por el sexo, pero si los Juegos Olímpicos dieran una medalla de oro en el deporte de la jarana, Paracelso se habría llevado el platino. Pasaba borracho la mayor parte del día y uno de sus contemporáneos decía de él que «vivía como un cerdo». No era sutil en su promoción personal y tendía a afirmar cosas como que «todas las universidades y todos los viejos escritores juntos tienen menos talento que mi trasero[204]».
Parecía disfrutar irritando al establishment, a veces como un fin en sí mismo. Por ejemplo, cuando fue nombrado profesor en la Universidad de Basilea, se presentó a la primera clase con un delantal de laboratorio de cuero en lugar de la toga académica reglamentaria, habló en alemán suizo en lugar de latín y, tras anunciar que revelaría el mayor secreto de la medicina, mostró un bacín lleno de heces.
Aquellas bufonadas tuvieron el mismo efecto que tendrían hoy: lo apartaron de sus colegas médicos y académicos pero lo hicieron popular entre los estudiantes. Con todo, cuando Paracelso hablaba, la gente escuchaba, pues algunas de sus medicinas realmente funcionaban. Por ejemplo, tras descubrir que los opiáceos eran mucho más solubles en alcohol que en agua, creó una solución a base de opio, que llamó láudano, muy eficaz para aliviar el dolor.
Al final, sin embargo, tal vez fuera la economía lo que más contribuyó a diseminar las ideas de Paracelso. La promesa de nuevas curas médicas para las enfermedades aumentó los ingresos, el estatus social y la popularidad de los boticarios, que crearon una demanda de conocimiento en la disciplina. Comenzaron a aparecer libros de texto y clases sobre la materia, y a medida que los términos y las técnicas de la alquimia se fueron traduciendo al nuevo lenguaje de la química, se hicieron más precisos y más estandarizados, tal como Paracelso había deseado. A principios del siglo XVII, aunque todavía muchos practicaban la antigua alquimia, el nuevo estilo de alquimia de Paracelso, la «quimia», ya había prendido.
Como los estudiosos de matemáticas de Merton, Paracelso fue una figura de transición que ayudó a transformar la disciplina y sentó unos primitivos cimientos sobre los que podrían construir otros profesionales. Hasta qué punto Paracelso tenía un pie en el mundo antiguo de la química y otro en el moderno es evidente en su propia vida: aunque era muy crítico con la alquimia tradicional, no dejó de coquetear con ella. A lo largo de su vida realizó experimentos con el fin de crear oro, y en una ocasión incluso afirmó que había encontrado y bebido el elixir de la vida, y que estaba destinado a vivir para siempre.
No fue así. En septiembre de 1541, mientras se alojaba en un establecimiento llamado Posada del Caballo Blanco, en Salzburgo (Austria), Dios destapó su farol. Paracelso volvía una noche a la posada por una calle estrecha y oscura cuando, dependiendo de la versión que uno crea, sufrió una mala caída o fue golpeado por matones pagados por médicos locales a los que había contrariado. Ambas historias llevan al mismo final: el suyo. Dicen que en el momento de su muerte tenía un aspecto decrépito que no se correspondía con su edad a causa de su vida disipada. Si hubiera sobrevivido un año y medio más, habría sido testigo de la publicación de la gran obra de Copérnico, De Revolutionibus Orbium Coelestium (Sobre las revoluciones de los orbes celestes ), que suele considerarse el inicio de la revolución científica, un movimiento que Paracelso sin duda habría aprobado.
El siglo y medio que siguió a la muerte de Paracelso fue, como hemos visto, un periodo en el que pioneros como Kepler, Galileo y Newton, edificando sobre trabajos anteriores, crearon un nuevo enfoque a la astronomía y a la física. Con el tiempo, las teorías sobre un cosmos cualitativo gobernado por principios metafísicos dejaron paso al concepto de un universo cuantitativo y mensurable que obedecía leyes fijas. Al mismo tiempo, una aproximación al conocimiento que se apoyaba en la autoridad y en la argumentación metafísica daba paso a la idea de que debemos aprender sobre las leyes de la naturaleza mediante la observación y la experimentación, y articular esas leyes mediante el lenguaje de las matemáticas.
Como en la física, el reto intelectual que afrontaban las nuevas generaciones de químicos no era simplemente el de desarrollar formas rigurosas de pensar y experimentar, sino también despojarse de la filosofía y las ideas del pasado. Para empezar a madurar, el nuevo campo de la química tuvo que aprender las lecciones de Paracelso y destronar las teorías de Aristóteles que no llevaban a ningún lado; no las del movimiento, que ya se encargaban de destronar Newton y otros físicos, sino sus teorías sobre la materia.
Antes de resolver un puzle hay que identificar las piezas, y en el puzle de la naturaleza de la materia, las piezas son los elementos químicos. Mientras la gente creyera que todo estaba hecho de tierra, aire, fuego y agua (o cualquier otro esquema análogo), su conocimiento de los cuerpos materiales estaría basado en fábulas, y su capacidad para crear sustancias químicas nuevas y útiles seguiría siendo una cuestión de ensayo y error, sin la posibilidad de un verdadero conocimiento. Y así sucedió que en la nueva atmósfera intelectual del siglo XVII, mientras Galileo y Newton desterraban para siempre a Aristóteles de la física y reemplazaban sus ideas con teorías basadas en la observación y la experimentación, uno de los hombres cuyos trabajos sobre óptica habían ayudado a inspirar a Newton se irguió para desterrar a Aristóteles de la química. Me refiero a Robert Boyle, hijo del primer conde de Cork en Irlanda[205].
Una de las maneras de conseguir dedicarse a una vida en la ciencia es ocupar una plaza en una universidad. Otra es ser asquerosamente rico. A diferencia de los profesores universitarios que se convirtieron en pioneros de la física, muchos de los paladines de la primera química fueron hombres que gozaban de sus propios medios y, en una época en que los laboratorios eran escasos, se podían permitir el lujo de financiar y montar el suyo propio. Robert Boyle fue el hijo de un conde que no solo era rico, sino tal vez el hombre más rico de Gran Bretaña.
Es poco lo que sabemos de la madre de Boyle, salvo que se casó a los diecisiete años y procedió a traer al mundo a quince niños durante los veintitrés años siguientes, hasta caer muerta de consunción, algo que para entonces debió aceptar con alivio. Robert fue su decimocuarto hijo y el séptimo varón. Al conde debía gustarle más hacer niños que criarlos, porque todos, al poco de nacer, eran puestos al cuidado de amas de cría, y luego enviados a internados y a la universidad o al extranjero para ser educados por tutores privados.
Boyle pasó sus años más definitorios en Ginebra. Cuando tenía catorce años, una noche le despertó una violenta tormenta y juró que si sobrevivía se dedicaría a Dios. Si todos obedeciéramos o siquiera recordáramos los juramentos que hacemos bajo presión, este sería un mundo mejor; en el caso de Boyle, tal como lo dijo, lo hizo. Fuese o no la tormenta la verdadera causa, Boyle se tornó profundamente religioso y, a pesar de su enorme riqueza, llevó una vida ascética.
Al año de aquella tormenta que le cambió la vida, Boyle se encontraba visitando Florencia cuando Galileo murió en su cercano exilio. De algún modo, Boyle se hizo con una copia del libro de Galileo sobre el sistema copernicano, su Diálogo sobre los dos máximos sistemas del mundo. Fue un incidente casual pero notable en la historia de las ideas, pues tras leer el libro, Boyle, entonces con quince años, quedó prendado de la ciencia [206].
Nada en los registros históricos nos aclara por qué eligió Boyle la química, pero desde su conversión había estado buscando el mejor modo de servir a Dios, y decidió que aquella era la manera. Como Newton y Paracelso, era célibe y se tornaría obsesivo con su trabajo, y como Newton creía que el empeño por entender las claves de la naturaleza era el camino para descubrir las claves de Dios. A diferencia de Newton el físico, Boyle el químico también consideraba que la ciencia era importante porque podía usarse para aliviar el sufrimiento y mejorar la vida de la gente.
En cierto sentido, Boyle fue científico porque era filántropo. Se fue a vivir a Oxford en 1656, a la edad de veintinueve años, y aunque la universidad todavía no ofrecía enseñanza oficial sobre química, instaló un laboratorio con sus propios fondos y se dedicó a la investigación, sobre todo en química, aunque no de manera exclusiva.
Oxford había sido un baluarte monárquico durante la guerra civil inglesa pero daba cobijo a muchos refugiados del Londres parlamentarista. Boyle no parecía tener fuertes preferencias por uno u otro bando, pero se unió a un grupo de refugiados que se reunían semanalmente para discutir su interés común por un nuevo enfoque experimental en la ciencia. En 1662, poco después de la restauración de la monarquía, Carlos II concedió al grupo una carta de constitución, convirtiéndose así en la Royal Society (o, con su nombre completo en castellano, la Real Sociedad de Londres para el Progreso del Conocimiento Natural), que tan importante papel desempeñó en la carrera de Newton.
La Royal Society no tardó en convertirse en el lugar donde muchos de los grandes intelectos de la época (entre ellos Newton, Hooke y Halley) se encontraban para discutir, debatir y criticar mutuamente sus ideas, y para apoyar esas ideas y procurar que se hicieran públicas para todo el mundo. El lema de la Society, Nullius in verba, puede traducirse laxamente por «no basta con la palabra», pero en particular significaba «no basta con la palabra de Aristóteles», pues todos los miembros entendían que para progresar era crucial superar la cosmovisión de Aristóteles.
Boyle también hizo del escepticismo su mantra personal, tal como refleja el título de su libro de 1661, The Sceptical Chymist ( El químico escéptico), que en buena parte era un ataque contra Aristóteles, y es que Boyle, igual que sus colegas, comprendió que para aplicar el rigor científico al conocimiento de la materia que le interesaba, tenía que rechazar muchas cosas del pasado. La química podía hundir sus raíces en los laboratorios de embalsamadores, vidrieros, fabricantes de tintes, técnicos metalúrgicos y alquimistas y, como Paracelso, boticarios, pero Boyle la veía como un campo unificado que merecía ser estudiado por su interés intrínseco, tan necesaria para el entendimiento básico del mundo natural como la astronomía o la física, y merecedora como estas de un enfoque intelectual riguroso.
En su libro, Boyle ofrecía ejemplo tras ejemplo de procesos químicos que contradecían las ideas de Aristóteles sobre los elementos. Discutía a fondo, por ejemplo, la combustión de la madera para producir ceniza. Cuando se quema un tronco, observaba Boyle, el agua que hierve en los extremos «queda muy lejos de ser agua elemental» y el humo «queda muy lejos de ser aire», puesto que tras una destilación se obtiene aceite y sales [207].
Por consiguiente, decir que el fuego convierte el tronco en sustancias elementales (tierra, aire y agua), no se sostiene. Por otro lado, sustancias como el oro o la plata parecerían imposibles de reducir a componentes más simples, y por tanto quizá se deberían considerar elementos.
Lo mejor de la obra de Boyle llega cuando ataca la idea de que el aire sea un elemento. Respalda sus opiniones con experimentos para los que había contado con la ayuda de un joven y picajoso asistente, un universitario de Oxford y ardiente monárquico llamado Robert Hooke. Pobre hombre: ninguneado más tarde por Newton, en muchos relatos históricos Hooke también recibe poco crédito por los experimentos que realizó con Boyle, aunque probablemente construyera todos los instrumentos y realizase la mayor parte del trabajo[208].
En una de aquellas series de experimentos exploraron la respiración, intentando entender de qué modo interaccionan nuestros pulmones con el aire que inhalamos. Supusieron que algo importante debía ocurrir, pues de lo contrario tanto inspirar y espirar no sería más que una espectacular pérdida de tiempo o, para algunos, una forma de mantener los pulmones ocupados entre cigarros. Para investigarlo, realizaron experimentos sobre la respiración en animales, ratones y pájaros. Observaron que cuando introducían los animales en un frasco cerrado, su respiración se hacía trabajosa y finalmente morían.
¿Qué demostraron los experimentos de Boyle? La lección más obvia es que Robert Boyle no era la persona adecuada para guardar una casa si el trabajo implicaba cuidar de una mascota. Pero también demostraron que cuando los animales respiran, o bien absorben algún componente del aire que cuando se agota produce la muerte, o bien expelen algún gas que, en concentraciones elevadas, resulta mortal. O ambos. Boyle se decantaba por lo primero. Sea como fuere, sus experimentos sugerían que el aire no era elemental, sino que estaba hecho de distintos componentes.
Boyle también investigó el papel del aire en la combustión con la ayuda de una versión muy mejorada de la bomba de vacío que Hooke acababa de inventar. Observó que cuando extraía todo el aire de frascos sellados que contenían un objeto que ardía, el fuego se apagaba. Boyle llegó a la conclusión de que en la combustión, como en la respiración, intervenía alguna sustancia desconocida del aire que era necesaria para que se produjera el proceso.
La búsqueda de la identidad de los elementos estaba en el centro de las indagaciones de Hooke. Sabía que Aristóteles y sus sucesores estaban equivocados, pero con los limitados recursos de que disponía, sus esfuerzos por reemplazar las viejas ideas por otras más acertadas eran incompletos. Aun así, solo el hecho de demostrar que el aire está compuesto por distintos gases fue un golpe tan eficaz contra las teorías de Aristóteles como la observación de Galileo de que la Luna tiene colinas y cráteres y que Júpiter tiene satélites. Con su trabajo, Boyle ayudó a liberar a la naciente ciencia de su dependencia del conocimiento convencional del pasado, reemplazándolo con observaciones y experimentos detallados.
Hay algo especialmente significativo en el estudio del aire. Conocer el salitre o los óxidos de mercurio no nos dice nada sobre nosotros mismos, pero el aire nos da a todos la vida. Aun así, antes de Boyle el aire no había sido una de las sustancias predilectas para investigar. El estudio de los gases era difícil y estaba muy limitado por la tecnología disponible. Eso no cambiaría hasta finales del siglo XVIII, cuando la invención de nuevos equipos de laboratorio como la cuba neumática permitieron recoger los gases que se producían en las reacciones [209].
Como es habitual que en las reacciones químicas se emitan o absorban gases invisibles, sin el conocimiento del estado gaseoso, los químicos realizaban análisis incompletos y a menudo desorientadores de muchos procesos químicos importantes, en particular de la combustión. Para que la química saliera por fin de la Edad Media, eso tenía que cambiar: había que entender la naturaleza del fuego.
Un siglo después de Boyle, se descubrió por fin el gas necesario para la combustión, el oxígeno. Por una ironía de la historia, al hombre que lo descubrió, en 1791, una muchedumbre indignada le quemó la casa. Lo que provocó a aquella turba fue que aquel hombre había apoyado las revoluciones francesa y americana. A causa de la controversia, Joseph Priestley (1733-1804) dejó su Inglaterra nativa por Estados Unidos en 1794 [210].
Priestley, que era unitario, fue un famoso y apasionado defensor de la libertad religiosa. Comenzó su carrera como ministro de la Iglesia, pero en 1761 se hizo profesor de lengua moderna en una de las academias inconformistas que desempeñaron el papel de las universidades para quienes disentían de la Iglesia anglicana. Allí, las clases de uno de sus compañeros le inspiraron para escribir una historia de la nueva ciencia de la electricidad. Sus investigaciones sobre ese tema lo llevarían a realizar experimentos originales.
Las marcadas diferencias en la vida, extracción y formación de Priestley y Boyle reflejan un contraste propio de su tiempo. Boyle murió en los inicios de la Ilustración, el periodo de la historia del pensamiento y la cultura occidentales que se extiende aproximadamente entre 1685 y 1815. Priestley, en cambio, trabajó durante el auge de aquella era.
La Ilustración fue una etapa de dramáticas revoluciones tanto en la ciencia como en la sociedad. El propio término, en palabras de Immanuel Kant, representa «la salida de la humanidad de su autoprovocada inmadurez[211]».
El lema de Kant para la Ilustración era simple: Sapere aude, «osa saber». Y ciertamente la Ilustración se distinguió por la apreciación del progreso de la ciencia, el fervor por desafiar los antiguos dogmas y el principio de que la razón debería triunfar sobre la fe y podía conllevar beneficios sociales prácticos.
Igualmente importante es el hecho de que en la época de Boyle (y Newton), la ciencia había sido el dominio de una pequeña élite de pensadores. El siglo XVIII, sin embargo, presenció los comienzos de la era industrial, el auge continuado de la clase media y el declive del dominio de la aristocracia. En consecuencia, hacia la segunda mitad del siglo, la ciencia se había convertido en la ocupación de un nivel educado relativamente grande, un grupo más diverso que incluía miembros de la clase media, muchos de los cuales usaban el aprendizaje como trampolín para mejorar su estatus económico. La química, en particular, se benefició de aquella nueva y más amplia base de profesionales, gente como Priestley, y de la inventiva y el espíritu emprendedor que venía con ellos.
El libro de Priestley sobre la electricidad se publicó en 1767, pero aquel mismo año sus intereses de desplazaron de la física a la química y, en particular, a los gases. No cambió de disciplina porque hubiera tenido alguna idea brillante dentro de esa ciencia o porque hubiera llegado a creer que fuera un área de estudio más importante. Lo que ocurrió es que se había mudado a una cervecería cercana, donde los gases emergían en copiosas burbujas dentro de los barriles de madera cuyo contenido fermentaba, y aquello le había picado la curiosidad. Consiguió capturar grandes volúmenes del gas y, en experimentos que recuerdan los de Boyle, halló que si en un recipiente cerrado que contuviera aquel gas colocaba unas astillas de madera ardiendo, el fuego se apagaba, y si colocaba un ratón, no tardaba en morir. También observó que si se disolvía en agua, el gas creaba un líquido burbujeante con un gusto agradable. Hoy conocemos aquel gas como dióxido de carbono. Sin saberlo, Priestley había inventado una forma de crear bebidas gaseosas; lamentablemente, como era un hombre de pocos medios, no comercializó su invento, algo que sí hizo unos años más tarde un tal Johann Jacob Schweppe, cuya compañía de refrescos todavía sigue en pie.
Que Priestley se acercase a la química gracias a su fascinación por un subproducto comercial resulta apropiado, pues fue entonces, con el advenimiento de la Revolución industrial, a finales del siglo XVIII, cuando hallamos que ciencia e industria se espolean mutuamente, alcanzando logros cada vez mayores. De los grandes avances de la ciencia del siglo anterior, muy pocos habían resultado tener usos prácticos inmediatos; en cambio, los progresos que comenzaron a producirse a finales del siglo XVIII transformaron extraordinariamente la vida cotidiana. Los resultados directos de las colaboraciones entre la ciencia y la industria incluyen la máquina de vapor, los avances en el uso del agua como fuente de energía para la industria, el desarrollo de maquinaria y, más tarde, la aparición del ferrocarril, el telégrafo y el teléfono, la electricidad y la bombilla.
Aunque en sus inicios, alrededor de 1760, la Revolución industrial dependía más de las contribuciones de inventores artesanos que del descubrimiento de nuevos principios científicos, sirvió para estimular entre los ricos el interés en apoyar la ciencia como medio para mejorar el arte de la manufactura. Uno de aquellos opulentos mecenas interesados en la ciencia fue William Petty, conde de Shelburne. En 1773, ofreció a Priestley un cargo como bibliotecario y tutor de sus hijos, pero también le construyó un laboratorio y le concedió mucho tiempo libre para llevar a cabo sus investigaciones.
Priestley era un experimentador sagaz y meticuloso. En su nuevo laboratorio comenzó a investigar con la cal de los alquimistas [XII], lo que hoy conocemos como óxido de mercurio. Los químicos de la época sabían que cuando calentaban mercurio para hacer aquella cal, el mercurio absorbía algo del aire, pero no sabían qué. Sin embargo, lo más intrigante era que cuando aquella cal se calentaba todavía más, volvía a convertirse en mercurio, supuestamente expeliendo aquello que había absorbido.
Priestley descubrió que el gas expelido por la cal de mercurio poseía algunas propiedades interesantes. «Este aire es de naturaleza exaltada», escribió [212].
«Una candela quema en este aire con una llama de sorprendente fuerza… Pero para completar la prueba de la calidad superior de este aire, introduje en él un ratón, y en una cantidad en la que, de haber sido aire corriente, habría muerto en un cuarto de hora, vivió… toda una hora, y fue sacado de allí bastante vigoroso». Procedió entonces a probar aquel aire «exaltado», que naturalmente era oxígeno: «La impresión que produjo en mis pulmones no fue sensiblemente distinta a la del aire corriente; pero tengo para mí que durante algún tiempo sentí el pecho singularmente ligero y grácil». Tal vez, especuló, el misterioso gas se convertiría en un nuevo vicio popular entre los ricos ociosos.
Priestley no se convirtió en un traficante de oxígeno para los ricos, sino que estudió el gas. Lo expuso a muestras de sangre coagulada y oscura, y vio que adquiría un color rojo brillante. También observó que si se colocaba sangre oscura en un espacio pequeño y sellado para que absorbiera el gas del aire, cualquier animal presente se asfixiaba rápidamente.
Priestley interpretó estas observaciones en el sentido de que nuestros pulmones interactúan con el aire para revitalizar nuestra sangre. También experimentó con menta y espinacas y descubrió que, al crecer, estas plantas podían restablecer la capacidad del aire para soportar la respiración o el fuego; dicho de otro modo, fue la primera persona que observó los efectos de lo que hoy conocemos como fotosíntesis.
Aunque Priestley aprendió mucho sobre los efectos del oxígeno y a menudo se le atribuye su descubrimiento, no entendió su significado dentro del proceso de combustión. Al contrario, suscribió una popular pero complicada teoría de la época que sostenía que los objetos se queman no porque reaccionen con algo en el aire, sino porque al hacerlo liberan algo llamado «flogisto».
Priestley realizó experimentos reveladores, pero no consiguió averiguar exactamente qué revelaban. Sería un francés llamado Antoine Lavoisier (1743-1794) quien realizaría las investigaciones que explicaron el verdadero significado de los experimentos de Priestley: que la respiración y la combustión eran procesos que implicaban la absorción de algo (oxígeno) del aire, no la liberación de «flogisto [213]».
Podría parecer un sueño fútil que el campo que había comenzado como alquimia pudiera alzarse hasta el mismo rigor matemático que la física newtoniana, pero muchos químicos del siglo XVIII creían que podía conseguirse. Se especulaba incluso que las fuerzas de atracción entre los átomos que constituían las sustancias eran esencialmente de naturaleza gravitatoria y podían usarse para explicar las propiedades químicas. (Hoy sabemos que tenían razón, salvo que las fuerzas son electromagnéticas). Aquellas ideas venían de Newton, quien había aseverado que hay «agentes en la naturaleza capaces de hacer que las partículas de los cuerpos [es decir, los átomos] se unan gracias a atracciones muy fuertes. Y corresponde a la filosofía experimental descubrirlos [214]».
Aquella era una de las espinas cada vez más dolorosas que tenía clavada la química: hasta qué punto se podían traducir literalmente las ideas de Newton de la física a otras ciencias.
Lavoisier fue uno de aquellos químicos muy influidos por la revolución newtoniana. Veía la química tal como se practicaba entonces como una materia «fundada en pocos hechos… compuesta de ideas absolutamente incoherentes y suposiciones no demostradas… no tocada por la lógica de la ciencia [215]».
Pese a ello, intentó que la química emulara la metodología rigurosa y cuantitativa de la física experimental, y no los sistemas puramente matemáticos de la física teórica. Fue una elección acertada, dados los conocimientos y las capacidades tecnológicas de la época. Con el tiempo, la física teórica sería capaz de explicar la química por medio de ecuaciones, pero eso no sucedería hasta el desarrollo de la teoría cuántica y, más aún, la era de las computadoras digitales de alta velocidad.
La actitud de Lavoisier hacia la química reflejaba el hecho de que le gustaba tanto la química como la física. Incluso puede ser que prefiriera esta última, pero habiéndose criado como hijo de un rico abogado de París, en una familia intensamente protectora de su estatus y privilegios, la física comenzó a parecerle demasiado cáustica y controvertida. Aunque la familia de Lavoisier le animaba a perseguir sus ambiciones, esperaban de él que fuese socialmente hábil además de industrioso, y ponían el énfasis en la cautela y el control, dos cualidades que en él no eran precisamente naturales.
Que la verdadera pasión de Lavoisier fuese la ciencia debía resultar obvio para cualquiera que lo conociese. Tenía ideas extravagantes y grandes planes para ponerlas en práctica. Siendo todavía un adolescente, quiso investigar los efectos de la dieta sobre la salud ingiriendo nada más que leche durante un largo periodo, y propuso encerrarse en una habitación oscura durante seis semanas para aumentar su capacidad para juzgar pequeñas diferencias en la intensidad de la luz. (Al parecer, un amigo se lo quitó de la cabeza). Aquella misma pasión por la exploración científica se vería reflejada durante toda su vida en una enorme capacidad para dedicar, como tantos otros pioneros de la ciencia, largas horas de trabajo tedioso en busca del conocimiento.
Lavoisier tuvo la suerte de que el dinero nunca le supuso un problema; cuando aún no había cumplido los treinta años, recibió un adelanto de su herencia por valor de más de diez millones de dólares actuales. Los invirtió bien, comprando una participación en una institución llamada Ferme Générale (Compañía General de Recaudadores), que, pese a su nombre, no se dedicaba precisamente al cultivo del espárrago, sino a la tarea de recaudar impuestos, que la corona había decidido subcontratar[XIII].
La inversión de Lavoisier implicaba cierto trabajo, pues acarreaba la responsabilidad de supervisar la aplicación de las regulaciones del tabaco. A cambio, la compañía pagaba anualmente a Lavoisier, por término medio, el equivalente a unos dos millones y medio de los actuales dólares. Lavoisier usó ese dinero para construir el mejor laboratorio privado del mundo, tan repleto de material de vidrio que cabe imaginar que le placía admirar su colección de matraces tanto como disfrutaba usándolos. También gastó una parte de su dinero en proyectos humanitarios.
Lavoisier oyó hablar de los experimentos de Priestley en el otoño de 1774 de boca del propio Priestley, que recaló en París durante su viaje por Europa con lord Shelburne, para quien actuaba como una suerte de guía científico. Los tres, junto a varios dignatarios de la ciencia parisina, cenaron juntos y después hablaron de trabajo.
Cuando Priestley le refirió a Lavoisier las investigaciones que estaba realizando, este inmediatamente comprendió que aquellos experimentos sobre la combustión tenían algo en común con otros que él mismo había realizado sobre la oxidación. Aquello le sorprendió y le agradó. Pero también se dio cuenta de que Priestley no entendía adecuadamente los principios teóricos de la química, o siquiera las implicaciones de sus propios experimentos. Su trabajo, escribiría Lavoisier, era «una tela tejida con experimentos pero apenas interrumpida por razonamiento alguno [216]».
Sobresalir tanto en los aspectos teóricos como en los experimentales de una ciencia es, naturalmente, mucho pedir, y sé de pocos científicos destacados que puedan decirlo de sí mismos. Personalmente, yo fui identificado primero como un incipiente teórico, de modo que en la universidad solo se me requirió que cursara una asignatura de laboratorio de física. En ella, debía diseñar y construir una radio desde cero, un proyecto que me llevó el semestre entero. Al final, mi radio funcionaba solo si se sostenía del revés y se sacudía, y aun entonces solo sintonizaba una emisora de Boston que emitía una discordante música vanguardista. Doy gracias a la división del trabajo en la física, igual que la mayoría de mis amigos, sean teóricos o experimentadores.
Lavoisier era un maestro en ambos aspectos de la química, la teórica y la experimental. Tras desestimar a Priestley como un intelecto menor, y excitado ante la posibilidad de explorar los paralelismos entre los procesos de oxidación y combustión, a primera hora del día siguiente repitió los experimentos de Priestley con mercurio y su óxido. Los mejoró midiendo y pesando todo meticulosamente, y luego dio una explicación de los descubrimientos de Priestley que este ni siquiera había imaginado: cuando el mercurio se quema (formando la cal de mercurio), se combina con un gas que es un elemento fundamental de la naturaleza, y, tal como mostraban sus mediciones, gana un peso igual al del gas con el que se combina.
Las cuidadosas mediciones de Lavoisier demostraron algo más: cuando ocurre el proceso contrario, cuando la cal de mercurio, calentada, vuelve a dar mercurio, se torna más ligero, supuestamente porque libera el mismo gas que había absorbido y pierde un peso exactamente igual al ganado durante la formación de la cal. Aunque hay que atribuir a Priestley el descubrimiento del gas que se absorbía y liberaba en el curso de sus experimentos, fue Lavoisier quien explicó su significado, y quien finalmente le dio el nombre de oxígeno [XIV].
Lavoisier convertiría más tarde sus observaciones en una de las leyes más famosas de la ciencia, la ley de la conservación de la masa que dice que la masa total de los productos de una reacción química es igual a la masa de los reactivos. Posiblemente sea este el hito más importante en el camino que lleva de la alquimia a la química moderna: la identificación del cambio químico como la combinación y recombinación de elementos.
La asociación de Lavoisier con la compañía de recaudación de impuestos le había servido para financiar sus importantes investigaciones científicas, pero también fue su desgracia, pues lo puso en el punto de mira de los revolucionarios que derrocaron a la monarquía francesa. En todo tiempo y lugar, los recaudadores de impuestos son tan bienvenidos como un enfermo de tuberculosis acatarrado. Pero aquellos recaudadores eran especialmente detestados porque muchos de los tributos que tenían el encargo de recaudar eran considerados irracionales e injustos, especialmente por la presión a la que sometían a los pobres.
Por lo que sabemos, Lavoisier cumplió con su deber de forma justa y honesta, y con cierta simpatía hacia aquellos de los que recaudaba, pero la Revolución francesa no es famosa por la sutileza de sus juicios, y Lavoisier había dado a los revolucionarios mucho que odiar.
Su peor ofensa fue un enorme muro de adobe que había hecho que el gobierno construyera en torno a la ciudad de París, con un coste de varios cientos de millones de los actuales dólares. Nadie podía entrar o salir de la ciudad salvo por uno de los peajes del muro, que estaba patrullado por guardias armados que medían todos los bienes que entraban o salían y mantenían un registro que se utilizaba para calcular los impuestos. Para disgusto del público, Lavoisier había sacado del laboratorio su afición por la medición meticulosa y la había aplicado a su trabajo de recaudador.
Cuando estalló la Revolución, en 1789, el muro de Lavoisier fue la primera estructura atacada. Fue arrestado en 1793 (junto a otros recaudadores) durante el régimen del Terror y sentenciado a muerte. Solicitó que se pospusiera su ejecución hasta que terminara la investigación en la que estaba embarcado. Al parecer el juez le respondió que «la República no necesita científicos[217]».
Quizá no, pero la química sí que los necesitaba, y por suerte Lavoisier había conseguido transformarla durante sus cincuenta años de vida.
En el momento de su ejecución, Lavoisier había identificado como elementos treinta y tres sustancias. Acertó con todas menos diez. También había creado un sistema estándar de nomenclatura de los compuestos en función de los elementos que los constituían, que había de reemplazar al fastidioso y nada iluminador lenguaje de la química que le había precedido. He recalcado mucho acerca de la importancia de la matemática como lenguaje de la física, pero un lenguaje práctico es igual de esencial para la química. Antes de Lavoisier, por ejemplo, la cal de hidrargirio y la cal de azogue eran dos nombres para el mismo compuesto, que, en la terminología de Lavoisier, se convirtió en «óxido mercúrico».
Lavoisier no llegó a inventar las ecuaciones químicas modernas al estilo de «2Hg + O2 → 2HgO», la ecuación que describe la producción de óxido de mercurio, pero estableció las bases para que otros lo hicieran. Sus descubrimientos desataron una revolución en la química y despertaron un gran entusiasmo en la industria, que a su vez proporcionó a los futuros químicos sustancias nuevas con las que trabajar, y nuevas preguntas que responder.
En 1789, Lavoisier había publicado una obra en la que sintetizaba sus ideas, Tratado elemental de química. Hoy es considerado el primer tratado moderno de química: aclara el concepto de que un elemento es una sustancia que no puede descomponerse, niega la teoría de los cuatro elementos y la existencia del flogisto, enuncia la ley de la conservación de masas y presenta su nueva nomenclatura racional. En el curso de una generación, su libro se convertiría en un clásico que formó e inspiró a un gran número de pioneros. Para entonces, Lavoisier había sido ejecutado, y su cuerpo se había sepultado en una fosa común.
Lavoisier pasó su vida al servicio de la ciencia, pero también deseó la fama desesperadamente, y siempre lamentó no haber descubierto un nuevo elemento él mismo (aunque intentó compartir el crédito por el descubrimiento del oxígeno). Por fin, en 1900, un siglo después de negar que Francia necesitara científicos, su país le erigió una estatua de bronce en París. Los dignatarios que asistieron a su inauguración remarcaron que «merecía la estimación de los hombres» porque había «establecido las leyes fundamentales que gobiernan las transformaciones químicas». Uno de los oradores proclamó que la estatua capturaba a Lavoisier «con todo el lustre de su poder e inteligencia[218]».
Suena al reconocimiento que Lavoisier había anhelado, pero es dudoso que la ceremonia le hubiera gustado. Como más tarde se supo, el rostro de la estatua no era el de Lavoisier, sino el del filósofo y matemático marqués de Condorcet, que había sido secretario de la Academia de Ciencias durante los últimos años de Lavoisier.

17.jpg
Estatua de Lavoisier con la cabeza de Condorcet.

El escultor, Louis-Ernest Barrias (1841-1905), había copiado la cabeza de una escultura de otro artista pero no había identificado correctamente a su sujeto[219].
Aquella revelación no pareció afligir demasiado a los franceses, que dejaron en pie la estatua de bronce, un memorial por un hombre que había sido guillotinado, con la cabeza de otro [XV][220].
Al final, la estatua duró más o menos lo mismo que el propio Lavoisier. Como él, cayó víctima de la política de la guerra: fue fundida durante la ocupación nazi para fabricar balas[221].
Al menos las ideas de Lavoisier sí fueron duraderas, y reformaron el campo de la química.
La gente suele referirse al «progreso de la ciencia», pero la ciencia no progresa por sí misma; son personas las que la mueven, y su progreso se parece más a una carrera de relevos que a una maratón. Además, es una carrera de relevos bastante peculiar, pues suele ocurrir que la persona que recibe el testigo corra en una dirección que el corredor anterior ni había anticipado ni habría aprobado. Eso fue precisamente lo que ocurrió cuando el siguiente gran visionario de la química comenzó su marcha tras la gran carrera que Lavoisier había realizado.
Lavoisier había clarificado el papel de los elementos en las reacciones químicas y había promocionado un enfoque cuantitativo para describirlas. Hoy sabemos que para entender de verdad la química, sobre todo si se busca una comprensión cuantitativa de las reacciones, es necesario entender el átomo. Lavoisier, sin embargo, no sentía por el concepto del átomo más que desprecio. No es que fuera miope o de mente cerrada, sino que se oponía a la idea de pensar en términos de átomos por una razón enteramente práctica.
Desde los griegos, los estudiosos venían haciendo conjeturas sobre los átomos, aunque en ocasiones los llamasen por otro nombre, como «corpúsculos» o «partículas de materia». Sin embargo, eran tan pequeños que durante casi doce siglos a nadie se le había ocurrido la manera de relacionarlos con la realidad de las observaciones y las mediciones.
Para hacerse una idea de la pequeñez de los átomos, imaginemos que llenamos todos los océanos de canicas. Supongamos entonces que encogemos todas y cada una de esas canicas hasta el tamaño de un átomo. ¿Cuánto espacio ocuparían? Menos de una cucharilla de café. ¿Qué esperanza nos queda de observar los efectos de algo tan pequeño?
Pues resulta que mucha, y quien primero alcanzó ese fantástico logro fue un maestro de escuela cuáquero, John Dalton (1766-1844 [222]). Muchos de los grandes científicos de la historia fueron personajes estrafalarios, pero no Dalton. Hijo de un pobre tejedor, fue un hombre metódico en todo, desde su ciencia a su rutina del té de las cinco, que seguía con una cena de carne con patatas a las nueve.
El libro por el que Dalton es conocido, Un nuevo sistema de filosofía química, es un meticuloso tratado en tres partes, aún más asombroso por el hecho de que Dalton lo concibió, investigó y escribió durante su tiempo libre. La primera parte, publicada en 1810, cuando contaba unos cuarenta y cinco años, es una obra mastodóntica de 916 páginas. De aquellas 916 páginas, tan solo un capítulo, de apenas cinco páginas de extensión, presenta la idea revolucionaria por la que hoy lo conocemos: una forma de calcular los pesos relativos de los átomos a partir de mediciones de laboratorio. Tal es la excitación y el poder de las ideas en la ciencia: cinco páginas pueden corregir dos mil años de teorías erróneas.
Como tantas ideas, la de Dalton le llegó dando un rodeo, y aunque ya era el siglo XIX, su inspiración se debe a la influencia de un hombre nacido a mediados del siglo XVII: tal fue el alcance de Isaac Newton.
A Dalton le gustaba ir a caminar, y de joven había vivido en Cumberland, la región más lluviosa de Inglaterra, donde se interesó por la meteorología. También fue un prodigio que con quince años estudió los Principia de Newton. Aquellos dos intereses resultaron ser una combinación de sorprendente potencia, pues lo llevaron a interesarse por las propiedades físicas de los gases, como el aire húmedo de la campiña de Cumberland. Intrigado por la teoría de Newton de los corpúsculos, que en esencia era el antiguo concepto griego de los átomos pero actualizado con las ideas de Newton de la fuerza y el movimiento, Dalton sospechó que las diferentes solubilidades de los gases se debían a que sus átomos eran de distintos tamaños, y eso, a su vez, lo llevó a considerar los pesos atómicos.
El enfoque de Dalton se basaba en la idea de que si uno tiene cuidado de considerar únicamente los compuestos puros, estos deberían estar formados siempre por sus constituyentes en las mismas proporciones exactas. Por ejemplo, existen dos óxidos de cobre distintos. Si se examinan por separado, se encuentra que, por cada gramo de oxígeno consumido, la creación de uno de los óxidos usa cuatro gramos de cobre, mientras que la creación del otro óxido consume ocho gramos. Eso implica que en el segundo tipo de óxido, con cada átomo de oxígeno se combina el doble de átomos de cobre.
Supongamos ahora, en bien de la simplicidad, que en el primer caso cada átomo de oxígeno se combina con uno de cobre mientras que en el segundo caso, cada átomo de oxígeno se combina con dos. Como en el primer caso el óxido se forma con cuatro gramos de cobre por cada gramo de oxígeno, podemos concluir que un átomo de cobre pesa alrededor de cuatro veces el peso de un átomo de oxígeno. Resulta que esa suposición es correcta, y es el tipo de razonamiento que Dalton utilizó para calcular los pesos atómicos relativos de los elementos conocidos.
Como Dalton calculaba pesos relativos, necesitaba comenzar en algún lugar, de manera que al elemento conocido más ligero, el hidrógeno, le asignó un peso de «1» y calculó los pesos de todos los otros elementos con relación a él.
Por desgracia, su suposición de que los elementos se combinan en las proporciones más simples posibles no siempre se cumple. Por ejemplo, esa suposición asignaba al agua la fórmula HO en lugar de la más complicada H2O, que hoy sabemos que le corresponde. Por tanto, cuando calculó el peso del átomo de oxígeno con relación al del de hidrógeno, su resultado fue la mitad de lo que debería ser. Dalton era muy consciente de la incertidumbre, y con respecto al agua, reconoció que tanto HO2 como H2O eran alternativas posibles. Los pesos relativos habrían sido mucho más difíciles de descifrar si los compuestos comunes tuviesen fórmulas como H37O22, pero por suerte no es así.
Dalton sabía que sus estimaciones eran provisionales, y que era necesario basarlas en datos de un gran número de compuestos para así revelar incoherencias que sugirieran errores en las fórmulas inferidas. Esa dificultad entorpecería el trabajo de los químicos durante cincuenta años más, pero que llevara tiempo aclarar los detalles no redujo su impacto en la disciplina, pues la versión del atomismo que defendía Dalton fue la que finalmente demostró un sentido práctico porque podía relacionarse con mediciones de laboratorio. Más aún, basándose en los trabajos de Lavoisier, Dalton usó sus ideas para crear, por primera vez, un lenguaje cuantitativo para la química, una nueva manera de entender los experimentos que los químicos llevaban a cabo en términos del intercambio de átomos entre moléculas. En la versión moderna, por ejemplo, para describir la creación de agua a partir de oxígeno e hidrógeno, un químico (o un estudiante de secundaria) escribiría «2H2 + O2 → 2H2O».
El nuevo lenguaje de la química revolucionó la capacidad de los químicos para entender y razonar sobre lo que observaban y medían cuando creaban reacciones químicas, y sus ideas han ocupado un lugar central en la teoría de la química desde entonces. Las investigaciones de Dalton lo hicieron famoso en todo el mundo, y aunque rehuía los honores públicos, los recibió, entre ellos la pertenencia a la Royal Society, que le fue otorgada pese a sus más vehementes objeciones. Cuando falleció, en 1844, al funeral que había deseado modesto acudieron más de cuarenta mil personas.
Gracias a los esfuerzos de Dalton, la manera de pensar sobre la naturaleza de las sustancias había progresado de las teorías propuestas por la antigua sabiduría mística a los inicios de una comprensión de la materia a un nivel que quedaba mucho más allá del alcance de nuestros sentidos. Pero si cada elemento se distingue por el peso de sus átomos, ¿cómo se relaciona esa propiedad atómica con las características químicas y físicas que observamos? Ese es el siguiente tramo de la carrera de relevos, y la última de las preguntas profundas de la química que podían contestarse sin necesidad de trascender la ciencia newtoniana. Se producirían revelaciones más profundas, pero tendrían que esperar a la revolución cuántica de la física.
Stephen Hawking, tras sobrevivir durante décadas pese a estar paralizado por una enfermedad que supuestamente tenía que matarlo en unos pocos años, me dijo en una ocasión que consideraba que la tozudez era su mejor rasgo, y creo que quizá tenga razón. Aunque a veces hace que sea difícil trabajar con él, sabe que su tozudez es lo que lo mantiene vivo y le da fuerzas para seguir con sus investigaciones.
Las teorías de la ciencia parecen casi evidentes cuando ya han sido formuladas, pero generalmente la batalla para crearlas solo puede ganarse gracias a una colosal perseverancia. Los científicos hablan de grit (arrestos), un atributo que se relaciona con la perseverancia y la tozudez, pero también con la pasión, todas ellas características que hemos visto a menudo en estas páginas. Lo que podemos definir como «la predisposición a perseguir objetivos a largo plazo con interés y esfuerzo sostenidos en el tiempo[223]», se ha relacionado, como no puede sorprender, con todo tipo de empeño, desde el matrimonio hasta las fuerzas de operaciones especiales de los ejércitos. Tal vez por eso muchos de los personajes que hemos ido encontrando fuesen obstinados e incluso arrogantes. La mayoría de los grandes innovadores lo son. Tienen que serlo.

18.jpg
Dmitri Mendeleev

Nuestro siguiente pionero, Dmitri Mendeleiev (1834-1907), un químico ruso conocido por sus rabietas y sus ataques de ira (y por dejarse cortar el cabello y la barba solamente una vez al año), encaja a la perfección en ese panteón de mulas obstinadas [224].
Tan fuerte era su personalidad que su mujer aprendió con el tiempo a evitarlo viviendo en su casa de campo, salvo cuando él aparecía por allí, en cuyo caso ella cogía a los niños y se mudaba a su residencia de la ciudad.
Mendeleev, como Hawking, fue un superviviente. Hacia el final de su adolescencia fue hospitalizado por tuberculosis, pero no solo sobrevivió, sino que encontró un laboratorio cercano y pasó sus días de convalecencia realizando experimentos de química. Más tarde, tras obtener sus credenciales de docente, enervó a un funcionario del Ministerio de Educación y, a consecuencia de ello, fue destinado a un instituto de la lejana Crimea. Corría el año 1855, y cuando Mendeleev llegó allí, descubrió que el instituto se encontraba en una zona de guerra y llevaba mucho tiempo cerrado. Sin dejarse vencer, regresó a su casa, abandonó sus perspectivas de una carrera como docente de instituto y aceptó un trabajo como privatdozent, los docentes que cobraban por propinas, en la Universidad de San Petersburgo. Con el tiempo llegaría a ocupar allí una cátedra.
Que Mendeleev fuese químico, o incluso que tuviera una educación, se lo debía solo a su madre. Había nacido en una familia pobre de la Siberia occidental, el más joven de catorce o quince hijos, según las fuentes. No le fue bien en la escuela pero disfrutaba montando experimentos científicos caseros. Su madre creía en su inteligencia, y cuando cumplió quince años, tras la muerte de su padre, hizo camino con él en busca de una universidad que quisiera aceptarlo.
El viaje resultó ser largo, más de dos mil kilómetros recorridos con mucho autostop de carros de caballos, pero al final consiguió una pequeña beca en el Instituto Central Pedagógico de San Petersburgo, donde el director era un viejo amigo de su fallecido padre. Su madre murió al poco tiempo. Treinta y siete años más tarde, Mendeleev dedicó un tratado científico a su memoria, citando lo que él llamaba sus sagradas últimas palabras: «Abstente de ilusiones e insiste en el trabajo, no en las palabras. Con paciencia busca la verdad divina y científica». Mendeleev, como tantos otros grandes científicos que lo precedieron, dejaría que esas palabras guiaran su vida.
En cierto sentido, Mendeleev tuvo suerte de nacer cuando lo hizo. Prácticamente todos los grandes descubrimientos e innovaciones han nacido de una combinación de perspicacia humana y circunstancias propicias. Einstein tuvo la suerte de comenzar su carrera poco después de la formulación de la moderna teoría del electromagnetismo, que implicaba que la velocidad de la luz es constante, una idea que se convertiría en la esencia de su teoría de la relatividad. De modo parecido, Steve Jobs tuvo la suerte de comenzar su carrera en un momento en que la tecnología estaba llegando al punto en que era posible desarrollar un ordenador personal. Por otro lado, el inventor y emprendedor armenio-americano Luther Simjian registró muchas patentes, pero tuvo su mejor idea una década antes de tiempo: concibió el cajero electrónico, al que llamó Bancograph, en 1960 [225].
Convenció a un banco de la ciudad de Nueva York de que instalara unos cuantos, pero la gente no se fiaba de ellos para hacer depósitos y solo los usaban prostitutas y jugadores que preferían no hacer los trámites con un cajero de carne y hueso. Una década más tarde, los tiempos habían cambiado y el cajero automático despegó, pero con el diseño de otro.
A diferencia de Simjian, Mendeleev tenía de su parte el espíritu de los tiempos. Cuando llegó a adulto, la química estaba madura para avanzar: desde la década de 1860, la idea de que los elementos se pudieran organizar en familias estaba en el aire en toda Europa. No había pasado desapercibido, por ejemplo, el hecho de que el flúor, el cloro y el bromo, que el químico sueco Jöns Jakob Berzelius había clasificado como «halógenos» en 1842, parecían ir juntos: todos son gases extraordinariamente corrosivos que se pueden domeñar uniéndolos al sodio, con el que forman unos inocuos cristales de sal. (La sal de mesa, por ejemplo, es cloruro de sodio). Tampoco era difícil detectar las semejanzas entre los metales alcalinos, como el sodio, el litio y el potasio. Todos ellos son brillantes, blandos y muy reactivos. De hecho, los miembros de la familia de metales alcalinos se parecen tanto que si en la sal de mesa se cambia el sodio por el potasio, lo que se obtiene es tan parecido al cloruro de sodio que se utiliza como sustituto de la sal.
Los químicos, inspirados en el sistema de clasificación de los seres vivos de Carlos Linneo, intentaron desarrollar su propio sistema de clasificación en familias para explicar las relaciones entre los elementos. Pero no todos los grupos eran obvios, ni estaba tan claro cómo se relacionaban unos con otros, ni qué propiedad de los átomos era responsable de los parecidos de familia. Estos interrogantes atrajeron a pensadores de toda Europa. Incluso un refinador de azúcar se metió en faena, o al menos el químico de planta de un ingenio azucarero. Pero aunque un puñado de pensadores llamó a la puerta de la respuesta, solo uno, Mendeleev, logró franquearla.
Es razonable pensar que si la idea de organizar los elementos estaba «en el aire», la persona que lograse hacerlo recibiría un buen aplauso, pero no necesariamente se la llegaría a consideran uno de los más grandes genios que jamás hayan trabajado en la disciplina, y Mendeleev desde luego lo es. ¿Qué es lo que lo sitúa en el grupo de los titanes como Boyle, Dalton y Lavoisier?
La «tabla periódica» que desarrolló Mendeleev no es la versión química de una guía de las aves, sino más bien la versión química de las leyes de Newton, o al menos se acerca tanto a ese mágico logro como la química pueda hacerlo. Es así porque no es una simple tabla que ordene las familias de los elementos, sino una auténtica tabla de güija que permite a los químicos entender y predecir las propiedades de cualquier elemento, incluso de los que todavía no se conocen.
Desde nuestra perspectiva, es fácil atribuir el avance de Mendeleev a que plantease las preguntas adecuadas en el momento adecuado, a su ética de trabajo, pasión, obstinación y extraordinaria confianza en sí mismo. Sin embargo, como suele ocurrir con el descubrimiento y la innovación, y también en muchas ocasiones en nuestras vidas, tan importante como sus cualidades intelectuales fue el papel del azar, o al menos una circunstancia no relacionada que hizo posible que aquellas cualidades lo llevaran al triunfo. En este caso, fue la casual decisión de Mendeleev de escribir un libro de texto de química.
La decisión de escribir el libro se produjo en 1866, después de que Mendeleev fuese contratado como profesor de química en San Petersburgo, a la edad de treinta y dos años. San Petersburgo había sido creada un siglo y medio antes por Pedro el Grande y comenzaba por fin a emerger como centro intelectual de Europa. Su universidad era la mejor de Rusia, pero Rusia iba por detrás del resto de Europa, y, tras revisar la literatura química rusa, Mendeleev no encontró ningún libro adecuado y actualizado que pudiera usar en sus clases. De ahí su decisión de escribir uno propio. Tardaría años en finalizar el texto, que habría de traducirse a todas las lenguas importantes y usarse en universidades de todo el mundo durante décadas. Era una obra heterodoxa, cargada de anécdotas, especulación y excentricidad. Fue una obra hecha por amor al arte, y su anhelo por escribir el mejor libro posible lo obligó a concentrarse en las cuestiones que lo llevarían a su gran descubrimiento.
El primer reto al que se enfrentó Mendeleev en el momento de redactar su libro fue cómo organizarlo. Decidió tratar los elementos y sus compuestos en grupos, o familias, definidos por sus propiedades. Tras la tarea relativamente sencilla de describir los halógenos y los metales alcalinos, encaró el problema de qué grupo describir a continuación. ¿Debía ser arbitrario el orden? ¿O existía algún principio de organización que lo dictase?
Mendeleev peleó con el problema, buscando a fondo en su ingente conocimiento químico las claves que pudieran relacionar los distintos grupos. Un sábado, tan concentrado estaba que trabajó toda la noche. Por la mañana no había llegado a ningún puerto, pero algo lo inspiró a escribir en el envés de un sobre los nombres de los elementos de los grupos del oxígeno, el nitrógeno y los halógenos (doce elementos en total), en orden ascendente de peso atómico.
Se percató entonces de una pauta sorprendente: la lista comenzaba con el nitrógeno, el oxígeno y el flúor (el miembro más ligero de cada grupo) y continuaba con el segundo miembro más ligero de cada grupo, y así sucesivamente. En otras palabras, la lista seguía una pauta repetitiva, «periódica». Solo en el caso de dos de los elementos se rompía esa pauta.
Mendeleev hizo su descubrimiento más evidente poniendo los elementos de cada grupo en una fila y escribiendo las filas una encima de otra para formar una tabla. (Hoy escribimos los elementos por columnas). ¿Había algún significado en todo aquello? Y si estos doce elementos realmente seguían una pauta con sentido, ¿encajarían en el mismo esquema los otros cincuenta y un elementos que se conocían entonces?
Mendeleev y sus amigos solían entretenerse con un juego de naipes llamado paciencia, que consistía en extender la baraja sobre un tapete y ordenar luego las cartas de un modo determinado. Los naipes formaban una tabla que, como más tarde recordaría, se parecía mucho a la tabla de doce elementos que había hecho aquel día, así que decidió escribir en unos naipes los nombres y pesos atómicos de todos los elementos conocidos para intentar hacer con ellos una tabla. Jugando a lo que ahora llamaba «paciencia química», comenzó a mover las cartas sobre el tapete, intentando ordenarlas de algún modo que tuviera sentido.
El método de Mendeleev tenía graves problemas. Para empezar, no tenía claro a qué grupo asignar algunos de los elementos. Las propiedades de otros no se conocían bien. Además, existían todavía desacuerdos sobre el peso atómico de algunos elementos, y hoy sabemos que algunos de los pesos asignados entonces eran incorrectos. Pero quizá lo más grave fuese que algunos elementos todavía no se habían descubierto, y aquello hacía que pareciera que sus secuencias no funcionaban.
Todas estas cuestiones hacían más difícil la tarea de Mendeleev, pero había algo más, algo más sutil: no había ninguna razón para creer que un orden basado en el peso atómico hubiera de funcionar, pues por aquel entonces nadie entendía qué aspecto químico del átomo quedaba reflejado en el peso atómico. (Hoy sabemos que es el número de protones y neutrones del núcleo del átomo y que la contribución de los neutrones al peso no está relacionada con las propiedades químicas del átomo). Es justamente aquí donde la obstinación de Mendeleev sustentó su pasión por llevar sus ideas hasta el final, basándose solamente en la intuición y la fe.
El trabajo de Mendeleev revela, de una forma más literal que la mayoría, hasta qué punto el proceso científico es como la resolución de un puzle. Pero también ilustra diferencias importantes, porque en los puzles que uno compra en una tienda las piezas encajan, pero las piezas del puzle de Mendeleev no acababan de encajar. Una parte de la ciencia, y toda la innovación, consiste en ignorar lo que parece indicar que aquello no puede funcionar, en creer que al final encontraremos una solución o que los problemas resultarán ser irrelevantes. En este caso, gracias a una notable brillantez y a una extraordinaria perseverancia, Mendeleev creó la imagen del puzle rehaciendo algunas de las piezas e inventando otras.
Con la perspectiva del tiempo, es fácil caracterizar el logro de Mendeleev bajo una luz heroica, como supongo que yo mismo he hecho. Aunque las ideas de un individuo parezcan demenciales, si funcionan, lo convertimos en héroe. Pero la moneda tiene otra cara, porque desde siempre muchas ideas demenciales han resultado ser erróneas. De hecho, las ideas que funcionan son muchas menos que las que no funcionan. Las erróneas se olvidan pronto, las horas, días y años que les dedicaron quienes creían en ellas son tiempo malgastado, y solemos decir de sus autores que son fracasados o chiflados. Pero el heroísmo nace del riesgo, así que lo realmente heroico de la investigación, tanto si se corona con éxito como si no, es ese riesgo que aceptamos los científicos y otros innovadores, las largas horas y días, meses, incluso años de intensa lucha intelectual que puede llevarnos, o no, a una conclusión o un producto fructífero.
Mendeleev sin duda puso las horas. Cuando un elemento no caía en el lugar que quería, se negaba a aceptar que su esquema fuera erróneo, se aferraba a sus ideas, concluía que quienes habían medido su peso atómico se habían equivocado, y con decisión tachaba el peso medido y escribía el valor que lo hacía encajar.
Sus afirmaciones más audaces se produjeron cuando su tabla le dejó lagunas, espacios que ningún elemento conocido podía ocupar porque no poseía las propiedades necesarias. En lugar de abandonar sus ideas o de intentar alterar sus principios organizativos, categóricamente insistía en que aquellas lagunas correspondían a elementos que aún no se habían descubierto. Incluso predijo las propiedades de los nuevos elementos: su peso, sus características físicas, con qué otros elementos se combinan, el tipo de componentes que producen, y todo ello basándose solamente en el lugar en el que aparecía la laguna.
Por ejemplo, había una laguna al lado del aluminio. Mendeleev lo llenó con un elemento que llamó eka-aluminio, y predijo que cuando algún químico finalmente lo descubriera, se encontraría con un metal brillante, muy buen conductor del calor y con un punto de fusión bajo, y que un centímetro cúbico de ese material pesaría precisamente 5,9 gramos. Unos pocos años más tarde, un químico francés llamado Paul-Émile Lecoq de Boisbaudran descubrió en una mena un elemento que respondía a la descripción, salvo porque pesaba 4,7 gramos por centímetro cúbico. Mendeleev inmediatamente envió una carta a Lecoq diciéndole que su muestra debía ser impura. Lecoq repitió su análisis con una nueva muestra que se aseguró de purificar rigurosamente. Esta vez, el metal pesó exactamente lo que Mendeleev había predicho: 5,9 gramos por centímetro cúbico. Lecoq lo llamó galio, por el nombre latín de Francia, Galia.
Mendeleev publicó su tabla en 1869, primero en una oscura revista rusa, luego en una respetada publicación alemana, con el título «Sobre la relación entre las propiedades de los elementos y su peso atómico[226]».
Además del galio, su tabla incluía espacios guardados para otros elementos todavía no conocidos, los que hoy llamamos escandio, germanio y tecnecio. El tecnecio es radiactivo y tan raro que no fue descubierto hasta 1937, cuando fue sintetizado en un ciclotrón (un tipo de acelerador de partículas), unos treinta años después de la muerte de Mendeleev.

19.jpg
Tabla periódica original de Mendeleev, tal como se publicó en 1869, y la tabla periódica actual.

El premio Nobel de Química se concedió por primera vez en 1901, seis años antes de la muerte de Mendeleev. Que nunca lo recibiera es uno de los grandes juicios erróneos de la historia de los Nobel, pues su tabla de los elementos fue el principio organizativo central de la química moderna, el descubrimiento que hizo posible nuestro dominio de la ciencia de las sustancias y el remate de dos mil años de indagaciones que habían empezado en los laboratorio de embalsamadores y alquimistas.
No obstante, Mendeleev sí llegó a ser miembro de un club más selecto. En 1955, unos científicos de Berkeley produjeron algo más de una docena de átomos de un nuevo elemento, nuevamente en un ciclotrón, y en 1963 lo llamaron mendelevio, en honor a su magnífico logro. El premio Nobel se ha concedido ya a más de ochocientas personas, pero solo dieciséis científicos tienen un elemento con su nombre. Mendeleev es uno de ellos. Ocupa su lugar en la tabla como elemento 101, a poca distancia de elementos como el einstenio y el copernicio.

9. El mundo animado
Aunque desde la antigüedad los pensadores habían especulado que los objetos materiales estaban formados por unas piezas fundamentales, nadie había imaginado siquiera que los seres vivos también, así que debió ser una gran sorpresa lo que nuestro viejo amigo Robert Hooke presenció en 1664, cuando amoló su cortaplumas hasta dejarlo «tan fino como una navaja» y cortó con él una delgada lámina de corcho que examinó bajo el microscopio, convirtiéndose así en el primer humano que veía lo que él mismo llamaría «células». Las llamó así porque le recordaron las pequeñas celdas en las que dormían los monjes en los monasterios[227].
Uno podría pensar en las células como los átomos de la vida, pero son más complejas que los átomos, y lo que más debió sorprender a quienes primero las vieron fue que ellas mismas están vivas. Una célula es una vibrante fábrica viva que consume energía y materias primas para producir muchos y diversos productos, sobre todo proteínas, que llevan a cabo casi cualquiera de las funciones biológicas vitales. Hace falta mucho conocimiento para realizar las funciones de una célula, de manera que, aunque no tengan cerebro, «saben» cosas: saben cómo hacer proteínas y otros materiales que necesitamos para crecer y funcionar, y, lo que quizá sea aún más crucial, saben cómo reproducirse.
El producto más importante de una célula es una copia de sí misma. Gracias a esta capacidad, los humanos comenzamos siendo una única célula y, a través de una serie de algo más de cuarenta divisiones celulares, acabamos teniendo más de treinta billones de células [228], unas cien veces más que estrellas hay en la Vía Láctea. Es un extraordinario prodigio que la suma de las actividades de nuestras células, la interacción de una galaxia de individuos no pensantes, sume el total que somos cada uno de nosotros. Igual de impactante es la idea de que podamos desentrañar cómo funciona todo eso, cual computadoras que, sin que se lo pida ningún programador, se analizasen a sí mismas. Ese es el milagro de la biología.
El milagro resulta aún más extraordinario si se considera que la mayor parte del mundo de la biología es invisible a nuestra mirada. Eso se debe en parte a la pequeñez de las células y en parte a la magnífica diversidad de la vida. Si excluimos organismos como las bacterias y contamos solamente seres vivos formados por células con núcleo, los científicos estiman que viven en nuestro planeta unos diez millones de especies, de las que hemos descubierto y clasificado solamente alrededor de un 1%.[229] Solo de hormigas hay al menos 22 000 especies, y aproximadamente entre uno y diez millones de hormigas por cada persona que vive en el planeta.
Todos conocemos algunos de los insectos que pululan por nuestros jardines, pero una paletada de buen suelo contiene más tipos de organismos de los que podríamos contar, cientos o incluso miles de especies de invertebrados, varios miles de lombrices microscópicas, decenas de miles de tipos de bacterias. La presencia de la vida en la Tierra es tan generalizada que continuamente ingerimos organismos que seguramente no querríamos comer. ¿Manteca de cacahuete sin restos de insectos? Imposible. El gobierno reconoce que la producción de manteca de cacahuete sin restos de insectos no es práctica, de manera que la normativa permite hasta diez fragmentos de insecto por porción de treinta y un gramos [230].
Una porción de brécol puede contener sesenta áfidos o ácaros, y un frasco de canela molida hasta cuatrocientos fragmentos de insectos[231].
Todo eso resulta poco apetitoso, pero es bueno recordar que nuestro propio cuerpo no está libre de vida foránea; cada uno de nosotros somos un ecosistema entero de seres vivos. Los científicos han identificado, por ejemplo, cuarenta y cuatro géneros (grupos de especies) de organismos microscópicos que viven en nuestro antebrazo, y al menos 160 especies de bacterias que habitan en nuestro intestino. ¿Y entre los dedos de los pies? Cuarenta especies de hongos. De hecho, si nos molestamos en sumarlo todo, descubrimos que en nuestro cuerpo hay más células microbianas que células humanas [232].
Cada una de las partes del cuerpo forma un hábitat peculiar, hasta el punto de que los organismos que viven en los intestinos y los que habitan entre los dedos de los pies de una persona tienen más en común con los organismos de esas regiones de otra persona que con los del propio antebrazo. Existe incluso un centro académico con el nombre del proyecto de Biodiversidad del Ombligo en la Universidad Estatal de Carolina del Norte donde se estudia la vida que existe en ese oscuro y aislado paisaje. Luego están los infames ácaros de la piel. Parientes de las garrapatas, las arañas y los escorpiones, estos organismos miden menos de una tercera parte de un milímetro y viven en nuestro rostro (en los folículos pilosos y las glándulas asociadas), sobre todo cerca de la nariz, las pestañas y las cejas, donde chupan el jugoso contenido de nuestras células. Pero no hay que preocuparse: no suelen causar ningún trastorno, y quien sea optimista puede alimentar la esperanza de encontrarse entre la mitad de la población que está libre de ellos.
Dada la complejidad de la vida, su diversidad de tamaño, forma y hábitat, y nuestra poca propensión a creer que seamos «simples» productos de unas leyes físicas, no es de extrañar que la biología fuera a la zaga de la física y la química en su desarrollo como ciencia. Como esas otras ciencias, para crecer la biología tenía que superar las tendencias naturales en los seres humanos a sentirse especiales y creer que el mundo está gobernado por deidades o magia. Además, como en esas otras ciencias, eso significaba superar la doctrina teocéntrica de la Iglesia católica y las teorías antropocéntricas de Aristóteles.
Aristóteles fue un biólogo entusiasta; casi una cuarta parte de sus escritos tiene que ver con esa disciplina [233].
Mientras que la física aristotélica situaba el Sol en el centro del universo, su biología, más personal, exalta a los humanos, y en particular a los hombres.
Aristóteles creía que una inteligencia divina había diseñado a todos los seres vivos, que difieren de los inanimados en que poseen una cualidad especial o esencia que parte o cesa de existir cuando el ser vivo muere. Entre todos esos diseños para la vida, los humanos representaban para Aristóteles el punto álgido. Tan vehemente era sobre este punto que cuando describía una característica de una especie que difería de la correspondiente en un humano, la calificaba de deformidad. De modo parecido, veía a las mujeres como hombres deformes o dañados.
La erosión de estas creencias tradicionales pero falsas hizo posible el nacimiento de la biología moderna. Una de las primeras victorias importantes sobre aquellas ideas fue la refutación de un principio que la biología aristotélica denominaba generación espontánea, que decía que de la materia inanimada, como el polvo, podían surgir seres vivos. Más o menos al mismo tiempo, al mostrar que incluso las formas más simples de vida tienen órganos como nosotros, y que nosotros, como otras plantas y animales, estamos hechos de células, la nueva tecnología del microscopio sembró dudas sobre la antigua manera de pensar. Pero la biología no pudo comenzar a madurar realmente como ciencia hasta el descubrimiento de uno de sus grandes principios organizativos.
La física, que se ocupa de cómo interactúan los objetos, tiene sus leyes del movimiento; la química, que se ocupa de cómo interactúan los elementos y sus compuestos, tiene su tabla periódica. La biología se ocupa de los modos en que las especies funcionan e interactúan, y para tener éxito, necesitaba entender por qué tienen esas especies las características que tienen, alguna explicación que no sea «porque Dios las hizo así». Ese conocimiento llegó finalmente con la teoría de la evolución de Darwin, que se basa en la selección natural.
Mucho antes de que hubiera biología había observadores de la vida. Los agricultores, pescadores, médicos y filósofos conocían los organismos del mar y la campiña. Sin embargo, la biología es más que lo que queda reseñado en catálogos de plantas o guías de campo de las aves, pues la ciencia no se sienta tranquilamente a describir el mundo, sino que salta y grita ideas que explican lo que vemos. Pero explicar es mucho más difícil que describir. En consecuencia, antes del desarrollo del método científico, la biología, como las otras ciencias, estaba plagada de explicaciones e ideas que eran razonables, pero incorrectas.
Pensemos en las ranas del antiguo Egipto. Cada primavera, después de inundar las tierras que lo flanqueaban, el Nilo dejaba en ellas un lodo rico en nutrientes, el tipo de tierra que, con la ayuda del trabajo diligente de los labriegos, podía alimentar la nación. Aquel suelo lodoso también producía una cosecha que no existía en tierras más secas: ranas. Las ruidosas criaturas aparecían de una forma tan repentina y en tan gran número que parecían haber salido del lodo mismo, y así es precisamente como creían los antiguos egipcios que llegaban a la vida.
La teoría egipcia no es el producto de un razonamiento endeble. Durante la mayor parte de la historia hubo observadores diligentes que llegaron a la misma conclusión. Los carniceros observaron que en la carne «aparecían» gusanos, y los agricultores que «aparecían» ratones en las cestas donde guardaban el trigo. En el siglo XVII, un químico llamado Jan Baptist van Helmont llegó al extremo de recomendar una receta para crear ratones a partir de materiales cotidianos: ponga unos granos de trigo en una olla, añada ropa interior sucia y espere veintiún días. Al parecer, la receta solía funcionar.
La teoría que respaldaba el mejunje de Van Helmont era la generación espontánea, la idea de que los organismos vivos simples pueden surgir espontáneamente a partir de determinados sustratos inanimados. Desde los tiempos del antiguo Egipto, y probablemente antes, la gente creía que en todos los organismos vivos existía una especie de fuerza vital o energía[234].
Con el tiempo, un subproducto de esas concepciones fue la convicción de que, de algún modo, la energía vital se podía infundir en la materia inanimada, creando nueva vida, y cuando Aristóteles sintetizó esa doctrina en una teoría coherente, adquirió una autoridad especial. Pero del mismo modo que ciertas observaciones y experimentos clave del siglo XVII representaron el principio del final de la física de Aristóteles, también el auge de la ciencia en aquel siglo sometió a un duro ataque sus ideas sobre biología. Entre los retos más memorables se encuentra un experimento para poner a prueba la generación espontánea realizado por el médico italiano Francesco Redi en 1668. Fue uno de los primeros experimentos verdaderamente científicos de la biología.
El método de Redi era simple. Se hizo con varios frascos de boca ancha y colocó en ellos muestras de carne fresca de serpiente, pescado y ternera. Entonces dejó algunos de los frascos sin tapar mientras que otros los cubrió con un material parecido a la gasa o con papel. Su hipótesis era que si realmente ocurría la generación espontánea, las moscas y larvas deberían aparecer en la carne en las tres situaciones. Si, en cambio, como Redi sospechaba, las larvas salían de unos huevos pequeños e invisibles que ponían las moscas, deberían aparecer en los frascos descubiertos pero no en los cubiertos con papel. También predijo que aparecerían larvas en la gasa que cubría el resto de los frascos, que era lo más cerca de la carne que podían llegar las hambrientas moscas. Eso fue justamente lo que ocurrió.
El experimento de Redi fue recibido con opiniones encontradas. Para algunos, parecía refutar la generación espontánea, pero otros decidieron ignorarlo o buscarle fallos. Muchos seguramente cayeron en la segunda categoría simplemente porque estaban sesgados y tendían a mantener sus creencias previas. Al fin y al cabo, la cuestión tenía implicaciones teológicas: algunos creían que la generación espontánea preservaba el papel de Dios en la creación de la vida. Pero también había razones científicas para dudar de la conclusión de Redi; por ejemplo, podía ser erróneo extrapolar la validez de su experimento más allá de los organismos que había estudiado. Quizá todo lo que había demostrado era que la generación espontánea no se da en las moscas.
En defensa de Redi, hay que decir que mantuvo una mente abierta, e incluso halló otros casos en los que sospechaba que se producía generación espontánea. Al final, la cuestión no dejaría de discutirse durante otros doscientos años más, hasta que Louis Pasteur, a finales del siglo XIX, la desacreditó de una vez por todas con sus meticulosos experimentos que demostraron que ni siquiera los microorganismos aparecían por generación espontánea. Pese a ello, aunque no fuese definitivo, el trabajo de Redi fue espléndido, y destaca especialmente porque cualquiera podría haber hecho una prueba parecida, pero a nadie más se le había ocurrido.
La gente suele pensar que los grandes científicos poseen una inteligencia extraordinaria, y en la sociedad, y especialmente en los negocios, tendemos a rehuir a las personas que no congenian bien con otras. Pero precisamente quienes son distintos son a menudo quienes ven lo que otros no pueden. Redi era un hombre complejo, un científico pero también un hombre supersticioso que se embadurnaba con aceite para protegerse de enfermedades, un físico y naturalista pero también un poeta que escribió un clásico alabando los vinos toscanos. Por lo que se refiere a la generación espontánea, solo Redi fue lo bastante raro como para pensar fuera del marco convencional, y en una época en la que el razonamiento científico todavía no era común, razonó y actuó como un científico. Al hacerlo no solo sembró la duda sobre una teoría inválida, también minó la autoridad de Aristóteles al mismo tiempo que mostraba un nuevo enfoque para dar respuesta a las preguntas de la biología.
El experimento de Redi fue en buena medida una reacción a los estudios con microscopios que poco tiempo antes habían revelado que los organismos minúsculos son lo bastante complejos para poseer órganos reproductores, pues la creencia de que los «animales inferiores» son demasiado simples para reproducirse era uno de los argumentos de Aristóteles a favor de la generación espontánea.
El microscopio se había inventado unas décadas antes, más o menos al mismo tiempo que el telescopio, aunque nadie sabe con certeza exactamente cuándo, o por quién. Lo que sí sabemos es que al principio se usaba para ambos la misma palabra latina, perspicillum, y que Galileo incluso usó el mismo instrumento (su telescopio) para mirar lo pequeño y lo lejano. «Con este tubo», le explicaba a un visitante en 1609, «he visto moscas que parecen tan grandes como corderos[235]».
Al revelar los detalles de un ámbito de la naturaleza que los antiguos nunca habían podido imaginar (ni explicar con sus teorías), el microscopio, como el telescopio, ayudó a que los estudiosos abrieran la mente a otras maneras de pensar sobre su objeto de estudio, creando un hilo de progreso intelectual que alcanzaría su punto álgido con Darwin. Sin embargo, igual que el telescopio, el microscopio encontró al principio una fuerte oposición. Los estudiosos medievales recelaban de «ilusiones ópticas» y desconfiaban de cualquier instrumento que se interpusiera entre ellos y los objetos que percibían. Pero mientras que el telescopio tuvo su Galileo, que enseguida se plantó ante los críticos y adoptó el instrumento, hizo falta medio siglo para que los defensores del microscopio dejaran su marca.
Uno de sus más grandes defensores fue Robert Hooke, que realizó sus estudios microscópicos a petición de la Royal Society, contribuyendo así a desarrollar las raíces de la biología, igual que había ayudado a desarrollar las de la química y la física [236].
En 1663, la Royal Society encargó a Hooke la tarea de presentar al menos una nueva observación en cada reunión. Pese a una dolencia de los ojos que hacía que le resultase difícil y doloroso mirar a través de una lente durante largo tiempo, estuvo a la altura del desafío y realizó una larga serie de observaciones con la ayuda de instrumentos que él mismo diseñaba.
En 1665, con treinta y cinco años, Hooke publicó un libro titulado Micrographia, o «pequeños dibujos». Era un poco un batiburrillo de sus trabajos e ideas en varios campos, pero causó gran sensación porque revelaba un nuevo y extraño micromundo a través de cincuenta y siete asombrosas ilustraciones dibujadas por el propio Hooke. Estas ilustraciones presentaban por primera vez a la percepción humana la anatomía de una pulga, el cuerpo de un piojo, el ojo de una mosca y el aguijón de una abeja, todas a página entera, y algunas en páginas desplegables. Que incluso los animales más simples tengan partes corporales y órganos como nosotros no fue solamente una revelación sorprendentes para un mundo que nunca había visto un insecto ampliado; fue también una contradicción directa de la doctrina aristotélica, una revelación similar al descubrimiento de Galileo de que la Luna tiene montañas y valles igual que la Tierra.
El año que se publicó Micrographia fue el mismo en el que alcanzó su punto álgido la Gran Peste que acabaría con la vida de uno de cada siete londinenses. Al año siguiente, Londres quedó envuelto en el Gran Incendio.

20.jpg
Micrographia de Hooke. Lister E 7, Pl. XXXIV.

Pero a pesar del caos y el sufrimiento, la gente leyó el libro de Hooke, que se convirtió en un superventas. Tan abstraído estaba Samuel Pepys, el famoso diarista y administrador naval y, posteriormente, miembro del Parlamento, que quedó desvelado hasta las dos de la mañana devorándolo, y luego dijo de él que era «el más ingenioso libro que he leído en toda mi vida[237]».
Aunque Hooke estimuló a toda una nueva generación de estudiosos, también sufrió el ridículo de los escépticos, a quienes resultaba difícil aceptar sus representaciones a veces grotescas, basadas en observaciones hechas con un instrumento en el que no confiaban. El punto más bajo se produjo mientras Hooke asistía a una sátira de la ciencia contemporánea escrita por el dramaturgo inglés Thomas Shadwell, y se sintió humillado cuando se dio cuenta de que los experimentos que eran objeto de burla sobre el escenario eran sobre todo los suyos, extraídos de su estimado libro [238].
Uno de los hombres que no dudaron de las aseveraciones de Hooke fue un científico aficionado llamado Anton van Leeuwenhoek (1632-1723 [239]). Nacido en Delft, en Holanda, su padre hacía los cestos en los que la famosa cerámica blanca y azul de su ciudad se empaquetaba para enviarla a todo el mundo; su madre provenía de una familia dedicada a otra de las especialidades de Delft: la elaboración de cerveza. Con dieciséis años, el joven Anton consiguió un trabajo como cajero y contable de un mercader de tejidos, y en 1654 abrió su propio negocio de venta de telas, cintas y botones. Pronto añadiría otra ocupación totalmente distinta: supervisar el mantenimiento y cuidado del Ayuntamiento de Delft.
Leeuwenhoek nunca fue a la universidad ni aprendió latín, que entonces era la lengua de la ciencia. Y aunque viviría más de noventa años, solo salió de los Países Bajos en dos ocasiones, una vez para visitar Amberes, en Bélgica, y la otra para ir a Inglaterra. Pero Leeuwenhoek leía libros, y uno de los que le inspiraron fue el superventas de Hooke. Aquel libro cambió su vida.
En su prefacio, Micrographia explica cómo construir microscopios simples, y como mercader de telas, Leeuwenhoek probablemente tenía alguna experiencia en el pulimento de lentes, que debía necesitar para examinar muestras de lino. Pero tras leer Micrographia, se convirtió en un fanático fabricante de lentes y dedicó horas y horas a crear nuevos microscopios y realizar observaciones con su ayuda.
En sus primeros trabajos, Leeuwenhoek se limitó a repetir los experimentos de Hooke, pero no tardó en eclipsarlo. Los microscopios de Hooke eran, para su tiempo, tecnológicamente superiores, y deslumbró a la Royal Society con sus ampliaciones de veinte a cincuenta aumentos. Cabe imaginar, pues, el asombro con el que en 1673 el secretario de la Society, Henry Oldenburg, recibió una carta en la que se le informaba de que un custodio y proveedor de telas sin educación de los Países Bajos había «diseñado microscopios que superan en mucho los que hemos visto hasta el momento [240]».
De hecho, Leeuwenhoek, entonces con cuarenta y un años, había alcanzado ya aumentos diez veces superiores a los conseguidos por Hooke.
Lo que hacía tan potentes los microscopios de Leeuwenhoek no era su diseño, sino una factura superior. Eran en realidad instrumentos simples, hechos con una sola lente pulida a partir de fragmentos de cristal seleccionados, o incluso de granos de arena, montada sobre placas de oro y plata que a veces él mismo extraía de las menas. Fijaba cada espécimen de forma permanente y fabricaba un nuevo microscopio para cada estudio, tal vez porque conseguir el posicionamiento adecuado era tan difícil como crear la lente. Fuese cual fuese la razón, no la compartió con nadie y en general era muy reservado sobre sus métodos porque, como Newton, quería evitar «la contradicción o censura de otros». Durante su larga vida, produjo más de quinientas lentes, pero a día de hoy nadie sabe cómo las fabricaba.
Cuando llegó la noticia de los logros de Leeuwenhoek, los navíos ingleses y holandeses estaban disparándose cañonazos en las guerras anglo-neerlandesas, pero estar en guerra con el país de Leeuwenhoek no frenó a Oldenburg, que animó al holandés a presentar sus hallazgos, a lo que este accedió. En su carta, Leeuwenhoek, intimidado por la atención de la famosa Royal Society, se disculpó por si encontraban deficiencias en su libro. Era, según dijo, «el resultado de mi solo impulso y curiosidad, pues aparte de mí, en mi ciudad no hay filósofos que practiquen este arte; por ello, ruego que no les ofenda mi pobre pluma ni la libertad que me he tomado al poner sobre el papel mis azarosas ideas [241]».
Las «ideas» de Leeuwenhoek resultaron ser una revelación mucho mayor que las de Hooke, pues donde este había visto en detalle las partes del cuerpo de insectos diminutos, Leeuwenhoek había visto organismos enteros demasiado pequeños para percibirlos a simple vista, sociedades completas de organismos cuya existencia nadie antes había sospechado, algunos mil y hasta diez mil veces más pequeños que el animal más pequeño que podamos ver con nuestros propios ojos. Leeuwenhoek los llamó «animálculos». Hoy los llamamos microorganismos.
Si Galileo se deleitaba observando el paisaje de la Luna y espiando los anillos de Saturno, Leeuwenhoek gozaba igual observando a través de sus lentes mundos nuevos de extraños y minúsculos organismos. En una carta, describía el mundo que veía en una gota de agua: «Ahora veía muy claramente que aquellas eran pequeñas anguilas, o gusanos, que se retorcían en una maraña… la gota entera parecía estar viva con aquellos variopintos animálculos… Debo decir que nunca ante mi vista se ha presentado visión más placentera que aquellos miles de seres que observaba vivos en una pequeña gota de agua [242]».
Si en ocasiones Leeuwenhoek describía la visión de mundos enteros, como si los viéramos con la perspectiva de un dios, en otros informes hablaba de aumentar organismos individuales lo bastante como para describir muchas nuevas especies con gran detalle. Por ejemplo, al describir cierto organismo, dice que tiene «dos pequeños cuernos que sobresalen y mueve continuamente, como un caballo mueve las orejas… [con un cuerpo redondeado], salvo que se estira un poco hacia el extremo posterior, donde tiene una cola[243]».
Durante un periodo de cincuenta años, Leeuwenhoek nunca asistió a una reunión de la Royal Society, pero les escribió cientos de cartas, y la mayoría se han conservado. Oldenburg encargó que las editaran y tradujeran al inglés o el latín, y la Royal Society las publicó.
La obra de Leeuwenhoek causó sensación. El mundo quedó pasmado al descubrir que en cada gota de un estanque había universos enteros de organismos, clases enteras de vida completamente ocultas a nuestros sentidos. Más aún, cuando Leeuwenhoek dirigió su microscopio a tejidos humanos como las células del esperma o los capilares sanguíneos, ayudó a revelar nuestra propia factura, a poner de manifiesto que no es excepcional, que tenemos mucho en común con otras formas de vida.
Como Hooke, Leeuwenhoek tuvo escépticos que creían que se lo había inventado todo. Les replicó proporcionando testimonios firmados de respetables testigos, notarios públicos e incluso el pastor de la congregación de Delft. La mayoría de los científicos le creyeron, y Hooke logró incluso reproducir parte de las investigaciones de Leeuwenhoek. A medida que corría la voz, empezaron a presentarse en el taller de Leeuwenhoek visitantes deseosos de mirar a sus diminutas bestias. Carlos II, el fundador y mecenas de la Royal Society, le pidió a Hooke que le mostrara uno de los experimentos de Leeuwenhoek que había replicado, y Pedro el Grande de Rusia visitó al propio Leeuwenhoek. Nada mal para un individuo que regenta un almacén de telas.
En 1680, Leeuwenhoek fue elegido, in absentia, miembro de la Royal Society, y siguió trabajando hasta su muerte, a los noventa y un años de edad, unos cuarenta años más tarde. Habrían de pasar otros 150 años antes de que apareciera en escena otro cazador de microbios que estuviese a su altura.
Cuando Leeuwenhoek yacía en su lecho de muerte, lo último que hizo fue pedirle a un amigo que tradujera sus dos últimas cartas al latín y las enviase a la Society. También les preparó un presente: un armario negro con baño de oro que contenía sus mejores microscopios, algunos de los cuales nadie había visto antes. En la actualidad, solo permanecen intactos unos pocos de sus microscopios; en 2009, uno de ellos alcanzó en una subasta el precio de 312 000 libras [244].
En su larga vida, Leeuwenhoek contribuyó a establecer muchos aspectos de lo que acabaría siendo la biología: microbiología, embriología, entomología, histología; lo que llevó a un biólogo del siglo XX a decir que las cartas de Leeuwenhoek eran «la más importante serie de comunicaciones que jamás haya recibido una sociedad científica[245]».
Igual de importante es el hecho de que, como Galileo en la física y Lavoisier en la química, Leeuwenhoek ayudó a establecer una tradición científica en el campo de la biología. Tal como escribió el pastor de la iglesia de Delft a la Royal Society a la muerte de Leeuwenhoek, en 1723: «Anton van Leeuwenhoek consideraba que lo que es cierto en la filosofía natural puede investigarse de la manera más fructífera mediante el método experimental, apoyado en las pruebas de los sentidos, y por esta razón, mediante un trabajo diligente e incansable, fabricó de su propia mano algunas de las lentes más excelentes, con la ayuda de las cuales descubrió muchos secretos de la Naturaleza, hoy célebres en todo el mundo filosófico[246]».
Si en cierto sentido Hooke y Leeuwenhoek fueron los Galileos de la biología, Charles Darwin (1809-1882) fue su Newton [247], por lo que resulta adecuado que los dos estén sepultados a pocos metros de distancia en la abadía de Westminster. Entre los portadores de su féretro hubo dos duques y un conde, además del presidente de la Royal Society y otros que lo habían sido o lo serían en el futuro. Aunque pueda parecer incongruente que Darwin se enterrase en una abadía, «habría sido desafortunado», dijo el obispo de Carlisle en su sermón, «si algo hubiera dado peso y difusión a la insensata idea… de que existe de necesidad un conflicto entre el conocimiento de la Naturaleza y la fe en Dios[248]».
Aquel entierro fue un glorioso fin para un hombre cuyo principal logro científico fue recibido al principio con poco más que un bostezo, y más tarde con abundante veneno y escepticismo.
Una de las primeras personas que no se sintieron demasiado impresionadas fue el propio editor de Darwin, John Murray, que accedió a producir el libro en el que Darwin elaboraba su propia teoría, pero con una tirada inicial de tan solo 1250 ejemplares. Murray tenía buenas razones para preocuparse, pues quienes habían revisado el libro de Darwin antes de su publicación no se mostraron entusiasmados. Uno de ellos incluso le recomendó a Murray que no lo publicase, pues le parecía «una imperfecta y comparativamente exigua exposición de su teoría». Y luego el revisor sugería que Darwin escribiera un libro sobre palomas e incluyera en ese libro una breve exposición de su teoría. «A todo el mundo le interesan las palomas», recomendaba. «El libro… no tardaría en estar en cada mesa[249]».
El consejo llegó a Darwin, quien lo declinó, y no porque él mismo confiara en que su libro se vendiera. «Dios sabe qué pensarían los lectores», comentó [250].
Darwin no tenía por qué preocuparse. El origen de las especies por medio de la selección natural estaba destinado a convertirse en los Principia de la biología. Publicado el 24 de noviembre de 1859, los 1250 ejemplares fueron arrebatados por ansiosos libreros, y no ha dejado de imprimirse desde entonces. (No obstante, el libro no se agotó el día de su publicación, como dice la leyenda). Fue una gratificante acogida para un hombre que había tenido la pasión y la paciencia de pasar veinte años acumulando pruebas de sus ideas, un esfuerzo tan monumental que solo uno de sus muchos productos secundarios fue una monografía de 684 páginas sobre los bálanos y los percebes.
Los predecesores de Darwin habían aprendido muchos detalles descriptivos sobre las formas de vida, desde las bacterias a los mamíferos, pero nada sobre la cuestión más fundamental de qué llevaba a las especies a tener los rasgos que tenían. Como los físicos antes de Newton o los químicos antes de la tabla periódica, los biólogos que precedieron a Darwin recogían datos pero no sabían dónde encajarlos. No podían, pues antes de Darwin la joven disciplina de la biología se hallaba maniatada por la convicción de que los orígenes y relaciones de las distintas formas de vida caían más allá de las fronteras de la ciencia, una convicción que surgía de la aceptación literal de la historia bíblica de la creación, que decía que la Tierra y todas las formas de vida habían sido creadas en seis días y que, desde entonces, las especies no habían cambiado.
No es que hasta entonces no hubiera pensadores que le diesen vueltas a la idea de que las especies evolucionan; los hubo desde los griegos, y en la lista se incluye al propio abuelo de Darwin, Erasmus Darwin. Pero aquellas teorías de la evolución eran vagas y poco más científicas que la doctrina religiosa a la que habían de reemplazar. En consecuencia, aunque ya se hablaba de la idea de la evolución antes de Darwin, la mayoría de la gente, y también de los científicos, aceptaban que los humanos se hallaban en lo más alto de una pirámide de especies más primitivas de características fijas que habían sido diseñadas por un creador cuyo pensamiento nunca podríamos desentrañar.
Darwin cambió todo aquello. Si antes de él había un bosque de especulaciones sobre la evolución, su teoría se elevaba por encima de aquel dosel de árboles como un majestuoso espécimen de la ciencia más meticulosa. Por cada argumento o indicio que sus precursores proporcionaron, él ofrecía un centenar. Y lo que es más importante, descubrió el mecanismo que opera tras la evolución, la selección natural, y de este modo hizo de la evolución una teoría contrastable y científicamente respetable, liberando a la biología de su dependencia de Dios para que pudiera convertirse en una verdadera ciencia que, como la física y la química, hundía sus raíces en la ley física.
Nacido en la casa familiar de Shrewsbury, en Inglaterra, el 12 de febrero de 1809, Charles fue el hijo de Robert Darwin, el médico de la ciudad, y de Susannah Wedgwood, cuyo padre había fundado la compañía de cerámica del mismo nombre. Los Darwin eran una familia acomodada e ilustre, pero Charles fue un mal estudiante que odiaba la escuela. Escribiría más tarde que tenía poca cabeza para aprender de memoria y «ningún talento especial». Se subestimaba, pues él mismo reconocía que poseía una «gran curiosidad por todas las cosas y por su significado», y una «energía mental que se manifiesta en el trabajo vigoroso y perseverante sobre el mismo tema[251]».
Para un científico (o cualquier innovador), estos dos últimos rasgos son sin duda talentos especiales, y le servirían de mucho a Darwin.
La curiosidad y determinación de Darwin quedan bien ilustradas por un incidente que ocurrió mientras asistía a la universidad en Cambridge, cuando vivía obsesionado por la afición de coleccionar escarabajos. «Un día», escribió, «al arrancar un trozo de vieja corteza, vi dos raros escarabajos y cogí uno con cada mano; luego vi un tercero de un tipo distinto, que no podía permitirme perder, así que metí en la boca el que llevaba en la mano derecha [252]».
Solo de un muchacho con ese carácter puede emerger un hombre con la tenacidad para escribir 684 páginas sobre los bálanos y los percebes (aunque antes de acabarlo, escribiría: «Odio a los bálanos como nadie los ha odiado antes[253]»).
Hubieron de pasar muchos años para que Darwin encontrase su vocación. Su periplo comenzó en el otoño de 1825, cuando su padre lo envió, con dieciséis años de edad, no a Cambridge sino a la Universidad de Edimburgo para que estudiase medicina, como él y el abuelo de Charles habían hecho. Fue una mala decisión.
De un lado, Charles era, como bien se sabe, muy aprensivo, y en aquella época no eran raras en las operaciones las copiosas salpicaduras de sangre, ni los gritos de los pacientes, a quienes se cortaba sin la ayuda de anestesia. Aun así, la aprensión no le impediría, años más tarde, diseccionar perros y patos en busca de indicios que apoyasen su teoría de la evolución. Probablemente lo que resultase fatídico para sus estudios de medicina fuese la falta de interés y motivación. Como él mismo escribiría más tarde, había llegado a convencerse de que su padre le legaría propiedades suficientes «para subsistir con cierta comodidad», y esta expectativa era «suficiente para acotar cualquier esfuerzo intenso por aprender medicina [254]».
Y así fue como, en la primavera de 1827, Charles marchó de Edimburgo sin un título.
Cambridge fue su segunda parada. Su padre lo envió allí con la intención de que estudiara teología y luego hiciera carrera como pastor de la Iglesia. Esta vez Charles consiguió titularse en el puesto número diez de 178 graduados. Su elevada posición le sorprendió, pero tal vez reflejase que había desarrollado un interés genuino por la geología y la historia natural, tal como muestra su afición por coleccionar escarabajos. Con todo, se veía abocado a una vida en la que la ciencia sería como mucho una afición, mientras sus energías profesionales se dedicaban a la Iglesia. Pero entonces, a su vuelta a la casa familiar después de una excursión geológica por el norte de Gales que había realizado tras su graduación, Darwin se encontró con una carta que le ofrecía otra opción: la oportunidad de navegar alrededor del mundo a bordo del HMS Beagle, bajo el comando de un tal capitán Robert Fitzroy.
La carta se la enviaba John Henslow, un profesor de botánica de Cambridge. Pese a haberse graduado con un número alto, Darwin no le había parecido destacable a muchos en Cambridge, pero Henslow había visto su potencial. En una ocasión había señalado: «Menudo es ese Darwin haciendo preguntas [255]», un comentario aparentemente poco penetrante, pero que demuestra que, para Henslow, Darwin poseía el alma de un científico. Henslow trabó amistad con aquel curioso estudiante, y cuando le pidieron que recomendase a algún joven como naturalista para el viaje, recomendó a Darwin.
La carta de Henslow a Darwin fue la culminación de una serie de sucesos improbables. Todo empezó cuando el antiguo capitán del Beagle, Pringle Stokes, se disparó un tiro en la cabeza y, aunque la bala no lo mató, acabó muriendo de gangrena. Fitzroy, el lugarteniente de Stokes, llevó el buque a su puerto de origen, pero no se le escapó que la depresión de Stokes había tenido su origen en la soledad de varios años de navegación, durante la cual el capitán tenía prohibido establecer relaciones sociales con su tripulación. El propio tío de Fitzroy se había seccionado la garganta con una navaja algunos años antes, y unas cuatro décadas más tarde el propio Fitzroy haría lo mismo, así que debió percatarse de que su destino como capitán era algo que debía hacer todo lo posible por evitar. Así, cuando al joven Fitzroy, entonces con veintiséis años de edad, se le ofreció la oportunidad de suceder a Stokes, decidió que necesitaba un compañero. En aquella época era costumbre que el médico del buque hiciera también las veces de naturalista, pero Fitzroy hizo saber que buscaba un joven «gentleman naturalista» de alto nivel social, una persona que sirviera, en esencia, de amigo contratado.
Darwin no fue la primera elección de Fitzroy para el puesto, que anteriormente había ofrecido a otros. Si alguno de estos hubiera aceptado, lo más probable es que Darwin se hubiera dedicado a su tranquila vida en la iglesia y nunca hubiera creado su teoría de la evolución, del mismo modo que Newton probablemente no habría finalizado ni publicado nunca su gran obra si Halley no hubiera recalado para verlo y preguntarle sobre la ley del inverso del cuadrado. Pero el puesto que Fitzroy ofrecía no pagaba nada: la compensación vendría con la posterior venta de los especímenes recolectados durante las visitas a tierra a lo largo del viaje, y ninguno de los interpelados sobre el puesto estaba dispuesto o podía pasar varios años navegando y financiándose él mismo. En consecuencia, la elección recayó finalmente en Darwin, que entonces contaba veintidós años, lo que le ofrecía la oportunidad de embarcarse en una aventura y de paso evitar una carrera en la que hubiera predicado que la creación de la Tierra se había producido el 23 de octubre de 4004 a. C. (como afirmaba un análisis bíblico publicado en el siglo XVII[XVI]). Darwin se aferró a la oportunidad que acabaría cambiando tanto su vida como la historia de la ciencia.
El Beagle zarpó en 1831 y no regresaría hasta 1836. No fue un viaje cómodo. Darwin vivía y trabajaba en el diminuto camarote de popa, en la sección del barco que más se movía. Compartía la estancia con dos más y dormía en una hamaca colgada de la mesa de cartas náuticas. «Tengo apenas espacio para darme la vuelta, eso es todo», explicaba en una carta a Henslow[256].
Como era de esperar, sufrió terribles mareos. Y aunque Darwin entabló cierta amistad con Fitzroy, pues era el único en el barco que podía alternar con el capitán y solían cenar juntos, se peleaban a menudo, sobre todo por la esclavitud, que Darwin detestaba pero observaban una y otra vez durante sus recaladas.
Pese a todo, las incomodidades del viaje se veían compensadas por la excitación incomparable de las visitas a tierra. Durante esos periodos, Darwin participó en el carnaval de Brasil, presenció la erupción de un volcán a las afueras de la ciudad chilena de Osorno, experimentó un terremoto y caminó entre las ruinas que dejó en Concepción, y fue testigo de las revoluciones de Montevideo y Lima. Entretanto, recolectaba especímenes y fósiles, los empaquetaba y los enviaba en cajones a Henslow para que los almacenara en Inglaterra.
Darwin consideraría más tarde aquel viaje como el evento formativo más importante de su vida, tanto por las impresiones que dejó en su carácter como por la nueva manera de apreciar el mundo natural que le brindó. Sin embargo, no fue durante el viaje cuando Darwin hizo sus famosos descubrimientos sobre la evolución, ni siquiera comenzó a aceptar que se produjera la evolución[257].
De hecho, acabó el viaje como lo había comenzado: sin dudas sobre la autoridad moral de la Biblia.
No obstante, sus planes para el futuro habían cambiado. Hacia el final del viaje, le escribió a un primo que había seguido una carrera clerical: «Vuestra situación es envidiable; no oso siquiera imaginar tan feliz condición. Para una persona dispuesta a ocupar el puesto, la vida de pastor es… respetable y feliz[258]».
Pese a palabras tan alentadoras, Darwin decidió que él no estaba preparado para esa vida, y en su lugar eligió abrirse camino en el mundo de la ciencia londinense.
De vuelta a Inglaterra, Darwin descubrió que las observaciones que había explicado en cartas informales al profesor Henslow habían recibido cierta atención científica, sobre todo las referidas a la geología. Darwin no tardó en dar conferencias en la prestigiosa Sociedad Geológica de Londres sobre temas como «la conexión entre ciertos fenómenos volcánicos y la formación de las cadenas montañosas y los efectos de las elevaciones continentales». Entretanto, disfrutaba de independencia económica gracias a un estipendio de cuatrocientas libras al año que le pasaba su padre. Casualmente, es la misma cantidad que Newton ganaba cuando comenzó a trabajar en la casa de la moneda, pero en la década de 1830, según los Archivos Nacionales Británicos, «solo» era cinco veces más que el salario de un artesano (aunque bastaba para comprar veintiséis caballos o setenta y cinco vacas). El dinero le permitía a Darwin dedicar tiempo a convertir su diario del Beagle en un libro, y a examinar los muchos especímenes de plantas y animales que había recolectado. Fue este el esfuerzo que modificaría sus ideas sobre la naturaleza de la vida.
Como durante su viaje no había tenido ninguna gran iluminación sobre la biología, Darwin probablemente esperase que el estudio de los especímenes que había enviado a Inglaterra diera lugar a un corpus de trabajo sólido, pero no revolucionario. Sin embargo, pronto halló signos de que sus investigaciones podrían ser más excitantes de lo que esperaba: había enviado algunos de sus especímenes a especialistas para que los analizaran, y muchos de sus informes lo habían sorprendido.
Un grupo de fósiles, por ejemplo, sugería una «ley de sucesión»: que los mamíferos extintos de Sudamérica habían sido reemplazados por otros de su mismo tipo. Otro informe, este sobre los sinsontes de las islas Galápagos, le hizo saber que había tres especies, no las cuatro que había creído, y que eran propias de islas distintas, igual que las tortugas gigantes. (La historia de un momento eureka inspirado por la observación de las diferencias en los picos de los pinzones de las distintas islas de las Galápagos es apócrifa. Trajo consigo varios especímenes, pero no tenía conocimientos de ornitología y los había identificado incorrectamente como una mezcla de parientes de pinzones, chochines, picogordos y tordos, y no los tenía etiquetados por islas) [259].
Quizá el más sorprendente de los informes de expertos fuera el referido a un espécimen de ñandú, el avestruz sudamericano, que Darwin y su equipo habían cocinado y comido antes de darse cuenta de su posible importancia, lo que lo llevó a enviar los restos a Inglaterra. Aquel espécimen resultó corresponder a una nueva especie que, como el ñandú común, tenía su propia área de distribución pero también competía con el ñandú común en una zona intermedia. Eso contradecía la sabiduría convencional de la época, que sostenía que cada especie está optimizada para su hábitat particular, sin que hubiera lugar para regiones ambiguas en las que compitieran especies parecidas.
Al tiempo que le llegaban todos estos intrigantes estudios, en Darwin iba evolucionando la forma de pensar sobre el papel de Dios en la creación. Especialmente importante fue la influencia de Charles Babbage, que ocupaba la antigua cátedra de Newton como profesor Lucasiano de matemáticas en Cambridge, y es conocido sobre todo como inventor de la primera computadora mecánica. Babbage organizó una serie de veladas a las que asistían librepensadores, y él mismo estaba escribiendo un libro en el que proponía que Dios actuaba por medio de las leyes físicas, no por decreto y milagro. Al joven Darwin le resultaba atractiva aquella idea, pues proporcionaba la base más prometedora para la coexistencia de la religión y la ciencia.
De manera gradual, Darwin se fue convenciendo de que las especies no eran formas de vida inmutables que Dios había diseñado para que encajaran en algún plan maestro, sino que de algún modo se habían ido adaptando para encajar en su nicho ecológico. En el verano de 1837, al año del regreso del Beagle, Darwin se había convertido a la idea de la evolución, aunque todavía estaba lejos de formular su teoría particular sobre ella.
No tardó en rechazar la idea de que los humanos sean superiores, o, de hecho, que ningún animal sea superior a otro, y en su lugar mantenía ahora la convicción de que cada especie es igualmente prodigiosa, un ajuste perfecto o casi perfecto a su entorno y al papel que en él ocupa. Para Darwin, nada de eso impedía que Dios desempeñase un papel práctico: creía que Dios había diseñado las leyes que gobernaban la reproducción de tal modo que las especies pudieran alterarse a sí mismas según la necesidad para adaptarse a los cambios ambientales.
Si Dios creaba leyes de la reproducción que permitían que las especies se ajustasen a su medio, ¿qué leyes eran esas? Newton entendió el plan de Dios para el universo físico a través de sus leyes matemáticas del movimiento; de igual modo, también Darwin intentó en un principio buscar el mecanismo de la evolución, pensando que explicaría el plan de Dios para el mundo viviente.
Como Newton, Darwin comenzó a llenar una serie de cuadernos con sus pensamientos e ideas. Analizó las relaciones entre las especies y fósiles que había observado en sus viajes; estudió un simio, un orangután y los monos del zoo de Londres, tomando notas sobre sus emociones de apariencia humana; examinó el trabajo de los criadores de palomas, perros y caballos y reflexionó sobre la gran variación que podían producir en sus rasgos mediante el método de «selección artificial», y especuló de una manera ambiciosa sobre el efecto que podría haber tenido la evolución sobre cuestiones metafísicas y sobre la psicología humana. Y entonces, alrededor del mes de septiembre de 1838, Darwin leyó el popular Ensayo sobre el principio de la población de T. R. Malthus. Aquello lo puso en el camino que finalmente lo conduciría a descubrir el proceso por el cual se producía la evolución.
Malthus no había escrito un libro agradable. La miseria, en su opinión, era el estado natural al que tarde o temprano ha de llegar la humanidad, porque los incrementos de la población invariablemente conducen a una violenta competencia por el alimento y otros recursos. Malthus argumentaba que a causa de los límites a la disponibilidad de tierras y la producción, esos recursos solo pueden aumentar de forma «aritmética», como en la serie 1, 2, 3, 4, 5, etc., mientras que los incrementos de la población a cada generación lo hacen de acuerdo con la serie 1, 2, 4, 8, 16, etc.
Hoy sabemos que un solo calamar puede producir tres mil huevos en la época de reproducción. Si cada huevo produjera un calamar y este se reprodujera, en la séptima generación el volumen de calamares llenaría un espacio equivalente al interior de la Tierra, y en menos de treinta generaciones, solo los huevos ocuparían el universo observable.
Darwin no disponía de esos datos, y las matemáticas no se le daban muy bien, pero sabía lo suficiente para comprender que el escenario malthusiano no se produce, sino que, según su razonamiento, del portentoso número de huevos y descendientes que produce la naturaleza, la competencia hace que solo sobrevivan unos pocos, por término medio los mejor adaptados. A este proceso lo llamó «selección natural» para recalcar la comparación con la selección artificial que realizan los criadores.
Más tarde, en su autobiografía, Darwin describe el momento como una revelación: «De inmediato comprendí que en aquellas circunstancias las variaciones favorables tenderían a conservarse, y las no favorables a destruirse[260]».
Sin embargo, no es frecuente que las nuevas ideas se formen de manera tan repentina y tan clara en la mente de sus descubridores; la descripción de Darwin podría ser más bien una feliz distorsión del recuerdo. El análisis de los cuadernos que escribía entonces revelan una historia distinta: al principio, solo olfateó el rastro de una idea, y pasaron varios años antes de percibirla con la suficiente claridad como para ponerla sobre el papel.
Una de las razones por las que hizo falta tiempo para desarrollar la idea de la selección natural es que Darwin se daba cuenta de que eliminar en cada generación los individuos peor ajustados puede afinar los rasgos de una especie, pero no puede crear una nueva especie, unos individuos tan diferentes de los de la especie original que ya no pueden cruzarse y producir descendencia fértil. Para que eso ocurra, el descarte de los rasgos existentes tiene que complementarse con una fuente de rasgos nuevos. Darwin llegó a la conclusión de que esto último surgía por puro azar.
El color del pico del pinzón cebra, por ejemplo, suele variar de un color rojo pálido a un rojo más intenso. Mediante cruzamientos selectivos, se podrían crear poblaciones donde predominara uno u otro, pero un pinzón cebra con un nuevo color de pico, por ejemplo azul, solo puede aparecer a través de lo que ahora llamamos mutación, una alteración al azar en la estructura de un gen que produce una forma nueva y distinta del organismo.
Ahora, por fin, podía cuajar la teoría de Darwin. Juntas, la variación al azar y la selección natural crean individuos con rasgos nuevos, y dan a los rasgos que resultan ser ventajosos una mayor probabilidad de propagarse. El resultado es que, igual que los criadores producen animales y plantas con los rasgos que desean, la naturaleza crea especies que están bien adaptadas a su entorno.
La idea de que el azar desempeña un papel constituye un hito importante en el desarrollo de la ciencia, pues el mecanismo que Darwin había descubierto hacía difícil reconciliar la evolución con cualquier idea sustancial de un diseño divino. Naturalmente, el propio concepto de evolución contradice la historia bíblica de la creación, pero la teoría particular de Darwin iba más lejos al dificultar la racionalización de los puntos de vista aristotélicos y cristianos tradicionales de que el desarrollo de los eventos está impelido por un propósito y no por indiferentes leyes físicas. En este sentido, Darwin hizo por nuestra comprensión del mundo vivo lo que Galileo y Newton habían hecho por el inanimado: divorciar la ciencia de sus raíces en las indagaciones religiosas y en las antiguas tradiciones griegas.
Darwin, como Galileo y Newton, era un hombre de fe religiosa, así, la teoría que iba desarrollando le planteaba contradicciones con su sistema de creencias. Intentó evitar la colisión aceptando tanto los puntos de vista teológicos como los científicos, cada uno en su contexto, en lugar de intentar reconciliarlos. Sin embargo, no logró evitarlo del todo, pues en enero de 1839 se casó con una prima hermana, Emma Wedgwood, una devota cristiana que se sentía perturbada por sus ideas. «Cuando haya muerto», le escribió a su mujer en una ocasión, «quiero que sepas que muchas veces he… llorado por esto [261]».
Pese a sus diferencias, su vínculo era fuerte, y permanecieron juntos durante toda su vida como una devota pareja, de la que nacieron diez hijos.

21.jpg
Annie Darwin (1841-1851).

Aunque se ha escrito mucho sobre la cuestión de cómo conciliar la evolución y el cristianismo, fue la muerte, años más tarde, del segundo de los hijos de Darwin, Annie, a los diez años de edad, lo que, tanto como su propio trabajo sobre la evolución, acabó por destruir la fe de Darwin en el cristianismo [262].
La causa de la muerte de Annie no está clara, pero hacia el final sufrió durante más de una semana, con fiebre elevada y graves problemas digestivos. Darwin escribió después: «Hemos perdido la alegría de la casa, el solaz de nuestra vejez: ella debía saber cuánto la queríamos; ojalá pudiera saber ahora lo profunda y tiernamente que todavía y para siempre amaremos su querido y alegre rostro[263]».
El primer hijo de la pareja había nacido en 1839. Para entonces, Darwin, con solo treinta años, había comenzado a sufrir unos debilitantes ataques de una enfermedad (aún hoy) misteriosa. Durante el resto de su vida, la alegría que experimentaría con su familia y su trabajo científico se vería interrumpida por frecuentes brotes de un dolor discapacitante que en ocasiones le impedía trabajar durante meses.
Los síntomas de Darwin, como las plagas de la Biblia, apuntaban en todas direcciones: dolor de estómago, vómitos, flatulencia, dolor de cabeza, palpitaciones del corazón, temblores, llanto histérico, acúfenos, agotamiento, ansiedad y depresión. Las curas que se intentaron, a algunas de las cuales Darwin, desesperado, accedió contra su criterio, fueron igualmente diversas: frotes vigorosos con toallas mojadas y frías, baños de pies, masajes con hielo, duchas con agua helada, electroterapia con cinturones eléctricos (una moda pasajera), medicinas homeopáticas y el estándar del victoriano: bismuto. Nada funcionó. El hombre que con veinte años era un rudo explorador, con treinta se había convertido en un inválido frágil y solitario.
Con el nuevo hijo, su trabajo y la enfermedad, los Darwin comenzaron a aislarse, renunciando a acontecimientos sociales y a la compañía de sus viejos círculos de amistad. Los días de Darwin se tornaron tranquilos y rutinarios, tan iguales «como dos guisantes [264]».
En junio de 1842, Darwin acabó de escribir por fin una sinopsis de treinta y cinco páginas de su teoría de la evolución; aquel septiembre convenció a su padre para que le prestara el dinero para comprar una casa con quince acres de terreno en Down, en Kent, una parroquia de unos cuatrocientos habitantes, a unos veintiséis kilómetros de Londres. Darwin solía referirse a ella como «el borde del mundo[265]».
Su vida allí fue como la del próspero clérigo rural que en otro tiempo había pretendido ser, y en febrero de 1844 había usado aquella tranquilidad para incrementar su obra a un manuscrito de 231 páginas.
El manuscrito de Darwin era su testamento científico, no una obra destinada a su publicación inmediata. Se lo confió a Emma con una carta que había de leer si acaeciera su «muerte repentina», algo que, a causa de su enfermedad, temía que fuera inminente. En la carta le explicaba que era su «más solemne y último deseo» que tras su fallecimiento se hiciera público el manuscrito[266].
«De ser aceptado siquiera por un solo juez competente», escribió Darwin, «será un paso considerable para la ciencia [267]».
Darwin tenía buenas razones para no querer que sus opiniones se publicaran durante su vida. Se había ganado una excelente reputación en los más altos círculos de la sociedad científica, pero sus nuevas ideas estaban destinadas a atraer las críticas. Más aún, tenía muchos amigos religiosos (por no hablar de su propia esposa) que apoyaban el statu quo creacionista.
Las razones para dudar que albergaba Darwin debieron parecerle que quedaban validadas en el otoño de aquel mismo año, cuando, publicado anónimamente, apareció una obra titulada Vestigios de la historia natural de la creación[XVII]. El libro no presentaba una teoría de la evolución válida, pero hilvanaba varias ideas científicas, entre ellas la transmutación de las especies, y se convirtió en un éxito editorial en todo el mundo. Sin embargo, el establishment religioso cargó contra su desconocido autor. Un crítico, por ejemplo, lo acusó de «envenenar los cimientos de la ciencia y minar los de la religión[268]».
En la comunidad científica, algunos no fueron mucho más amables. Los científicos siempre han sido gente difícil de contentar. Incluso hoy que la facilidad de las comunicaciones y los viajes permiten que haya más cooperación y colaboración que nunca en el pasado, presentar ideas nuevas puede exponer a un científico a ataques duros y rudos, pues, junto a su pasión por su tema de estudio y por sus ideas, los científicos a veces manifiestan con fervor su oposición a las investigaciones que les parecen equivocadas, o simplemente faltas de interés. Si la charla que daba un científico visitante para describir su trabajo en un seminario de investigación no le parecía digna de su atención, un famoso científico que conocí sacaba un periódico, lo abría y comenzaba a leerlo, demostrando su conspicuo aburrimiento. Otro, a quien gustaba sentarse en las primeras filas, se levantaba en medio de la charla, anunciaba su opinión negativa y salía de la sala. Pero la exhibición más interesante que he presenciado se la debo a otro científico destacado, un individuo bien conocido por generaciones de físicos porque era el autor del tratado de electromagnetismo más usado por los estudiantes de doctorado.
Sentado en la primera fila de la sala de seminarios, donde no había más de una docena de filas de asientos, este profesor alzó su taza de café por encima de su cabeza y lo giró ligeramente de un lado a otro para que los que estaban detrás, pero no el perplejo conferenciante frente a él, pudieran ver que en la taza desechable había escrito en grandes letras mayúsculas el mensaje ¡ESTA CHARLA ES UNA MIERDA! Hecha su aportación al discurso, se levantó y se fue. Irónicamente, la charla era sobre «La espectroscopia de partículas charm-anticharm». Aunque aquí la palabra «charm» (encanto) es un término técnico sin relación alguna con su significado cotidiano, me parece justo decir que aquel profesor pertenecía a la categoría anticharm. En cualquier caso, si esa es la recepción que recibe una idea que se juzga dudosa en un campo tan abstruso, cabe imaginar qué brutalidad se exhibe hacia las «grandes ideas» que desafían al conocimiento recibido.
El hecho es que, pese al gran peso que se ha atribuido a la oposición ejercida por los defensores de la religión frente a las nuevas ideas de la ciencia, también hay una fuerte tradición de oposición de los propios científicos. Eso suele ser una buena cosa, pues cuando una idea es errónea, el escepticismo de los científicos sirve para impedir que la disciplina corra en la dirección equivocada. Más aún, cuando se presentan las pruebas adecuadas, los científicos son más rápidos que nadie en cambiar su opinión y aceptar conceptos nuevos y extraños.
Aun así, a todos nos cuesta cambiar, y los científicos establecidos que han dedicado su carrera a realizar avances en una determinada manera de ver las cosas a veces reaccionan de una forma bastante negativa a otro modo de verlas. Por consiguiente, proponer una teoría científica nueva y sorprendente es arriesgarse a ser atacado por insensato, equivocado o simplemente inadecuado. No hay muchas formas a prueba de error para fomentar la innovación, pero una manera de matarla es hacer que no parezca seguro desafiar el conocimiento aceptado. No obstante, esa es a menudo la atmósfera en la que tienen que producirse los avances revolucionarios.
En el caso de la evolución, Darwin tenía mucho miedo, como indica, por ejemplo, la reacción a los Vestigios de su amigo Adam Sedgwick, un distinguido profesor de Cambridge que le había enseñado geología. Sedgwick dijo de los Vestigios que era un «libro repugnante» y escribió una lacerante reseña de ochenta y cinco páginas[269].
Antes de exponerse a ataques de esa guisa, Darwin quería acumular una montaña de indicios y pruebas que respaldasen su teoría. Ese esfuerzo lo mantendría ocupado durante los quince años siguientes, pero también sería el responsable de su éxito.
Durante las décadas de 1840 y 1850, la familia de los Darwin creció. Su padre murió en 1848 y le dejó esa suma considerable sobre la que Darwin había especulado décadas antes, mientras estudiaba medicina: unas cincuenta mil libras, el equivalente a millones de dólares actuales. Los invirtió sabiamente y su prosperidad le permitió cuidar confortablemente de su gran familia. Pero sus problemas de estómago seguían atormentándolo, y se tornó todavía más solitario, hasta el punto de que se perdió el funeral de su padre a causa de su propia enfermedad.
Entretanto, Darwin no dejaba de pulir sus ideas. Examinó y experimentó con animales, como las palomas sobre las cuales aquel colega suyo le había recomendado que escribiera, y, naturalmente, sobre los bálanos. También experimentó con plantas. En una serie de investigaciones, evaluó la idea común de que a las islas oceánicas lejanas no podían llegar semillas viables. Abordó la pregunta desde muchos ángulos: probó con semillas de jardín que había dejado sumergidas durante semanas en salmuera (para imitar el agua de mar), buscó semillas en las patas de aves y en sus deposiciones, y alimentó una lechuza y un águila del zoo de Londres con gorriones llenos de semillas para examinar después las egagrópilas. Todos sus estudios apuntaban a la misma conclusión: las semillas, descubrió Darwin, son más resistentes y más móviles de lo que la gente cree.
Otra cuestión a la que Darwin dedicó bastante tiempo tenía que ver con la diversidad: ¿por qué había producido la selección natural tanta variación entre especies? En este caso se inspiró en los economistas de su tiempo, que solían hablar del concepto de «división del trabajo». Adam Smith había demostrado que los trabajadores eran más productivos si se especializaban en lugar de que cada uno intentase fabricar un artículo completo. La idea llevó a Darwin a teorizar que una extensión de tierra determinada podía sostener más vida si cada uno de sus habitantes estaba muy especializado en explotar recursos naturales distintos.
Darwin esperaba que, si su teoría era cierta, se encontrase vida más diversa en áreas donde hubiera una feroz competencia por recursos limitados, y buscó indicios que apoyasen o refutasen esta idea. Esta forma de pensar era típica del nuevo enfoque que Darwin planteaba sobre la evolución: mientras otros naturalistas buscaban pruebas de la evolución en el desarrollo, con el tiempo, de árboles genealógicos que vinculaban fósiles con formas vivas, Darwin las buscaba en la distribución y relaciones entre especies en su propio tiempo.
Para examinar las pruebas, Darwin tuvo que recabar la ayuda de otros. Aunque físicamente aislado, solicitó opiniones de muchos y, como Newton, dependió del sistema de correos, especialmente de un programa nuevo y barato, «penny post», que le permitió construir una incomparable red de naturalistas, criadores y otros correspondientes que le proveyeron información sobre la variación y la herencia. Aquellos intercambios de opiniones a distancia permitieron a Darwin contrastar sus ideas frente a la experiencia práctica sin tener que revelar sus verdaderos propósitos y exponerse al ridículo. También le permitió ir averiguando cuáles de sus colaboradores podrían simpatizar con sus puntos de vista para finalmente compartir sus heterodoxas ideas con aquel grupo selecto.
En 1856 Darwin había divulgado su teoría en detalle a unos pocos amigos. Entre ellos se encontraba Charles Lyell, el geólogo más destacado de su tiempo, y el biólogo T. H. Huxley, el más reconocido experto en anatomía comparada. Sus confidentes, sobre todo Lyell, le animaban a publicar para que nadie se le adelantara con la misma idea. Darwin tenía entonces cuarenta y siete años y llevaba dieciocho trabajando en su teoría.
En mayo de 1856, Darwin comenzó a trabajar en lo que pretendía que fuese un tratado técnico dirigido a la comunidad científica. Decidió titularlo Natural Selection. En marzo de 1858 había completado dos tercios del libro y andaba ya por las 250 000 palabras. Pero entonces, en junio, Darwin recibió por correo un manuscrito y una amable carta de presentación de un conocido que trabajaba en el Lejano Oriente, Alfred Russel Wallace.
Wallace sabía que Darwin estaba trabajando en una teoría de la evolución y esperaba que le pasara a Lyell su manuscrito, un artículo en el que esbozaba una teoría de la selección natural que había desarrollado independientemente. Como Darwin, Wallace se había inspirado en las consideraciones de Malthus acerca de la superpoblación.
Darwin se alarmó. Lo peor de lo que sus amigos le habían advertido se estaba cumpliendo: otro naturalista había reproducido el aspecto más importante de su trabajo.
Cuando Newton oyó hablar de investigaciones parecidas a las suyas, se revolvió irritado, pero Darwin era un hombre muy distinto. Sufrió lo indecible con aquella situación, sin que le pareciera que existiera una buena alternativa. Podía sepultar el artículo de Wallace o apresurarse a publicar el suyo primero, pero esas opciones no eran éticas; o podía ayudar a Wallace a publicar y cederle el crédito por el trabajo de toda su vida.
Darwin le envió el manuscrito a Lyell con una carta el 18 de junio de 1858:
[Wallace] me ha enviado hoy el adjunto, con el ruego de que se lo haga llegar a usted. Creo que merece la pena leerlo. Vuestras palabras se han revelado cruelmente ciertas, que alguien se me adelantaría… Nunca había visto coincidencia tan sorprendente; si Wallace hubiera tenido el manuscrito que escribí en 1842, ¡no habría hecho mejor resumen! Incluso sus términos figuran en los encabezamientos de mis capítulos. Por favor, devuélvame el [manuscrito], que él no dice que desee que yo le publique, pero por supuesto le escribiré enseguida ofreciéndome a enviarlo a cualquier revista. Toda mi originalidad, sea la que sea, quedará demolida, aunque mi libro, si alguna vez llega a tener algún valor, no se verá perjudicado, pues toda mi labor consiste en la aplicación de la teoría. Espero que usted apruebe el borrador de Wallace, que yo le comunicaré lo que usted me diga [270].
Al final, la clave de a quién se debía atribuir la teoría se hallaba en la observación de Darwin de que el valor de su libro se encuentra en las aplicaciones que detallaba. Wallace no solo no había hecho un estudio exhaustivo de las pruebas de la selección natural, como había llevado a cabo Darwin, sino que tampoco había logrado duplicar el detallado análisis de Darwin sobre cómo puede ser el cambio de tal magnitud que genere nuevas especies, y no solo nuevas «variedades», lo que hoy llamamos subespecies.
Lyell le contestó con un compromiso: él y otro de los amigos más cercanos de Darwin, el botánico Joseph Dalton Hooker, leerían ante la prestigiosa Sociedad Linneana de Londres tanto la comunicación de Wallace como un resumen de las ideas de Darwin, y ambos serían publicados conjuntamente en los Proceedings (las actas) de la sociedad. El plan angustiaba a Darwin, y el momento no podía ser peor. Darwin se sentía enfermo con sus habituales trastornos, su viejo amigo el biólogo Robert Brown acababa de fallecer, y su décimo hijo, Charles Waring Darwin, que solo contaba dieciocho meses, estaba gravemente enfermo con fiebre escarlata.
Darwin dejó el asunto en manos de Lyell y Hooker para que lo resolvieran como mejor les pareciera, y así, el 1 de julio de 1858, el secretario de la Sociedad Linneana leyó las comunicaciones de Darwin y Wallace ante los treinta y tantos miembros presentes. La lectura no suscitó ni abucheos ni aplausos, solo un silencio sepulcral. Luego se procedió a la lectura de otros seis artículos académicos, y, por si acaso alguien seguía despierto tras los cinco primeros, se guardó para el final un prolijo tratado sobre la vegetación de Angola.
Ni Wallace ni Darwin asistieron. Wallace estaba todavía en el Sudeste Asiático, ignorante de lo que ocurría en Londres. Cuando más tarde fue informado, concedió con cortesía que el asunto se había resuelto de forma justa, y en años posteriores siempre trataría a Darwin con respeto e incluso afecto. Darwin estaba enfermo en aquel momento, así que seguramente tampoco habría viajado a Londres para la reunión, pero además, mientras se leían las comunicaciones, él y su mujer, Emma, daban sepultura a su segundo hijo fallecido, Charles Waring, en la iglesia de la parroquia.
Con la presentación ante la Sociedad Linneana, tras veinte años de duro trabajo para desarrollar y apuntalar su teoría, Darwin por fin había expuesto sus ideas al público. La reacción inmediata fue, en el mejor de los casos, anticlimática. Que nadie de los presentes hubiera comprendido la significación de lo que acababan de oír queda bien reflejado en los comentarios del presidente de la sociedad, Thomas Bell, que a la salida se lamentó, como lo expresaría más tarde, que aquel año no había estado «marcado por ninguno de esos descubrimientos sorprendentes que de inmediato revolucionan, por así decirlo, [nuestro] departamento de la ciencia[271]».
Tras la presentación en la Sociedad Linneana, Darwin se movió con rapidez. En menos de un año reescribió su Natural Selection convirtiéndola en su obra maestra, El origen de las especies. Este era un libro más breve, dirigido al público en general. Acabó el manuscrito en abril de 1859. Para entonces se hallaba exhausto y, en sus propias palabras, «débil como un niño[272]».
Consciente siempre de la necesidad de propiciar un consenso a su favor, Darwin dispuso que su editor, Murray, distribuyera un gran número de ejemplares de cortesía de su obra, y personalmente envió cartas críticas consigo mismo a muchos de los destinatarios de aquellos ejemplares. Al escribir su libro, Darwin había tenido el cuidado de minimizar cualquier objeción teológica. Argumentaba que un mundo gobernado por la ley natural es superior a uno gobernado por milagros arbitrarios, pero todavía creía en una deidad distante, y en El origen de las especies hizo todo lo posible para crear la impresión de que su teoría no era un paso hacia el ateísmo. Al contrario, esperaba mostrar que la naturaleza trabajaba en pos del beneficio a largo plazo para los seres vivos, pues guiaba a las especies para que progresaran hacia la «perfección» mental y física de un modo coherente con la idea de un creador benevolente.
«Hay grandeza en esta concepción de que la vida…», escribió, «ha sido alentada… en un corto número de formas o en una sola, y que, mientras este planeta ha ido girando según la constante ley de la gravitación, se han desarrollado y se están desarrollando, a partir de un principio tan sencillo, infinidad de formas muy bellas y portentosas[273]».
La reacción a El origen de las especies no fue el silencio. Por ejemplo, su viejo mentor, el profesor Sedgwick de Cambridge, escribió: «He leído su libro con más dolor que placer… algunas partes las he leído con gran pena, pues creo que son completamente falsas y profundamente dañinas [274]».
Aun así, al presentar una teoría superior, mejor apoyada en pruebas empíricas y en un tiempo comparativamente más tranquilo, El origen de las especies no suscitó tanta ira como Vestigios. Al cabo de una década, el debate entre los científicos prácticamente se había resuelto, y en el momento de la muerte de Darwin, diez años más tarde, la evolución se había convertido en un tema dominante en el pensamiento victoriano y una idea universalmente aceptada.
Darwin ya era un científico respetado, pero con la publicación de su libro se convirtió, como Newton después de los Principia, en un personaje público. Fue bañado en honores y reconocimientos internacionales. Recibió la prestigiosa Medalla Copley de la Royal Society, doctorados honoris causa por Oxford y Cambridge, la Orden del Mérito del rey de Prusia, fue elegido miembro correspondiente de la Academia Imperial de Ciencias de San Petersburgo y de la Academia Francesa de las Ciencias, y fue nombrado miembro honorario de la Sociedad Imperial de Naturalistas de Moscú y de la Sociedad Misionera Sudamericana de la Iglesia de Inglaterra.

22.jpg
Darwin en las décadas de 1830, 1850 y 1870.

Como en el caso de Newton, la influencia de Darwin traspasó las fronteras de sus teorías científicas, estimulando formas totalmente distintas de pensar sobre aspectos de la vida. Como escribió un grupo de historiadores: «Por todos lados, el darwinismo se convirtió en sinónimo de naturalismo, materialismo o filosofía evolutiva. Representaba igual la competencia y la cooperación, la liberación y la subordinación, el progreso y el pesimismo, la guerra y la paz. Su política podía ser liberal, socialista o conservadora, y su religión, atea u ortodoxa [275]».
Desde el punto de vista de la ciencia, sin embargo, el trabajo de Darwin, como el de Newton, fue solo el principio. Su teoría proponía un principio fundamental que gobernaba el modo en que cambiaban con el tiempo las características de las especies como respuesta a presiones ambientales, pero los científicos de la época seguían estando en la más completa oscuridad en cuanto a los mecanismos de la herencia.
Irónicamente, al mismo tiempo que las investigaciones de Darwin se presentaban en la Sociedad Linneana, Gregor Mendel (1822-1884), un científico y monje de un monasterio de Brno (hoy en la República Checa), se encontraba enfrascado en ocho años de experimentos que sugerirían un mecanismo para la herencia, al menos en un sentido abstracto[276].
Lo que propuso fue que las características simples vienen determinadas por dos alelos de un gen, uno aportado por el padre y el otro por la madre. Sin embargo, las investigaciones de Mendel tardaron en difundirse, y a Darwin nunca le llegó noticia de sus resultados.
En cualquier caso, la plena comprensión de los mecanismos materiales que había detrás de la herencia mendeliana requeriría progresos en la física del siglo XX, en particular la física cuántica y sus productos, como las técnicas de difracción de rayos X, el microscopio electrónico y los transistores que hicieron posible la computación digital. Con la ayuda de estas técnicas se conseguiría revelar la estructura de la molécula de ADN y del genoma, y estudiar la genética a nivel molecular, lo que por fin permitiría a los científicos comenzar a entender los detalles de cómo funciona la herencia y la evolución.
Pero incluso eso no era más que el principio. La biología pretende entender la vida a todos los niveles, hasta las estructuras y reacciones bioquímicas que tienen lugar en el interior de la célula, que son los atributos de la vida que de manera más directa resultan de la información genética que llevamos. Ese ambicioso objetivo, nada menos que la ingeniería inversa de la vida, se encuentra sin ninguna duda todavía muy lejos, igual que la teoría unificada del todo que buscan los físicos. Pero por muy bien que lleguemos a entender los mecanismos de la vida, el principio organizativo central de la biología probablemente seguirá siendo esa gran epifanía del siglo XIX: la teoría de la evolución.
Darwin no era precisamente uno de los individuos bien ajustados a su medio, pero logró llegar a una edad avanzada. En sus últimos años, sus problemas crónicos de salud fueron mejorando, aunque se encontraba siempre cansado. Aun así, no dejó de trabajar hasta el final, publicando su último artículo, «The Formation of Vegetable Mould through the Action of Worms» («La formación de moho vegetal por la acción de gusanos») en 1881. Aquel mismo año comenzó a ,experimentar un dolor en el pecho al hacer ejercicio, y en Navidad sufrió un ataque al corazón. En la primavera siguiente, el 18 de abril, sufrió otro ataque al corazón y a duras penas consiguió recuperar la conciencia. Musitó que no temía a la muerte, y horas más tarde, hacia las cuatro de la madrugada, falleció. Tenía setenta y tres años. En una de sus últimas cartas, que escribió a Wallace, le había comentado: «Dispongo de todo lo necesario para sentirme para sentirme feliz y dichoso, pero la vida me resulta fatigosa[277]»

Parte 3
Más allá de los sentidos humanos

Es el mejor tiempo para estar vivo, cuando casi todo lo que creías saber estaba equivocado.
Tom Shepard, Arcadia, 1993

Contenido:
10. Los límites de la experiencia humana
11. El dominio invisible
12. La revolución cuántica


10. Los límites de la experiencia humana
Hace dos millones de años, los humanos creamos nuestra primera gran innovación cuando aprendimos a hacer con una piedra un instrumento cortante. Aquella experiencia nos inició en el aprovechamiento de la naturaleza para satisfacer nuestras necesidades, y prácticamente ningún otro descubrimiento desde entonces representa una revelación tan grande o ha ocasionado cambios mayores en nuestra forma de vivir. Sin embargo, hace un siglo se realizó otro descubrimiento de igual poder y significación. Como el uso de las piedras, se trata de algo que se encuentra a todo nuestro alrededor, algo que desde el principio de los tiempos ha estado ante nuestros ojos, aunque invisible a ellos. Me refiero al átomo, pero sobre todo a las extrañas leyes cuánticas que lo gobiernan.
Una teoría del átomo es obviamente fundamental para entender la química, pero la comprensión adquirida mediante el estudio del mundo atómico también revolucionó la física y la biología. Cuando los científicos aceptaron la realidad del átomo y comenzaron a descifrar cómo funcionaban sus leyes, llegaron a una comprensión profunda que transformó la sociedad, arrojando luz sobre temas tan dispares como las fuerzas fundamentales y las partículas de la naturaleza o el ADN y la bioquímica de la vida, al tiempo que permitían el desarrollo de las nuevas tecnologías que han hecho posible el mundo moderno.
La gente habla de la revolución tecnológica, la revolución informática, la revolución de la información o la era nuclear, pero en último término todas estas se resumen en una sola cosa: convertir el átomo en una herramienta. En la actualidad, nuestra capacidad para manipular los átomos es lo que hace posible todo, desde nuestros televisores a los cables de fibra óptica que transfieren las señales que aquellos nos muestran, desde los teléfonos a los ordenadores, desde la tecnología de la internet a las máquinas de resonancia magnética. Utilizamos nuestro conocimiento de los átomos incluso cuando creamos luz: nuestros fluorescentes, por ejemplo, emiten luz cuando los electrones de los átomos, tras ser excitados por una corriente eléctrica, realizan «saltos cuánticos» a estados de energía menores. En nuestros días, incluso los electrodomésticos que nos parecen más mundanos, como los hornos, los relojes o los termostatos, contienen componentes que dependen para su diseño de nuestro conocimiento del cuanto.
La gran revolución que nos condujo a nuestro actual conocimiento de cómo funcionan los átomos y de las leyes cuánticas del mundo atómico se remonta a los inicios del siglo XX. Años antes, ya se había observado que lo que hoy llamamos «física clásica» (física basada en las leyes del movimiento de Newton y no en las leyes cuánticas) no lograba explicar un fenómeno llamado radiación del cuerpo negro, que hoy sabemos que depende de las propiedades cuánticas del átomo. Aquel fracaso aislado de la teoría newtoniana no se identificó enseguida como una señal de alarma; al contrario, se pensó que de algún modo los físicos estaban confusos sobre cómo aplicar la física newtoniana a este problema, y que cuando supieran cómo hacerlo, la radiación del cuerpo negro se podría entender dentro del marco clásico. Pero los físicos fueron descubriendo otros fenómenos atómicos que también se resistían a una explicación dentro de la teoría newtoniana, y finalmente comprendieron que tenían que derrocar a Newton igual que generaciones anteriores hubieron de derrocar a Aristóteles.
La revolución cuántica se produjo durante un periodo de pugna que duró veinte años. Que esta revolución se completara en cuestión de un par de décadas, no en siglos o milenios, fue posible gracias al gran número de científicos que trabajaban en el problema, no una indicación de que el nuevo modo de pensar fuese más fácil de aceptar. De hecho, la nueva filosofía que suscita la física cuántica es todavía, en algunos frentes, un tema candente de discusión, pues la imagen del mundo que surgió después de aquellos veinte años es herejía para cualquiera que, como Einstein, desdeñe el papel del azar en el resultado de los eventos o para quien crea en las leyes usuales de causa y efecto.
El espinoso tema de la causalidad en el universo cuántico no se presentó hasta el final de la revolución cuántica, y nos ocuparemos de él más adelante. Pero había otra cuestión, tan filosófica como práctica, que se interpuso en el camino desde el principio: los átomos eran demasiado pequeños para verlos, o incluso medirlos individualmente; hasta finales del siglo XX los científicos no «verían» una imagen de una molécula [278].
En consecuencia, en el siglo XIX todos los experimentos sobre los átomos solo podían revelar fenómenos que se debieran, como mucho, al comportamiento medio del ingente número de estos diminutos e invisibles objetos. ¿Era legítimo considerar reales unos objetos no observables?
Pese a las investigaciones de Dalton sobre el átomo, pocos científicos lo creían así. Incluso los químicos, que empleaban el concepto porque era útil para entender fenómenos que sí podían observar y medir, tendían a usarlo solamente como una mera hipótesis de trabajo, es decir, las reacciones químicas se desarrollaban como si se debieran a la reorganización de los átomos que forman los compuestos. Otros creían que los átomos eran apropiados para la filosofía pero no para la ciencia, y pretendían desterrar la idea para siempre. En palabras del químico alemán Friedrich Wilhelm Ostwald, son «conjeturas hipotéticas que no conducen a ninguna conclusión verificable[279]».
La vacilación era comprensible, pues durante siglos la ciencia se había separado de la filosofía precisamente en torno a la cuestión de si las concepciones de la naturaleza deben ir respaldadas por experimentación y verificación. Al insistir en la verificabilidad como criterio para aceptar una hipótesis, los científicos lograron deshacerse de antiguas especulaciones por no ser contrastables o porque, como ocurrió con muchas de las teorías de Aristóteles cuando se contrastaron, por ser erróneas. Las sustituyeron leyes matemáticas que producían predicciones cuantitativas precisas.
La existencia de los átomos no era directamente contrastable, pero la hipótesis de su existencia que conducía a leyes contrastables, y esas leyes se demostraron válidas; por ejemplo, el concepto de átomo se podía usar para establecer, matemáticamente, la relación entre la temperatura y la presión en los gases. Así las cosas, ¿qué había que pensar de los átomos? Esa era la metapregunta de la época. La respuesta no estaba clara y, en consecuencia, el átomo mantuvo durante la mayor parte del siglo XIX la existencia de un fantasma sobre los hombros de los físicos, un intangible que susurraba en sus oídos los secretos de la naturaleza.

23.jpg
Los laboratorios de física para el estudio de las partículas elementales de la materia en 1926 y en la actualidad (la posición del anillo del acelerador, de 27 kilómetros de perímetro y a decenas de metros bajo la superficie, se indica con un círculo blanco).

La cuestión del átomo recibió al fin una respuesta tan contundente que hoy ya no se cuestiona en absoluto: si la ciencia ha de progresar, sabemos que debe dirigir su atención más allá de nuestra experiencia sensorial directa. A principios del siglo XXI, nuestra aceptación del mundo invisible había llegado tan lejos que a nadie le sorprendió el descubrimiento de la famosa «partícula de Higgs», aunque nadie la había visto o siquiera observado el resultado tangible de su interacción con algún aparato que pudiera hacerlas visibles de manera indirecta, del modo en que, por ejemplo, una pantalla fluorescente hace «visibles» a los electrones porque produce un destello cuando la alcanzan.
Bien al contrario, las pruebas de que la partícula de Higgs existe son matemáticas, inferidas a partir de ciertas características numéricas peculiares de datos electrónicos. Los datos fueron generados por los restos (por ejemplo, radiación) generados por más de trescientos billones de colisiones protón-protón y analizados estadísticamente, mucho después del evento, con la ayuda de casi doscientas instalaciones de computación de tres docenas de países. En la actualidad, eso es lo que un físico quiere decir cuando afirma que «hemos visto una partícula de Higgs».
Con la de Higgs y con todas las otras partículas subatómicas que los científicos han «visto» de manera parecida, el átomo que en otro tiempo era invisible hoy nos parece más como todo un universo de objetos, un trillón de universos en cada gota de agua, mundos diminutos que no solo son invisibles a nuestros ojos sino que los separan varios grados de nuestra observación directa. Así que no cabe pensar que se le pueda explicar a un físico del siglo XIX lo que es un bosón de Higgs: ya sería difícil explicarle lo que queremos decir cuando decimos que lo hemos «visto».
El nuevo estilo de observación, apartado de la experiencia sensorial humana, creó nuevas exigencias sobre los científicos. La ciencia de Newton se basaba en aquello que se puede percibir a través de los sentidos, ayudados quizá por un microscopio o un telescopio, pero todavía con un ojo humano en el otro extremo del instrumento. La ciencia del siglo XX seguiría estando dedicada a la observación, pero aceptaría una definición más amplia de «ver», una definición que acepta como evidencia indicios estadísticos indirectos, como en el caso del bosón de Higgs. A causa de la nueva actitud sobre lo que significa «ver», los físicos del siglo XX tuvieron que desarrollar imágenes mentales que se correspondieran con teorías que incluían extraños conceptos de vanguardia como el de cuanto, conceptos que se hallan mucho más allá de nuestra experiencia humana, enraizados en la matemática abstracta.
La nueva manera de hacer física se vio reflejada enseguida en una creciente división entre los físicos. De un lado, la presencia cada vez más importante de una matemática compleja en las teorías físicas y, de otro, la creciente sofisticación de los experimentos, fomentaron una separación de las especializaciones formales de la física teórica y la física experimental. Más o menos al mismo tiempo, las artes visuales evolucionaron de una manera comparable, abriendo una brecha entre los artistas figurativos tradicionales y los pioneros del cubismo y el arte abstracto, como Cézanne, Braque, Picasso y Kandinski, quienes, como los nuevos teóricos de las teorías cuánticas, «veían» el mundo de maneras radicalmente distintas.
También en la música y la literatura un nuevo espíritu desafiaba las normas anquilosadas de la rígida Europa del siglo XIX. Stravinski y Schoenberg cuestionaban los supuestos sobre tono y ritmo tradicionales en Occidente; Joyce y Woolf y sus equivalentes en el continente europeo experimentaban con nuevas formas narrativas. En 1920, el filósofo, psicólogo y educador John Dewey escribió que el pensamiento crítico a menudo implica «la disposición a soportar una condición de inquietud y perturbación mental[280]».
Eso no es solo cierto sobre el pensamiento crítico, también se aplica a los esfuerzos creativos. Practicaran el arte o la ciencia, ninguno de esos pioneros lo tuvo fácil.
La imagen que acabo de esbozar de la ciencia del siglo XX está dibujada con la ventaja de la mirada retrospectiva. Los físicos que estudiaban el átomo a finales del siglo XIX no se daban cuenta de lo que se les venía encima. De hecho, resulta sorprendente mirar atrás y observar que, pese a la bomba de relojería que era el átomo, que ya tenían a sus puertas, aquellos físicos creían que su campo de estudio estaba más o menos agotado, y aconsejaban a sus estudiantes que evitaran la física porque no quedaba nada realmente estimulante por hacer.
El jefe del departamento de Harvard, por ejemplo, era famoso por ahuyentar a los estudiantes potenciales diciéndoles que ya se había descubierto todo lo importante de la física. Al otro lado del océano, el jefe del departamento de física de la Universidad de Múnich advertía en 1875 que ya no valía la pena dedicarse a esa disciplina porque «la física es una rama del conocimiento que está más que completada [281]».
Como modelo de presciencia deja tanto que desear como la afirmación del armador del Titanic, que decía de su barco que era «casi tan perfecto como pueda concebirlo el cerebro humano». La física del cambio de siglo, como el Titanic, se consideraba inexpugnable. Sin embargo, la física que se practicaba en aquella época estaba destinada a hundirse.
Uno de los individuos que recibió el inane consejo del director del departamento de física de Múnich fue Max Planck (1858-1947 [282]). Joven flaco, casi demacrado, que desde muy pronto lució gafas y unas profundas entradas, Planck irradiaba una impresión de gravedad impropia de su edad. Nacido en Kiel (Alemania), fue el producto de una larga saga de pastores de la Iglesia, académicos y juristas, y se ajustaba a la perfección al dechado del físico del siglo XIX: diligente, responsable y, en sus propias palabras, «poco dado a aventuras dudosas[283]».
No parecen las palabras de alguien cuyo trabajo habría de destronar a Newton, pero Planck no pretendía comenzar una revolución. De hecho, durante años ni siquiera apoyó el movimiento que su propio descubrimiento había desencadenado.
Aunque poco dado a las aventuras, Planck comenzó su carrera asumiendo un riesgo: ignoró el consejo del director del departamento y se apuntó al programa de física. Le había inspirado a estudiar física un profesor de instituto que había logrado transmitirle la pasión por «investigar la armonía que reina entre la severidad de la matemática y la multitud de leyes naturales[284]», y Planck creía en sí mismo lo bastante para perseguir su pasión. Años después le diría a uno de sus propios estudiantes: «Mi máxima ha sido siempre esta: piensa en cada paso cuidadosamente antes de darlo, pero si crees que puedes asumirlo, no dejes que nada te detenga [285]».
Esa afirmación no tenía la jactancia de aquella campaña clásica de Nike, «Just do it» («Solo hazlo»), ni era una de esas rotundas declaraciones a las que nos tienen acostumbrados las estrellas de los deportes, pero a su modo, el manso y convencional Planck estaba dando voz a la misma fuerza interior.
Tras decidirse por la física, Planck tuvo que elegir el tema de su investigación doctoral. También en esto hizo una elección valiente y crucial. Escogió la termodinámica, la física del calor, que entonces era una oscura área de la física, pero era esa la que más lo había inspirado en el instituto, y Planck decidió seguir sus propios intereses antes que la moda.
Por aquel entonces, un puñado de científicos que habían aceptado el átomo habían comenzado a entender el mecanismo que subyace a la termodinámica como el resultado estadístico del movimiento de átomos individuales. Por ejemplo, si en un momento dado hay una nube de humo confinada en una pequeña región de una habitación, la termodinámica nos dice que un tiempo más tarde estará más dispersa, no más concentrada. Ese proceso define lo que los físicos llaman «flecha del tiempo»: el futuro es la dirección del tiempo en la que el humo se dispersa, el pasado es la dirección en la que se concentra. Esto resulta desconcertante porque las leyes del movimiento, aplicadas a cada átomo individual del humo (y del aire), no nos dan ninguna pista sobre qué dirección del tiempo es el pasado y cuál el futuro. El fenómeno, sin embargo, puede explicarse mediante un análisis estadístico de los átomos: la «flecha del tiempo» solo aparece cuando se observa el efecto acumulado de muchos átomos [286].
A Planck, este tipo de argumentaciones no le satisfacían. Veía el átomo como una fantasía y decidió que el objetivo de su investigación doctoral sería obtener resultados concretos y contrastables experimentalmente a partir de los principios de la termodinámica sin utilizar el concepto de átomo; de hecho, sin hacer ninguna suposición sobre la estructura interna de las sustancias. «Pese al gran éxito que hasta el momento ha tenido la teoría atómica», escribió, «con el tiempo habrá de abandonarse a favor de la suposición de una materia continua [287]».
Clarividente, no lo era. Lo que se acabaría abandonando no sería la teoría atómica, sino la resistencia que Planck le oponía. Al final, su trabajo podría interpretarse como un fuerte indicio a favor, o en contra, de la existencia de los átomos.
Mi nombre es tan difícil de deletrear y de pronunciar que cuando hago una reserva en un restaurante suelo usar el de Max Planck. Muy raras veces lo reconocen, pero una vez me preguntaron si era pariente del «tipo que inventó la teoría cuántica». Yo respondí: «Yo soy ese hombre». El maître, de veintitantos años, no me creyó, me dijo que era demasiado joven para serlo. «La teoría cuántica se inventó en los sesenta», añadió. «Fue durante la segunda guerra mundial, como parte del proyecto Manhattan».
No seguimos hablando, pero la cuestión de la que me hubiera gustado conversar con él no era su confusión sobre la historia, sino su confusión sobre el significado de «inventar» una teoría en física. La palabra «inventar» significa crear algo que antes no existía. Descubrir, en cambio, significa llegar a conocer algo que antes no se conocía. Uno puede ver las teorías de las dos maneras, es decir, como estructuras matemáticas que los científicos inventan, o como expresión de leyes de la naturaleza que existen con independencia de nosotros y que los científicos descubren.
En parte es una cuestión metafísica: ¿hasta qué punto debemos tomar las imágenes que dibujan nuestras teorías como una realidad literal (que descubrimos), y no como simples modelos (que inventamos) de un mundo que podría modelarse también de otras maneras, por ejemplo por personas (o alienígenas) que piensen de una forma distinta? Filosofías aparte, la distinción entre invención y descubrimiento tiene otra dimensión que tiene que ver con el proceso: realizamos descubrimientos mediante la exploración, y a menudo por accidente; hacemos invenciones mediante diseños planificados y construcción, y lo accidental desempeña un papel menos importante que el ensayo y el error.
Ciertamente cuando Einstein concibió la relatividad, sabía qué se disponía a hacer y lo hizo, así que uno podría decir de la relatividad que es una invención. Con la teoría cuántica no fue así. Al describir los pasos que condujeron al desarrollo de la teoría cuántica, a menudo lo más apropiado sería usar expresiones como «descubrir» o incluso «dar con» en lugar de «inventar», y suele ocurrir que (muchos) descubridores acaban dando con algo que, como en el caso de Planck, es justo lo contrario de lo que esperaban encontrar, algo así como si Edison se dispusiera a inventar la luz artificial y en su lugar descubriera la oscuridad artificial. Más aún, como le pasó a Planck, a veces no comprenden el significado de su propio trabajo, y cuando otros lo interpretan por ellos, lo discuten.
Planck no logró respaldar ni la existencia ni la no existencia de los átomos en su tesis doctoral de 1879 sobre termodinámica. Y lo que es peor, no le llevó a ningún lado profesionalmente. Sus profesores de Múnich no le entendieron; Gustav Kirchhoff, un experto en termodinámica de Berlín, pensaba que estaba equivocado; y otros dos de los pioneros fundadores de la disciplina, Hermann von Helmholtz y Rudolf Clausius, se negaron a leer su tesis. Al no recibir respuesta a dos cartas, Planck decidió viajar hasta Bonn y llamar a la casa de Clausius, pero el profesor se negó a recibirlo. Por desgracia, aparte de esos pocos físicos, cuando se trataba de la termodinámica, «nadie», en palabras de un colega de Planck, «tenía el menor interés [288]».
La falta de interés no molestaba a Planck, pero tuvo como consecuencia una serie de años sórdidos durante los cuales vivió en la casa de sus padres mientras trabajaba en la universidad como profesor no remunerado y, como había hecho Mendeleev, para ganarse algo la vida tenía que cobrar directamente a los estudiantes que asistían a sus clases.
Cada vez que le he comentado eso a alguien, he visto caras de sorpresa. Por alguna razón, la gente espera de los artistas que el amor a su trabajo les lleve a hacer cualquier sacrificio, a vivir en pobres buhardillas o, peor aún, con sus padres, para seguir trabajando en su obra; pero la gente no imagina que los físicos puedan ser tan apasionados. Durante el doctorado, sin embargo, conocí a dos estudiantes que, como Planck, tuvieron que enfrentarse al fracaso. Por desgracia, uno de ellos intentó suicidarse. El otro convenció al departamento de física de Harvard de que le dejase trabajar en una mesa de un despacho abarrotado y sin cobrar. (Un año más tarde lo contrataron). Un tercero, a quien no conocí, había suspendido unos años antes y desde entonces había presentado sus teorías personales (y totalmente erróneas) a varios miembros de la facultad, que lo ignoraron, hasta que un día decidió convencerlos cuchillo en mano. Fue interceptado por agentes de seguridad y nunca más volvió. La sabiduría popular no tiene relatos de físicos solitarios e infravalorados que se corten una oreja, pero durante mis años de doctorado en Berkeley, se dieron esas tres historias, todas alimentadas por la pasión por la física.
Planck, igual que mi amigo doctorando que estuvo en Harvard sin cobrar, hizo un trabajo de investigación durante su periodo de «voluntario» para conseguir por fin un trabajo remunerado. Le llevó cinco años. Al final, gracias a la perseverancia y la suerte y, a decir de algunos, la intervención de su padre, consiguió una plaza de docente en la Universidad de Kiel. Cuatro años más tarde, su trabajo sería considerado lo bastante impresionante como para ser llamado a ocupar una cátedra en la Universidad de Berlín en 1892, convirtiéndose así en un miembro de la pequeña élite de la termodinámica. Pero aquello solo fue el principio.
En Berlín, la pasión de Planck por la investigación se mantuvo firme en la meta de entender la termodinámica sin tener que «recurrir» al concepto de átomo, es decir, considerando que las sustancias son «infinitamente divisibles», y no constituidas por piezas de construcción discretas.

24.jpg
Max Planck, hacia 1930.

La cuestión de si eso era posible era, a su entender, la más urgente de toda la física, y al trabajar en un entorno académico, Planck no tenía un jefe que se lo quitase de la cabeza, ni que fuera indirectamente. Eso resultó ser bueno, pues su manera de pensar se alejaba tanto de la corriente principal de la física que en el verano de 1900, apenas unos meses antes de que anunciara su radical descubrimiento, el historiador principal del congreso internacional de físicos de París expresó la opinión de que, aparte de Planck, había como mucho tres personas en el mundo que considerasen que aquella era una pregunta que merecía la pena investigar. Poco habían cambiado las cosas en los veintiún años que habían transcurrido desde la defensa de su tesis doctoral.
La ciencia, como todos los ámbitos, está llena de gente corriente que se plantea preguntas corrientes, y a muchos de ellos la vida les va bien. Pero los investigadores de más éxito suelen ser aquellos que se plantean preguntas extrañas, preguntas que otros ni imaginaron, o simplemente no les parecieron interesantes. Por sus intereses, estos físicos son considerados raros, excéntricos o incluso locos, hasta que llega el día en que son considerados genios.
Naturalmente, un científico que se pregunte si el sistema solar se apoya en el lomo de un alce también sería un pensador original, como debía serlo, supongo, el estudiante del cuchillo del que ya he hablado, así que ante un grupo de pensadores libres hay que ser selectivo, y ahí radica el problema, pues no suele ser fácil distinguir entre las personas que tienen ideas que solo son raras y las que tienen ideas que además de raras son correctas. O raras pero destinadas a llevarnos al cabo de mucho tiempo y muchos pasos en falso a algo que sí es correcto. Planck fue un pensador original que se planteó preguntas que a otros físicos ni siquiera les parecieron originales. Sin embargo, resultaron ser justamente las preguntas que los físicos clásicos no podían responder.
Los químicos del siglo XIX habían encontrado en el estudio de los gases una suerte de piedra de Rosetta, una clave que los ayudó a descifrar importantes principios científicos. Planck buscó su propia piedra de Rosetta en la radiación del cuerpo negro, el fenómeno termodinámico que Gustav Kirchhoff había identificado y bautizado en 1860. En la actualidad, la «radiación del cuerpo negro» es un término familiar entre los físicos: es la forma de radiación electromagnética que emite, a una temperatura determinada, un cuerpo que es literalmente negro.
«Radiación electromagnética» suena a complicado, incluso a peligroso, como algo que podría disparar los drones contra los campamentos de Al Qaeda. Sin embargo, se refiere a toda una familia de ondas de energía, por ejemplo las microondas, las ondas de radio, la luz visible y la ultravioleta, los rayos X y la radiación gamma, que, bien empleada, tiene una gran variedad de usos prácticos, algunos letales, pero todos parte importante del mundo al que hoy estamos acostumbrados.
En tiempos de Kirchhoff, el concepto de radiación electromagnética todavía era nuevo y misterioso. La teoría que la describía, en el contexto de las leyes de Newton, provenía de las investigaciones del físico escocés James Clerk Maxwell, que aún hoy sigue siendo un ídolo de la física, y en los campus universitarios no es raro ver su rostro o sus ecuaciones en las camisetas de los estudiantes de física. La razón de tanta adoración es que la década de 1860 logró la gran unificación de la historia de la física: explicó las fuerzas eléctricas y magnéticas como manifestaciones del mismo fenómeno, el «campo electromagnético», y reveló que la luz y otras formas de radiación son ondas de energía electromagnética. Para un físico, dilucidar conexiones profundas entre fenómenos distintos, como hizo Maxwell, es una de las cosas más emocionantes que uno pueda hacer.
Que algún día surgiera un Maxwell había sido la esperanza y el sueño de Newton, que sabía que su teoría no era completa. Había enunciado unas leyes del movimiento que explican cómo reaccionan los objetos tras la aplicación de una fuerza, pero para poder usar esas leyes hay que complementarlas con otras leyes de fuerza, leyes que describen la fuerza que actúa sobre los objetos en cuestión. Newton proporcionó las leyes para un tipo de fuerza, la gravedad, pero sabía que debían existir otros tipos de fuerza.
Durante los siglos que siguieron a Newton, se fueron revelando gradualmente a la física otras dos fuerzas de la naturaleza: la electricidad y el magnetismo. Al crear una teoría cuantitativa de esas dos fuerzas, Maxwell en cierto sentido había completado el programa newtoniano (es decir, «clásico»): además de las leyes del movimiento de Newton, los científicos disponían ahora de teorías sobre todas las fuerzas que se nos manifiestan en nuestra existencia diaria. (En el siglo XX todavía descubriríamos dos fuerzas más, la fuerza «fuerte» y la «débil», cuyos efectos no se manifiestan en nuestra experiencia diaria, sino que actúan en los minúsculos espacios del núcleo atómico).
Antes, con la ayuda de la ley de la gravedad de Newton y sus leyes del movimiento, los científicos podían describir solamente fenómenos gravitatorios, como las órbitas de los planetas o las trayectorias de los obuses de artillería. Ahora, con la teoría de las fuerzas eléctrica y magnética de Maxwell, combinadas con las leyes del movimiento de Newton, los físicos podían analizar un gran abanico de fenómenos, como la radiación y su interacción con la materia. De hecho, los físicos creían que con la adición de la teoría de Maxwell a su arsenal podían, en principio, explicar cualquier fenómeno natural que se observe en el mundo. De ahí el optimismo desbordado de los físicos de finales del siglo XIX.
Newton había dejado escrito que hay «ciertas fuerzas por mediación de las cuales las partículas de los cuerpos, por causas hasta el momento desconocidas, se ven o bien mutuamente impelidas hacia sí, y se reúnen en figuras regulares, o bien repelidas y se separan las unas de las otras [289]».
Estas, según creía, causan «movimientos locales que por razón de la pequeñez de las partículas en movimiento, no pueden detectarse… [pero] si alguien tuviese la gran fortuna de descubrirlas todas, casi podría decirse que habría desvelado completamente la naturaleza de los cuerpos[290]».
Lo que los físicos habían descubierto con el electromagnetismo satisfacía aquel sueño de entender las fuerzas que actúan entre las pequeñas partículas de los cuerpos (los átomos), pero el sueño de Newton de que su teoría podría entonces explicar las propiedades de los objetos materiales nunca llegaría a hacerse realidad. ¿Por qué? Porque, si bien los científicos habían descubierto las leyes de las fuerzas eléctrica y magnética, cuando esas fuerzas se aplicaban a los átomos, se encontraban con que las leyes del movimiento de Newton fallaban.
Aunque en el momento nadie se dio cuenta de ello, las deficiencias de la física newtoniana se manifestaban de una forma especialmente clara justamente en el fenómeno que Planck había decidido estudiar: la radiación del cuerpo negro. Cuando los físicos aplicaron la física newtoniana para calcular cuánta radiación debía emitir el material negro de cada una de las frecuencias, los cálculos no solo resultaron ser erróneos, sino que arrojaban un resultado absurdo: que un cuerpo negro debía emitir una cantidad infinita de radiación de alta frecuencia.
De ser correctos aquellos cálculos, el fenómeno de la radiación del cuerpo negro implicaría que sentarse junto al fuego de un hogar o abrir la puerta del horno caliente tendría como consecuencia no solo que podríamos disfrutar del calor de la radiación de baja frecuencia o el reconfortante resplandor de la luz roja, de frecuencia algo más alta, sino que además seríamos bombardeados con peligrosa radiación de alta frecuencia: luz ultravioleta, rayos X y rayos gamma. La bombilla, que acababa de inventarse por aquella época, habría resultado no ser tanto un útil instrumento para la iluminación artificial como, a causa de la radiación producida por su elevada temperatura de trabajo, una arma de destrucción masiva.
Cuando Planck comenzó a trabajar en este campo, aunque todo el mundo sabía que los cálculos sobre el cuerpo negro eran incorrectos, nadie sabía por qué. Por otro lado, mientras la mayoría de los físicos interesados en el problema se rascaban la cabeza, unos pocos se centraron en idear diversas fórmulas matemáticas ad hoc que describieran las observaciones experimentales. Esas fórmulas daban, para cada frecuencia, la intensidad de la radiación emitida por un cuerpo negro a cualquier temperatura dada, pero solo eran descriptivas, creadas para arrojar los datos necesarios, no derivadas a partir de un conocimiento teórico. Además, ninguna era precisa para todas las frecuencias.
Planck comenzó a abordar el reto de proporcionar una descripción precisa de la radiación emitida por los cuerpos negros en 1897. Como los demás, no sospechaba que el problema sugiriera que algo anduviera mal con la física newtoniana, sino que la descripción física usada para el material del cuerpo negro debía adolecer de algunas deficiencias fundamentales. Pasados unos años, no había llegado a ningún sitio.
Por fin, decidió trabajar al revés y buscar, como aquellos otros científicos aplicados, simplemente una fórmula que funcionase. Se centró en dos fórmulas ad hoc, una que proporcionaba una descripción precisa de la luz de baja frecuencia emitida como radiación por el cuerpo negro, y otra que era precisa para las frecuencias altas. Tras un largo proceso de ensayo y error, consiguió «coserlas» dentro de su propia fórmula ad hoc, una elegante expresión matemática que concibió simplemente para combinar las características correctas de las dos.
Más de uno pensará que si se pasan muchos años dándole vueltas al mismo problema, se merece la recompensa final de un descubrimiento, como el horno de microondas, o por lo menos una nueva manera de hacer palomitas de maíz. Todo lo que Planck había conseguido era una fórmula que, por razones desconocidas, parecía funcionar bastante bien, aunque Planck no disponía de datos suficientes para poner realmente a prueba el poder predictivo de su ecuación.
Planck anunció su fórmula el 19 de octubre de 1900 en un congreso de la Sociedad Física de Berlín. En cuanto acabó el congreso, un físico experimental llamado Heinrich Rubens regresó a su casa y comenzó a introducir números para comparar el resultado de la fórmula con su voluminosa colección de datos. Lo que halló lo dejó pasmado: la fórmula de Planck era más correcta incluso de lo que tenía derecho a ser.
Rubens se entusiasmó tanto que trabajó toda la noche, realizando meticulosamente los cálculos matemáticos con la ecuación de Planck y comparando las predicciones con los datos registrados en sus observaciones. A la mañana siguiente, corrió a la casa de Planck para darle la sorprendente noticia: la concordancia era insensatamente buena, y para todas las frecuencias. La fórmula de Planck era demasiado precisa para ser simplemente una estimación ad hoc. Tenía que significar algo. El único problema era que ni Planck ni nadie sabía lo que significaba. Parecía magia, una fórmula que presuntamente venía respaldada por unos principios profundos y misteriosos pero había sido «derivada» empíricamente.
Planck había decidido investigar la teoría de la radiación del cuerpo negro con el objetivo de explicarlo sin recurrir al concepto de átomo. En cierto sentido, lo había conseguido. Pero su fórmula salía del aire, y se vio impelido a responder a la pregunta de ¿por qué funcionaba? Su éxito debió de ser excitante, pero su ignorancia frustrante.
Científico siempre paciente, Planck recurrió, quizá por pura desesperación, a las investigaciones realizadas por el gran defensor del átomo, el físico austriaco Ludwig Boltzmann (1844-1906). Boltzmann llevaba décadas luchando por conseguir demostrar justamente lo contrario que Planck, que los átomos había que tomárselos en serio, y en sus intentos Boltzmann había hecho grandes progresos en el desarrollo de las técnicas que hoy se conocen como física estadística (aunque no había avanzado bastante en su propósito de convencer a otros de la importancia de su trabajo).
Que Planck se mostrase dispuesto, aunque con recelo, a explorar las investigaciones de Boltzmann es un acto que vale la pena tomarse un tiempo para apreciarlo: el predicador de la física sin átomos buscaba su salvación intelectual en la obra del hombre que defendía la teoría a la que él siempre se había opuesto. Esta forma de abrirse a unas ideas que contradicen las propias preconcepciones es como supuestamente debería hacerse la ciencia, y es una de las razones por las que Einstein demostraría más tarde una gran admiración por la figura de Planck; pero no es así como la ciencia suele hacerse. Por ejemplo, cuando la internet, los teléfonos inteligentes y el resto de los nuevos medios de comunicación fueron en auge, como antes los físicos establecidos que tenían problemas para aceptar el átomo o el cuanto, algunas compañías establecidas (Blockbuster Video, los sellos musicales, las grandes cadenas de librerías, los puntos de venta de los medios de comunicación establecidos) se resistieron a aceptar la nueva forma de vivir y hacer negocios. Por culpa de ello, fueron superados por gente más joven y compañías de mayor flexibilidad mental, como Netflix, YouTube y Amazon. De hecho, lo que el propio Planck diría más tarde sobre la ciencia, podría aplicarse también a cualquier nueva idea revolucionaria: «Una nueva verdad científica no triunfa porque convenza a sus oponentes y les haga ver la luz, sino porque sus oponentes acaban muriendo y la nueva generación ya crece familiarizada con ella [XVIII][291] ».
Al leer los trabajos de Boltzmann, Planck se percató de que en la descripción estadística de la termodinámica que había hecho el austriaco había necesitado un truco matemático para tratar la energía como si esta se presentara en porciones discretas, como, por ejemplo, los huevos en comparación con la harina, que parece que pueda dividirse sin límites. Es decir, mientras que solo se puede tener un número entero de huevos, como uno o dos o doscientos, podemos medir 2,7182818 kilogramos de harina, o la cantidad que uno desee. Al menos eso le parece al chef, aunque la harina no pueda dividirse sin límites, puesto que está constituida por unas piezas discretas (los granos de harina) que podemos ver al microscopio.
El truco de Boltzmann no era más que un recurso de cálculo; al final siempre hacía que el tamaño de la porción se acercara a cero, lo que significaba que la energía podía presentarse en realidad en cualquier tamaño, y no solo en cantidades discretas. Para su gran sorpresa, sin embargo, Planck descubrió que si aplicaba los métodos de Boltzmann al problema del cuerpo negro, podía derivar su fórmula, pero solo si se saltaba ese último paso y dejaba la energía como una cantidad que, como los huevos, solo se podía repartir en múltiplos de cierta porción fundamental (muy pequeña). El chef Planck llamó a esa porción básica de la energía «cuanto», por la palabra latina que significa «cuánto», «qué cantidad».
Ese fue, en pocas palabras, el origen del concepto de cuanto. La teoría cuántica no nació de los incansables esfuerzos de un científico que perseguía un principio hasta sus conclusiones lógicas, o del empuje para descubrir una nueva filosofía de la física, sino gracias a un hombre que era como un chef que mirase por primera vez a través de un microscopio y descubriera, para su sorpresa, que después de todo la harina es como los huevos, hecha de unidades individuales y discretas, y solo puede repartirse en múltiplos de esas minúsculas porciones.
Planck descubrió que el tamaño de la porción, el cuanto, es diferente para distintas frecuencias de luz (que, en el caso de la luz visible, corresponden a distintos colores). En concreto, Planck descubrió que un cuanto de energía luminosa es igual a la frecuencia multiplicada por un factor de proporcionalidad, que llamó h y hoy conocemos como constante de Planck. Si Planck hubiera dado el último paso de Boltzmann, lo que en esencia equivale a hacer h igual a cero, su resultado habría sido equivalente a postular que la energía es infinitamente divisible. Al no hacerlo y, en su lugar, fijar h comparando su fórmula con los datos experimentales, Planck afirmaba que, al menos en lo que concierne a la radiación del cuerpo negro, la energía se presenta en paquetes diminutos y fundamentales y no puede tomar cualquier valor.
¿Qué implicaba su teoría? Planck no tenía la menor idea. En cierto modo, solo había logrado crear una teoría enigmática que explicaba su aproximación empírica. Aun así, Planck anunció su «descubrimiento» en el congreso que la Sociedad Física de Berlín celebró en diciembre de 1900. Hoy se considera que ese anuncio marca el nacimiento de la teoría cuántica. Su nueva teoría, que le valdría la concesión del premio Nobel de 1918, habría de darle la vuelta a la física. En aquel momento, sin embargo, nadie lo sabía. Ni siquiera Planck.
Para la mayoría de los físicos, el largo estudio de la radiación del cuerpo negro que había realizado Planck solo había conseguido que su teoría fuese más esquiva y misteriosa, y ¿de qué servía eso? El propio Planck, sin embargo, había aprendido algo importante de su experiencia. Había «entendido» por fin la radiación del cuerpo negro imaginando que el material negro estaba constituido por minúsculos osciladores, como muelles, que con el tiempo llegaría a creer que eran átomos o moléculas; así pues, por fin se había convencido de que los átomos eran reales. Con todo, ni él nadie se percató entonces de que los cuantos que describía pudieran ser una característica fundamental de la naturaleza.

25.jpg
Ludwig Boltzmann, hacia 1900.

Algunos de los contemporáneos de Planck creían que con el tiempo se encontraría una forma de obtener la ecuación de Planck que no requiriese el cuanto. Otros creían que el cuanto se explicaría tarde o temprano no como un principio fundamental de la naturaleza, sino como un resultado de alguna característica todavía desconocida de la materia que sería plenamente coherente con la física que conocían; por ejemplo, una propiedad mecánica normal que fuese el resultado de la estructura interna de los átomos o del modo en que estos interaccionan. Y algunos físicos simplemente tildaban de sinsentido las investigaciones de Planck, a pesar de que se ajustaran tan bien a los datos experimentales.
En su ataque a Planck, por ejemplo, sir James Jeans, un físico bien conocido que le había dado vueltas al problema pero que, a diferencia de Planck, no había conseguido derivar la fórmula completa, escribió: «Por supuesto, sé que la ley de Planck concuerda bien con los experimentos… en tanto que mi propia ley, obtenida [de la de Planck] haciendo h = 0, no puede concordar. Pero eso no altera mi convicción de que el valor h = 0 es el único que puede tomar[292]».
Vaya, que esos dichosos datos experimentales son un engorro y es mejor ignorarlos. O, como Robert Frost escribió en 1914, «Por qué abandonar una creencia / Solo porque deje de ser cierta [293]».
Al final, aparte de molestar a James Jeans, el trabajo de Planck no había generado demasiado revuelo. Tanto si creían que todo era un sinsentido como si pensaban que se le encontraría una explicación mundana, quienes formaban entonces la comunidad de físicos no se mostraron demasiado excitados, como los fans de un festival de rock donde se cumple con la legislación contra las drogas. Esas drogas aún tardarían tiempo en llegar. De hecho, durante los cinco años siguientes no se publicaría ninguna otra investigación que llevase más lejos sus ideas, ni realizada por él ni por nadie. Eso no ocurriría hasta 1905.
He dicho más arriba que cuando Planck propuso la idea del cuanto, nadie comprendió que se tratase de un principio fundamental de la naturaleza. Pero no tardaría en entrar en el campo un nuevo jugador con una actitud muy distinta. Una persona desconocida, apenas graduada cuando Planck hizo su anuncio, vería en el trabajo de este sobre el cuanto algo profundo, incluso inquietante. «Fue como si nos hubieran quitado el suelo bajo los pies y no se viera por ningún lado un fundamento firme», escribiría más tarde[294].
Ese hombre que asimiló las investigaciones de Planck sobre el cuanto y demostró su valor, no es conocido, en la cultura popular, por ese trabajo, sino porque más adelante se situaría en el lado contrario y, siguiendo la tradición de Jeans, desaprobaría una idea pese a las muchas observaciones que parecían revelar que era correcta. Ese hombre era Albert Einstein (1879-1955).
Einstein tenía veinticinco años y no había acabado su tesis doctoral cuando tomó la idea del cuanto de Planck y corrió con ella. Con cincuenta años, sin embargo, llegó a oponerse a lo que él mismo había desencadenado. Las razones de Einstein para cambiar de parecer sobre la teoría cuántica fueron más filosóficas o metafísicas que científicas. Las ideas que propuso con veinticinco años «solo» habían supuesto una nueva forma de entender la luz: como energía hecha de partículas cuánticas. Las ideas cuánticas que surgieron (y que él rechazó) en sus últimos años se referían, en cambio, a una manera fundamentalmente nueva de ver la realidad.
Dicho de otro modo, a medida que la teoría cuántica fue evolucionando, quedó claro que si se aceptaba, había que adoptar una nueva concepción de lo que significa existir, de lo que significa existir en algún lugar, e incluso de lo que significa que un suceso cause otro. La nueva concepción del mundo de la teoría cuántica supondría una ruptura con nuestra intuitiva concepción newtoniana, del mundo mayor incluso que la que había supuesto la mecánica newtoniana respecto de la perspectiva finalista de Aristóteles, y aunque Einstein había estado dispuesto a darle la vuelta a la física, se iría a la tumba sin aceptar la revisión radical de la metafísica que surgió de su propio trabajo.
Para cuando empecé a estudiar la teoría cuántica, apenas un par de décadas después de la muerte de Einstein, naturalmente me enseñaron la formulación moderna, con todas las ideas radicales que a Einstein no le habían gustado. En mis clases de universidad, estas se presentaban como aspectos insípidos aunque extraños de una teoría ahora bien desarrollada y contrastada. La «extrañeza cuántica» de la que la gente habla a veces, como la posibilidad de que algo se encuentre, esencialmente, en dos lugares a la vez, ya se consideraba entonces un hecho bien establecido. A veces servía como tema de discusión interesante alrededor de una cerveza, pero nada que nos hiciera perder el sueño a los estudiantes de física. Aun así, Einstein era uno de mis ídolos, y me incordiaba que se hubiese resistido tanto a unas ideas a las que yo había dado entrada en mi mente sin pensarlo dos veces. Sabía que yo no era ningún Einstein. ¿Qué es lo que no veía?
Mientras me debatía sobre esa cuestión, mi padre me contó una historia. En la Polonia de antes de la guerra, él y unos amigos habían encontrado en la carretera un ciervo atropellado por un coche o un camión. La comida era escasa entonces, así que se lo llevaron a casa y lo comieron. Mi padre me dijo que no había visto entonces nada raro en comer un animal atropellado, pero que los americanos, como yo, lo encuentran asqueroso porque se nos ha educado para pensar así. Comprendí entonces que no hace falta abordar preguntas profundas sobre el cosmos o creencias morales muy enraizadas para encontrar ideas que a la gente les cueste aceptar. Esas ideas están por todos lados, y en la mayoría de los casos dependen de nuestra tendencia a creer en lo que siempre hemos creído.
Las implicaciones metafísicas de la teoría cuántica eran para Einstein como el ciervo atropellado. Al haberse educado en las nociones tradicionales de la causalidad, debía ser reacio a aceptar una idea tan profundamente distinta por sus implicaciones. Si hubiera nacido ocho décadas más tarde y hubiera sido mi compañero de clase, habría crecido con la extrañeza de la teoría cuántica y probablemente habría reaccionado con la misma naturalidad que yo y el resto de los estudiantes. Para entonces, habría formado parte del entorno intelectual aceptado, de manera que uno podría reconocer las novedades del mundo cuántico pero, a falta de experimentos que lo contradigan, nadie volvería a lo anterior.
Aunque con el tiempo Einstein se esforzaría por mantener aspectos centrales de la concepción newtoniana, nunca fue un pensador convencional ni muy dispuesto a dar crédito indebido a otros pensadores solo porque fueran autoridades en la materia. De hecho, esa predisposición a pensar de forma distinta y a desafiar a la autoridad era tan pronunciada en él, que le causó problemas cuando todavía era un adolescente matriculado como estudiante en un gymnasium de Múnich (el equivalente alemán del instituto). A los quince años de edad, uno de sus profesores le dijo que nunca llegaría a nada, y lo obligó o tal vez «cortésmente lo animó» a abandonar la escuela, porque les había faltado al respeto a sus profesores y se le consideraba una influencia negativa para el resto de los estudiantes. Más tarde diría del gymnasium que era una «máquina de educación», con lo cual no quería decir que realizara un trabajo útil, sino más bien que vomitaba una sofocante polución para las mentes.
Por suerte para la física, el deseo de Einstein de entender el universo le pudo a su aversión a la educación formal, y tras ser expulsado del instituto solicitó matrícula en el Instituto Federal Suizo de Tecnología, en Zúrich.

26.jpg
Hoja de calificaciones de Einstein en el instituto suizo, en 1896. Las notas están en una escala de 0 a 6, siendo el 6 la mejor nota.

Suspendió el examen de ingreso, pero tras un breve curso de repaso en un instituto suizo, fue admitido en el Instituto Federal en 1896. No le gustó más que el gymnasium, y no asistió a muchas de las clases, pero se las apañó para licenciarse empollando para los exámenes con los apuntes de un compañero y amigo. Einstein escribiría más tarde de Marcel Grossmann que era «el estudiante irreprochable, cuando yo era un soñador desordenado. Él mantenía una buena relación con los profesores y lo entendía todo; yo era un paria, inconforme y poco estimado [295]».
Conocer a Grossmann no fue solamente un golpe de suerte para la carrera de Einstein: Grossmann se educaría más tarde como matemático y le enseñaría a Einstein la exótica geometría que necesitaba para completar su teoría de la relatividad.
El título universitario de Einstein no lo pondría en un camino fácil hacia el éxito. De hecho, uno de sus profesores de universidad, resentido, le escribió una mala carta de referencia. Al menos en parte a causa de eso, Einstein fue incapaz de encontrar un trabajo tradicional tras graduarse en Zúrich (anhelaba una plaza universitaria de física y matemáticas); en su lugar, se convirtió en el tutor privado de dos chicos del gymnasium.
Al poco tiempo de aceptar el puesto, Einstein le sugirió a quien lo había contratado que apartara a sus hijos de la escuela para evitar su influencia destructiva. Su queja sobre el sistema educativo era que se centraba muchísimo en preparar a los alumnos para superar unas pruebas, ahogando cualquier curiosidad o creatividad genuinas. Irónicamente, más o menos un siglo más tarde, el programa educativo No Child Left Behind (Sin dejar atrás a ningún niño) promulgado por el presidente George W. Bush, un plan de estudios basado en tests y centrado en la capacidad de recitar datos, se convirtió en la pieza central de la política educativa de Estados Unidos. Todo el mundo sabía que Bush no era ningún Einstein, pero, al parecer, cuando se trataba de tener la habilidad de un político para persuadir a la gente de que acepte sus puntos de vista, Einstein no era ningún Bush, y la persona que lo había contratado, aquella ante quien había denunciado la nefasta influencia del gymnasium, lo despidió.
De sus cuitas de aquella época, su padre escribió: «Mi hijo está profundamente triste por su actual estado de desempleo. Día a día crece en él el sentimiento de que su carrera ha descarrilado… le pesa la conciencia de ser un peso para nosotros, gente de pocos medios [296]».
La carta iba dirigida al físico de Leipzig Friedrich Wilhelm Ostwald, a quien Albert había enviado una separata de su primer artículo junto a una petición de trabajo. Diez años más tarde, Ostwald sería el primero en proponer a Albert para el premio Nobel. Pero en 1901, nadie estaba lo bastante impresionado por el intelecto de Albert como para darle un trabajo mínimamente ajustado a sus competencias.
La vida profesional de Einstein se estabilizó por fin en 1902, cuando el padre de Marcel Grossmann lo presentó al director de la oficina de patentes de Berna, quien lo invitó a someterse a un examen escrito. Einstein lo hizo lo bastante bien como para que el director le ofreciera un puesto. El trabajo consistía en leer solicitudes de patentes muy técnicas y traducirlas a un lenguaje que fuese lo bastante simple para que sus superiores, menos inteligentes, pudieran entenderlas. Aquel mismo verano comenzó a trabajar en periodo de prueba.
Einstein debía ser bueno en su trabajo, aunque en 1904 solicitó una promoción de empleado de patentes de clase tres a empleado de patentes de clase dos y fue rechazado. Entretanto, sus trabajos de física, que consideraba gratificantes, no eran destacables. Sus dos primeros artículos, escritos en 1901 y 1902, trataban de una hipótesis sobre una fuerza universal entre moléculas y, según su propia opinión posterior, no valían nada [297].
A estos les siguieron otros tres artículos de calidad mixta, que tampoco tuvieron demasiado impacto en el mundo de la física. Al año siguiente nació su primer hijo, pero no publicó un solo artículo de física.
Los problemas crónicos de dinero y una carrera como físico que parecía estancada debieron desanimarle, pero a Einstein le gustaba su trabajo, que le parecía intelectualmente estimulante, y además, según comentaba, tras la jornada aún le quedaban «ocho horas de inactividad» durante las cuales podía ejercitar su pasión y pensar sobre física. También complementaba sus investigaciones fuera del trabajo robando un poco de tiempo a sus ocupaciones en la oficina de patentes, apresurándose a esconder sus cálculos en un cajón cuando alguien se acercaba. Todo ese trabajo finalmente dio sus frutos de la manera más espectacular: en 1905 produjo tres artículos dispares y revolucionarios que lo impulsarían de empleado de patentes de tercera clase a físico de primera.
Cada uno de esos artículos lo hacía merecedor de un premio Nobel, aunque solo uno de ellos se lo daría. Uno puede tal vez comprender por qué el comité del premio Nobel pone reparos a conceder múltiples premios a la misma persona, pero con los años se ha hecho tristemente famoso por muchas omisiones difíciles de entender. Solo entre los físicos, el comité ha cometido el error de pasar por alto a científicos como Arnold Sommerfeld, Lise Meitner, Freeman Dyson, George Gamow, Robert Dicke y Jim Peebles[XIX].
Negarle el premio a Meitner fue especialmente indignante, pues durante miles de años a las mujeres se les ha impedido acceder a una educación superior y a oportunidades de empleo que les habrían permitido contribuir a nuestra comprensión del mundo. Eso solo comenzó a cambiar hace alrededor de un siglo, y ese cambio social todavía no ha finalizado. Meitner, una pionera como científica y como mujer, fue la segunda persona de su género en recibir un título de doctora por la Universidad de Viena. Tras graduarse, convenció a Max Planck de que le permitiera estudiar con él, aunque con anterioridad nunca había permitido que una mujer asistiese siquiera de oyente a una de sus clases. Con el tiempo comenzó a colaborar con un joven químico de Berlín llamado Otto Hahn. Juntos hicieron muchos descubrimientos, el más importante de ellos el de la fisión nuclear. Lamentablemente, por ese descubrimiento Hahn, pero no Meitner, recibió en 1944 el premio Nobel de Química[XX].
Uno de los atractivos más excitantes de la física teórica es la posibilidad de que las ideas que uno genera tengan un gran impacto sobre el modo de pensar e incluso de vivir. Sí, hacen falta años para entender y asimilar la materia de esta disciplina y para entender sus técnicas y dificultades. Sí, muchos de los problemas que se abordan al final no tienen ningún sentido, y en la mayoría de los casos hacen falta meses para hacer una pequeña aportación a un corpus de conocimiento mucho más grande. Ciertamente, quien quiera ser físico teórico debería ser obstinado y tenaz, y emocionarse incluso con los pequeños descubrimientos, con trucos matemáticos que parecen funcionar por magia y nos cuentan un secreto de la naturaleza que, hasta que se publica, solo su autor conoce. Pero siempre existe otra posibilidad: dar o tropezar con una idea tan poderosa que es mucho más que un pequeño secreto de la naturaleza, es algo que cambia el modo en que nuestros colegas físicos, incluso la humanidad entera, concibe el universo. Ese es el tipo de idea que Einstein engendró tres veces en un solo año desde la oficina de patentes.
De esas tres teorías rompedoras, la que ha hecho más célebre a Einstein es la relatividad. Sus investigaciones en este ámbito revolucionaron nuestros conceptos de espacio y tiempo, demostrando que están íntimamente relacionados y que las mediciones de estas cantidades no son absolutas, sino que dependen del estado del observador.
El problema que Einstein pretendía resolver con la relatividad era una paradoja que había surgido de la teoría del electromagnetismo de Maxwell, que implicaba que todos los observadores que miden la velocidad de la luz hallarán el mismo resultado, con independencia de su propia velocidad relativa a la fuente de la luz.
En la vena de Galileo, podemos concebir un sencillo experimento mental para entender por qué el enunciado anterior contradice nuestra experiencia cotidiana. Imaginemos un vendedor de un puesto de comidas del andén de una estación ferroviaria y que un tren pasa zumbando. Una bola (o cualquier otro objeto material) lanzada hacia delante por un pasajero del tren en movimiento le parecerá al vendedor que se mueve más deprisa que una bola que el vendedor lanzara con el mismo entusiasmo. Eso se debe a que, desde el punto de vista del vendedor, la bola del tren se moverá a la velocidad con que el pasajero la lanza más la velocidad del tren. Por contra, según la teoría de Maxwell, un rayo de luz emitido por un tren en movimiento no viajaría más rápido. Tanto al vendedor como al pasajero les parecería que se mueven a la misma velocidad. Para los físicos, que quieren reducirlo todo a una cuestión de principio, eso exige una explicación.
¿Qué principio distingue a la luz de la materia? Durante años, esta era la pregunta que abordaban los físicos, y según la idea más popular, tenía que ver con un medio todavía no detectado por el cual se propagaban las ondas de luz. Pero Einstein tenía otras ideas. Comprendió que la explicación no acechaba desde ninguna propiedad desconocida de la propagación de la luz, sino desde lo que entendíamos por velocidad. Como la velocidad es la distancia dividida por el tiempo, Einstein razonó que cuando la teoría de Maxwell decía que la velocidad de la luz era fija, lo que en realidad decía era que, al medir distancia y tiempo, no puede haber una concordancia universal. Einstein mostró que no hay relojes universales ni metros universales, sino que todas esas medidas dependen del movimiento del observador justo de la manera necesaria para que todos los observadores midan la misma velocidad de la luz. Por consiguiente, lo que cada uno de nosotros observa y mide no es más que nuestra propia visión personal, no una realidad sobre la que todos estén de acuerdo. Esa es la esencia de la teoría de la relatividad de Einstein.
La relatividad no requería reemplazar la teoría newtoniana, solo modificarla: había que alterar las leyes del movimiento de Newton, reconstruirlas para que descansaran cómodamente en el nuevo marco del espacio y el tiempo que proponía Einstein, en el cual el resultado de las mediciones dependía del propio movimiento. Para objetos y observadores que se desplacen a velocidades relativamente bajas los unos respecto a los otros, la teoría de Einstein equivale esencialmente a la de Newton. Solo cuando las velocidades en cuestión se acercan a la de la luz se hacen perceptibles los efectos de la relatividad.
Como los nuevos efectos de la relatividad solo se notan en circunstancias extremas, tienen menos importancia para nuestra vida cotidiana que la teoría cuántica, que explica la estabilidad de los átomos de los que estamos constituidos. Pero en aquella época nadie sospechaba el enorme alcance que tendría el cuanto, y la relatividad golpeó la comunidad física como un terremoto: la visión del mundo de Newton, que había sostenido la ciencia durante más de doscientos años, mostraba ahora su primera grieta.
La teoría de Newton se basaba en una sola realidad objetiva. El espacio y el tiempo conformaban un marco inamovible, un escenario sobre el que se desarrollaban los sucesos del mundo. Los observadores podían mirar, y no importa dónde estuvieran o si se movían, todos veían la misma obra, como dioses que nos observasen desde fuera. La relatividad contradecía todo eso. Al afirmar que no hay una sola obra, que, como en nuestra vida cotidiana, la realidad que cada uno de nosotros observa es personal y depende de nuestra localización y nuestro movimiento, Einstein había comenzado a demoler el mundo de Newton igual que antes Galileo había comenzado a desmantelar el de Aristóteles.
Los trabajos de Einstein tuvieron importantes implicaciones para la física: envalentonaron a generaciones de nuevos pensadores, haciendo que les resultara más fácil desafiar ideas antiguas. Fue, por ejemplo, un libro sobre la relatividad que Einstein escribió para estudiantes de secundaria lo que inspiró a Werner Heisenberg, a quien enseguida conoceremos, a dedicarse a la física, y fue el enfoque de Einstein hacia la relatividad lo que dio a Niels Bohr, a quien también conoceremos a continuación, el valor para imaginar que el átomo podría seguir leyes radicalmente distintas de las que rigen nuestra existencia cotidiana.
Irónicamente, de todos los grandes físicos que asimilaron y entendieron la teoría de la relatividad de Einstein, el que menos impresionado se mostró fue el propio Einstein. No pensaba que estuviera derrocando ningún aspecto fundamental de la visión del mundo newtoniana, sino añadiendo unas pocas correcciones que no tenían apenas efecto sobre la mayoría de las observaciones experimentales de la época, pero que de todos modos eran importantes porque arreglaban un defecto en la estructura lógica de la teoría. Además, las alteraciones matemáticas necesarias para que la teoría de Newton fuese compatible con la relatividad eran bastante fáciles de hacer. Así pues, aunque Einstein consideraría más tarde que la teoría cuántica desmantelaba la física newtoniana, en palabras del físico y biógrafo Abraham Pais, «consideraba que la teoría de la relatividad no era en absoluto una revolución [298]».
Para Einstein, la relatividad fue el menos importante de sus artículos de 1905. Mucho más profundos, a sus ojos, fueron sus otros dos artículos, sobre el átomo y sobre el cuanto.
El artículo de Einstein sobre el átomo analizaba un efecto llamado movimiento browniano que había descubierto un viejo amigo de Darwin, Robert Brown, en 1827. Lo de «movimiento» se refiere al misterioso y aleatorio deambular de las partículas muy pequeñas, como los granos que se encuentran en el polvo de polen cuando se suspende en agua. Einstein lo explicó como la consecuencia del bombardeo de las partículas por todos lados, y con muy alta frecuencia, por moléculas submicroscópicas. Aunque cada una de las colisiones sea demasiado pequeña para mover la partícula, Einstein demostró estadísticamente que la magnitud y frecuencia del deambular de la partícula observada se podía explicar por las raras ocasiones en que, por puro azar, la partícula es golpeada por un número mucho mayor de moléculas por un lado que por el opuesto, impartiéndole el impulso suficiente para moverla.
El artículo provocó un revuelo de inmediato. Tan persuasivo era que incluso el archienemigo de los átomos, Friedrich Wilhelm Ostwald, comentó que tras leer el artículo de Einstein había quedado convencido de que los átomos eran reales. Por su parte, el gran defensor del átomo, Boltzmann, inexplicablemente nunca supo del trabajo de Einstein, o del cambio en las actitudes que trajo consigo. En parte porque estaba abatido por la recepción de sus propias ideas, se suicidó al año siguiente. Su muerte fue especialmente triste porque con el artículo de Einstein sobre el movimiento browniano y otro artículo que escribió en 1906, los físicos por fin se habían persuadido de la realidad de objetos que no podían ver ni tocar, precisamente la idea que Boltzmann había predicado, sin demasiado éxito, desde la década de 1860.
En solo tres décadas, los científicos, armados con nuevas ecuaciones para describir el átomo, conseguirían comenzar a explicar los principios de la química, proporcionando por fin prueba y explicación de las ideas de Dalton y Mendeleev. También comenzarían a trabajar en el sueño de Newton de entender las propiedades de los materiales en función de las fuerzas que actúan entre sus partículas constituyentes, es decir, sus átomos. Hacia la década de 1950, los científicos irían aún más lejos, poniendo su conocimiento del átomo al servicio de una más profunda comprensión de la biología. Y en la última mitad del siglo XX, la teoría del átomo haría posible la revolución tecnológica, la revolución informática y la revolución de la información. Lo que comenzó como un simple análisis del movimiento del polvo de polen crecería hasta convertirse en una herramienta que conformó el mundo moderno.
Las leyes de las que dependen todas esas empresas prácticas, las ecuaciones que describen las propiedades del átomo, no vendrían, sin embargo, de la física clásica de Newton, ni siquiera de su enmendada forma «relativista». Para describir el átomo harían falta unas nuevas leyes de la naturaleza, las leyes cuánticas, y fue precisamente la idea del cuanto el tema del otro artículo revolucionario de Einstein de 1905.
En ese artículo, que llevaba como título «Sobre un punto de vista heurístico sobre la producción y transformación de la luz», Einstein tomó las ideas de Planck y las convirtió en principios físicos profundos. Einstein era consciente de que, como la teoría de la relatividad, la teoría cuántica suponía un desafío a Newton. Pero en aquel momento, la teoría del cuanto no daba ninguna señal de la magnitud de ese desafío, o de las perturbadoras implicaciones filosóficas que surgirían cuando se fuera desarrollando, así que Einstein no sabía qué había provocado.
Como el «punto de vista» que Einstein presentaba en su artículo implicaba tratar la luz como una partícula cuántica, no como una onda (como la había descrito la exitosa teoría de Maxwell), este artículo no fue acogido con igual entusiasmo que sus otros trabajos rompedores de 1905. De hecho, haría falta más de una década para que la comunidad física aceptara sus ideas. Por lo que respecta a los sentimientos del propio Einstein sobre la cuestión, resulta revelador releer una carta que escribió a un amigo en 1905, como un avance de los tres artículos [299].
De su artículo sobre la relatividad, Einstein resaltaba que una parte «te interesará». Su trabajo sobre el cuanto lo describía como «muy revolucionario». Y ciertamente fue ese trabajo el que con el tiempo tendría más impacto, y el que le valdría la concesión del premio Nobel.
No es accidental que Einstein le tomara a Planck el relevo del cuanto. Como este, había comenzado su carrera trabajando sobre problemas relacionados con el papel de los átomos en aquella disciplina estancada, la termodinámica. A diferencia de Planck, sin embargo, Einstein iba por libre, fuera de contacto con la mayor parte de la física contemporánea. Además, por lo que respecta a los átomos, Einstein y Planck perseguían objetivos totalmente opuestos, pues mientras que la tesis doctoral de Planck se marcaba como objetivo liberar de átomos a la física, Einstein dijo que el objetivo de sus primeros artículos, escritos entre 1901 y 1904, había sido «dar con hechos que garantizasen tanto como fuese posible la existencia de átomos de tamaño finito definido [300]», una meta que logró por fin con su revolucionario análisis de 1905 sobre cómo los movimientos al azar de los átomos causan el movimiento browniano.
Así pues, Einstein ayudó a los físicos a aceptar los átomos, pero, con su trabajo sobre la idea del cuanto de Planck, introdujo una nueva teoría de la luz «de cariz atomista» que a los físicos les resultaría mucho más difícil de tragar. Lo que inspiró a Einstein fueron las investigaciones de Planck sobre la radiación del cuerpo negro. Insatisfecho con los análisis de Planck, desarrolló sus propias herramientas matemáticas para analizar el fenómeno. Y aunque llegó a la misma conclusión (que la radiación del cuerpo negro solo podía explicarse con el concepto de cuanto), su explicación tenía una diferencia crucial, aunque aparentemente técnica: Planck había supuesto que el carácter discreto de la energía que analizaba se debía al modo en que oscilaban los átomos y las moléculas del cuerpo negro cuando emitían radiación; Einstein, en cambio, veía en aquella naturaleza discreta una propiedad inherente de la radiación.
Einstein veía la radiación del cuerpo negro como un fuerte indicio de un principio de la naturaleza nuevo y radical: que toda la energía electromagnética se presenta en forma de paquetes discretos, y que la radiación está constituida por partículas afines a unos átomos de luz. Fue con esta perspicaz idea como Einstein se convirtió en el primero en comprender que el principio cuántico era revolucionario, que era un aspecto fundamental de nuestro mundo y no un simple truco matemático para explicar la radiación del cuerpo negro. A estas partículas de la radiación les dio el nombre de «cuantos de luz», pero más tarde, en 1926, recibirían el nombre que llevan hoy: fotones.
Si hubiera dejado las cosas así, la teoría de los fotones de Einstein no habría pasado de ser un modelo alternativo concebido, como el de Planck, con la intención de explicar la radiación del cuerpo negro. Pero si la idea del fotón era realmente fundamental, debería ayudar a dilucidar la naturaleza de otros fenómenos aparte de aquel para cuya explicación había sido construido. Einstein encontró uno de esos fenómenos en el llamado efecto fotoeléctrico.
El efecto fotoeléctrico es un proceso por el cual la luz que incide sobre un metal provoca la emisión de electrones. Estos pueden capturarse en forma de corriente eléctrica que puede emplearse en distintos aparatos, una técnica que sería importante para el desarrollo de la televisión y que todavía se utiliza en algunos artilugios como los detectores de humo y los sensores que impiden que las puertas del ascensor se cierren mientras pasa alguien. En esta última aplicación, un haz de luz atraviesa el umbral del ascensor e incide sobre un receptor fotoeléctrico situado al otro lado, que genera una corriente; cuando alguien entra o sale del ascensor, bloquea el haz de luz y, por tanto, la corriente, y los fabricantes de ascensores los diseñan de tal manera que cuando se bloquea la corriente las puertas se abran.
Que la luz que incide sobre un metal pueda crear una corriente eléctrica ya se sabía desde 1887 gracias al físico alemán Heinrich Hertz, el primero que de manera deliberada produjo y detectó las ondas electromagnéticas emitidas por cargas eléctricas aceleradas y en honor de quien, por esta razón, recibe su nombre nuestra unidad de frecuencia, el hercio. Pero Hertz no podía explicar el efecto fotoeléctrico porque todavía no se había descubierto el electrón. Ese descubrimiento, que debemos al laboratorio del físico británico J. J. Thomson, no se produjo hasta 1897, tres años después de la muerte de Hertz, a los treinta y seis años, a causa de una rara enfermedad que provoca la inflamación de los vasos sanguíneos.
La existencia del electrón ofrecía una explicación simple del efecto fotoeléctrico: cuando las ondas de la energía de la luz inciden sobre el metal, excitan a los electrones que este contiene, y salen volando y se manifiestan en forma de chispas, rayos o corrientes. Inspirados por el trabajo de Thomson, los físicos comenzaron a estudiar el efecto más a fondo, pero los largos y difíciles experimentos acabaron por desvelar aspectos del efecto fotoeléctrico que no encajaban con lo que decía la teoría.
Por ejemplo, cuando se aumentaba la intensidad del haz de luz, el metal liberaba más electrones pero siempre de la misma energía. Eso contradecía la predicción de la física clásica, porque una luz más intensa lleva más energía, y por lo tanto, al ser absorbida, debería producir electrones más rápidos y energéticos.
Einstein había reflexionado sobre estas cuestiones durante varios años, y en 1905 estableció por fin la conexión con los cuantos: los datos podían explicarse si la luz estaba constituida por fotones. Einstein concebía el efecto fotoeléctrico de la siguiente manera: cada fotón que golpea el metal transfiere su energía a un electrón particular. La energía de cada fotón es proporcional a la frecuencia, o color, de la luz, y si un fotón lleva la energía suficiente, hará saltar el electrón. La luz de frecuencia más alta está formada por fotones de mayor energía. Por otro lado, si solo se aumenta la intensidad de la luz (pero no la frecuencia), la luz llevará más fotones, pero no fotones más energéticos. En consecuencia, una luz más intensa hará que se emitan más electrones, pero la energía de los electrones no cambiará, que es justo lo que se observaba.
La proposición de que la luz está hecha de fotones, es decir, de partículas, contradecía la exitosa teoría del electromagnetismo de Maxwell, que sostenía que la luz viajaba en forma de ondas. Einstein sugirió (correctamente) que las cualidades «maxwellianas» de la luz, propias de las ondas, se manifiestan cuando realizamos observaciones ópticas que implican el efecto neto de un gran número de fotones, como suele ocurrir habitualmente.
Una bombilla de cien vatios, por ejemplo, emite aproximadamente mil millones de fotones cada milmillonésima de segundo. Por contra, la naturaleza cuántica de la luz se manifiesta cuando trabajamos con luz de muy baja intensidad, o bien en ciertos fenómenos, como el efecto fotoeléctrico, cuyo mecanismo depende de la naturaleza discreta de los fotones. Pero la especulación de Einstein no bastó para convencer a otros para que aceptaran sus ideas radicales, antes bien fueron recibidas con gran y casi universal escepticismo.
Uno de mis comentarios favoritos sobre los trabajos de Einstein es la recomendación escrita conjuntamente en 1913 por Planck y otros físicos destacados para la aceptación de Einstein en la prestigiosa Academia de Ciencias Prusiana: «En suma, puede decirse que apenas queda, entre los grandes problemas de los que tan rica es la física moderna, uno en el que Einstein no haya hecho una aportación notable. Que en ocasiones tal vez no haya hecho diana con sus especulaciones, como, por ejemplo, con su hipótesis de los cuantos de luz, no se le puede reprochar, pues incluso en las ciencias más exactas no es posible introducir ideas realmente nuevas sin correr riesgos[301]».
Irónicamente, fue uno de los primeros científicos que se opuso a la teoría de los fotones, Robert Millikan, quien finalmente realizaría las precisas mediciones que confirmarían la ley de Einstein que describe la energía de los fotoelectrones eyectados, y por ello recibió el premio Nobel de Física de 1923 (y por su medición de la carga del electrón).
Cuando Einstein recibió su propio premio Nobel en 1921, la citación decía, simplemente: «A Albert Einstein, por sus servicios a la física teórica y especialmente por su descubrimiento de la ley del efecto fotoeléctrico[302]».
El comité del premio Nobel había decidido mostrar su reconocimiento a la fórmula de Einstein, ignorando la revolución intelectual que le había llevado a derivarla. No se mencionó en ninguno de los dos premios los cuantos de luz, ni la contribución de Einstein a la teoría cuántica.

27.jpg
Albert Einstein, 1921

Abraham Pais ha comentado que se trató de «una histórica subestimación, pero también un reflejo preciso del consenso en la comunidad de físicos [303]».
Las dudas sobre el fotón, y sobre la teoría cuántica en general, se disiparían durante la década siguiente gracias a la creación de una teoría formal de «mecánica cuántica» que derrocaría las leyes del movimiento de Newton como conjunto de principios fundamentales que rigen cómo se mueven y reaccionan a las fuerzas los objetos. Cuando por fin llegó esa teoría, Einstein reconocería sus éxitos, pero ahora sería él quien se opondría al cuanto.
Einstein se negó a aceptar la teoría cuántica como última palabra y nunca dejó de creer que, con el tiempo, sería reemplazada por una teoría aún más fundamental que restablecería el concepto tradicional de causa y efecto. En 1905 había publicado tres artículos que cambiarían el curso de la física; durante el resto de sus días intentó en vano hacerlo otra vez, pero para dar marcha atrás a lo que había iniciado. En 1951, en una de sus últimas cartas a su amigo Michele Besso, Einstein admitió que había fracasado. «Cincuenta años de reflexión», escribió, «no me han acercado ni un ápice a responder la pregunta de qué son los cuantos de luz[304]».

11. El dominio invisible
Justo después de defender mi tesis doctoral, conseguí una plaza de lector en Caltech y comencé a explorar temas en los que pudiera trabajar para no verme obligado a abandonar la academia y aceptar un puesto más lucrativo sirviendo mesas en el club de la facultad. Una tarde, después de una conferencia, estuve charlando con el físico Richard Feynman sobre la llamada teoría de cuerdas. Entre los físicos, Feynman, que entonces tenía unos sesenta años, probablemente fuera el científico más venerado del mundo. En la actualidad muchos (pero de ningún modo todos) ven en la teoría de cuerdas una candidata muy destacada para una teoría unificada de todas las fuerzas de la naturaleza, que es el santo grial de la física teórica. Por aquel entonces, sin embargo, pocos habían oído hablar de ella, y la mayoría de los que lo habían hecho no le tenían demasiado apego, entre ellos Feynman. De ella se andaba quejando cuando intervino un físico de la Universidad de Montreal que estaba de visita en el departamento: «No creo que debamos desanimar a los jóvenes de investigar nuevas teorías solo porque no las acepte el establishment de la física», le dijo a Feynman [305].
¿Rechazaba Feynman la teoría de las cuerdas porque representaba una ruptura tan grande con su anterior sistema de creencias que no era capaz de reajustar su modo de pensar, o habría llegado a las mismas conclusiones sobre sus deficiencias si no hubieran supuesto una brecha tan grande con las teorías previas? No hay manera de saberlo, pero Feynman le dijo al visitante que no me estaba aconsejando que no trabajara sobre algo nuevo, solo que tuviera cuidado, porque si no funcionaba, podría acabar perdiendo mucho tiempo. El visitante dijo: «Bueno, yo llevo doce años trabajando en mi propia teoría», y procedió a describirla con insufrible detalle. Cuando acabó, Feynman se dirigió a mí y me dijo, al lado de la persona que acaba de describir con orgullo su trabajo: «A eso precisamente me refería con lo de perder el tiempo».
Las fronteras de la investigación están tan inmersas en la niebla que cualquier científico activo está casi destinado a dedicar esfuerzos vanos siguiendo senderos poco interesantes o callejones sin salida. Pero uno de los rasgos que distingue al físico de éxito es la habilidad (o la suerte) de escoger problemas que resulten ser a un tiempo esclarecedores y resolubles.
Ya he comparado la pasión de los físicos con la de los artistas, pero siempre he tenido la sensación de que los artistas gozan de una gran ventaja sobre los físicos: en el arte, por mucho que colegas y críticos digan de la obra de alguien que no vale nada, nadie puede demostrarlo. En la física sí. En la física hay poco consuelo en pensar que uno tuvo una «hermosa idea» si al final no era correcta. Así que en la física, como en muchos intentos de innovación, hay que mantener un difícil equilibrio: ser cuidadoso con los problemas de investigación que se decide perseguir pero no tanto que nunca se haga nada nuevo. Por eso el sistema de contratación temporal de lectores antes de ganar la plaza indefinida resulta tan valioso para la ciencia, porque permite fracasar, lo cual es esencial para fomentar la creatividad.
Con la perspectiva que nos da el tiempo, parece que la estimulante teoría de Einstein sobre los fotones, los cuantos de luz, debería haber suscitado de inmediato abundante investigación sobre el naciente campo de la teoría cuántica. Pero para los coetáneos de Einstein, que todavía tenían que ver pruebas empíricas de los fotones y tenían muchas y buenas razones para mostrarse escépticos, trabajar sobre el fotón habría requerido una buena dosis de coraje intelectual y espíritu aventurero.
Incluso los físicos jóvenes, que suelen ser los más desinhibidos a la hora de trabajar sobre un problema que podría no funcionar o que podría dejarlos en ridículo, y cuyas visiones del mundo son aún maleables, pasaron de largo y escogieron para su trabajo doctoral y posdoctoral cualquier cosa menos la demencial teoría de Einstein sobre los fotones.
Pasaron casi diez años sin que se produjera prácticamente ningún progreso. Einstein pasó la barrera de los treinta años, mayor ya para un teórico pionero, y dedicaba mucho tiempo a una idea revolucionaria distinta: extender, o generalizar, su teoría de la relatividad especial de 1905 para que incluyera la gravedad. (La relatividad especial era una modificación de las leyes del movimiento de Newton; la relatividad general reemplazaría la ley de la gravedad de Newton, pero obligó a Einstein a modificar la relatividad especial). La poca atención que Einstein brindaba a su propia teoría de los fotones movió a Robert Millikan a escribir: «A pesar de… el aparente éxito completo de la ecuación de Einstein [del efecto fotoeléctrico], la teoría física [del fotón] de la que es expresión resulta hoy tan indefendible que, según creo, ni el propio Einstein se aferra a ella [306]».
Millikan se equivocaba. Einstein no había abandonado el fotón, pero como su atención se hallaba entonces en otro lugar, es fácil de entender que Millikan lo creyera así. Pero ni el fotón ni el concepto de cuanto que engendró estaban muertos. Al contrario, pronto se alzarían como estrellas, gracias, finalmente, a Niels Bohr (1885-1962), un joven de unos veintitantos años que ni estaba anquilosado en su manera de pensar ni tenía la experiencia suficiente para saber que no debería arriesgarse a perder el tiempo desafiando nuestras ideas sobre las leyes que rigen el mundo [307].
Cuando Niels Bohr estudiaba secundaria, debieron enseñarle que los griegos habían inventado la filosofía natural, y que las ecuaciones de Isaac Newton que describían cómo reaccionan los objetos a la fuerza de la gravedad representaron el primer gran paso hacia la meta de entender cómo funciona el mundo, pues permitían a los científicos realizar predicciones cuantitativas precisas sobre el movimiento de objetos en caída o en órbita. Bohr también debió aprender que poco antes de su muerte, Maxwell había añadido a la obra de Newton una teoría de cómo reaccionan los objetos a las fuerzas eléctricas y magnéticas, y cómo las generan, haciendo avanzar así la visión del mundo newtoniana hasta lo que hoy sabemos que fue su cenit.
Durante los años formativos de Bohr, los físicos parecían tener una teoría de las fuerzas y el movimiento que incluía todas las interacciones de la naturaleza que se conocían entonces. Lo que Bohr no sabía en el cambio de siglo, cuando entró en la Universidad de Cambridge para estudiar su carrera, era que tras más de doscientos años de éxitos cada vez mayores, la física newtoniana estaba a punto de desmoronarse.
Como hemos visto, el desafío a Newton se produjo porque, por mucho que en un principio pareciera que la nueva teoría de Maxwell permitía extender las leyes del movimiento de Newton a todo un nuevo conjunto de fenómenos, al final puso de manifiesto que fenómenos como la radiación del cuerpo negro o el efecto fotoeléctrico violan las predicciones de la física clásica o newtoniana. Sin embargo, los avances teóricos de Einstein y Planck solo fueron posibles porque ciertas innovaciones técnicas habían permitido que los físicos experimentales explorasen procesos físicos en los que intervenían los átomos. Fue precisamente eso lo que inspiró a Bohr, pues sentía una gran apreciación por la investigación experimental, y no poco talento para desarrollarla.
Los años que precedieron a la tesis doctoral de Bohr fueron extraordinarios para cualquiera que estuviera interesado en la física experimental. Durante aquellos años, avances técnicos como el desarrollo de los tubos de vidrio al vacío con una fuente de electrones incrustada (un predecesor de los «tubos de rayos catódicos» que formaban las pantallas de los antiguos televisores) permitieron varios descubrimientos importantes. Por ejemplo: Wilhelm Röntgen descubrió los rayos X (1895), Thomson descubrió el electrón (1897), y el físico nacido en Nueva Zelanda Ernest Rutherford se dio cuenta de que ciertos elementos químicos como el uranio y el torio emiten misteriosas emanaciones (1899-1903). Rutherford (1871-1937) llegó a identificar no uno sino tres miembros de aquel zoo de misteriosos rayos, los alfa, los beta y los gamma, y especuló que aquellas emanaciones eran los residuos que producían los átomos de un elemento cuando se desintegraba espontáneamente para convertirse en otro.
Los descubrimientos de Thomson y Rutherford, en particular, constituyeron una revelación porque relacionaron el átomo y sus partes, las cuales, como se vería, no se podían describir con las leyes de Newton, o siquiera con su marco conceptual. Con el tiempo se comprendería que aquellas observaciones exigían a la física un enfoque totalmente nuevo.
Así pues, los desarrollos tanto teóricos como experimentales de la época eran vertiginosos, pero la reacción inicial de la comunidad de físicos fue, en general, la de intentar tranquilizarse y actuar como si no pasara nada. Ya había ignorado el cuanto de Planck y el fotón de Einstein, y ahora ignoraba estos revolucionarios experimentos.
Antes de 1905, quienes pensaban que el átomo era un sinsentido metafísico trataban los debates sobre los electrones (un supuesto componente de los átomos) más o menos con la misma seriedad con la que un ateo trataría un debate sobre si Dios es hombre o mujer. Más sorprendente aún es el hecho de que quienes creían en los átomos tampoco estaban por la labor de aceptar el electrón, pues este se presentaba como «parte» del átomo, y se suponía que el átomo era indivisible. Tan extravagante les parecía el electrón de Thomson que un distinguido físico, tras oírle explicar sus resultados, le dijo que pensaba que les estaba «tomando el pelo[308]».

28.jpg
Ernest Rutherford.

De igual modo, la idea de Rutherford de que un átomo de un elemento pueda desintegrarse y convertirse en un átomo de otro elemento se repudió como si viniera de un hombre con una larga barba cana y una capa de alquimista. En 1941, los científicos aprenderían a convertir mercurio en oro (literalmente, el sueño de los alquimistas) bombardeando ese metal con neutrones en un reactor nuclear [309].
Pero en 1903, los colegas de Rutherford no eran lo bastante intrépidos para aceptar sus osadas proposiciones sobre la transmutación de los elementos. (Irónicamente, fueron lo bastante intrépidos para jugar con los resplandecientes chismes radiactivos que Rutherford les proporcionaba, irradiándose de este modo con los rayos que nacían del proceso que creían que no se producía).
La avalancha de extraños artículos de investigación de físicos teóricos y experimentales debió parecerles a muchos como el equivalente físico de la actual literatura de la psicología social, en la que cada dos por tres los investigadores presentan descubrimientos estrambóticos al estilo de «La gente que come uvas tiene más accidentes de coche». Sin embargo, aunque las conclusiones de los físicos parecieran extravagantes, eran correctas, y con el tiempo la acumulación de pruebas experimentales, junto con los argumentos teóricos de Einstein, obligaron a los físicos a aceptar el átomo y sus partes.
Por su trabajo relacionado con el descubrimiento del electrón, Thomson fue galardonado con el premio Nobel de Física de 1906, mientras que Rutherford lo recibió en 1908 (pero el de Química) por lo que venía a ser el descubrimiento de que algo de lo que perseguían los togados alquimistas resultaba ser cierto.
Así estaban las cosas en 1909 cuando Niels Bohr irrumpió en la escena de la investigación científica. Era apenas cinco años más joven que Einstein, pero esa brecha era lo bastante ancha como para situarlo en una nueva generación, la que entraba en una disciplina que ya había aceptado tanto el átomo como el electrón, aunque todavía no el fotón.
Para su tesis doctoral, Bohr decidió analizar y criticar las teorías de Thomson. Cuando acabó, solicitó y le fue concedida una beca que le permitió trabajar en Cambridge, de manera que pudiera conocer de primera mano las reacciones de aquel gran hombre. El debate de ideas es una característica fundamental de la ciencia, así que el hecho de que Bohr fuese a ver a Thomson con sus críticas no es exactamente el mismo caso que el de un estudiante de arte que le dijera a Picasso que sus caras tenían demasiados ángulos. Pero tampoco andaba tan lejos, pues Thomson ciertamente no se apresuró a recibir la crítica de su estudiante. Bohr estuvo en Cambridge casi un año, pero Thomson no discutiría su tesis con él; ni siquiera la leería.
La desatención de Thomson resultaría ser una bendición, pues mientras Bohr languidecía en Cambridge, fracasando en su plan de colaborar con Thomson, conoció a Rutherford, que había venido de visita. Rutherford había trabajado con Thomson en su juventud, pero para entonces ya era el más destacado físico experimental del mundo y el director de un centro para el estudio de la radiación en la Universidad de Manchester. A diferencia de Thomson, Rutherford valoró las ideas de Bohr y le invitó a trabajar en su laboratorio.
Rutherford y Bohr formaban una extraña pareja. Rutherford era un hombre corpulento y enérgico, alto y ancho de hombros, de rostro duro y voz resonante, tan alta que a veces distorsionaba los sensibles aparatos. Bohr era de naturaleza delicada y de aspecto y maneras mucho más amables, y tenía los mofletes caídos, la voz suave y un ligero impedimento en el habla. Rutherford tenía un fuerte acento neozelandés; Bohr hablaba un inglés pobre con acento danés. Cuando a Rutherford lo contradecían en una conversación, escuchaba con interés pero luego dejaba que la conversación muriera sin dar la réplica. Bohr vivía para el debate, y le costaba mucho pensar de forma creativa sin otra persona en la habitación con la que debatir sus ideas.
Asociarse con Rutherford fue un golpe de suerte para Bohr, pues aunque fue a Manchester pensando que realizaría experimentos sobre el átomo, tras su llegada se obsesionó con un modelo teórico del átomo que Rutherford estaba elaborando, basado en sus propios estudios experimentales. Fue gracias a los trabajos teóricos que hizo sobre el «átomo de Rutherford» como Bohr reavivaría la aletargada idea del cuanto y lograría lo que el trabajo de Einstein sobre el fotón no había conseguido: poner para siempre sobre el mapa la idea del cuanto.
Cuando Bohr llegó a Manchester, Rutherford estaba realizando experimentos para investigar cómo se distribuía la carga eléctrica en el átomo. Había decidido estudiar la cuestión analizando el modo en que se desviaban unas partículas cuando se disparaban cual balas contra un átomo. Como proyectil, escogió partículas alfa, que él mismo había descubierto y hoy sabemos que son simplemente núcleos de helio con carga positiva.
Rutherford todavía no había elaborado su modelo del átomo, pero imaginaba que su configuración se avendría bastante con otro modelo desarrollado por Thomson. Todavía no se conocían ni el protón ni el neutrón[310], y en el modelo de Thomson el átomo estaba formado por un fluido difuso de carga positiva por el que circulaba un número de diminutos electrones suficiente para compensar la carga eléctrica positiva. Como los electrones pesan muy poco, Rutherford esperaba que, como canicas en la trayectoria de una bala de cañón, tendrían poco efecto sobre el curso de las masivas partículas alfa. Lo que Rutherford pretendía estudiar era ese fluido mucho más pesado de carga positiva, y el modo en que esta se hallaba distribuida.
El aparato de Rutherford era simple. A partir de una sustancia radiactiva como el radio, creaba un haz de partículas alfa que dirigía contra una fina hoja de oro. Detrás del pan de oro colocaba una pequeña pantalla de detección. Después de atravesar el pan de oro, las partículas alfa incidían sobre la pantalla produciendo un pequeño y débil destello de luz. Sentado frente a la pantalla con una lupa, se podía, no sin esfuerzo, registrar su posición y determinar en qué grado habían desviado la partícula alfa los átomos de la lámina de oro.
Por mucho que Rutherford fuese famoso en todo el mundo, su trabajo y su entorno laboral eran todo menos glamurosos. Su laboratorio estaba en un sótano húmedo y tétrico, con tubos que atravesaban el suelo y el techo. Este era tan bajo que no resultaba difícil golpearse la cabeza contra él, y el suelo tan desigual que se podía tropezar con uno de los tubos que lo atravesaban antes de que desapareciera el dolor de cabeza. Además, Rutherford carecía de la paciencia necesaria para realizar las mediciones, y tras intentarlo en una ocasión y durante solo dos minutos, soltó un exabrupto y se marchó. En cambio su ayudante, el alemán Hans Geiger, era todo un «demonio» haciendo esas tareas. Irónicamente, más tarde le quitaría valor a su habilidad inventando el contador Geiger.
Rutherford esperaba que la mayor parte de las pesadas partículas alfa, de carga positiva, atravesasen la lámina por los espacios entre los átomos de oro, demasiado lejos de cualquiera de ellos para ser desviado perceptiblemente. Sin embargo, según teorizaba, algunos atravesarían uno o más átomos y se desviarían un poco de una trayectoria recta, repulsados por las cargas positivas difusas de los átomos. El experimento acabaría dilucidando la estructura del átomo, pero sería gracias a la suerte y no a lo que Rutherford había imaginado.

29.jpg
El experimento de Rutherford con la hoja de oro.

Al principio, todos los datos que Geiger recolectó se ajustaban a las expectativas de Rutherford y parecían concordar con el modelo de Thomson. Pero un día de 1909, Geiger sugirió que se le diera un proyecto de «pequeña investigación» a un joven estudiante universitario llamado Ernest Marsden para que fuera practicando. Rutherford, que había asistido a una clase sobre teoría de la probabilidad en el departamento de matemáticas, se percató de que existía un pequeña probabilidad de que unas pocas de las partículas alfa se estuvieran desviando con un ángulo algo mayor que lo que su aparato podía detectar, de modo que le sugirió a Geiger que Marsden realizara una variante del experimento para estudiar esa posibilidad.
Marsden se puso manos a la obra en busca de partículas que hubieran experimentado desviaciones mayores que las que hasta entonces había buscado Geiger, e incluso desviaciones muy grandes que, de producirse, violarían todo lo que Rutherford «sabía» sobre la estructura del átomo. En opinión de Rutherford, aquella tarea casi con seguridad no sería más que una monstruosa pérdida de tiempo. En otras palabras, era un buen proyecto para un estudiante que aún no había acabado la carrera.
Marsden observó obedientemente cómo una tras otras las partículas alfa atravesaban la hoja tal como se esperaba, sin grandes desviaciones. Pero entonces se produjo lo inimaginable: apareció un destello en una pantalla de detección que se había colocado muy lejos del centro. Al final, de los muchos miles de partículas alfa que Marsden observó, solo un puñado se desviaban con un gran ángulo, y una o dos rebotaron, casi como un bumerán. Con aquello bastaba.
Tras oír la noticia, Rutherford dijo que se trataba de «lo más increíble que me ha sucedido en toda la vida. Es casi tan increíble como si al disparar un obús de 40 centímetros contra un pañuelo de papel, rebotase y nos alcanzase[311]». Reaccionó así porque sus matemáticas le decían que en la hoja de oro tenía que haber algo inconcebiblemente pequeño y potente para causar desviaciones infrecuentes pero grandes como aquellas. Así que, al final, Rutherford no había dilucidado el modelo de Thomson, sino que había descubierto que era incorrecto.
Antes de realizar el experimento de Marsden, el proyecto les había parecido extravagante, el tipo de actividad en la que Feynman me recomendaba no perder el tiempo. En el siglo que ha transcurrido desde que se realizó, sin embargo, el experimento ha sido universalmente alabado por su brillantez. Sin él no habría habido ningún «átomo de Bohr», lo que significa que una teoría coherente del cuanto probablemente habría llegado (si hubiera llegado) muchos años más tarde. Eso, a su vez, habría tenido un gran efecto sobre lo que llamamos progreso tecnológico. Para empezar, habría retrasado el desarrollo de la bomba atómica, lo que significa que la bomba no se habría usado en Japón, salvándose así las vidas de numerosos civiles japoneses inocentes, pero quizá costándole la vida a los muchos soldados que habrían caído en una invasión aliada. También habría retrasado muchos otros inventos, como el transistor, y por tanto el inicio de la era informática. Es difícil decir exactamente cuáles habrían sido los efectos de no realizar aquel pequeño y aparentemente inútil experimento para un estudiante, pero es seguro que el mundo actual sería bastante distinto. Podemos ver aquí, una vez más, la fina línea que separa un proyecto extravagante y chiflado de una idea innovadora que lo cambia todo.
Al final, Rutherford supervisó muchos otros experimentos en los que Geiger y Marsden observaron más de un millón de destellos. A partir de esos datos, concebiría su teoría sobre la estructura del átomo, una teoría distinta de la de Thomson en que, aunque todavía imaginaba que los electrones se movían en órbitas concéntricas, la carga positiva ya no estaba dispersa, sino concentrada en un minúsculo espacio en el centro del átomo. Geiger y Marsden, sin embargo, no tardarían en seguir caminos distintos. Se encontrarían luchando en bandos opuestos durante la primera guerra mundial, y luego aplicando su ciencia en bandos opuestos durante la segunda guerra mundial: mientras Marsden trabajaba en la nueva tecnología del radar, Geiger, que apoyaba a los nazis, trabajaba en el desarrollo de una bomba atómica alemana[312].

30.jpg
Predicción de la desviación de las partículas alfa para el átomo de Thomson (izquierda) y el de Rutherford (derecha).

El átomo de Rutherford es el modelo que todos aprendemos en la escuela primaria, en el que los electrones describen órbitas alrededor del núcleo igual que los planetas alrededor del Sol. Como tantos conceptos de la ciencia, deja de ser complicado cuando se reduce a un símil cotidiano como ese modelo que está en todas las clases, pero la auténtica brillantez de la idea radica precisamente en esas complejidades «técnicas» que se pierden en el proceso de destilación que acaba produciendo las imágenes simples. Hacerse una imagen intuitiva ayuda, pero lo que en física hace vibrar una idea son sus consecuencias matemáticas. Un físico no tiene que ser solamente un soñador, también tiene que ser un técnico.
A Rutherford, el soñador, el experimento le dijo que la grandísima mayoría de la masa del átomo y toda su carga positiva, tenía que estar concentrada en su centro, en una bola increíblemente pequeña de materia con carga tan densa que una taza de ese material pesaría cien veces más que el monte Everest [313].
(Que ni yo ni el lector pesemos nada que se le parezca es testimonio del hecho de que ese punto ocupa un espacio minúsculo en el centro del átomo, que por lo demás es básicamente espacio vacío). Más tarde le daría el nombre de «núcleo» a ese punto central del átomo.
Rutherford, el técnico, resolvió la compleja matemática y descubrió que, efectivamente, si la imagen que había concebido era cierta, su experimento tenía que producir precisamente las observaciones que su equipo había realizado. La mayoría de las rápidas y pesadas partículas alfa habían de atravesar la hoja de oro sin rozar siquiera los minúsculos centros de los átomos, y en consecuencia apenas se verían afectadas. En cambio, unas pocas, las que pasaban cerca de un núcleo, debían topar con un intenso campo de fuerza que provocaría una gran desviación. La magnitud de ese campo de fuerza debió parecerle a Rutherford algo salido de la ciencia ficción, como nos lo parecen a nosotros los campos de fuerza que aparecen en las películas. Pero aunque todavía no podamos crear esos campos en nuestro mundo macroscópico, existen dentro del átomo.
Lo importante del descubrimiento de Rutherford fue que la carga positiva del núcleo se concentra en su centro en lugar de estar dispersa. Sin embargo, su concepción de los electrones describiendo órbitas alrededor del núcleo como los planetas alrededor del Sol era completamente errónea, y él lo sabía.
En primer lugar, la analogía del sistema solar ignora la interacción entre los planetas en el sistema solar, e igualmente entre los electrones en un átomo. Esas interacciones no se parecen en nada. Los planetas, que tienen mucha masa pero carecen de carga eléctrica neta, interaccionan por medio de la gravedad; los electrones, que tienen carga pero apenas masa, interaccionan mediante la fuerza electromagnética. La gravedad es una fuerza extremadamente débil, de modo que el tirón que los planetas ejercen entre sí es tan pequeño que en la práctica muchas veces puede ignorarse; los electrones, en cambio, ejercen entre sí una repulsión electromagnética terriblemente fuerte que enseguida perturbaría esas bonitas órbitas circulares.
La otra cuestión evidente era que tanto los planetas como los electrones que se mueven en círculos emiten ondas de energía, gravitatoria en el caso de los planetas y electromagnética en el caso de los electrones. También en este caso, como la gravedad es tan débil, durante los miles de millones de años que hace que existe nuestro sistema solar, los planetas no deben haber perdido más que un pequeño porcentaje de su energía. (De hecho, este efecto ni siquiera se conocía hasta que la teoría de la gravedad de Einstein lo predijo en 1916). En cambio, como la fuerza electromagnética es tan fuerte, de acuerdo con la teoría de Maxwell los electrones de Rutherford deberían radiar toda su energía y desplomarse contra el núcleo más o menos en una cien millonésima de segundo. En otras palabras, si el modelo de Rutherford fuera cierto, el universo que conocemos ya no existiría.
Si hay alguna predicción que uno diría que puede hundir una teoría, es la predicción de que el universo no existe. Entonces, ¿por qué no se tomó en serio?
Eso ilustra otro aspecto importante sobre el progreso en la física: la mayoría de las teorías no son teorías globales de gran alcance, sino modelos específicos que pretenden explicar una situación particular. Aunque tengan deficiencias y uno sepa que un modelo falla en algunas situaciones, puede seguir siendo útil.
En el caso del modelo de Rutherford, los físicos que investigaban el átomo valoraban que su modelo hiciera predicciones correctas sobre el núcleo, y suponían que algún experimento posterior revelaría aspectos esenciales que le faltaban y resolvería la cuestión de cómo se comportaban los electrones y por qué el átomo era estable. Lo que ya no era tan evidente es que el átomo no requería una explicación más clara, sino revolucionaria. El pálido y modesto Niels Bohr, sin embargo, veía las cosas de otra manera. Para el joven Bohr, el átomo de Rutherford y sus contradicciones eran un pajar que escondía una aguja de oro. Y estaba dispuesto a encontrarla.
Bohr se planteó la siguiente pregunta: si el átomo no desprende ondas de energía como exige la teoría clásica (al menos de acuerdo con el modelo de Rutherford), ¿no será que el átomo no obedece las leyes clásicas? Para seguir esa línea de razonamiento, Bohr recurrió a los trabajos de Einstein sobre el efecto fotoeléctrico. Se preguntó qué implicaciones se seguían de aplicar al átomo la idea de los cuantos. ¿Y si el átomo, como los cuantos de luz de Einstein, solo pudiera tener ciertas energías? La idea le llevó a revisar el modelo de Rutherford y crear lo que daría en llamarse átomo de Bohr.
Bohr exploró su idea centrando su atención en el átomo más simple, el de hidrógeno, que está formado por un único electrón alrededor de un núcleo formado por un único protón. La dificultad de lo que perseguía Bohr queda bien ilustrada por el hecho de que por aquel entonces no era siquiera obvio que el hidrógeno tuviera esa estructura tan simple: Bohr tuvo que deducir que el hidrógeno solo tiene un electrón a partir de una serie de experimentos realizados por Thomson[314].
La física newtoniana predice que un electrón puede dar vueltas alrededor de un núcleo (que, en el caso del hidrógeno, es un solo protón) a cualquier distancia, siempre y cuando su velocidad y energía tengan los valores adecuados, que vienen determinados por esa distancia. Cuanto menor sea la distancia del electrón al protón, menor debe ser la energía del átomo. Pero supongamos, en la vena de Einstein, que quisiéramos contradecir la teoría newtoniana añadiendo una ley que dicta que, por alguna razón todavía desconocida, un átomo no es libre de tener cualquier energía, sino solo un valor que pertenezca a un conjunto discreto de posibilidades. Como el radio orbital viene determinado por la energía, esa restricción sobre los valores de energía permitidos se traduciría en una restricción sobre los radios posibles por los que el electrón puede describir su órbita. Cuando hacemos esta suposición, decimos que la energía del átomo y los radios de las órbitas electrónicas están «cuantizados».
Bohr postuló que si las propiedades de un átomo están cuantizadas, el átomo no puede seguir una espiral continuamente hacia el núcleo y perder energía, como predice la teoría newtoniana; solo podría perder energía en «paquetes», cuando salta de una órbita permitida a otra. Según el modelo de Bohr, cuando un átomo es excitado por una entrada de energía (por ejemplo, de un fotón), la energía absorbida hace que un electrón salte a una de las órbitas más alejadas, de mayor energía. Y cada vez que se realiza un salto de regreso a una órbita más cercana, de menor energía, se emite un cuanto de luz, un fotón, con una frecuencia que corresponde a la diferencia de energía entre las dos órbitas.
Supongamos ahora que, también por razones desconocidas, hubiera una órbita permitida que fuera la más interior, la de más baja energía, que Bohr llamó «estado fundamental». En ese caso, cuando el electrón alcanza ese estado, ya no puede perder energía y por lo tanto no se desploma contra el núcleo tal como predecía el modelo de Rutherford. Bohr esperaba que un esquema parecido, aunque más complicado, funcionaría para los otros elementos, que tienen múltiples electrones: veía en la cuantización la clave para la estabilidad del átomo de Rutherford y, por consiguiente, de toda la materia del universo.
Como los trabajos de Planck sobre la radiación del cuerpo negro y la explicación de Einstein del efecto fotoeléctrico, las ideas de Bohr no se derivaban de una teoría general del cuanto, sino que eran conceptos ad hoc pensados con el propósito de explicar únicamente una cosa: en este caso, la estabilidad del átomo de Rutherford. Es un testimonio al ingenio humano que, pese a la ausencia de una «teoría madre» que diera a luz su modelo, la concepción de Bohr, como las de Planck y Einstein, fuese esencialmente correcta.
Bohr diría más tarde que sus reflexiones sobre el átomo solo habían cuajado después de una charla casual con un amigo en febrero de 1913. Aquel amigo le había recordado las leyes de un campo conocido como espectroscopia, el estudio de la luz emitida por un elemento en forma gaseosa tras ser «excitado», por ejemplo por una descarga eléctrica o un calor intenso. Se sabía desde hacía tiempo que en estas situaciones, por razones que no se comprendían, cada elemento gaseoso emite un grupo particular de ondas electromagnéticas caracterizadas por un conjunto limitado de frecuencias. Esas frecuencias, que reciben el nombre de líneas espectrales, constituyen una especie de huella dactilar a partir de la cual se pueden identificar los elementos. Tras hablar con su amigo, Bohr se dio cuenta de que podía usar su modelo del átomo para predecir el aspecto que debería tener la huella del átomo, lo que le permitiría conectar su teoría con datos experimentales. Es ese paso, naturalmente, el que en la ciencia eleva una idea de prometedora o «hermosa» a teoría seria.
Cuando Bohr acabó de trabajar la matemática, el resultado le sorprendió incluso a él: las diferencias de energía entre sus «órbitas permitidas» reproducían de forma precisa todas las frecuencias de las muchas series de líneas espectrales que se habían observado. Es difícil imaginar la emoción que debió de sentir el joven Bohr, a sus veintisiete años, al comprender que, con su simple modelo, había reproducido todas las desconcertantes fórmulas de los espectroscopistas, y además explicando su origen.
Bohr publicó su obra maestra sobre el átomo en julio de 1913. Había trabajado mucho para conseguir ese triunfo. Desde el verano de 1912 hasta aquel momento inspirador en febrero de 1913, se había batido con sus ideas día y noche, dedicándoles tantas horas que incluso sus diligentes colegas estaban deslumbrados. De hecho, pensaban que caería de agotamiento. Un incidente lo dice todo: tenía todo dispuesto para casarse el 1 de agosto de 1912, y así lo hizo, pero canceló su luna de miel en la pintoresca Noruega y en su lugar pasó ese tiempo en la habitación de un hotel de Cambridge dictándole a su nueva esposa un artículo sobre su trabajo.
La nueva teoría de Bohr, todavía confusa, claramente solo era el principio. Por ejemplo, a las órbitas permitidas las llamó «estados estacionarios» porque los electrones, al no radiar, como requería la teoría clásica, se comportaban como si no se movieran. Por otro lado, hablaba a menudo del «estado de movimiento» de los electrones, que imaginaba dando vueltas al núcleo en sus órbitas permitidas hasta que saltaban a un estado de menor energía o eran excitados por radiación incidente y saltaban a un estado de mayor energía. Menciono esto porque ilustra el hecho de que Bohr empleaba dos imágenes contradictorias. Esta es la estrategia que siguen muchos pioneros de la física teórica; en la literatura, se recomienda no mezclar metáforas, pero en la física, si sabemos que una metáfora no es del todo apropiada, es común mezclar otras (pero con cuidado).
En este caso, Bohr no estaba especialmente enamorado de la imagen clásica del átomo como un sistema solar, pero era su punto de partida, así que para crear su nueva teoría utilizó las ecuaciones de la física clásica que relacionaban el radio y la energía de las órbitas electrónicas, al tiempo que introducía nuevas ideas cuánticas como el principio de los estados estacionarios, creando de este modo una imagen modificada.
Al principio, el átomo de Bohr fue recibido con reacciones encontradas. En la Universidad de Múnich, un influyente físico llamado Arnold Sommerfeld (1868-1951) no solo reconoció de inmediato aquel trabajo como un hito de la ciencia, sino que él mismo se puso a trabajar en la idea, en concreto explorando su conexión con la relatividad. Por su lado, Einstein dijo que el de Bohr era «uno de los mayores descubrimientos [de la historia [315]]». Pero tal vez lo más revelador del impacto que causó el átomo de Bohr a un físico de la época sea otro comentario de Einstein. Quien había tenido el coraje de proponer no ya la existencia de cuantos de luz, sino además la idea de que espacio, tiempo y gravedad están entrelazados, dijo del átomo de Bohr que él mismo había tenido ideas parecidas pero que, a causa de su «extrema novedad», no había tenido el valor de publicarlas.
Que publicar requiere valor queda reflejado en algunas de las otras reacciones que Bohr recibió. Por ejemplo, en la Universidad de Gotinga, una institución líder en Alemania, el acuerdo era total, como recodaría Bohr, en que «todo aquello era un terrible sinsentido, rayano en el fraude». Un científico de Gotinga, experto en espectroscopia, puso por escrito la actitud de su institución: «Era lamentable en el más alto grado que la literatura se viera contaminada por información tan retorcida, que dejaba entrever una gran ignorancia [316]».
Por su lado, uno de los grandes de la vieja guardia de la física británica, lord Rayleigh, admitió que no podía creer que «la naturaleza se comporte de ese modo [317]».
Pero añadió, con presciencia, que «los que pasan de los setenta no deberían apresurarse a expresar sus opiniones sobre las nuevas teorías[318]».
Otro destacado físico británico, Arthur Eddington, tampoco se mostró muy entusiasmado, cuando ya había repudiado las ideas del cuanto de Planck y Einstein como «una invención germánica[319]».
Incluso Rutherford reaccionó negativamente. De entrada, la física teórica no era de su agrado. Pero lo que le molestó del trabajo de Bohr (que, al fin y al cabo, era una revisión de su propio modelo del átomo) era que su colega danés no hubiera proporcionado ningún mecanismo mediante el cual el electrón realice esos saltos entre niveles de energía que su teoría postulaba. Por ejemplo, si el electrón, al moverse a un nivel de energía correspondiente a una órbita inferior, «salta» a la nueva órbita en lugar de describir una «espiral» continua hacia el interior, ¿qué tipo de trayectoria sigue ese «salto», y qué lo provoca?
Como se vería más tarde, la objeción de Rutherford iba directa al núcleo de la cuestión. No solo no se encontraría nunca ese mecanismo, sino que cuando la teoría cuántica madurase hasta convertirse en una teoría general de la naturaleza, dictaría que esas preguntas no tienen respuesta, y por tanto no tienen lugar en la ciencia moderna.
Lo que al final convencería a la comunidad de físicos de la corrección de las ideas de Bohr (y, por tanto, de los trabajos anteriores de Planck y Einstein) se produjo a lo largo de una década, de 1913 a 1923[320].
Aplicando la teoría de Bohr y otros a los átomos de elementos más pesados que el hidrógeno, Bohr se dio cuenta de que si se ordenaban los elementos por número atómico, y no por peso atómico, como había hecho Mendeleev, se podían eliminar algunos de los errores que persistían en la tabla periódica.
El peso atómico viene determinado por el número de protones y neutrones del núcleo atómico. El número atómico, en cambio, es igual al número de protones, que, como los átomos no tienen carga eléctrica neta, es también el número de electrones que posee el átomo. Los átomos con más protones en el núcleo también tienen, por lo general, más neutrones, pero no siempre, de modo que las dos medidas pueden diferir en el orden que inducen en los elementos. La teoría de Bohr demostró que el número atómico es el parámetro correcto sobre el que había de ordenarse la tabla periódica, porque son los protones y los electrones los que determinan las propiedades químicas de los elementos, no los neutrones. Habían hecho falta más de cincuenta años, pero gracias a Bohr, la ciencia podía explicar por fin por qué funcionaba la misteriosa tabla periódica de Mendeleev.
Con la maduración de las ideas cuánticas en una estructura general que reemplazaría las leyes de Newton, los físicos lograrían por fin escribir ecuaciones que, en principio, les permitirían derivar el comportamiento de todos los átomos, aunque en la mayoría de los casos haría falta la tecnología de la supercomputación para hacerlo. Pero nadie tuvo que esperar a la llegada de los supercomputadores para contrastar las ideas de Bohr por lo que concierne a la significación del número atómico: en la tradición de Mendeleev, predijo las propiedades de un elemento todavía no descubierto, irónicamente, uno que Mendeleev, que había basado su sistema en el número atómico, no había predicho correctamente.
El elemento fue descubierto poco tiempo después, en 1923, y recibió el nombre de hafnio, por Hafnia, el nombre latino de la ciudad de Bohr, Copenhague. Después de aquello, ningún físico (o químico) podría dudar ya de la corrección de las teorías de Bohr [321].
Unas siete décadas más tarde, en 1997, el nombre de Bohr se uniría al de Mendeleev en la tabla periódica cuando el elemento 107 recibió el nombre de bohrio. Aquel mismo año, su antiguo mentor (y ocasional crítico) también fue conmemorado dándole su nombre al elemento 104, el rutherfordio[XXI].

12. La revolución cuántica
Pese a todas las mentes brillantes y ansiosas que ahora centraban sus esfuerzos en el cuanto, y pese a las verdades aisladas que habían conjeturado o descubierto, a principios de la década de 1920 todavía no existía un teoría general del cuanto ni señal alguna de que esa teoría fuese siquiera posible. Bohr había urdido unos cuantos principios que, de ser ciertos, explicaban que los átomos fuesen estables y daban razón de sus líneas espectrales, pero ¿por qué eran ciertos esos principios? ¿Y cómo se podían aplicar al análisis de otros sistemas? Nadie lo sabía.
Muchos físicos cuánticos se estaban desanimando. Max Born (1882-1970), un futuro galardonado con el premio Nobel que no tardaría en introducir el término «fotón», escribió: «Me estrujo los sesos en vano con la teoría cuántica, intentando hallar una receta para el cálculo del helio y de otros átomos, pero no lo consigo… Los cuantos se encuentran en un caos sin solución[322]».
Y Wolfgang Pauli (1900-1958), otro futuro laureado con el premio Nobel que propondría y desarrollaría la teoría matemática de la propiedad llamada espín, lo expresaba de este modo: «La física está muy enturbiada en este momento; en cualquier caso, es demasiado difícil para mí, y ahora desearía ser un cómico del cine o algo por estilo y no haber oído hablar nunca de la física[323]».
La naturaleza nos propone enigmas y nosotros tenemos que sacarles el sentido. Un rasgo de los físicos es que invariablemente tienen la profunda convicción de que esos enigmas esconden verdades profundas. Creemos que la naturaleza se rige por reglas generales, que no es un batiburrillo de fenómenos sin relación alguna entre ellos. Los primeros investigadores del cuanto no sabían qué aspecto podría tener una teoría cuántica general, pero confiaban en que existía. El mundo que exploraban era obstinado y se resistía a ser explicado, pero creían que se le podía hallar el sentido. Se nutrían de sus sueños. Eran vulnerables a momentos de duda y desesperación, como todos lo somos, pero partieron hacia periplos difíciles que consumieron años de sus vidas motivados por la creencia de que en el otro extremo hallarían la recompensa de la verdad. Como en cualquier empresa realmente difícil, vemos que quienes lograron el éxito tenían convicciones muy fuertes, porque si su fe flaqueaba, se rendían antes.
Es fácil entender la desesperación de algunos, como Born y Pauli, porque la teoría cuántica no solo constituía todo un reto en sí misma, sino que se desarrolló en tiempos difíciles. La mayoría de los pioneros del cuanto trabajaban en Alemania, o se desplazaban entre Alemania y el instituto que Bohr había establecido en 1921 en la Universidad de Copenhague con los fondos que había conseguido recabar, y por tanto se vieron obligados a realizar su búsqueda de un nuevo orden científico en un momento en que el orden político y social se desmoronaba en un caos a todo su alrededor. En 1922, el ministro de Asuntos Exteriores alemán fue asesinado. En 1923, el valor del marco alemán se hundió a una billonésima de su valor anterior a la guerra y se necesitaban quinientos mil millones de esos «dólares alemanes» solo para comprar un kilogramo de pan. Pese a todo ello, los físicos del nuevo cuanto buscaron sostenimiento en la comprensión del átomo y, de manera más general, de las leyes de la naturaleza que operan a tan pequeña escala.
El sostenimiento comenzó a llegar por fin a mediados de la década. Llegó a trompicones, comenzando con un artículo publicado en 1925 por un joven de veintitrés años llamado Werner Heisenberg (1901-1976).
Nacido en Wurzburgo, Alemania, en la familia de un profesor de lenguas clásicas, Heisenberg fue reconocido enseguida como una persona brillante y muy competitiva[324].
Su padre animaba en él ese espíritu competitivo, y Heisenberg se peleaba a menudo con su hermano, un año mayor que él. La rivalidad culminó en una pelea sangrienta en la que se batieron con sillas hasta que acordaron una tregua, que perduraría sobre todo porque cada uno siguió su camino, abandonando el hogar para no hablarse durante el resto de sus días. Años más tarde, Heisenberg atacaría con la misma fiereza los retos que le planteaba su trabajo.
Werner siempre tomaba la competencia como un desafío personal. No tenía ningún talento especial para esquiar, pero se entrenó hasta convertirse en un esquiador excelente, y también en un corredor de fondo. También aceptó el reto del violoncelo y el piano. Pero lo más importante es que ya en la escuela primaria descubrió que tenía talento para la aritmética, y eso lo motivó a interesarse vivamente por la matemática y sus aplicaciones.
En el verano de 1920, Heisenberg decidió hacer un doctorado en matemáticas. Para ser aceptado en un programa, tenía que convencer a un miembro de la facultad para que lo patrocinara, y por mediación de un conocido de su padre consiguió una entrevista con un conocido matemático llamado Ferdinand von Lindemann de la Universidad de Múnich. Pero no resultó ser la entrevista amable que a veces se consigue mediante contactos. A Heisenberg no le ofrecieron té y tarta selva negra ni le hablaron de las increíbles historias que habían oído sobre su brillantez. Al contrario. Lindemann, a dos años de la jubilación, parcialmente sordo y poco o nada interesado en alumnos de primer año, tenía sobre la mesa un caniche que ladraba tan fuerte que apenas podía oír a Heisenberg. Al final, sin embargo, lo que debió malbaratar las aspiraciones de Werner fue que este mencionó haber leído un libro sobre la teoría de la relatividad de Einstein escrito por el matemático Hermann Weyl. Tras conocer el interés del joven por un libro de física, Lindemann, un teórico de los números, dio por acabada la entrevista de un modo abrupto, diciendo: «En ese caso, usted es un caso perdido para las matemáticas [325]».
Con este comentario, Lindemann debía querer decir que mostrar interés por la física indica mal gusto, aunque como físico prefiero pensar que, habiendo conocido las mieles de un tema mucho más interesante, Heisenberg no tendría ya nunca la paciencia que requieren las matemáticas. En cualquier caso, la arrogancia y cerrazón de Lindemann cambiaron el curso de la historia, pues si hubiera aceptado a Heisenberg, la física habría perdido al hombre cuyas ideas habrían de convertirse en el núcleo de la teoría cuántica[XXII].
Después de que Lindemann lo rechazase, Heisenberg no vio muchas opciones y decidió buscar como premio de consolación un doctorado en física bajo la dirección de Arnold Sommerfeld, que había sido un gran defensor del átomo de Bohr y para entonces había hecho sus propias contribuciones a la teoría. A Sommerfeld, un hombre menudo, calvo, con un gran mostacho y ningún caniche, le impresionó que Heisenberg se hubiera atrevido con el libro de Weyl. No tanto como para acogerlo de inmediato, pero lo bastante como para ofrecerle una dirección provisional. «Tal vez sepas algo, o tal vez no sepas nada», le dijo. «Pronto lo sabremos[326]».
Heisenberg por supuesto sabía algo. Lo bastante para completar su doctorado con Sommerfeld en 1923 y en 1924 recibir un título aún más avanzado llamado «habilitación» mientras trabajaba con Born en Gotinga. Pero su sendero a la inmortalidad no empezó realmente hasta más tarde, con una visita a Niels Bohr en Copenhague en 1924.
Cuando Heisenberg llegó, Bohr estaba liderando un esfuerzo en la dirección equivocada para enmendar su modelo del átomo, y Heisenberg se unió a la refriega. Digo «en la dirección equivocada» no solo porque fracasase, sino por su objetivo: Bohr quería sacar de su modelo el fotón, el cuanto de luz de Einstein. Eso puede sonar extraño, puesto que había sido la idea de los cuantos de luz lo que lo había inspirado a pensar sobre la idea de que un átomo podría estar restringido a ciertos estados discretos de energía. Aun así, Bohr, como la mayoría de los físicos, era reacio a aceptar la realidad del fotón, y se preguntó a sí mismo si se podría crear una variante de su modelo original del átomo que no lo incorporase [327].
Bohr creía que sí. Hemos visto a Bohr sudar detrás de una idea y al final triunfar, pero en este caso, habría sudado y fracasado.
Cuando llegué a la universidad, mis amigos y yo idolatrábamos a varios físicos. Einstein por su lógica implacable y sus ideas radicales. Feynman y el físico británico Paul Dirac (1902-1984) por inventar conceptos matemáticos aparentemente ilegales y aplicarlos con sorprendentes resultados. (Los matemáticos encontrarían después la manera de justificarlos). Y Bohr por su intuición. Los veíamos como héroes, genios superhumanos cuyo pensamiento era siempre claro y sus ideas correctas. Supongo que es normal; también los artistas, emprendedores y fans de los deportes pueden nombrar personas que consideran absolutamente excepcionales.
En mis días de estudiante, nos explicaban que la intuición de Bohr sobre la física cuántica era tan impresionante que parecía tener «una línea directa con Dios». Pero si las exposiciones sobre los primeros años de la teoría cuántica suelen hablar de las ideas brillantes de Bohr, raramente mencionan sus muchas ideas equivocadas. Eso es natural, pues con el tiempo las buenas ideas persisten mientras que las malas se olvidan. Por desgracia, eso nos deja con la impresión equivocada de que la ciencia es más directa y fácil (al menos para algunos genios) de lo que realmente es.
El gran jugador de baloncesto Michael Jordan dijo en una ocasión: «He fallado más de nueve mil tiros en mi carrera. He perdido casi trescientos partidos. En veintiséis ocasiones, se me confió el tiro de la victoria y lo fallé. He fracasado una y otra vez en mi vida. Por eso tengo éxito [328]».
Lo dijo en un anuncio de Nike porque oír que también una leyenda falló y persistió es inspirador. Pero para cualquiera que esté entregado a un campo de descubrimiento o innovación, tiene el mismo valor oír hablar de las ideas equivocadas de Bohr, o de los infructuosos esfuerzos de Newton en la alquimia, para reconocer que nuestros ídolos intelectuales tenían ideas equivocadas y fallos tan mayúsculos como los que nosotros sabemos que hemos tenido.
Es interesante, pero no sorprendente, que Bohr pensase que su propio modelo del átomo fuese una idea demasiado radical, pues la ciencia, como la sociedad, se construye sobre ciertas ideas y creencias compartidas, y el átomo de Bohr no se amoldaba a ellas. Por eso los pioneros, desde Galileo y Newton hasta Bohr y Einstein (y más allá) mantenían un pie en el pasado mientras su imaginación les ayudaba a crear el futuro.
En este aspecto, los «revolucionarios» de la ciencia no difieren de las personas de pensamientos más osados y avanzados en otros campos. Pensemos, por ejemplo, en Abraham Lincoln, que defendió el fin de la esclavitud en los estados sureños y sin embargo no pudo despojarse de su anacrónica creencia de que las razas nunca vivirían juntas «en igualdad social y política[329]».
El propio Lincoln comprendió que su posición en contra de la esclavitud podía parecer incoherente con su tolerancia con la idea de la desigualdad racial. Sin embargo, defendió su aceptación de la supremacía blanca diciendo que el hecho de si era o no «conforme a justicia» no era la cuestión fundamental, puesto que la supremacía blanca era un «sentimiento universal» que «bien o mal fundamentado, no es recomendable ignorar [330]».
Dicho de otro modo, abandonar la supremacía blanca era un paso demasiado radical, incluso para él.
Si le preguntamos a la gente por qué cree en una u otra cosa, por lo general no serán tan francos y conscientes de sus propias creencias como Lincoln. Pocos dirán, como él vino a decir, que creen en algo porque todo el mundo lo cree. O «porque siempre lo han creído», o «porque los han educado en casa y en la escuela para que lo crean». Sin embargo, como Lincoln señaló, esa suele ser buena parte de la razón. En la sociedad, las creencias compartidas crean la cultura, y a veces la injusticia. En la ciencia, el arte y otras áreas donde la creatividad y la innovación son importantes, las creencias compartidas pueden crear barreras mentales al progreso. Por eso los cambios suelen darse a trompicones, y por eso Bohr se empantanó intentando alterar su teoría.
La nueva teoría de Bohr estaba condenada al fracaso, pero al menos tuvo un efecto afortunado: forzó al joven Heisenberg a pensar muy a fondo en las implicaciones de la teoría original del átomo de Bohr. Gradualmente, su análisis lo fue llevando hacia una idea radical en la física: que podría ser viable, incluso deseable, abandonar la idea de una imagen física del funcionamiento interno del átomo, como el movimiento orbital de los electrones, por ejemplo, que imaginamos en nuestra mente pero que en la práctica no podemos observar.
La teoría de Bohr, como las teorías de la física clásica, descansaban en valores matemáticos asignados a características como la posición y la velocidad orbital de los electrones. En el mundo de los objetos que Newton estudiaba (proyectiles, péndulos, planetas), la posición y la velocidad se pueden observar y medir. Pero en el laboratorio, los experimentadores no pueden observar si los electrones de un átomo están aquí o allí, o lo deprisa que se mueven, si es que siquiera se mueven. Heisenberg razonó que si los conceptos clásicos de posición, velocidad, trayectoria u órbita no son observables al nivel de los átomos, quizá convendría dejar de intentar crear una ciencia del átomo (o de otros sistemas) que se base en ellos. ¿Por qué seguir casados con esas viejas ideas? Heisenberg decidió que eran un lastre mental, muy siglo diecisiete.
¿Sería posible, se preguntó Heisenberg, desarrollar una teoría que se fundamentase únicamente en datos atómicos que se pudiesen medir directamente, como las frecuencias y amplitudes de la radiación que emiten los átomos?
Rutherford había objetado al átomo de Bohr porque su autor no había ofrecido ningún mecanismo que explicase cómo salta el electrón entre niveles de energía; Heisenberg respondería a esa crítica, pero no proporcionando un mecanismo, sino afirmando que no existe tal mecanismo, ni trayectoria, cuando se habla de electrones, o al menos que la propia pregunta queda fuera del ámbito de la física porque los físicos miden la luz absorbida o emitida por esos procesos pero no pueden presenciar los propios procesos. Para cuando Heisenberg regresó a Gotinga en la primavera de 1925 para trabajar como docente en el instituto de Bohr, su sueño, su meta, era ya inventar un nuevo enfoque para la física que se basase únicamente en datos que se pudieran medir.
Crear una ciencia radicalmente nueva que abandonase la descripción intuitiva de la realidad de Newton y repudiase conceptos, como la posición y la velocidad, que todos podemos imaginar y comprender habría sido una meta audaz para cualquiera, cuanto más para un joven de veintitrés años como Heisenberg. Pero como Alejandro, que con veintidós años cambió el mapa político del mundo, el joven Heisenberg encabezaría una marcha que alteraría el mapa científico del mundo.
La teoría que Heisenberg creó con su inspiración acabaría reemplazando las leyes del movimiento de Newton como teoría fundamental de la naturaleza. Max Born la llamaría «mecánica cuántica» para distinguirla de las leyes de Newton, que suelen conocerse como mecánica newtoniana o mecánica clásica [331].
Pero las teorías de la física se validan con la precisión de sus predicciones, no por gusto o por acuerdo común, así que uno puede preguntarse cómo puede un teoría basada en ideas exóticas como la de Heisenberg «reemplazar» a una teoría bien establecida como la de Newton, que había cosechado tantos éxitos.
La respuesta es que, aunque el marco conceptual que subyace a la mecánica cuántica es muy diferente del de Newton, las predicciones matemáticas de las teorías suelen diferir solamente para sistemas a la escala atómica o inferior, donde las leyes de Newton fallan. Por eso, una vez plenamente desarrollada, la mecánica cuántica explicaba el extraño comportamiento del átomo sin contradecir la descripción bien establecida de los fenómenos cotidianos que ya explicaba la teoría de Newton. Heisenberg y los demás científicos que trabajaron en el desarrollo de la teoría cuántica sabían que así debía ser, y desarrollaron una expresión matemática de la idea que proporcionó tests útiles para la teoría que estaban urdiendo. Bohr le dio el nombre de «principio de correspondencia».
¿Cómo consiguió Heisenberg crear una teoría concreta a partir de lo que entonces no era más que una preferencia filosófica? Su reto consistía en trasladar la noción de que la física debe basarse en «observables» (cantidades que medimos) a un marco matemático que, como el de Newton, se pudiera usar para describir el mundo físico. La teoría que inventó se aplicaría a cualquier sistema físico, pero la desarrolló en el contexto del mundo atómico, con el objetivo inicial de explicar, a través de una teoría matemática general, las razones del éxito del modelo ad hoc del átomo de Bohr.
El primer paso de Heisenberg consistió en identificar los observables que fuesen apropiados para el átomo. Como en el mundo atómico lo que medimos son las frecuencias de la luz que emiten los átomos y la amplitud, o intensidad, de esas líneas espectrales, esas fueron las propiedades que escogió. Entonces se dispuso a emplear las técnicas de la física matemática tradicional para derivar la relación entre los «observables» tradicionales newtonianos, como la posición y la velocidad, y esos datos sobre las líneas espectrales. Su objetivo era usar esa conexión para reemplazar cada observable de la física newtoniana con un equivalente cuántico. Ese paso requirió tanta creatividad como coraje, porque obligaría a Heisenberg a convertir la posición y el momento en entidades matemáticas de aspecto nuevo y extraño.
El nuevo tipo de variable era exigido por el hecho de que si bien la posición, por ejemplo, se define especificando un único punto, los datos espectrales requieren una descripción distinta. Cada una de las distintas propiedades de la luz que emite un átomo, como el color o la intensidad, forman toda una tabla de números en lugar de un solo número. Los datos se disponen en una tabla porque hay una línea espectral correspondiente a un salto desde cualquier estado inicial a cualquier estado final, lo que produce un valor para cada par posible de estados de energía de Bohr. Si eso parece complicado, es porque lo es. De hecho, cuando se le ocurrió a Heisenberg, también le pareció «muy extraño [332]».
Pero en resumen lo que hizo fue eliminar de su teoría las órbitas de los electrones que se pueden visualizar y reemplazarlas con cantidades puramente matemáticas.

31.jpg
En la teoría de Heisenberg, la posición viene representada por una matriz infinita en lugar de las familiares coordenadas espaciales.

Quienes habían trabajado sobre teorías del átomo antes que Heisenberg, como Rutherford, deseaban descubrir un mecanismo tras los procesos atómicos. Habían concebido los contenidos inaccesibles del átomo como reales, y habían intentado derivar la naturaleza de las líneas espectrales observadas basándose en conjeturas sobre el comportamiento de lo que había dentro, como los electrones en órbita. Sus análisis siempre habían dado por supuesto que los componentes del átomo tendrían el mismo carácter básico que las cosas con las que estamos familiarizados en nuestra vida cotidiana. Solo Heisenberg pensó de otro modo y tuvo el valor de declarar con aplomo que las órbitas de los electrones caen fuera del alcance de la observación y por lo tanto no son reales y no tienen lugar en la teoría. Este sería el enfoque de Heisenberg no solo sobre el átomo, sino sobre cualquier sistema físico.
Al insistir sobre tales análisis, Heisenberg abandonó la imagen newtoniana del mundo como una ordenación de objetos materiales que tienen existencia individual y propiedades definidas como velocidad o posición. Su teoría, una vez perfeccionada, nos obligaría a aceptar un mundo basado en un esquema conceptual diferente en el que la trayectoria de un objeto e incluso su pasado y futuro no están determinados de forma precisa.
Si hoy a mucha gente le cuesta adaptarse a nuevas tecnologías como los mensajes de móvil o las redes sociales, cabe imaginar la apertura mental que debió necesitarse entonces para ajustar la forma de pensar a una teoría que decía que los electrones y los núcleos de los que estamos hechos no tienen una existencia concreta. Pero el planteamiento de Heisenberg exigía justamente eso. No era simplemente un nuevo tipo de física, sino una concepción completamente nueva de la realidad. Estas consideraciones son las que llevaron a Max Born a cuestionar la secular separación entre física y filosofía. «Ahora estoy convencido», escribió, «de que la física teórica es filosofía[333]».
A medida que estas ideas iban encajando en su teoría y que sus cálculos matemáticos progresaban, Heisenberg se fue excitando. Pero entonces enfermó con un ataque de fiebre del heno tan grave que tuvo que marchar de Gotinga y retirarse a una isla rocosa del mar del Norte en la que apenas crecía nada. Al parecer, se le había hinchado terriblemente toda la cara. Sin embargo, no dejó de trabajar, día y noche, hasta finalizar la investigación que constituiría su primer artículo sobre las ideas que le darían completamente la vuelta a la física.
De regreso en su casa, Heisenberg puso sus hallazgos por escrito y le dio una copia a su amigo Pauli y otra a Born. El artículo esbozaba una metodología y la aplicaba a un par de problemas simples, pero Heisenberg no había conseguido aplicar sus ideas al cálculo de nada que tuviera interés práctico. Su trabajo estaba poco pulido, era horriblemente complejo y extremadamente misterioso. Para Born, enfrentarse a él debió de ser como charlar con una de esas personas que te encuentras en un cóctel y que hablan sin parar y sin sentido. La mayoría de la gente, ante un artículo tan difícil, lo siguen durante unos minutos, lo dejan a un lado y se toman una copa de vino. Pero Born insistió, y al final quedó tan impresionado con el trabajo de Heisenberg que escribió inmediatamente a Einstein y le dijo que las ideas del joven científico eran «sin duda correctas y profundas [334]».
Como Bohr y Heisenberg, Born se había sentido inspirado por la relatividad de Einstein, y señaló que la atención de Heisenberg en aquello que podía medirse era análoga a la cuidadosa atención de Einstein, al crear la relatividad, en los aspectos operativos de la medición del tiempo [335].
A Einstein, sin embargo, no le gustó la teoría de Heisenberg, y este fue el punto en la evolución de la teoría cuántica en el que Einstein y el cuanto comenzaron a separarse: Einstein no se veía capaz de respaldar una teoría que renunciaba a la existencia de una realidad objetiva bien definida en la que los objetos tienen propiedades definidas como la posición o la velocidad. Que las propiedades de los átomos pudieran explicarse con una teoría provisional que no hiciera referencia a las órbitas de los átomos, eso podía encajarlo. Pero una teoría fundamental que proclamaba que esas órbitas no existen, eso no podía suscribirlo. Como escribiría más tarde: «Me inclino a pensar que los físicos no quedarán permanentemente satisfechos con… una descripción indirecta de la Realidad[336]».
El propio Heisenberg no estaba seguro de qué había creado. Más tarde recordaría lo atolondrado que estaba, trabajando hasta las tres de la madrugada una noche, cuando se encontraba a las puertas del descubrimiento, tan excitado por sus nuevos hallazgos que no podía dormir. Sin embargo, mientras trabajaba en el manuscrito del primer artículo en el que exponía sus ideas, le escribió a su padre: «Mis propios trabajos no van especialmente bien en este momento. No produzco mucho y no sé si de todo esto saldrá otro [artículo[337]]».
Entretanto, Born seguía perplejo con la extraña matemática de Heisenberg. Pero un día tuvo toda una revelación. En algún lugar había visto un esquema como el de Heisenberg. Aquellas tablas, recordó, eran como algo que los matemáticos llamaban «matrices».
El álgebra matricial era entonces un tema arcano y oscuro, y al parecer Heisenberg lo había reinventado. Born le pidió a Pauli que le ayudase a traducir el artículo de Heisenberg en el lenguaje de las matrices matemáticas (y a extender ese lenguaje para contemplar el hecho de que las matrices de Heisenberg tenían un número infinito de filas y columnas). Pauli, el futuro premio Nobel, se alborotó y acusó a Born de intentar arruinar las bellas «ideas físicas» de su amigo introduciendo «fútiles matemáticas» y «tediosos y complicados formalismos [338]».
En realidad, el lenguaje de las matrices permitiría una gran simplificación. Born buscó otro ayudante para el álgebra matricial, su estudiante Pascual Jordan, y en unos meses, en noviembre de 1925, Heisenberg, Born y Jordan habían enviado un artículo sobre la teoría cuántica de Heisenberg que hoy se considera un hito en la historia de la ciencia. Poco después, Pauli digirió su trabajo y aplicó la nueva teoría derivando las líneas espectrales del hidrógeno y cómo se ven afectadas estas por campos eléctricos y magnéticos, algo que hasta entonces no había sido posible. Fue la primera aplicación práctica de la naciente teoría que pronto había de destronar la mecánica newtoniana.
Habían pasado más de dos mil años desde el origen de la idea del átomo, más de doscientos desde que Newton inventara la mecánica matemática, más de veinte desde que Planck y Einstein introdujeran el concepto de cuanto. La teoría de Heisenberg fue, en cierto modo, la culminación de todos esos hilos del pensamiento científico.
El problema era que, una vez plenamente desarrollada, la teoría de Heisenberg necesitaba treinta páginas para explicar los niveles de energía del átomo, algo que la teoría de Bohr había explicado en unas pocas líneas. Mi padre, el sastre pragmático, habría dicho, «¿y para eso se había pasado años estudiando?». Sin embargo, la teoría de Heisenberg era superior porque producía su resultado a partir de principios profundos y no de suposiciones ad hoc como el modelo de Bohr. Uno pensaría que, por esa razón, sería aceptada de inmediato. Pero la mayoría de los físicos no estaban directamente involucrados en la búsqueda de una teoría del cuanto, y al parecer pensaban como mi padre. Para ellos (entre los que destacaba Rutherford), necesitar treinta páginas en lugar de tres líneas no parecía un paso adelante. No estaban ni impresionados ni interesados, y miraban a Heisenberg como cualquiera miraría a un mecánico que nos dice que podría arreglar el problema con un nuevo termostato pero que sería mejor cambiar el coche entero.
El pequeño grupo de cognoscenti de la teoría cuántica, sin embargo, reaccionó de otro modo. Casi sin excepción, se quedaron pasmados, pues la teoría sin duda complicada de Heisenberg explicaba, en un sentido profundo, por qué había funcionado la teoría provisional de Bohr para el átomo de hidrógeno, al tiempo que proporcionaba una descripción completa de los datos observados.

32.jpg
Werner Heisenberg (izquierda) con Niels Bohr.

Para Bohr, en particular, aquello era la culminación de una búsqueda que él mismo había ayudado a iniciar. Sabía que su átomo era solo un modelo provisional ad hoc, destinado a ser explicado, tarde o temprano, por una teoría más general, y estaba convencido de que esta ya había llegado. «Gracias a los últimos trabajos de Heisenberg», escribió, «se han hecho realidad de un solo golpe las expectativas que… durante tanto tiempo han estado en el centro de nuestros deseos[339]».
Durante algún tiempo, la física se encontró en una extraña condición, como un estadio de la Copa del Mundo en el que ya se hubiera marcado el gol de la victoria pero solo un puñado de fans se hubiera enterado. Irónicamente, lo que al final elevó la teoría cuántica de una teoría que interesaba solamente a los especialistas hasta ser reconocida como la teoría fundamental de toda la física fue la aparición, unos meses más tarde, en enero y febrero de 1926, de dos artículos que conjuntamente describían otra teoría general del cuanto que empleaba conceptos y métodos muy distintos y, aparentemente, una concepción distinta de la realidad.
La nueva teoría competidora describía los electrones de un átomo como un onda, un concepto que los físicos estaban acostumbrados a visualizar, aunque ciertamente no en el contexto de los electrones. Curiosamente, a pesar de las diferencias con la teoría de Heisenberg, también explicaba el átomo de Bohr. Desde la Grecia clásica los científicos habían tenido que arreglárselas sin una teoría del átomo. Ahora tenían dos, y encima parecían incompatibles. Una veía la naturaleza como si estuviera formada por ondas de materia y energía, la otra insistía en que es inútil ver la naturaleza como si consistiera en algo, y en su lugar prescribía que considerásemos únicamente las relaciones matemáticas entre los datos.
La nueva teoría del cuanto fue obra del físico austriaco Erwin Schrödinger (1887-1961) y era de un estilo tan distinto de la teoría de Heisenberg como lo eran los dos hombres y las condiciones en las que realizaron sus rompedoras aportaciones. Mientras que Heisenberg había realizado su trabajo como un ermitaño en una isla rocosa, aquejado de sinusitis, Schrödinger lo había hecho durante unas vacaciones de Navidad que había pasado con su amante en el complejo turístico de Arosa, en los Alpes. «Realizó su gran obra», diría un amigo matemático, «durante un tardío estallido erótico de su vida [340]».
Por «tardío», el matemático se refería a la avanzada edad de Schrödinger, que ya contaba treinta y ocho años.
Quizá el matemático tuviera algo de razón en lo de la avanzada edad de Schrödinger. Una y otra vez hemos visto cómo los físicos jóvenes aceptan las nuevas ideas mientras los más maduros anhelan las formas tradicionales de hacer las cosas, como si al envejecer fuese cada vez más difícil aceptar las mudanzas de un mundo cambiante. El caso es que el trabajo de Schrödinger es, en realidad, una manifestación más de esa tendencia, pues, irónicamente, la motivación que dio Schrödinger para construir su nueva teoría fue el deseo de tener una teoría cuántica que, en contraste con la de Heisenberg, tuviera el aspecto de la física convencional: Schrödinger luchaba por mantener lo familiar, no por darle la vuelta.
A diferencia del joven Heisenberg, Schrödinger imaginaba el movimiento de los electrones en un átomo. Y aunque sus exóticas «ondas de materia» no dotaban directamente a los electrones de propiedades newtonianas del mismo modo que lo hacían las órbitas de Bohr, su nueva «teoría ondulatoria» del cuanto, que al principio nadie sabía muy bien cómo interpretar, prometía eludir la ingrata visión de la realidad que requería la teoría de Heisenberg.
Los físicos supieron apreciar la alternativa. Antes de Schrödinger, a la mecánica cuántica le había costado que la aceptasen. La matemática poco familiar de Heisenberg, que implicaba un número infinito de ecuaciones matriciales, parecía horriblemente compleja, y los físicos no se sentían cómodos abandonando variables que pudieran visualizar a favor de unas matrices simbólicas. La teoría de Schrödinger, en cambio, era fácil de usar y se basaba en una ecuación parecida a la que los físicos ya habían estudiado durante la carrera en el contexto de las ondas de sonido y de agua. Aquella metodología era el pan de cada día de los físicos, y eso hacía que la transición a la física cuántica resultase relativamente fácil. Igual de importante es el hecho de que, al proporcionar un modo de visualizar el átomo, aunque no utilizase conceptos newtonianos como las órbitas, Schrödinger había conseguido que la teoría cuántica resultase más apetitosa, la antítesis de lo que Heisenberg había luchado por conseguir.
Incluso Einstein se mostró satisfecho con la teoría de Schrödinger, al menos al principio. Él mismo había considerado la idea de ondas de materia y había trabajado con el austriaco en el pasado. «¡La idea de su trabajo es pura genialidad!», le escribió a Schrödinger en abril de 1926 [341].
Diez días más tarde, le volvió a escribir: «Estoy convencido de que ha realizado un avance decisivo con su formulación de la condición cuántica, del mismo modo que estoy convencido de que el método de Heisenberg es erróneo [342]».
Y a principios de mayo volvió a escribir con entusiasmo sobre el trabajo de Schrödinger.
Sin embargo, aquel mismo mes, mayo de 1926, Schrödinger dejó caer otra bomba: publicó un artículo que demostraba que, para propia consternación, su teoría y la de Heisenberg eran matemáticamente equivalentes: ambas eran correctas. Aunque las dos teorías usaban marcos conceptuales distintos, es decir, distintas concepciones de lo que ocurre «bajo la tapa» en la naturaleza (de hecho, Heisenberg ni siquiera quiso levantar la tapa), esas diferencias resultaron ser solo en el lenguaje que utilizaban, pero las dos teorías decían lo mismo sobre lo que observamos.
Para acabar de complicar las cosas (o para hacerlas aún más interesantes), dos décadas más tarde Richard Feynman crearía una tercera formulación de la teoría cuántica que difería bastante, tanto en su matemática como en su marco conceptual, de las teorías de Heisenberg y Schrödinger, pero que también era matemáticamente equivalente a ambas, es decir, implicaba los mismos principios físicos y hacía idénticas predicciones.
Wallace Stevens escribió: «Tenía tres pareceres, / como un árbol / en el que hay tres mirlos [343]», pero esa situación puede parecer rara cuando se traslada a la física. Si la física contiene alguna «verdad», ¿puede haber más de una teoría «correcta»? Sí, incluso en la física puede haber muchas maneras de mirar. Sobre todo en la física moderna, en la cual aquello que «miramos», ya sea átomos, electrones o la partícula de Higgs, no lo podemos «ver» en un sentido literal, lo que lleva a los físicos a crear sus propias imágenes mentales a partir de las matemáticas, no de la realidad palpable.
En la física, una persona puede expresar una teoría en los términos de un conjunto de conceptos mientras otra expresa una teoría del mismo fenómeno en términos de un conjunto distinto de conceptos. Lo que eleva este ejercicio por encima de las refriegas políticas entre las derechas y las izquierdas es que, en la física, para que un punto de vista se considere válido, tiene que superar la prueba del experimento, lo que significa que esas teorías alternativas tendrían que conducir a las mismas conclusiones, algo que las filosofías políticas raramente hacen.
Eso nos trae de vuelta a la pregunta de si las teorías se descubren o se inventan. Sin entrar en la cuestión filosófica de si existe una realidad externa objetiva, podemos decir que el proceso de creación de la teoría cuántica fue un descubrimiento en el sentido de que los físicos dieron con muchos de sus principios al explorar la naturaleza, pero al mismo tiempo fue inventada en el sentido de que los científicos diseñaron y crearon varios marcos conceptuales distintos que cumplen la misma función. Del mismo modo que la materia se puede comportar como una onda o como una partícula, también la teoría que la describe tiene dos caracteres aparentemente contradictorios.
Cuando Schrödinger publicó su artículo mostrando la equivalencia entre su teoría y la de Heisenberg, nadie entendía todavía la interpretación apropiada de su formulación. Aun así, su demostración dejaba claro que en el futuro la investigación revelaría que su enfoque planteaba las mismas preguntas filosóficas que ya eran evidentes en la versión de la teoría que había propuesto Heisenberg. Después de aquel artículo, Einstein dejaría de dar su aprobación a la teoría cuántica.
El propio Schrödinger se volvería contra la teoría cuántica. En cierta ocasión comentó que nunca habría publicado sus artículos de haber conocido «las consecuencias que traerían[344]».
Había creado su teoría aparentemente inocua con la intención de desbancar la ingrata alternativa de Heisenberg, pero su equivalencia significaba que no había comprendido entonces las desagradables implicaciones de su propio trabajo. Al final, solo había alimentado el fuego y fomentado las nuevas ideas cuánticas que prefería no aceptar.
En una nota a pie de página de su artículo sobre la equivalencia, insólita por su carácter emotivo, Schrödinger escribió que «se sentía desalentado, por no decir repugnado» por los métodos de Heisenberg, «que me parecieron muy difíciles, y por la imposibilidad de visualizarlos [345]».
La repulsión era mutua. Tras leer los artículos en los que Schrödinger presentaba su teoría, Heisenberg escribió a Pauli, diciéndole: «Cuanto más reflexiono sobre la parte física de la teoría de Schrödinger, más me repugna… lo que Schrödinger escribió sobre la posibilidad de visualizar su teoría es una estupidez [346]».
La rivalidad no tardó en resolverse, pues el método de Schrödinger enseguida se convirtió en el formalismo elegido por la mayoría de los físicos y el usado para resolver la mayoría de los problemas. El número de científicos que trabajaban en la teoría cuántica no tardó en crecer al tiempo que caía el número de quienes empleaban la formulación de Heisenberg.
Incluso Born, que había ayudado a Heisenberg a desarrollar su teoría, se dejó seducir por el método de Schrödinger, y hasta el amigo de Heisenberg, Pauli, se maravilló de lo facilísimo que era, en comparación, derivar el espectro del hidrógeno con la ecuación de Schrödinger. Nada de esto plació a Heisenberg. Bohr, por su parte, se concentró en entender mejor la relación entre las dos teorías. Al final, fue el físico británico Paul Dirac quien ofreció la explicación definitiva de su conexión profunda, e incluso inventó un formalismo híbrido de su propia cosecha, el preferido en la actualidad, que permite moverse con facilidad entre los dos, dependiendo del problema que se aborde. En 1960 se habían publicado más de 100 000 artículos basados en aplicaciones de la teoría cuántica[347].
Pese a todos los avances de la teoría cuántica, el enfoque de Heisenberg siempre estará en su núcleo, puesto que le había inspirado el propósito de desterrar la imagen clásica de unas partículas que siguen trayectorias u órbitas por el espacio, y en 1927 publicó por fin el artículo que le garantizaba la victoria en esa batalla. En él demostraba de una vez por todas que, se use el formalismo que se use, es una cuestión de principio científico (de lo que hoy conocemos como principio de incertidumbre) que concebir el movimiento como lo hacía Newton es inútil. Aunque pueda parecer que el concepto de realidad de Newton se sostiene a escalas macroscópicas, al nivel más fundamental de los átomos y las moléculas que componen los objetos macroscópicos, el universo está gobernado por un conjunto de leyes muy distinto.
El principio de incertidumbre restringe lo que podemos conocer en un momento dado sobre ciertos pares de observables, como la posición y la velocidad [XXIII].
No se trata, sin embargo, de una restricción sobre la tecnología de medición, ni de una limitación del ingenio humano, sino una restricción impuesta por la propia naturaleza. La teoría cuántica dice que los objetos no tienen propiedades precisas como la posición y la velocidad, y lo que es más, si se las intenta medir, cuanto mayor sea la precisión con la que se mide una, menor es la precisión con la que se mide la otra.
En nuestra vida diaria tenemos la impresión de poder medir posición y velocidad con tanta precisión como deseemos. Eso parece contradecir el principio de incertidumbre, pero cuando se examina la matemática de la teoría cuántica se ve que las masas de los objetos cotidianos son tan grandes que el principio de incertidumbre es irrelevante para los fenómenos de la vida diaria. Por eso la física newtoniana funcionó bien durante tanto tiempo; solo cuando los físicos comenzaron a ocuparse de fenómenos a escala atómica comenzaron a manifestarse los límites de la palabra de Newton.
Por ejemplo, supongamos que los electrones pesasen tanto como balones de fútbol. En este caso, si determináramos la posición de un electrón con una precisión de un milímetro en cualquier dirección, todavía podríamos medir su velocidad con una precisión superior a una parte de una milésima de trillonésima de trillonésima de kilómetro por hora. Eso sin duda es suficiente para cualquier uso que le queramos dar a ese cálculo en la vida cotidiana. Pero un electrón de verdad es muchísimo más ligero que un balón de fútbol, y entonces las cosas cambian. Si medimos la posición de un electrón real con una precisión correspondiente aproximadamente al tamaño de un átomo, el principio de incertidumbre nos dice que la velocidad del electrón no se puede determinar con mayor precisión que más o menos mil kilómetros por hora, que es la diferencia entre un electrón que esté quieto y uno que se desplace más deprisa que un avión a reacción. Así que Heisenberg se vio justificado por este principio: al final, aquellas órbitas atómicas no observables que especifican trayectorias precisas de los electrones están prohibidas por la naturaleza.
A medida que se fue entendiendo mejor la teoría cuántica, fue quedando claro que en el mundo cuántico no hay certidumbre, solo probabilidades, no hay ningún «Sí, eso ocurrirá», sino más bien un «Puede pasar cualquiera de estas cosas». En la visión newtoniana del mundo, el estado del universo en cualquier momento dado del futuro o del pasado se ve como algo impreso en el universo en el presente: usando las leyes de Newton, cualquiera con la suficiente información lo podría leer. Si tuviéramos datos suficientes sobre el interior de la Tierra, podríamos predecir los terremotos; si conociéramos cada detalle físico relevante sobre el tiempo atmosférico, podríamos, en principio, decir con certeza si lloverá mañana, o incluso de aquí a un siglo.
Ese «determinismo» newtoniano reside en el núcleo de la ciencia newtoniana: la idea de que un suceso causa el siguiente, y así sucesivamente, y que todo puede predecirse con la ayuda de las matemáticas. Fue parte de la revelación de Newton, una vertiginosa certeza que llevó a todos, desde los economistas a los científicos sociales, a «querer tener lo que tiene la física». Pero la teoría cuántica nos dice que, en el fondo, en el nivel fundamental de los átomos y las partículas que constituyen todas las cosas, el mundo no es determinista, que el estado presente del universo no determina sucesos futuros (o pasados), solo la probabilidad de que suceda uno de muchos futuros alternativos (o de que haya sucedido uno de muchos pasados alternativos). El cosmos, nos dice la teoría cuántica, es como un gigantesco juego de bingo. Fue como reacción a estas ideas cuando Einstein pronunció su famosa sentencia, en una carta a Born: «La teoría [cuántica] dice mucho, pero no nos acerca más al secreto del Viejo. En cualquier caso, estoy convencido de que Él no juega a los dados [348]».
Es interesante que Einstein invocase el concepto de Dios, el «Viejo», en esa sentencia. Einstein no creía en el tradicional Dios personal de, por ejemplo, la Biblia. Para Einstein, «Dios» no estaba involucrado en los detalles íntimos de nuestras vidas, sino que representaba la belleza y la simplicidad lógica de las leyes del cosmos. Así que cuando Einstein dice que el Viejo no juega a los dados, quiere decir que no podía aceptar un papel para el azar en el gran esquema de la naturaleza.
Mi padre no fue ni físico ni jugador de dados, y durante el tiempo que vivió en Polonia, desconoció los grandes desarrollos de la física que se producían a apenas unos cientos de kilómetros. Pero cuando le expliqué la incertidumbre cuántica, la aceptó de mucho mejor grado que Einstein. Para mi padre, el empeño por entender el universo no se centraba en las observaciones realizadas con telescopios o microscopios, sino en la condición humana. De este modo, igual que había entendido, a partir de su propia vida, la distinción aristotélica entre el cambio natural y el cambio violento, también en este caso su pasado hizo que el azar inherente a la teoría cuántica fuese una píldora fácil de tragar. Me habló entonces de la vez que estuvo en pie en una larga fila en la plaza del mercado de una pequeña ciudad donde los nazis habían acorralado a miles de judíos. Cuando había comenzado la redada, se había escondido en una letrina junto a un líder fugitivo de la resistencia a quien debía proteger, pero ni él ni el fugitivo pudieron soportar el hedor y acabaron por salir. El fugitivo salió corriendo y nunca más volvieron a verle. Mi padre fue llevado a la fila y se unió a ella hacia el final.
La fila se movía despacio, y mi padre podía ver que todos subían a camiones. Cuando ya faltaba poco para que le tocase a él, el oficial de las SS que estaba al mando cortó la línea por los cuatro últimos, uno de los cuales era mi padre. Necesitaban tres mil judíos, dijo aquel hombre, y al parecer la línea tenía 3004. Fuesen a donde fuesen, irían sin él. Más tarde descubrió que el destino era el cementerio local, donde les ordenaron que cavasen una fosa común y luego les dispararon y los enterraron en ella. A mi padre le había tocado el número 3004 de una lotería de la muerte en la que la precisión germánica había ganado a la brutalidad nazi. Para mi padre, aquel era un ejemplo de azar que le había costado comprender. En contraste con su experiencia, el azar de la teoría cuántica era fácil.
Como nuestras vidas, una teoría científica puede descansar sobre una roca firme o construirse sobre arena. La ilimitada esperanza de Einstein para el mundo físico era que al final se demostrase que la teoría cuántica se había construido sobre la segunda, un cimiento débil que, a largo plazo, haría que se desmoronase. Cuando se publicó el principio de incertidumbre, sugirió que no era un principio fundamental de la naturaleza sino una limitación de la mecánica cuántica, una indicación de que la teoría no se erigía sobre suelo firme.
Einstein creía que los objetos tenían valores definidos para cantidades como la posición y la velocidad, solo que la teoría cuántica no podía manejarlos. Decía que la mecánica cuántica, aunque indudablemente tuviera éxito, debía ser una formulación incompleta de una teoría más profunda que restablecería la realidad objetiva. Aunque pocos más compartieran esa opinión, durante años fue una posibilidad que nadie podía descartar, y Einstein se fue a la tumba convencido de que algún día se vería vindicado. En décadas recientes, sin embargo, experimentos sofisticados basados en las muy ingeniosas investigaciones del físico teórico irlandés John Bell (1928-1990) han descartado esa posibilidad. La incertidumbre cuántica ha llegado para quedarse.
«El veredicto de Einstein», confió Born, «fue un duro golpe[349]».
Born, junto a Heisenberg, había hecho aportaciones importantes a la interpretación probabilística de la teoría cuántica, y esperaba una reacción más positiva. Adoraba a Einstein y se sintió desamparado, como si le hubiera traicionado un líder al que veneraba. Otros se sintieron igual, y solo con profundo dolor pudieron rechazar las ideas de Einstein, quien pronto se encontraría prácticamente solo en su oposición a la teoría cuántica, cantando, como él decía, «mi pequeña canción solitaria» y sintiendo que debía ser «bastante raro visto desde afuera[350] ». En 1949, unos veinte años después de su carta inicial rechazando el trabajo de Born y a solo seis años de su muerte, le escribió una vez más a Born para decirle: «Se me suele ver como una especie de objeto petrificado, a quien los años han dejado ciego y sordo. Pero es un papel que no me desagrada, pues se corresponde bastante bien con mi temperamento[351]».
La teoría cuántica se creó mediante una concentración de capacidad científica en Europa central que superó o al menos rivalizó con cualquiera de las constelaciones intelectuales que hemos encontrado en nuestro periplo por los siglos. La innovación comienza en el entorno físico y social adecuado, y por eso el hecho de que quienes vivían en tierras lejanas contribuyeran poco no es ningún accidente: espoleados por avances técnicos que revelaron un aluvión de fenómenos nuevos relacionados con el átomo, los físicos teóricos que tuvieron la suerte de formar parte de la comunidad de aquella época y lugar intercambiaron ideas y observaciones sobre aspectos del universo que se nos revelaban por primera vez en la historia de la humanidad. Fue un tiempo mágico en Europa, con el cielo iluminado por un destello tras otro de imaginación, hasta que comenzó a percibirse el contorno de un nuevo dominio de la naturaleza.
La mecánica cuántica nació del sudor y el genio de muchos científicos que trabajaban en un pequeño grupo de países, intercambiando ideas y discutiendo, pero todos aliados por su pasión y dedicación al mismo objetivo. Sin embargo, tanto las alianzas como los conflictos de aquellas grandes mentes se verían pronto eclipsados por el caos y la brutalidad de lo que iba a suceder en su continente. Las estrellas de la física cuántica no tardarían en verse dispersadas como naipes servidos en una mala mano.
El principio del fin se produjo en enero de 1933, cuando el mariscal de campo Paul von Hindenburg, el presidente de Alemania, nombró canciller a Adolf Hitler. Aquella misma noche, en la gran ciudad universitaria de Gotinga donde Heisenberg, Born y Jordan habían colaborado para resolver la mecánica de Heisenberg, nazis uniformados desfilaron por las calles portando antorchas y agitando esvásticas, entonando canciones patrióticas y escarneciendo a los judíos. A los pocos meses, los nazis celebraban ceremonias de quema de libros por todo el país y proclamaban una purga de académicos no arios en las universidades. De repente, muchos de los intelectuales alemanes más estimados se vieron forzados a abandonar sus casas o, como mi padre, el sastre de Polonia, que no tenía esa opción, permanecer y afrontar una amenaza nazi cada vez mayor. Se estima que en un plazo de cinco años habían huido casi dos mil científicos destacados a causa de su ascendencia o de sus creencias políticas.
Del ascenso de Hitler, sin embargo, Heisenberg al parecer observó, con gran júbilo: «Ahora al menos tenemos orden, se ha puesto fin a las agitaciones y tenemos una mano fuerte gobernando Alemania para bien de Europa[352]».
Desde su adolescencia, Heisenberg se había sentido insatisfecho con la dirección que tomaba la sociedad alemana. Incluso había participado en un grupo de juventudes nacionalistas que mezclaban largas excursiones por la naturaleza con discusiones alrededor de una hoguera en las que censuraban la decadencia moral de Alemania y la pérdida de una tradición y un propósito común. Como científico, intentaba estar por encima de la política, pero al parecer veía en Hitler una mano fuerte que podía restablecer la grandeza de la Alemania anterior a la primera guerra mundial.
Sin embargo, la nueva física que Heisenberg había defendido, que incluso había ayudado a inventar, había de irritar a Hitler. En el siglo XIX, los físicos alemanes habían establecido su primacía y prestigio mediante la recolección y análisis de datos. Como es natural, se planteaban y analizaban hipótesis matemáticas, pero ese no solía ser el centro de atención de los físicos. Durante las primeras décadas del siglo XX, sin embargo, la física teórica floreció como disciplina, y, como hemos visto, alcanzó un éxito sorprendente. Los nazis, sin embargo, la despreciaron por considerarla demasiado especulativa y matemáticamente abstrusa. Como el arte «degenerado» que tanto odiaban, la veían repugnantemente surrealista y abstracta. Y lo peor de todo era que en buena parte era la obra de científicos de herencia judía (Einstein, Born, Bohr, Pauli).
Los nazis llegaron a llamar a las nuevas teorías (la relatividad y la teoría cuántica), «física judía». Así que no solo estaban equivocados, también eran degenerados, y los nazis les prohibieron que enseñaran en sus universidades. El propio Heisenberg fue hostigado porque había trabajado en la «física judía» y con físicos judíos. Los ataques encolerizaron a Heisenberg, quien, a pesar de recibir numerosas ofertas en prestigiosas instituciones del extranjero, había permanecido en Alemania, leal a su gobierno, y había hecho todo lo que el Tercer Reich le había pedido.
Heisenberg intentó resolver sus problemas apelando directamente a Heinrich Himmler, el jefe de la Schutzstaffel (las SS) y el hombre que se encargaría de construir los campos de concentración. Su madre y la de Himmler se conocían desde hacía años, y Heisenberg aprovechó esa conexión para hacerle llegar una carta a Himmler. Este respondió con una intensa investigación de ocho meses que finalizó con la declaración de Himmler: «Creo que Heisenberg es decente, y no podemos permitirnos perder o silenciar a este hombre, que es relativamente joven y puede educar a una nueva generación [353]».
Heisenberg, a cambio, se mostró de acuerdo en repudiar a los creadores judíos de la física judía, y a evitar pronunciar sus nombres en público.
En cuanto a los otros pioneros destacados del cuanto, Rutherford se encontraba entonces en Cambridge. Allí ayudó a fundar y presidió una organización para asistir a los refugiados académicos. Murió en 1937, con sesenta y tres años, por retrasar una operación de hernia que al final se estranguló. Dirac, quien había llegado a ser profesor Lucasiano en Cambridge (la cátedra que habían ocupado Newton y Babbage, y que más tarde ocuparía Hawking), trabajó durante algún tiempo en cuestiones relevantes para el proyecto británico de la bomba atómica, y luego fue invitado a trabajar en el proyecto Manhattan, pero declinó la oferta por razones éticas. Pasó sus últimos años en la Universidad Estatal de Florida, en Tallahassee, donde murió en 1984, a los ochenta y dos años de edad. Pauli, que a la sazón era profesor en Zúrich, fue, como Rutherford, director de un proyecto internacional de refugiados, pero cuando estalló la guerra, se le negó la ciudadanía suiza y huyó a Estados Unidos, donde vivía cuando le fue concedido el premio Nobel, poco antes del final de la guerra. En sus últimos años, se fue interesando en el misticismo y la psicología, sobre todo los sueños, y fue uno de los miembros fundadores del Instituto C. G. Jung de Zúrich. Falleció en un hospital de esta ciudad en 1958, a los cincuenta y ocho años, de cáncer de páncreas.
Schrödinger, como Pauli, era austriaco, pero vivía en Berlín cuando Hitler ascendió al poder. Con respecto al Führer, como en tantas otras cosas, fue la antítesis de Heisenberg: fue un abierto opositor del régimen nazi y no tardó en dejar Alemania para ocupar un puesto en Oxford. Poco después recibió el premio Nobel junto a Dirac. Heisenberg, que intentaba mantener unida la física alemana, resintió la partida de Schrödinger, «pues no era judío ni se encontraba en peligro[354]».
Schrödinger, sin embargo, no duró mucho en Oxford. La dificultad surgió porque vivía con su esposa y su amante, a quien había llegado a ver como una segunda esposa. Tal como escribió su biógrafo Walter Moore, en aquella ciudad universitaria «las esposas eran vistas como desafortunados apéndices femeninos… En Oxford tener una esposa era deplorable; tener dos era infame[355]».
Schrödinger acabaría estableciéndose en Dublín. Murió de tuberculosis en 1961, a los setenta y tres años. Había contraído la enfermedad en 1918, mientras luchaba en la primera guerra mundial, y los problemas respiratorios que sufrió desde entonces fueron la razón de su afición por el centro turístico de Arosa, en los Alpes, donde había desarrollado su versión de la teoría cuántica.
Einstein y Born vivían en Alemania cuando Hitler llegó al poder, y emigrar a tiempo era cuestión de vida o muerte a causa de su ascendencia judía. Einstein, que entonces era profesor en Berlín, por casualidad estaba de visita en Caltech, en Estados Unidos, el día que Hitler fue nombrado canciller. Decidió no regresar a Alemania, y nunca más puso un pie en ese país. Los nazis confiscaron sus propiedades personales, quemaron sus obras sobre la relatividad y pusieron a su cabeza una recompensa de cinco mil dólares. Pero no le habían pillado desprevenido: cuando partieron para California, Einstein le había pedido a su esposa que le echara una buena mirada a su casa. «No volverás a verla nunca», le dijo. Ella pensó que decía una tontería [356].
Einstein se convirtió en ciudadano de Estados Unidos en 1940, pero también retuvo su ciudadanía suiza. Murió en 1955 y fue llevado a un crematorio en el que se habían congregado doce amigos cercanos. Tras un breve memorial, su cuerpo fue incinerado y sus cenizas se esparcieron en un lugar no revelado, pero un patólogo del Hospital Princeton había extraído su cerebro, que se ha venido estudiando desde entonces. Lo que queda de él se custodia en el Museo Nacional de Salud y Medicina que el ejército de Estados Unidos alberga en Silver Spring, en el estado de Maryland [357].
Born, que tenía prohibido enseñar y estaba preocupado por el continuo acoso a sus hijos, también buscó de inmediato la manera de abandonar Alemania. Heisenberg se esforzó mucho porque Born fuese eximido de la prohibición de trabajar para quienes no fuesen arios, pero en julio de 1933 Born marchó con la ayuda de la organización de refugiados de Pauli para ocupar una plaza en Cambridge, y más tarde se mudaría a Edimburgo.

33.jpg
Pioneros de la teoría cuántica en el V Congreso Internacional Solvay sobre Electrones y Fotones, celebrado en Bruselas en 1927. Atrás: Schrödinger (sexto por la izquierda), Pauli (octavo), Heisenberg (noveno). En medio: Dirac (quinto), Born (octavo), Bohr (noveno). Delante: Planck (segundo), Einstein (quinto).

Tras pasarle de largo el premio Nobel cuando Heisenberg lo ganó en 1932 (por un trabajo que habían hecho juntos), fue finalmente galardonado con el premio Nobel en 1954. Murió en 1970. En la lápida de su tumba se halla inscrito el epitafio

«pq – qp = h/2πi»,

una de las ecuaciones más famosas de la teoría cuántica, un enunciado matemático que sería el fundamento del principio de incertidumbre de Heisenberg, que él y Dirac descubrieron de manera independiente[XXIV].
Bohr, que vivía en Dinamarca, donde dirigía el que hoy se llama Instituto Niels Bohr, se mantuvo durante algún tiempo un poco más protegido de las acciones de Hitler, y ayudó a refugiados científicos judíos a encontrar trabajo en Estados Unidos, Gran Bretaña y Suecia.
Pero en 1940 Hitler invadió Dinamarca, y en otoño de 1943 Bohr supo por el embajador sueco en Copenhague que se enfrentaba a un arresto inmediato como parte del plan de deportar a todos los judíos daneses. Lo cierto es que los nazis pretendían arrestarlo el mes anterior, pero creyeron que levantaría menos escándalo si esperaban hasta el auge de los arrestos en masa. Ese retraso salvó a Bohr, que huyó con su mujer a Suecia. Al día siguiente, Bohr se encontró con el rey Gustavo V y lo convenció para que públicamente ofreciera asilo a refugiados judíos.
Bohr, sin embargo, corría peligro de ser raptado. Suecia estaba abarrotada de agentes alemanes, y aunque estaba alojado en un lugar secreto, sabían que estaba en Estocolmo. Pronto Winston Churchill le hizo saber a Bohr que los británicos lo evacuarían, y fue empaquetado sobre un colchón en el compartimento de bombas de un de Havilland Mosquito, un bombardero rápido sin armamento que podía eludir los cazas alemanes. Durante el camino, Bohr se desmayó por falta de oxígeno, pero llegó vivo, vestido todavía con la ropa que llevaba cuando dejó Dinamarca. Su familia llegó más tarde. Desde Inglaterra, Bohr huyó a Estados Unidos, donde se convirtió en consejero del proyecto Manhattan. Al acabar la guerra regresó a Copenhague, donde murió en 1962, a los setenta y siete años de edad.
De los grandes teóricos del cuanto, solo Planck, Heisenberg y Jordan permanecieron en Alemania. Jordan, al igual que el gran experimentador Geiger, fue un nazi entusiasta. Se convirtió en uno de los tres millones de guardias de asalto del ejército alemán y llevó con orgullo su uniforme pardo con botas militares y brazalete con esvástica[358].
Intentó interesar al Partido Nazi en varios planes de armamento avanzado, pero irónicamente, a causa de su implicación en la «física judía», fue ignorado. Tras la guerra, entró en política y consiguió un escaño en el Bundestag, el Parlamento alemán. Murió en 1980, a los setenta y siete años, siendo el único de aquellos pioneros que no recibió el premio Nobel.
Planck no sentía ninguna simpatía por los nazis, pero tampoco hizo mucho para resistirlos, ni que fuera calladamente. Como Heisenberg, al parecer se marcó como prioridad preservar la ciencia alemana hasta donde fuera posible, pero siempre cumpliendo con las leyes y normativas nazis [359].
Tuvo una reunión con Hitler en mayo de 1933 con la intención de disuadirlo de las políticas de persecución de judíos en la academia alemana, pero naturalmente la reunión no cambió nada. Años más tarde, el hijo más joven de Planck, con quien se sentía muy próximo, intentó cambiar el Partido Nazi con coraje: formó parte del complot para asesinar a Hitler el 20 de julio de 1944. Arrestado con los otros, fue torturado y ejecutado por la Gestapo. Para Planck fue la trágica culminación de una vida llena de tragedias. De sus cinco hijos, otros tres habían muerto jóvenes: su hijo mayor había muerto en acción durante la primera guerra mundial, y dos hijas murieron durante el parto. Pero al parecer fue la ejecución de su hijo lo que finalmente apagó el deseo de vivir de Planck. Murió dos años más tarde, con ochenta y nueve años.
Heisenberg, a pesar de su inicial entusiasmo, se fue volviendo contra los nazis. Aun así, mantuvo posiciones científicas elevadas durante todo el Tercer Reich y cumplió con sus deberes sin rechistar. Cuando los judíos fueron despedidos de las universidades, hizo todo lo que pudo para conservar los físicos alemanes atrayendo a los mejores sustitutos. Nunca se unió al Partido Nazi, pero permaneció en su puesto y nunca rompió con el régimen.
Cuando en 1939 los alemanes iniciaron su proyecto de bomba atómica, Heisenberg se puso a trabajar en él con gran energía [360].
No tardó en acabar los cálculos que demostraban que la reacción en cadena de fisión nuclear era posible y que el uranio-235 puro, un isótopo raro, podía ser un buen explosivo. Una de las muchas ironías de la historia es que los primeros éxitos bélicos de Alemania podrían haber sellado su eventual derrota, pues al principio el régimen no dedicó recursos suficientes al proyecto de la bomba atómica porque la guerra le iba muy bien, y para cuando se volvieron las tornas ya era demasiado tarde: los nazis fueron derrotados antes de poder construirla.
Acabada la guerra, Heisenberg fue retenido brevemente por los aliados junto a otros nueve destacados científicos alemanes. Tras su liberación, volvió a trabajar en cuestiones fundamentales de física, en reconstruir la ciencia alemana y en rehabilitar su reputación entre los científicos de fuera de su patria. Heisenberg murió en su casa de Múnich el 1 de febrero de 1976, sin haber recobrado nunca el estatus del que había gozado.
Las reacciones encontradas de la comunidad de físicos hacia Heisenberg después de la guerra quedan quizá bien reflejadas en mi propio comportamiento. En 1973, siendo todavía un estudiante, tuve la oportunidad de ir a una conferencia que pronunciaba en Harvard sobre el desarrollo de la teoría cuántica, no conseguí reunir las fuerzas para asistir. Sin embargo, años más tarde, cuando gozaba de una beca Alexander von Humboldt en el instituto que él había dirigido, solía pararme junto a la oficina que había ocupado para reflexionar sobre aquel espíritu que había ayudado a inventar la mecánica cuántica.
Aunque la teoría cuántica desarrollada por los grandes pioneros del cuanto no altera nuestra descripción de la física del mundo macroscópico, ha revolucionado nuestras vidas, provocando un cambio en la sociedad humana tan ingente como el de la Revolución industrial. Las leyes de la teoría cuántica subyacen a todas las tecnologías de la información y la comunicación que han remodelado la sociedad moderna: el ordenador, la internet, los satélites, los teléfonos móviles y toda la electrónica. Pero igual de importante que sus aplicaciones prácticas es lo que la teoría cuántica nos dice sobre la naturaleza y sobre la ciencia.
El triunfalismo de la visión del mundo newtoniana había prometido que con los cálculos matemáticos adecuados podríamos predecir y explicar todos los fenómenos de la naturaleza, y habían tentado a científicos de todas las disciplinas a intentar «newtonizarlas». Los físicos cuánticos de la primera mitad del siglo XX cercenaron esas aspiraciones y desvelaron una verdad que nos empodera pero también es una lección de humildad. Nos empodera porque la teoría cuántica demuestra que podemos entender y manipular un mundo invisible más allá de nuestra experiencia. Y una lección de humildad porque durante miles de años el progreso realizado por científicos y filósofos sugería que nuestra capacidad para entender era infinita, y ahora la naturaleza nos habla a través de los grandes descubrimientos de los físicos cuánticos para decirnos que existen límites a lo que podemos conocer y controlar. Más aún, el cuanto nos recuerda que pueden existir otros mundos invisibles, que el universo es un lugar de extraordinario misterio y que, aleteando en la raya del horizonte, puede haber fenómenos inexplicables que exigirán nuevas revoluciones en el pensamiento y la teoría.
En estas páginas hemos realizado un periplo de millones de años, comenzando por las primeras especies humanas, muy diferentes de nosotros física y mentalmente. En este viaje de cuatro millones de años solo entramos en la era actual en el último instante, y en ella hemos aprendido las leyes que rigen la naturaleza, pero también que hay más en esas leyes de lo que experimentamos en nuestra existencia cotidiana, hay más cosas en el cielo y en la tierra, como le decía Hamlet a Horacio, que lo que sueña nuestra filosofía.
Nuestro conocimiento seguirá aumentando en el futuro previsible, y dado el crecimiento exponencial de la gente que se dedica a la ciencia, parece razonable creer que los próximos siglos nos traerán avances mayores que el último milenio. Pero quien lea este libro sabrá que en las preguntas que nos hacemos sobre nuestro entorno hay mucho más que los aspectos técnicos: los humanos vemos la belleza en la naturaleza, y buscamos en ella un sentido, un significado. No nos basta con saber cómo funciona el universo; queremos saber cómo encajamos en él. Queremos darle un contexto a nuestras vidas y a nuestra existencia finita, sentirnos conectados con otros humanos, con sus alegrías y tristezas, y con el vasto cosmos en el que esas alegrías y esas tristezas desempeñan un papel minúsculo.
Entender y aceptar nuestro lugar en el universo puede ser difícil, pero desde un principio ha sido una de las metas de quienes estudian la naturaleza, desde los primeros griegos, que consideraban la ciencia, junto a la metafísica, la ética y la estética, una rama de la filosofía, hasta pioneros como Boyle y Newton, que abordaron el estudio de la naturaleza como un medio para entender la naturaleza de Dios. Para mí, la conexión entre las ideas y descubrimientos sobre el mundo físico y el mundo humano se me manifestó con especial claridad un día en Vancouver, en el plató del programa de televisión MacGyver. Había escrito el episodio que estaban rodando y estaba dando instrucciones a los diseñadores del plató y a los encargados de los decorados acerca del aspecto que debía tener un laboratorio de física de bajas temperaturas. De repente, en medio de todas aquellas mundanales disquisiciones técnicas, me vi abocado por primera vez a afrontar el hecho de que los humanos no estamos por encima de la naturaleza, que venimos y marchamos como las flores o los pinzones de Darwin.
Todo comenzó cuando me pasaron una llamada telefónica desde la oficina de producción. En aquellos días, antes de que todos tuviéramos teléfono móvil desde los doce años, recibir una llamada en un plató era inusual, y normalmente me pasaban los mensajes horas después, escritas de cualquier manera en un trozo de papel. Mensajes como Leonard: «ilegible» quiere que «ilegible» ¡Dice que es urgente! Llámale al «ilegible». Esta vez era diferente. Esta vez un ayudante de producción me trajo el teléfono.
Al otro extremo de la conexión había un médico del hospital de la Universidad de Chicago. Me informó de que mi padre había sufrido un ictus y se encontraba en coma; era un efecto retardado de la operación a la que se había sometido meses antes para reparar la aorta. Al caer la noche ya estaba en el hospital, mirando a mi padre, que reposaba sobre su espalda con los ojos cerrados y aspecto plácido. Me senté junto a él y le acaricié el pelo. Lo noté caliente y vivo, como si estuviera dormido, como si fuera a despertarse en cualquier momento, sonreír al verme, alargar la mano para tocarme, preguntarme si querría compartir con él un poco de pan de centeno con unos arenques en escabeche para el desayuno.
Hablé con mi padre. Le dije cuánto lo quería, igual que se lo diría muchos años más tarde, cuando se presentaba la ocasión, a mis hijos dormidos. Pero el doctor me recordó que mi padre no estaba dormido, no podía oír mi voz. Me explicó que los registros de su actividad cerebral indicaban que estaba muerto. El cuerpo caliente de mi padre era, al parecer, como el laboratorio de física de MacGyver: una fachada, una bonita forma por fuera, pero solo una cáscara, incapaz de realizar ninguna función con significado. El médico me dijo que la presión sanguínea de mi padre iría cayendo de manera gradual, que su respiración se haría más lenta, hasta morir.
En aquel momento odié la ciencia. Deseaba que me demostrasen que se equivocaba. ¿Quiénes son los científicos y los doctores para decirnos el destino de un ser humano? Hubiera dado cualquier cosa, o todo, para tener de vuelta a mi padre, para tenerlo ni que fuera un día más, una hora, un minuto siquiera, para decirle cuánto lo quería, para decirle adiós. Pero el final llegó exactamente como el doctor me dijo que pasaría.
Corría el año 1988 y mi padre tenía setenta y seis años. Tras su muerte, nuestra familia celebró el «shiva», el periodo de duelo de siete días durante el cual se reza tres veces al día y no se sale de la casa. Toda mi vida me había sentado en la sala de estar y había hablado con él, pero ahora, mientras me sentaba allí, él solo era un recuerdo, y sabía que nunca más volvería a hablar con él. Gracias al periplo intelectual de la humanidad, sabía que sus átomos no habían muerto con él, que ahora se dispersarían. Su organización en el ser que conocía como mi padre había desaparecido y no volvería a existir nunca, salvo como una sombra en mi mente y en las mentes de otros que lo amaron. Y sabía que, en unas pocas décadas, también a mí me pasaría lo mismo.

34.jpg
Mi padre, el día que le propuso matrimonio a mi madre, Nueva York, 1951.

Para mi sorpresa, sentía en ese momento que lo que había aprendido gracias al esfuerzo humano por comprender el mundo físico no me había tornado insensible; al contrario, me había hecho fuerte. Me ayudaba a erguirme sobre mi propia zozobra, a sentirme menos solo porque formaba parte de algo mayor. Me abría los ojos a la prodigiosa belleza de nuestra existencia, de los años que nos son concedidos. Aunque nunca había ido al instituto, mi padre también había sentido una gran estimación y curiosidad por la naturaleza del mundo físico. En una ocasión, en una de aquellas conversaciones de sala de estar de mi juventud, le había dicho que algún día escribiría un libro sobre eso. Por fin, décadas más tarde, este es el libro.

Epílogo

Hay un viejo acertijo sobre un monje que un día deja su monasterio al amanecer para subir a un templo situado en la cima de una alta montaña [361].
El ascenso solo se puede hacer por un único sendero angosto que serpentea hasta la cima, y a veces es lento porque en algunos tramos es pendiente, pero el monje llega al templo antes de anochecer. A la mañana siguiente, desciende por el mismo sendero, otra vez partiendo al alba, y también en este caso llega a su monasterio a la puesta del sol. La pregunta es: ¿hay algún punto del trayecto por el que pase exactamente en el mismo momento al subir y al bajar? No se trata de identificar el punto, solo de decir si existe o no.
Este no es uno de esos acertijos que se basan en un truco, en información camuflada o en una nueva interpretación de alguna palabra. No hay ningún altar a lo largo del sendero donde el monje rece cada día a la hora del ángelus, nada que necesitemos saber sobre la velocidad de su ascenso o su descenso, ningún detalle que haya que suponer para resolver el acertijo. No es tampoco el tipo de acertijo que nos dice que un carnicero mide metro ochenta y luego nos pregunta por lo que pesa, y la respuesta es «carne». No, la situación en este acertijo es bastante directa, y la mayoría entiende en una primera lectura todo lo que necesita para dar con la respuesta.
Hay que pensarlo un poco, porque el éxito en la resolución de este acertijo, como en hallar la respuesta a muchas de las preguntas que se han hecho los científicos a lo largo de los siglos, puede depender de la paciencia y la persistencia. Pero de manera aún más directa, como saben todos los buenos científicos, depende de la capacidad de plantearse la pregunta de la manera adecuada, de coger distancia y ver el problema desde un ángulo un poco distinto. Cuando se hace así, la respuesta es fácil. Lo difícil es encontrar ese ángulo de visión. Por eso la física de Newton y la tabla periódica de Mendeleev o la relatividad de Einstein requirieron personas de gran intelecto y originalidad para crearlas y, sin embargo, cuando se explican bien, puede entenderlas cualquier universitario que estudie física o química. Y por eso lo que deja perpleja a una generación se convierte en conocimiento común para las que la siguen, lo cual permite a los científicos escalar alturas cada vez mayores.
Para encontrar la solución al acertijo del monje, en lugar de imaginar el monje que sube la montaña un día y la baja al siguiente, podemos hacer un experimento mental y visualizar el problema de otro modo. Imaginemos que hay dos monjes, uno que asciende y otro que desciende, y ambos parten al amanecer del mismo día. Es evidente que se cruzarán durante el camino. El punto en el que se cruzan es el lugar al que el monje del acertijo llegará al mismo tiempo los dos días. Así que la respuesta al acertijo es «sí».
Que el monje llegue a algún punto concreto del camino al mismo tiempo durante el ascenso y durante el descenso puede parecer una coincidencia improbable. Pero en cuanto uno libera su mente para considerar la fantasía de dos monjes que ascienden y descienden el mismo día, vemos que no es una coincidencia: es inevitable.
En cierto modo, el progreso del conocimiento humano ha sido posible gracias a una serie de fantasías como esa, cada una creada por alguien que fue capaz de mirar el mundo de un modo ligeramente diferente. Galileo imaginó la caída de objetos en un mundo teórico libre de la resistencia del aire. Dalton imaginó cómo podrían reaccionar los elementos para formar compuestos si estuviesen hechos de átomos invisibles. Heisenberg imaginó que el dominio de los átomos está regido por extrañas leyes que no se parecen en nada a las que experimentamos en nuestra vida diaria. Un extremo del espectro del pensamiento fantástico lleva la etiqueta de «chiflado», el otro la de «visionario». Fue gracias a los más firmes esfuerzos de una larga sucesión de pensadores cuyas ideas se originaron en diversos puntos entre estos dos extremos que nuestra comprensión del cosmos ha progresado hasta donde está hoy.
Si he alcanzado mi objetivo, las páginas anteriores habrán impartido una apreciación de las raíces del pensamiento humano acerca del mundo físico, de los tipos de preguntas de las que se ocupan quienes lo estudian, de la naturaleza de las teorías y de la investigación y de las diversas formas en que la cultura y los sistemas de creencias afectan a esas indagaciones. Eso es importante para comprender muchas de las cuestiones sociales, profesionales y morales de nuestro tiempo. Pero buena parte de este libro ha tratado también de la manera de pensar de los científicos y otros innovadores.
Hace veinticinco siglos, Sócrates comparó a una persona que pasa por la vida sin pensar de forma crítica y sistemática con un artesano, por ejemplo un ceramista, que practica su artesanía sin seguir los procedimientos adecuados[362]. Hacer cerámica puede parecer fácil, pero no lo es. En tiempos de Sócrates, requería procurarse la arcilla de una cantera al sur de Atenas, colocarla sobre un torno fabricado para ese propósito, hacerlo girar a la velocidad justa para el diámetro de la pieza que se quisiera hacer, y trabajarla con la esponja, la espátula y el cepillo para luego esmaltarla, secarla y cocerla dos veces en un horno, cada vez a la temperatura y humedad precisas. Apartarse de cualquiera de estos procedimientos produce cerámica deforme, agrietada, descolorida o simplemente fea. El pensamiento eficiente, decía Sócrates, también es una artesanía, y merece la pena hacerlo bien. Al fin y al cabo, todos sabemos de gente que lo ha aplicado mal y ha creado una vida deforme o tristemente deficiente.
Somos pocos los que estudiamos los átomos o la naturaleza del espacio y el tiempo, pero todos formamos teorías sobre el mundo en el que vivimos y las usamos como guía en el trabajo y en el ocio, y cuando decidimos cómo invertir, qué comida es saludable e incluso qué nos hace felices. También, como los científicos, en la vida todos tenemos que innovar. Eso puede implicar simplemente decidir qué hacer para cenar cuando tenemos poco tiempo o energía, improvisar una presentación cuando hemos perdido las notas y los ordenadores no funcionan, o algo tan crucial para nuestra vida como saber cuándo abandonar el lastre mental del pasado y cuándo aferrarse a las tradiciones que nos sostienen.
La propia vida, sobre todo la vida moderna, nos plantea desafíos intelectuales análogos a los que afrontan los científicos, aunque no los veamos como tales. Por eso, de todas las lecciones que se puedan extraer de esta aventura, tal vez las más importantes sean aquellas que exponen el carácter de los científicos de éxito, el pensamiento flexible y no convencional, el acercamiento paciente, la falta de lealtad a lo que otros creen, el valor de cambiar las propias perspectivas y la fe en que hay respuestas y podemos encontrarlas.
¿En qué punto se encuentra nuestro conocimiento del universo? El siglo XX fue testigo de grandes progresos en todos los frentes. En cuanto los físicos resolvieron el acertijo del átomo e inventaron la teoría cuántica, esos avances hicieron que otros fuesen posibles, y el ritmo del descubrimiento científico se hizo más frenético.
Ayudados por nuevas tecnologías cuánticas como el microscopio electrónico, el láser y el ordenador, los químicos han logrado entender la naturaleza del enlace químico y el papel que desempeña la forma de las moléculas en las reacciones químicas. Por otro lado, la tecnología para crear y utilizar esas reacciones también se ha disparado. A mediados de siglo, el mundo se había remodelado completamente. Libres de nuestra dependencia de las sustancias de la naturaleza, aprendimos a crear desde cero nuevos materiales artificiales y a alterar materiales antiguos para nuevos usos. Plásticos, nilón, poliéster, acero endurecido, goma vulcanizada, petróleo refinado, fertilizantes químicos, desinfectantes, antisépticos, agua clorada, una lista inacabable gracias a la cual aumentó la producción de alimentos, cayó la mortalidad y nuestra esperanza de vida se disparó.
Al mismo tiempo, los biólogos hacían grandes progresos en su comprensión del funcionamiento de las células como máquinas moleculares, descifrando el modo en que se transmite la información genética de una generación a otra y describiendo el mapa genético de nuestra propia especie. Hoy podemos analizar fragmentos de ADN obtenidos de fluidos corporales para identificar misteriosos agentes infecciosos. Podemos insertar secciones de ADN en organismos existentes para crear organismos nuevos. Podemos colocar fibras ópticas en el cerebro de ratas y controlarlas como si fueran robots. Y podemos sentarnos frente a un ordenador y ver cómo los cerebros de otras personas forman pensamientos, o experimentan sentimientos. En algunos casos incluso podemos leer sus pensamientos.
Pero aunque hemos llegado lejos, casi con certeza es erróneo pensar que nos hallamos cerca de ninguna respuesta final. Creerlo así es una equivocación que se ha cometido durante toda la historia. En tiempos antiguos, los babilonios estaban seguros de que la Tierra se había creado a partir del cadáver de la diosa del mar, Tiamat. Miles de años más tarde, después de que los griegos realizaran enormes progresos en nuestro conocimiento de la naturaleza, la mayoría se sentían igualmente seguros de que todos los objetos del mundo terrestre estaban formados por una combinación de tierra, agua, aire y fuego. Y dos milenios más tarde, los newtonianos creían que todo lo que ha ocurrido u ocurrirá, desde el movimiento de los átomos hasta las órbitas de los planetas, podía explicarse en principio y predecirse con la ayuda de las leyes del movimiento de Newton. Todas estas eran fervientes convicciones. Todas eran erróneas.
Vivamos en el tiempo en que vivamos, los humanos tendemos a pensar que nos encontramos en la cima del conocimiento, que aunque las creencias de quienes nos precedieron fuesen erróneas, nuestras respuestas son las correctas y nunca serán desplazadas como lo fueron las suyas. Los científicos, incluso los más grandes, no son menos propensos a esta forma de soberbia que cualquier otra persona. Como muestra, la afirmación de Stephen Hawking en la década de 1980 de que al acabar el siglo los físicos tendrían una «teoría del todo».
¿Nos encontramos hoy, como Hawking sugería hace unas décadas, a punto de dar respuesta a todas nuestras preguntas fundamentales sobre la naturaleza? ¿O nos hallamos más bien en una situación como la de finales del siglo XIX, y las teorías que hoy nos parecen ciertas no tardarán en ser reemplazadas por algo completamente distinto?
Hay más de unos pocos nubarrones en el horizonte de la ciencia que indican que podríamos encontrarnos en este último escenario. Los biólogos todavía no saben cuándo ni cómo se originó la vida en la Tierra, o hasta qué punto es probable que se haya originado en otros planetas como el nuestro. Desconocen las ventajas selectivas que impulsaron el desarrollo evolutivo de la reproducción sexual. Y lo que tal vez sea más importante, no saben cómo produce el cerebro las experiencias de la mente.
También la química tiene grandes preguntas sin resolver, desde el misterio de cómo forman las moléculas de agua los enlaces de hidrógeno con sus vecinas que dan lugar a las mágicas propiedades de ese líquido vital, hasta la forma en que las largas cadenas de aminoácidos se pliegan para formar las precisas y enrevesadas proteínas que son vitales para la vida. Sin embargo, es en la física donde se encuentran los problemas potencialmente más explosivos. En la física, las preguntas abiertas tienen el potencial de obligarnos a revisar todo lo que sabemos ahora sobre los aspectos más fundamentales de la naturaleza.
Por ejemplo, aunque hemos construido un exitoso «modelo estándar» de las fuerzas y la materia que unifica el electromagnetismo y las dos fuerzas nucleares, casi nadie cree que ese modelo pueda aceptarse como la última palabra. Una de sus mayores deficiencias es que excluye la gravedad. El otro es que tiene muchos parámetros ajustables (fudge factors, es decir, amaños) que se fijan en función de mediciones experimentales pero no se pueden explicar por ninguna teoría más general. Por otro lado, los avances en la teoría de cuerdas/teoría-M, que en otro tiempo prometían resolver esos dos desafíos, parecen haberse estancado, poniendo en duda las altas esperanzas que algunos físicos habían depositado en ella.
Además, sospechamos que el universo que podemos ver con los más potentes instrumentos de que disponemos no es más que una pequeña fracción de lo que hay ahí fuera, como si la mayor parte de la creación fuese un fantasmagórico inframundo destinado a seguir siendo un misterio, al menos durante algún tiempo. Dicho de forma más rigurosa, la materia y la energía ordinarias que detectamos con nuestros sentidos y en nuestros laboratorios no parecen constituir más que un 5% de la materia y la energía del universo, mientras que un tipo de materia nunca vista ni detectada que conocemos como «materia oscura» y un tipo de energía que nunca hemos visto ni detectado que llamamos «energía oscura» constituyen el resto.
Los físicos postulan la existencia de la materia oscura porque la materia que podemos ver en el espacio parece estar siendo atraída por una gravedad de origen desconocido. La energía oscura es igual de misteriosa. La popularidad de la idea proviene de un descubrimiento de 1998 que nos dice que el universo se está expandiendo a un ritmo acelerado. Ese fenómeno se podía explicar con la teoría de la gravedad de Einstein (la relatividad general), que permite la posibilidad de que el universo esté penetrado por una forma exótica de energía que ejerce un efecto «antigravitatorio». Pero todavía está por descubrir el origen y la naturaleza de esa «energía oscura».
¿Encajarán la materia oscura y la energía oscura en nuestras teorías actuales, el modelo estándar y la relatividad de Einstein? ¿O acaso, como la constante de Planck, nos conducirán algún día a una concepción del universo completamente distinta? ¿Resultará ser cierta la teoría de cuerdas o, en caso contrario, descubriremos alguna vez una teoría unificada de todas las fuerzas de la naturaleza, libre de factores de ajuste? Nadie lo sabe. De todas las razones por las que desearía vivir para siempre, conocer la respuesta a esas preguntas está entre las primeras de mi lista. Supongo que es eso lo que me convierte en un científico.

Agradecimientos

Durante los años en los que finalmente me puse a escribir estas ideas, gocé del privilegio del conocimiento y perspicacia de muchos amigos y estudiosos de varios aspectos de la ciencia y su historia, y de otros que leyeron partes de diversos borradores del manuscrito y me ofrecieron críticas constructivas. Estoy en deuda especialmente con Ralph Adolphs, Todd Brun, Jed Buchwald, Peter Graham, Cynthia Harrington, Stephen Hawking, Mark Hillery, Michelle Jaffe, Tom Lyon, Stanley Oropesa, Alexéi Mlodinow, Nicolái Mlodinow, Olivia Mlodinow, Sandy Perliss, Markus Pössel, Beth Rashbaum, Randy Rogel, Fred Rose, Pilar Ryan, Erhard Seiler, Michael Shermer y Cynthia Taylor. También estoy en deuda con mi agente y amiga, Susan Ginsburg, por sus consejos sobre el contenido del libro y todos los aspectos de la edición, y, no menos importante, por las fabulosas cenas regadas con vino durante las cuales me ofreció sus consejos. Otra persona que me ayudó enormemente fue mi paciente editor, Edward Kastenmeier, que me ofreció valiosas críticas y sugerencias durante la evolución de esta obra. Vaya mi agradecimiento también a Dan Frank, Emily Giglierano y Annie Nichol de Penguin Random House, y a Stacy Testa de Writer's House, por su ayuda y consejos. Por último, estoy muy en deuda con mi otra editora, la que estaba disponible veinticuatro horas al día, mi esposa, Donna Scott. Leyó sin desmayo un borrador tras otro, párrafo a párrafo, ofreciendo profundas y valiosas ideas y sugerencias, y no poco aliento, acompañado también de vino, pero (casi) nunca de impaciencia. Este libro se fue gestando en mi mente desde que, siendo niño, empecé a hablar de ciencia con mi padre. Siempre se mostró interesado en lo que tenía que explicar y me brindó en respuesta la sabiduría que nacía de sus experiencias. Quiero pensar que de haber vivido para ver este libro, lo habría tenido en gran aprecio.
Notas al pie de página:
[I] En inglés, la letra griega «pi» se pronuncia igual que «pie», tarta. (N. del t.)
[II] Para quienes prefieran la precisión a la fruta, añadiré que el encéfalo de Homo habilis era la mitad del nuestro.
[III] El término técnico es felino de dientes de sable.
[IV] En inglés, la palabra «shun» (evitar) suena más o menos igual que la terminación «-tion» (-ción). Un ejemplo en castellano sería usar el símbolo de la palabra «mente» para representar la terminación «-mente». (N. del t.)
[V] Después, los alumnos eran frotados con aceite. Siempre he pensado que ofrecer esa opción sería una buena manera de aumentar mi popularidad entre los estudiantes; lamentablemente, tendría el efecto contrario sobre la administración de la universidad.
[VI] El periodo medieval se extiende desde el año 500 d. C. hasta 1500 (o, según algunas definiciones, 1600). En cualquier caso comprende, con cierta superposición, la era entre los logros culturales del imperio romano y el florecimiento de la ciencia y el arte en el Renacimiento. Fue un tiempo que algunos en el siglo XIX repudiaron como «mil años si tomar un baño».
[VII] Manifestaba, sin embargo, cierta simpatía por una versión de las ideas de Copérnico que había desarrollado un astrónomo (y astrólogo) alemán, Johannes Kepler, sobre todo porque respaldaba su propia teoría sobre las mareas (que atribuía, incorrectamente, a la acción del Sol). Con todo, cuando Kepler le pidió a Galileo que hablara en su apoyo, Galileo rehusó.
[VIII] De hecho, aunque a Galileo se le prohibió enseñar el copernicanismo, se le permitió proseguir con su trabajo y usar un telescopio durante sus años de arresto domiciliario.
[IX] Para ser precisos, son la base del cálculo diferencial. Existe también el proceso inverso: el cálculo integral. El término «cálculo», usado solo, suele englobar a los dos.
[X] Técnicamente, el crecimiento de una población y los precios del mercado de valores, que son cantidades discretas y no continuas, no se rigen por el cálculo, pero a menudo estos sistemas se aproximan como si fuesen continuos.
[XI] Descubrí que mi padre había estado en la Resistencia no por él, sino porque vi su nombre en un libro sobre el tema que encontré en la biblioteca de la universidad. Sólo entonces comencé a preguntarle por sus experiencias.
[XII] Para los alquimistas, una cal (latín calx) era cualquier óxido de un metal, la escoria que quedaba después de calcinarlo. (N. del t.)
[XIII] En inglés, el nombre de la compañía está traducido como Company of General Farmers, donde «farmer» no tiene su significado habitual (agricultor o granjero), sino el de recaudador de impuestos. Lo mismo ocurre con el nombre de la compañía en francés: la palabra ferme, que significa firme y también granja, se refiere aquí al acuerdo del Antiguo Régimen por el cual cedía a un grupo privado el derecho a recaudar impuestos. (N. del t.)
[XIV] «Oxígeno» significa «generador de ácido», un nombre que Lavoisier escogió porque el oxígeno estaba en todos los ácidos cuya composición conocía.
[XV] Por una ironía, en 1913 se supo que un busto de mármol de Condorcet de tamaño natural que había sido donado a la Sociedad Filosófica Americana de Filadelfia había resultado no ser de Condorcet, ¡sino de Lavoisier!
[XVI] El autor se refiere a la cronología bíblica elaborada por el arzobispo anglicano James Ussher. (N. del t.)
[XVII] Robert Chambers, un editor de publicaciones periódicas populares de Edimburgo, fue identificado oficialmente como autor del libro en 1884, trece años después de su muerte, pero Darwin ya lo sospechaba desde una reunión que habían mantenido en 1847.
[XVIII] Planck a menudo es citado erróneamente como si hubiera dicho una versión más concisa: «La ciencia avanza de funeral en funeral».
[XIX] Sommerfeld fue un importante pionero de la física cuántica; Meitner hizo muchos descubrimientos, entre ellos la fisión; Dyson fue crucial para el desarrollo de la teoría cuántica del electromagnetismo; y Gamow, Dicke y Peebles explicaron y predijeron la radiación cósmica de fondo de microondas, pero el premio por ello se le concedió a Arno Penzias y Robert Wilson, que lo detectaron accidentalmente pero no sabían qué habían encontrado.
[XX] Como Mendeléyev, sin embargo, Meitner obtuvo el reconocimiento de la Unión Internacional de la Química Pura y Aplicada, que en 1997 dio al elemento 109 el nombre de meitnerio. Meitner había fallecido en 1968.
[XXI] Además de Mendeléyev, Bohr, Rutherford y Lise Meitner (a quienes ya he mencionado en el texto), hay doce científicos más en cuyo honor se ha dado nombre a elementos: Vasili Samarsky-Bykhovets (samario), Johan Gadolin (gadolinio), Marie Skłodowska-Curie y Pierre Curie (curio), Albert Einstein (einstenio), Enrico Fermi (fermio), Alfred Nobel (nobelio), Ernest Lawrence (lawrencio), Glenn T. Seaborg (seaborgio), Wilhelm Röntgen (roentgenio), Nicolaus Copernicus (copernicio) y Gueorgui Fliórov (flerovio).
[XXII] Irónicamente, Lindemann había hecho sus pinitos en física, aunque sin demasiado éxito. Es más conocido como el hombre que demostró que la «cuadratura del círculo» no es posible, es decir, que con solamente una regla y un compás no se puede construir un cuadrado con la misma área que un círculo dado.
[XXIII] Técnicamente, el principio de incertidumbre (o de indeterminación) restringe nuestro conocimiento de la posición y el momento (la cantidad de movimiento), que es la masa multiplicada por la velocidad, pero para nuestros propósitos la distinción no es importante.
[XXIV] Me enorgullece constatar que el linaje de mi tesis doctoral se remonta a Max Born. La secuencia es ésta: Born / J. Robert Oppenheimer (que fue director del proyecto Manhattan) / Willis Lamb (ganador del premio Nobel y uno de los descubridores del láser) / Norman Kroll (realizó contribuciones fundamentales a la teoría de la luz y los átomos) / Eyvind Wichmann (mi director de doctorado, una figura importante en la física matemática).

Notas al final:
[1] Alvin Toffler, Future Shock, Random House, Nueva York, 1970, p. 26 (hay trad. cast.: El «shock» del futuro, Plaza & Janés, Barcelona, 1999).
[2] «Chronology: Reuters, from Pigeons to Multimedia Merger», Reuters, 19 de febrero de 2008, consultado el 27 de octubre de 2014, http://www.reuters.com/article/2008/02/19/us-reuters-thomson-chronology-idUSL1849100620080219
[3] Toffler, Future Shock, p. 13.
[4] Albert Einstein, Einstein's Essays in Science, Wisdom Library, Nueva York, 1934, p. 112.
[5] Maureen A. O'Leary et al., «The Placental Mammal Ancestor and the Post-K-Pg Radiation of Placentals», Science, 339 (8 de febrero de 2013), pp. 662-667.
[6] Julian Jaynes, The Origin of Consciousness in the Breakdown of the Bicameral Mind, Houghton Mifflin, Boston, 1976, p. 9.
[7] Sobre la historia de Lucy y su significación, véase Donald C. Johanson, Lucy's Legacy, Three Rivers Press, Nueva York, 2009. Véase también Douglas S. Massey, «A Brief History of Human Society: The Origin and Role of Emotion in Social Life», American Sociological Review, 67 (2002), pp. 1-29.
[8] B. A. Wood, «Evolution of Australopithecines», en Stephen Jones, Robert D. Martin y David R. Pilbeam (eds.), The Cambridge Encyclopedia of Human Evolution, Cambridge University Press, Cambridge, 1994, p. 239.
[9] Carol. V. Ward et al., «Complete Fourth Metatarsal and Arches in the Foot of Australopithecus afarensis», Science, 331 (11 de febrero de 2011), pp. 750-753.
[10] 4 × 106 años = 2 × 105 generaciones; 2 × 105 casas × 30 metros de fachada por casa ÷ 1.000 metros por kilómetro = 6.000 km.
[11] James E. McClellan III y Harold Dorn, Science and Technology in World History, 2.ª ed., Johns Hopkins University Press, Baltimore, 2006, pp. 6-7.
[12] Javier DeFelipe, «The Evolution of the Brain, the Human Nature of Cortical Circuits, and Intellectual Creativity», Frontiers in Neuroanatomy, 5 (mayo 2011), pp. 1-17.
[13] Stanley H. Ambrose, «Paleolithic Technology and Human Evolution», Science, 291 (2 de marzo 2001), pp. 1748-1753.
[14] «What Does It Mean to Be Human?», Smithsonian Museum of Natural History, consultado el 27 de octubre de 2014, www.humanorigins.si.edu.
[15] Johann De Smedt et al., «Why the Human Brain Is Not an Enlarged Chimpanzee Brain», en H. Høgh-Olesen, J. Tønnesvang y P. Bertelsen (eds.), Human Characteristics: Evolutionary Perspectives on Human Mind and Kind, Newcastle upon Tyne, Cambridge Scholars, 2009, pp. 168-181.
[16] Ambrose, «Paleolothic Technology and Human Evolution», pp. 1748-1753.
[17] R. Peeters et al., «The Representation of Tool Use in Humans and Monkeys: Common and Uniquely Human Features», Journal of Neuroscience, 29 (16 de septiembre de 2009), pp. 11523-11539; Scott H. Johnson-Frey, «The Neural Bases of Complex Tool Use in Humans», TRENDS in Cognitive Sciences, 8 (febrero de 2004), pp. 71-78.
[18] Richard P. Cooper, «Tool Use and Related Errors in Ideational Apraxia: The Quantitative Simulation of Patient Error Profiles», Cortex, 43 (2007), p. 319; Johnson-Frey, «The Neural Bases», pp. 71-78.
[19] Johanson, Lucy's Legacy, pp. 192-93.
[20] Ibíd., p. 267.
[21] András Takács-Sánta, «The Major Transitions in the History of Human Transformation of the Biosphere», Human Ecology Review, 11 (2004), pp. 51-77. Algunos investigadores creen que el comportamiento humano moderno apareció antes, en África, y luego llegó a Europa con una segunda migración fuera de aquel continente. Véase, por ejemplo, David Lewis-Williams y David Pearce, Inside the Neolithic Mind, Thames and Hudson, Londres, 2005 (hay trad. cast.: Dentro de la mente neolítica: conciencia, cosmos y el mundo de los dioses, Akal, Madrid, 2014), p. 18; Johanson, Lucy's Legacy, pp. 257-262.
[22] Robin I. M. Dunbar y Suzanne Shultz, «Evolution in the Social Brain», Science, 317 (7 de septiembre de 2007), pp. 1344-1347.
[23] Christopher Boesch y Michael Tomasello, «Chimpanzee and Human Cultures», Current Anthropology, 39 (1998), pp. 591-614.
[24] Lewis Wolpert, «Causal Belief and the Origins of Technology», Philosophical Transactions of the Royal Society A, 361 (2003), pp. 1709-1719.
[25] Daniel J. Povinelli y Sarah Dunphy-Lelii, «Do Chimpanzees Seek Explanations? Preliminary Comparative Investigations», Canadian Journal of Experimental Psychology, 55 (2001), pp. 185-193.
[26] Frank Lorimer, The Growth of Reason, K. Paul, Londres, 1929; citado en Arthur Koestler, The Act of Creation, Penguin, Londres, 1964, p. 616.
[27] Dwight L. Bolinger, ed., Intonation: Selected Readings, Penguin, Harmondsworth, 1972, p. 314; Alan Cruttenden, Intonation, Cambridge University Press, Cambridge, 1986, pp. 169-117 (hay trad. cast.: Entonación, cultura general lingüística, Teide, Barcelona, 1991).
[28] Laura Kotovsky y Renee Baillargeon, «The Development of Calibration-Based Reasoning About Collision Events in Young Infants», Cognition, 67 (1998), pp. 313-351.
[29] James E. McClellan III y Harold Dorn, Science and Technology in World History, 2.ª ed., Johns Hopkins University Press, Baltimore, 2006, pp. 9-12.
[30] Muchos de estos desarrollos habían tenido precursores en grupos nómadas más antiguos, pero las tecnologías no habían florecido porque los productos no encajaban con su modo de vida. Véase McClellan y Dorn, Science and Technology, pp. 20-21.
[31] Jacob L. Weisdorf, «From Foraging to Farming: Explaining the Neolithic Revolution», Journal of Economic Surveys, 19 (2005), pp. 562-586; Elif Batuman, «The Sanctuary», The New Yorker, 19 de diciembre de 2011, pp. 72-83.
[32] Marshall Sahlins, Stone Age Economics, Aldine Atherton, Nueva York 1972, pp. 1-39 (hay trad. cast.: Economía de la Edad de Piedra , Akal, Madrid, 1983).
[33] Ibíd., 21-22.
[34] Andrew Curry, «Seeking the Roots of Ritual», Science, 319 (8 de enero de 2008), pp. 278-280; Andrew Curry, «Gobekli Tepe: The World's First Temple?», Smithsonian Magazine, noviembre de 2008, consultado el 7 de noviembre de 2014, http://www.smithsonianmag.com/history-archaeology/gobekli-tepe.html; Charles C. Mann, «The Birth of Religion», National Geographic, junio de 2011, pp. 34-59; Batuman, «The Sanctuary».
[35] Batuman, «The Sanctuary».
[36] Michael Balter, «Why Settle Down? The Mystery of Communities», Science, 20 (noviembre de 1998), pp. 1442-1446.
[37] Curry, «Gobekli Tepe».
[38] McClellan y Dorn, Science and Technology, pp. 17-22.
[39] Balter, «Why Settle Down?», pp. 1442-1446.
[40] Marc Van De Mieroop, A History of the Ancient Near East, Blackwell, Malden, 2007, p. 21. Véase también Balter, «Why Settle Down?», pp. 1442-1446.
[41] Balter, «Why Settle Down?», pp. 1442-1446; David Lewis-Williams y David Pearce, Inside the Neolithic Mind, Thames and Hudson, Londres, 2005, pp. 77-78 (hay trad. cast.: Dentro de la mente neolítica, Akal, Madrid, 2014).
[42] Ian Hodder, «Women and Men at Çatalhöyük», Scientific American, enero de 2004, p. 81.
[43] Ian Hodder, «Çatalhöyük in the Context of the Middle Eastern Neolithic», Annual Review of Anthropology, 36 (2007), pp. 105-120.
[44] Anil K. Gupta, «Origin of Agriculture and Domestication of Plants and Animals Linked to Early Holocene Climate Amelioration», Current Science, 87 (10 de julio de 2004); Van De Mieroop, History of the Ancient Near East, p. 11.
[45] L. D. Mlodinow y N. Papanicolaou, «SO (2, 1). Algebra and the Large N Expansion in Quantum Mechanics», Annals of Physics, 128 (1980), pp. 314-334; L. D. Mlodinow y N. Papanicolaou, «Pseudo-Spin Structure and Large N Expansion for a Class of Generalized Helium Hamiltonians», Annals of Physics, 131 (1981), pp. 1-35; Carl Bender, L. D. Mlodinow y N. Papanicolaou, «Semiclassical Perturbation Theory for the Hydrogen Atom in a Uniform Magnetic Field», Physical Review A, 25 (1982), pp. 1305-1314.
[46] Jean Durup, «On the 1986 Nobel Prize in Chemistry», Laser Chemistry, 7 (1987), pp. 239-259. Véase también D. J. Doren y D. R. Herschbach, «Accurate Semiclassical Electronic Structure from Dimensional Singularities», Chemical Physics Letters, 118 (1985), pp. 115-119; J. G. Loeser y D. R. Herschbach, «Dimensional Interpolation of Correlation Energy for Two-Electron Atoms», Journal of Physical Chemistry, 89 (1985), pp. 3444-3447.
[47] Andrew Carnegie, James Watt, Doubleday, Nueva York, 1933, pp. 45-64.
[48] T. S. Eliot, The Sacred Wood and Major Early Essays, Dover Publications, Nueva York, 1997, p. 72. Primera edición de 1920 (hay trad. cast.: El bosque sagrado, C. de Langre, Madrid, 2004).
[49] Gergely Csibra y György Gergely, «Social Learning and Cognition: The Case for Pedagogy», en Y. Munakata y M. H. Johnson (eds.), Processes in Brain and Cognitive Development, Oxford University Press, Oxford, 2006, pp. 249-274.
[50] Christophe Boesch, «From Material to Symbolic Cultures: Culture in Primates», en Juan Valsiner (ed.), The Oxford Handbook of Culture and Psychology, Oxford University Press, Oxford, 2012, pp. 677-692. Véase también Sharon Begley, «Culture Club », Newsweek, 26 de marzo de 2001, pp. 48-50.
[51] Boesch, «From Material to Symbolic Cultures». Véase también Begley, «Culture Club»; Bennett G. Galef Jr., «Tradition in Animals: Field Observations and Laboratory Analyses», en Marc Bekoff y Dale Jamieson (eds.), Interpretation and Explanation in the Study of Animal Behavior, Westview Press, Oxford, 1990.
[52] Boesch, «From Material to Symbolic Cultures». Véase también Begley, «Culture Club».
[53] Heather Pringle, «The Origins of Creativity», Scientific American (marzo 2013), pp. 37-43 (hay trad. cast.: «Los orígenes de la creatividad», Investigación y Ciencia, mayo de 2013).
[54] Michael Tomasello, The Cultural Origins of Human Cognition, Harvard University Press, Cambridge, Massachusetts, 2001, pp. 5-6, 36-41.
[55] Fiona Coward y Matt Grove, «Beyond the Tools: Social Innovation and Hominin Evolution», PaleoAnthropology (número especial, 2011), pp. 111-129.
[56] Jon Gertner, The Idea Factory: Bell Labs and the Great Age of American Knowledge, Penguin, Nueva York, 2012, pp. 41-42.
[57] Pringle, «Origins of Creativity», pp. 37-43.
[58] Robert Burton, en The Anatomy of Melancholy (1621, hay trad cast.: Anatomía de la melancolía, Alianza, Madrid, 2013); George Herbert, en Jacula Prudentum (1651); William Hicks, en Revelation Revealed (1659); Shnayer Z. Leiman, «Dwarfs on the Shoulders of Giants», Tradition, primavera de 1993. Al parecer, el uso de la frase se remonta al siglo XII.
[59] Marc Van De Mieroop, A History of the Ancient Near East, Blackwell, Malden, 2007, pp. 21-23.
[60] Ibíd., pp. 12-13, 23.
[61] Algunos estudiosos estiman la población en hasta 200 000 habitantes. Por ejemplo, véase James E. McClellan III y Harold Dorn, Science and Technology in World History, 2.ª ed., Johns Hopkins University Press, Baltimore, 2006, p. 33.
[62] Van De Mieroop, History of the Ancient Near East, pp. 24-29.
[63] McClellan y Dorn, Science and Technology in World History, pp. 41-42.
[64] David W. Anthony, The Horse, the Wheel, and Language: How Bronze-Age Riders from the Eurasian Steppes Shaped the Modern World, Princeton University Press, Princeton, 2010, p. 61.
[65] Van De Mieroop, History of the Ancient Near East, p. 26.
[66] Marc Van De Mieroop, The Ancient Mesopotamian City, Oxford University Press, Oxford, 1997, pp. 46-48.
[67] Van De Mieroop, History of the Ancient Near East, pp. 24, 27.
[68] Elizabeth Hess, Nim Chimpsky, Bantam Books, Nueva York, 2008, pp. 240-241.
[69] Susana Duncan, «Nim Chimpsky and How He Grew», Nueva York, 3 de diciembre de 1979, p. 84. Véase también Hess, Nim Chimpsky, p. 22.
[70] T. K. Derry y Trevor I. Williams, A Short History of Technology, Oxford University Press, Oxford, 1961, pp. 214-215 (hay trad. cast.: Historia de la tecnología, Siglo XXI, Madrid, 1990).
[71] Steven Pinker, The Language Instinct: How the Mind Creates Language, Harper Perennial, Nueva York, 1995, p. 26 (hay trad. cast.: El instinto del lenguaje: cómo la mente construye el lenguaje, Alianza, Madrid, 2012).
[72] Georges Jean, Writing: The Story of Alphabets and Scripts, Henry N. Abrams, Nueva York, 1992, p. 69.
[73] Jared Diamond, Guns, Germs and Steel, W. W. Norton, Nueva York, 1997, pp. 60, 218 (hay trad. cast.: Armas, gérmenes y acero, Debate, Barcelona, 2007). En cuanto al Nuevo Mundo, véase María del Carmen Rodríguez Martínez et al., «Oldest Writing in the New World»,Science, 313 (5 de septiembre 2006), pp. 1610-1614; John Noble Wilford, «Writing May Be Oldest in Western Hemisphere», New York Times, 15 de septiembre de 2006. Éstos describen un bloque de un sistema de escritura hasta ahora desconocido que se ha descubierto recientemente en el centro olmeca de Veracruz, en México. Las dataciones estilísticas y de otro tipo sitúan el bloque a principios del primer milenio a. C., el más antiguo del Nuevo Mundo, con rasgos que atribuyen firmemente este crucial desarrollo a la civilización olmeca de Mesoamérica.
[74] Patrick Feaster, «Speech Acoustics and the Keyboard Telephone: Rethinking Edison's Discovery of the Phonograph Principle», ARSC Journal 38, n.º 1 (primavera de 2007), pp. 10-43; Diamond, Guns, Germs and Steel, p. 243.
[75] Jean, Writing: The Story of Alphabets, pp. 12-13.
[76] Van De Mieroop, History of the Ancient Near East, pp. 30-31.
[77] Ibíd., p. 30; McClellan y Dorn, Science and Technology in World History, p. 49.
[78] Jean, Writing: The Story of Alphabets, p. 14.
[79] Derry y Williams, A Short History of Technology, p. 215
[80] Stephen Bertman, Handbook to Life in Ancient Mesopotamia, Facts on File, Nueva York, 2003, pp. 148, 301.
[81] McClellan y Dorn, Science and Technology in World History, p. 47; Albertine Gaur, A History of Writing, Charles Scribner's Sons, Nueva York, 1984, p. 150 (hay trad. cast.: Historia de la escritura, Fundación Germán Sánchez Ruipérez, Madrid, 1990).
[82] Sebnem Arsu, «The Oldest Line in the World», New York Times, 14 de febrero de 2006, p. 1.
[83] Andrew Robinson, The Story of Writing, Thamesand Hudson, Nueva York, 1995, pp. 162-167 (hay trad. cast.: Historia de la escritura , Destino, Barcelona, 1996).
[84] Derry y Williams, A Short History of Technology, p. 216.
[85] San Agustín, De Genesi ad Litteram, finalizado en 415 d. C. (hay trad. cast.: Interpretación literal del Génesis, EUNSA, Navarra, 2006).
[86] Morris Kline, Mathematics in Western Culture, Oxford University Press, Oxford, 1952, p. 11.
[87] Ann Wakeley et al., «Can Young Infants Add and Subtract?», Child Development, p. 71 (noviembre-diciembre de 2000), pp. 1525-1534.
[88] Morris Kline, Mathematical Thought from the Ancient to Modern Times, vol. 1, Oxford University Press, Oxford, 1972, pp. 184-186, 259-260 (hay trad. cast.: Pensamiento matemático de la antigüedad a nuestros días, Alianza, Madrid, 1992).
[89] Kline, Mathematical Thought, pp. 19-21.
[90] Roger Newton, From Clockwork to Crapshoot, Belknap Press of the Harvard University Press, Cambridge, Massachusetts, 2007, p. 6.
[91] Edgar Zilsel, «The Genesis of the Concept of Physical Law», The Philosophical Review, 3, n.º 51 (mayo de 1942), p. 247.
[92] Robert Wright, The Evolution of God, Little, Brown, Nueva York, 2009, pp. 71-89
[93] Joseph Needham, «Human Laws and the Lawsof Nature in China and the West, Part I», Journal of the History of Ideas, p. 12 (enero de 1951), p. 18.
[94] Wright, Evolution of God, pp. 87-88.
[95] «Code of Hammurabi, c. 1780 BCE», Internet Ancient History Sourcebook, Fordham University, marzo de 1998, consultado el 27 de octubre de 2014, http://www.fordham.edu/halsall/ancient/hamcode.asp; «Law Code of Hammurabi, King of Babylon», Department of Near Eastern Antiquities: Mesopotamia, the Louvre, consultado el 27 de octubre 2014, http://www.louvre.fr/en/oeuvre-notices/law-code-hammurabi-king-babylon; Mary Warner Marien y William Fleming, Fleming's Arts and Ideas, Thomson Wadsworth, Belmont, Calif., 2005, p. 8.
[96] Needham, «Human Laws and the Laws of Nature», pp. 3-30.
[97] Zilsel, «The Genesis of the Concept of Physical Law», p. 249.
[98] Daniel C. Snell, Life in the Ancient Near East, Yale University Press, New Haven, Connecticut, 1997, pp. 140-141.
[99] A. A. Long, «The Scope of Early Greek Philosophy», en A. A. Long (ed.), The Cambridge Companion to Early Greek Philosophy, Cambridge University Press, Cambridge, 1999.
[100] Albert Einstein a Maurice Solovine, 30 de marzo de 1952, Letters to Solovine, Philosophical Library, Nueva York, 1987, p. 117.
[101] Albert Einstein, «Physics and Reality» en Ideas and Opinions, trad. Sonja Bargmann, Bonanza, Nueva York, 1954, p. 292 (hay trad. cast.: Mis ideas y opiniones, Bosch, Barcelona, 2011).
[102] Will Durant, The Life of Greece, Simon and Schuster, Nueva York, 1939, p. 134-140; James E. McClellan III y Harold Dorn, Science and Technology in World History, 2.ª ed., Johns Hopkins University Press, Baltimore, 2006, pp. 56-59.
[103] Adelaide Glynn Dunham, The History of Miletus: Down to the Anabasis of Alexander, University of London Press, Londres, 1915.
[104] Durant, The Life of Greece, pp. 136-137.
[105] Rainer Maria Rilke, Letters to a Young Poet, 1929, Dover, Nueva York, 2002, p. 21 (hay trad. cast.: Cartas a un joven poeta, Alianza, Madrid, 2006).
[106] Durant, The Life of Greece, pp. 161-166; Peter Gorman, Pythagoras: A Life, Routledge and Kegan Paul, Londres, 1979 (hay trad. cast.: Pitágoras, Crítica, Barcelona, 1988).
[107] Carl Huffman, «Pythagoras», Stanford Encyclopedia of Philosophy, otoño de 2011, consultada el 28 de octubre de 2014, http://plato.stanford.edu/entries/pythagoras.
[108] McClellan y Dorn, Science and Technology, pp. 73-76.
[109] Daniel Boorstin, The Seekers, Vintage, Nueva York, 1998, p. 54.
[110] Ibíd., p. 316.
[111] Ibíd., p. 55.
[112] Ibíd.
[113] Ibíd., p. 48.
[114] Véase George J. Romanes, «Aristotle as a Naturalist», Science, 17 (6 de marzo de 1891), pp. 128-133.
[115] Boorstin, The Seekers, p. 47.
[116] «Aristotle», The Internet Encyclopedia of Philosophy, consultada el 7 de noviembre de 2014, http://www.iep.utm.edu.
[117] Morris Kline, Mathematical Thought from Ancient to Modern Times, vol. 1, Oxford University Press, Oxford, 1972, p. 179.
[118] Kline, Mathematical Thought, p. 204; J. D. Bernal, Science in History, vol. 1, MIT Press, Cambridge, Massachusetts, 1971, p. 254.
[119] Kline, Mathematical Thought, p. 211.
[120] David C. Lindberg, The Beginnings of Western Science: The European Scientific Tradition in Philosophical, Religious, and Institutional Context, 600 B.C. to A.D. 1450 , University of Chicago Press, Chicago, 1992, pp. 180-181.
[121] Toby E. Huff, The Rise of Early Modern Science: Islam, China, and the West, Cambridge University Press, Cambridge, 1993, p. 74.
[122] Ibíd., p. 77, 89. Huff y George Saliba discrepan sobre el origen y la naturaleza de la ciencia islámica, especialmente sobre el papel de la astronomía, lo que ha suscitado en la disciplina un debate productivo y estimulante. Para saber más sobre los argumentos de Saliba, véase su obra Islamic Science and the Making of the European Renaissance, MIT Press, Cambridge, Massacusetts, 2007.
[123] Para saber más sobre la situación, véase Huff, Rise of Early Modern Science, pp. 276-278.
[124] Bernal, Science in History, p. 334.
[125] Lindberg, Beginnings of Western Science, pp. 203-205.
[126] J. H. Parry, Age of Reconnaissance: Discovery, Exploration, and Settlement, 1450-1650, University of California Press, Berkeley, 1982. Véase especialmente la Parte 1.
[127] Huff, Rise of Early Modern Science, p. 187.
[128] Lindberg, Beginnings of Western Science, pp. 206-208.
[129] Huff, Rise of Early Modern Science, p. 92.
[130] John Searle, Mind, Language, and Society: Philosophy in the Real World, Basic Books, Nueva York, 1999, p. 35 (hay trad. cast.: Mente, lenguaje y sociedad: la filosofía en el mundo real, Alianza, Madrid, 2004).
[131] Más información sobre las condiciones durante el siglo XIV en Robert S. Gottfried, The Black Death, Free Press, Nueva York, 1985, p. 29.
[132] Para un examen amplio y ameno de la historia de la concepción del tiempo, véase David Landes, Revolution in Time: Clocks and the Making of the Modern World, Belknap Press of the Harvard University Press, Cambridge, Massachusetts, 1983.
[133] Lindberg, Beginnings of Western Science, pp. 303-304.
[134] Clifford Truesdell, Essays in the History of Mechanics, Verlag, Nueva York, 1968.
[135]] Albert Einstein, en una carta fechada el 7 de enero de 1943, citada en Helen Dukas y Banesh Hoffman, Albert Einstein: The Human Side; New Glimpses from His Archives, Princeton University Press, Princeton, 1979, p. 8.
[136] Galileo Galilei, Discoveries and Opinions of Galileo, Doubleday, Nueva York, 1957, pp. 237-238.
[137] Henry Petroski, The Evolution of Useful Things, Knopf, Nueva York, 1992, pp. 84-86.
[138] James E. McClellan III y Harold Dorn, Science and Technology in World History, 2.ª ed., Johns Hopkins University Press, Baltimore, 2006, pp. 180-182.
[139] Elizabeth Eisenstein, The Printing Press as an Agent of Change, Cambridge University Press, Cambridge, 1980, p. 46.
[140] Louis Karpinski, The History of Arithmetic, Russell and Russell, Nueva York, 1965, pp. 68-71; Philip Gaskell, A New Introduction to Bibliography, Clarendon Press, Oxford, 1972, pp. 251-265.
[141] Bernal, Science in History, pp. 334-335.
[142] Mi exposición sobre la vida de Galileo se basa en buena medida en J. L. Heilbron, Galileo, Oxford University Press, Oxford, 2010, y en Stillman Drake, Galileo at Work, University of Chicago Press, Chicago, 1978 (hay trad. cast.: Galileo, Alianza, Madrid, 1991).
[143] Heilbron, Galileo, p. 61.
[144] Galileo podría haber sufrido varios desencantos. William A. Wallace argumenta en su Galileo, the Jesuits, and the Medieval Aristotle (Variorum, Burlington, 1991) que, para prepararse para su plaza de profesor, Galileo podría haberse apropiado de las clases magistrales impartidas por los jesuitas del Colegio Romano entre 1588 y 1590. Wallace también tiene un capítulo titulado «Galileo's Jesuit Connections and Their Influence on His Science» («Las conexiones jesuitas de Galileo y cómo influyeron en su ciencia») en Mordechai Feingold, Jesuit Science and the Republic of Letters, MIT Press, Cambridge, Massachusetts, 2002.
[145] Bernal, Science in History, p. 429.
[146] G. B. Riccioli, Almagestum novum astronomiam (1652), vol. 2, p. 384; Christopher Graney, «Anatomy of a Fall: Giovanni Battista Riccioli and the Story of G», Physics Today (septiembre de 2012), p. 36.
[147] Laura Fermi y Gilberto Bernardini, Galileo and the Scientific Revolution, Basic Books, Nueva York, 1961, p. 125.
[148] Richard Westfall, Force in Newton's Physics, MacDonald, Nueva York, 1971, pp. 1-4. En realidad, Jean Buridan, que había sido maestro de Oresme en París, había enunciado una ley parecida dentro del marco de los estudiosos de Merton, aunque no en absoluto con la claridad con que la enunció Galileo. Véase John Freely, Before Galileo: The Birth of Modern Science in Medieval Europe, Overlook Duckworth, Nueva York, 2012, pp. 162-163.
[149] Westfall, Force in Newton's Physics, pp. 41-42.
[150] Bernal, Science in History, pp. 406-410; McClellan y Dorn, Science and Technology, pp. 208-214.
[151] Bernal, Science in History, p. 408.
[152] Daniel Boorstin, The Discoverers, Vintage, Nueva York, 1983, p. 314.
[153] Freely, Before Galileo, p. 272.
[154] Heilbron, Galileo, pp. 217-220; Drake, Galileo at Work, pp. 252-256.
[155] Heilbron, Galileo, p. 311.
[156] William A. Wallace, «Gallieo's Jesuit Connections and Their Influence on His Science», en Mordechai Feingold (ed.), Jesuit Science and the Republic of Letters, MIT Press, Cambridge, Massachusetts, 2002, pp. 99-112.
[157] Károly Simonyi, A Cultural History of Physics, CRC Press, Boca Raton, Fla., 2012, pp. 198-199.
[158] Heilbron, Galileo, p. 356.
[159] Ibíd.
[160] Drake, Galileo at Work, p. 436.
[161] Pierre Simon Laplace, Théorie Analytique des Probabilités, Ve. Courcier, París, 1812 (hay trad. cast.: Ensayo filosófico sobre las probabilidades, Alianza, Madrid, 1983).
[162] Para entender a sir Isaac Newton en el contexto de las agitaciones de la Inglaterra del siglo XVII, véase Christopher Hill, The World Turned Upside Down: Radical Ideas During the English Revolution, Penguin History, Nueva York, 1984, pp. 290-297.
[163] Richard S. Westfall, Never at Rest, Cambridge University Press, Cambridge, 1980, p. 863. Ésta es la biografía de Newton más acreditada, y me he basado en ella.
[164] Ming-Te Wang et al., «Not Lack of Ability but More Choice: Individual and Gender Differences in Choice of Careers in Science, Technology, Engineering, and Mathematics», Psychological Science, 24 (mayo de 2013), pp. 770-775.
[165] Albert Einstein, «Principles of Research», discurso pronunciado en la Sociedad Física de Berlín, en Albert Einstein, Essays in Science, Philosophical Library, Nueva York, 1934, p. 2.
[166] Westfall, Never at Rest, p. IX.
[167] W. H. Newton-Smith, «Science, Rationality, and Newton», en Marcia Sweet Stayer (ed.), Newton's Dream, McGill University Press, Montreal, 1988, p. 31.
[168] Westfall, Never at Rest, p. 53.
[169] Ibíd., p. 65.
[170] Ibíd., p. 155.
[171] William H. Cropper, Great Physicists: The Life and Times of Leading Physicists from Galileo to Hawking, Oxford University Press, Nueva York, 2004, p. 252.
[172] Westfall, Never at Rest, pp. 70-71, 176-179.
[173] Richard Westfall, The Life of Isaac Newton, Cambridge University Press, Cambridge, 1993, p. 71, 77-81 (hay trad. cast.: Isaac Newton: una vida, Cambridge University Press, Madrid, 2001).
[174] Véase el capítulo «A Private Scholar & Public Servant», en «Footprints of the Lion: Isaac Newton at Work», Cambridge University Library, Newton Exhibition, consultado el 28 de octubre de 2014, www.lib.cam.ac.uk/exhibitions/Footprints_of_the_Lion/private_scholar.html.
[175] W. H. Newton-Smith, «Science, Rationality, and Newton», en Marcia Sweet Stayer (ed.), Newton's Dream, McGill University Press, Montreal, 1988, pp. 31-33.
[176] Richard S. Westfall, Never at Rest, pp. 321-324, 816-817.
[177] Paul Strathern, Mendeleev's Dream, Berkley Books, Nueva York, 2000, p. 32.
[178] Westfall, Never at Rest, p. 368.
[179] He escrito un libro de memorias sobre ese periodo de mi vida; véase Leonard Mlodinow,Feynman's Rainbow: A Search for Beauty in Physics and in Life, Vintage, Nueva York, 2011 (hay trad. cast.: El arco iris de Feynman: la búsqueda de la belleza en la física y en la vida, Crítica, Barcelona, 2004).
[180] Newton-Smith, «Science, Rationality, and Newton», pp. 32-33.
[181] Westfall, Never at Rest, p. 407.
[182] Ibíd., p. 405.
[183] Richard Westfall, Force in Newton's Physics, MacDonald, Nueva York, 1971, p. 463.
[184] Medidos en «pies parisinos», que son 1,0568 pies anglosajones. (N. del t.: En metros, la distancia recorrida se calcula como (1/2) gt2, donde g es la aceleración de la gravedad, 9,80665 m/s2; para un segundo de tiempo, la distancia recorrida será 9,80665/2 o 4,9 metros).
[185] Robert S. Westfall, «Newton and the Fudge Factor», Science, p. 179 (23 de febrero de 1973), pp. 751-758.
[186] Murray Allen et al., «The Accelerations of Daily Living», Spine, (noviembre de 1994), pp. 1285-1290.
[187] Francis Bacon, The New Organon: The First Book, en James Spedding y Robert Leslie Ellis (eds.), The Works of Francis Bacon, Longman, Londres, 1857-1870, consultado el 7 de noviembre de 2014, http://www.bartleby.com/242/ (hay trad. cast.: La gran restauración (Novum Organum), Tecnos, Madrid, 2011).
[188] R. J. Boscovich, Theoria Philosophiae Naturalis, Venecia, 1763, reimpreso con traducción al inglés en A Theory of Natural Philosophy, Open Court Publishing, Chicago, 1922, p. 281.
[189] Westfall, Life of Isaac Newton, p. 193.
[190] Michael White, Rivals: Conflict as the Fuel of Science, Vintage, Londres, 2002, pp. 40-45.
[191] Ibíd.
[192] Westfall, Never at Rest, p. 645.
[193] Daniel Boorstin, The Discoverers, Vintage, Nueva York, 1983, p. 411.
[194] Westfall, Never at Rest, p. 870.
[195] John Emsley, The Elements of Murder: A History of Poison, Oxford University Press, Oxford, 2006, p. 14.
[196] J. L. Heilbron, Galileo, Oxford University Press, Oxford, 2010, p. 360.
[197] «Sir Isaac Newton», Westminster Abbey, consultado el 28 de octubre de 2014, www.westminster-abbey.org/our-history/people/sir-isaac-newton.
[198] Joseph Tenenbaum, The Story of a People, Philosophical Library, Nueva York, 1952, p. 195.
[199] Paul Strathern, Mendeleev's Dream, Berkley Books, Nueva York, 2000, pp. 195-198.
[200] De una entrevista a mi padre que grabé hacia 1980. Tengo muchas horas de aquellas entrevistas que he usado como fuente para las historias que explico aquí.
[201] R. Partington, A Short History of Chemistry, 3.ª ed., Macmillan, Londres, 1957, p. 14.
[202] Rick Curkeet, «Wood Combustion Basics», EPA Workshop, 2 de marzo de 2011, consultado el 28 de octubre de 2014, www.epa.gov/burnwise/workshop2011/WoodCombustion-Curkeet.pdf.
[203] Robert Barnes, «Cloistered Bookworms in the Chicken-Coop of the Muses: The Ancient Library of Alexandria», en Roy MacLeod (ed.), The Library at Alexandria: Centre of Learning in the Ancient World, I. B. Tauris, Nueva York, 2005, p. 73.
[204] Henry M. Pachter, Magic into Science: The Story of Paracelsus, Henry Schuman, Nueva York, 1951, p. 167.
[205] La biografía definitiva de Boyle es: Louis Trenchard More, The Life and Works of the Honorable Robert Boyle, Oxford University Press, Londres, 1944. Véase también William H. Brock, The Norton History of Chemistry, W. W. Norton, Nueva York, 1992, pp. 54-74 (hay trad. cast.: Historia de la química, Alianza, Madrid, 1998).
[206] More, Life and Works, pp. 45, 48.Brock, Norton History of Chemistry, pp. 56-58.
[207] Brock, Norton History of Chemistry, pp. 56-58.
[208] J. D. Bernal, Science in History, vol. 2, MIT Press, Cambridge, Massachusetts, 1971, p. 462.
[209] T. V. Venkateswaran, «Discovery of Oxygen: Birth of Modern Chemistry», Science Reporter, p. 48 (abril de 2011), pp. 34-39.
[210] Isabel Rivers y David L. Wykes (eds.), Joseph Priestley, Scientist, Philosopher, and Theologian, Oxford University Press, Oxford, 2008, p. 33.
[211] Charles W. J. Withers, Placing the Enlightenment: Thinking Geographically About the Age of Reason, University of Chicago Press, Chicago, 2007, pp. 2-6.
[212] J. Priestley, «Observations on Different Kinds of Air», Philosophical Transactions of the Royal Society, 62 (1772), pp. 147-264.
[213] Sobre la vida de Lavoisier, véase Arthur Donovan, Antoine Lavoisier, Blackwell, Oxford, 1993.
[214] Isaac Newton, Opticks, edición de Bernard Cohen, Londres, 1730; Dover, Nueva York, 1952, p. 394 (hay trad. cast.: Óptica, Alfaguara, Barcelona, 1977). Newton publicó su Óptica en 1704, pero sus ideas sobre la materia quedan mejor reflejadas en la cuarta edición, la última que revisó él mismo y que fue publicada en 1730.
[215] Donovan, Antoine Lavoisier, pp. 47-49.
[216] Ibíd., p. 139. Véase también Strathern, Mendeleev's Dream, pp. 225-241.
[217] Douglas McKie, Antoine Lavoisier, J. J. Lippincott, Filadelfia, 1935, pp. 297-298.
[218] J. E. Gilpin, «Lavoisier Statue in Paris», American Chemical Journal, 25 (1901), p. 435.
[219] William D. Williams, «Gustavus Hinrichs and the Lavoisier Monument», Bulletin of the History of Chemistry, 23 (1999), pp. 47-49; R. Oesper, «Once the Reputed Statue of Lavoisier», Journal of Chemistry Education, 22 (1945), portada de octubre; Brock, Norton History of Chemistry, pp. 123-124.
[220] Joe Jackson, A World on Fire, Viking, Nueva York, 2007, p. 335; «Lavoisier Statue in Paris», Nature, 153 (marzo de 1944), p. 311.
[221] «Error in Famous Bust Undiscovered for 100 Years», Bulletin of Photography, 13 (1913), p. 759; y Marco Beretta, Imaging a Career in Science: The Iconography of Antoine Laurent Lavoisier, Science Histories Publications, Sagamore Beach, Massachusetts, 2001, pp. 18-24.
[222] Frank Greenaway, John Dalton and the Atom, Cornell University Press, Ithaca, 1966; Brock, Norton History of Chemistry, pp. 128-160.
[223] A. L. Duckworth et al., «Grit: Perseverance and Passion for Long-Term Goals», Journal of Personality and Social Psychology, 92 (2007), pp. 1087-1101; Lauren Eskreis-Winkler et al., «The Grit Effect: Predicting Retention in the Military, the Workplace, School and Marriage», Frontiers in Psychology, 5 (febrero de 2014), pp. 1-12.
[224] Véase Strathern, Mendeleev's Dream; Brock, Norton History of Chemistry, pp. 311-354.
[225] Kenneth N. Gilpin, «Luther Simjian Is Dead; Held More Than 92 Patents», New York Times, 2 de noviembre de 1997; «Machine Accepts Bank Deposits», New York Times, 12 de abril de 1961, p. 57.
[226] Dmitri Mendeleev, «Ueber die beziehungen der eigenschaften zu den atom gewichten der elemente», Zeitschrift für Chemie, 12 (1869), pp. 405-406.
[227] Anthony Serafini, The Epic History of Biology, Perseus, Cambridge, Massachusetts, 1993, p. 126.
[228] E. Bianconi et al., «An Estimation of the Number of Cells in the Human Body», Annals of Human Biology, 40 (noviembre-diciembre de 2013), pp. 463-471.
[229] Lee Sweetlove, «Number of Species on Earth Tagged at 8.7 Million», Nature, 23 de agosto de 2011.
[230] «The Food Defect Action Levels», Defect Levels Handbook, U.S. Food and Drug Administration, consultado el 28 de octubre de 2014, http: //www.fda.gov/food/guidanceregulation/guidancedocuments regulatory information/ucm056174.htm.
[231] Ibíd.
[232] «Microbiome: Your Body Houses 10x More Bacteria Than Cells», Discover, n.d., consultado el 28 de octubre de 2014, http://discovermagazine.com/galleries/zen-photo/m/microbiome.
[233] Sobre el trabajo de Aristóteles en biología, véase Joseph Singer, A History of Biology to About the Year 1900, Abelard-Schuman, Nueva York, 1959; Lois Magner, A History of the Life Sciences, 3.ª ed., Marcel Dekker, Nueva York, 2002.
[234] Paulin J. Hountondji, African Philosophy, 2.ª ed., Indiana University Press, Bloomington, 1996, p. 16.
[235] Daniel Boorstin, The Discoverers, Vintage, Nueva York, 1983, p. 327 (hay trad. cast.: Los descubridores, Crítica, Barcelona, 1998).
[236] Magner, History of the Life Sciences, p. 144.
[237] Ruth Moore, The Coil of Life, Knopf, Nueva York, 1961, p. 77.
[238] Tita Chico, «Gimcrack's Legacy: Sex, Wealth, and the Theater of Experimental Philosophy», Comparative Drama, 42 (primavera de 2008), pp. 29-49.
[239] Sobre el trabajo de microscopia de Leeuwenhoek, véase Moore, Coil of Life.
[240] Boorstin, The Discoverers, pp. 329-330.
[241] Moore, Coil of Life, p. 79.
[242] Boorstin, The Discoverers, pp. 330-331.
[243] Moore, Coil of Life, p. 81.
[244] Adriana Stuijt, «World's First Microscope Auctioned Off for 312,000 Pounds», Digital Journal, 8 de abril de 2009, consultado el 7 de noviembre de 2014, http://www.digitaljournal.com/article/270683; Gary J. Laughlin, «Editorial: Rare Leeuwenhoek Bids for History», The Microscope, 57 (2009), p. II.
[245] Moore, Coil of Life, p. 87.
[246] «Antony van Leeuwenhoek (1632-1723)», University of California Museum of Paleontology, consultado el 28 de octubre de 2014, http://www.ucmp.berkeley.edu/history/leeuwenhoek.html.
[247] Para la vida de Darwin me he basado sobre todo en Ronald W. Clark, The Survival of Charles Darwin: A Biography of a Man and an Idea, Random House, Nueva York, 1984; Adrian Desmond, James Moore y Janet Browne, Charles Darwin, Oxford University Press, Oxford, 2007 (hay trad. cast.: Charles Darwin, Herder, Barcelona, 2008); y Peter J. Bowler, Charles Darwin: The Man and His Influence, Cambridge University Press, Cambridge, U.K., 1990 (hay trad. cast.: Charles Darwin: el hombre y su influencia, Alianza, Madrid, 1995).
[248] «Charles Darwin», Westminster Abbey, consultado el 28 de octubre de 2014, http://www.westminster-abbey.org/our-history/people/charles-darwin.
[249] Clark, Survival of Charles Darwin, p. 115.
[250] Ibíd., p. 119.
[251] Ibíd., p. 15.
[252] Ibíd., p. 8.
[253] Charles Darwin a W. D. Fox, octubre de 1852, Darwin Correspondence Project, carta 1489, consultada el 28 de octubre de 2014, http://www.darwinproject.ac.uk/letter/entry-1489.
[254] Clark, Survival of Charles Darwin, p. 10.
[255] Ibíd., p. 15.
[256] Ibíd., p. 27.
[257] Bowler, Charles Darwin: The Man, 50, pp. 53-55.
[258] Charles Darwin a W. D. Fox, 9-12 de agosto, 1835, Darwin Correspondence Project, carta 282, consultada el 28 de octubre de 2014, http://www.darwinproject.ac.uk/letter/entry-282.
[259] Desmond, Moore y Browne, Charles Darwin, p. 25, 32-34.
[260] Ibíd., p. 42.
[261] Bowler, Charles Darwin, p. 73.
[262] Adrian J. Desmond, Darwin, W. W. Norton, Nueva York, 1994, pp. 375-385.
[263] Escrito de Charles Darwin en recuerdo de Anne Elizabeth Darwin, «The Death of Anne Elizabeth Darwin», consultado el 28 de octubre de 2014, http://www.darwinproject.ac.uk/death-of-anne-darwin.
[264] Desmond, Moore y Browne, Charles Darwin, p. 44.
[265] Ibíd., p. 47.
[266] Ibíd., p. 48.
[267] Ibíd., p. 49.
[268] Anónimo [David Brewster], «Review of Vestiges of the Natural History of Creation», North British Review, 3 (mayo-agosto de 1845), p. 471.
[269] Evelleen Richards, «"Metaphorical Mystifications": The Romantic Gestation of Nature in British Biology», en Andrew Cunningham y Nicholas Ardine (eds.), Romanticism and the Sciences, Cambridge University Press, Cambridge, 1990, p. 137.
[270] «Darwin to Lyell, June 18, 1858», en Francis Darwin (ed.), The Life and Letters of Charles Darwin, Including an Autobiographical Chapter, John Murray, Londres, 1887, disponible en http://darwin-online.org.uk/converted/published/1887_Letters_F1452/1887_Letters_ F1452.2.html, consultado el 28 de octubre de 2014.
[271] Desmond, Darwin, p. 470.
[272] Desmond, Moore y Browne, Charles Darwin, p. 65
[273] Bowler, Charles Darwin, pp. 124-125.
[274] Clark, Survival of Charles Darwin, pp. 138-139.
[275] Desmond, Moore y Browne, Charles Darwin, p. 107.
[276] Véase Magner, History of the Life Sciences, pp. 376-395.
[277] Darwin a Alfred Russel Wallace, julio de 1881, citada en Bowler, Charles Darwin, p. 207.
[278] En 2013, los científicos lograron por fin dar un paso más y «ver» moléculas durante una reacción. Véase Dimas G. de Oteyza et al., «Direct Imaging of Covalent Bond Structure in Single-Molecule Chemical Reactions», Science, 340 (21 de junio de 2013), pp. 1434-1437.
[279] Niels Blaedel, Harmony and Unity: The Life of Niels Bohr, Springer Verlag, Nueva York, 1988, p. 37.
[280] John Dewey, «What Is Thought?», en How We Think, Heath, Lexington, Massachusetts, 1910, p. 13.
[281] Barbara Lovett Cline, The Men Who Made a New Physics, University of Chicago Press, Chicago, 1965, p. 34. Véase J. L. Heilbron, The Dilemmas of an Upright Man, Harvard University Press, Cambridge, Massachusetts, 1996, p. 10.
[282] Buena parte de lo que presento sobre Planck está extraído de Heilbron, Dilemmas of an Upright Man. Véase también Cline, The Men Who Made a New Physics, pp. 31-64.
[283] Heilbron, Dilemmas of an Upright Man, p. 3.
[284] Ibíd., p. 10.
[285] Ibíd., p. 5.
[286] Leonard Mlodinow y Todd A. Brun, «Relation Between the Psychological and Thermodynamic Arrows of Time», Physical Review E, 89 (2014), pp. 052102-052110.
[287] Heilbron, Dilemmas of an Upright Man, p. 14.
[288] Ibíd., p. 12; Cline, The Men Who Made a New Physics, p. 36.
[289] Richard S. Westfall, Never at Rest, Cambridge University Press, Cambridge, 1980, p. 462.
[290] Ibíd.
[291] La cita original, que a menudo se presenta de forma errónea, es «Eine neue wissenschaftliche Wahrheit pflegt sich nicht in der Weise durchzusetzen, daß ihre Gegner überzeugt werden und sich als belehrt erklären, sondern vielmehr dadurch, daß ihre Gegner allmählich aussterben und daß die heranwachsende Generation von vornherein mit der Wahrheit vertraut gemacht ist». Apareció en Wissenschaftliche Selbstbiographie: Mit einem Bildnis und der von Max von Laue gehaltenen Traueransprache, Johann Ambrosius Barth Verlag, Leipzig, 1948, p. 22. La traducción del original en inglés es de Max Planck, Scientific Autobiography and Other Papers, trad. de F. Gaynor, Philosophical Library, 1949, pp. 33-34.
[292] John D. McGervey, Introduction to Modern Physics, Academic Press, Nueva York, 1971, p. 70.
[293] Robert Frost, «The Black Cottage», en North of Boston, Henry Holt, 1914, p. 54 (hay trad. cast.: Al norte de Boston, Libertarias Prodhufi, Madrid, 1995).
[294] Albert Einstein, Autobiographical Notes, 1949; Open Court, Nueva York, 1999, p. 43 (trad. cast.: Notas autobiográficas, Alianza, Madrid, 2012).
[295] Carl Sagan, Broca's Brain, Random House, Nueva York, 1974, p. 25 (hay trad. cast.: El cerebro de Broca, Crítica, Barcelona, 2005).
[296] Abraham Pais, Subtle Is the Lord: The Science and Life of Albert Einstein, Oxford University Press, Oxford, 1982, p. 45 (hay trad. cast.: El Señor es sutil: la ciencia y la vida de Albert Einstein, Ariel, Barcelona, 1984).
[297] Ibíd., pp. 17-18.
[298] Ibíd., p. 31.
[299] Ibíd., pp. 30-31.
[300] Ronald Clark, Einstein: The Life and Times, World Publishing, Nueva York, 1971, p. 52.
[301] Pais, Subtle Is the Lord, pp. 382-386.
[302] Ibíd., p. 386.
[303] Ibíd.
[304] Jeremy Bernstein, Albert Einstein and the Frontiers of Physics, Oxford University Press, Oxford, 1996, p. 83.
[305] Leonard Mlodinow, Feynman's Rainbow: A Search for Beauty in Physics and in Life, Vintage, Nueva York, 2011, pp. 94-95 (hay trad. cast.: El arco iris de Feynman: la búsqueda de la belleza en la física y en la vida, Crítica, Barcelona, 2004).
[306] Abraham Pais, Subtle Is the Lord: The Science and Life of Albert Einstein, Oxford University Press, Oxford, 1982, p. 383 (hay trad. cast.: El Señor es sutil: la ciencia y la vida de Albert Einstein, Ariel, Barcelona, 1984).
[307] Para saber más sobre la vida y ciencia de Bohr y su relación con Ernest Rutherford, véase Niels Blaedel,Harmony and Unity: The Life of Niels Bohr, Springer Verlag, Nueva York, 1988, y Barbara Lovett Cline, The Men Who Made a New Physics, University of Chicago Press, Chicago, 1965, pp. 1-30, 88-126.
[308] «Corpuscles to Electrons», American Institute of Physics, consultado el 28 de octubre de 2014, http://www.aip.org/history/electron/jjelectr.htm.
[309] R. Sherr, K. T. Bainbridge y H. H. Anderson, «Transmutation of Mercury by Fast Neutrons», Physical Review, 60 (1941), pp. 473-479.
[310] John L. Heilbron y Thomas A. Kuhn, «The Genesis of the Bohr Atom», en Russell McCormmach (ed.), Historical Studies in the Physical Sciences, vol. 1, University of Pennsylvania Press, Filadelfia, 1969, p. 226.
[311] William H. Cropper, Great Physicists: The Life and Times of Leading Physicists from Galileo to Hawking, Oxford University Press, Oxford, 2001, p. 317.
[312] Más sobre Geiger en Jeremy Bernstein, Nuclear Weapons: What You Need to Know, Cambridge University Press, Cambridge, 2008, pp. 19-20; y Diana Preston, Before the Fallout: From Marie Curie to Hiroshima, Bloomsbury, Nueva York, 2009, pp. 157-158 (hay trad. cast.: Antes de Hiroshima: de Marie Curie a la bomba atómica, Tusquets, Barcelona, 2008).
[313] En realidad sería alrededor de cien mil millones de toneladas, puesto que el Everest pesa alrededor de mil millones de toneladas. Véase «Neutron Stars», NASA Mission News, 23 de agosto de 2007, consultado el 27 de octubre de 2014, http://www.nasa.gov/mission_pages/GLAST/science/neutron_stars_prt.htm.
[314] John D. McGervey, Introduction to Modern Physics, Academic Press, Nueva York, 1971, p. 76.
[315] Stanley Jaki, The Relevance of Physics, University of Chicago Press, Chicago, 1966, p. 95.
[316] Blaedel, Harmony and Unity, p. 60.
[317] Jaki, Relevance of Physics, p. 95.
[318] Ibíd.
[319] Ibíd., p. 96.
[320] Blaedel, Harmony and Unity, pp. 78-80; Jagdish Mehra y Helmut Rechenberg, The Historical Development of Quantum Theory, vol. 1, Springer Verlag, Nueva York, 1982, pp. 196, 355.
[321] Blaedel, Harmony and Unity, pp. 79-80.
[322] William H. Cropper, Great Physicists: The Life and Times of Leading Physicists from Galileo to Hawking, Oxford University Press, Oxford, 2001, p. 252.
[323] Ibíd.
[324] La biografía definitiva de Heisenberg es David C. Cassidy, Uncertainty: The Life and Times of Werner Heisenberg, W. H. Freeman, Nueva York, 1992.
[325] Ibíd., pp. 99-100.
[326] Ibíd., p. 100.
[327] Olivier Darrigol, From c-Numbers to q-Numbers: The Classical Analogy in the History of Quantum Theory, University of California Press, Berkeley, 1992, pp. 218-224, 257, 259; Cassidy, Uncertainty, pp. 184-190.
[328] «Failure», anuncio de televisión, 1997, visionado el 27 de octubre de 2014, https://www.youtube.com/watch?v=45mMioJ5szc.
[329] Debate Lincoln-Douglas en Charleston, Illinois, 18 de septiembre de 1858, consultado el 7 de noviembre de 2014, http://www.nps.gov/liho/historyculture/debate4.htm.
[330] Abraham Lincoln, discurso en Peoria, Illinois, 16 de octubre de 1854; véase Roy P. Basler (ed.), The Collected Works of Abraham Lincoln, vol. 2, Rutgers University Press, New Brunswick, 1953-1955, pp. 256, 266.
[331] William A. Fedak y Jeffrey J. Prentis, «The 1925 Born and Jordan Paper "On Quantum Mechanics"», American Journal of Physics, 77 (febrero de 2009), pp. 128-139.
[332] Niels Blaedel, Harmony and Unity: The Life of Niels Bohr, Springer Verlag, Nueva York, 1988, p. 111.
[333] Max Born, My Life and Views, Charles Scribner's Sons, Nueva York, 1968, p. 48.
[334] Mara Beller, Quantum Dialogue: The Making of a Revolution, University of Chicago Press, Chicago, 1999, p. 22.
[335] Cassidy, Uncertainty, p. 198.
[336] Abraham Pais, Subtle Is the Lord: The Science and Life of Albert Einstein, Oxford University Press, Oxford, 1982, p. 463.
[337] Cassidy, Uncertainty, p. 203.
[338] Charles P. Enz, No Time to Be Brief, Oxford University Press, Oxford, 2010, p. 134.
[339] Blaedel, Harmony and Unity, pp. 111-112.
[340] Walter Moore, A Life of Erwin Schrödinger, Cambridge University Press, Cambridge, 1994, p. 138.
[341] Ibíd., p. 149.
[342] Ibíd.
[343] Wallace Stevens, «Thirteen Ways of Looking at a Blackbird», Collected Poems, 1954; Vintage, Nueva York, 1982, p. 92.
[344] Pais, Subtle Is the Lord, p. 442.
[345] Cassidy, Uncertainty, p. 215.
[346] Ibíd.
[347] Moore, Life of Erwin Schrödinger, p. 145.
[348] Albert Einstein a Max Born, 4 de diciembre de 1926, en M. Born (ed.), The Born-Einstein Letters, Walker, Nueva York, 1971, p. 90.
[349] Pais, Subtle Is the Lord, p. 443.
[350] Ibíd., p. 31.
[351] Ibíd., p. 462.
[352] Graham Farmelo, The Strangest Man: The Hidden Life of Paul Dirac, Mystic of the Atom, Basic Books, Nueva York, 2009, pp. 219-220.
[353] Cassidy, Uncertainty, p. 393.
[354] Ibíd., p. 310.
[355] Moore, Life of Erwin Schrödinger, pp. 213-214.
[356] Philipp Frank, Einstein: His Life and Times, Da Capo Press, Cambridge, Massachusetts, 2002, p. 226.
[357] Michael Balter, «Einstein's Brain Was Unusual in Several Respects, Rarely Seen Photos Show», Washington Post, 26 de noviembre de 2012.
[358] Farmelo, The Strangest Man, p. 219.
[359] Cassidy, Uncertainty, p. 306.
[360] Cassidy, Uncertainty, pp. 421-429.
[361] Martin Gardner, «Mathematical Games», Scientific American, junio de 1961, pp. 168-170.
[362] Alain de Botton, The Consolations of Philosophy, Vintage, Nueva York, 2000, pp. 20-23 (hay trad. cast.: Las consolaciones de la filosofía, Taurus, Barcelona, 2003).