Historia de las ideas cientificas - Leonardo Moledo y Nicolás Olszevicki

Historia de las ideas científicas

Leonardo Moledo y Nicolás Olszevicki

Muy breve introducción

Vamos a contar una historia. Una historia que en realidad comienza hace muchísimo tiempo, cuando el hombre logró dominar el fuego mediante el golpe inteligente de dos piedras de sílex, y termina… no termina nunca. Es el relato de cómo nuestra especie se abrió paso pesadamente desde la profundidad de las sabanas africanas hacia el resto del planeta, fundó ciudades y las pobló de aparatos, estudió y logró comprender algunos fenómenos celestes y terrestres, indagó en las profundidades de la materia, llegó a atisbar la enormidad del universo y la insólita complejidad de lo pequeño, tuvo que admitir, con valentía y cierta decepción, que su lugar en el escenario total es insignificante. Y, así y todo, no se amedrentó y continuó explicando, explicando y explicando.
La que sigue no es una historia de grandes héroes y de grandes descubrimientos, o por lo menos no es sólo eso. Es, más bien, la de los múltiples intentos y las líneas de pensamiento que pretendieron alcanzar una explicación medianamente satisfactoria de esa cosa incomprensible que, por no tener una mejor palabra, llamamos realidad. Es la narración de una enorme cadena de malentendidos, de confusiones, de errores y rectificaciones; una cadena que, sin embargo, con idas y vueltas, condujo improbablemente a nuestro conocimiento actual.
En esta historia es inevitable percibir hilos o linajes de pensamiento que se arrastran a lo largo de los siglos, ya inclinándose hacia un lado, ya hacia el otro, muchas veces eclipsándose por un tiempo y resurgiendo sorpresivamente después: por poner solo un ejemplo, el atomismo que triunfa en el siglo XIX reconoce trazas que se remontan a los griegos Demócrito y Leucipo, tan denostados por el viejo Aristóteles. No quiere esto decir que en el siglo V a.C. los filósofos de la naturaleza, como se llamaba a los científicos por entonces, hubieran alcanzado a explicar la estructura de la materia tal como luego lo hizo el cuarteto Dalton-Thomson-Rutherford-Bohr, pero sí que a lo largo de su trayecto el intelecto humano —a veces por cuestiones empíricas, a veces por cuestiones teóricas, a veces por necesidad de completar un sistema— va y vuelve sobre las mismas ideas. Lo que se verifica en el siglo XVII se pudo pensar con claridad en el XI; una intuición perdida de un medieval resuelve lo que algún moderno no puede explicar; un sistema astronómico de la antigüedad clásica sobrevive intocable durante trece siglos y se derrumba con un genial golpe de intuición.
Aunque la visión que tenemos hoy en día de la ciencia se remonte a la que heredamos de los siglos XVI y XVII, de esa gigantesca epopeya intelectual que se extiende aproximadamente entre Copérnico y Newton, nuestro relato comienza antes, mucho antes. Esto se debe a que, si bien la idea de progreso científico es relativamente nueva en la historia de la humanidad, la ciencia no empezó allí: los griegos, hace más de 2.500 años, hicieron buena ciencia, tuvieron muy en claro lo que puede lograr la conjunción de la observación y la teoría y llegaron a resultados asombrosos, que motivaron el surgimiento, en Alejandría, de las ciencias particulares.
También, contra lo que se suele pensar, hubo una rica ciencia medieval. En la segunda parte de la Edad Media, después del siglo XI, se pensaba (y mucho) acerca de la estructura del mundo y, sobre todo, acerca de la naturaleza del movimiento, que sería el problema sobre el cual se sostendría la Revolución Científica. Se discutía, había distintas escuelas y había, sobre todo, un brillo intelectual impresionante. Roger Bacon imaginaba máquinas voladoras y submarinos antes que Leonardo, Guillermo de Ockham cortó los hilos entre razón y fe y Bernardo de Chartres, con una avanzada idea del carácter dialógico del progreso intelectual, decía: «Si vemos más lejos, es porque estamos subidos en hombros de gigantes». Frase que, dicho sea de paso, popularizó luego Newton en una escandalosa polémica que tuvo con Robert Hooke y que define bastante bien el modo en que avanza el pensamiento científico y la manera en que se fue desenvolviendo desde las primitivas tortugas que nadaban en el agua que sostenía al mundo hasta el modelo estándar de partículas que se quiere comprobar en el Superacelerador de Hadrones, llamado también, con evidentes fines publicitarios, la Máquina de Dios (aunque nada tenga que ver con ningún dios).
Hoy sabemos más —mucho más— de astronomía que Ptolomeo o Kepler, de física que Newton (e incluso que Einstein), de medicina que Hipócrates, de química que Lavoisier. Tenemos en nuestras manos piedras lunares. Hay aparatos explorando Saturno, Júpiter y Marte. Nuestra medida del universo es más exacta que la de Copérnico. A pesar de lo que no sabemos y de lo que no nos imaginamos que no sabemos, podemos decir que el acervo de conocimientos que tenemos es mayor —objetivamente mayor— que el que tenían los griegos, o el que se tenía hace dos siglos.
Si lo pensamos así, no podemos sino preguntarnos cómo es que llegamos desde las luminosas intuiciones de Tales de Mileto hasta nuestra multiforme realidad contemporánea. Todo esto tiene evidentemente ribetes de una aventura inigualable: es la historia del esfuerzo intelectual del hombre por comprender el mundo en el que le tocó vivir. Allá vamos.

Algunas aclaraciones preliminares

Al comenzar la redacción de los fascículos que forman el antecedente de este libro, opté por la primera persona, como una conversación con el lector. Cuando encaramos la transmutación en libro, conservamos de común acuerdo esa voz que se usaba los fascículos, voz que encierra un «nosotros» y es el resultado de una decisión estilística.

LEONARDO MOLEDO

Este libro es la lógica culminación bibliográfica de la serie de cuarenta fascículos que, con el mismo título, fueron publicados en Página/12 entre el 10 de octubre de 2012 y el 24 de julio de 2013. Ambos —fascículos y libro— fueron escritos y discutidos por los autores, casi íntegramente, en el café La Orquídea, en la esquina de Acuña de Figueroa y Medrano. La aclaración no es ociosa: desde la derrota de Solimán el Magnífico a las puertas de Viena, el café se ha convertido en uno de los lugares privilegiados para desarrollar el pensamiento y la imaginación.
El relato sigue, cuando se puede, un orden cronológico. Si bien es posible abordar los capítulos de manera aislada, es altamente recomendable, al menos en una primera lectura, hacerlo en orden: es en el diálogo entre el pasado y el presente que se construye la historia que se quiere contar.

NICOLÁS OLSZEVICKI

Parte I
Un largo amanecer

001.jpg

Contenido:
1. La ciencia antes de la ciencia
2. El eclipse
3. Ser o no ser
4. Platón y Aristóteles
5. La escuela de Alejandría
6. La medicina antigua de Hipócrates a Galeno
7. El asalto al cielo

Capítulo 1
La ciencia antes de la ciencia

Vamos a emprender un largo viaje. En él, exploraremos la manera en que las primitivas visiones del mundo pudieron llegar a convertirse en la cosmovisión altamente compleja y matematizada que tenemos hoy sobre el funcionamiento del universo y las cosas que hay en él. Un largo viaje, sí, que se extiende desde las más primitivas teorías científicas hasta la Relatividad, el Big Bang, y este mundo de motores, computadoras y aparatos en el que, un poco a los tumbos, nos acostumbramos a vivir. En esa travesía empezaremos, cronológicamente, por la ciencia en la Antigüedad y nuestra primera estación será, como es tradicional, Grecia.
Pero antes de que Grecia entrara en escena y la hiciera fulgurar, hubo grandes imperios y ciudades, hubo pirámides y zigurates, y, antes aún, la fructífera, brillante y larga noche prehistórica, durante la cual nosotros, los humanos, nos abrimos paso a través de la maraña de la evolución, luchando trabajosamente contra un mundo adverso. No podemos olvidar todo esto, de modo que tenemos que hacer algunas escalas antes de conocer al hombre que inventó la ciencia.
Allá vamos.

§. Océanos de tiempo
Primero vino el fuego, el árbol que ardía,
la floresta incendiada que aquellos hombres monos mirarían pasmados.
Luego la quemadura y el grito: hubo una conjunción momentánea y milagrosa.
Apenas el fuego y la piel se separaron, nació todo relato y cada mínima leyenda.
Hablo del origen, de la vegetación de piel húmeda,
de la selva sudorosa y tranquila.
Del trueno metálico, la madera elemental.
Era el tiempo en que nacían los lenguajes,
cuando el mito rodó por los fogones.
Hablo de la tribu sentada junto al fuego,
como ahora nosotros.
Del grito de la horda,
del sonido áspero, de la piedra contra la piedra ablandándose,
haciéndose lenguaje, sometiéndose
a la lenta presión de la gramática.
La especie hacía pie sobre la roca viva,
los días eran cortados a cuchillo,
la noche apenas duraba.
Las cavernas se poblaron de alfareros,
entre gritos nacía
la imperfecta redondez de la cerámica.
Y el primer relato: «yo hice esto».
«Yo lo fabriqué», «contiene el agua».
Las palabras viajaron cambiando las formas, inventando
las costumbres, adaptándose
a la torre y al arado.
Los metales temblaron.
Alguien saludó a alguien, alguien dijo
que tuvo miedo esa noche.
El viaje, el peligro, el trueno,
se hicieron relato,
anticipando la Ilíada y la radio.
Por eso es que a veces nos callamos frente al fuego,
reavivando fogones ancestrales,
evocando esa memoria de la especie,
donde duermen vigilantes las abuelas
tejedoras.
No hay que olvidar que la historia humana, lo que consideramos historia humana, es apenas una pequeñísima, casi miserable fracción de nuestra historia como especie, e incluso de nuestra historia como especie tecnológica. En otras palabras: no hay que perder de vista que en general, cuando pensamos en la historia del hombre, abarcamos apenas los últimos diez o doce mil años, cuando la verdadera historia, la que se remonta hasta el origen del Homo sapiens, tiene alrededor de cien mil. Y muchísimos más si nos estiramos hasta nuestros antecesores, los homínidos, que tuvieron por cierto sus propias tecnologías, a veces bastante sofisticadas (lo cual no es poco decir: significa que hubo ciertamente algo que podemos llamar, sin remordimientos de conciencia, «tecnología prehistórica»).
Y así, si hace cien mil años surgieron los esqueletos anatómicamente modernos, ya hacía cuatrocientos mil que se habían encendido las hogueras del hombre de Pekín. El control del fuego fue una de las revoluciones tecnológicas más importantes de la historia humana. Al calor del fuego (que aseguraba el abrigo y la defensa, además de la luz), nacían también la cerámica y los instrumentos de piedra; la fabricación de jabalinas de madera (hace cuatrocientos mil años), el arco y la flecha, los cepos, las trampas y las redes (hace veintitrés mil).
Son océanos de tiempo de los que cada vez nos da más detalles el trabajo de los arqueólogos: la prehistoria constituye el 99 por ciento de la historia humana, sobre todo, como decíamos antes, si tomamos en cuenta a nuestros antepasados, los homínidos, que dejaron en Laetoli (Tanzania, África) treinta metros de huellas, conservadas debido a la erupción de un volcán que las cubrió de cenizas y que, según la datación, se remontan a tres millones de años atrás.
Tres millones de años atrás… es difícil de imaginar, pero es el largo amanecer de la especie humana.
Respecto de la tecnología: es posible que todos los adelantos hayan surgido de manera accidental, o mediante el sistema de prueba y error, o simplemente por el impulso imaginativo para ver el comportamiento de cierta sustancia. Por supuesto, no son más que conjeturas.
¿Pero podemos referirnos a todo esto como «ciencia»? No lo creo. Por un lado, no se puede negar que todos estos pueblos, para conseguir sus técnicas, experimentaron, en el sentido general de la palabra. Es decir, los «experimentos», o mejor, las pruebas, no fueron ideados para probar teorías sino para un mejoramiento pragmático del producto final (por ejemplo, el ensayo de técnicas de fundición para la obtención de mejores aleaciones, como lo hace cualquier artesano moderno). Tampoco implicaban teorización consciente, pero sí evidenciaban una capacidad de observación y aprendizaje basada en la experiencia. Esto se nota en la complejidad y minucia de muchos sistemas de clasificación descubiertos en las sociedades «primitivas» tales como, por ejemplo, el de Filipinas, que enumeraba 461 tipos zoológicos.

§. Revolución
Hace unos diez mil años, más o menos, se produjo una revolución tecnológica, quizá la más importante de la historia humana (o la segunda, si consideramos la domesticación del fuego): el descubrimiento de la agricultura. El proceso se extendió a lo largo de unos pocos miles de años y de alguna manera definió las líneas generales de la cultura globalizada. El paso de la caza y la recolección a la agricultura implicó tecnologías nuevas (como el riego, o la domesticación de semillas y animales) y, sobre todo, la aparición del concepto de propiedad. Para un nómada, la propiedad (en especial si es pesada) representa una molestia en su permanente transportarse; para un sedentario, no, y puede ser fuente de codicia, de rivalidad y poder.
Acostumbrados a la (aparente) velocidad con que hoy cambia la tecnología, nos cuesta imaginar que una innovación de tanto peso como la agricultura se difundiera a un ritmo de tortuga, aunque —parece— firme y constante.
Pero piensen que esa revolución todavía hoy no se ha completado del todo: doce mil años después, siguen existiendo pueblos nómades, pueblos seminómadas, pueblos cazadores-recolectores y existen pueblos, incluso, que nunca han tenido (ni quieren tener) contactos con la cultura occidental —y en muchos casos no cabe sino darles la razón—.
Sea como fuere, en un período «corto» de tres o cuatro mil años, la agricultura se extendió a todos los lugares donde después se asentarían grandes civilizaciones: China, el valle del Indo, México y Perú, la Mesopotamia, Egipto. Dije a propósito «un período corto de tres o cuatro mil años», para dar una idea de lo que es la larga duración, en la que mil años no significan nada. Es una perspectiva que nos suele resultar extraña, justamente porque nuestra perspectiva, por el contrario, es de muy corta duración: al fin y al cabo, una vida humana dura en promedio 80 años, que son solamente treinta mil días (dicho en días parece muy poco, ¿no?). Por eso, pensar en la larga duración desconcierta: a un griego del siglo V las pirámides le parecían antiquísimas (como testimonia Heródoto, historiador y viajero del siglo V a.C.). Y no es raro, ya que la distancia temporal entre Heródoto y las pirámides (¡veintitrés siglos!) es más o menos la misma que la que hay entre Heródoto y nosotros.
Pero volvamos. La agricultura genera una transformación radical de la sociedad, porque implica la transición de una sociedad nómada a otra sedentaria: hacen falta asentamientos permanentes para sembrar y cosechar; los sembrados deben ser cultivados y defendidos y paulatinamente se impone la norma del sedentarismo.
Es así: la agricultura crea el poblado, el crecimiento de los poblados lleva a la ciudad (en el 8000 antes de nuestra era ya tenemos la primera, en la meseta de Anatolia, hoy Turquía), y la ciudad a la invención del Estado y a la distribución del trabajo entre quienes cultivan, quienes defienden y quienes distribuyen (o se apropian de) el producto y los excedentes (cuando los hay). Esa división, mutatis mutandis, es a grandes rasgos la que sigue existiendo hoy, con todas sus variaciones y matices. Seguramente, he aquí el comienzo de eso que se llama «división del trabajo», y de la posibilidad de que algunos también dispusieran de un tiempo no dedicado a la subsistencia que redundó, finalmente, en una organización cada vez más compleja de las incipientes sociedades…
La revolución agrícola, así, conduce a la construcción de grandes imperios que aplican tecnologías a gran escala, como Egipto, China y los diversos regímenes mesopotámicos, que utilizaban técnicas muy avanzadas. Y tenemos que ocuparnos un poco de esos imperios en nuestro camino hacia el origen de la ciencia occidental.

§. Mesopotamia
La Mesopotamia, ubicada entre el Éufrates y el Tigris, donde apareció la escritura, fue un rejunte de pueblos que adoptaron una multiplicidad de formas organizativas, que iban desde ciudades gobernadas por reyezuelos hasta imperios (como por ejemplo el temible Imperio Asirio, que duró, con sobresaltos, desde 1780 hasta 609 a.C., y que en algún momento se extendió hasta la frontera con Egipto). Todo lo cual, como se imaginan, generaba un estado de guerra permanente y de constante incertidumbre (« ¿cuál será el próximo invasor?»), que incentivó el desarrollo de las «artes adivinatorias», heredadas de viejas tradiciones neolíticas (de la Edad de Piedra), o transportadas por los pueblos que cada tanto «buscaban hacerse un lugar», por decirlo suavemente, con su secuela de matanzas, guerras y calamidades, en esa región por lo demás fértil. Tales «artes adivinatorias», por llamarlas de alguna manera, estaban basadas fundamentalmente en el escrutinio del cielo, en el que los astros eran asimilados a dioses y también en el examen de las entrañas de las víctimas de los sacrificios, junto a toda una parafernalia de amuletos, y de indagaciones sobre si las aves volaban a la izquierda o a la derecha y cosas por el estilo.
En gran parte por eso, la observación del cielo, particularmente, fue minuciosa, y derivó en la acumulación de larguísimas series y tablas de datos que permitían predecir, a grandes rasgos, eclipses de Sol y de Luna y otros fenómenos celestes: los mesopotámicos reconocieron los planetas visibles a simple vista como distintos de las estrellas, nombraron constelaciones, muchas de las cuales tomaron, levemente modificadas, los griegos, e introdujeron el zodíaco, que marca el camino anual del Sol, la Luna y los planetas a lo largo del año (el camino o movimiento aparente, ya que todavía obviamente no se pensaba que es la Tierra la que se mueve).
A diferencia de las cosmogonías mitológicas, todos estos datos, así como las tablas aritméticas para sumar, multiplicar y dividir que desarrollaron en extremo, incluyendo el uso de fracciones, revistieron un carácter «terrenal», que no estaba ligado a dioses de ningún tipo.
De paso, ya que estamos, hay que decir que las civilizaciones babilónicas, aquellas que ocupaban la Mesopotamia inferior o Baja Mesopotamia, tuvieron una herramienta crucial en el manejo de los números, porque desarrollaron un sistema de numeración con dos rasgos originales respecto de todos los sistemas antiguos. Se trata de un sistema de numeración posicional de base sexagesimal(es decir, de base 60 en lugar de 10). Ambas innovaciones, la posicionalidad y la sexagesimalidad, tendrían una larga vida: de la cuestión sexagesimal todavía quedan rastros en nuestra división de las horas en sesenta minutos y de los minutos en sesenta segundos. El sistema posicional, que se contrapone al principio de yuxtaposición que fue el fundamento, prácticamente, de todos los sistemas antiguos y que se conserva en la notación con «cifras romanas», es el que usamos hoy en día: el valor de un signo numérico depende de su posición relativa en el número escrito (por ejemplo, en 555 cada uno de los «5» tiene distinto valor, aunque el carácter empleado es idéntico).
Por otra parte, los babilonios habían logrado inventariar por medio de tablas algunas de las operaciones matemáticas más frecuentes, incluyendo tablas de cuadrados, de raíces cuadradas, cubos y raíces cúbicas, y resolvían ecuaciones simples. Tenían excelentes aproximaciones de π (3,14159…), que como ustedes saben es la relación entre el diámetro y la longitud de la circunferencia y está relacionado con todos los cálculos y observaciones que se hacen sobre el cielo…. Y también sobre la tierra: π es fundamental en arquitectura, en la medición de distancias, puesto que se mete con todo lo que sea circular. A veces pienso que el desarrollo matemático de una cultura se puede medir por la aproximación que tienen de π, aunque esta idea mía probablemente no es más que una exageración. ¿Saben cuántos decimales sabemos hoy en día? Más de dos mil millones, aunque con sólo seis alcanza para enviar un cohete a Saturno.
En fin: la astronomía y las matemáticas babilónicas fueron de gran importancia para el movimiento especulativo, filosófico y científico que comienza en Grecia en el siglo VI a.C., al cual le vamos a dedicar una buena parte del libro, porque es allí donde se empieza a construir, de manera sistemática, el pensamiento científico tal como lo concebimos hoy en día.
Y no es casualidad que Babilonia fuera esencial para los griegos, dado que había sido la ciudad más grande, más rica y más culta del mundo. Tan tarde como el siglo II d.C., el mismísimo Claudio Ptolomeo accedió a registros de eclipses bastante completos desde el reinado de Nabonasar (siglo VIII a.C.) en adelante, y utilizó el primer año del reinado como punto de partida para todos sus cálculos astronómicos. Estos registros babilónicos se realizaron originariamente con fines astrológicos o para verificar el calendario, lo cual implica que habían emprendido numerosas observaciones de una variedad de fenómenos celestes. Sin embargo, a pesar de las tablas y los cálculos «desprovistos de alma», la cosmología babilónica siguió imbricada con la mitología y no parece haber habido un esfuerzo por desprenderla de ella, o simplemente, si lo hubo, no nos ha llegado. De esa cosmología vamos a hablar enseguida, cuando veamos cómo concibieron el universo las primeras grandes civilizaciones.

§. Egipto es un don del Nilo
Egipto, alrededor del 3000 a.C., se constituye como un Estado territorial y centralizado. ¿Qué quiere decir «territorial»? Quiere decir que es un Estado que gobierna un cierto faraón con una burocracia imperial, que tiene límites y fronteras precisos, dentro de los cuales, y solamente dentro de ellos, valen las leyes egipcias. Es un experimento político importante que durará tres mil años, no todos tranquilos por cierto.
En posesión de la escritura desde el 3000 a.C., y de técnicas de construcción extraordinarias (con mano de obra ilimitada y gratis, no está de más recordarlo), los sacerdotes egipcios también observaron el cielo y los astros (como en el caso mesopotámico, identificados con dioses), entre otras cosas, para predecir las crecidas del Nilo, que una vez por año inundaban la franja a sus costados y depositaban el limo fértil que garantizaría las cosechas, de lo cual dependía la prosperidad del país. Así, determinaron que la aparición de la estrella Sirio (Sepedet, para ser más justos con los egipcios) al amanecer, después de varios meses de ausencia, marcaba el comienzo de la crecida del Nilo, eje de la vida de la nación. El mismísimo Heródoto decía que «Egipto es un don del Nilo», y nosotros podríamos decir que los egipcios nacieron «ex Nilo», como alguna vez me dijo alguien de cuyo nombre quisiera acordarme.
Siendo políticamente más estable que la Mesopotamia, la observación del cielo era menos urgente para las artes de la adivinación: los egipcios no tuvieron tablas de la magnitud de las mesopotámicas, pero sí tablas aritméticas y de resolución de problemas algebraicos y geométricos. Al fin y al cabo, la inundación del Nilo borraba las demarcaciones y límites entre parcelas, que era necesario reconstruir cada vez por medio de operaciones geométricas. Según Heródoto, es de aquí de donde sale la geometría que adoptaron los griegos, y, de hecho, geometría no significa otra cosa que medición de la tierra. Pero como sus compinches mesopotámicos, los egipcios no trataron de elevar los conocimientos geométricos y aritméticos al nivel de generalizaciones, ni intentaron demostrar proposiciones generales.
También, del mismo modo, los conocimientos astronómicos y la cosmogonía general estaban completamente mezclados con la religión.
Ahora sí, podemos darnos el gusto de recordar las cosmologías egipcia, mesopotámica y griega, que tienen el encanto y el fragor de las mitologías.

§. Cosmologías precientíficas y mitológicas
El encanto y el fragor, sí, pero también la complejidad y la dificultad que trae acarreada la multiplicidad de dioses, que nos servirá para establecer un contraste con las primeras formulaciones cosmológicas científicas griegas. Empecemos por explorar las cosmologías mitológicas en la Mesopotamia.
El universo estaba regido por tres dioses, cada uno con diferentes dominios. El cielo le correspondía a Anu, la tierra y el agua alrededor y debajo de ésta eran el dominio de Ea, y Enlil gobernaba el aire que separaba a los dos anteriores (estoy poniendo los nombres babilonios, ya que los antiguos sumerios los llamaban de forma diferente). Anu era una especie de dios padre (y en consecuencia tenía un estatus ligeramente superior). El universo estaba regido, entonces, por el triunvirato Anu-Ea-Enlil.
Los dioses eran descendientes de un caos primigenio de agua, en este caso una mezcla de agua salada y agua dulce. Originariamente, los dominios de Anu y Ea estaban unidos y fueron separados cuando Enlil movió el cielo alejándolo de la tierra. El universo mesopotámico también incluía un bajo mundo subterráneo gobernado por un dios o una diosa. No tenemos datos suficientes para determinar la forma que asignaban a la Tierra, pero con testimonios parciales podemos adivinar que la veían como un disco plano.
Por otro lado, el dios Marduk, divinidad particular de Babilonia, comandaba a la Luna, en la cual se basaba el calendario. Todos los años, la celebración del Akitu (el año nuevo) reproducía la victoria de Marduk sobre Tiamat (la serpiente), y sostenía los fundamentos del mundo. Fíjense que la serpiente Tiamat, diosa de la perfidia, es la que aparecerá transfigurada en el mito judío del génesis.
En Egipto las cosas eran ligeramente diferentes. Y no remarco el «ligeramente» por un capricho: es muy curioso constatar todo lo que comparten las cosmologías precientíficas, empezando por la división tripartita del mundo (cielo, tierra, mundo inferior). Los egipcios, en efecto, creían que el mundo constaba de tres partes: la tierra, de forma plana, estaba situada en el medio, dividida por el Nilo y rodeada por un gran océano (también, un tópico que se repite); sobre la Tierra, donde termina la atmósfera, el cielo era sostenido en su lugar por cuatro soportes, algunas veces representados por postes o montañas. Debajo de la Tierra estaba el infierno, llamado Duat. Esta oscura región contenía todas las cosas que estaban ausentes del mundo visible, tanto la gente muerta como las estrellas que desaparecen al anochecer o el Sol después de haberse hundido debajo del horizonte (se suponía que durante la noche viajaba a través de la región del bajo mundo, para reaparecer en el Este a la mañana siguiente). O sea, era un verdadero zaquizamí de astros y de almas.
Hay por lo menos tres versiones diferentes sobre la creación del mundo en la cosmogonía egipcia, y todas tienen en común que empiezan con un estado de aguas primigenias, una ilimitada, oscura e infinita masa de agua que había existido desde el principio de los tiempos y que continuaría existiendo en todo el futuro (y que, a algún fanático de los «precursores» con un exceso de imaginación, puede hacerle evocar la sopa de partículas posterior al Big Bang).
Aunque los dioses, la tierra y sus miles de habitantes eran todos productos de las aguas primigenias, estas aguas todavía estaban presentes, envolviendo el mundo por todos sus lados, sobre el cielo y debajo del infierno. El estado líquido originario del caos era personificado por el dios Nun, quien le dio nacimiento a Atum, el verdadero dios-creador, y creó de sí mismo dos nuevos dioses, uno personificado por Shu, dios del aire, y otro por Tefenut, diosa de la lluvia y la humedad.
Después vinieron la Tierra y el Cielo, representados por las deidades Geb y Nut respectivamente. Sin embargo, la tierra y el cielo no estaban creados como partes separadas, sino que en un principio estaban juntos y unidos. Fue Shu quien levantó el cuerpo de Nut bien alto para que los cielos existieran, y al mismo tiempo Geb, libre de su atadura, formó la tierra. Y el relato de la creación continúa con la aparición de una variedad de nuevos dioses.
Los griegos también tuvieron su mitología de la creación, que aparece en la Teogonía de Hesíodo (escrita en el siglo VII u VIII a.C.) y que, como sospecharán, tiene bastantes similitudes con las cosmogonías conocidas de la Mesopotamia y Egipto. Aunque la Teogonía es, sobre todo, una cosmogonía, también da cuenta de la estructura del universo. Para Hesíodo, la Tierra era obviamente plana y estaba rodeada por un río o un océano (¡nuevamente!). Sobre la Tierra había un cielo hemisférico, separado de ella por una brecha brillante durante el día y oscura por la noche. Debajo de la Tierra se encontraba el Tártaro, un bajo mundo simétrico con el cielo.
El recuento de Hesíodo de los primeros dioses es, al mismo tiempo, un relato sobre cómo los principales elementos del mundo físico fueron creados. No hay un creador, pero sí un estado inicial de caos desde el cual, sin ninguna causa o explicación, surge el cielo. La noche (Nyx) y la oscuridad (Erebos) son producidas, y después el día (Hemera) y el aire (Éter). El caos original, por su parte, no estuvo siempre ahí, sino que comenzó a existir en algún momento. Sin embargo, el texto de Hesíodo no da ninguna respuesta a la pregunta sobre cuál es el origen del caos o qué pasó en el principio.
Bien, tras este paseo cosmogónico-mitológico, viajemos, ahora sí, a orillas del mar Egeo, donde vamos a presenciar el nacimiento de la ciencia tal como la entendemos hoy. Porque obviamente, todo esto que vengo contándoles no alcanzaba para que hubiera ciencia propiamente dicha. Recién alrededor del siglo V se produce en Grecia «el» cambio fundamental que derivaría en la construcción del pensamiento científico actual. Aunque, para ser justos, debemos decir, que, a fin de cuentas, los griegos no surgieron de la nada ni crearon la ciencia mediante un golpe de magia. Como todo en la historia del pensamiento, se apoyaron en hombros de gigantes cuyos nombres desconocemos, pero cuyas investigaciones nada precarias resultaron lo suficientemente importantes como para que un griego pudiera predecir un eclipse y dar comienzo, verdaderamente, a la historia que nos proponemos contar en este libro: la historia de las ideas que conformaron la ciencia occidental.

Capítulo 2
El eclipse

002.jpg

El 28 de mayo de 585 a.C. se produjo un eclipse total de sol que fue visible en casi todos los lugares que hoy conocemos como Medio Oriente. Los eclipses, y en especial los eclipses totales de sol, significaban un oscurecimiento absoluto del mundo en pleno día, lo cual los rodeaba (y con razón, o por lo menos comprensiblemente) de una aureola de terror: se los consideraba una señal de enojo o advertencia de los dioses, hasta el punto de que —se dice— ese 28 de mayo los medos y los lidios interrumpieron una batalla decisiva entre ellos y llegaron a un acuerdo de paz.
Cuenta Heródoto:
Estaban guerreando con igual éxito cuando ocurrió que, durante un encuentro que tenía lugar en el año VI, el día se convirtió en noche. Tales de Mileto había predicho esta desaparición de la luz del día a los jonios, fijando dentro de qué año el cambio tendría efectivamente lugar. Entonces, cuando los lidios y los medos vieron que el día se convertía en noche, dejaron de pelear, mostrando un común afán en concertar la paz.
El hombre que había predicho el eclipse fue el primer filósofo-científico en el sentido en que entendemos esas palabras ahora. Si hubiera que ponerle una fecha al comienzo de la ciencia occidental, arbitraria como todas estas cosas, yo elegiría la fecha de ese eclipse. Así que, si ustedes me lo aceptan, podemos decir que la ciencia (o por lo menos la ciencia occidental) comenzó el 28 de mayo de 585 a.C.

§. La ciudad de Mileto
Mileto era una ciudad-colonia griega, sobre el mar Egeo, cerca de la desembocadura del río Meandro, en lo que hoy es Turquía y en esos tiempos los griegos llamaban Asia Menor. Era una zona que había estado habitada desde la Edad de Bronce (Homero cuenta que participó en la guerra de Troya), y que en el siglo VII a.C. había conseguido un verdadero imperio marítimo. Por esa época se consolidaron en las ciudades griegas las instituciones que habrían de florecer en la polis, la ciudad-estado griega, en especial el gobierno por la asamblea de ciudadanos (interrumpidas cada tanto por diversas tiranías).
Desde ya, estas asambleas no eran nada democráticas, miradas con la óptica de hoy: ni las mujeres, ni los extranjeros, ni —por supuesto— los esclavos participaban de ellas. Pero así y todo, el debate permanente sobre la mejor forma de gobierno erosionaba el criterio de mera autoridad, humana y divina, y se abrían paso los principios de la libre discusión y del acceso público a la información mediante la cual habría de juzgarse a una persona o idea.

003.jpg

«Refutar», «demostrar», «probar» son palabras que la ciencia tomó del vocabulario político-jurídico, de la discusión permanente sobre la mejor manera de llevar los asuntos de la polis, que se convirtió en una costumbre: las ideas políticas, y con ellas, por arrastre, todas las demás, salían a la esfera pública.
Además, Mileto era una ciudad pujante por la que pasaban las grandes rutas comerciales que conectaban a Grecia con el Oriente, y estas condiciones, a las que se agregaba un intenso intercambio de mercancías, permitían que ese pueblo tuviera la posibilidad de conocer culturas y leyes completamente distintas, incorporar concepciones mentales diversas y verse enfrentado a sistemas de costumbres y dioses diferentes, que contribuían a relativizar cualquier pensamiento dogmático.
En el año 547 a.C., Mileto, como toda la costa de Jonia, fue conquistada por el Imperio Persa. Tras una revuelta, que fue sofocada, la ciudad fue incendiada y sus habitantes deportados, hasta que en 479 a.C. los griegos derrotaron de manera decisiva a los persas en la Grecia peninsular, y Mileto fue liberada de su yugo.
Fue pasando por diversas manos, desde los espartanos hasta los griegos helenísticos de Alejandro Magno, y más tarde integró el Imperio Bizantino. Finalmente, los otomanos y luego los turcos selyúcidas utilizaron la ciudad como puerto para comerciar con Venecia en el siglo XII. Al sedimentarse el puerto, la ciudad fue abandonada. Sus ruinas actuales se encuentran a diez kilómetros del mar.
Y fue en esa polis donde vivió Tales, el hombre que tuvo la revolucionaria idea de que los fenómenos naturales no podían seguir siendo explicados como consecuencia del trabajo de los numerosos dioses griegos, sino que debían tener sus propias causas naturales. Con esa audaz decisión, inventó la ciencia.

§. Vida de Tales
Tales nació alrededor del año 624 a.C. Como la ciudad mantenía tráfico comercial con Egipto y Babilonia, es probable que visitara el país del Nilo en su juventud, donde seguramente estudió con los sacerdotes: de los babilonios debió aprender astronomía y conoció seguramente las viejas tablas mesopotámicas, que se remontaban a muy antiguo, y que incluían larguísimos ciclos astronómicos, como el Saros, un período de 6.585 días, algo más de 18 años, que marcaba las recurrencias de los eclipses de Sol y que le permitió predecir su propio eclipse.
Aristóteles nos cuenta que fue un importante consejero político en su ciudad, y famoso en toda Grecia. También un hábil comerciante:
Como lo injuriaban tanto por su pobreza como por la inutilidad de la filosofía, supo, por medio de la astronomía, cómo sería la producción de aceitunas. Así, cuando aún era invierno, se procuró una pequeña cantidad de dinero, y depositó fianzas por todas las prensas de aceite de Mileto y de Quíos, arrendándolas por muy poco, puesto que nadie compitió. Cuando llegó el momento oportuno, al ser muchos los que a la vez y de repente las deseaban, las iba alquilando como quería, reuniendo mucho dinero, demostrando así que es fácil a los filósofos enriquecerse, si quieren.
Por su parte, Platón nos dice que
Tales, mientras observaba los astros, y miraba hacia arriba se cayó en un pozo, y una bonita y graciosa criada tracia se burló de que deseara vivamente conocer las cosas del cielo y no advirtiera las que estaban detrás de él y delante de sus pies.
La criada tenía bastante razón: a Tales le interesaban —por suerte— las cosas del cielo, y no tanto las que estaban delante de sus pies. En el terreno de la astronomía, además de la predicción del eclipse de 585, se dice que fue el primero en sostener que el Sol se eclipsa cuando la Luna, que es de naturaleza semejante a la de la Tierra, se interpone perpendicularmente bajo él. En matemáticas estableció varios teoremas, como el que dice que el diámetro divide el círculo en partes iguales, y el famoso «teorema de Tales» que musicalizó el conjunto Les Luthiers. Se le atribuye el haber establecido la altura de las pirámides, midiendo la sombra que proyectan comparándola con la de su bastón.
En fin, Tales pensó e hizo de todo, pero su mayor obra fue sentar el punto de partida de todo el pensamiento científico posterior.

§. Tales toma una decisión
Tales partió de una posición radical: mantener a los dioses apartados de las explicaciones naturales y científicas. Decir se dice fácil, pero las implicaciones son tremendas. Porque al apartar a los dioses, la naturaleza se transforma en algo impersonal, sin voluntad. Y si la naturaleza no tiene voluntad pero igual hace cosas (como los terremotos, o los eclipses), las tiene que hacer por alguna razón general, y esa razón es una causa, una causa que no puede ser resultado de la voluntad o del capricho de un dios. Es decir, la causa tiene que ser también un fenómeno natural, algo impersonal. ¿Pero qué causó ese otro fenómeno natural? Una nueva causa. Y esa nueva causa, ¿qué causa tiene? Es decir, tiene que haber una cadena de causas, y en esa cadena de causas (tal vez infinita) no interviene la voluntad de nadie.
Así, Tales aísla y establece la idea abstracta de «causa», causa natural, que estará presente en toda la ciencia posterior. Un buen ejemplo es su famosa teoría sobre los terremotos. No se deben ya, como relataba la tradición griega, al enojo de Poseidón (hermano de Zeus, dios y señor del mar), que golpeaba el fondo del océano con su tridente y hacía vibrar la tierra. Nada de eso. La Tierra, sostiene Tales, es un disco que flota sobre el mar (aquí tenemos evidentes reminiscencias babilónicas y de Hesíodo; Tales no dejaba de ser hombre de su tiempo), y es el oleaje de ese mar el que la sacude. Es una explicación que hoy nos puede resultar elemental, y que resultaba elemental ya a Aristóteles, pero que representa un salto enorme y cualitativo para el pensamiento científico. Poseidón queda liberado de la fastidiosa y burocrática tarea de golpear el suelo con su tridente para decretar los temblores (aunque quizá le gustaba y no le era tan fastidiosa; los dioses griegos eran caprichosos, vengativos y crueles): es el mar, anónimo e involuntario, el que agita el suelo y hace conmoverse a los hombres.
En realidad, las deidades griegas no eran muy aptas para manejar los fenómenos de la naturaleza. Durante los siglos precedentes, se había operado una profunda revolución teológica, ya desde Homero (siglo VIII a.C.): la completa antropomorfización de los dioses, hasta un punto al que ninguna otra civilización había llegado. Así, los dioses homéricos, inquietos, caprichosos, crueles, lujuriosos, movedizos, que desataban guerras y participaban en ellas, no parecían los mejores candidatos para sostener fenómenos regulares: obviamente no iban a tener la paciencia necesaria como para sostener un proceso natural y repetitivo. Es cierto que Atlas sostenía la Tierra sobre sus hombros todo el tiempo, y Faetón guiaba cada día el carro del Sol, pero aún así cuesta imaginarse a un dios griego quedándose quieto y sosteniendo el cielo sobre su espalda. Eran demasiado humanos, en fin, y puede ser que el contraste entre lo irregular de su comportamiento y los fenómenos regulares de este mundo ayudara a abstenerse de evocarlos.
Más allá de si ésa fue la razón, o si lo fue en parte, lo cierto es que en ese momento, en ese preciso momento, comienza la ciencia, el pensamiento racional, el crepúsculo de esos mismos dioses. Con la idea de causa en la mano (en la mente, mejor), Tales busca una explicación general de los fenómenos (los terremotos, en este caso). Es decir, se propone, a partir de lo particular y accidental, investigar lo esencial y permanente, inaugurando de este modo otro de los requisitos científicos básicos de todos los tiempos.
Es difícil darse cuenta de lo radical de esta innovación: ahora ya no es un dios el que decide, sino que es el mar el que se mueve. Son objetos naturales que actúan sin voluntad y que mueven la tierra. Los terremotos no son el resultado de una voluntad (la de Poseidón) sino de una causa natural (el oleaje).
Al hacer de la búsqueda de las causas la piedra angular de su novedosísima filosofía, Tales no podía sino preguntarse por el origen de todas las cosas. Esto es muy simple: si cada fenómeno tuvo su causa, es evidente que remontando la cadena causal tenemos que toparnos con un primer fenómeno, inoriginado, sin ninguna causa que lo anteceda, primerísimo en el sentido más puro de la palabra, a menos que aceptemos caer en un regreso infinito (estos problemas los veremos aún en la modernísima teoría del Big Bang sobre el origen del universo). ¿Cuál es ese primer principio? ¿Cómo es que lo que es llegó a ser? ¿De dónde viene todo lo que viene? ¿Cuál es el verdadero origen de todas las cosas?
Nuestro amigo decide que el origen de todas las cosas es, o está, en el agua. La elección puede parecer —y lo es— arbitraria, desde ya, pero lo importante no es cuál es el principio elegido, sino el hecho de que estuviera buscando un principio. Tales no nos cuenta cómo o por qué eligió el agua en particular, pero podemos imaginar que una sustancia que vemos transformarse claramente en vapor, o solidificarse en hielo, ante nuestros ojos, le pareció un buen punto de partida. Y, además, el agua protagoniza casi todos los mitos de origen (como aquel del océano primordial donde flotaban las antiguas tortugas que sostenían el mundo), mitos que, naturalmente, seguían circulando; al fin y al cabo, todo pensador es ciudadano de su tiempo.
Tales murió donde nació, en Mileto, en 545 a.C. Después vendrán Anaxímenes y Anaxágoras, Sócrates y Platón, Aristóteles y Copérnico, Newton y Galileo, Lavoisier, Darwin y Einstein. Pero todos, en definitiva, beben del elixir de Tales.

§. Los discípulos de Tales: Anaximandro y lo ilimitado
Como todo gran pensador, Tales tuvo discípulos o continuadores, como Anaximandro y Anaxímenes, que junto a él conforman lo que se conoce como escuela milesia, o escuela de la physis (es decir: de la naturaleza).
Un poco más joven que Tales, Anaximandro (c. 610 a.C.-c. 546 a.C.), el segundo filósofo de la escuela milesia, también sostenía que todas las cosas provienen de una sola sustancia primaria. Sin embargo, rechazaba asignarle al agua o a cualquier otro elemento conocido la noble tarea de ser el primer principio, entre otras cosas porque advertía un punto débil de la teoría de su maestro: ¿cómo puede ser que el agua produzca su contrario, como el fuego? Y así, optó por algo más abstracto, infinito, sin edad y que envolvía a todos los mundos. Lo llamó ápeiron, que en griego significa «lo indefinido», «lo ilimitado», «lo indeterminado», un concepto difícil de imaginar que es el primer término técnico de la historia de la ciencia.
En el seno del ápeiron preexisten caóticamente todos los elementos, y los mundos, los mundos posibles, nacen por su separación y su reordenamiento. El cosmos crece como una planta a partir de una semilla diluida en el ápeiron.
Anaximandro, como Tales, no se ocupó solamente de buscar el primer principio sino que intentó resolver problemas naturales con explicaciones naturales: los vientos, sugirió, se generan al separarse del aire los vapores más livianos y cuando, al moverse, se concentran. Las lluvias se generan de los vapores de la tierra desprendidos por el Sol, y los relámpagos se producen cuando el viento, al golpear, desgarra las nubes. El trueno, por su parte, es el ruido de una nube golpeada. ¿Y por qué hay veces en que hay truenos y no relámpagos? Porque el viento en esos casos es débil, y no puede provocar llamas, pero sí ruido. ¿Y qué es el rayo? El curso del viento más ardiente y más denso.
También elucubró sobre el origen de los hombres y los animales: los primeros animales surgieron por primera vez en «lo húmedo». En cuanto al hombre, se generó a partir de animales de otras especies, lo cual dedujo del hecho de que las demás especies se alimentan pronto por sí mismas, mientras que el hombre necesita de un largo tiempo de amamantamiento. Por ello, si en un comienzo hubiera sido tal como es ahora, no habría sobrevivido. Así, del agua y la tierra calientes han nacido o bien peces o bien animales similares a los peces: en éstos los hombres se formaron y mantuvieron interiormente, como fetos, hasta la pubertad; sólo entonces aquéllos reventaron y aparecieron varones y mujeres que pudieron alimentarse por sí mismos.
La preocupación de Anaximandro por el origen era central pero no era la única: su indagación cosmológica lo condujo a explicar los astros como anillos de fuego, invisibles porque están rodeados por niebla, pero con aberturas a través de las cuales los vemos (el eclipse de Sol, por ejemplo, se produce al obstruirse la abertura por la cual lo vemos y se exhala el fuego); a proponer tres anillos para el Sol, la Luna y las estrellas, con diámetros de 27, 18 y 9 veces el de la Tierra (las estrellas, curiosamente, estaban más próximas que el Sol y la Luna); a imaginar a la Tierra como un cilindro ubicado en el medio de todo, que no necesita estar sostenido por nada, ya que es equidistante de todo el resto de las cosas, y no tendría hacia dónde caer. En su superficie superior vivimos (parece que llegó a dibujar un mapa de la Tierra), lo cual resolvía otra de las preguntas que la cosmología de Tales dejaba sin respuesta: si la Tierra era sostenida por el agua, ¿qué sostenía al agua?

§. Anaxímenes: el aire
Cuentan que un astrónomo estaba dando una conferencia y, al explicar que la Tierra era esférica y no estaba sostenida por nada, una viejita sentada en primera fila lo interrumpió diciéndole que eso era falso, que la Tierra era una semiesfera apoyada en el caparazón de una tortuga. « ¿Ah, sí? —contestó el astrónomo—, ¿y entonces quién sostiene a esa tortuga?»
«Otra tortuga», dijo la viejita sin inmutarse. « ¿Y a esa otra tortuga?»
«Otra más», dijo la viejita…, y al ver que el astrónomo se sonreía burlonamente, agregó: «Vamos, joven, todos sabemos que allí abajo hay tortugas de sobra».
El tercer integrante de la escuela, Anaxímenes (585 a.C.-524 a.C.), rechaza el ápeiron y recurre a una solución más cercana al sentido común, al proponer al aire como sustancia primera: el alma es aire, el fuego es aire enrarecido, al condensarse el aire se vuelve agua, y luego tierra y luego piedra. Esta teoría tiene el mérito de establecer diferencias cuantitativas entre las distintas sustancias, de modo tal que todo es cuestión de conocer el grado de condensación.
Anaxímenes avanza así en la resolución de uno de los problemas centrales de la escuela milesia. Cuando Tales proponía el agua como elemento originario, no quedaba demasiado claro cómo era que todo salía de allí (inclusive el fuego). Anaxímenes explica esta transformación de los elementos como un proceso en dos direcciones: rarefacción y condensación, asociadas a las variaciones de calor y frío. No sólo es menos abstracto que Anaximandro, sino que se refiere a procesos observables y operantes en los fenómenos naturales. El aire se diferencia en las sustancias particulares: al enrarecerse se convierte en fuego, al condensarse, en viento, luego en nube, más condensado aún en agua, tierra y piedra; las demás cosas se producen a partir de éstas.
Tales, Anaximandro y Anaxímenes son, entonces, los tres grandes representantes y creadores de la escuela de Mileto, o escuela de la physis (de donde deriva, obviamente, la palabra «física»).

§. Balance de la escuela de Mileto
La mayor parte de los primeros que filosofaron no consideró los principios de todas las cosas sino bajo el punto de vista de la materia. Aquello de donde salen todos los seres, de donde proviene todo lo que se produce, y adonde va a parar toda destrucción, persistiendo la sustancia, la misma bajo sus diversas modificaciones: he aquí, según ellos, el elemento, he aquí el principio de los seres.
ARISTÓTELES
La escuela de Mileto toma una posición ante los fenómenos del mundo: son sus ojos la herramienta y es la observación y el razonamiento sobre la observación (y a veces la fantasía) el motor de su acción. Terremotos, rayos, aire, agua: el mundo de Mileto es un mundo donde ocurren fenómenos permanentemente, un mundo de ocurrencias impersonales y neutras y no de voluntades divinas, sobre el cual los filósofos extienden sus garras poderosas y explican, explican, explican. Escuchan el discurso de las cosas, que ha sido separado del palabrerío y la charlatanería de los dioses.
Estricta posición frente al mundo. Pero la enorme construcción que significó la teoría milesia, que apartó a los dioses y los devolvió a ese conventillo que era el Olimpo, no pudo evitar dejar una fisura opaca y fina por donde se filtraría lo antiguo y lo desechado.
Sin embargo, dejaron planteado un problema, un problema de la máxima importancia: ¿cómo sabemos que las explicaciones milesias son verdaderas? ¿Y cómo comprobamos nuestras hipótesis? La respuesta moderna sería: se hace un experimento. Pero estos heroicos pioneros estaban lejos de lo experimental; tenían ojos que observaban la confusa empiria del mundo y construían a partir de lo que veían o de lo que adivinaban. Para escuchar el discurso de las cosas hay que tener el oído fino, pero el oído, como todos los demás sentidos, es falible, débil. Entonces, el problema es: ¿por qué debemos confiar en la observación a través de los sentidos, que son tan engañosos?
El problema que dejan planteado no es otra cosa que el peligroso dilema de la verdad: si los sentidos son engañosos, no podemos estar seguros de que nos revelen la verdad. ¿Cómo elegimos entre el agua, el ápeiron o el aire? ¿Cómo podemos elegir de una manera racional? O, de otro modo, una pregunta que atravesará todo el pensamiento griego: ¿cómo se hace para alcanzar el conocimiento verdadero? ¿Es suficiente con escuchar el discurso de las cosas?
Y así, desde la ciudad de Elea, en el sur de Italia (otra de las ciudades-estado que conformaban el mundo griego), vendrá una respuesta que sustituye a los sentidos como fuente de conocimiento.
Mientras tanto, podemos sentir el agua de Tales vibrando dentro de nosotros, viajando por nuestro cuerpo, corriendo por nuestras venas y dándonos fuerzas para enfrentar, cada día, un mundo sin dioses.

Capítulo 3
Ser o no ser

Los milesios, mientras se ocupaban de fundar la ciencia liberando a las explicaciones de elementos mitológicos, caían, como hemos visto, en una debilidad fundamental: escuchar el discurso de las cosas y construir desde allí, sí… ¿Pero cómo podemos estar seguros de que oímos bien? Al fin y al cabo, los sentidos son débiles e imperfectos, y nos someten a ilusiones, como cuando, por poner un ejemplo fácil, vemos que el cielo y la tierra (o el mar, si es que estamos en una playa, paisaje por demás abundante en Grecia) se juntan en el horizonte. ¿Cómo podemos estar seguros de que no sufrimos alucinaciones auditivas y que aquello que nos «dicen» los fenómenos o aquellas explicaciones que deducimos de los fenómenos es verdadero?
En la ausencia de la idea de experimentación, mucho más tardía, y que tampoco resuelve del todo la cuestión, como veremos, este problema era una grieta fatal en la construcción milesia, que requería una respuesta. Una respuesta que llegó desde la ciudad de Elea.
En esta etapa primaria de la ciencia (y probablemente hasta la llegada de Aristóteles o aún más), no había, ni podía haber, una distinción entre «ciencia» y filosofía, tal como las entendemos ahora (y veremos que aún hoy en día las dos parecen, a veces, confundirse). Ocurría que estos filósofos-científicos que trataban de explicar el mundo tenían que formular, al mismo tiempo que las teorías sobre las cosas, una teoría del conocimiento (epistemología) y una metodología del conocimiento, un mecanismo que permitiera acceder al conocimiento, y que asegurara que éste fuera verdadero. Así, los milesios establecían como primer principio metodológico separar a los dioses de las explicaciones y, como mecanismo, observar la naturaleza sin dioses, y pensar a partir de las observaciones.
Es este último principio el que será cuestionado en Elea. En síntesis, no hay que escuchar el discurso de las cosas, sino, por el contrario, ignorarlo, o al menos tomar ciertas precauciones antes de concederle un grado de veracidad. El protagonista de esta postura se llamó Parménides, Parménides de Elea. Retengan ese nombre, porque es uno de los filósofos más importantes que haya dado la Historia.

§. Parménides conduce a la ciencia a un callejón sin salida
Parménides nació en la segunda mitad del siglo VI y murió a mediados del siglo V en Elea, una ciudad cuyo nombre actual es Velia y que fue también una colonia griega en la península italiana. Contemos, de paso, y para ubicarnos históricamente, que en la mitad de la península había una ciudad no griega llamada Roma, envuelta por ese entonces en interminables luchas intestinas y contra ciudades rivales. Es muy difícil que Parménides o sus amigos hubieran oído hablar de esa población minúscula y sin importancia, del mismo modo que es difícil que los habitantes de Roma hubieran siquiera soñado con el papel que habrían de jugar en el mundo apenas tres o cuatro siglos más tarde.
La cuestión es que Parménides pone la filosofía y la ciencia patas arriba. En un poema muy famoso, su poema ontológico, que es lo único que dejó escrito o se conservó, aunque fragmentariamente, y a cuya exégesis se han dedicado ríos de tinta ya desde la Antigüedad, establece un principio muy simple y general. Antes de ponerse a estudiar la realidad, hay que demostrar que hay una realidad y averiguar cómo es, qué características fundamentales tiene. Fíjense que no estoy diciendo naturaleza, no se trata de la physis de los milesios, sino de la realidad, del conjunto de las cosas que existen: todo lo que es.
Parménides sintetiza este ambicioso punto de partida con una de las frasecitas más famosas de la historia de la filosofía.
Lo que es, es. Lo que no es, no es.
En el comienzo del poema, se presenta una diosa que lo guiará en el camino de la verdad (camino al que, dicho sea de paso, no cualquiera puede acceder) y le habla a nuestro filósofo:
Ea pues, yo hablaré y tú escucha mis palabras.
Sólo dos vías de investigación se pueden concebir.
La una afirma: es y es imposible que no sea
Antes que nada, habría que preguntarse de dónde sale todo esto. Parménides parte del principio de que «lo mismo es pensar y ser». Sólo se puede pensar en lo que es, y lo que es, por lo tanto, es. Pero no puedo pensar en lo que no es, porque pensar en lo que no es, es pensar en la nada, y pensar en la nada es no pensar en nada…
Lo mismo es pensar y ser.
Lo mismo es el pensar, y aquello por lo cual se cumple el pensamiento.
Porque sin el ser, en el cual se expresa, no hallarás el pensar;
no hay ni habrá Nada fuera del ser…
Del no ser no es posible ni decir ni pensar
que no es
por lo tanto, lo que no es, no puede ser.
El punto de partida, como habrán podido ver, es radicalmente distinto al de la escuela milesia: ni empieza por los fenómenos, ni sugiere que el origen de todo está en una sustancia elegida más o menos caprichosamente, o con argumentos débiles: el agua, el ápeiron, el aire. Nada de eso: el punto de partida es el pensar. El camino correcto, el que conducirá a la verdad, lo será solamente si se parte del pensar y de lo que se puede pensar. ¿Y qué es lo que se puede pensar? El ser. ¿Y qué es lo que no se puede pensar? El no ser, la nada. Por lo tanto, el ser es y el no ser no es.
Esta deducción tiene la brillantez, la limpidez de un teorema, y —lo que es más importante— no tiene absolutamente ninguna conexión con la empiria, con la physis, con la naturaleza, con los fenómenos. Este enunciado en cierto modo sintetiza la filosofía y la metafísica de Parménides y es fecundo porque de él se deducen muchos otros, que tienen enormes consecuencias no sólo para la filosofía, sino también para la ciencia occidental.
Porque… ¿Cómo es ese Ser (esta vez lo voy a poner con mayúsculas, a veces lo pondré en minúsculas, sin que eso tenga un significado especial)? ¿Qué puedo decir de él?
Veamos: por empezar, el ser es único. No puede haber dos. Porque si hubiera dos, o bien están juntos (y son uno), o bien están separados por algo. Pero ese algo que los separa no puede ser Ser, sino No Ser, y como el No Ser no es, no puede ser. Por lo tanto: es único.
El ser tampoco puede haber empezado. ¿Por qué? Porque si hubiera empezado en algún momento, eso significaría que antes había no ser. Pero eso es imposible, porque ese no ser no es. Tampoco puede terminar, por la misma razón: ¿qué vendría después? El no ser, pero eso es imposible. El ser no tiene pasado ni futuro, es presente puro y eterno.
El ser no es engendrado, y también es imperecedero.
En efecto es un todo inmóvil y sin final ni comienzo
¿qué origen le buscarás?
¿cómo y dónde habrá crecido?
del no ser, no te permito decirlo ni pensarlo…
La idea de que es inmóvil se explica porque, si se moviera, viajaría hacia algo que es no ser, y dejaría no ser detrás. Por lo tanto, no puede moverse. Y, naturalmente, es incorruptible, porque si se corrompiera, ¿qué significaría? Que alguna parte de él se degradaría y convertiría en no ser. Lo cual, otra vez, no es posible.
El siguiente paso sería afirmar que eso que es no puede estar limitado, no puede tener ni forma ni límites. Pero acá Parménides afloja, y no da el paso. Es más, imagina ese ser como limitado, finito y perfecto:
El ser es completo, similar a la masa de una esfera armoniosamente redonda que por todas sus partes se distancia del centro.
Se imagina al ser como una esfera, un cuerpo perfecto, en el sentido que le darían los pitagóricos. Esto sería fundamental (y a veces fatal) en todo el pensamiento griego: la esfera es el cuerpo perfecto porque todos los puntos de su superficie equidistan del centro, porque es perfectamente simétrico y porque es el único cuerpo que puede girar sobre sí mismo en su propio espacio.
Así, el ser de Parménides es inmóvil, es eterno, es incorruptible (no admite cambios), es esférico y es perfecto. Lo cual plantea un problema nada simple. Porque si es así: ¿cómo se entiende que nosotros veamos, en lugar de este ser inmutable y permanente, una multiplicidad de cosas que cambian y se mueven? Hay una única posibilidad para explicarlo: esa multiplicidad de cosas que cambian y se mueven no es más que una mera ilusión.
Porque los sentidos son ilusorios: ven el tránsito del ser al no ser, ven que cosas que no son se transforman en cosas que son, y viceversa. Vemos al árbol crecer y morir, a la luz aparecer y desaparecer. Por lo tanto, de los sentidos no podemos sacar absolutamente nada, o por lo menos, nada que valga la pena. No queda más que rechazar nuestra confianza espontánea en la experiencia, reconociendo que es un camino de conocimiento falaz e ilusorio.
Así, pues, todas las cosas no son sino nombres
dados por los mortales en su credulidad:
nacer y perecer, cambiar de lugar y mudar de luminoso color.
La vía es el pensar, y sólo la razón es un medio eficaz para acercarse a esa obsesión: el conocimiento verdadero. Rompiendo la barrera de las apariencias, podemos captar la unidad profunda y «verdadera» de lo real. Los fenómenos no interesan mucho, porque lo que importa es lo que está por debajo del mundo sensible, lo que subyace, que es el mundo del ser. Es inevitable que tomemos datos de los sentidos, que escuchemos el discurso de las cosas.
Pero si le prestamos atención, estamos listos. Lo que se debe buscar es lo que hay detrás, o debajo. ¿Cómo lo hago? ¿Cómo se accede a ese sustrato? Por medio de la investigación. Trato de ver de qué manera lo que se dice, lo que se ve, lo que se mide (aunque todavía estamos muy lejos del concepto de medición) es un emergente, a veces muy deformado, de la verdadera realidad que hay detrás. Pero sé que ese fenómeno es un engaño de los sentidos, que son débiles y no dan cuenta del ser. El testimonio sensible es inseguro y engañoso. El mundo de los fenómenos es ininteligible, no tiene importancia.
Parménides establece así un principio filosófico general. Su especulación consiste, sobre todo, en una discriminación primera y rigurosa entre lo sensible y lo inteligible, que interesa a la ciencia por sus repercusiones metodológicas a lo largo de toda la historia del pensamiento.
Pero ese principio general de Parménides plantea un problema serio. ¿Por qué? Porque por un lado parece empezar dando un método, una guía: desconfíen de los sentidos; detrás de esta gran multiplicidad hay un sustrato que no cambia, y ese sustrato, el Ser, es lo que debemos comprender, y sólo lo comprenderemos razonando. Pero por otro lado, al mismo tiempo que inicia un método, parece terminarlo y no permitir seguir adelante. Porque si todo es inmóvil y nada puede cambiar, ¿cómo se explica la posibilidad de que en el mundo haya cambios, que es lo que efectivamente percibimos? ¿Qué es ese ser? ¿Y si fuera el agua de Tales? Pero si es el agua de Tales y lo seguimos a Tales, tiene que convertirse en otras cosas, y esas otras cosas antes no eran. Pero algo que es no puede producir cosas que no son, porque las cosas que no son, no son. Nada puede empezar a ser, porque el ser no puede empezar a ser. Es un problema muy serio, que parece paralizar absolutamente todo.
Parménides no niega el cambio en el mundo; simplemente establece que debajo de todo el aparente cambio hay algo que no se modifica, hay algo que forzosamente se queda como está, y que va a ser una y otra vez «la» pregunta: ¿qué es lo que no cambia mientras se suceden los fenómenos? ¿Qué es lo que permanece? Descubrirlo es lo único que nos garantizará el conocimiento verdadero. Y a lo largo de esta historia, como veremos, va a ser la masa o la energía, o el espacio y el tiempo absolutos los que ocupen el disputado sitio de la permanencia. Una y otra vez se intentará ir dando respuestas a este dilema.
En cierto modo, Parménides es el iniciador de la teoría como núcleo duro de la ciencia: lo que interesa no son los fenómenos, que son puramente ilusorios, sino aquello que está por detrás de los fenómenos, aquello que no cambia. Ahí hay una visión muy moderna, como cuando la física actual dice que busca «invariantes». La búsqueda de los invariantes, de las leyes de conservación, va a ser uno de los objetivos de la física moderna, y los invariantes muestran qué es lo que no cambia, qué es lo que se conserva (como la masa o la energía o el espacio o el tiempo absolutos) por debajo de lo que cambia. La ley de conservación de la masa inicia la química moderna; la ley de conservación de la energía preside toda la física del siglo XIX. Cada vez que se rompe, o se vulnera (o parece que se vulnera) una ley de conservación, hay una revolución en la ciencia.
Parménides, sin embargo, seguramente percibió que su filosofía paralizaba todo estudio o comprensión de los fenómenos, y trató de sortear el problema mediante un artilugio que se despliega en la segunda parte del poema, que nos ha llegado de manera fragmentaria: la inclusión de algunos opuestos en la esfera del ser. La luz y la oscuridad, por ejemplo, no son ser y no ser, la oscuridad no es el no-ser de la luz, sino que ambas pertenecen a la esfera del ser. Lo cual le permite introducir dentro de la esfera del ser una especie de dinámica que explique, o que por lo menos justifique, el cambio.
Pero no fue una solución muy convincente: al fin y al cabo, si luz y oscuridad pertenecen a la esfera del ser, y una no es el «no ser» de la otra, no se entiende por qué habrían de ser distinguibles. Al menos, es lo que les pareció a sus contemporáneos, que tacharon a la filosofía de Parménides de lo que hoy llamaríamos «irrefutabilidad» e inconducencia.
La defensa de sus tesis más duras, sin embargo, quedó en manos de sus discípulos, el notable Zenón de Elea y el temible Meliso de Samos.

§. Aquiles y la tortuga: Zenón de Elea
Así como en un sueño ni el que persigue puede alcanzar al perseguido ni éste huir de aquél, de igual manera Aquiles no podía dar alcance a Héctor, ni Héctor escapar del divino Aquiles.
Ilíada, Canto XXII
Zenón de Elea (nacido entre finales del siglo VI y principios del V) es el autor de algunas famosas paradojas (como la de Aquiles y la tortuga) que son un excelente ejemplo de cómo razonaban los eleáticos.
El planteo, que fascinaba a Borges, es el siguiente: Aquiles, el más veloz de los guerreros griegos, que Homero califica como «de los pies ligeros» (ocus podas), no persigue ahora a Héctor alrededor de las murallas de Troya, sino que compite en una mucho más prosaica carrera contra una tortuga, que es el más lento de los animales. Convencido de que su epíteto está bien ganado, el héroe griego le da una ventaja a la tortuga. La pregunta que hacía Zenón, entonces, era la siguiente: ¿alcanzará alguna vez Aquiles a la tortuga? Obviamente todos sabemos que sí, que empíricamente sí, que fácticamente sí.
Pero Zenón razonaba descomponiendo y analizando el movimiento de la siguiente manera: salen los dos y la tortuga empieza a andar. Cuando Aquiles alcanza el punto en que estaba inicialmente la tortuga, la tortuga se ha movido un poco. Cuando Aquiles recorre el nuevo espacio que lo separa de la tortuga, la tortuga otra vez ha vuelto a avanzar. Cuando Aquiles recorre esto, la tortuga se movió un poquito más, y así sucesivamente. Es decir, Aquiles no la alcanza nunca.
Zenón no quería decir que en la realidad Aquiles no alcanza a la tortuga. Lo que quería mostrar era que el movimiento es incomprensible, ininteligible, no reductible a la razón, que conduce a paradojas lógicas. Que esa cosa empírica que uno ve —el hecho de que Aquiles en realidad la alcanza— no significa nada. El movimiento, en definitiva, no se puede pensar. Porque si nos ponemos a pensar en el movimiento, Aquiles queda siempre por detrás de la tortuga, cosa que no es lo que se observa.
Lo mismo ocurre con el planteo de los múltiples cuerpos. Él se preguntaba: ¿puede haber dos cuerpos separados? Y decía «no, porque para que haya dos cuerpos separados, quiere decir que hay algo en el medio, quiere decir que tiene que haber, por lo menos, tres, ya sea aire u otra cosa». Ahora, para que haya tres, tiene que haber dos más, y así sucesivamente. Esto nos lleva a un proceso infinito. Y cuando se llega a un proceso infinito, el pensamiento griego empieza a tener problemas. Tal vez por eso, el propio Parménides se detiene ante la infinitud del ser, y lo limita a una esfera.
Permítanme hacer una pequeña digresión. El asunto del infinito (que se va a resolver, si es que uno lo considera resuelto, recién en el siglo XIX) va a aparecer una y otra vez como un problema, a veces como simple infinito matemático, a veces como la infinita regresión a la que puede llevar la teoría (por ejemplo, la de Tales con el agua), o como la extraña hipótesis de los múltiples universos que muchos consideran parte de la cosmología actual. ¿Qué dicen las cosas? Dicen relaciones matemáticas. ¿Cuál es el discurso de las cosas? El discurso matemático. Galileo sostendrá, dos mil años más tarde, que el libro de la naturaleza está escrito en caracteres matemáticos. Pero hay un carácter, un signo, que no tiene traducción, y ése es el signo del infinito. No parece haber ninguna cosa infinita en el mundo real. Es un bache, un pozo mental de la ciencia donde caen los coches que circulan a toda velocidad.
Volviendo a nuestro tema: el hecho de que los fenómenos no sean inteligibles plantea, como es obvio, un problema serio. ¿Cómo se hace para articularlos de alguna manera con el ser? Ya vimos que Parménides intentó resolverlo en la segunda parte de su poema, y no le salió especialmente bien. ¿Y entonces qué debemos hacer? ¿Desechar por completo a los fenómenos, y entregarnos a la contemplación cuasi mística del Ser?
El problema (la paradoja) del movimiento dejaba abierta una posibilidad, aún más intranquilizadora, apenas una sospecha: quizá los fenómenos sean ininteligibles no sólo porque los sentidos sean débiles… sino porque la razón también lo es para analizarlos como es debido. ¿Y entonces? ¿Por qué habremos de confiar en los resultados que salen de la razón pura?

§. Meliso de Samos
La postura eleática, como vimos, se encuentra ante un callejón aparentemente sin salida. Meliso de Samos, el segundo de los grandes discípulos de Parménides, va a llevar las cosas mucho más allá: va a ir hasta el fondo del callejón y se va a parar junto a la pared donde termina.
En efecto, Meliso, a quien Aristóteles acusaría de «razonar como un campesino y con un método grosero», rompe con la esfericidad del ser de Parménides (arbitraria, si se quiere) y lo hace infinito, ilimitado. Ante el dilema de los fenómenos y su incompatibilidad con el mundo racional del ser, niega radicalmente cualquier posibilidad de conocer los fenómenos, hecho que Parménides había tratado de sortear con el truco que vimos.
Rara filosofía esta que, enfrentándose de manera radical a quienes practican otra manera de aproximación al mundo, «resuelve» el problema milesio a costa de conducir a un inmovilismo total. Tenemos principios generales. Sí, bueno, pero ¿cómo se hace para, con estos principios generales, explicar lo que vemos? El mundo de Parménides, Zenón y Meliso empieza y termina ahí, en el ser. Prácticamente no se puede seguir. Lo que está diciendo Parménides —o Meliso— es «esto es así y no se puede seguir».
Pero si nos empecinamos en seguir, tenemos que resolver el problema del inmovilismo del ser, resolver el problema del cambio, encontrar otra manera de acceder al conocimiento verdadero, de articular el mundo de los sentidos con el mundo metafísico y racional.
Los filósofos griegos siguieron. Y frente al inmovilismo, plantearon soluciones fecundas e interesantísimas.

§. Todos contra el ser: Leucipo, Demócrito y el atomismo
Sólo existen los átomos y el espacio vacío. Todo lo demás es opinión.
DEMÓCRITO
Aquellos que quisieron resolver el problema del cambio tomaron dos caminos completamente diferentes. Uno es el camino radical que ya vimos: no sólo el no ser no es y eso impide el cambio y el movimiento (que también es un proceso de cambio), sino que el propio movimiento es lógicamente impensable. El segundo camino es el que deberíamos recorrer ahora: el de los atomistas, que con una genial intuición filosófica propusieron un principio que la ciencia, más de dos milenios después, se encargaría de revitalizar.
Acá, en realidad, hay un problema que tendremos que enfrentar permanentemente: el de los precursores. ¿Son los atomistas presocráticos precursores del atomismo moderno? ¿O más bien, como le gustaría a Borges, es gracias a los atomistas modernos que la filosofía atomista de la Antigüedad cobra para nosotros un sentido actual?
El problema es, en parte, irresoluble, y ya tendremos ocasión de ver la crítica que les dirige Aristóteles. Pero lo cierto es que los atomistas dieron vuelta el problema de los eleáticos: si lo que imposibilita el movimiento es que el no ser no es (y por lo tanto nada puede ir desde un lugar a otro, porque estaría moviéndose hacia algo que todavía no es), admitamos que hay no ser para que haya movimiento. Hagamos que el no ser sea. Es decir, partamos ese ser inmóvil, continuo, sin fisuras, de Parménides en bolitas de ser, en pequeñas bolitas de materia que no puedan dividirse, y que conserven los atributos del ser parmenídeo, al tiempo que admitimos que entre esas bolitas de ser (infinitas, «increadas», indestructibles, inalterables, homogéneas, sólidas e indivisibles) hay un espacio, un no-ser, en el que se mueven.
Ése es el camino que siguieron Leucipo y su discípulo Demócrito (siglo V a.C.). En griego, las partes se llaman tomos (palabra que permanece cuando hablamos, por ejemplo, de los tomos de una enciclopedia). Y como estas bolitas de ser no tienen partes, se las llama átomos, es decir, sin partes. Los atomistas, entonces, logran esquivar el problema de la inmovilidad haciendo que haya no ser, «vacío», y que en ese vacío pululen bolitas de ser que son los constituyentes de todas las otras cosas. Los átomos están permanentemente en movimiento, incluso cuando ya han formado los compuestos, lo cual explica que de una cosa surja otra: son simplemente átomos que se combinan y se recombinan incansablemente, ayudados por la existencia de un espacio vacío en el que tienen libertad para moverse.
Simplicio (490-560), en su comentario a la física aristotélica, aseguraba:
[Demócrito] suponía que la realidad de los átomos es sólida y plena, y la llamó «ser», y que se mueve en el vacío, al que llamó «no ser», diciendo que éste existe tanto como el ser.
Así, el no ser se identifica con el vacío; Descartes, dos mil años más tarde, suscribirá esta opinión y negará la existencia de ese vacío. Pero en el mundo de los atomistas, entonces, hay vacío. Y átomos. Solamente átomos y vacío. Ése es el conocimiento verdadero (episteme). Lo demás es doxa (opinión). Por otra parte, la existencia de los átomos es obvia, arguyen: ¿cómo puede explicarse, si no, que un cuchillo corte la manteca, si no hay intersticios por los cuales penetra en ella?
Como los otros «físicos», o filósofos de la physis, Leucipo y Demócrito postulan la indestructibilidad de la materia y la existencia de una unidad sustancial, pero, como los eleáticos, se alejan de la observación y de la experiencia (pues el átomo no cae bajo la órbita de los sentidos). Sólo los átomos y el vacío son reales y, aunque no sean sensibles, conservan un resabio de empirismo.
Las colisiones entre los átomos producen separaciones y uniones, formando todas las agrupaciones que se ven a simple vista. Las diferencias entre los objetos físicos (cuantitativas y cualitativas) se explican en términos de modificaciones en la forma, distribución y posición de los átomos. La verdadera realidad, el ser, no está al alcance de los sentidos, sino que subyace. El conocimiento legítimo es el que proviene del entendimiento.
No está claro si así como consideraron a sus átomos físicamente indivisibles, los consideraron también matemáticamente indivisibles. ¿No advirtieron que si los átomos difieren en forma implica que tienen volumen? Y entonces ¿por qué no se podrían, aunque fuera teóricamente, dividir? Aunque físicamente fueran indivisibles: ¿no podríamos pensar en dividirlos de manera teórica (matemática), del mismo modo que, si tenemos un cubo de material indivisible en la práctica, podemos pensar en la mitad de ese cubo? ¿O en un cuarto?
Otra cosa que resulta interesante es que Demócrito intenta trazar, aunque primitivamente, un vínculo entre la realidad física de fondo y las sensaciones. Por ejemplo, los diferentes sabores que experimentamos en el paladar están producidos, según su teoría, por las diversas formas de los átomos: aquellos que terminan en punta son los responsables del sabor amargo, los átomos redondeados se ocupan de producir la sensación de dulzura. Como ven, el círculo es siempre el prototipo de lo bueno, herencia de Parménides y Pitágoras que durará más de lo que hubiera sido bueno, ni más ni menos que hasta que Kepler haga su irrupción en el siglo XVII. Asimismo, lo pesado y lo ligero de los cuerpos está determinado por las cantidades de átomos y vacío que los forman; si predominan los primeros, es pesado, si no, es leve (los griegos, y después lo confirmará Aristóteles, consideraban el peso y la levedad como dos cualidades diferentes)… y así sucesivamente.
En el sistema atomista no hay plan preestablecido ni ciclos a los que pueda asignarse un fin. La materia eterna engendra, por su sola estructura, la diversidad de las cosas, sin más ley que la del azar, que es un azar causal y que reina sin límites sobre los átomos.

§. La solución de Empédocles: los cuatro elementos (la fractura de lo Uno)
Decirlo otra vez no está de más: uno de los grandes problemas de la filosofía de Parménides, aquel al que tuvieron que enfrentarse con obstinación los filósofos posteriores, era el del cambio. La construcción de Parménides parecía genial, pero prácticamente imposibilitaba acceder a la explicación de cualquier fenómeno natural. Ahora bien: en rigor, este problema que la escuela eleática dejó como su gran legado para la historia del pensamiento ya estaba implícito en el sistema de los milesios. La ciencia milesia, en efecto, estaba basada en una sustancia original, fuera la que fuere, pero explicaba flojamente, muy flojamente, la manera en que esa sustancia se transformaba en las demás. ¿Cómo es que el agua llegaba a ser piedra? O, mejor aún, ¿cómo llegaba a convertirse en su contrario, el fuego? ¿Cómo explicar ese cambio? La verdad es que resultaba muy difícil. La condensación y rarefacción de Anaxímenes trataban de aclarar el asunto, pero en verdad aclaraban muy poco. ¿Quién podía creer seriamente que el aire se condensaba hasta hacerse duro como la piedra? Enfrentado a esta situación, Empédocles (siglo IV a.C.) se puso a buscar una solución al problema milesio. Y se podría decir que la encontró. Empédocles, según parece, fue un personaje bastante estrafalario, que además de filósofo fue místico, taumaturgo, médico y político. Las narraciones sobre su muerte son fantasiosas: algunos cuentan que desapareció durante un sacrificio; según otros, se arrojó al cráter del Etna para demostrar que era inmortal, cosa que, al parecer, no dio resultado.
Decíamos, entonces, que nuestro filósofo detectó muy bien el problema (la imposibilidad de explicar el cambio) e intentó resolverlo. Así como los atomistas dividieron el Ser, Empédocles fragmentó la sustancia originaria: propuso, así, que no hay una sola de la que surgen todas las demás sino que hay varias. Cuatro, en realidad, que son las que van a sobrevivir como los elementos griegos por excelencia: el aire, el agua, el fuego y la tierra. Es una elección bastante razonable, a la cual une los cuatro principios: lo húmedo, lo seco, lo frío, lo caliente. Pero también es un paso radical: lo «uno» tiene una atracción irresistible, pero cuatro suena un poco arbitrario… ¿Por qué 4 y no 5, o 10, o 92?
No hay una buena explicación al respecto. Sea como fuere, mediante la combinación de esas cuatro sustancias se forman todas las demás, por la acción de dos fuerzas, de unión y rechazo, que él llama Amor o Amistad (philia) y Odio (neikos). Incluso llegó a dar lo que nosotros llamaríamos «proporciones» de agua, tierra, fuego y aire, por ejemplo, en los huesos y en la sangre. Estableció que el hueso está integrado por fuego, agua y tierra en la proporción 4:2:2; la sangre y diferentes tipos de carne están formados por las cuatro raíces en igual proporción.
No es simple saltar de una cosa a la otra, de una sustancia originaria a cuatro. Pero ahora ya tenemos un principio para funcionar. Podemos analizar los objetos. El papel en que está impreso este libro será una mezcla de esas cuatro sustancias. Es cierto que la postulación no responde a nada que a nosotros nos pueda parecer un análisis químico, ni es en absoluto lo que hoy llamaríamos un «estudio cuantitativo», pero —de todas maneras— señalaba un camino.
En cuanto a su costado epistemológico, Empédocles admite, como Parménides, que los sentidos son débiles, cosa en la que en general casi todo el mundo está de acuerdo. No falsos sino débiles.
Mas, ea, observa con todas tus fuerzas cómo se manifiesta cada cosa, sin confiar más en la vista que en el oído, ni en el oído rumoroso por encima de las declaraciones de la lengua, ni niegues fiabilidad a ninguno de los otros miembros (órganos, partes del cuerpo) por los que hay un camino para entender, sino aprehende cada cosa por donde es clara.
La imagen que vemos en el espejo es ilusoria pero nadie intenta atravesar un espejo; nadie intenta atrapar el horizonte, pero sí distingue dónde está la puerta y sale por la puerta. Si se utilizan inteligentemente, los sentidos pueden ser una buena herramienta. Esta idea de «utilización inteligente de los sentidos», por definición, engañosos y traicioneros, va a llevar siglos más tarde a la idea de experimento, a la tentación de aislar el fenómeno hasta un punto en que los sentidos lo puedan percibir sin posibilidad de error.
Si los sentidos son débiles, es tentador hacer el experimento con la razón mediante experimentos mentales. La paradoja de Zenón de Elea, con Aquiles y la tortuga, es un experimento mental; Zenón no necesita que la carrera efectivamente se desarrolle, le basta con pensarla. Lo que tiene de bueno un experimento mental es que, cuando uno lo piensa, puede operar con conceptos puros y así se libera de las molestias de la empiria.
Pero resulta que para Empédocles la razón también es débil.
Angostos son los recursos esparcidos por el cuerpo y muchas son las miserias que golpean dentro y embotan el pensamiento. Los hombres contemplan en su vida sólo una breve parte de ella, después rápidos en su morir se van volando como el humo, persuadidos sólo de que cada cual es arrastrado en todas direcciones, según su suerte. Pues, ¿quién se vanagloria de haber encontrado el todo? Estas cosas no deben ser vistas ni oídas así por los hombres ni captadas por el pensamiento. Tú, pues, ya que te has apartado a este lugar, aprenderás: el ingenio humano no puede alcanzar más allá.
En el caso de los sentidos, la definición de «débil» es más simple: los sentidos confunden, no reflejan cómo son las cosas en realidad. ¿Pero qué significa decir que la razón es débil? Pensemos lo siguiente: sabemos que hay un sustrato y, si queremos explicar el cambio, tratamos de explicarlo. Pero tenemos que explicar la relación entre el sustrato y el cambio. Una cosa es decir que hay un sustrato, algo inmóvil, lo que se conserva. Yo soy la misma persona ahora que ayer. Sin embargo, hago cosas distintas. Yo puedo explicar las cosas distintas que hago. ¿Pero cómo hago para explicar que es la misma persona la que hizo todas esas cosas distintas? Hay que explicar la conexión entre el sustrato parmenídeo (lo que es, lo que es inmóvil, lo que no cambia, en este caso yo mismo) y los fenómenos que se dan. Y eso no es simple. Entonces, como no es simple y no se puede explicar, Empédocles dice que la razón también es débil.
¿Es efectivamente débil la razón? Toda la ciencia moderna está construida sobre la presunción de que no lo es. Por otra parte, ahora algunas corrientes filosóficas sostienen que uno podría pensar que determinados fenómenos son demasiado complejos y no son reductibles racionalmente. De hecho, para que ciertos fenómenos caigan dentro de la ciencia, uno tiene que renunciar a reducirlos racionalmente. Aquí, como vemos, Empédocles plantea un problema. ¿Cómo podemos averiguar lo que es el conocimiento verdadero si fallan tanto los sentidos como la razón?
¿Qué compromiso podemos asumir para poder movernos en un terreno en el que evitemos esa debilidad de la razón? Hay un camino, hay un terreno en el que la razón se mueve a sus anchas, sin problemas y sin síntomas de debilidad: las matemáticas. Es un lugar donde no tiene que discutir con fenómenos ni ocuparse de fenómenos. Tiene que ocuparse de relaciones puras. Ése es el camino que eligió una escuela muy importante que venía desarrollándose a partir del siglo V en el sur de Italia. Viajemos hacia allí.

§. Pitágoras y el camino de los números
Muy poco es realmente lo que se conoce acerca de Pitágoras. Se conjetura que nació en la isla de Samos, la rival comercial de Mileto, situada en el mar Egeo, hacia la mitad del siglo VI a.C. y que luego se trasladó a Crotona, en la llamada Magna Grecia —es decir, territorios griegos en lo que ahora es Italia— para huir de la tiranía de Polícrates. Dicho sea de paso, Polícrates fue tirano de Samos desde 540 hasta 515 a.C. y, según cuenta la historia, era malísimo y no tenía ningún tipo de escrúpulo moral: se deshizo de sus hermanos que al principio habían reinado con él; solía emplear su gran flota en la piratería; terminó crucificado luego de ser engañado por el sátrapa persa de Sardes.
La figura de Pitágoras está rodeada por la leyenda, y así, aunque algunos autores dicen que fue hijo del dios Apolo, otros prefieren, de manera mucho más creíble, hacerlo hijo del rico ciudadano Mnesarcos.
Pitágoras fue el mentor de un grupo de matemáticos que tuvo gran tradición, de modo que muchos matemáticos del grupo ciertamente posteriores a Pitágoras le atribuyeron al maestro obras propias. Contrariamente a lo que sucedía con los milesios, al grupo pitagórico no le interesaba el estudio de lo relativo a la naturaleza. Además de sus virtudes científicas, fueron un grupo mancomunado por creencias y prácticas religiosas.
Creían en la inmortalidad y la transmigración de las almas y practicaron abstenciones rituales: por ejemplo, no podían comer alubias. Esta prohibición, que puede parecer rara, provenía de la tradición órfica, según la cual las almas, entre encarnación y encarnación, solían alojarse en las alubias, de modo tal que comerse un guiso podía significar almorzarse a una población entera. El grupo de Pitágoras fue influyente en el gobierno de Crotona, hasta que los ciudadanos se volvieron contra él, y tuvo que marcharse a Metaponto, también en el sur de Italia, donde finalmente murió.
La vida y la doctrina de Pitágoras fueron sin duda deformadas por la atmósfera mística que envolvió al grupo. La imposición del secreto y del silencio místicos que regía en la escuela pitagórica contribuyó sobre todo en lo que tiene que ver con la no-divulgación de los conocimientos. Pitágoras y su escuela pertenecen casi por igual a la ciencia y a la filosofía, a la mística y a la política: porque Pitágoras también fue un sacerdote de extraños rituales y un político que hasta tuvo que huir cuando los vientos del poder no soplaban del lado conveniente.
Los pitagóricos elaboraron un sistema astronómico, aunque fantasioso, muy interesante y del que hablaremos en su momento, y parece que fueron los primeros en asignarle a la Tierra una forma esférica. En cuanto a lo estrictamente matemático, que es lo que más nos interesa acá, es especialmente necesario señalar la opinión de Aristóteles, que como se habrán dado cuenta por las varias citas que fueron apareciendo, es una de las fuentes más importantes para entender qué pensaban los filósofos presocráticos (aunque hay que tener en cuenta que todos sus comentarios, como los comentarios de todo buen filósofo, sirven para apuntalar su propia doctrina). En su Metafísica, el gran filósofo griego explicaba:
Los denominados pitagóricos, dedicándose a las matemáticas, las hicieron avanzar, y nutriéndose de ellas, dieron en considerar que sus principios son principios de todas las cosas que son.
Es decir, el origen son los números.
Y, puesto que las demás cosas en su naturaleza toda parecían asemejarse a números, y los números parecían lo primero de toda naturaleza, supusieron que los elementos de los números son elementos de todas las cosas que son, y que el firmamento entero es armonía y número.
Múltiples semejanzas entre los números y las cosas… eso es mucho decir. Un ejemplo particularmente ilustrativo e interesante —también citado por Aristóteles— es la cuestión de la música: los pitagóricos descubrieron que hay relaciones numéricas precisas entre los sonidos. Una cuerda de la mitad de la longitud de otra da la misma nota, sólo que una octava más alta, y lo mismo ocurre con los acordes de cuarta y de quinta, que responden a relaciones numéricas. Estas relaciones no son para nada evidentes; no hay ninguna razón para suponer que la identidad de las notas tenga algo que ver con los números.
Pero los números parecen ser la razón subyacente de las armonías musicales: hay un sustrato en el que ocurren las relaciones numéricas, que se manifiestan en el mundo sensible como armonías musicales, de la misma manera que para los milesios había un sustrato en el que el aire o el agua se condensaban y se manifestaban como piedra.
Los pitagóricos habían llegado al principio de la semejanza formal entre los números y las cosas. Y la verdad es que podían haberse quedado en la idea de semejanza formal y su doctrina ya habría sido lo suficientemente novedosa como para merecer espacio en estas páginas. Pero había un paso audaz que estaba cantado, y los pitagóricos lo dieron: no es simplemente que las cosas se parecen a los números, sino que las cosas consisten en números. Así, establecen un principio abstracto como la esencia de todas las cosas; ya no es el agua, ni el aire, ni siquiera los cuatro elementos de Empédocles. Ahora la esencia de las cosas es una idea abstracta.
Y, a decir verdad, fueron tal vez un poco más lejos de lo aconsejable: identificaron a la Justicia con el número 4 por tratarse del primer número cuadrado (2 al cuadrado), al matrimonio con el 5, que representa la unión del macho (3) con la hembra (2), y creían que todo el cielo era una escala musical y un número y que, de acuerdo con la doctrina de la armonía de las esferas, los movimientos de los cuerpos celestes originan sonidos acordes, aunque inaudibles.
De cualquier modo, y por más mística y arbitraria que suene por momentos, la armonía de las esferas fue una creencia que duró hasta el mismísimo Kepler en el siglo XVII. El sustrato numérico pitagórico es un bello precursor del libro de la naturaleza escrito en caracteres matemáticos de Galileo, con todo el cuidado que hay que tener con la cuestión de los precursores.
Lo cierto es que si bien la metafísica pitagórica es central para comprender el pensamiento general de la escuela, y consiguió resultados tan impresionantes y bellos como el teorema de Pitágoras (todos conocen el enunciado de que la suma de los cuadrados de los catetos de un triángulo rectángulo es igual al cuadrado de la hipotenusa), ellos también tuvieron que enfrentarse a un escollo serio, un escollo que partía del mismo glorioso teorema. Fíjense lo siguiente: si tenemos un triángulo rectángulo cuyos lados miden 1 cada uno, el cuadrado de la hipotenusa, si seguimos el teorema, tiene que medir lo mismo que la suma de los cuadrados de los catetos. Es decir: 12+12=H2. Entonces H2= 2 y H=√2. Es decir que la hipotenusa mide exactamente √2.

004.jpg

Y ahí surgió el problema fatal, porque los mismos pitagóricos lograron demostrar que √2 no es un número, o por lo menos no es un número como lo concebían ellos, ya que no es ni un número entero ni puede expresarse como la relación de dos números enteros p/q. Si quieren enterarse de cómo se demuestra la irracionalidad de la raíz de dos, pueden ver el recuadro de la página siguiente. Lo pongo así, en recuadro, para destacarlo y para que lo puedan saltear, pero les recomiendo que no lo hagan porque es, creo, una de las demostraciones más bellas (y sencillas) que existen, aunque tuvo consecuencias devastadoras para los pitagóricos.

Demostración de la irracionalidad de la raíz de 2
Vamos paso a paso.
Recordemos que cadanúmero natural tiene una única factorización en factores primos, salvo el orden.Por ejemplo, 60 = 2. 2.3.5
Ahora fíjense queen un número al cuadrado, por ejemplo 60 al cuadrado, cada factor aparece un númeropar de veces, porque se repite la factorización del número base.

60 × 60 = 2.2.3.5.2.2.3.5

y eso pasa con cualquiernúmero. Si en un número n el factor 7 aparece tres mil veces, en n al cuadrado,aparecerá seis mil veces.
Entonces: en cualquiernúmero al cuadrado, el factor dos (o cualquier otro) aparece un número par deveces. Ahora volvamos a la √2
Y supongamos que √2 = p/q
De lo cual sale 2 = p2/q2
Y que 2q2 = p2
Lo cual no tiene nada de malo.
Ahora tenemos dos números iguales: 2q2 y p2, que, por ser iguales, tienen que factorizarse de la misma manera. Y veamos: ¿cuántas veces aparece el factor dos en p2? Un número par de veces, porque es un cuadrado. ¿Y cuántas veces aparece en 2q2? Un número par de veces, porque q es un cuadrado, más una vez que es el dos queaparece multiplicando del lado izquierdo, es decir, un número par de veces, porque q2 es un cuadrado, y una vez más, o sea, un número impar de veces. Pero como los dos números son iguales, no pueden tener factorizaciones diferentes.Absurdo.

Imaginen. Ellos suponían que todo consiste en números y que el conocimiento expresa relaciones entre los números. Pero he aquí que una entidad, que ciertamente pertenece a la ciencia (la diagonal de un cuadrado) no puede ser expresada con números enteros. Un gigantesco golpe para la metafísica y la física pitagórica, que involucra toda una cosmovisión particular. Sería algo así como que hoy nos demostraran la imposibilidad lógica de que algo esté constituido por átomos. (Hoy, el concepto de número se extendió lo suficiente como para incluir entidades como las raíces cuadradas irracionales.)
¡Un número que no es un número! Era lo peor que les podía pasar, una verdadera tragedia, porque atacaba las bases mismas de su filosofía, y, además, parecía demostrar que la razón era débil donde más fuerte creía ser. Existe una leyenda según la cual Hipaso de Metaponto, miembro de la escuela, divulgó el secreto y los pitagóricos decidieron erigirle una tumba, por más que estuviera vivo, para demostrar que para ellos estaba muerto. Otras tradiciones sostienen que lo asesinaron.
Fue un desastre. Con la raíz de 2 cayó toda una cosmovisión que, sin embargo, sigue teniendo sus adeptos en la realidad. No es que alguien crea, a esta altura del partido, que el número 3 se corresponda con alguna entidad como la justicia o el amor. Pero sí son muchos los que creen —vergonzantemente a veces, a veces sin saberlo— que los números subyacen al mundo, y gran parte de la investigación científica actual se hace bajo este presupuesto. Sin ir más lejos, creo que todo matemático cree, en el fondo, que los números organizan la empiria, que lo que es matemáticamente posible, es, y que aquello que no es matemáticamente posible, no es. ¡Ah, Parménides!
Nos vamos, finalmente, a Atenas.

Capítulo 4
Platón y Aristóteles

En estos dos primeros capítulos que pasaron vimos cómo los filósofos-científicos griegos fueron creando y afinando sus instrumentos: los milesios descubrieron la naturaleza y las explicaciones naturales, los eleáticos cuestionaron la empiria y llevaron la ciencia a un callejón sin salida. Para sortearlo, los atomistas fracturaron el Ser de Parménides en infinitos átomos que se movían en el espacio vacío, Empédocles rompió la unidad del elemento originario que trababa la cosmovisión milesia, los pitagóricos emprendieron un itinerario puramente intelectual tras el cual chocaron con la muralla invencible de la raíz cuadrada de dos.
Cada uno de ellos, cada escuela, ejercitó su instrumento con especial virtuosismo. Sólo faltaba que se juntaran en una orquesta y dieran un sonido único, un gran acorde armónico que combinara con diferentes énfasis a todos.
Y es que el escenario ya estaba listo para las dos gigantescas síntesis de la filosofía antigua, las que llevaron a cabo dos de los pensadores más importantes de la historia occidental (a tal punto de que hay quien afirma que todo el pensamiento posterior no es más que una nota al pie de sus escritos): Platón y Aristóteles.
Ambos, con sus sistemas y sus debates, determinaron la filosofía y la ciencia posteriores. Y es por eso que vale la pena ocuparnos de ellos con cierto detalle.

§. La muerte de Sócrates
Hemos desembarcado en El Pireo, el puerto de Atenas, y por las conversaciones que logramos entender de entre la multitud comprobamos que lo hemos hecho en un día aciago: Sócrates ha sido condenado a muerte por el tribunal ateniense y deberá beberse la copa de cicuta antes de que se ponga el sol. Nos apresuramos hacia los tribunales del gobierno ateniense para acompañar al Maestro.
Así entramos en un pequeño salón en el que Sócrates está reunido con sus discípulos. Con tanta mala suerte que, apenas cruzamos la puerta, el Maestro se levanta y pasa a otra cámara para bañarse. Por suerte el baño dura poco, lo que tarda Sócrates en despedirse de sus hijos y mujeres. Vuelve, al rato, con sus discípulos y nosotros (que también, como todo occidental, somos sus discípulos). Y ya cerca de la puesta del sol, llega el funcionario a quien le han asignado la funesta tarea de darle a Sócrates la orden de beber la copa que acabará con su vida. Algo conmovido, y en un griego bastante accesible, dice:
—Sócrates, no pensaré de ti lo que pienso de otros que se enfurecen contra mí y me maldicen porque les traigo la orden de beber el veneno, según obligan los magistrados. De ti ya he conocido en todo este tiempo que eres el hombre más noble, paciente y bueno de cuantos jamás vinieron aquí, y ahora sé bien que no te enojas contra mí, sino contra los culpables, que ya los conoces. Ahora, pues, como sabes lo que vengo a comunicarte, adiós, y procura soportar sencillamente lo inevitable.
Llorando, da media vuelta y se marcha. Sócrates dice, imperturbable:
—Salud también a ti, y yo haré lo que me dices. Que alguien traiga el veneno.
Desde un rincón se escucha una vocecita tímida:
—Me parece a mí, Sócrates, que todavía está el sol más alto que los montes y que aún no se ha puesto. No tengas prisa, que aún hay tiempo.
Sócrates responde:
—Con razón esos que tú dices lo hacen, pues creen que ganan algo con hacerlo, y con razón yo no lo haré, pues no me parece que sacaría otro provecho con beber un poco más tarde que el que se rieran de mí por aferrarme a la vida y andar ahorrando lo que ya nada es. Así que obedeceré.
Con lágrimas en los ojos, uno de los discípulos le hace un gesto al otro villano involuntario de la sesión, el burócrata encargado de darle el veneno disuelto en una copa. Sócrates, tan acostumbrado a hacer preguntas cuyas respuestas conoce mejor que su interlocutor, esta vez indaga con humildad:
—Vamos, amigo, tú que sabes de esto, ¿qué es lo que hay que hacer?
—Nada más —dice— que dar unas vueltas después de beber, hasta que te venga en las piernas pesadez, y entonces has de acostarte y de esta manera hará su efecto.
Dicho esto, alarga la copa a Sócrates. Él la toma y, muy serenamente, sin temblar ni alterársele ni el color ni el rostro, aplica la copa a los labios y apura la bebida. Sócrates, el más importante pensador de la Grecia clásica, ha bebido el veneno y su tiempo de vida es contado. Todos lloramos.
— ¿Qué hacen, hombres desconcertantes? —dice Sócrates, quien continúa imperturbable—. Precisamente por ese motivo despedí a las mujeres, para que no cometieran estos excesos, pues en verdad tengo oído que se debe morir en religioso silencio. Así, pues, no alboroten y conténganse.
Después de dar unos paseos, que miramos con solemne atención, dice que le pesan las piernas y se acuesta boca arriba. El que le había dado el veneno le aprieta fuertemente los pies y le pregunta si lo siente. Sócrates dice que no. Mirándonos, va tocando cada vez más arriba y nos explica que el veneno va subiendo y enfriando el cuerpo. El momento final será cuando llegue al corazón.
Ya está frío el bajo vientre cuando Sócrates se descubre, pues estaba cubierto con un velo, y dice algo sobre una deuda que olvidó pagar a Esculapio. Con estas últimas palabras, se extingue la vida del gran filósofo, quien, según sus discípulos, fue el más justo y el más prudente de todos los hombres.
En un rincón, llora un hombre joven y de anchas espaldas. Preguntamos quién es, y nos dicen: Platón. Y nosotros, a pesar de la congoja, nos alegramos de verlo, ya que veníamos, precisamente, a buscarlo.

§. Atenas, capital del siglo V
En aquella época era posible, como en pocas más, ser a la vez inteligentes y felices.
BERTRAND RUSSELL
Salimos afligidos al aire libre de Atenas, pero las lágrimas no nos impiden comprobar apenas con una mirada (estamos en la segunda mitad del siglo V) que Atenas ha crecido hasta convertirse en el centro intelectual de Grecia. Los filósofos precedentes solían enseñar en las regiones de Jonia (como Mileto) o en la magna Grecia (Elea), pero a partir de la generación de Sócrates (470-399 a.C.) cada vez más los pensadores importantes o bien nacen aquí, o bien pasan aquí buena parte de su vida intelectual.
De hecho, Platón y Aristóteles, al fundar la Academia y el Liceo, respectivamente, convocaron a filósofos y científicos de toda Grecia. Pero ésa es sólo una de las transformaciones. La otra, imprescindible para entender contra quién discute Platón, es la expansión de los sofistas, filósofos ambulantes e independientes que buscaban sus alumnos entre los jóvenes de la polis, y que iban más allá de la educación tradicional griega, que se centraba en la gramática, la música y la poesía, extendiendo sus disertaciones a cualquier tema. Y cobraban por sus enseñanzas, además, lo cual escandalizaba a Platón. Estos hombres investigaron, más que problemas de la physis o del origen, al hombre como ciudadano: la incipiente democracia ateniense necesitaba, para consolidarse, de hombres que supieran expresarse y persuadir al público de que su opinión era la correcta.
Así, los sofistas se dedicaron a enseñar el arte de la persuasión y cuestionaron la existencia de un mundo objetivo más allá de las percepciones privadas de los hombres, inaugurando una forma de relativismo que Platón quiso combatir con un sistema filosófico cuyo objetivo fue determinar algún absoluto al cual aferrarse.
Y, por fin, hubo otra transformación que incidió sobre el desarrollo de la filosofía y de las ciencias en el Siglo de las Luces griego (y, de rebote, en todo el pensamiento posterior): Sócrates, ese gigantesco pensador, feo y desgarbado, a cuya desalentadora muerte asistimos, que contribuyó de manera decisiva a reorientar la filosofía hacia un pensamiento más centrado en el hombre que en la naturaleza.
Sobre este complejo panorama se cierne la figura impresionante de Platón.

§. Platón y sus andanzas
Aquel hombre joven que lloraba se llamaba en realidad Arístocles, había nacido en 427 a.C., habría de morir en 347 a.C., y era conocido por todo el mundo como Platón («el de anchas espaldas»); así lo llamaremos nosotros. Lo importante es que la mirada platónica del mundo sobrevivió durante siglos a través de su obra y de la influencia que ejerció sobre algunos filósofos contemporáneos, empezando por Aristóteles.
Platón nació en Atenas en el seno de una familia noble y tuvo la mejor educación que se podía tener en su tiempo. A los veinte años conoció a Sócrates, por entonces de 63, del cual fue alumno hasta que se produjo la tragedia de la cicuta. Después de varias aventuras y viajes (entre las cuales destaca un breve cautiverio entre los piratas) y de algunas tentativas infructuosas de dedicarse a la política, regresó a Atenas y fundó la primera escuela de filosofía organizada, la Academia, que situó en las afueras de la ciudad, en jardines que el héroe Academo había dedicado al culto de Cástor y Pólux, y que condujo durante veinte años bajo el lema «que no entre aquí quien no sepa geometría». Los filósofos naturalistas habían tratado de explicar el mundo o los fenómenos del mundo apelando a causas físicas o mecánicas, con la excepción de la escuela de Elea, los pitagóricos y Anaxágoras, un filósofo del que no hemos hablado aún —falta grave— pero que es importante porque traduce el clima intelectual de la época de Sócrates. Vamos a dedicarle unas palabras.

§. Anaxágoras: el nous
Anaxágoras (500-428 a.C.) fue no sólo uno de los filósofos más originales y famosos de su época (lo cual le valió, dicho sea de paso, una condena al exilio), sino quien detenta el gran honor de haber introducido la filosofía en la que pocos años después se convertiría en la capital indiscutible del pensamiento filosófico de la antigüedad.
Aunque nació cerca de Mileto, en Clazomene, Anaxágoras se trasladó a Atenas, donde se hizo famoso como especialista en las «cosas del cielo» y disertó ante audiencias selectas entre las cuales uno podía encontrar, si miraba con atención, al dramaturgo Eurípides o al mismísimo Pericles, gobernante de Atenas. Se cuenta que, en una ocasión, alguien le criticó su falta de interés por las cuestiones públicas y de la patria. Señalando al cielo, respondió que nadie más que él se preocupaba por su patria.
De hecho, nuestro filósofo se ocupó de intentar describir cómo era esa naturaleza (physis) que había intrigado a los pensadores desde Tales en adelante, a tal punto que se cuenta que pudo predecir la caída de un meteorito (esto es naturalmente falso, ya que la caída de un meteorito no se puede predecir; si la leyenda es cierta, digamos que tuvo suerte) y afirmar, muy temerariamente, que los astros no eran de ninguna manera dioses sino piedras comunes y silvestres. Al mismo tiempo, sugirió que el Sol era una piedra ardiente del tamaño del Peloponeso y que era quien mandaba su luz a la Luna, que esta última estaba habitada y que los terremotos no eran otra cosa que el movimiento de la superficie terrestre producido por la agitación de masas de aire encerradas en las vísceras de la Tierra.
Otra anécdota interesante relata que cierta vez un campesino le llevó a Pericles, cuando aún no gobernaba Atenas, una cabeza de carnero que tenía un solo cuerno en la frente; mientras que un adivino interpretó el hecho como un vaticinio del futuro triunfo de Pericles, Anaxágoras prefirió analizar el cráneo para determinar las razones anatómicas de la anomalía.
Bueno, ahí tienen. Y ya les conté que por no respetar las creencias tradicionales fue expulsado de la ciudad. Pero el punto central de su filosofía, de acuerdo con los pocos fragmentos de que disponemos, tiene que ver con el problema del origen de las cosas, que, como vimos, fue una obsesión para los griegos y, como veremos a lo largo de este libro, lo sigue siendo para nosotros.
Anaxágoras intentó despegar la filosofía de Parménides del inmovilismo a que conducía con el objetivo de lograr explicar el evidente discurrir del mundo. Para eso, como los atomistas, supuso que todas las cosas, en el origen, estaban juntas al mismo tiempo, «infinitas tanto en cantidad como en pequeñez», y que a partir de ellas, por un proceso que no llegaba a explicar muy bien, se formaba todo lo que conocemos.
Esta mezcla desordenada y heteróclita no podía empezar a ser sino gracias al trabajo de un Intelecto (nous), que funcionaba como un principio encargado de poner en marcha el movimiento. Obviamente, con semejante teoría del origen, Anaxágoras no podía sino pensar que, en última instancia, el verdadero conocimiento no podía sostenerse en el testimonio de los sentidos, que muchas veces se mostraba débil, sino que debía centrarse en el nous.
En principio, la teoría le encantó a Platón, aunque luego aseguraba que se quedaba a mitad de camino. Él mismo nos lo dice:
Habiendo oído que Anaxágoras afirmaba que el Intelecto es el Ordenador y la Causa de todas las cosas, gocé con la explicación y me creí contento de haber encontrado la verdad sobre la causa de los seres. Pero entonces vi que mi héroe no utilizaba para nada el Intelecto y que no le atribuía ninguna causa al ordenamiento de las cosas, sino que recurría, como siempre, al aire, al éter, al agua y a otras cosas extrañas.
Es decir que Anaxágoras postulaba el intelecto, pero al final no lo usaba para nada.

§. Los «dos mundos» de Platón
Lo que Platón descubrió, o determinó, o decidió, fue que el impulso de los naturalistas, que había sido decisivo para el comienzo de la filosofía y de la ciencia griegas, llegaba hasta un punto en el que no podía motivar más el avance. Desde el comienzo, desde Tales, los naturalistas habían intentado explicar lo sensible en función de lo sensible mismo, de buscar la causa de todas las cosas naturales, de todo lo empírico, en otras cosas naturales (ya fuera el agua, el aire o los cuatro elementos). Pero se topaban con problemas irresolubles: si el agua dio origen a todo, ¿quién dio origen al agua? ¿Y cómo podía salir del agua su opuesto, el fuego? Había algunas soluciones tentativas, como el ápeiron de Anaxágoras, pero lo cierto es que hasta ahí parecía llegar el naturalismo griego.
Por el otro lado, la filosofía de Parménides había detenido el desarrollo de la ciencia en la especulación metafísica sobre el ser. El pensamiento oscilaba como un péndulo entre la dudosa empiria y la metafísica del ser. Por lo tanto, era necesario abrir una vía nueva o el péndulo seguiría oscilando para siempre. Platón, entonces, tomó el toro por las astas y postuló la existencia de dos reinos: al ser de Parménides lo redefinió como mundo suprasensible, «inteligible», accesible sólo mediante el intelecto, y toma la empiria naturalista, y la convierte en el mundo de los sentidos, el mundo sensible, y los hace coexistir.
Pongamos un ejemplo de Platón que empezará a aclararnos el panorama: ¿Por qué nos parece bella una cosa? Es una cuestión difícil de resolver. No se trata de decir qué cosas son bellas sino de definir verdaderamente qué es la belleza, es decir, qué es aquello que hace que todas las cosas bellas sean bellas. Una postura naturalista lo atribuiría a elementos puramente físicos: color, figura, tamaño o a cualquier combinación de cualidades, pero Platón nos dice que esos rasgos aprehendidos por los sentidos no aseguran nada: si algo es bello es a causa de algo superior que le otorga la cualidad de belleza.
Ese algo, que no pertenece al mundo de lo sensible, es una idea o forma de lo bello, que hace que las cosas sensibles sean bellas participando de ella. Y este razonamiento se aplica a todo, lo cual implica que para que exista cualquier objeto físico debe haber una causa suprema y última que no es de carácter físico sino metafísico. Así, hay dos planos: uno fenoménico y visible y el otro captable sólo con la mente.
Estas «causas» de naturaleza no física fueron llamadas por Platón «ideas» (eidos en griego significa «forma») y son las que pueblan y estructuran el mundo del Ser. No son proyecciones ni representaciones mentales ni pensamientos, sino cosas que existen realmente. Son la esencia de las cosas, aquello que hace que cada cosa sea lo que es. No dependen del sujeto ni son modificables por él, sino que, al revés, se imponen al sujeto de manera absoluta y no están sometidas al mundo sensible del devenir.
Una cosa bella puede corromperse y dejar de ser bella, pero la idea de belleza es absolutamente inmutable, como lo es la idea de silla, la idea de caballo o la idea de libro. Así que, si son platónicos, pueden sentirse tranquilos: si alguna parte de este libro se pierde o se corrompe, la idea permanece.
Así, y en cierto modo como los atomistas dieron estructura al no ser, poblándolo de vacío y de átomos, Platón le da estructura al mundo suprasensible y lo puebla con entes suprasensibles que están organizados de manera jerárquica. Las ideas inferiores participan de las superiores, que van elevándose hasta la cúspide de la jerarquía, que es la Idea del Bien. Hay, pues, una cierta dinámica en el mundo suprasensible en vez de la inmovilidad parmenídea. Y de alguna manera, al postular un espacio inmutable (el mundo de las ideas) y otro sometido al cambio y el devenir (el mundo sensible), consigue zanjar la disputa entre los eleáticos y otro filósofo al cual hemos descuidado hasta ahora: Heráclito. Me olvido, pero finalmente los recupero. Ustedes me perdonarán.
Heráclito nació cerca de Mileto, en Éfeso, y escribió lo que escribió en un estilo oracular, es decir, en un estilo que requería una complicada tarea de interpretación por parte de sus lectores. Uno de los problemas de este estilo oracular, según dicen algunos, es que su dificultad hizo que fuera mal leído y mal interpretado por todo el mundo, a tal punto que nos llegó a nosotros la idea de que es el filósofo del «todo fluye» cuando, en rigor, no es para nada así.
Pero así fue como lo leyó Platón, y es este aspecto el que nos interesa a nosotros aquí, puesto que es este aspecto el que Platón necesita solucionar para avanzar con la postulación de su propio sistema filosófico.
Heráclito se define, para Platón, en oposición con Parménides. Si el último es el propulsor de la idea de la estabilidad absoluta del ser, el primero asegura que la realidad es tan cambiante que, por ejemplo, nadie puede bañarse dos veces en el mismo río (puesto que el agua que pasa ya no es la misma que ha pasado y yo, la segunda vez, no soy el mismo que se ha bañado la primera). El ejemplo vale también para una ducha.
Desde ya, lo cierto es que Heráclito está convencido de que el fundamento de todas las cosas está en el cambio y en el fluir, en la contradicción y la lucha entre los contrarios. Lo cual no significa, en absoluto, que el cambio y el fluir sean anárquicos, sino todo lo contrario: están sometidos a leyes muy precisas, al logos (una especie de razón impersonal y universal) que organiza armónicamente, de manera invisible, lo que en la realidad aparece como caótico. Lo aparente son las multiplicidades aisladas; lo permanente es esa armonía oculta que debe encontrar el filósofo.
Pero volvamos a ese mundo que, con gran esfuerzo, está intentando construir Platón. Decíamos que la causa del mundo sensible es el mundo suprasensible, inteligible. Pero ¿cómo se articulan esos dos mundos? El mundo sensible participa del inteligible, aunque no está para nada claro cómo. Después de reconocer las dificultades que presenta este punto, Platón introduce un demiurgo, un dios hacedor semejante al nous de Anaxágoras, un artífice que, tomando como molde el mundo inteligible, ha plasmado el mundo sensible. ¿Por qué lo hizo? Por bondad y amor al Bien. Y en consecuencia hizo la obra más bella y perfecta posible. El demiurgo otorgó al mundo un alma e intelectos perfectos, además de un cuerpo perfecto, convirtiéndolo de caos en cosmos

§. El conocimiento
Tuve miedo de que mi alma quedase completamente
ciega al mirar las cosas con los ojos y al tratar de
capturarlas con los sentidos [y por eso] decidí
que debía ubicarme en los razonamientos y
considerar mediante éstos la verdad de las cosas.
PLATÓN
Hasta ahí, y muy a grandes rasgos, la imagen filosófica del mundo que nos ofrece Platón. Pero ¿por qué nos interesa todo esto? Porque plantea un problema sobre las bases del conocimiento científico. Suponer que la verdad excede el plano sensible exige que expliquemos cómo conocemos lo que conocemos. ¿Cómo hacemos para saber algo, para llegar a ese mundo inteligible, que parece tan alejado y tan etéreo?
Admitir la existencia de dos mundos distintos (el de las ideas y el sensible) exige una muy precisa epistemología, es decir, una muy precisa teoría que explique el mecanismo del conocimiento, y la concepción platónica del conocimiento, justamente, se ve ilustrada en dos de las partes más famosas de sus diálogos (recordemos que toda la obra de Platón está escrita en forma de diálogos en su mayoría protagonizados por Sócrates). En la primera, conocida como «alegoría de la caverna», Platón demuestra cuál es el verdadero conocimiento al que aspira y cuál es la situación en la que se encuentran los hombres normales (es decir, los no-filósofos); en la segunda, argumenta por qué piensa que conocer es, en realidad, recordar.
La alegoría de la caverna parte del principio de que los hombres vivimos como si estuviéramos encadenados en el interior de una caverna a espaldas de su entrada, mirando a una pared y sin poder darnos vuelta. Inmediatamente detrás de nosotros hay un muro «semejante al biombo que los titiriteros levantan entre ellos y los espectadores» (que ni percibimos porque no podemos darnos vuelta) y, detrás de ese muro, un grupo de personas va poniendo objetos encima del muro. Detrás de los hombres que colocan los objetos, hay un fuego. Nosotros, los hombres comunes, imposibilitados de mirar hacia atrás, sólo podemos ver en la pared las sombras que proyectan los objetos que colocan los hombres por encima del muro.
Eso que vemos tiene cierta relación con la realidad (la sombra de un jarro proyecta una sombra similar a un jarro propiamente dicho) pero no es la realidad. Es el equivalente de esas sombras lo que percibiremos siempre en nuestra vida cotidiana, a menos que rompamos las cadenas que nos mantienen atados e imposibilitados de mirar directamente lo que ocurre fuera de la caverna. Porque el conocimiento sensible da resultados provisorios y confusos.
El primer paso, al liberarnos de las ataduras, será enfrentar los objetos propiamente dichos; el segundo, poder mirar al fuego directamente; el último, salir a la luz del sol y contemplarlo de frente. El proceso es doloroso y cuesta mucho trabajo, pero es la única manera de garantizar un conocimiento verdadero.
En la analogía, el antro subterráneo es el mundo visible; el resplandor del fuego que lo ilumina es la luz del sol, y la región superior, fuera de la caverna, es el mundo inteligible.
El verdadero conocimiento, el que proviene de mirar al sol, se obtiene, según Platón, mediante el intelecto. Para liberarse de las cadenas de los sentidos, que son sólo un primer paso, cada hombre debe bucear en su interior, en la plena conciencia, olvidando el mundo sensible. Allí encontrará una certidumbre absoluta siempre que esté guiado por la razón.

004.jpg

Con esta filosofía de base, es natural que Platón no se ocupe mucho de las ciencias naturales y, cuando lo haga, sea para revelar las operaciones de la razón en el universo. Así, por ejemplo, desprecia o ningunea la astronomía observacional y proclama que todo consiste en «salvar las apariencias» de lo que se ve mediante círculos y esferas. Asimismo, acepta la teoría atomística, pero la matematiza: toma la teoría de los cuatro elementos y asigna a cada uno de ellos uno de los cinco sólidos regulares (conocidos desde los tiempos de Pitágoras).
Naturalmente todo esto es especulativo, por no decir fantástico, pero muestra el impulso geométrico que arrastraba Platón. La leyenda «que no entre aquí quien no sepa geometría» no estaba escrita porque sí.
Pero abandonemos por un rato a Platón (y digo «un rato» porque siempre va a estar cerca de nosotros), y ocupémonos un poco de su más aventajado y genial discípulo.

§. Explicar el mundo: Aristóteles, un sistema completo
Aristóteles es un gigante intelectual que se planta frente al mundo y dice «voy a explicarlo todo» y —cosa increíble— lo hace. «Voy a reunir todo el conocimiento» y, también, lo hace, logrando una síntesis realmente formidable. No por nada su pensamiento tuvo una prolongada vigencia en Occidente: desde el siglo IV a.C. (en el que vivió) hasta bien entrado el siglo XVII, sus ideas y postulados fueron considerados casi indiscutibles.
Su obra es titánica, de una vastedad inabarcable: ética, medicina, biología, lógica, mineralogía, zoología, metafísica, política, economía, filosofía y mecánica son sólo algunas de las investigaciones de las que se ocupó a lo largo de sus 66 años de vida. Aristóteles es muy distinto de Platón, y organiza su pensamiento de manera diferente: escribe verdaderamente como un profesor, sus tratados son sistemáticos, minuciosos, exhaustivos.
Había nacido en Estagira, en Tracia, en el año 384 a.C. Su padre era un médico que estaba al servicio de Filipo de Macedonia. A los dieciocho años viajó a Atenas e ingresó en la Academia platónica, donde permaneció veinte años (la abandonó solamente tras la muerte de Platón en 347), y conoció a los científicos más famosos de la época. Durante un breve intervalo de tres años, viajó por Asia Menor, donde impartió clases y realizó investigaciones sobre el mundo natural. En 343-342, Filipo lo llamó a su corte y le confió la educación de su hijo, un tal Alejandro, que tenía trece años.
Permaneció en la corte hasta que su alumno subió al trono y, en 335-4, regresó a Atenas, donde fundó su propia escuela, el Liceo (porque lo hizo en edificios cercanos a un templo de Apolo Liceo). Como impartía sus enseñanzas mientras paseaba por el jardín vecino a los edificios, la escuela se conoció como peripatética (del griego peripatos, paseo), y se enfrentó y eclipsó a la Academia, en decadencia tras la muerte de Platón.
Finalmente, al morir Alejandro, hubo una fuerte reacción anti macedónica en Atenas, que lo llevó (no olvidemos que había sido su preceptor) a exiliarse. Murió en 322, después de unos pocos meses.

§. Aristóteles y Platón
Aristóteles, como les decía, pasó veinte años en la Academia de Platón, y se impregnó de las enseñanzas de su maestro, aunque luego se fue alejando paulatinamente de él. Sus intereses, entonces, fueron virando desde la metafísica platónica a una actitud más naturalista y empirista.
Pero para poder llegar a la empiria como objeto de conocimiento, Aristóteles tuvo, primero, que modificar decisivamente la metafísica de su maestro. En realidad, lo que hizo fue introducir un pequeño cambio, pero de esos pequeños cambios que alteran todo un sistema: Platón, para describir la interacción del mundo inteligible con el sensible, había hablado de una «participación» que nunca había logrado explicar satisfactoriamente y para lo cual necesitaba la acción de un demiurgo; Aristóteles, por su parte, elimina a ese demiurgo y «baja» las ideas platónicas a la materia, de modo tal que la tendencia al orden y el cambio no son decisiones de ninguna voluntad suprema, sino que son inmanentes a la naturaleza.
Las Ideas platónicas no están ya en un mundo aparte, sino que están en las cosas, y es allí donde hay que ir a buscarlas. La realidad sensible, empírica, dura, blanda, ingresa así masivamente a la esfera del Ser —todo lo que no sea pura nada, pertenece a la esfera del Ser, tanto si es de una realidad sensible como inteligible— y cae bajo la mirada de la ciencia.
El infatigable problema del devenir (que venía quitándoles el sueño a los filósofos griegos desde el comienzo, que Parménides había negado porque nada puede pasar del ser al no-ser y viceversa y que Platón había resuelto confinándolo al mundo sensible y excluyéndolo del inteligible) es resuelto por Aristóteles gracias a la postulación de dos modalidades de ser: en potencia y en acto.
Cuando la semilla se convierte en árbol no hay un paso del ser al no ser ni del no ser al ser, lo cual era imposible: el árbol está en potencia en la semilla, y en acto en el árbol desarrollado. No cambia su cualidad ontológica (ambos son existentes) sino su modalidad ontológica: en potencia o en acto.
Pero admitir que existe el cambio no significa que la naturaleza esté regida por la casualidad ni por el azar, sino que igualmente posee orden y regularidad. Y ese orden y esa regularidad tienen aparte una finalidad, que es uno de los componentes de la causa, de la idea de causa de Aristóteles. Algo no sólo está por algo, sino para algo.
Para Aristóteles, la Physike, segunda filosofía, o simplemente física, incluía el estudio de los objetos naturales que poseen, en sí mismos, la posibilidad de cambio o movimiento. Así, no sólo se abocó a lo que hoy circunscribimos como física, sino que también englobaba lo que hoy llamaríamos química, mecánica y diversas ramas de la biología.
Y justamente el cambio de estilo expositivo corresponde a esta visión diferente: el uso de la ironía socrática dio origen, en Platón, a un discurso y a un filosofar que se plantea como una búsqueda sin pausa —e inusitadamente bella y poética—, Aristóteles trabaja de manera orgánica y consigue una sistematización estable del conocimiento, que consiste en
conocer la causa de la que depende un hecho, y que éste no puede ser de otra manera.
Es decir, el conocimiento (episteme) consiste en encontrar las verdades universales de las que nos hablan las cosas —el discurso de las cosas, que vuelve, después de sus aventuras eleáticas, pitagóricas e incluso platónicas— y encontrar relaciones que son eternas y universales y se obtienen por deducción a partir de axiomas, definiciones e hipótesis. En sus tratados lógicos se ocupa cuidadosamente del método deductivo y de la prueba, llevando su análisis mucho más allá de lo que nadie había hecho hasta entonces.
Así, de alguna manera, unos doscientos años más tarde, el estagirita (o el filósofo, como se lo llamó en la Edad Media) retoma el camino de los primeros naturalistas, pero con una amplitud de miras y una capacidad de análisis que dan cuenta del formidable desarrollo del genio griego en apenas dos siglos.
Es impresionante, sí, aunque hace falta una severa advertencia: prácticamente ninguna de las teorías que Aristóteles propuso resultó finalmente correcta, e incluso casi todas ellas se convirtieron en graves escollos para el desarrollo de la ciencia moderna, que, a partir de Copérnico, en el siglo XVI, será una titánica construcción contra Aristóteles.
Es muy tentador «echarle la culpa» del destino ulterior de su sistema, que, justamente, por ser tan completo y exhaustivo, terminó por transformarse en un dogma paralizante. En todo caso, podemos hacer el ejercicio de despegar al propio Aristóteles del fundamentalismo aristotelista que, como todo fundamentalismo, tanto daño haría más tarde. Aristóteles no fue responsable de lo que dijeron quienes fueron más aristotelistas que él mismo.
Dicho esto, echemos, sin miedo, un vistazo a sus principales teorías, descubrimientos, indagaciones, investigaciones o como sea que queramos llamarlos. Y digo sin miedo porque, verdaderamente, internarse en un mundo que, visto desde ahora, es completamente equivocado —y a veces disparatado— tiene sus bemoles.
Pero la ciencia avanza a los tumbos, y muchas veces el camino del error juega un papel importante. Un sistema fuerte como el aristotélico puede convertirse en una rémora, pero también puede llegar a mostrar con claridad los puntos claves que hay que derribar, como efectivamente ocurrió con la construcción de la ciencia moderna.

§. La física de Aristóteles
Probablemente convenga empezar por la física, aquella disciplina que fue articulando el pensamiento científico griego desde Tales en adelante y a la que se le fueron planteando todos los problemas que hubo que intentar resolver filosóficamente. Aristóteles rechaza por completo el tipo de teoría física que invocaban los atomistas y el bueno de Platón, en las cuales las diferencias entre sustancias se reducían a diferencias cuantitativas y matemáticas, y postula que los problemas físicos deben ser explicados por causas físicas y no matemáticas.
Así, retiene los cuatro elementos originarios de Empédocles pero rechaza la existencia de los átomos, ya que considera la materia como infinitamente divisible:
No puede existir una parte tan pequeña de una magnitud que no se pueda obtener de ella otra más pequeña por división.
Y puede decirse que tiene bastante razón: como ya vimos cuando hablamos de Demócrito y Leucipo, si los átomos tienen forma y por lo tanto volumen, ¿por qué no podrían dividirse?
Los cuatro elementos se ordenan sobre una esfera de tierra, la Tierra, esférica e inmóvil en el centro del universo. Por encima de ella se ubica la capa del agua, en tercer lugar la del aire, luego la del fuego. Y por encima de la esfera del fuego, que llega hasta la órbita (o esfera) de la Luna, se extiende un quinto elemento (o quintaesencia), uno que todavía no hemos escuchado nombrar y que estará destinado a jugar un papel increíblemente protagónico en la historia de la ciencia: el éter, inmutable e incorruptible, del cual están hechos tanto los astros como las esferas que los mueven.
El mundo sublunar, por su parte, es (como ya se habían dado cuenta muchos de sus antecesores, entre los cuales habría que destacar al oscuro Heráclito) mudable, corruptible y sujeto a transformaciones, ya que la esfera de la Luna, mediante su roce, altera y mezcla las capas sublunares, que, si no, configurarían un mundo completamente estático.
La verdad es que esta dualidad mundo supralunar perfecto, eterno, incorruptible - mundo sublunar cambiante, sucio, asqueroso, imperfecto (pero interesante), recuerda la división platónica entre el mundo de las ideas y el más prosaico de la empiria. Pero justamente el adjetivo «interesante» es el que marca la diferencia.

§. El problema del movimiento
Vamos a mirar con cierto detalle la teoría aristotélica del movimiento, que según piensa el volátil autor de estas páginas será la piedra de toque de las discusiones y dificultades que van del siglo XII a Galileo (aunque con el importante antecedente de Filopón, del siglo V, de quien hablaremos llegado el momento).
¿Por qué se mueven los cuerpos? Aunque pueda parecerlo, porque convivimos con él, no es un problema simple. Ajustando un poco la pregunta: ¿Por qué algunos cuerpos están en reposo y otros se mueven? o ¿cómo puede ser que haya algunos que primero estén en reposo y después se muevan, otros que estén siempre en reposo y otros que se muevan todo el tiempo, como la Luna?
A primera vista, y siguiendo el panorama que da el sentido común, un móvil se mueve porque algo lo mueve, lo arrastra, lo empuja, lo lanza, o porque actúa un motor interno, como en el caso de un colectivo o un automóvil. Obviamente, Aristóteles no ponía este último ejemplo, pero sí el de los animales, que tienen un motor interno que produce sus movimientos.
Sin embargo, hay otros movimientos que son espontáneos: por ejemplo, el de caída de los cuerpos. Si el volátil autor de estas páginas (me gustó la expresión) suelta una piedra, se precipita a tierra sin que intervenga nada que la mueva, y cada vez con mayor velocidad, como si tuviera una voluntad propia. ¿No es extraordinario que la piedra caiga por sí sola? Obviamente, como la idea de gravedad todavía no estaba ni lejana en el horizonte, había que explicar de alguna manera hechos aparentemente tan inexplicables como el de una piedra que caía hacia el suelo o el del humo que ascendía indiferente.
Parecen dos tipos de movimiento que no tienen nada que ver, y Aristóteles de hecho los distingue perfectamente: no es lo mismo aquel movimiento que requiere un motor o una fuerza que el movimiento de la piedra que cae naturalmente o el del humo que naturalmente sube. Estos últimos no necesitan que funcione ninguna fuerza: son, simplemente, procesos de restitución de los elementos a la esfera a la que pertenecen. Si alguna vez anduvieron a caballo, se habrán dado cuenta de que el último tramo, antes de llegar al establo, el animal, aunque agotado, hace lo imposible para llegar rápido. El establo es su lugar, el animal lo sabe y se esfuerza por estar allí. Más o menos así concibe Aristóteles el movimiento de este segundo tipo. La piedra (mayormente tierra) quiere retornar a la esfera a la cual pertenece, que es la más baja (¿recuerdan?), y de la cual fue apartada, y el humo, mayoritariamente fuego, se dirige naturalmente a la esfera del fuego, la más alta.
Si tenemos en cuenta la cosmología aristotélica, con las cinco capas, es lógico pensar que un objeto compuesto principalmente de tierra, como una roca, se caerá al soltarlo en el aire. Por el mismo motivo, la lluvia cae mientras que las burbujas de aire bajo el agua se moverán hacia arriba. Aristóteles completa la idea diciendo que cuanto más pesados sean los cuerpos, más ansiosamente se esforzarán por retornar a su sitio, ya que el peso no es otra cosa que la manifestación de su nostalgia por la esfera originaria. Por lo tanto, un cuerpo pesado caerá más rápidamente que uno liviano. El agua de los ríos, por su parte, fluye a la esfera del agua (y eso explica el movimiento de los ríos)… y así.
Cada objeto del mundo pertenece a su «lugar natural» y va a hacer todo lo posible para volver a él. Una vez alcanzada su posición en el sistema, los elementos permanecerán en reposo manteniendo toda su pureza como tales. Abandonada a sí misma, sin la acción de fuerzas exteriores que turben el esquema, la región sublunar sería una región estática, reflejo de la estructura propia de las esferas celestes.
¿Pero qué ocurre con los otros movimientos, aquellos que se inician si y sólo si hay algo que los genera (un motor), como es el brazo en el caso del lanzamiento de una piedra? Obviamente, no son naturales, y no llevan a las cosas a sus lugares naturales, sino más bien al revés: yo alzo la piedra y la alejo justamente de su lugar natural; lanzo una flecha y ésta sube (contrariando su naturaleza); los motores imponen a los móviles movimientos violentos, que duran mientras el motor actúa, y cesan apenas la acción motora se desvanece.
Lo cual podría estar muy bien, salvo por el hecho de que es inverosímil y completamente contrario al sentido común: es muy fácil de comprobar que si yo arrojo una piedra, ésta se sigue moviendo una vez que el motor —la mano— se ha separado de ella. Parece un argumento fatal para la teoría. Pero Aristóteles no se amilana por eso y propone una solución ingeniosa aunque inverosímil: cuando el motor abandona al móvil, es el propio medio el que sostiene el movimiento, y para explicar a su vez cómo un medio que habitualmente resiste el movimiento ahora lo mantiene, describe una complicada situación… que es mejor que la cuente el propio Aristóteles que yo mismo:
El motor original confiere la capacidad de ser un motor al aire, al agua o a cualquier otra cosa por el estilo que por naturaleza pueda comunicar o sufrir movimiento. Mas esta cosa no cesa de impartir y recibir movimiento simultáneamente. Deja de estar en movimiento en el momento en que su motor deja de moverla, pero sigue siendo un motor, por lo que causa movimiento a otra contigua, y de ésta se puede decir lo mismo. El movimiento disminuye cuando la fuerza motriz producida en un miembro de la serie de cosas contiguas es cada vez menor, y termina de cesar cuando uno de los miembros ya no hace que el siguiente miembro sea un motor sino que tan sólo lo mueve. Entonces el movimiento de los dos últimos, uno como motor y el otro como móvil, cesa simultáneamente y con ello todo movimiento.
Parece un galimatías, y en efecto lo es. El primer motor le transfiere al medio (agua, aire o el que sea) la capacidad de ser motor, y éste empuja al objeto gracias a pequeños fragmentos de aire que se van transfiriendo unos a otros la capacidad motora hasta que de repente, no se sabe bien por qué, dejan de hacerlo… No es demasiado verosímil. Y lo cierto es que se le escapó algo que será central para el triunfo de la ciencia moderna, algo que primero se llamó impetus y luego inercia, piedra (nada más apropiado) de toque de lo que será la ciencia del movimiento de Galileo.
Entonces: movimiento de las cosas que van hacia su lugar natural y movimiento impulsado por un motor. Pero hay, todavía, un tercer tipo de movimiento, diferente de estos dos: el movimiento de los astros, que es regular y eterno. ¿Cómo se explica entonces que los astros se muevan? Aristóteles, al igual que los pitagóricos, piensa que la tierra y el cielo, el mundo sublunar y el supralunar, están sujetos a dos conjuntos diferentes de leyes naturales. Los movimientos del mundo supralunar tienen que ser naturales, circulares, permanentes y mantener al cielo en un estado de profunda calma e inmutabilidad. Justo lo opuesto a la visión actual, que presenta al universo como un lugar de cambio, expansión, explosiones, y toda clase de accidentes.
Las esferas celestes tienen un motor: cada una de ellas se mueve por el impulso transferido desde la esfera inmediatamente superior, lo cual, evidentemente, lleva al problema del regreso al infinito. A la primera la mueve la segunda; a la segunda, la tercera; a la tercera, la cuarta. ¿Pero quién arranca el movimiento? El genio de Borges inmortalizó este inconveniente:
Dios mueve al jugador y éste, la pieza, ¿qué dios detrás de Dios la trama empieza?
La respuesta de Aristóteles es que la trama la inicia un «primer motor inmóvil», cuya condición de no moverse nos salva del problema del regreso ad infinitum. Y, de paso sea dicho, cada una de las esferas tiene, además del rozamiento de la esfera superior, su propio primer motorcito inmóvil, que también forma parte de las causas de su movimiento.
Como todos sus contemporáneos, Aristóteles está convencido de que la Tierra ocupa el centro del universo, y no podría estar en otro lado, por una razón estrictamente física (más o menos la que habían expuesto Anaximandro y Anaxímenes: tiene que estar en el centro, pues no tiene a dónde caer, ya que dista lo mismo de todas las partes). Así como la Tierra está inmóvil en el centro, el Universo entero está contenido dentro de la esfera de las estrellas. En todos y cada uno de los puntos del interior de la esfera hay materia.
Los agujeros y el vacío no tienen razón de ser. En el exterior de la esfera no hay nada, ni materia, ni espacio. Materia y espacio van juntos: son dos aspectos de un mismo fenómeno y, por lo tanto, la propia noción de vacío es completamente absurda. A partir de este presupuesto, Aristóteles explicó el tamaño finito y la unidad del Universo. Espacio y materia terminan en el mismo lugar: no tiene sentido construir un muro que limite el universo y preguntarse qué es lo que limita el muro.
Así pues, queda claro que fuera del cielo no existe ni puede existir ningún cuerpo. La totalidad del mundo está integrada por toda la materia disponible (…). Por lo tanto, ni existen ahora varios cielos, ni existieron antes, ni pueden existir; antes bien, este cielo es único y perfecto.

005.jpg
El sistema aristotélico

Otro rasgo del movimiento según Aristóteles es que es absoluto, y esto es importante señalarlo, porque será uno de los grandes temas en discusión de la Revolución Científica de los siglos XVI y XVII. Para Aristóteles, lo que se mueve, se mueve, y lo que está quieto (como la Tierra en el centro del universo), está quieto. Del mismo modo, arriba y abajo son direcciones absolutas en relación con el centro de la Tierra. La negación de estos dos postulados dará origen a la física moderna.
Lo cierto es que, a pesar de sus errores, los textos de Aristóteles suministran las primeras enunciaciones generales concernientes a las relaciones entre los diversos factores que rigen la velocidad de un cuerpo en movimiento. La velocidad es proporcional al peso del cuerpo:
Si un cuerpo dado se mueve cierta distancia en cierto tiempo, un peso mayor se moverá igual distancia en un tiempo más breve, y la proporción entre ambos pesos uno respecto del otro, la guardarán los tiempos uno con respecto del otro.
Al mismo tiempo, es inversamente proporcional a la «densidad» del medio a través del cual tiene lugar el movimiento, de modo tal que se moverá más rápidamente en uno que sea más «tenue e incorpóreo». Y aquí hay otro argumento contra la existencia del vacío, ya que en el vacío un móvil se movería con velocidad infinita, cosa que le resulta absurda.
Acá, hay que admitirlo, Aristóteles acierta bastante. Es cierto que, en el aire, los cuerpos pesados caen más rápidamente que los livianos de la misma forma y dimensiones, aunque esto no sea cierto en el vacío. Del mismo modo, el movimiento a través de un medio denso es generalmente más lento que a través de uno enrarecido: el inconveniente es que se simplifica mucho la cuestión al considerar que la relación es directa.
Y con este seudo acierto aristotélico, podemos abandonar la teoría del movimiento, siempre que nos comprometamos a no olvidarla porque va a marcar de manera pasmosa la historia del pensamiento hasta la Revolución Científica. Echemos un vistazo (rápido, necesariamente) a los otros campos en los que posó su universal mirada.

006.jpg
El esquema del movimiento



§. Biólogo, químico, geólogo, minerólogo
En oposición a Platón, y a todos los filósofos-matemáticos herederos del pitagorismo, Aristóteles sostuvo firmemente la importancia del estudio de las particularidades pertenecientes al mundo del devenir. Insistía en que la observación de las partes exteriores de los animales no era suficiente y que incluso había que diseccionarlos, práctica con la que se aprendía mucho, según sus propias palabras. Sus estudios sobre los seres vivos se fueron construyendo, de hecho, como una pieza más de su impresionante sistema: los animales, que muestran propósitos y adaptaciones muchas veces extraordinarios, constituían, de alguna manera, un espejo en el que admirar el orden del cosmos.
Para lograr esto no alcanzaba con la pura especulación metafísica: era necesario embarrarse las manos. Y Aristóteles lo hizo sin problemas, recogiendo, por ejemplo, huevos en el campo y mirando cómo avanzaba la gestación de un pollito. A tal punto fue importante la biología, que llegó a establecer una clasificación general de los animales, la primera que conocemos en la historia.
Con rigor de científico actual, el mismo hombre que inventó el éter y el primer motor inmóvil, escribe fragmentos de una precisión sorprendente, como el siguiente:
Los llamados cefalópodos y los crustáceos presentan muchas diferencias con éstos. Para empezar, no poseen el conjunto total de las vísceras, como tampoco, ninguno de los restantes animales no sanguíneos. Hay otros dos géneros no sanguíneos, los testáceos y el grupo de los insectos. Todos estos carecen de sangre con la que formar las vísceras porque tal fenómeno es parte de su propia sustancia. Que unos tengan sangre y otros no se incluirá en el razonamiento que define su sustancia.
No podemos demorarnos acá, porque nos enredaríamos en complicadas descripciones anatómicas que nos llevarían demasiado tiempo. Lo que sí tenemos que decir es que, además de la biología, se ocupó con cierto detalle de meteorología, química, geología, mineralogía… y muchas otras cosas más.
Pero tenemos que abandonar, en algún momento, al infinito Aristóteles y seguir avanzando en el camino del conocimiento (enseñanza que la humanidad tardó muchos siglos en aprender).
La figura de Aristóteles está en el filo de una gran transformación política del mundo griego. A raíz de las conquistas de Alejandro, y la posterior fragmentación de su imperio, se impone en el mundo mediterráneo (oriental) una cultura más abarcativa y diferente de la predominante hasta entonces, aunque la ciencia helenística heredará muchos rasgos y continuará muchos de los caminos iniciados por Aristóteles y sus antecesores.
Mientras tanto, en la ribera derecha del Tíber, Roma crece y acecha.

Capítulo 5
La escuela de Alejandría

¿Recuerdan a Alejandro, el hijo de Filipo de Macedonia que había tenido el privilegio de ser educado por Aristóteles? Bueno, resulta que ese tal Alejandro, a los trece años, se convirtió en un gran rey, y armó un inmenso imperio que, aunque breve, produjo un giro decisivo en la cultura griega.
El designio de una monarquía universal (como pretendió Alejandro) no podía sino minar el papel de la polis, que había sido el eje moral de referencia de los filósofos y científicos griegos. No nos olvidemos de que los grandes sistemas de Platón y Aristóteles tenían, precisamente, un fundamento moral y político: el orden del mundo era el orden de la polis, y el objeto último de la filosofía era el desarrollo de los ciudadanos.
El imperio de Alejandro duró poco, pero a su muerte, en 323 (¡a los 33 años!), se dividió en diferentes reinos (Egipto, Siria, Macedonia y Pérgamo), que fueron gobernados por reyes —en general, los propios generales de Alejandro— que fundaron a veces largas dinastías, que habrían de durar hasta la conquista romana. Al ocaso de la polis no sucedió la implantación de nuevas estructuras de la misma envergadura moral, capaces de dotar de un nuevo punto de apoyo a la especulación filosófica y científica, sino estructuras bastante inestables, incapaces de generar en el antes ciudadano una relación de pertenencia que le permitiera pensar en un proyecto común. Más bien al revés: de ciudadano, el griego se convirtió en súbdito, y la vida de los nuevos Estados se desarrolló independientemente de su voluntad. Las antiguas virtudes cívicas fueron reemplazadas por las necesidades técnicas necesarias para la administración, y el pensamiento griego, al quedar desprovisto de la polis, se volcó a un ideal cosmopolita, favorecido por el hecho de que Alejandro hizo un notable esfuerzo por integrar a los «bárbaros» en la cultura helénica. Hizo instruir a miles de ellos y ordenó que los soldados macedonios contrajeran matrimonio con mujeres persas, logrando así, con relativo éxito, borrar la tajante distinción que los propios griegos habían establecido entre los bárbaros y ellos mismos.
Naturalmente, al entrar en contacto con tradiciones y creencias diversas (y de raíz oriental), la cultura griega se impregnó de nuevos significados, y forzosamente asimiló algunos elementos: de helénica, se transformó en helenística, y así alumbró un nuevo mundo cosmopolita, que allanaría el paso a la cultura romana, que empezó a expandirse a partir del siglo II a.C. En 146, Grecia fue conquistada y se convirtió en provincia romana.
Los nuevos centros de cultura (Pérgamo, Rodas y, en especial, Alejandría) eclipsaron el fulgor ateniense, aunque, desde ya, no lo oscurecieron del todo; al fin y al cabo, los procesos culturales son lentos y rara vez completos —aun examinándolos ex post— y hasta el siglo II d.C. los aristócratas romanos completaban su educación con una estadía en Atenas, del mismo modo que los aristócratas de muchos lados, en la segunda mitad del siglo XIX y la primera del XX, consideraban inexcusable una estancia en París. El cosmopolitismo dio paso —y no podía ser de otra manera— a un eclecticismo intelectual, que centró sus líneas de investigación política y moral en los problemas que afectan no al hombre en general sino a cada uno de los hombres en particular, en lo cual, seguramente, influyó el espíritu latino, con su concepción de un derecho universal y su espíritu práctico.

§. El carácter de la ciencia alejandrina
La ciudad que Alejandro, con la modestia propia de los grandes reyes, llamó con su propio nombre, fue fundada en 331 a.C. Estaba ubicada próxima a la desembocadura del Nilo, con lo cual gozaba de un fructífero intercambio comercial con las rutas que cruzaban el Mediterráneo oriental, por un lado, y por otro se beneficiaba al recibir todos los productos del hinterland, que Egipto producía Nilo arriba. Después de la muerte de Alejandro, el poder recayó en Ptolomeo Lago (o Ptolomeo I), iniciador de una dinastía estable que habría de durar hasta el 30 a C, cuando Cleopatra abandonó este mundo mediante los amables servicios de un áspid y Egipto pasó a ser una provincia romana.
Los Ptolomeos centraron su esfuerzo helenizante en Alejandría —dejando de lado al resto de Egipto, que siguió conservando su estructura de estado oriental— y, para ello, invitaron a intelectuales y científicos a instalarse en ella. La población crecía muy rápidamente y así se iba generando el típico ambiente cosmopolita y helenístico.
Y miren lo que pasó. Estas cosas ocurren más allá de los designios de los hombres y de los reyes: a partir de 297, Demetrio de Falero, que procedía de Atenas y había tenido que refugiarse en Alejandría, estableció una relación estrecha con Ptolomeo I (que lo designó preceptor de su hijo) y concibió el proyecto grandioso de fundar algo así como el Liceo aristotélico, pero de proporciones mucho mayores, reuniendo en una gran institución todos los libros y los instrumentos científicos que se pudieran conseguir.
Como es natural, tal emprendimiento atraería a investigadores y estudiosos de todo el mundo helénico, que no podrían encontrar tales cosas en ninguna otra parte: es así como nació el Museo (que etimológicamente significa Casa de las Musas) y, a su lado, la célebre Biblioteca.
El Museo ofrecía todos los aparatos para las investigaciones astronómicas, médicas y de historia natural, mientras que la Biblioteca llegó a tener la enorme cantidad de 700 mil volúmenes, lo cual la convirtió, como es obvio, en la más grande reunión de libros del mundo antiguo. La búsqueda de libros fue convertida en un deporte nacional, o más bien en una política de Estado, y no era raro que se retuvieran barcos en el puerto por todo el tiempo que tardaban las obras de a bordo en ser copiadas, práctica que —digámoslo de paso— no se veía trabada por copyrights ni derechos de autor, como los que ahora mismo están perturbando la difusión de libros, películas y música a través de Internet.
Pero además de producirse una enorme concentración de sabios e investigadores, el carácter mismo de la ciencia que se practicó en Alejandría varió con respecto a la que se venía usando hasta entonces. Lo cual no es nada extraño, dado que la ciencia cambia a medida que se nutre de los diferentes contextos sociales.
En efecto, los científicos dejaron un poco de lado los grandes sistemas filosóficos que habían servido siempre de cobertura a las investigaciones, y de alguna manera se independizaron de ellos, concibiendo las ciencias particulares como disciplinas en sí mismas y no como piezas de un esquema más general. Relegaron, así, el estudio de la filosofía a las escuelas supervivientes en Atenas, mientras se concentraban en geografía, astronomía, medicina, tecnología, sin necesariamente pensarlas como partes de un sistema total que explicara todos los resquicios del cosmos, y que incluyera cada disciplina como un engranaje fundamental: si los pitagóricos se habían dedicado a las matemáticas, era porque las habían considerado la base de su sistema del mundo; lo mismo había ocurrido con la Academia Platónica o, como veremos, con la mecánica de Aristóteles. El interés de esta gente era la resolución de problemas científicos concretos, más allá de las preocupaciones filosóficas, como podemos verlo con un ejemplo simple y genial.

§. Medir el mundo: varillas y camellos
En 246, Ptolomeo III llamó a Alejandría, para ejercer el cargo de director de la Biblioteca, a Eratóstenes de Cirene (276 a.C.-194 a.C.), que fue una figura impresionante: astrónomo, historiador, geógrafo, filósofo, poeta, crítico teatral y matemático; en resumen, un verdadero intelecto de la época dorada de la Grecia antigua, ya que en ese tiempo todas estas disciplinas relacionadas con el interés por la naturaleza y las artes no se separaban demasiado.
Había nacido en la ciudad griega de Cirene, en la actual Libia (norte de África), donde estudió junto a filósofos de la escuela estoica. Después de la obligada recalada en Atenas para seguir con sus estudios, viajó, como decía, a Alejandría.
Allí, además de dirigir la Biblioteca, abordó diversos problemas matemáticos, como por ejemplo el diseño de un método para encontrar números primos, que aún hoy se llama Criba de Eratóstenes y que, si no me equivoco, sigue siendo el único. También estimó, aprovechando los eclipses, la distancia desde la Tierra hasta el Sol y la Luna y el ángulo del eje terrestre respecto del plano del sistema solar. Sus ojos de matemático los aplicó al estudio del tiempo: construyó un calendario y las bases de una cronografía sistemática del mundo para poder dar fechas a los eventos políticos y literarios desde los tiempos de Troya. Al mismo tiempo se le atribuye un catálogo de casi 700 estrellas y diversos estudios de geografía, particularmente en cartografía: parece ser que fue el primero, o uno de los primeros, que dibujó un mapa del mundo, que era más o menos como pueden verlo en la imagen siguiente.

007.jpg

Pero aunque parezca suficiente, no es por todas las cosas que les vengo contando —o por lo menos no sólo por ellas— que quería hablarles de Eratóstenes. Hay algo distinto, algo que lo hace más que excepcional, y que empieza con una historia divertida: resulta que sus colegas le dieron el sobrenombre de «Beta», porque lo consideraban una persona brillante en muchas disciplinas, pero incapaz de descollar en ninguna. Por ese motivo siempre quedaba a la sombra de los «Alfa» y se lo consideraba un eterno «segundo» (lo cual muestra que ya entonces circulaban los chistes y burlas usuales en los laboratorios e instituciones actuales, que tantas veces esconden envidias y luchas de poder: los científicos no son santos por naturaleza). Sin embargo, Eratóstenes fue el responsable de realizar una de las más impresionantes demostraciones del poder de la inteligencia humana: medir la circunferencia de la Tierra.
Fue así: él había oído decir que, durante el solsticio de verano (el 21 de junio en el Hemisferio Norte, cuando el Sol alcanza su máxima altura en el horizonte al mediodía), en Siena (actual Asuán), al sur de Egipto, una varilla colocada verticalmente no proyectaba sombra sobre el suelo al mediodía. En Alejandría, que según calculaba estaba sobre el mismo meridiano, a la misma hora y el mismo día, la sombra formaba un determinado ángulo (de 7 grados) con la vertical.
Esta diferencia sólo podía atribuirse a la diferente inclinación de los rayos solares sobre una Tierra esférica, cosa que todos los griegos cultos de la época, y ya desde los tiempos de Platón, sabían perfectamente.

La Tierra esférica
Recordemos que, para Tales, la Tierra eraun disco que flotaba en el mar, y, para Anaximandro, un cilindro ubicado enel medio del cosmos. Pero pronto se recurrió a la Tierra esférica, en partepor consideraciones filosóficas (la esfera es el cuerpo geométrico perfecto),en parte por consideraciones físicas; algunos testimonios dicen que fueronlos pitagóricos los primeros en aceptarlo.
Aristóteles demuestra la esfericidad dela Tierra dando varios argumentos. Uno de ellos es el famoso asunto de losbarcos, que no se empequeñecen de manera continua hasta desaparecer, sino quevan ocultándose por partes, como si bajaran por una escalera. Otro argumento erael hecho, también comprobable a simple vista, de que la sombra de la Tierraproyectada sobre la Luna era circular, lo cual solamente se explica siaquélla es esférica. Todos los cuentos sobre la creencia en una Tierra planahasta los tiempos de Colón no son más que eso: cuentos, aunque es posible quelos incultos marineros de Colón sí pensaran que era plana. Pero en realidadse sabía, desde el siglo V a.C., que la Tierra era esférica.

Eratóstenes se dedicó entonces a calcular la distancia entre Alejandría y Siena, para lo cual se le ocurrió contar el tiempo que tardaba una caravana de camellos (cuya velocidad promedio más o menos podía estimar) en llegar hasta allí. La distancia entre las dos ciudades resultó ser de unos 5.000 estadios (800 kilómetros). Y entonces, razonó así:
Si 7 grados de diferencia en la inclinación corresponden a 800 kilómetros, 1 grado de diferencia corresponderá a 800/7. Y 360 grados (la circunferencia entera) a 360 x 800/7.
¡Una regla de tres simple!
Con este procedimiento extraordinariamente sencillo, pudo calcular que la circunferencia de la Tierra medía cerca de 40.000 kilómetros. Casi lo mismo que indican los satélites actuales.
La simplicidad de esta idea todavía hoy produce escalofríos: una varilla (mejor, dos, una en Alejandría y otra en Siena), una caravana de camellos, y un problema de regla de tres simple. Y, sobre todo, esa extraordinaria máquina que se extiende entre las cejas y el pelo. Es una de las grandes hazañas del intelecto humano, estoy convencido.
¡Y le decían Beta!

009.jpg
El cálculo de Eratóstenes

§. Euclides: axiomatizar la realidad
El fracaso de la escuela pitagórica y el naufragio del intento de reducir el mundo a las matemáticas, que se produjo al calor del gigantesco choque contra la muralla racional de la raíz cuadrada de dos, tuvo sus consecuencias: casi naturalmente, indujo una cierta desconfianza hacia los números y arrastró a la matemática griega hacia la geometría (cosa que se observa hasta la Revolución científica: en 1687, Newton, en sus Principia, razonará de manera casi exclusivamente geométrica).
La existencia de los números no reducibles a una razón (es decir irracionales) dejó agujeros en el espacio, una interrupción en la continuidad de ese ser continuo que quiso Parménides. En el Ser hay ahora un agujero… ¡Y un agujero matemático! Rellenarlo costará más de dos milenios (recién en el XIX, con la postulación de los números que fueron técnicamente llamados «reales» se zanjó el problema). El asunto es que la desconfianza hacia los números se extendió hacia el álgebra, y en verdad la obra algebraica de la cultura griega —y romana— fue bastante pobre al lado de la obra incomparable que llevaron a cabo en geometría.
El gran artífice de la sistematización fue Euclides (430-360 a.C.), otra de las figuras monumentales que dio la escuela de Alejandría. Vivió los cambios que se dieron en el mundo mediterráneo con la muerte de Alejandro Magno (356-323 a.C.) y la fractura de su imperio en reinos helenísticos, que incorporaron elementos del antiguo saber babilónico y las religiones de la India. Fue el fundador y el primer jefe de la gran escuela de matemáticos de Alejandría. Escribió varios libros, como una obra sobre las secciones cónicas, sobre óptica…, pero lo que lo inmortaliza de una manera indiscutible son los Elementos.
Euclides se hizo cargo del desastre pitagórico y edificó las matemáticas de forma exclusivamente geométrica. Construyó, así, toda la geometría, aunque sosteniéndose en la matemática desarrollada antes de él mismo. Los Elementos fue una obra tan amplia, tan definitiva, y tan inaccesible a los ataques que circuló increíblemente por la Antigüedad, y llegó a ser el fundamento de muchísimos estudios, a tal punto que cuando tambaleó el mismo edificio del mundo griego, y nuevas civilizaciones tomaron posesión de la gran herencia que dejaba, los Elementos siguieron incólumes, marcando el camino. Como la Ilíada, los diálogos de Platón, los Principia de Newton, o el Origen de las especies de Darwin, los Elementos de Euclides es uno de los más grandes testimonios del pensamiento occidental: es justo, por ello, que sea, después de la Biblia, el libro más editado, y se haya usado como texto en las escuelas hasta principios del siglo XIX, lo cual no es una mala performance, por cierto. Ojalá el libro que está ahora en tus manos, querido lector, tuviera el 0,01 por ciento de esa suerte.
Pero, en fin, sigamos. De alguna manera, Euclides retoma el tema en el punto en el que lo habían dejado los pitagóricos, apartándose de la empiria y refugiándose en el «puro pensar»: en sus cerca de 500 proposiciones no figura una sola aplicación práctica, ni figura un solo ejemplo concreto, ni referencia alguna a instrumentos geométricos. No presta atención al discurso de las cosas. Pero si Euclides construye un sistema basado en el pensar, también se enfrenta al dilema que había dejado sin resolver la escuela pitagórica. ¿Por dónde se empieza a pensar?
No es un asunto simple. El pensamiento, como el ser de Parménides, parece ser inoriginado: si nos ponemos a poner en cuestión todos nuestros conocimientos, veremos que bien podemos llegar hasta el infinito, socavando incluso las bases que creíamos más firmes. Esto lo vieron bien los escépticos: pongamos, por caso, que quisiera investigar a los seres vivos. ¿No debería, primero, definir qué son «seres» y qué son «vivos»? Y una vez que tuviera esta definición clara: ¿no me vería obligado a definir los términos que utilicé para definir «seres» y «vivos»? Lo cual genera el regreso ad infinitum tan temido, que es necesario evitar para avanzar en el camino del saber y calmar la ansiedad por el «conocimiento verdadero».
Y Euclides logra evitarlo de una manera elegante, imponiendo algunos principios que da por verdaderos sin discutirlos: los axiomas. Establece una fuente, un comienzo, un origen del pensar, el método axiomático, ya preconizado en la lógica aristotélica, que estará destinado a convertirse en el método matemático por excelencia. Consiste en la explicitación de las propiedades que han de admitirse sin demostración para deducir, sin otro recurso que la lógica, todo el conjunto de proposiciones del sistema. Toda demostración, aun la más intrincada, debe remitirse en último término a estos axiomas y tenerlos como fundamento en última instancia.
El número de axiomas sobre los que se funda el sistema euclídeo es reducido: trece en total, cinco postulados y ocho nociones comunes, y sobre ellos se levanta el edificio de los Elementos con sus trece libros, que contienen un total de 465 proposiciones: 93 problemas y 372 teoremas.
Habría que tener claro que el método axiomático no es de fácil realización, ya sea por la elección de los supuestos básicos (¿por qué estos y no otros?), ya sea porque en el desarrollo deductivo pueden deslizarse admisiones implícitas de supuestos no enunciados. No me voy a detener mucho en las nociones comunes, como el de que el todo es mayor que una de sus partes, o que siempre es posible prolongar un segmento de recta, o que es posible construir una circunferencia a partir de cualquier centro, cualquiera fuese su radio, o que el punto carece de partes, pero miraremos con un poquito de atención los cinco famosos axiomas o postulados.
Postúlese:
  1. que por cualquier punto se pueda trazar una recta que pasa por otro punto cualquiera;
  2. que toda recta limitada pueda prolongarse indefinidamente en la misma dirección (notemos que aquí Euclides utiliza el infinito potencial y no el actual);
  3. que con un centro dado y un radio dado se pueda trazar un círculo;
  4. que todos los ángulos rectos sean iguales entre sí, y
  5. que si una recta, al cortar a otras dos, forma los ángulos internos de un mismo lado menores que dos rectos, esas dos rectas prolongadas indefinidamente se cortan del lado en que están los ángulos menores que dos rectos.

Es a partir de estos cinco postulados que se construye toda la geometría. El problema es que, en cierta medida, pareciera ser que la elección de los postulados es arbitraria. La primera respuesta (que seguramente habría dado Euclides, siguiendo a Aristóteles) es que los postulados son verdades «autoevidentes», cosas de las que no se puede dudar, y que no necesitan demostración (del mismo modo que Descartes buscará una verdad autoevidente y, en esa verdad, fundará toda la filosofía moderna: «Si dudo de todo, no puedo dudar de que dudo, y si dudo pienso, y si pienso existo»). Pero la idea de «auto evidencia» no deja de encerrar una buena dosis de arbitrariedad, y de subjetividad.
Y para colmo… si bien parecería que no se puede dudar de los cinco postulados, que son claros, simples, contundentes y autoevidentes, había un pequeño problemita con el quinto postulado… Prestémosle un poquito de atención, dado que es algo diferente de los demás. Por empezar, parece más complejo e increíblemente más artificioso; en segundo lugar, implica el infinito, porque si las rectas son casi paralelas… ¿cómo sé que se cortan en algún momento?
Y el infinito, como ya sabemos, siempre trajo problemas. Euclides se cuidó mucho de este postulado; le generaba, y con razón, desconfianza. Cuando podía no usarlo, no lo usaba (realmente, una genialidad de Euclides fue, precisamente, darse cuenta de que ése tenía que ser un postulado).
Pero el asunto es que ni por lejos se parece a una verdad autoevidente, y de hecho el quinto postulado euclidiano será uno de los grandes protagonistas de la historia del pensamiento: en el siglo XIX provocará una revolución conceptual que ya tendremos tiempo de discutir, cuando lleguemos a las geometrías no euclidianas.
La raíz de 2, el quinto postulado: son agujeros, pequeñas basuritas que van quedando en la paciente construcción de la ciencia y el pensamiento científico. Euclides, al buscar sus axiomas, buscó verdades autoevidentes y procedió por deducción; alguien, dos mil años más tarde, dará el paso siguiente: buscará verdades arbitrarias. Ahora sí, los dejo con la intriga. Ya llegaremos allí. Pero ya que estamos, y antes de hablar de Apolonio, el segundo gran geómetra, echemos una mirada a los tres problemas clásicos de la geometría griega.

010.jpg
El quinto postulado


§. El oráculo de Delfos
El señor cuyo oráculo está en Delfos no dice ni oculta: sólo da signos.
HERÁCLITO
En el año 429 a.C., el gobernador de Atenas, Pericles, murió debido a la peste que castigaba a la ciudad, y un grupo de ciudadanos acudió al oráculo de Delfos para pedirle indicios de una forma de terminar con ese azote. La verdad es que el oráculo no fue muy generoso (en realidad, fue un cretino): su respuesta fue que debían construir con regla y compás un altar cúbico que duplicara en volumen al que ya existía. Matemáticos importantes como Hipócrates de Quíos abordaron el problema (y más tarde el mismísimo Eratóstenes), pero sólo llegaron a soluciones aproximadas, ya que para poder conseguir la solución del problema hace falta resolver una ecuación cúbica, cosa imposible con regla y compás. La verdad es que el oráculo de Delfos, si era tan oracular como se decía, no podía ignorarlo y por eso es de pensar que les jugó una mala pasada a los atenienses: el problema de la duplicación del cubo quedó sin resolver, como uno de los tres problemas clásicos griegos. También sirve como enseñanza de que, en casos de medicina, no es muy conveniente confiar en los oráculos.
El segundo problema clásico no tiene leyenda, pero es igualmente imposible de resolver: se trata de trisecar un ángulo cualquiera (esto es: dividirlo en tres partes iguales) con regla y compás: el desafío es insoluble (excepto para ángulos de 90 grados) y por las mismas razones que el de la duplicación del cubo: hace falta resolver una ecuación cúbica.
Y el tercero es el más famoso de todos: el de la cuadratura del círculo. Se trata, esta vez, de construir, siempre con regla y compás, un cuadrado de área igual a un círculo dado. Recién en el siglo XIX se demostró su imposibilidad, debido al carácter «trascendente» del número π (trascendente significa que no solamente es irracional, sino que no existe ninguna ecuación cuya solución sea π). La expresión «cuadrar el círculo» ha quedado como ejemplo de tarea imposible, callejón sin salida, intento sin resultado.
Ahora, ustedes se preguntarán por qué tanto empeño… Pero bueno, es que los matemáticos luchan sin cansarse contra los problemas difíciles, hasta vencerlos o demostrar que no se pueden resolver. Hace muy pocos años tuvimos un episodio parecido con el último teorema de Fermat.

§. Las cónicas de Apolonio
El segundo de la gran tríada de los grandes matemáticos alejandrinos es Apolonio de Perga (262-190 a.C.), más conocido como «El gran geómetra». El nombre de su escrito más famoso (y que se conserva casi de modo completo) es Cónicas, considerado por muchos una especie de complemento de los Elementos de Euclides. En él, Apolonio estudia los cuatro tipos de secciones que se obtienen cortando un cono con un plano que no pase por el vértice e introduce los actuales nombres: parábola, elipse e hipérbola. Las secciones cónicas habían sido descubiertas en la Academia Platónica, pero el gran sistematizador es Apolonio.
Si nos atenemos al testimonio de Claudio Ptolomeo, Apolonio también fue un gran astrónomo. Tolomeo le atribuye proposiciones astronómicas y la utilización de los epiciclos y de las excéntricas, de los cuales sería el inventor, y que en manos de Hiparco y del propio Ptolomeo se convertirían en las bases del sistema más exitoso de la astronomía griega.
Lo que resulta extraordinario de las cónicas es que, justamente, las figuras geométricas que se obtienen al cortar un cono mediante un plano son las que rigen las órbitas de los astros que se mueven bajo el influjo de la gravedad (por ejemplo, los planetas describen elipses alrededor del Sol, los cometas muchas veces parábolas, y así). Es decir: una reflexión puramente geométrica sirve para entender cómo funciona el universo. Todo esto habría de saberse mucho más tarde.

011.jpg
Las cónicas de Apolonio



§. Arquímedes de Siracusa: llegar al límite
Euclides es el que establece el origen del pensar, el que responde a la pregunta «¿por dónde empezamos?» y construye los cimientos del edificio matemático (que son los mismos que hoy), decidiendo de una vez para siempre cómo se trabajará en matemáticas. Apolonio domestica a las cónicas, que jugarán un papel tan importante más tarde. El tercer matemático de la tríada gloriosa es Arquímedes de Siracusa (colonia griega en lo que es hoy el sur de Italia), considerado por muchos como el científico más grande de la Antigüedad e, indiscutiblemente, uno de los matemáticos más importantes de la Historia.
Arquímedes es un científico que podríamos calificar, casi, de actual: no escribió un gran libro sino que —al modo de los científicos actuales— se dedicó más que nada a escribir lo que hoy llamamos «papers» sobre los más variados campos: aritmética, geometría, astronomía, estática e hidrostática. No perteneció en rigor a la escuela de Alejandría propiamente dicha, pero fue su contemporáneo, viajó repetidas veces a la gran ciudad, y mantuvo correspondencia y polémicas con los científicos alejandrinos.
Nació en el año 287 a.C. y murió en el saqueo que siguió a la caída de Siracusa en manos de los romanos en el año 212 a.C., a los 75 años. En su tumba quedó grabado uno de sus más hermosos teoremas, relativo a la esfera inserta en un cilindro; justamente el detalle que le permitió a Cicerón, el gran orador de la República romana, identificar su tumba, perdida entre la maleza.
En sus escritos, Arquímedes siguió rigurosamente el método euclídeo de fijar previamente las hipótesis a las que seguían los teoremas cuidadosamente elaborados y terminados. Pero además escribió sobre temas de ciencia natural, astronomía y física, que los griegos incluían dentro de las matemáticas. También se le deben dos escritos de física-matemática que proporcionaron los primeros resultados perdurables de estática. El primero establece la ley de la palanca y el llamado «principio de Arquímedes». La ley general de la palanca dice que «dos pesos se equilibran a distancias inversamente proporcionales a su peso». Esto es: una masa de 100 kilos, veinte veces mayor que una de 5, se equilibra con ésta si se sitúa veinte veces más cerca del punto de apoyo.
Pero Arquímedes es más popularmente conocido por el principio que lleva su nombre, que establece una ley general de hidrostática y las condiciones de equilibrio de los cuerpos sumergidos y que está asociado a la leyenda según la cual se lo vio corriendo por las calles, probablemente desnudo, al grito de «Eureka, Eureka!» (« ¡Lo encontré! ¡Lo encontré!»). ¿Qué había pasado para que un matemático tan reconocido anduviera corriendo desnudo y a los gritos por Siracusa?
Había pasado que Hierón II, el tirano (gobernador, digamos) de Siracusa le había confiado oro a un orfebre para que le hiciera una corona. Cuando la tuvo, Hierón II sospechó que el orfebre —de quien la historia no conserva el nombre pero que sin duda le hizo un favorcito a la ciencia— había «distraído» una parte de oro y la había reemplazado por plata. La cuestión es que Hierón II, acostumbrado a pedirle a Arquímedes que le resolviera problemas imposibles, le solicitó que lo comprobara. Arquímedes vio que la corona pesaba exactamente lo mismo que lo que pesaba la cantidad de oro que el rey le había dado al orfebre. Pero eso no garantizaba nada: tranquilamente el orfebre podría haber mezclado otros metales y mantener el peso constante alterando el volumen.
Ahora bien: nuestro matemático sabía que la plata es más ligera que el oro: si el orfebre hubiese añadido plata a la corona, ésta debería ocupar un volumen mayor que el de un peso equivalente en oro (porque, en el mismo volumen, una corona de oro y plata pesaría menos que una de oro puro). El problema es que no tenía ni la más remota idea de cómo medir el volumen de algo tan irregular como una corona.
Y resulta que la solución al problema le vino en uno de los mejores lugares que existen para pensar: la bañadera (que en ese entonces no era sino una tina). Arquímedes vio que, al sumergirse, su cuerpo desplazaba agua para afuera, y sospechó que el volumen de agua desplazado tenía que ser igual al volumen de su cuerpo. No había tiempo que perder: según se cuenta, Arquímedes corrió, desnudo como estaba, hasta su casa (por lo visto, no se estaba bañando en domicilio, sino en una casa de baños públicos, al estilo griego: no olviden que no había agua corriente), e hizo el experimento con la corona supuestamente adulterada y con el peso en oro puro. Resultó que, efectivamente, la corona desplazaba más agua, o sea, que tenía más volumen, o sea, que el orfebre le había mezclado metales no tan nobles como el oro. Por supuesto que el rey ordenó ejecutar al orfebre, que se convirtió así en un insospechado e involuntario mártir de la ciencia.
Pero no terminan aquí las dotes geniales de Arquímedes: fue un físico y técnico brillante, capaz de inventar una multiplicidad de aparatos destinados a sus investigaciones y máquinas de guerra de gran eficacia. Se cuenta que, durante el asedio de Siracusa por el general romano Marcelo, Arquímedes desplegó sus nuevas pero eficientísimas armas secretas, las catapultas, y un sistema de espejos y lentes que incendiaba los barcos enemigos al concentrar los rayos del sol (una idea que, con poco éxito, trataría de llevar a cabo el soñador José Arcadio Buendía, como pueden leer en el recuadro).

La guerra solar en Cien años de soledad
En marzo volvieron los gitanos. Esta vezllevaban un catalejo y una lupa del tamaño de un tambor, que exhibieron comoel último descubrimiento de los judíos de Ámsterdam. Sentaron a una gitana enun extremo de la aldea e instalaron el catalejo a la entrada de la carpa.Mediante el pago de cinco reales, la gente se asomaba al catalejo y veía a lagitana al alcance de su mano. «La ciencia ha eliminado las distancias»,pregonaba Melquíades. «Dentro de poco, el hombre podrá ver lo que ocurre encualquier lugar de la tierra, sin moverse de su casa».
Un mediodía ardiente hicieron unaasombrosa demostración con la lupa gigantesca: pusieron un montón de hierba secaen mitad de la calle y le prendieron fuego mediante la concentración de losrayos solares. José Arcadio Buendía, que aún no acababa de consolarse por elfracaso de sus imanes, concibió la idea de utilizar aquel invento como unarma de guerra. Melquíades, otra vez, trató de disuadirlo. Pero terminó poraceptar los dos lingotes imantados y tres piezas de dinero colonial a cambiode la lupa. Úrsula lloró de consternación. Aquel dinero formaba parte de uncofre de monedas de oro que su padre había acumulado en toda una vida deprivaciones, y que ella había enterrado debajo de la cama en espera de unabuena ocasión para invertirlas. José Arcadio Buendía no trató siquiera deconsolarla, entregado por entero a sus experimentos tácticos con laabnegación de un científico y aun a riesgo de su propia vida. Tratando dedemostrar los efectos de la lupa en la tropa enemiga, se expuso él mismo a laconcentración de los rayos solares y sufrió quemaduras que se convirtieron enúlceras y tardaron mucho tiempo en sanar. Ante las protestas de su mujer,alarmada por tan peligrosa inventiva, estuvo a punto de incendiar la casa.Pasaba largas horas en su cuarto, haciendo cálculos sobre las posibilidadesestratégicas de su arma novedosa, hasta que logró componer un manual de unaasombrosa claridad didáctica y un poder de convicción irresistible. Lo envióa las autoridades acompañado de numerosos testimonios sobre sus experienciasy de varios pliegos de dibujos explicativos, al cuidado de un mensajero queatravesó la sierra, y se extravió en pantanos desmesurados, remontó ríostormentosos y estuvo a punto de perecer bajo el azote de las fieras, ladesesperación y la peste, antes de conseguir una ruta de enlace con las mulasdel correo.
A pesar de que el viaje a la capital eraen aquel tiempo poco menos que imposible, José Arcadio Buendía prometíaintentarlo tan pronto como se lo ordenara el gobierno, con el fin de hacerdemostraciones prácticas de su invento ante los poderes militares, yadiestrarlos personalmente en las complicadas artes de la guerra solar.Durante varios años esperó la respuesta. Por último, cansado de esperar, selamentó ante Melquíades del fracaso de su iniciativa, y el gitano dioentonces una prueba convincente de honradez: le devolvió los doblones acambio de la lupa.

Nuestro héroe hizo lo mismo que José Arcadio pero aparentemente, según cuenta la leyenda, con más éxito. Sin embargo, los siracusanos se confiaron bastante y descuidaron sus defensas, lo cual fue aprovechado por los romanos para entrar en la ciudad. Durante la toma de Siracusa, precisamente, Arquímedes (también cuenta la leyenda que completamente absorto en el estudio de un teorema) fue asesinado por un soldado romano, en contra de las órdenes de su general, que había exigido proteger la vida del gran sabio.

§. El destino de los espejos
Los científicos de épocas posteriores trataron a menudo de reproducir los inventos de Arquímedes, en particular este que les conté de los espejos. El debate sobre si el artificio pudo realmente haber hundido la flota romana duró siglos, y muchos sabios famosos expresaron sus opiniones (incluido Descartes, que no lo creía y desechaba la leyenda). Pero luego, en 1747, fue finalmente sometida a la prueba experimental por el conde de Buffon, un gran erudito francés que volverá a aparecer en las páginas de este libro. Buffon levantó su aparato en París, en lo que ahora es Le Jardin des Plantes (entonces Le Jardin du Roi, del que era director). Alrededor de 150 espejos cóncavos se montaron en cuatro marcos de madera y se ajustaron con tornillos para concentrar la luz reflejada sobre una plancha de madera a unos cincuenta metros de distancia. Una gran multitud observaba cuando el Sol salió de entre las nubes: en pocos minutos se vio salir humo de la plancha y se dirimió la cuestión. Más adelante, ese mismo año, Buffon, con gran aclamación, incendió algunas casas en presencia del propio monarca y recibió los cumplidos del propio rey.

§. El arenario y el infinito
En el trabajo (de bellísimo título: El contador de arena) que hizo para el hijo del tirano de Siracusa —de quien fue preceptor—, Arquímedes se propuso demostrar que el número de granos de arena no era infinito. Con tal fin, calculó cuántos granos serían necesarios para llenar el universo entero, adoptando para éste sus máximas dimensiones posibles e imaginables en la época. Basándose en la teoría heliocéntrica de Aristarco de Samos (de quien no hablamos, aunque lo haremos cuando estudiemos al infinito Copérnico) y en ideas contemporáneas acerca del tamaño de la Tierra y las distancias de varios cuerpos celestes, Arquímedes concluyó que el número de granos de arena que se requerirían para llenar el universo sería de 8×10 a la 63 potencia. Es decir:
8.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000
Arquímedes respeta la opinión de Aristóteles: el infinito es siempre potencial, algo a lo que se tiende, y no actual (que existe aquí y ahora). Pero esto significa que el universo no puede ser infinito, porque en este caso lo sería de manera actual. La falta de un concepto de infinito pone un cerrojo a las concepciones del mundo. Como veremos, pasar del infinito en potencia al infinito en acto llevará exactamente veintidós siglos.

§. Los juguetes de Herón
Arquímedes fue, además del matemático (y algunos dicen el científico, pero eso siempre hay que tomarlo con pinzas) más grande de la Antigüedad, un importante físico e ingeniero.
Y hablando de ingeniería, las (¿cómo llamarlas?) «disciplinas tecnológicas» tuvieron un destacado lugar en Alejandría, por obra de un grupo de tecnólogos, entre los que se destacaron Ctesibios, Pilón y Herón.
De Ctesibios se dice que era hijo de un barbero y que, haciendo subir y bajar automáticamente los espejos del negocio de su padre, fue llevado a inventar las máquinas hidráulicas, los juegos de agua, los autómatas y los relojes de agua, o la puerta de un templo que se abría al encender un fuego sobre el altar, pero éstos no eran solamente chiches recreativos, sino que estaban directamente conectados con el uso que hacían del vacío, de los efectos del calentamiento del aire, del vapor de agua.
Un buen ejemplo es la eolípila de Herón. Consistía en una esfera hueca llena de agua a la que se le colocaban dos tubos curvos. El agua de la esfera se hacía hervir, provocando que por los tubos bajara el vapor e hiciera girar la bola muy rápido.
Una buena pregunta que se plantea alrededor de este asunto es por qué los ingenieros de Alejandría no desarrollaron la máquina de vapor. Y la respuesta que más generalmente se da es que el hecho de vivir en un sistema esclavista, con abundancia de mano de obra gratuita y brutalmente oprimida, hacía innecesaria la búsqueda de máquinas que ahorraran energía. Es muy posible.

012.jpg
Los chiches de Herón


§. Diofanto: el canto del cisne
Las matemáticas alejandrinas decayeron como todo el conjunto después del siglo III a.C., y tardaron mucho, pero mucho, en recuperarse, con figuras como Tolomeo (siglo II d.C.) y Diofanto de Alejandría (siglo III d.C.), que en su aritmética muestra una serie de problemas algebraicos (recordemos lo reacios que fueron siempre los matemáticos griegos —maldición pitagórica— al álgebra, a favor de la geometría), en general resueltos de una manera numérica, pero sin el rigor de los grandes alejandrinos.
Diofanto, además, hizo un chiste con su propia vida (mejor, con su muerte): en su epitafio planteó un problema que constituye un bello ejemplo para empezar a resolver ecuaciones de primer grado. Dice más o menos así:
¡Caminante! En esta tumba yacen los restos de Diofanto, al terminar de leer este texto podrás saber la duración de su vida. Su infancia ocupó la sexta parte de su vida. Después transcurrió una doceava parte de su vida hasta que su mejilla se cubrió de vello. A partir de ahí, pasó la séptima parte de su existencia hasta contraer matrimonio. Pasó un quinquenio y lo hizo dichoso el nacimiento de su primogénito. Su hijo murió al alcanzar la mitad de los años que su padre llegó a vivir. Tras cuatro años de profunda pena por la muerte de su hijo, Diofanto murió. Dime caminante, cuántos años vivió Diofanto.
Es decir: si los años que vivió Diofanto son nuestra incógnita, x, podemos decir que:

x/6 + x/12+ x/7 + 5 + x/2 + 4 = x

Si quieren saber cuántos años vivió Diofanto, sólo tienen que resolver la ecuación.

§. Decadencia de la Biblioteca
El período de apogeo de la ciencia helenística fue brillante y breve, como una supernova que estalla y brilla como una galaxia entera pero después se desvanece, y, aunque sigue arrojando su materia al espacio, lo hace más modestamente.
En el año 145, el rey Ptolomeo Physkon se enfrentó con los científicos de la biblioteca y el museo (por cuestiones políticas) y los obligó a emigrar, rompiendo la alianza entre el trono egipcio y los intelectuales griegos. A continuación, tanto el Museo como la Biblioteca entraron en una etapa de decadencia: en 47 a.C., durante la campaña de Julio César en Egipto, la Biblioteca se incendió y buena parte de sus 700 mil volúmenes se perdió. Diecisiete años más tarde, Octavio conquistó Alejandría y Egipto se convirtió en una provincia romana. No obstante, trabajaron allí todavía grandes científicos como Galeno y Ptolomeo.
A finales del siglo III, el emperador Diocleciano mandó quemar un buen número de libros, especialmente de alquimia. La razón es curiosa: Diocleciano, que había emprendido un riguroso «programa de ajuste económico» para salvar al imperio (y que, por supuesto, no hizo sino precipitar su ruina), temía que los alquimistas, en posesión de la «receta» para fabricar oro, destruyeran la moneda imperial…
Tras el triunfo del cristianismo, las cosas empeoraron; en 391 el emperador (ya cristiano) Teodosio ordenó quemar los templos paganos, mostrando de paso qué rápido los perseguidos se convierten en perseguidores, y la orden estimuló a Teófilo, obispo de Alejandría, a instigar una lucha callejera que terminó con lo poco que había quedado del Museo y la Biblioteca.
La última gran figura fue Hypathia (370-415), una matemática que llegó a ser directora de la Escuela Neoplatónica de la ciudad. Pero otro obispo, que ostentaba el cargo de patriarca de Alejandría, consideró peligrosa su filosofía pagana y alentó, nuevamente, a una turba que la asesinó.
La historia de Hypathia se convirtió en un verdadero mito, no sólo por ser una de las únicas mujeres científicas de la que se tiene conocimiento en la Antigüedad (lo habrán notado) sino porque, además, podría ser vista como la primera «mártir de la ciencia», en el sentido que después se le dará a la expresión a partir del asesinato de Giordano Bruno.
No es fácil imaginar cómo es que una mujer, en esa época, llegó a un cargo ejecutivo tan importante como el de directora de una de las principales escuelas alejandrinas. Lo que sabemos es que se formó al lado de su padre, el astrónomo y matemático Teón de Alejandría, y que empezó a dar clases sobre Platón y Aristóteles en su casa con un nivel tan alto que la gente viajaba especialmente desde todas partes para escuchar sus lecciones. Además, estudió y enseñó astronomía, matemáticas, lógica, filosofía, geometría y mecánica y escribió comentarios a muchas de las obras importantes de su tiempo, desde las Cónicas de Apolonio a la astronomía ptolemaica.
Pero Hypathia tuvo la malísima suerte de desarrollar su labor intelectual apenas veinte años después de que Teodosio hubiera convertido el cristianismo en religión oficial del Imperio y durante el patriarcado de Cirilo, uno de los obispos más intolerantes de la Antigüedad. Eran tiempos turbulentos: toda filosofía que no acatara dogmáticamente la ortodoxia (y el neoplatonismo no lo hacía) tenía un tufillo a herejía y era perseguida de manera implacable, lo cual llevó, entre otras cosas, al saqueo y destrucción de los ejemplares que habían quedado de la Biblioteca, ahora refugiados en el Serapeum (un santuario dedicado al dios oficial de Egipto). Para colmo, la amistad de Hypathia con Orestes, prefecto imperial que no veía con muy buenos ojos la intolerancia de Cirilo, no podía sino ser interpretada como una provocación por el patriarca de Alejandría. Así que, aparentemente, este Cirilo decidió cortar por lo sano: juntó a una multitud que la interceptó cuando volvía a su casa desde el Museo y la asesinó tajeando su cuerpo con caracoles, no sin antes arrastrarla durante un buen trecho por las calles de la ciudad. Con esta imagen se termina la ciencia alejandrina y empiezan los años oscuros.

Interludio:
La Biblioteca de Alejandría y el fuego

Quemar libros y erigir fortificaciones es tarea común de los príncipes.
JORGE LUIS BORGES
La calurosa costumbre de quemar libros dista de ser un invento moderno. Aunque ya vimos que había habido varios incendios, la Biblioteca de Alejandría terminó su vida de manera definitiva al ser incendiada por el califa Omar en el año 634, que lo hizo basándose en un curioso argumento.
Los libros de la Biblioteca o bien contradicen al Corán, y entonces son peligrosos, o bien están contenidos en el Corán y entonces son redundantes.
Este razonamiento notable costó a la memoria humana una buena cantidad de obras irrecuperables, pero no tantas como se cree, si es que eso sirve de consuelo. En realidad, cuando el califa Omar tomó su drástica medida, la Biblioteca era sólo la sombra de lo que había sido alguna vez, y de ella quedaba muy poco, perdido en sucesivos desastres.
La escuela, la Biblioteca, el Museo de Alejandría constituyeron un exitoso experimento en gran escala que no se volvería a repetir hasta la llegada del Islam.

Capítulo 6
La medicina antigua de Hipócrates a Galeno

Después de esta incursión por Alejandría, tenemos que volver un poquito atrás en el tiempo y hablar de la medicina, un tema que hasta ahora ni tocamos. Esta «omisión», por decirlo de alguna manera elegante, quizá se deba al hecho de que, por su misma naturaleza, la medicina tiene un contenido empírico, observacional y experimental que la hace diferente del desarrollo de todos los grandes sistemas físicos que les mostré, que se sostuvieron sobre una base filosófica hasta que las disciplinas empezaron a independizarse, como vimos que ocurrió en Alejandría. Recordemos que la experimentación estaba, en principio, excluida del sistema griego, aunque Aristóteles con sus observaciones del mundo biológico, sus estudios sobre la evolución del embrión y sus disecciones bien puede encuadrarse, por lo menos en ese terreno, en la senda experimental.
Es posible que mi indisimulable preferencia por la teoría me haya llevado a dejar la medicina de lado, o que me haya concentrado demasiado en la construcción del programa griego, de base teórica —aun en el propio Tales—. Quizá, también, esta «omisión» se deba a que toda la medicina anterior al siglo XIX me parece lo suficientemente tosca y primitiva como para no considerarla ni siquiera medicina propiamente dicha (cosa perfectamente discutible) o a que la medicina tiene procedimientos que muchas veces ignoran las causas y pueden funcionar prescindiendo de la explicación causal.
Dicho esto, no se extrañen por las idas y vueltas en el tiempo: la historia de las ideas no es lineal y nos va a exigir, a cada rato, que avancemos y retrocedamos, que quebremos el orden cronológico para encontrar otro orden, aquel que nos permite pensar relaciones que, de otra manera, serían inaprehensibles.
Abordar la historia de la medicina presenta algunos problemas difíciles de resolver, o que por lo menos yo no tengo resueltos. Por eso, sospecho, este capítulo vacilará muchas veces entre ideas contrapuestas, y no siempre del todo claras. Y esto tiene que ver, como les decía, con que la medicina tiene una relación demasiado estrecha con la empiria y con la práctica, con la vida y con la muerte, relación que no tienen las otras ciencias que fundaron los griegos.
En este momento, y a la luz de lo que acabo de decir, yo trazaría una distinción importante entre una medicina con centro en la práctica, y una medicina biológica, que pone el acento en construir una teoría del cuerpo y de la enfermedad (naturalmente, con todos los cruces que a ustedes se les ocurran). Acaso el gran problema de la medicina sea que está condenada a ser juzgada por la efectividad de sus prácticas y no por la exactitud de sus teorías. Pero esto también es muy discutible.
Bueno, ya son bastantes justificaciones o seudo justificaciones. Ya es hora de abordar el asunto, si ustedes me perdonan la metáfora náutica.

§. Retrocedamos un poco
Naturalmente, como todo lo demás, la medicina griega no salió de la nada: civilizaciones que la antecedieron en 2.500 años o más, como la de Mesopotamia o Egipto, tenían sus prácticas médicas, por supuesto asociadas con conjuros, imprecaciones mágicas y toda la parafernalia de ese tipo. Aún más, la profesión médica estaba reglamentada desde 1760 a.C. en el Código de Hammurabi, rey de Babilonia.
Aquí pueden ver algunos ejemplos de las nobles disposiciones sobre el ejercicio de la medicina:
La verdad es que convenía tener un buen seguro de mala praxis, aunque el código no lo impusiera como obligatorio.
Por otra parte, las prácticas de momificación y tratamiento de los cadáveres tienen que haber familiarizado a los sacerdotes-médicos egipcios con los rasgos anatómicos internos. En Egipto se practicaba, también con fines «médicos», la trepanación de cráneo; muchas veces he visto en los museos ejemplos de este curioso procedimiento, que a veces se exhibe como una conquista o un «adelanto» de la cultura egipcia, cosa que me resulta incomprensible.
En realidad, la práctica de la trepanación es antiquísima, cruza la Prehistoria y las culturas (por ejemplo, también aparece en las culturas andinas, y las neolíticas), y tenía con toda probabilidad una función mágico-ritual: la abertura en el cráneo servía para que los malos espíritus que se habían apoderado del cerebro del paciente pudieran salir.
Por otro lado, poco y nada sabemos de los resultados de estas prácticas, y si es que algunos (o siquiera alguno) de los «pacientes» sobrevivió (ya no digo «se curó»).

§. El papiro Ebers
La magia es efectiva si está junto a la medicina. La medicina es efectiva si está junto a la magia.
Pero lo cierto es que la medicina entre los egipcios era tan importante que tenemos, incluso, un verdadero tratado que data de aproximadamente 1600 a.C. En sus 20 metros de longitud, 110 páginas y 877 secciones, el papiro Ebers, conservado de manera excelente, aborda el tratamiento de numerosas enfermedades a partir del uso de elementos extraídos del reino vegetal: azafrán, ajo, aloe vera, lirio. No tenemos que ser inocentes y pensar, sin embargo, que por eso los egipcios eran médicos extraordinarios.
Como en toda la medicina antigua, mezclaban la magia con algo que podríamos llamar medicina folklórica o natural, que existe hasta nuestros días y es tan eficaz o ineficaz como entonces.
Esta medicina natural se ve de manera clara en las siguientes recetas:
Para la evacuación del estómago: leche de vaca, trigo, miel: pisarlo, tamizarlo, cocinarlo y tomarlo en cuatro porciones.
Para curar el dolor de cabeza: harina, incienso, madera de wa, planta de waheb, menta, cornamenta de ciervo, sicamoro, semillas de zart, agua. Pisar y aplicar en la cabeza.
Como ven, son recetas muy elementales para dolencias muy elementales. Y les cuento otra cosa: mientras escribía esto empezó a dolerme la cabeza; consideré que era un excelente momento para probar una de estas recetas, pero tuve problemas con algunos ingredientes: no conseguí ni planta de waheb ni cornamenta de ciervo, así que opté por tomar una aspirina. Vale decir, de paso, que la corteza de sauce, que contiene ácido salicílico (precursor del ácido acetilsalicílico de la aspirina) podría haber cumplido, en una de ésas, la misma función.

§. Primitiva medicina griega
Como es natural entre pueblos que estaban permanentemente en guerra, las prácticas quirúrgicas más antiguas estuvieron relacionadas con los traumas de combate. Ya en el siglo VIII en la Ilíada (que sigue siendo, por lejos, uno de los libros más sangrientos y violentos de la literatura universal), Homero describe, con precisión anatómica, 147 heridas de ese tipo y expone la localización y algunas características de los órganos conocidos, aunque nada dice de su función. Por poner un par de ejemplos, en el canto XVI:
A Erimante metióle Idomeneo el cruel bronce por la boca: la lanza atravesó la cabeza por debajo del cerebro,… y la muerte, cual si fuese oscura nube, envolvió al guerrero.
En el canto V, después de ser arengado por Atenea, el feroz Diomedes hace estragos entre las filas de los troyanos, que parecen gentiles ovejitas al lado del aqueo:
Entonces hizo morir a Astínoo y a Hipirón, pastor de hombres. Al primero lo hirió con la broncínea lanza encima del pecho; contra Hipirón desnudó la gran espada, y de un tajo en la clavícula separóle el hombro del cuello y la espalda.
Por supuesto que, entre los griegos arcaicos, los males no atribuibles a una causa concreta, como la peste, se atribuían a la cólera de los dioses. La terapéutica, tal como la egipcia, implicaba una mezcla de rituales mágicos, sociales y quirúrgicos, con el uso de anestésicos, el vendaje y lavado de las heridas.
Y, de hecho, en el origen de la medicina griega también está la religión. El padre fundador no es Hipócrates, de quien hablaremos enseguida, sino el centauro Quirón, una figura mitológica que, de acuerdo con los relatos, instruido por Apolo (que en la burocracia del Olimpo era una especie de ministro de Salud), enseñó a los humanos el arte de curar enfermedades y que, obviamente, a diferencia de Hipócrates, jamás existió.
Por su parte, Asclepio (Esculapio), discípulo de Quirón, es una figura mitológica construida sobre alguien que quizá sí existió. La mitología cuenta que curó a tanta gente (incluso resucitando muertos), que Hades, dios del mundo subterráneo, se alarmó, temiendo que mermara el flujo de almas hacia su reino, y se quejó a su hermano Zeus, dios supremo, quien fulminó a Asclepio con un rayo. Pensándolo mejor, y teniendo en cuenta sus innegables méritos, el propio Zeus lo resucitó como un dios específicamente dedicado a la medicina: «médico», «salvador»; su símbolo fue la serpiente, y tuvo sus santuarios y sus templos adonde la gente iba a «curarse» y en los cuales, después de abluciones y rituales, se tendía a dormir. Durante el sueño, el dios se aparecía y emitía su diagnóstico y pronóstico. En el templo de Esculapio, en Epidauro, se cuentan historias de esas curaciones:
Kleo había estado embarazada desde hacía cinco años. Después de ese tiempo, fue al templo del dios, y se sumió en un sueño profundo. Tan pronto se despertó y salió del recinto del templo, dio a luz a un hijo, que inmediatamente después de nacer se lavó por sí mismo en la fuente, y se fue caminando junto a su madre.
Y así muchas otras igualmente fantásticas. Esos lugares, comparables a la gruta de Lourdes en la actualidad, mantuvieron su prestigio durante siglos, lo cual se debe, según la brillante observación del historiador de la Grecia clásica Dodds, «al bajo porcentaje de curaciones necesario para mantenerlo, y a la salud de hierro del enfermo crónico». Obviamente se refiere al hipocondríaco, que vive atenaceado por enfermedades imaginarias o seudo enfermedades de poca monta, como un dolorcito aquí, o una cierta pesadez allá, y que el cuerpo se encarga de reparar, justamente, porque su salud de hierro le permite mantenerse fuerte. Son, sin duda, los mejores pacientes para un dios.
Además, hay otro elemento que juega en el asunto. Los pacientes que acudían no lo hacían durante una sola noche, sino que a veces permanecían semanas antes de ser «atendidos». Durante ese tiempo, recibían una buena dieta, descansaban y eran cuidados (como si se tratara de una especie de spa), lo cual sin duda fortalecía el cuerpo y predisponía para las «curaciones», siempre que no tuvieran nada serio, claro está. Por otra parte, los fracasos no se registraban, lo cual es un método infalible para salir bien parado en las estadísticas.
No dejen de notar que ese tipo de medicina religiosa o «natural» sigue existiendo hoy en día por motivos —probablemente los mismos— que más adelante abordaré, porque tiene valor histórico, y sobre todo epistemológico y metodológico.
Sea como fuere, pronto apareció una medicina laica, en escuelas anexas a los templos, de donde salió lo que propiamente vamos a llamar «ciencia médica» (con todas las reservas que, como saben, tengo con respecto a la «medicina científica» de entonces): las más famosas surgieron en Cnido, Rodas y en Cos, y ya desde el siglo VI polemizaban entre ellas. Por ejemplo, los de Cos criticaban a los de Cnido por exceso de empirismo y por dar importancia a todos los síntomas, lo cual los llevaba a multiplicar las enfermedades. Pero lo más importante de la escuela de Cos es que ahí aparecería el gran médico de la Antigüedad, Hipócrates, quien se ocuparía de encarar la medicina de un modo muy similar al que practicaron los milesios con el resto de la physis.
Ya hablaremos un poco de él, pero antes me gustaría mencionarles a Alcmeón, de la escuela pitagórica, que vivió alrededor del 550 a.C., y del cual sabemos que diseccionó animales, porque describió los nervios ópticos y varios otros rasgos anatómicos, y propuso la extraña teoría de que las cabras respiraban por los oídos (me pregunto de dónde sacaban esas ocurrencias). Además, distinguió venas de arterias, aunque aceptó que las arterias sólo transportaban aire. Este asunto, tan común entre los antiguos, se debe a que en los cadáveres las arterias aparecen, efectivamente, como vacías, aunque, digámoslo de paso, si se secciona la aorta brota un chorro de sangre; ya veremos cómo, más tarde, se intentó explicar esta contradicción. Por otra parte, Alcmeón señaló que el cerebro, y no el corazón, era el lugar del intelecto y las sensaciones, y utilizó el concepto, seguramente anterior, de armonía: la enfermedad era una disonancia, o inarmonía, entre los elementos que componen el cuerpo, y la tarea del médico era recuperar el equilibrio, una noción que permearía toda la medicina griega y que, podría decirse, fue una constante para el pensamiento griego en general: recuerden, si no, al gran Aristóteles, para quien el movimiento no era otra cosa que un restablecimiento del equilibrio físico.
También dediquemos un parrafito a nuestro viejo amigo Empédocles, que sostenía una idea parecida sobre la salud como equilibrio de esos cuatro elementos (agua, aire, tierra, fuego) que había establecido o inventado. El corazón, según él, era el órgano que se ocupaba de que el pneuma, un «espíritu aéreo vital», se repartiera por todo el cuerpo. El pneuma, de naturaleza aérea, identificado con la vida y que se inspira junto con el aire, es otra de las ideas directrices de la medicina griega, y llegaría hasta Galeno y más allá (e incluso se puede rastrear hoy en expresiones como «exhaló su último aliento», o en otras tradiciones, como la bíblica, en que Dios crea al hombre soplando, e infundiéndole, presumiblemente, ese élan vital que en el siglo XIX alimentará la teoría del vitalismo y en el XX tanto tentará a Bergson). También se le atribuye haber detenido una epidemia en Agrigento desecando un pantano y fumigando las casas, o sea que se ocupó de «higiene pública».
Fíjense que hoy, en líneas generales (y exceptuando, por ejemplo, las enfermedades genéticas), no consideramos la enfermedad como un desequilibrio interno, sino como un estado producido por una agresión externa (una bacteria, un virus, un tóxico, una droga, una dosis de radiación), aunque persistan corrientes naturalistas que todavía se apoyan en esa vieja idea, y se centran en la «vida sana» (no viene mal llevarla, de todas maneras). Frente a estas metáforas modernas de la enfermedad como invasión, podríamos decir que los médicos de entonces la consideraban como una especie de guerra civil dentro del cuerpo, y su tarea era pacificar y reubicar en su lugar a los diferentes bandos.
Ahora sí, vamos a Hipócrates.

§. Hipócrates de Cos
Una teoría es un recuerdo complejo de lo que se ha experimentado por los sentidos.
Preceptos hipocráticos
En realidad, no sabemos mucho sobre Hipócrates, que vivió, probablemente, durante la segunda mitad del siglo V y la primera mitad del siglo IV. No sólo fue el jefe de la escuela de Cos, sino que enseñó medicina en Atenas, y Platón y Aristóteles lo consideraban el arquetipo del médico. Tuvo tal importancia que no sólo sus propias obras, sino todos los textos de la medicina de los siglos V y IV se le atribuyeron: la conjunción de esos libros conforma el Corpus hippocraticum, donde se resume toda la medicina de la escuela y de la época, y consta de unos sesenta tratados, casi todos escritos entre 430 y 330, o sea, justo antes del estallido helenístico.
Hipócrates, o los autores del Corpus, aplican a la enfermedad la misma operación que Tales y los milesios a la naturaleza; le quitan cualquier carga sobrenatural (lo cual muestra, de paso, que se trataba de un «espíritu de la época») y rechazan toda explicación mágica o religiosa. Si bien los detalles anatómicos y fisiológicos son bastante fantasiosos (como el agua de Tales o el ápeiron de Anaximandro), revelan una actitud ilustrada: un perfecto ejemplo es el caso de la epilepsia.
La epilepsia aparece, para los antiguos, como un «mal sagrado», porque resulta sorprendente e incomprensible. Lo que hace Hipócrates es, justamente, mostrar que en verdad no es tan incomprensible como parece, que hay otras enfermedades que comparten estas características (como ciertas fiebres y el sonambulismo) y que la epilepsia no tiene por qué ser diferente de esas o de cualquier otra enfermedad. Sólo la ignorancia, denuncia el gran médico, hizo que se juzgara a la epilepsia como un «mal sagrado», para beneficio de embaucadores y charlatanes. Y éste es el descubrimiento fundamental de Hipócrates, quien escribe con una pavorosa lucidez:
Acerca de la enfermedad que llaman sagrada sucede lo siguiente. En nada me parece que sea algo más divino ni más sagrado que las otras, sino que tiene su naturaleza propia, como las demás enfermedades, y de ahí se origina. Pero su fundamento y causa natural lo consideraron los hombres como una cosa divina por su inexperiencia y su asombro, ya que en nada se asemeja a las demás. Pero si por su incapacidad de comprenderla le conservan ese carácter divino, por la banalidad del método de curación con el que la tratan vienen a negarlo. Porque la tratan por medio de purificaciones y conjuros. Y si va a ser estimada sagrada por lo asombrosa, muchas serán las enfermedades sagradas por ese motivo, que yo indicaré otras que no resultan menos asombrosas ni monstruosas, a las que nadie considera sagradas. Por ejemplo las fiebres cotidianas, tercianas y cuartanas no me parecen ser menos sagradas ni provenir menos de una divinidad que esta enfermedad. Y a éstas no les tienen admiración.
¿Cuál es entonces la causa de la epilepsia para Hipócrates? Para eso voy a volver un poco más atrás, en este camino sinuoso, y explicar la teoría de los cuatro humores, teoría que, como la física aristotélica y la metafísica platónica, estaría destinada a tener una larga vida en la civilización occidental y que es la pieza central de la medicina hipocrática.
Hipócrates contempla la salud dentro de la línea del «equilibrio», a la vieja usanza de Alcmeón y Empédocles. Pero… ¿qué es lo que está o tiene que estar en equilibrio? Del mismo modo que la naturaleza de Empédocles está compuesta por cuatro elementos básicos, el cuerpo humano está regido por cuatro fluidos a los que se llama, técnicamente, «humores»: la sangre, la flema, la bilis amarilla y la bilis negra, que determinan la salud del individuo. Está sano cuando esos cuatro humores están armónicamente distribuidos y la mezcla es apropiada; la enfermedad se manifiesta al romperse esa armonía o cuando la mezcla es imperfecta.
La causa de la epilepsia, entonces, tiene que ser una alteración del cerebro que se origine en las mismas causas racionales de las cuales provienen todas las otras alteraciones patológicas: una adición o sustracción de seco o húmedo o calor o frío. Por lo tanto, «quien sabe determinar en los hombres, mediante la dieta, lo seco y lo húmedo, el frío y el calor, puede curar este mal». Lo más importante de todo esto, como se darán cuenta, no es la solución, evidentemente errada, sino la enseñanza metodológica: a consecuencias naturales hay que buscarles causas naturales y no mágicas o metafísicas.
Por otra parte, los cuatro humores, derivados claramente de los cuatro elementos, mantienen una correspondencia con ellos, así como con las cuatro estaciones. Así, por ejemplo, la flema es fría y húmeda, por lo cual predomina en invierno, también frío y húmedo, causando las enfermedades invernales; en primavera, que es cálida y húmeda, predomina la sangre, que lo es también. Se pueden, asimismo, atribuir al predominio de tal o cual humor los temperamentos: sanguíneo, colérico (bilis amarilla), melancólico (bilis negra) y flemático.
La terapéutica hipocrática, por lo tanto, excluye exorcismos o purificaciones para limitarse a métodos «racionales», que en general tienden a centrarse en la dieta y en la restauración del equilibrio perdido, partiendo de la idea de que el cuerpo tiende a repararse a sí mismo, y que, como dice el aforismo hipocrático, «la naturaleza es el mejor médico». Aunque la teoría de los humores es completamente imaginaria, puede interpretarse la terapéutica en clave actual en términos de fortalecimiento del sistema inmunológico, lo que explica el éxito de los spa, las estaciones de aguas termales y otros recursos clave de la medicina naturista. Incluyendo los placebos, desde ya.
Pero bueno, Hipócrates fue, indudablemente, la primera gran figura de la medicina en la Antigüedad, y la que inicia la senda racionalista e ilustrada (que no será una senda recta, por cierto).
Habría que decir, también, algo de Aristóteles, que al ocuparse de todo, también influyó sobre la medicina (era hijo de un médico, digamos de paso), aunque no en forma absolutamente directa sino a través de sus extensísimas investigaciones y experimentaciones biológicas. Estudió sistemáticamente los órganos y funciones de los seres vivos y pudo describir no solamente las especies sino los mecanismos de la reproducción, locomoción y sensación.
También fortaleció la teoría del corazón como sede del «calor innato» esencial para la vida (en cierta forma, una variante del pneuma) que, justamente por ser tal sede, era el órgano más caliente del cuerpo y necesitaba ser refrigerado, tarea que corría a cargo de los pulmones.

§. Alejandría
Y después, por supuesto, Alejandría, el gran centro intelectual del mundo helenístico, tuvo su desarrollo propio: durante la primera mitad del siglo III, la medicina se investigó en el Museo y se obtuvieron resultados importantes en anatomía y fisiología. Los aparatos que había, así como la posibilidad de practicar disecciones (e incluso vivisecciones en condenados a muerte, lo cual prueba que la ciencia, pese a sus altos valores, muchas veces no se detiene ante las cosas más horribles, sumados a la posibilidad de dedicarse a la investigación, no con fines directamente prácticos sino con el propósito de incrementar el saber, fueron fundamentales para el desarrollo de la medicina como la conocemos en la actualidad. A decir verdad, el Museo y la Biblioteca funcionaban en cierto modo como una universidad actual, donde se practicaba la medicina en el sentido biológico que distinguí al principio del capítulo.
No conocemos demasiados detalles sobre la medicina en Alejandría, pero sí sobre los dos más descollantes médicos helenísticos: Herófilo de Caledonia y Erasístrato de Quíos. Herófilo (330-260 a.C.), que quizá fue el primero en practicar la disección pública de cadáveres, estudió la anatomía del ojo, se ocupó del sistema nervioso, describiendo la conexión entre el cerebro, la médula y las raíces nerviosas que iban a todo el cuerpo; distinguió las funciones sensitivas y motoras y estudió el sistema reproductor. También abordó el sistema cardiovascular, distinguió venas de arterias por el grosor de las paredes, describió las válvulas del corazón y predicó el uso del pulso como sistema diagnóstico.
Apenas un poco más tarde, Erasístrato (n. alrededor de 304 a.C.) continuó su obra: como era discípulo de Estratón, director del Liceo de Atenas por aquel entonces (que contradiciendo al gran maestro Aristóteles aceptaba la existencia del vacío para explicar ciertos fenómenos relacionados con la física del aire), Erasístrato usó una analogía mecánica para dar cuenta de la succión y expulsión del pneuma y la sangre por el corazón, como si fuera una bomba aspirante impelente parecida a las que construían los ingenieros alejandrinos. Así, consideró a la presión arterial como efecto de la acción cardíaca y pensó que venas, arterias y nervios formaban tres sistemas distintos y con diferentes funciones: el primero, el de las venas, aportaba nutrientes a todo el cuerpo; la comida, triturada en la boca, pasaba al estómago, donde se convertía en quilo, un jugo que iba a parar al hígado, que lo transformaba en sangre y lo repartía por las venas.
El sistema de las arterias era el encargado de transportar el pneuma vital generado en los pulmones a todo el cuerpo; se respetaba, como vemos, la idea de que las arterias contenían aire y no sangre, sin prestar demasiada atención a la cuestión de que la aorta sangra cuando se la secciona. Erasístrato salvaba la contradicción diciendo que, al escapar el aire por el tajo, se producía un vacío que succionaba sangre de las venas.
El tercer sistema, el de los nervios, se ocupaba de la relación con el medio: cuando el pneuma vital llegaba al cerebro por las arterias, se convertía en pneuma psíquico, que viajaba por los nervios y aseguraba la transmisión de las sensaciones y los movimientos.
En realidad, todas estas eran puras especulaciones teóricas, con las que seguramente ellos mismos no sabían demasiado bien qué hacer. Aunque también es verdad que algunas ideas podían aplicarse: por ejemplo, una alimentación excesiva hacía que el hígado produjera más sangre de la que el cuerpo podía soportar y podía invadir las arterias e hinchar las piernas; el equilibrio se restablecía con una dieta (lo cual podía funcionar razonablemente bien) o, en casos extremos, con una sangría. En algún momento tendremos que dedicar algunas páginas a la historia de las sangrías, que constituyen el ejemplo de una creencia persistente más allá de toda lógica… hasta el siglo XIX.

§. Un poco de medicina romana
Antes de ser conquistada por la medicina griega, la medicina romana tenía una historia heredada de los etruscos, que, como todas las medicinas primitivas, era una mezcla de prácticas mágicas y adivinatorias, con todos los chirimbolos y accesorios de siempre. Era un sistema arcaico, por lo que la superioridad de la medicina griega no tardó en imponerse, y, en realidad, nunca pudo hablarse propiamente de medicina romana, porque todos los actores fueron griegos (como en casi todas las ciencias, por otra parte). Además, los principales centros médicos continuaron situados en ciudades griegas del Mediterráneo oriental. De todas formas, en Roma aparecieron varias escuelas en el siglo I a.C. que llegaron a alcanzar fama: la escuela metódica, la pneumática y la empírica. Habría que agregar, a estas tres, una cuarta (la dogmática), en contra de cuyas posturas racionalistas se alzaron los representantes de las demás escuelas: los dogmáticos estaban más interesados por encontrar las causas ocultas de los males que por buscar tratamientos efectivos, lo cual puede ser válido para una ciencia cualquiera pero no para una que depende tanto de los resultados concretos como la medicina.
No está de más insistir: la medicina, mucho más que cualquier otra rama de las ciencias cuyo recorrido estamos siguiendo aquí, mantiene y renueva constantemente (aún hoy) una natural tensión entre la empiria y la teoría. La decisión sobre si el elemento originario es el agua o el aire, o si el ser es móvil o inmóvil, parece ser mucho más ajena a la aplicación práctica que una terapéutica: en este último caso, sea cual fuere la teoría, su corrección o incorrección se valorará inmediatamente a partir de los resultados. Hoy en día, por ejemplo, un paciente está muy poco interesado en las cuestiones teóricas que hay detrás de un tratamiento: mientras sea efectivo, alcanza y sobra.
De una u otra forma, las distintas escuelas médicas asumieron (no necesariamente en forma explícita) esta tensión entre explicación y aplicación, acumulando las cargas de uno u otro lado de la balanza.
Es curiosa la escuela metódica, que estuvo inspirada por el primer médico griego de importancia que fijó su residencia en Roma, Asclepíades. Se cuenta que una vez, caminando por las calles de la ciudad, vio pasar un cortejo fúnebre, y de inmediato su ojo clínico descubrió signos de vida en el «cadáver». Convenció a los dolientes de transportarlo a una casa cercana, en la que consiguió devolverlo a la vida. Como es de imaginar, y suponiendo que la historia sea cierta, obtuvo inmediata fama y su escuela prosperó. Asclepíades se opuso abiertamente a los planteamientos de Hipócrates y formuló una concepción mecanicista del cuerpo humano, junto a una interpretación de sus enfermedades basada en la física atomista de Demócrito y Leucipo (sobre la que ya tuvimos ocasión de conversar unos capítulos atrás).
Según Asclepíades, el cuerpo humano se compone de «átomos» entrelazados que integran sus partes sólidas, por cuyos poroi (canales orgánicos) se mueven los fluidos y el pneuma, compuestos también por átomos muy sutiles. Todos los átomos se mueven por sí mismos y la enfermedad no es otra cosa que una perturbación mecánica de su movimiento; el objetivo de la terapéutica, por lo tanto, consiste en restablecer la normalidad mediante regímenes dietéticos, curas ambientales, intervenciones quirúrgicas y métodos mecánicos como el masaje, la gimnasia y la hidroterapia.
Su discípulo, Temisón de Laodicea (famoso en Roma durante el imperio de Augusto), fijó los preceptos de la escuela metódica, estableciendo un método simple para curar a los enfermos, gracias al cual la escuela se llamó como se llamó. El tratamiento a llevar a cabo venía determinado explícitamente por los síntomas: del mismo modo que la sed indica, de modo natural y accesible para todos, la necesidad de beber, las enfermedades dan una pista evidente de cómo se deben curar. Toda la terapia consistía en reconocer dos estados, el status laxus y el status strictus, dependientes de las condiciones anormales de los poros (demasiado relajados o demasiados estrechados). Posteriormente se agregó un status mixtus, intermedio. Tratar un cuerpo enfermo era, simplemente, relajar o estrechar los poros, de acuerdo a cuál fuera el problema.
Naturalmente, todo este corpus teórico no significaba nada. Las «curaciones» eran muy elementales, y, contrariamente al célebre aforismo de Hipócrates («el arte es largo, la vida es breve»), un discípulo de Temisón, un tal Tassalos de Tralleis, llegó a prometer a sus oyentes que les enseñaría toda la medicina, sin preparación previa alguna, en sólo seis meses. Así, la escuela se llenó de zapateros, cerrajeros y gente de otros oficios que, convertidos en médicos, elevaban la fama del maestro. La mayoría de los metódicos, en realidad, formaron una especie de grupo de curanderos y charlatanes totalmente alejados de la ciencia.
Algo parecido podía decirse de la escuela neumática, fundada por Ateneo de Atalia: si bien tenía su propia teoría, no está claro cómo esa teoría podía incidir en la práctica. La escuela concedía gran importancia fisiológica y patológica al pneuma, ese espíritu vital que se inspiraba con el aire, y asumía la existencia de un paralelismo constante entre macrocosmos y microcosmos regido por la correspondencia mutua (sympatheia) de todos sus fenómenos, idea que tendría un largo y triste futuro. Júpiter, por ejemplo, correspondía a un determinado órgano, la Luna a otro, y cosas por el estilo, lo cual habilitaba una especie de astrología médica que seguramente se basaba en los astros para dar un diagnóstico. Es un buen ejemplo de una teoría basada en una creencia totalmente arbitraria, a diferencia de la teoría de los humores, que era una «mala» interpretación de elementos existentes.
Paralelamente a la escuela escéptica de los filósofos (de la que no hablamos ni hablaremos por razones de espacio) nació la escuela empírica, que no sólo pretendía basar la medicina, antes que sobre la especulación teórica, sobre la observación y la experiencia, sino que, además, negaba toda posibilidad de construir una ciencia teórica válida, y, por lo tanto, de edificar una verdadera teoría médica. Rechazaban todo tipo de deducciones lógicas, cosa que si bien era razonable a corto plazo, era un disparate en el largo (aunque ellos seguramente argumentaban que, como dijo Keynes, en el largo plazo estaremos todos muertos, médicos y enfermos por igual). Trataban de probar un remedio que había servido para curar un brazo, por ejemplo, aplicándolo a un enfermo que padecía de un mal semejante en una pierna. O probaban en un caso de hemorragia un remedio que había servido eficazmente para contrarrestar la diarrea: si el remedio probado no producía efecto, los empíricos aplicaban otro de efecto contrario, y así sucesivamente.
Lo que en realidad estaba pasando es que la complejidad del cuerpo y los datos observables estaban a una distancia tal de cualquiera de estas teorías como los átomos de Demócrito del funcionamiento de una central nuclear. Pero en el caso de la medicina la necesidad de resultados inmediatos nos permite pensar que, en el fondo, lo que seguramente funcionaba, cuando funcionaba, era la aplicación (explícita o subterránea) de los conocimientos tradicionales. La teoría era impotente; nadie, supongo, hoy se dejaría atender por un filósofo, y menos que menos por un filósofo posmoderno, que consideraría que todas las enfermedades son equivalentes en tanto relatos y construcciones sociales, y los remedios y aparatos simples resultados de juegos de poder del capitalismo.
En fin, pienso que la situación de un enfermo era así en esos tiempos, y lo seguiría siendo por siglos. Es verdad que la teoría de los humores era racional y naturalista, y tan fantástica como la teoría de Tales sobre los terremotos: la diferencia es que, como tenía incidencia directa sobre el cuerpo, su carácter puramente especulativo no podía sino producir inquietud.
Todo lo que acabo de decir vale también para la figura más descollante de la medicina romana (o mejor dicho, de los tiempos del Imperio Romano): Galeno. Tras períodos de fulgor y declinaciones, la medicina antigua encontró en él a una especie de resumen de todos los conocimientos, y su influencia fue tan importante en los siglos que siguieron que su nombre pasó a ser usado como sinónimo de médico (aunque ahora tiene un leve matiz despectivo). Galeno marcó la culminación de la medicina antigua. Pero, paradójicamente, marcó también, durante siglos, la detención de los estudios médicos, que sólo resurgieron hacia el fin del Renacimiento, y que se renovaron en profundidad recién en los primeros decenios del siglo XVII.

§. Vida de Galeno
Según la tradición, Esculapio, dios de la medicina, se le apareció al padre de Galeno (que era arquitecto) en sueños, pidiéndole que hiciera médico a su hijo. Y así lo hizo. Nacido en Pérgamo (hoy en día Bergama, en Turquía), en el 138 d.C., estudió medicina y filosofía en Esmirna y en Corinto, trasladándose después a Alejandría (que ya no era lo que había sido, pero que seguía viva). Una vez perfeccionados los estudios, volvió a su Pérgamo natal, donde ocupó el ambicionado y muy disputado puesto de médico de la escuela de los gladiadores. Allí encontró amplio campo para poner en práctica y experimentar la validez de sus estudios, sobre todo de anatomía y de terapéutica en el campo quirúrgico, y también en el terreno farmacológico.
Dos años después, viajó a Roma llamado por el propio emperador, Marco Aurelio (121-180), en calidad de médico personal, cargo que ocupó hasta su muerte en el 201. Galeno vivió una época en la que el cristianismo estaba ganando poder y a pesar de no ser cristiano mantuvo una postura monoteísta. El afán de buscar designios y proyectos en el universo, y en particular en el cuerpo humano, hizo sus obras populares entre los cristianos, además de asegurar con ello la supervivencia de sus libros a través de la Edad Media.
De su enorme producción —se dice que escribió cerca de cuatrocientas obras— no ha quedado mucho, pero los historiadores coinciden en que lo que se ha conservado expresa lo mejor de su doctrina y pensamiento.
Galeno era un erudito en matemática, física y filosofía, lo que lo ayudó en el campo médico a lograr una síntesis entre los conocimientos teóricos y los empíricos de la época, que complementó con observaciones e investigaciones propias, uniendo la tradición hipocrática con los resultados alejandrinos.
Como para Hipócrates, para Galeno la enfermedad es un desequilibrio de los cuatro humores que se diagnostica mediante el pulso, la orina, las inflamaciones de órganos internos. Esto último exige el conocimiento de la anatomía. Pero como en su época en Roma no se podían hacer disecciones de cadáveres humanos, estudió cerdos, ovejas y monos y trasladó sus observaciones, lo cual llevó a muchísimos errores.
Su sistema fisiológico es básicamente el de Erasístrato, con sus tres sistemas. El corazón es el centro del calor animal, que se modera con el aire llegado de los pulmones. Al expandirse el corazón (sístole) se expulsa a través de la arteria pulmonar el hollín y los vapores generados por ese vapor innato, y al contraerse el corazón succiona el fuego del aire atmosférico de los pulmones. Este fuego se mezcla con la sangre, y esta sangre caliente y llena de pneuma se reparte por todo el cuerpo a través de las arterias. El sistema nervioso se ocupa de las funciones superiores. La cuestión es que Galeno desarrolló un sistema completo de fisiología, dado que no podía imaginar al órgano separado de su función. Por ese camino, intentó una interpretación fisiológica de todos los órganos y vísceras que pudo descubrir e identificar durante su infatigable actividad de anatomista.
Según la explicación de Galeno, una vez que el aire era inhalado se convertía en pneuma gracias a la acción de los pulmones, y el proceso vital transformaba un tipo de pneuma en otro. El estómago y los intestinos, en una primera digestión, convertían a los alimentos en quilo, que luego pasaba al hígado, el órgano central en el cual confluían todas las venas y a partir del cual se redistribuía todo lo que se procesaba. De hecho, era allí, en una segunda digestión, donde se gestaban los cuatro humores que fluían y refluían en las venas con un movimiento semejante al de las mareas. Parte de este espíritu natural entraba en el ventrículo izquierdo del corazón, donde se convertía en un tipo superior de pneuma: «el espíritu vital». Entonces, el espíritu vital era transportado a la base del cerebro y allí la sangre se transformaba en una forma aún más elevada de pneuma: el «espíritu animal». Esta forma suprema de pneuma era distribuida a todo el cuerpo por medio de los nervios, que eran huecos. Cada aspecto del alma (tomada en el sentido platónico) poseía su propia «facultad» especial, que correspondía a su poder de producir pneuma. Explicaba Galeno:
Siempre que ignoremos la verdadera esencia de la causa que está operando la llamaremos facultad. Así, decimos que en las venas existe la facultad de producir sangre, una facultad digestiva en el estómago, una facultad pulsátil en el corazón y una facultad especial en cada una de las partes que corresponde a la función o actividad de esa parte.
Ésta era, en resumen, la gran estructura de la fisiología de Galeno, que esencialmente era una pneuma tología. El centro del sistema era una teoría especial sobre el corazón humano. El calor innato que, según Hipócrates y Aristóteles, impregnaba todo el cuerpo y distinguía a los vivos de los muertos, procedía del corazón. El corazón, alimentado por el pneuma, era naturalmente el órgano más caliente, una especie de horno que se hubiese consumido a causa de su propio calor si no fuese por la acción refrigerante de los pulmones. El calor, que estaba unido a la vida humana, era, pues, innato, el sello distintivo del alma.
Galeno fue también un gran anatomista y, se podría decir, el que inició el conocimiento sistemático de la anatomía humana aplicada al diagnóstico y tratamiento de las enfermedades: conoció la osteología por el estudio directo del esqueleto humano, y la estructura de las partes blandas por las disecciones de animales. Su texto Sobre los procedimientos anatómicos explica la forma de la mesa de disecciones y la técnica de estudio anatómico.
Hizo una excelente descripción del esqueleto y de los músculos que lo mueven; en particular, de la forma en que se envían señales desde el cerebro a los músculos a través de los nervios.
La obra de Galeno fue el referente de la medicina posterior y se consideró casi un mandato a seguir de forma dogmática durante casi mil quinientos años. Probablemente esto fue así no por sus contribuciones a la medicina, sino por haber realizado una especie de recopilación de todos los conocimientos médicos adquiridos hasta su tiempo.
Además, su trabajo fue el primero que se sistematizó y se agrupó en tratados y manuales (mientras que los desarrollos anteriores se reducían sólo a escritos sueltos sobre cosas concretas) lo cual favoreció su enseñanza y utilización como referencia fundamental.

§. Balance
Del mismo modo que la física fue diseñando su sinuoso camino apartando a los dioses de los asuntos terrenales, en los que poco les quedaba por hacer, la medicina se fue «cientifizando» con el correr de los siglos. La teoría de los cuatro humores es sin dudas una teoría científica, claro está: una teoría que, con todos sus errores y limitaciones (que sólo podemos señalar ex post) prescinde de los elementos sobrenaturales y busca una explicación estrictamente natural.
Pero con el aspecto teórico, en medicina (más que en ninguna otra ciencia), no alcanza. Tenemos que hacernos otra pregunta: ¿los médicos antiguos curaban a alguien? Para poder comprender la situación de la época, naturalmente, es importante recuperar la idea de que ellos ignoraban que carecían de instrumentos como los microscopios o los análisis químicos, y que no sólo lo ignoraban sino que ni siquiera lo podían imaginar, del mismo modo que nuestros médicos de hoy ignoran de qué aparatos o recursos que alguna vez resultarán imprescindibles carecen. Entonces… ¿qué podían hacer?
Bueno, es muy probable que la medicina antigua fuera eficaz (en la medida en que no fuera invasiva) para tratar enfermedades «de superficie», desde una indigestión hasta una herida, e incluso debió haber casos de enfermedades infecciosas, como una pulmonía, tratadas con éxito (y con suerte), permitiendo, a través de la dieta sana y la vida equilibrada, que el cuerpo del enfermo fortaleciera su sistema inmunológico (del cual los médicos no tenían ni idea) y se reparara a sí mismo (como sugieren algunas corrientes de medicina actual, como el naturismo, sólo que ahora lo consideramos peligroso). Era en gran parte una medicina de equilibrio, no invasiva, parecida a las medicinas naturales actuales.
Pero más allá de todas las teorías y los debates epistemológicos, creo que lo más probable es que todo médico serio de la Antigüedad, empírico o neumático, o galenista, o egipcio o lo que fuera, recurriera a una farmacopea natural y folklórica, que sacaba su contenido de la experiencia acumulada por las generaciones. Lo más probable, pienso, es que todos ellos, en el fondo, aunque tuvieran una teoría, se comportaran en gran parte como empíricos, recurriendo a la «medicina subterránea» y a las farmacopeas naturales. Y esto vale incluso para Galeno.
En fin, ya nos volveremos a encontrar con estos problemas a medida que vayamos recorriendo nuestro camino, especialmente cuando veamos cómo, por ejemplo, la medicina de los cuatro humores sacó conclusiones agresivas de la teoría y produjo ese gran instrumento de muerte que fue la sangría.
Pero no nos adelantemos. Acompáñenme a ver cómo imaginaron el mundo los fundadores de la ciencia.

Capítulo 7
El asalto al cielo

Dos cosas me llenan de asombro y admiración: la conciencia moral dentro de mí y el cielo estrellado por encima de mí.
IMMANUEL KANT
Sobre los instrumentos de muerte asoma, decidido, el Sol.
Te había oprimido la alta noche vacía
y hueca
frente al televisor que en un cuarto
cerrado
te hizo compañía hora tras hora.
Y el cielo
no te dio consuelo
no te dio consuelo
porque es negro y vacío como la muerte.
Tanteaste en la oscuridad
recorriste la ciudad sólo alumbrada
por la luz del supermercado
y el brillo del shopping que titila
reventando de compacts y remeras
en el campo sin luz
en el desierto desprovisto de esperanza.
Miraste a las estrellas con pavor.
¿Qué te queda de la felicidad de los mundos
que brillan en lo oscuro
que se agitan en la inmensidad
donde no llega el oído
ni alcanza la mirada?
Y de pronto ves
que algo cambia.
Te parece que la noche afloja,
que cede a regañadientes.
¿Sabés qué está pasando?
No, no sabés qué está pasando.
¿Algo sombrío?
¿Es algo aún más sombrío que te espera?
Y no; yo te diré lo que ocurre.
En este rincón perdido entre los mundos,
en este oculto rincón
¿quién conoce su verdadero nombre
en la lista de los mundos?
De repente
en este lugar apartado de todo
donde sólo el shopping te indica que estás vivo
ves que se asoma una luz no imaginada.
¡Tu estrella sale por el Este! Tu estrella.
Tu estrella,
la que entre cien mil millones de estrellas
es tuya, sólo tuya,
aparece
disputando cada palmo de sombra,
torciendo
el brazo a la ominosa noche
va ganando terreno,
va ganando terreno como un sonido,
o una alegría que se expande.
¡Amanece!
Ahora ves.
Tus ojos recuperan cada forma,
perciben siluetas grises y distinguen lo bueno de lo malo
lo benévolo en la selva sin fin.
La calle de tu infancia.
¿Qué te importa si un dios en una barca la arrastra a regañadientes
o si otro dios la ha cargado en su carro y cabalga con ella penosamente el cielo?
¿Qué más da un dios u otro?
¡Allí está!
Qué te importa saber que un día morirá
hasta ser un astro sin brillo, opaco y frío,
perdido en el espacio negro y frío.
¡Amanece!
La luz avanza tanteando.
Has sobrevivido a la noche, donde anida
la muerte
lista como la serpiente decidida a atacar.
Percibiste el silencio de las especies,
al acecho
buscando su oportunidad.
Y la pregunta primera: ¿llegaré a ver el nuevo día?
y amanece.
Todo está en su lugar
y esa esfera de miserable gas, tu estrella, nace.
La pared sobre la que escribieron los profetas
se está resquebrajando.
Sobre los instrumentos de muerte
asoma resplandeciente el Sol.
Simplemente amanece.
Si uno lo piensa, la observación del cielo tiene que ser tan antigua como la cultura misma: el cielo está ahí y presenta ciclos que, si bien pueden ser fascinantes, también pueden resultar atemorizadores, hasta el punto de que hay celebraciones actuales que, aunque estén revestidas de componentes modernos y meramente religiosos, tienen su origen en la observación cosmológica. Tal es el caso de la Navidad, una fiesta antiquísima, anterior al cristianismo, desde ya, pero también a la civilización romana. Es la fiesta del solsticio de verano de las antiguas culturas del Hemisferio Norte, el momento en que el Sol, después de alcanzar su punto más bajo sobre el horizonte, detiene su peligroso descenso (en vez de hundirse para siempre en el horizonte) y empieza a elevar su altura.
Era como para festejarlo. Esas fiestas, probablemente neolíticas, derivaron en celebraciones institucionales romanas. Las saturnalias, por ejemplo, se festejaban en esos días, y cuando el Cristianismo debió fijar su celebración central, la superpuso a fiestas ya conocidas y aceptadas. Así, la Navidad es, en última y antigua instancia, una fiesta astronómica.
Las primeras culturas identificaron a los astros con dioses y les atribuyeron la capacidad de influir sobre la vida de los hombres. Y pensaron leer en ellos el futuro de los pueblos y sus gentes, en esa pseudociencia y superstición que se llamó astrología. No es raro: el cielo, aparentemente, muestra una regularidad y una permanencia que está muy lejos de las mudanzas humanas. Lo que cualquiera de nosotros ve en una noche estrellada es prácticamente lo mismo que vieron nuestros antepasados: los que anudaron los quipus y los que habitaron Tenochtitlán, los que cruzaron el océano, los que oyeron por primera vez recitar la Ilíada, los que construyeron las pirámides, los primeros hombres que hace cien mil años abandonaron el África y empezaron a esparcirse por el mundo. Es una sensación grandiosa que perfectamente describió Kant, una intuición de eternidad, en fin, que desafía lo efímero de la vida cotidiana, y aun la vida y la muerte.

§. No es tan simple
Sin embargo, la verdad es que el cielo está muy lejos de la quietud: el Sol sale y se pone, la Luna cambia de forma y las estrellas lo cruzan de Este a Oeste cada noche. Y además, el Sol no tiene siempre la misma altura durante las distintas épocas del año (ya les conté el caso de la Navidad), del mismo modo que hay estrellas que dejan de verse durante meses y otras que se ven siempre. Y después de 365 días, las cosas están como al principio y todo vuelve a empezar una y otra vez, con una regularidad hipnótica que las culturas de la Antigüedad registraron muy bien: astrónomos hindúes, babilonios y egipcios elaboraron minuciosas tablas con estos datos, que fueron usados para establecer calendarios muy precisos.
Se trata de movimientos que, en realidad (y en principio), se podrían explicar de una manera muy sencilla: basta con imaginar al cielo como una enorme esfera que rodea a la Tierra y que da una vuelta diurna y otra, independiente, anual.
Pero con eso no alcanza. Y no alcanza porque, por empezar, es evidente que no todos los astros se mueven en bloque. El Sol y la Luna a veces coinciden, otras se separan y a veces se alinean con la Tierra y provocan eclipses. Es obvio que tanto uno como la otra se mueven por su cuenta y cambian de posición, a lo largo del año, respecto de las estrellas. Entonces no alcanza con imaginar una esfera que engloba a todo el cielo: hacen falta por lo menos tres, una para las estrellas, otra para el Sol y una tercera para la Luna.
Y resulta que tres esferas tampoco son suficientes, porque hay algunos puntos brillantes que tampoco se mueven solidariamente con las estrellas, el Sol o la Luna, sino que lo hacen, al parecer, por su cuenta. A medida que avanza el año cambian de posición sobre el fondo estrellado, de modo tal que en un mes están cerca de una determinada constelación y, un poco después, cerca de otra, vagabundeando, sin respetar el movimiento uniforme y previsible de ese gran telón que cumple su impresionante ciclo anual alrededor de nosotros.
Los observadores griegos los llamaron «astros errantes» o «vagabundos» y, aceptando el orden y la tradición de la astronomía babilónica, los identificaron con dioses: Mercurio, Venus, Marte, Júpiter y Saturno. Obviamente, cada uno de estos planetas necesita una esfera más si se pretenden explicar los movimientos del cielo, de modo que el sistema se hacía acreedor de ocho esferas (estrellas, Sol, Luna y cinco planetas) que se movían independientemente unas de otras alrededor de la Tierra.
No parece grave: la verdad es que imaginarse ocho esferas para explicar algo tan extraordinario como el funcionamiento del cielo no es cosa del otro mundo, pero resulta que con esas ocho esferas tampoco alcanza.
Y no alcanza porque ocurre que los planetas se mueven de una manera extraña. A lo largo del año, Marte, por ejemplo, avanza durante un tiempo en el cielo, luego se detiene y empieza a retroceder, también durante un cierto lapso, hasta que retoma su movimiento hacia adelante, en un desconcertante zigzag… ¿Cómo se explica ese movimiento retrógrado, que del mismo modo que Marte, afecta a todos los planetas?

013.jpg
El movimiento retrógrado

Y además, los planetas cambian de brillo, como si se acercaran y se alejaran, cosa que no puede ser posible, ya que los puntos de una esfera están siempre a la misma distancia de su centro.
Eso no es todo: en su revolución anual (estoy tomando el punto de vista de una Tierra inmóvil y ubicada en el centro), el Sol no se mueve siempre con la misma velocidad. Y hay otros planetas que hacen cosas raras: Mercurio y Venus están siempre casi pegados al Sol, al amanecer o al ocaso, cosa que no ocurre con los otros planetas.
Ese cielo que conocían los griegos era bastante complicado…
Pero lo increíble es que la astronomía griega logró dar cuenta de todos estos fenómenos, resolvió ese galimatías y fue más allá, pero mucho, mucho más allá de lo que habían logrado sus precursores, los egipcios y, sobre todo, los babilonios. Les llevó unos cinco siglos, pero lo hicieron. Fue una aventura intelectual de las grandes, que no deja de maravillarnos. La vamos a seguir paso a paso.

§. La astronomía heredada
Antes de iniciar la aventura griega, veamos un poco qué es lo que heredaron de la Mesopotamia, que les llevaba más de mil años de ventaja en las indagaciones celestes.
Como ya les dije, aunque no está de más recordarlo, los babilonios iniciaron sus estudios aritméticos, como casi todos los pueblos, por razones de control y de inventario; sus estudios astronómicos, por razones de calendario y de adivinación astrológica. Como trasfondo estaba la cosmología mitológica: la tierra es plana y está rodeada por un océano circular; sobre ella se extiende el cielo abovedado que se apoya en una estructura montañosa con puertas por donde entran y salen, a través de un túnel que recorren durante la noche dioses y astros; bajo la tierra están los infiernos donde «viven» (sic) los muertos y (no sic) los demonios.
Por su parte, todo el conjunto está rodeado por las aguas superiores, separadas de nosotros por el firmamento (como en el Génesis I, versículos 1.6 y 1.7 —«Y dijo Dios: Haya expansión en medio de las aguas, y separe las aguas de las aguas. E hizo Dios la expansión y separó las aguas que estaban debajo de la expansión, de las aguas que estaban sobre la expansión»—, lo que muestra, dicho sea de paso, la íntima ligazón de la mitología judía con la babilónica).
Para los sumerios (estoy usando indistintamente el nombre de los pueblos que habitaron la Mesopotamia), los astros eran dioses y su estudio podía servir para adivinar sus caprichos, sus acciones buenas y malas, e incluso sus ataques de pánico, sus síndromes de estrés postraumático, o cualquier otra enfermedad, existente o no. Desde el cuarto milenio dieron nombres a las estrellas y agrupaciones de estrellas más notables, es decir, inventaron las constelaciones.
Con respecto a las constelaciones, una aclaración: como todos estos pueblos imaginaban a las estrellas pinchadas en la bóveda celeste (o en el último cielo), las constelaciones, esas agrupaciones de estrellas que parecen representar una figura, o un animal, o a veces una escena mitológica, tenían muchos más visos de ser reales. Hoy, aunque seguimos usando las constelaciones heredadas de los griegos, sabemos que esas estrellas no están de ninguna manera agrupadas, sino que pueden estar a distancias muy grandes en el espacio profundo.
Volviendo a los babilonios, las estrellas León, Toro, Escorpión y Pegaso marcaban, al salir inmediatamente antes que el Sol, los solsticios (21 de diciembre y 21 de junio, días del año en que el Sol alcanza el punto más alto y más bajo en el mediodía, para después empezar a bajar o subir) y los equinoccios, puntos en que la noche y el día tienen la misma duración.
Los babilonios reconocieron los planetas (incluyendo la identidad de Venus como lucero del alba y del atardecer) y, para el año 700 a.C., conocían ya la eclíptica, el supuesto camino anual que siguen la Luna, el Sol y los planetas (aunque en realidad, como bien sabemos hoy, es la Tierra la que se mueve) y comprendieron que estaba inclinada respecto del eje de nuestro planeta, lo cual —dicho sea de paso— hace que existan las estaciones.

014.jpg
La eclíptica

También inventaron el Zodíaco, una banda de 12 signos de 30 grados cada uno, asociados a constelaciones, que hizo posible la expresión numérica de los datos en grados de longitud.
Los métodos de predicción se hacían a partir de largas tablas de observaciones en las cuales se encontraban ciclos regulares: estas tablas eran lo suficientemente precisas como para predecir los eclipses de Luna con bastante exactitud y los de Sol de manera aproximada. Lograron también calcular y predecir las misteriosas retrogradaciones de los planetas.
Sin embargo, en ningún caso elaboraron teorías físicas del cosmos buscando mecanismos subyacentes. Es extraño pensar que la predicción de los movimientos celestes por medio de procedimientos terrenales y no espirituales no haya llevado por lo menos a algún intento de edificar una cosmología naturalista que lo explicara, aun superponiéndose a la explicación mitológica.
Para encontrarla, tenemos que volver, cuándo no, a Grecia.

§. Los primeros intentos
Los griegos encararon el estudio de la astronomía y en sólo unos pocos siglos la llevaron a un estado de perfección tal que pudo funcionar durante mil cuatrocientos años.
Su astronomía matemática (y es importante notar cómo los griegos llevaron las ciencias de base matemática a su máxima expresión —no así las ciencias empíricas—) es el logro más impresionante de la ciencia griega: la joya de la corona, un sistema completo sobre el mundo, que de todos modos costó, como hubiera dicho Churchill, logos, doxa y episteme. O mejor, razonamiento, observación y teoría, una tríada que resultaba útil para responder a una de las preguntas centrales del pensamiento griego: ¿cómo puedo obtener un conocimiento verdadero?
Volvamos por un momento al siglo VI a.C.: los milesios dieron los primeros pasos en la comprensión racional del mundo, pero no consiguieron una cosmología estable. Tales, con su teoría de la Tierra como un DVD flotando en el océano universal, sostenía que la bóveda celeste, por la noche, pasaba por debajo de la Tierra, una idea de clara inspiración egipcia (el barco del sol atravesando el mundo subterráneo). Lo poco que conservamos de él no nos permite entender cómo era ese pasaje «por abajo», dado que es de suponer que ese abajo estaba lleno de agua, y la esfera celeste se mojaría, y cada día amanecería chorreando, a menos que se inventara un mecanismo ad hoc de secado rápido. Pero bueno, no tenemos escritos de Tales que aclaren esas cosas.
Lo malo con los presocráticos es que se ha perdido tanto material que uno no puede saber si es que alguien se despreocupó de tal o tal cosa, o simplemente sí se preocupó, pero no se conservó lo que dijo. De todas maneras, Tales hizo bastante. Naturalmente (ya hablamos de eso) había tenido contacto con la astronomía babilónica (tanto o más fuerte que la egipcia) y sus interminables y precisas tablas y ciclos, que permitían predecir los fenómenos celestes. Habíamos dicho ya que, casi seguro, usó esas tablas para predecir el eclipse con el que fechamos el inicio de la ciencia.
Los que sí expusieron una teoría cosmológica (fíjense que digo «cosmológica» y no «astronómica», porque eso no era aún astronomía; astronomía, aunque puramente observacional y sin cosmología, era la de los babilónicos) fueron sus discípulos Anaximandro y Anaxímenes.
Ya saben que Anaximandro creía que la tierra era similar a una columna de piedra: un cilindro más ancho que alto con dos antípodas planas (arriba y abajo) y sobre la superior se movían los hombres. Pero además, describió los cuerpos celestes como anillos de fuego; esos anillos son invisibles, ya que están rodeados de niebla, una niebla que posee aberturas a través de las cuales aparecen: lo que vemos como una estrella no es más que un pinchazo en la bóveda celeste que nos permite percibir la luz de atrás, de modo tal que los eclipses no son otra cosa que la obstrucción de las aberturas.
El círculo por el cual se mueve el Sol, el más alejado de todos, es 27 veces el de la Tierra; el de la Luna, inmediatamente por debajo del Sol, de 18 veces, y el de las estrellas, de 9 veces. Noten que, curiosamente, el círculo más cercano es el de las estrellas. Nada se dice de los planetas. Si hacemos las cuentas de las distancias, tomando el valor que ahora conocemos del diámetro de la Tierra (12 mil kilómetros), resulta que las estrellas estaban a 120 mil kilómetros; la Luna a 206 mil, y el Sol a 324 mil. O sea que las estrellas de Anaximandro estaban más o menos a un tercio de la distancia real de la Luna (380 mil kilómetros), la Luna a dos tercios de su distancia real, y el Sol distaba un poco menos que la Luna. Vale decir que, para el caso del Sol, la distancia de Anaximandro es un 0,00002 por ciento de la real… ¡y ni hablar de las estrellas!
Se trata, sin duda, aunque algunos lo celebran como el primer sistema mecánico, de un sistema fantasioso, que juega con el número 3 y sus múltiplos —9, 18, 27— sin razón aparente.
Anaxímenes también diseñó su propio sistema cosmológico, aunque menos complejo, al criticar la teoría de Tales sobre la Tierra flotando en el agua (en efecto, ¿quién sostiene el agua?, ¿y qué sostiene a lo que sostiene el agua?). Afirmó (como ya lo hemos dicho en algún momento), que «la Tierra está suspendida libremente, permaneciendo en su lugar en razón de su igual distancia a todas las partes», colocándola en el lugar que iba a ocupar por muchísimos siglos. Lo interesante de todo esto es que la centralidad de la Tierra se deduce de un razonamiento puro, no de una observación empírica, como lo harán los astrónomos posteriores.
De todos modos, las cosmologías milésicas adolecen de todas las carencias de su visión del mundo, que tienen que ver con el hecho de hacer «deducciones» a partir de observaciones superficiales.
¿De dónde sacó Anaximandro que la Tierra es un cilindro? ¿Y los anillos de fuego? Eran construcciones naturalistas pero todavía no constituían una cosmología verdadera y completamente científica.

§. La cosmología pitagórica
La próxima estación en el viaje en el tren de conseguir una explicación para los cielos es en Samos, entre los pitagóricos, que, como ya vimos, habían construido un sistema basado en los números, y probablemente hayan sido los primeros en postular una estructura matemática «subyacente», aunque muchas de sus elucubraciones eran pura charlatanería numerológica (al estilo de las que defienden los «numerólogos» de hoy en día, que casi seguramente no leerán este libro). Ese sistema les permitió alcanzar notables descubrimientos matemáticos, como el de que la raíz cuadrada de dos es irracional.
Los pitagóricos pensaban que todo el cielo era una escala musical y un número; de acuerdo con astrónomos anteriores, imaginaron a los cuerpos celestes ubicados en esferas concéntricas cuyos movimientos originan sonidos acordes aunque inaudibles (no los oímos porque estamos acostumbrados a hacerlo desde que nacemos), una idea que llegará hasta el mismísimo Kepler. Este Kepler, y perdón por el adelanto, fue, además de uno de los grandes ordenadores del cosmos, un místico con una gigantesca imaginación, que postuló un inverosímil, aunque atractivo, sistema cosmológico en el que, entre otras cosas, rescató la idea de la música de las esferas al mismo tiempo que reordenaba el sistema solar. Al final de su vida, en el tratado Harmonices Mundi, el descubridor de las tres leyes de movimiento planetario asegura que entre las diferentes velocidades angulares de los astros existen las mismas proporciones que entre las notas musicales, de modo tal que el movimiento planetario se estructura de manera semejante a la polifonía renacentista.
Pero estábamos hablando de los pitagóricos. Y resulta que hay entre ellos una versión primitiva que parece mostrar a la Tierra como el centro del universo, y conteniendo un núcleo caliente o fuego central, pero que o bien fue dejada de lado o evolucionó hacia otra cosmogonía, que es la que en general se asocia con ellos, atribuida a Filolao de Trotonas, un pitagórico de fines del siglo V.
Para Filolao, a quien Copérnico cita, el centro está ocupado por una masa invisible de fuego en torno de la cual giran los cuerpos celestes conocidos: la Tierra y los otros 7 cuerpos celestes (el Sol, la Luna, Júpiter, Saturno, Mercurio, Venus y Marte). El problema es que, si se acepta esto, el sistema queda formado solamente por 9 cuerpos (los siete mencionados, más la Tierra y el fuego central), un número no demasiado elegante que digamos. Sobre todo, si tenemos en cuenta que podemos agregarle un simple cuerpo más y llegar al 10, un número redondo, contundente, firme.
Y esto es lo que hizo Filolao: supuso que existía una cosa llamada «anti tierra», interior y opuesta a la Tierra, que gira también, y como todo, alrededor del fuego central.
El sistema de Filolao tenía mucho de arbitrario, y no podía decirse que estuviera basado estrictamente en el logos. Aristóteles no tenía una opinión muy elevada de esta teoría, como podemos ver:
Con respecto a la posición de la Tierra existen algunas divergencias de opinión. La mayoría de los que sostienen que todo el universo es finito afirman que está situada en el centro, pero esto ha sido contradicho por la escuela de los pitagóricos, quienes afirman que el centro está ocupado por el fuego y que la Tierra origina el día y la noche a medida que se mueve alrededor del centro. Además, idearon otra Tierra situada en posición opuesta a la nuestra, a la que designan con el nombre de anti tierra, sin buscar argumentos y explicaciones acordes con las apariencias, sino intentando, mediante la violencia, hacer coincidir ésta con sus propias argumentaciones y opiniones.
Y también:
Todas las propiedades de los números y escalas que ellos pudieron exhibir en concordancia con los atributos y partes y con el orden general del cielo, las reunieron e hicieron coincidir con su sistema, y si algo fallaba en algún aspecto prontamente hacían agregados para hacer consistente el conjunto de su teoría. Por ejemplo, como el diez parece ser el número perfecto que comprende toda la naturaleza de los números, afirmaron que los cuerpos que se mueven en los cielos son diez, pero como los visibles son solamente nueve (es decir, la esfera de las estrellas fijas, considerada como uno más, más los cinco planetas y el Sol, la Luna y la Tierra), para satisfacer esa condición inventaron un décimo, la anti tierra.
Una crítica perfecta, increíblemente moderna, ya no hecha desde una cosmología cochambrosa y primitiva, sino por quien poseía una astronomía avanzada, compleja y aceptablemente precisa, en la que se señala de manera clara y precisa lo que significa un agregado ad hoc, es decir, un argumento que se añade arbitrariamente a una teoría para que encaje con la realidad.
Pero no sólo la anti tierra era una mera treta mística para que hubiera 10 astros (para lo cual, y con justicia, Aristóteles no veía ninguna razón aceptable), sino que además la teoría adolecía de una seria y fatal dificultad en relación con los eclipses: los eclipses totales de Luna visibles desde un lugar dado son mucho más numerosos que los de Sol; los pitagóricos trataron de explicar esto al sugerir que no sólo la Tierra sino también la anti tierra se interponen entre la Luna y su fuente de luz, pero esto resultó una teoría puramente cualitativa, vaga, y sin sustento matemático, en épocas en que ya se podía exigir otra cosa.

015.jpg
El sistema de Filolao

Es muy común que se resalte el sistema de Filolao como el primero en descentrar la Tierra y asignarle un movimiento (ya les conté que el propio Copérnico lo hace notar), pero este descentramiento correspondía a razones místicas y esotéricas y no a deducciones derivadas de la observación: la misma introducción de la anti tierra responde más bien al fetichismo del número diez que a una necesidad de la teoría y, en ese sentido, la crítica de Aristóteles es pertinente. Además de que el sistema no explicaba las dificultades que les señalé. De modo que después de todas estas proto cosmologías o pre cosmologías, vamos a la primera cosmología en serio: la platónica, desarrollada fundamentalmente por uno de los discípulos de Platón, Eudoxo. Pero antes veamos qué lugar le daba el propio Platón a la astronomía en su sistema.

§. El mandato de Platón
La astronomía pitagórica no podía dejar de influir en Platón, de cuyas raíces pitagóricas ya hemos hablado. En su diálogo La República, las observaciones de Sócrates sobre la astronomía son particularmente provocativas y muestran lo que era la astronomía para Platón. Glaucón le da las razones por las cuales él cree que debe estudiarse astronomía:
[La astronomía es útil porque proporciona] la habilidad para determinar las estaciones, los meses y los años; es útil no sólo a la agricultura y a la navegación, sino también al arte militar.
A lo que Sócrates contesta, burlándose:
Me divierte comprobar cómo pareces temer que el vulgo crea que recomiendas estudios inútiles.
Glaucón ensaya entonces otra línea de justificación:
En lugar de la trivial recomendación de la astronomía por la cual me has censurado, la alabaré ahora según tu estilo, pues pienso que es evidente para todos que su estudio por lo menos impulsa al alma a mirar a lo alto y la aparta de las cosas de aquí a las cosas de allá.
La verdad es que no pude resistir la tentación de intervenir (Oscar Wilde decía que podía resistir cualquier cosa menos la tentación):
Creo, Sócrates, que para ti el verdadero valor de la astronomía reside en su capacidad para dirigir la atención del alma no hacia algún objeto visible sino a objetos invisibles.
—En efecto —contesta Sócrates
—Pero entonces —dije— tú quieres renunciar a explicar los movimientos visibles de los astros, ya que, supongo, pertenecen para ti al mundo del devenir.
—Es así como tú dices.
—Y deberás conformarte con círculos y esferas, que, ostensiblemente, no sirven para explicar los movimientos del cielo
—Es como tú dices, volátil autor de estas páginas, pero recuerda que el objetivo del conocimiento consiste en ver aquello que sólo es captable por el intelecto, y que el primer paso son las matemáticas, y es por eso que deben usarse combinaciones de círculos y esferas para salvar las apariencias de las trayectorias erráticas. Sólo éstas servirán al verdadero objeto de la astronomía. Pero noto algo extraño en ti, no sé si en tus vestiduras —tu túnica parece recién tejida— o tu floja pronunciación
—Sugiero que nos permitas seguir —interrumpe Glaucón—. Verdaderamente, pronuncias el griego como los bárbaros de Anatolia…
Pero el volátil autor de estas páginas, o sea yo mismo, querido lector, ya no necesita permanecer en La República, puesto que ha obtenido una clara exposición del valor que Platón daba a la astronomía. Y del método, que no es por cierto la observación, sino encontrar las verdades matemáticas que subyacen y que «salvan las apariencias». Platón exigía que todos los fenómenos celestes se explicaran como combinaciones de círculos y esferas, que para él constituían los síntomas de la perfección. Es lo que más adelante se conocería como «el mandato de Platón». En realidad, Platón (y ya lo dijimos) pensaba que las cosas de este mundo eran sólo una proyección, apenas apariencias de una «realidad» más verdadera, subyacente y perfecta, que se resolvía con las también perfectas formas de las matemáticas. Eso era lo verdadero: describir los movimientos observables no importaba tanto.
El «mandato de Platón» no funcionó como una simple y amable sugerencia a tener o no en cuenta: en los mil quinientos años que siguieron, nadie se atrevió a desobedecer la orden imperativa de alguien tan grande, hasta que llegó Kepler.
Pero, por lo pronto, era necesario lograr que el imperativo platónico se condijera un poco con lo que se observaba en el cielo (salvara las apariencias). Y bueno, el que se encargó del asunto fue un astrónomo importante de la Academia y alumno suyo, Eudoxo, quien construyó un sistema en el que supuso que las esferas erráticas de los planetas eran combinaciones de esferas concéntricas y con un único centro en la Tierra, esto es, esferas homocéntricas.

§. Las esferas de Eudoxo
Eudoxo se imaginó que cada planeta estaba fijo a cuatro esferas con centro común en la Tierra, inclinadas entre ellas y con movimientos diferentes. No los voy a aburrir con los detalles (pongo el dibujo para que se den una idea, nada más). Basta con señalar que la esfera más baja y la más alta daban cuenta del movimiento diurno y anual, adosado a las estrellas fijas, y las del medio hacían que el pobre planeta describiera una curva que Eudoxo llamó hipópede (perdonen ustedes el nombre, pero fue idea de Eudoxo llamarla así) y que explicaba pasablemente, con un poco de imaginación, las retrogradaciones de los planetas.

016.jpg
El sistema de Eudoxo

Piensen en el virtuosismo matemático necesario para calcular el movimiento de 27 esferas más o menos independientes: 4 para cada uno de los cinco planetas, 3 para la Luna, 3 para el Sol y la de las estrellas fijas. Lo piense uno como lo piense, es una hazaña impresionante. Y además respetaba el mandato del maestro.
Ya lo dije, fue toda una hazaña construir un sistema matemático de este tipo, un siglo y medio después de los milesios y casi contemporáneamente con el sistema puramente teórico, en el mal sentido de la palabra, de Filolao. Pero el pequeño problemita era que no funcionaba; no resistía la prueba experimental, por decirlo así. Había sido inventado para salvar las apariencias, pero la verdad era que no las salvaba: por ejemplo, todas las hipópedes son iguales, pero las retrogradaciones no; mientras que el sistema daba buenas aproximaciones para Saturno y Júpiter, fallaba para Marte y Venus y, finalmente, fracasaba al explicar el diámetro aparente de la Luna y su variación.
Pero un rompecabezas no se abandona así porque sí, por lo menos sin hacer un intento de ajustarlo: precisamente para ajustarlo y corregir esas anomalías, Calipo, discípulo de Eudoxo, agregó a las 27 esferas de su maestro siete más, que tampoco alcanzaron. El esquema, por ingenioso que fuera, así como estaba, sencillamente no funcionaba.
Y entonces llegó Aristóteles, que puso sus manos en el asunto y que, fiel al giro que había tomado frente a la metafísica de Platón, trató de darle contenido mecánico a toda esta parafernalia teórica, ya que lo que le importaba no era sólo salvar las apariencias sino explicar su funcionamiento físico, la transmisión del movimiento entre una esfera y otra, desde la más externa de todas hasta la más baja.
Aristóteles pensó que las esferas de un planeta, así como estaban, iban a tener fatalmente influencias sobre las de todos los demás, y para corregir ese efecto introdujo, entre planeta y planeta, «esferas compensadoras» que corregían el efecto, con lo cual llevó el número nada menos que a 55. Ni voy a intentar hacer un dibujo para no volverme loco (ni que ustedes se vuelvan locos tratando de descifrarlo), pero imagínense el infierno de 55 esferas girando en el cielo.
No sabemos si para Eudoxo (fiel a Platón) esas esferas eran reales o simples recursos geométricos para «salvar las apariencias»; lo importante es que para Aristóteles sí eran reales y explicaban la transmisión del impulso del primer motor hasta la esfera de la Luna.
Pero encima el sistema seguía fallando miserablemente a la hora de explicar las diferencias de brillo de los planetas que, al cambiar de manera regular y cíclica, eliminaban la posibilidad de ser el resultado de simples cambios atmosféricos y que, por lo tanto, no podía sino implicar diferencias de distancias a la Tierra (lo cual, obviamente, resultaba imposible si, como se pensaba, estaban fijos a esferas con centro en la misma Tierra).
Lo cierto es que Aristóteles armó una esferocracia complejísima, pero se dio cuenta de que su dibujo era un tanto complicado, en cierto modo increíble, e insuficiente, y tomó algunos recaudos: aclaró que se expresaba como lego en astronomía (para ser lego, no escatimó esferas, por cierto), aunque admitió que
debemos en parte investigar nosotros mismos y en parte aprender de otros investigadores, y si aquellos que estudian este tema se forman una opinión contraria a la que ahora hemos establecido, debemos seguir a la más exacta.
Lo cual muestra de paso que Aristóteles distaba de ser dogmático: los que lo siguieron dogmáticamente fueron en realidad sus peores enemigos.

§. Una novedad interesante
Así pues, en el siglo IV a.C., apenas doscientos años después de Anaximandro y sus desvaríos sobre los anillos de fuego y casi simultáneamente con Filolao, la astronomía parecía en parte, sólo en parte y con todas las salvedades que hicimos, haber alcanzado un cierto control sobre el problema de los cielos mediante las esferas homocéntricas de Eudoxo y Calipo, respetando el mandato de Platón de salvar las apariencias con círculos y esferas ideales. Que se volvieron materiales al convertirse en las 55 de Aristóteles, que, además de tener realidad física, construían un mundo de engranajes que desde el primer motor inmóvil transmitían el eterno y perfecto movimiento circular hasta la esfera de la Luna (con la ayudita, agreguemos, de un pequeño motorcito inmóvil adosado a cada esfera).
¿Pero ustedes creen que por ventura estaba resuelto el enigma?
Nada de eso. Lo había dicho el propio Aristóteles: «era necesario seguir investigando».
De todos modos, el sistema era impresionante, y el paso siguiente también lo fue: en el siglo IV a.C., Heráclides Póntico propuso la rotación de la Tierra sobre su propio eje, con lo cual disminuía la esferocracia platónico-aristotélica, al ahorrarse el movimiento diurno de las estrellas hacia el Oeste y de la misma componente diaria de los demás astros. Hay quienes le atribuyen haber sugerido, además, que Mercurio y Venus giraban alrededor del Sol, pero no hay evidencias firmes de tal cosa.
Era un giro un poco brusco, si quieren, demasiado repentino, pero no tanto. Porque desde Alejandría, Aristarco de Samos dio un paso más audaz aún al proponer un sistema puramente heliocéntrico: el Sol estaba inmóvil en el centro de la esfera de las estrellas fijas, también inmóvil, mientras la Tierra completaba una revolución alrededor de él en un año, y alrededor de su eje en un día.
El heliocentrismo de Aristarco daba cuenta más o menos de los datos, pero el movimiento de la Tierra resultaba completamente inverosímil. No se entendía cómo pájaros y nubes no se quedaban atrás de nuestro planeta móvil.
Aristarco había calculado el volumen del Sol como trescientas veces el de la Tierra y argumentado que era natural y razonable que se moviera un astro pequeño como la Tierra y no uno inmenso como el Sol (cuyo tamaño había subestimado cientos de veces). Todavía faltaban muchos siglos para que naciera Guillermo de Ockham, navaja en mano.
Arquímedes, por su parte, aunque utilizó el sistema de Aristarco en su Arenario, lo rechazó por no observarse paralaje estelar…. Paralaje estelar: éste es un concepto bastante importante que será usado otras veces, por eso vamos a reponer un diálogo no escrito nunca por Platón, donde vuelven a discutir nuestros amigos Glaucón y Sócrates.
SÓCRATES: ¿Acaso ves ese fondo de árboles situado a medio estadio de aquí?
GLAUCÓN: Lo veo, como tú dices, Sócrates.
SÓCRATÉS: Ahora, estira tu mano, y levanta tu dedo índice de tal forma que quede paralelo a él.
GLAUCÓN: Haré lo que tú dices, Sócrates.
SÓCRATES: Y ahora cierra tu ojo derecho.
GLAUCÓN: Lo hago.
SÓCRATES: Ahora abre el ojo derecho y cierra el izquierdo. ¿Qué ves?
GLAUCÓN: ¡Que el dedo se ha movido!
SÓCRATES: Y, como comprenderás, no se movió. Lo que ha ocurrido es que el rayo que sale de tu ojo derecho y alcanza al árbol, lo hace en un ángulo distinto del que lo hace el que parte de tu ojo izquierdo, y por eso parece que se movió respecto del fondo. [Nota del traductor: aquí Sócrates usa, como es obvio, la teoría entonces corriente de la visión, que postulaba que del ojo salían rayos que apresaban los objetos.] Mira, haré un dibujo.
GLAUCÓN: ¡Pero Sócrates, tú no dibujas!
SÓCRATES: No te preocupes, es un diálogo falso. Mira la imagen que está en la página. Si miramos las estrellas desde los dos extremos de la órbita de la Tierra, debería observarse paralaje. Pero no se observa. Es por eso que Arquímedes rechazará, llegado el momento, el sistema de Aristarco.

017.jpg
La paralaje

Aristarco, en su momento, contestó al argumento sobre la falta de paralaje como lo haría Copérnico dieciocho siglos más tarde, diciendo que se debía a la gran distancia a la que se hallaban las estrellas, aunque este argumento fue desestimado por Arquímedes. Además, su contemporáneo Cleantes lo acusó de blasfemo, pues al meter en el cielo la imperfecta Tierra, cuestionaba la divinidad de aquél.
Aristarco, sin embargo, aplicó datos de mediciones a los esquemas geométricos para estimar los tamaños y distancias del Sol y la Luna (cálculos que hasta el momento eran puras fantasías) y con un método ingenioso (que, por cierto, exigía una medición de ángulos que no estaba en condiciones de realizar sin que se deslizaran grandes errores), calculó que el radio del Sol era siete veces el de la Tierra, que a su vez era tres veces el de la Luna. Al mismo tiempo, el Sol estaba 19 veces más lejos que la Luna. Éstos eran errores de medición, no fetichismo numérico como el de Filolao o de Anaximandro, o la estimación fantástica y sin ningún argumento de Anaxágoras de que el Sol era una piedra del tamaño del Peloponeso.
Lo cierto es que la teoría de Aristarco lamentablemente no prosperó y solamente el astrónomo babilónico Seleuco siguió enseñándola en el siglo II.
El problema seguía sin estar resuelto.

§. Hiparco y la astronomía observacional: el cielo como herencia
El hecho de que el sistema de esferas homocéntricas no funcionara no detuvo el desarrollo de la astronomía. Mientras los teóricos trataban de emparchar el mecanismo para salvar sus fallas, sin prestar demasiada atención a los problemas físicos (al fin y al cabo Platón sólo pretendía «salvar las apariencias», ¿no?) enredándose más y más en la esferocracia, los astrónomos observacionales no se la pasaban llorando, arrastrándose en el barro del Nilo o arrojándose al pozo de Tales, sino que aplicaban la geometría a la medición de la Tierra y el cosmos, desarrollando instrumentos y mejorando las observaciones.
Así, en Alejandría, alumbraba uno de los más grandes astrónomos griegos: Hiparco de Nicea (190-120 a.C.), quien se dedicó a tareas terrenales, si terrenales se pueden llamar los asuntos del cielo, y aplicaba la geometría y los datos disponibles a la descripción del cosmos. Fue el primer astrónomo griego que unió las observaciones propias con las de la astronomía mesopotámica, accesibles desde la conquista de Alejandro. Por ejemplo, utilizó observaciones del eclipse de Luna de 189 a.C. para medir la distancia entre ésta y la Tierra: en Grecia el eclipse había sido total, mientras que en Alejandría sólo de cuatro quintos; la diferencia sólo podía atribuirse a la paralaje, y así dedujo que la distancia a la Luna mediaba entre 71 y 83 radios terrestres (con las medidas actuales, unos 460 mil kilómetros) cuando en realidad son 60, unos 380 mil kilómetros.
También, y para determinar con exactitud la duración del año, observó cuidadosamente los solsticios y los equinoccios y encontró — ¡oh sorpresa!— que los equinoccios variaban ligeramente (unos pocos segundos de arco por año). Fue lo que más tarde se conoció como precesión de los equinoccios y que recién Newton explicó acabadamente. Lo cuento para mostrarles la agudeza de sus observaciones.
Realizó un catálogo de 850 estrellas (otros dicen mil, pero por ciento cincuenta estrellas más o menos no nos vamos a arrancar los cabellos), indicando latitud y longitud respecto de la eclíptica, y su orden de magnitud, que mide el brillo.
Cuenta Plinio:
Hiparco, que nunca será lo suficientemente elogiado —ya que ninguno mejor que él ha demostrado que el hombre posee afinidad con los astros y que nuestras almas forman parte del cielo— descubrió una nueva estrella, diferente, y que nació en su época (se refiere a la nova de 123 a.C. —algo parecido a lo que casi dos milenios después llevaría a Tycho Brahe a dedicarse a la astronomía—). Al comprobar que se desplazaba el lugar en que brillaba, se planteó el problema acerca de si esto no sucedía con mayor frecuencia, y si las estrellas que consideramos fijas no se moverían también. Por consiguiente, osó lanzarse a una empresa que resultaría ímproba hasta para un dios: contar las estrellas para la posteridad y catalogar a los astros mediante instrumentos inventados por él, a través de los cuales podía indicar sus posiciones y tamaños, de modo que desde aquí se pudiese reconocer no sólo si las estrellas nacían o morían, sino también si alguna se desplazaba o se movía, si crecía o empequeñecía. Así, dejó el cielo como herencia a todos los hombres, en el caso de que se hallase un hombre que estuviese en condiciones de recoger tal legado.
Pero sus observaciones no le impidieron trabajar también sobre los modelos teóricos (no olvidemos el polimorfismo del sabio alejandrino): constató lo inadecuado de las esferas homocéntricas, y aplicó una innovación que, recién inventada, iba a llevar a la solución del rompecabezas (bueno, no exactamente a «la» solución, pero casi). Además, definió las constelaciones clásicas, que son las que hoy usamos.

018.jpg
Las constelaciones



§. Un viejo amigo aporta una idea innovadora
Un gran innovador en este asunto del lento avance hacia un modelo pasable de los cielos que diera cuenta de todos los problemas (fundamentalmente, la diferente velocidad con que el Sol y los planetas recorrían el zodíaco a lo largo del año y el movimiento retrógrado de los planetas), fue Apolonio de Pérgamo, con quien nos hemos encontrado ya cuando les presenté a las cónicas (la elipse, la hipérbola y la parábola como secciones de un cono). Este buen señor tuvo la excelente idea de descentrar las esferas homocéntricas y hacerlas girar no alrededor de la Tierra sino de un punto ficticio, convirtiéndolas así en excéntricas. De esta manera, se solucionaba el problema de las diferentes velocidades, ya que, desde la Tierra, se vería a los astros moverse con diferente velocidad (y la demostración cabal la hizo nuestro amigo Hiparco calculando una excéntrica para el Sol). La teoría realmente era bienvenida, porque aunque no tenía soporte físico o mecánico (giraban alrededor de un punto en el que no había nada), cosa que hubiera disgustado a Aristóteles, salvaban las apariencias respecto del cambio de velocidad, cosa que hubiera encantado a Platón.
Su segunda gran idea fue el epiciclo.
Ahora el planeta se mueve no sobre la esfera homocéntrica o excéntrica, sino en un circulito (el epiciclo) cuyo centro (donde no hay nada) se mueve a su vez sobre la excéntrica.

019.jpg
El sistema de Apolonio, con los epiciclos

La curva resultante describe una figura que aproxima muy bien las retrogradaciones.
El intento era prometedor, muy prometedor: combinando epiciclo y excéntrica, se podían salvar las apariencias mucho mejor que con las esferas homocéntricas de Eudoxo-Calipo-Aristóteles. Platón triunfaba, y el que logró armar el sistema completo fue Claudio Tolomeo (siglo II d.C.), en el momento de mayor esplendor del imperio romano.

§. Tolomeo resuelve el problema y marca el final de la ciencia griega
Claudio Tolomeo, el alejandrino, llevó esa ciencia a su más alto grado, de manera que durante cuatrocientos años parecía no faltar
nada que él no hubiera abordado.
COPÉRNICO
Con las excéntricas y los epiciclos, el problema astronómico estaba prácticamente resuelto: hacía falta armarlo y ajustarlo tanto como fuera necesario, y en eso consistió el gran sistema tolemaico, que marca la culminación de la astronomía griega.
De la vida de Claudio Tolomeo (c. 85 d.C.-c. 165 d.C.) se sabe poco, salvo que trabajó en la famosa Biblioteca de Alejandría, donde se dedicó a estudiar geografía, matemáticas y, claro está, astronomía.
El libro en que dio su descripción del mundo, que llamó Sintaxis matemática, pero que quedó inmortalizado con el nombre árabe de Al-Majisti («El más grande») y latinizado como Almagesto, resolvía los dos problemas principales de la astronomía planetaria de una manera original. En primer lugar, el del movimiento retrógrado o en zigzag. Tomando el invento de Apolonio de Pérgamo, y siguiendo a Hiparco, supuso que los planetas se movían alrededor de la Tierra adosados a pequeñas esferas llamadas epiciclos, que a su vez tenían su centro sobre las esferas principales (deferentes) excéntricas. Al moverse esas dos esferas al mismo tiempo, se explicaba por qué se observaba que el planeta retrocedía, cuando en realidad sólo estaba completando el círculo de la esfera más pequeña.
Así, la combinación de epiciclo y deferente conseguía explicar el movimiento retrógrado de los planetas en el cielo, con sus avances y retrocesos.
Ajustando adecuadamente el tamaño de los epiciclos o, si hacía falta, agregando epiciclos secundarios (epiciclos que se movían sobre los epiciclos, o epicicletos), Tolomeo daba buena cuenta de las observaciones mucho mejor que el sistema de las esferas homocéntricas, que, sin embargo, se siguió enseñando en paralelo.
La segunda cuestión a resolver, como ya les conté, era el cambio de brillo de los planetas (y por lo tanto de distancia a la Tierra) y el hecho de que se los viera moverse con velocidades diferentes, algo que no debía ocurrir si las esferas principales tenían su centro en la Tierra, como en el sistema de Aristóteles. La verdad es que a Tolomeo no le tembló la mano, y utilizó las excéntricas de Apolonio e Hiparco: cambió el centro de las esferas. Inventó un punto llamado «ecuante»: los planetas de su sistema no tenían como centro geométrico de sus órbitas perfectamente circulares a la Tierra sino al ecuante, un punto fuera de la Tierra (donde no había nada) y giraban en torno de él con velocidad uniforme. El problema es que se necesitaba un ecuante distinto para cada planeta…
Así y todo, el sistema tolemaico resolvía los problemas astronómicos y respetaba el mandato de Platón de usar sólo círculos y esferas, aunque a costa de hundirse en una complejidad sin fin que acumulaba más y más ruedas según fuera necesario. Alfonso X, el Sabio (1221-1284), rey de Castilla y León en el siglo XIII, se lamentaba de que Dios no lo hubiera consultado al crear el mundo, ya que, en ese caso, «le habría sugerido una solución más fácil».
¿Creía Tolomeo que ese infernal y genial mecanismo de las esferas se movía realmente y sobre todo materialmente en el cielo? Es difícil saberlo. Tal vez pensaba que su sistema era una mera construcción matemática apta para predecir los movimientos celestes y no se preocupaba demasiado por el problema del realismo, del mismo modo que un arquitecto no confunde las rayas y cifras que aparecen en la pantalla de su computadora con el edificio real. Pero también es posible que sí creyera firmemente en la materialidad de las esferas cristalinas. En todo caso, en la Edad Media se creía generalmente en ellas, como testimonian los debates sobre la dificultad que pudo tener o no Cristo para atravesarlas «en cuerpo y alma» durante su ascenso al cielo.
Sea como fuere, lo cierto es que Tolomeo había resuelto finalmente el rompecabezas, y como decía Plinio sobre Hiparco, dejaba el cielo como herencia para todos los hombres. Una herencia que no se tocó durante trece siglos.

Parte II
Luces y sombras de la Edad Media y el Renacimiento
020.jpg

Contenido:
8. Plantas, animales y lugares que nunca existieron
9. En la taberna
10. Magos, brujas, humanistas e ingenieros: de la Edad Media al Renacimiento
11. Un sinuoso camino hacia la Revolución Científica
12. El problema del movimiento

Capítulo 8
Plantas, animales y lugares que nunca existieron

Roma, que no ha sido en este relato más que una sombra, se había desarrollado a partir de una minúscula ciudad etrusca en el siglo VII a.C. hasta convertirse, a partir del siglo I a.C. y culminando en los siglos I y II de nuestra era, en un gigantesco imperio que, gracias a una agresiva y organizada política de conquistas, dominó prácticamente todo lo que hoy conocemos como «Europa occidental», incluida, por supuesto, la mismísima Grecia. Pero si los romanos se ocuparon, con todo éxito, de conquistar el territorio, de lo cual no cabe duda, la cultura griega, silenciosamente, «conquistó» la romana. Así, Horacio, el gran poeta romano del siglo I a.C., se atrevía a asegurar: «la cautiva Grecia cautivó a su vencedor e introdujo las artes en el rústico Lacio». Pensar, para los pocos ilustrados romanos que había, era pensar en griego, como bien lo muestra Marguerite de Yourcenar en Memorias de Adriano, esa extraordinaria autobiografía apócrifa del tercero de los «emperadores buenos» (como los llamaba Gibbon siguiendo a Maquiavelo):
El griego tiene tras de él tesoros de experiencia, la del hombre y la del Estado. De los tiranos jonios a los demagogos de Atenas, de la pura austeridad de un Agesilao o los excesos de un Dionisio o de un Demetrio, de la traición de Dimarates a la fidelidad de Filopemen, todo lo que cada uno de nosotros puede intentar para perder a sus semejantes o para servirlos, ha sido hecho ya alguna vez por un griego. Y lo mismo ocurre con nuestras elecciones personales: del cinismo al idealismo, del escepticismo de Pirrón a los sueños sagrados de Pitágoras, nuestras negativas o nuestros asentimientos ya han tenido lugar; nuestros vicios y virtudes cuentan con modelos griegos. Nada iguala la belleza de una inscripción votiva o funeraria latina; esas pocas palabras grabadas en la piedra resumen con majestad impersonal todo lo que el mundo necesita saber de nosotros. Yo he administrado el imperio en latín; mi epitafio será inscrito en latín sobre los muros de mi mausoleo a orillas del Tíber; pero he pensado y he vivido en griego.
Así y todo, la mentalidad romana fue poco afecta a lo que, anacrónicamente, podríamos llamar «ciencias naturales» o, más acorde a la época, estudios de la physis. Mucho más interesada por cuestiones éticas, políticas, retóricas y religiosas, la ciencia griega con la que se manejó fue, por lo general, de carácter divulgativo y carente del rigor aristotélico o tolemaico.
De modo que si la relevancia política del Imperio Romano es insoslayable para la historia occidental, su importancia para una historia de las ideas científicas es más bien lateral. Más allá de la tarea divulgativa y enciclopedista que llevaron a cabo, no se movió demasiado el formidable carro que habían puesto en marcha los griegos.
Y para colmo hacia el siglo III, y ya pasada largamente la época de esplendor de la dinastía de los Antoninos (Nerva, Trajano, Adriano, Antonino Pío, Marco Aurelio y el monstruoso Cómodo), empezó a dar signos de agotamiento histórico y fue víctima de una crisis interna plagada de guerras civiles, de efímeros emperadores, y hasta de escenas grotescas, como cuando la guardia pretoriana remató el trono del Imperio al mejor postor en 193 d.C. Todo este caos duró hasta que Diocleciano, que asumió como emperador en 284, consiguió rehacer la unidad política y, mediante severísimas medidas sociales y económicas (que implicaban atar a los campesinos a la tierra, a los artesanos a sus corporaciones con prohibición de cambiar de oficio, devaluación constante de la moneda —en aquellos tiempos se devaluaba simplemente disminuyendo la cantidad de metal precioso que la moneda proclamaba en su acuñación… era un simple «ajuste»—), lo puso nuevamente en pie, no sin antes desatar una feroz persecución contra los cristianos.
Pero el Imperio estaba herido de muerte: en 410, las tropas imperiales, ante el empuje de los sajones, debieron abandonar Inglaterra, que estaba protegida aún por la muralla construida por el emperador Adriano, y que no sólo dejó desguarnecido por siglos el sur de la isla, sino que dio pie a un bellísimo cuento de Stephen Vincent Benét, el autor de «El diablo y Daniel Webster», «La última de las legiones». En él, se presenta un diálogo entre un romano y un griego, que pertenecen precisamente, a la última legión que abandona Inglaterra; mientras el romano tiene una actitud triunfalista estilo «ya volveremos», el griego lo mira con comprensión y le dice: «Nosotros los griegos sabemos lo que significa decaer».
Digresiones aparte (les recomiendo, no obstante, que lean ese cuento si es que logran encontrarlo), el Imperio se retrae. Al mismo tiempo, el crecimiento de una secta judía —el cristianismo— adquiere cada vez más poder. En 313, mediante el Edicto de Milán, el emperador Constantino proclama la libertad de cultos en todo el Imperio; en 380, Teodosio I proclama al cristianismo como religión de Estado y en 395, a su muerte, divide de manera definitiva el imperio entre sus dos hijos, dejando, por un lado, el Imperio de Occidente, con capital en Roma, y el de Oriente, con capital en Constantinopla; en 407 se proclama delito la herejía y en 472, el paganismo, y empiezan las persecuciones y las quemas de templos (algo de eso habíamos visto en relación a la Biblioteca de Alejandría y la muerte de Hypatia).
En 406 se fuerza la frontera del Rin, el orgulloso Limes, la línea Rin-Danubio, límite del Imperio durante siglos; en 410, Roma es saqueada; los pueblos bárbaros penetran en el Imperio y se establecen (con el consentimiento de los débiles emperadores de turno), en España, en la Galia, en la misma Italia, donde forman reinos autónomos «asociados», hasta que en 476 Odoacro, rey de los ostrogodos, termina con la farsa: entra en Ravena, donde a la sazón estaba la capital del imperio, derroca al último emperador, Rómulo Augústulo (que había sido agraciado con el título a la avanzada edad de 14 años) y envía las insignias imperiales a Bizancio, dando por terminado el Imperio de Occidente. Es una curiosa coincidencia que el último emperador haya llevado el nombre del fundador de Roma y su primer rey y el del primer emperador, Augusto.
¿Qué esperamos agrupados en el foro?
Hoy llegan los bárbaros.
¿Por qué inactivo está el Senado e inmóviles los senadores no legislan?
Porque hoy llegan los bárbaros.
¿Qué leyes votarán los senadores?
Cuando los bárbaros lleguen darán la ley.
¿Por qué nuestro emperador dejó su lecho al alba,
y en la puerta mayor espera ahora sentado
en su alto trono, coronado y solemne?
Porque hoy llegan los bárbaros.
Nuestro emperador aguarda para recibir a su jefe.
Al que hará entrega de un largo pergamino.
En él escritas hay muchas dignidades y títulos.
¿Por qué nuestros dos cónsules y los pretores visten
sus rojas togas, de finos brocados;
y lucen brazaletes de amatistas,
y refulgentes anillos de esmeraldas espléndidas?
¿Por qué ostentan bastones maravillosamente cincelados
en oro y plata, signos de su poder?
Porque hoy llegan los bárbaros;
y todas esas cosas deslumbran a los bárbaros.
¿Por qué no acuden como siempre nuestros ilustres oradores
a brindarnos el chorro feliz de su elocuencia?
Porque hoy llegan los bárbaros
que odian la retórica y los largos discursos.
¿Por qué de pronto esa inquietud
y movimiento? (Cuánta gravedad en los rostros.)
¿Por qué vacía la multitud calles y plazas,
y sombría regresa a sus moradas?
Porque la noche cae y no llegan los bárbaros.
Y gente venida desde la frontera
afirma que ya no hay bárbaros.
¿Y qué será ahora de nosotros sin bárbaros?
Quizás ellos fueran una solución después de todo.
KONSTANTINO KAVAFIS
§. El ocaso del Imperio
Y así fue como terminó el Imperio de Occidente, esa fabulosa construcción política que dominó el Mediterráneo durante cinco siglos. Europa fue retrocediendo hacia un mundo rural (en especial al norte), los acueductos y las grandes obras de infraestructura romana fueron abandonados, así como los caminos y vías de comunicación, y la economía fue decayendo hacia la subsistencia, que caracterizaría los primeros siglos medievales, situación que duraría más o menos hasta el siglo XI. Los pueblos de la Europa desestructurada (y casi completamente iletrada) que siguió habrían de evocar al Imperio como una época de oro, perdida y quizás irrecuperable.
Naturalmente, los europeos de la Edad Media no sabían que eran medievales, pero la idea que tiene de sí mismo el intelectual de los primeros siglos de la era cristiana es la de un mundo que había retrocedido a la barbarie desde una alta colina dorada. Las épocas que siguieron inmediatamente a la caída del Imperio Romano estuvieron marcadas por el miedo, el aislamiento y las constantes invasiones bárbaras. En lo que hace a la ciencia, sólo se puede rescatar un cierto «enciclopedismo» que intentaba cristalizar el saber para preservarlo y que consistió principalmente en la copia de manuscritos. La problemática «intelectual» se limitó a encontrar la forma de rescatar el conocimiento pasado que se estaba dispersando y en congeniarlo con las enseñanzas divinas de la nueva religión, que distaba aún de abarcar a toda Europa.
Suele suceder. Pero de todos modos, las instituciones tardan en morir, y las culturas, aun en medio de acontecimientos tormentosos como los que les acabo de contar, tienen una enorme inercia. Estoy seguro (aunque no me consta) de que hasta muy tarde se conservaron las luchas de gladiadores, por poner una de las más repulsivas costumbres romanas. Así y todo, todavía, en las ciudades ricas del Mediterráneo o las ciudades griegas con fuerte tradición, hubo chispazos, pequeñas bengalas que iluminaron (un poco, malamente) esa larga noche que se avecinaría por cinco o seis siglos.

§. La nueva religión
A pesar de las persecuciones de las que fueron víctimas los cultores del cristianismo en los primeros siglos del milenio, buena parte de los pensadores más educados se sumaron paulatinamente al nuevo credo y dedicaron su tiempo a abstrusas cuestiones religiosas que poco a poco construyeron el dogma cristiano (y la forma occidental de abordar el mundo, se podría arriesgar). Por eso, la primera etapa de esta forzada coexistencia entre ciencia y religión comienza antes de la Edad Media (¿recuerda el paciente lector a Tales separando ciencia y religión?). Las discusiones que preocupaban a los intelectuales y sabios de la época pueden parecer algo extrañas a los ojos actuales: los debates sobre la naturaleza de Cristo, el origen del mal, si el hombre tiene capacidad de decisión o está dirigido por Dios, si el mal es parte de la obra de Dios o si es su contraparte, si Dios es uno o trino, o dual, o solamente trino…, en fin, todas estas cuestiones, motivo de las más acaloradas discusiones, fueron la piedra fundacional sobre la que se fue construyendo, en un lento proceso, la ortodoxia cristiana.
En el camino, la observación de la naturaleza fue relegada a un segundo plano y puesta en función de las reflexiones teológicas: los Padres de la Iglesia, como Clemente de Alejandría, Orígenes o Lactancio (que pensaba que la Tierra era plana, ya que si no en las antípodas el trigo crecería cabeza abajo), eran poco más que fundamentalistas anti paganos o ignorantes.
El resultado de todo esto fue, como se pueden imaginar, un abandono del interés por el mundo y la ciencia positiva en general. Al mismo tiempo, buena parte de las obras antiguas, y en especial las de Platón y Aristóteles, dejaron de circular por Occidente y se refugiaron en bibliotecas e instituciones orientales. El «discurso de las cosas» se transformó en el discurso de la salvación, de la elevación hacia Dios por medio de la Fe (del mismo modo que en Platón había un impulso del Eros para elevarse al mundo de las Ideas). Había un problema fundamental que «legitimaba» tal abandono: la verdad es que las cosas callan, interrumpen un discurso que, como es natural, y del mismo modo que el latín se fragmentó en lenguas romances, se disuelve en dialectos locales: el hombre de la Edad Media temprana sólo escucha a las plantas de su jardín y de vez en cuando relatos de viajeros que cuentan cosas exóticas.
No nos detendremos en las argucias teológicas, aunque sí en la figura de San Agustín (354-430), que fue el puente a través del cual pasaron las principales tradiciones de la Antigüedad grecolatina a la Europa cristiana medieval.
Hijo de una ferviente cristiana, Agustín se mostraba brillante desde joven, lo cual llevó a su familia a utilizar sus escasos fondos para asegurarle una educación acorde a sus capacidades. En un comienzo rechazó la devoción cristiana de su madre y consideró que la filosofía era el camino que debía seguir… Pero no deambulemos detrás de sus idas y venidas por el maniqueísmo, el gnosticismo y otros «ismos»: vamos directamente a su adhesión final al cristianismo, que le permitió ser obispo de Hipona hasta su muerte y producir el grueso de su pensamiento teológico, del cual se destacan sus Confesiones, escritas a los 45 años, y La Ciudad de Dios.
Su concepción del conocimiento tiene una clarísima raigambre platónica. Según él, hay dos tipos de verdades absolutas que están en el interior del hombre: por un lado, las verdades matemático-lógicas y morales y, por el otro, la conciencia de la existencia propia. Lo absoluto de estas verdades nos lleva a la existencia de Dios, al que encuentra fácilmente identificable con el Demiurgo de Platón. Desde ya, Agustín considera que la fe está por encima de la razón. Cuando la razón no alcanza hay que apelar a la fe. El mal es amor de sí, y el bien es el amor de Dios (aquí, obvia referencia platónica; recordemos que la Idea Suprema era la del Bien); el conjunto de los hombres que viven para el verdadero Bien, para Dios, constituyen la ciudad celeste o de Dios; por otra parte, la ciudad terrena es la de aquellos que viven para el hombre, y el origen de esta división está en Caín y Abel, y aunque parezca que en este mundo el «ciudadano terreno» está condenado, mientras que el que habita la Ciudad de Dios tiene garantizada la salvación.
Agustín sostiene que la verdad es externa a los hombres y, como pretende encontrar alguna base para el conocimiento, recurre a las ideas eternas de Platón… lo cual lo lleva a un comprensible desinterés por los fenómenos físicos, que pesará durante todos los siglos medievales hasta la reaparición de Aristóteles a partir del siglo XI. La naturaleza queda así vacía de interés. La razón misma no es la que fija que tal o cual cosa sea, sino más bien lo que ocurre es que la razón misma se encuentra sometida a leyes más profundas que la determinan y que tienen que ver con el verbo divino, Cristo, quien ilumina la conciencia y establece que una verdad sea absoluta.
Al llegar la muerte de San Agustín en el año 430, el Imperio Romano de Occidente entraba, como vimos, en su fase terminal. Aunque hubo quienes lo consideraron algo extravagante, sus ideas fueron la espina dorsal del pensamiento cristiano, al menos hasta la irrupción de Santo Tomás de Aquino y su nueva síntesis.
Después de tanta religión y sutilezas del dogma, que poco hicieron por mantener viva la llama de la perdida cultura grecorromana, vuelvo a mi pantalla, y pienso en el último gran intelectual romano, que de alguna manera fue como una bisagra entre los viejos tiempos ya muertos y los nuevos y desconocidos por venir: Boecio (480-524).
Así como San Agustín no me inspira ninguna simpatía, me gusta Boecio. Latino, funcionario del rey ostrogodo Teodorico, Boecio era probablemente consciente del gran cambio cultural que sobrevenía sobre Europa. Último de los intelectuales bilingües con acceso a las fuentes griegas, tradujo al latín y comentó corpus de obras de lógica, De Materia medica de Dioscórides, y algunas pocas obras de Aristóteles, que fueron la fuente principal para el estudio de la lógica y las matemáticas hasta el siglo XII, y expuso también elementos de aritmética, geometría, música y astronomía (el quadrivium), conservando así algo de Euclides y Ptolomeo. Mejoró las artes liberales del trivium (gramática, retórica y lógica), que fueron, junto con el quadrivium, los puntales de la enseñanza medieval.
Como muchos intelectuales a lo largo de la historia, Boecio sufrió el triste destino de morir asesinado. Fue acusado de complot contra Teodorico, torturado y, luego de un año de cárcel, ejecutado. Pero ese año le alcanzó para escribir De consolatione philosophiae (La consolación por la filosofía), un diálogo ficticio en el que un personaje, Filosofía, le explica a Boecio muchos de los problemas del mundo; entre otras cosas, le dice que la felicidad se encuentra en nuestro interior, dentro de uno mismo, y que, por lo tanto, se puede ser feliz aún en la cárcel: aquí vemos pensamiento cristiano, pero en el que aún sobreviven elementos del pensamiento griego socrático. Se puede pensar que Filosofía le dice a Boecio que él es aún un ciudadano de la polis o del Imperio; Agustín le habría aconsejado que se afiliara a la ciudad de Dios (que no es una polis, por cierto).
La filiación de Boecio con el pensamiento griego es evidente en toda la obra. Me interesa de todos modos que se vea esto en las teorías del conocimiento de ambos autores. Como venimos viendo desde que empezamos con esta aventurada empresa de resumir la historia de la ciencia occidental, toda investigación, explícita o implícitamente, viene acompañada de una concepción filosófica bastante precisa que indica para dónde se puede seguir avanzando. Creo que una de las ideas que organiza este difícil recorrido es precisamente ésa: toda ciencia tiene, necesariamente, una filosofía que la sostiene, lo admita o no. Escuchemos a Boecio:
Si buscando el hombre la verdad desde el fondo de su corazón no quiere desviarse del camino, debe volver sobre sí mismo los ojos de su mente y replegar su propio espíritu con amplio movimiento, a fin de comprender que todo lo que penosamente busca en el exterior se halla encerrado en los tesoros de su alma. No tardará en ver más claro que la luz del sol aquello que parecía oculto entre las nieblas del error. Pues de la inteligencia no ha desaparecido totalmente la luz por haber aportado el cuerpo su pesada masa, propicia al olvido; queda, sin ningún género de duda, en el fondo de nosotros mismos, una semilla de verdad, que brota de nuevo al cálido soplo de la investigación y la doctrina. ¿Por qué, si no, respondéis con exactitud al ser preguntados? Es que en el fondo de vuestras almas permanece latente el fuego de la verdad. Si la Musa de Platón dice verdad, lo que aprendemos no es otra cosa que una serie de conocimientos olvidados, que de nuevo hacemos presentes a la memoria.
Es la famosa teoría de la reminiscencia platónica, que vuelve revestida de pensamiento cristiano.
Dos o tres siglos después de la muerte de Boecio, distintos religiosos vieron en él una figura de mártir, lo que le valió un lugar especial dentro del cristianismo y mayor repercusión de sus obras, especialmente una dedicada a la Trinidad.
Luego, la cultura de la época no dejó prácticamente rastros de interés. Aunque mientras tanto, en el monasterio de Vivarum, en el sur de Italia, Casiodoro empezaba a reunir manuscritos que pacientes monjes copiaban (probablemente sin entender una palabra) en los scriptoria. Éste habría de ser uno de los mecanismos por los cuales se salvaría parte del saber antiguo.
Una buena muestra de la decadencia del conocimiento en Occidente es el brillo inusitado de que gozó Isidoro de Sevilla (556-636), que en sus Etimologías, mayormente fantasiosas, hacía un repaso de tipo fantástico sobre el saber antiguo: a la astronomía le dedicaba apenas cinco páginas, con nociones elementales, y sin prestarle la menor atención a Tolomeo, del cual no sabía (o no entendía) nada. Creía que la Tierra tenía forma de rueda y estaba rodeada por los océanos. Alrededor de la Tierra se movían las esferas que arrastraban a los planetas y las estrellas, y arriba estaba el cielo de los bienaventurados.

§. Herbarios y bestiarios
La verdad, la naturaleza de todas las cosas en este mundo, es decir, las materias que conciernen nuestra vida cotidiana, están aquí descifradas y declaradas.
PLINIO, Prefacio de la Historia natural
El estudio de la naturaleza en la Edad Media, como venimos viendo, estuvo no sólo muy limitado sino siempre sometido a discusiones de índole metafísica y teológica. Si se indagaba sobre la naturaleza, de manera tímida, era para buscar excusas para hablar de las verdades religiosas y morales. Se trataba de una visión del mundo como teofanía: los autores no trataban de resolver el problema de la clasificación, sino el de la manifestación; nadie pretendía que el estudio de la naturaleza condujera a hipótesis y generalizaciones científicas, sino que proporcionara símbolos vivientes de las realidades morales. La luna era la imagen de la Iglesia que reflejaba la luz divina; el viento, una imagen del espíritu; el zafiro tenía semejanza con la contemplación divina, y el número once, que «transgredía» el diez —representante de los mandamientos— era imagen del pecado.
La preocupación por los símbolos se manifiesta claramente en los herbarios y bestiarios que, naturalmente, tenían un origen anterior a esta época. Esopo (c. 620-c. 560 a.C.) fue uno de los precursores del interés por la naturaleza animal; son numerosos los escritos que llegaron a nuestros días y que repiten historias narradas oralmente por este fabulista griego. Pero si restringimos un poco más la definición de bestiarios como intentos de relevamiento de lo que se encuentra en la naturaleza, debemos señalar como uno de los precursores a Gaius Plinius Secundus, llamado Plinio el Viejo (23 d.C-79 d.C.) en tiempos del Imperio.
Este hombre nacido en Como, Italia, murió a los 56 años, con un curriculum vitae (nunca mejor aplicada esta expresión latina) envidiable: fue autor al menos de 75 libros. Sin embargo, su obra más recordada es la enorme Historia Natural de 37 tomos, completada dos años antes de su muerte. En ella se mezclaban lo real y lo fantástico: junto a algunas observaciones verdaderamente agudas, se describía a hombres con cabeza de perro que se comunicaban por medio de ladridos y otros sin ninguna cabeza pero con ojos en los hombros, víboras que se lanzaban hacia el cielo para atrapar aves, la «serpiente basilisco» de África, que mataba a los arbustos con sólo tocarlos, rocas que respiraban…
Plinio intentó sistematizar en esta obra todos los materiales dispersos y antiguos que pertenecían a la cultura encíclica (enkyklios paideia, en griego, origen del término «enciclopedia»). Hay al menos dos rasgos notables en su trabajo: su estilo simple y directo y la constante referencia a sus fuentes. En el libro II, por ejemplo, sistematiza los conocimientos referidos a la cosmología y la astronomía; el III y IV están referidos a la geografía histórica y física del mundo antiguo; en los libros XII hasta el XIX, dedicados a la botánica, fue donde Plinio más se acercó a hacer una contribución real a la ciencia, ya que se tomó el inusual trabajo de observar de manera directa. Esta obra marcó para bien y para mal a las similares que vendrían en los años siguientes.
A decir verdad, los herbarios brindaban una escasa idea acerca de la distribución geográfica de las plantas. Muchos de los autores intentaban identificar en su propio jardín las plantas mencionadas por el Herbarium del «seudo Apuleyo» (de quien sólo se sabe que probablemente en el año 400 a.C. armó un compendio con un montón de recetas medicinales de origen griego), o por el otro manual conocido, que era el de Dioscórides (40 d.C.-c. 90 d.C.), un médico y farmacólogo griego de los tiempos de Nerón, cuyo trabajo De materia medica, constituido por cinco tomos terminados cerca del año 77, contaba con excelentes descripciones de aproximadamente 600 plantas. Este trabajo, gracias a su vastedad, se transformó en la fuente de terminología botánica moderna y en el texto farmacológico más importante durante «apenas» dieciséis siglos.
Aunque no tenían el rigor de las recopilaciones antiguas (ni siquiera la de Plinio), y a pesar de estar «controlados» por los fines morales, los herbarios medievales constituyeron, también, un muestrario (aunque completamente desordenado) de plantas medicinales y sus usos. Junto a ellos aparecieron manuales de recetas prácticas (debidas, seguramente, a la tradición médica folklórica, local y subterránea), dosificaciones e instrucciones de uso, aunque el panorama de la farmacopea fue muy limitado, y la tendencia general no era a la reflexión (y mucho menos a la experimentación).
Así, los herbarios contribuyeron a introducir un poco de orden, o mejor, de ordenado desorden, en la farmacopea, a pesar del primitivismo y aderezos fantasiosos de los dibujos (que podían llegar a impedir reconocer una planta dibujada según la imaginación del copista). Recién en el siglo XV los dibujantes de herbarios aprendieron del realismo tridimensional del arte italiano y flamenco, cuando se alcanzó gran perfección gracias a los dibujos de Leonardo da Vinci y de Alberto Durero.
Esta tradición continuó hasta los primeros herbarios impresos, y es ahí donde se considera que empieza la botánica «científica» (lo pongo entre comillas, porque la botánica siguió siendo una serie de constataciones empíricas hasta que se produjeron los grandes ordenamientos del siglo XVIII con Linneo). Desde el punto de vista de lo que entendemos por «ciencia», ésta aparece recién cuando se integra en un sistema más o menos racional.
Los bestiarios, por su parte, eran compilaciones anárquicas que mezclaban observaciones reales de la naturaleza, comentarios zoológicos, ilustraciones muy creativas y una buena dosis de lecciones morales y religiosas. Ver algunas de las figuras que concibieron los hombres de la Edad Media nos hace dar cuenta de que los creadores de Star Trek, sin dudas, se quedaron cortos. Hay que tener en cuenta que los libros se reproducían por copia y cada copista se sentía libre de agregar algo de su propia cosecha. El manuscrito luego seguía su camino rumbo a otro copista que repetía la operación. Los estudiosos no salían a mirar el mundo que describían en sus libros sino que, a lo sumo, incluían la versión de algún soldado llegado de tierras lejanas con descripciones fantasiosas (como por ejemplo, un águila con patas y cola de león). Además de la obra de Discórides ya mencionada, existen muchos otros antecedentes de estas compilaciones.
El más exitoso de todos, que sufrió un largo proceso de transformación, fue sin duda el Physiologus. Este libro, en su origen (probablemente en el siglo II y en Alejandría, seguramente escrito en griego), era una modesta compilación de metáforas edificantes para la moral. Constaba de 48 secciones, cada una de ellas dedicada a una planta, animal o piedra, que a su vez remitía a un texto bíblico. El primero de estos capítulos, como era de esperar, trataba sobre el león, el rey de los animales, y, menos previsiblemente, finalizaba con el avestruz. Fue rápidamente traducido a varios idiomas, y cuando se estaba realizando la traducción al latín —aproximadamente en el siglo V— alguno de los copistas reemplazó las antiguas citas bíblicas del comienzo de cada capítulo por la frase «El naturalista dice…». Así fue que el libro trascendió con el nombre de Physiologus (palabra en latín que significa «naturalista»). La traducción latina fue la más exitosa y la cantidad de ejemplares copiados sólo fue superada por la Biblia.
Las historias que cuenta este proto bestiario son muy ilustrativas acerca de cómo se veía a la naturaleza por esos años: el león paría crías inertes a las que insuflaba vida respirando sobre ellas; el unicornio sólo podía ser capturado sobre la falda de una virgen; el pelícano que derramaba su sangre para resucitar a los muertos. Todas estas historias eran en realidad metáforas fabulescas de enseñanzas religiosas acerca de la resurrección, el sacrificio, y lo que se buscaba no era otra cosa que la simbología moral de los animales (la astucia del zorro, la lujuria de la hiena, la fuerza del león). Uno de los animales más destacados de estos bestiarios, que se utilizaba para ilustrar la resurrección cristiana, era el ave fénix, un ser mitológico de origen egipcio, del tamaño de un águila con plumaje escarlata y dorado, de un llorar melodioso, que podríamos atribuir a su soledad: un solo fénix podía existir por vez en el mundo y cada uno vivía al menos 500 años. Cuando sentía llegar su fin, este ave construía un nido con plantas aromáticas y especias, lo encendía (vaya uno a saber cómo producía el fuego) y se consumía en él. A los tres días resurgía de estas cenizas un nuevo fénix que colocaba las cenizas de su antecesor en un huevo de mirra, lo llevaba volando a Heliópolis, la Ciudad del Sol, y lo depositaba en el templo de Ra (reconocemos aquí la frase «resurgir de las cenizas»).
Pero mi animal favorito es la «hormiga-león», nacida de la cruza de estos dos animales, pero con tan mala suerte que, teniendo dos naturalezas, no puede comer ni semillas ni carne y muere de inanición.
Las sucesivas copias del Physiologus fueron transformándolo muy lentamente hasta derivar en todo un género de bestiarios, como el del francés Philippe de Thaon, de 1211, que utilizaba imágenes para describir el objeto de sus estudios y atraer a los analfabetos. El género creció y comenzó a incluir rimas y hasta historias de amor de moda en la época, que derivaron en las fábulas, más modernas, que poco tenían ya que ver con los bestiarios originales. El matrimonio de ciencia y religión había demorado algunos siglos en producir un inesperado género literario, las fábulas, primas lejanas de la zoología. Aunque también produjo un par de obras interesantes, como el De animalibus de Alberto Magno (s. XIII) y el tratado de cetrería escrito por Federico II Hohenstaufen (1194-1250), emperador del Sacro Imperio Romano-germánico (uno de los restos políticos del imperio de Carlomagno), y una de las personalidades más curiosas de la Edad Media, que mantenía en Sicilia una corte donde confluían eruditos latinos, griegos, árabes y judíos y florecía una cultura sincrética.
Las ilustraciones de los bestiarios no eran muy rigurosas que digamos: como en esa época los zoológicos no eran corrientes, prácticamente no había posibilidad de conseguir modelos vivos de leones, por no hablar de unicornios o de hombres con cabeza de perro, de modo que los dibujantes debían confiar en la descripción del autor y en su imaginación. Muchas de estas figuras fueron también reproducidas a lo largo del primer período de la Edad Media, por ejemplo, en los mosaicos de iglesias de Roma, Ravena y Venecia. Más adelante, sobre todo a partir del siglo XIII, y como en el caso de los herbarios, aumentaron constantemente las ilustraciones realistas. Esta tendencia se vio reforzada por las representaciones de plantas y animales que comenzaron a aparecer en las pinturas de artistas como Giotto (1276-1336).
De la misma manera que los herbarios, los bestiarios pueden, si se quiere, ser vistos como un antecedente de la zoología, pero ésta, como la botánica, sólo pudo aspirar al estatus de ciencia mucho pero mucho más tarde.

§. Monasterios
Bueno, aparentemente me distraje un poco con los herbarios (y especialmente con los bestiarios, que son más curiosos), pero me distraigo constantemente, y es que tengo que lograr que fluyan por estas páginas miles de cosas y tendencias.
Pues las ciencias son los ríos
que van a dar en la mar
que es el saber.
Allí van muchas teorías
decididas a triunfar
o fenecer.
Allí grandes fantasías
o hipótesis balbucientes
de la ciencia
enfrentan el agua fría
de esa diosa intransigente:
la experiencia.
Ya les había mencionado, hace un rato, a Casiodoro, un contemporáneo de Boecio que se ocupaba de juntar y hacer copiar manuscritos en Vivarum (al sur de Italia), y lo retomo ahora porque quería volver al tema de los monasterios que empezaron a crearse después de la fundación de Monte Cassino por San Benito en 529, porque allí se preservó buena parte de lo que se preservó, y porque junto a ellos empezaron a armarse las primeras escuelas medievales, que, en medio de la ignorancia reinante, trataban de transmitir lo poco que se recordaba del conocimiento antiguo, en general con fines piadosos y poco más (aunque en algunos sitios se incluía algo de matemáticas para resolver el eterno tema de calcular la fecha de Pascua, cuya dificultad llevó a plantear interesantes desarrollos aritméticos y astronómicos, y fue uno de los contados servicios que un problema religioso prestó a la ciencia positiva).
Una figura realmente simpática es la de Beda el Venerable (672-735), que vivió en el monasterio de Jarrow, Inglaterra, y que se entregó a los estudios históricos y de las escrituras, pero que además conoció el quadrivium, estableció tablas de mareas, y algunas observaciones generales muy bien hechas.
Su cosmología muestra la visión que tenía un hombre culto de su siglo: su universo está ordenado por causas y efectos identificables. Beda no pensaba que el mundo tuviera forma de rueda, sino que la Tierra era una esfera estática. Rodeando la Tierra, se encontraban los siete cielos: el aire, el éter, el Olimpo, el espacio ígneo, el firmamento con los cuerpos celestes, el cielo de los ángeles y el cielo de la Trinidad. El mundo corpóreo estaba compuesto de los cuatro elementos (tierra, agua, aire, fuego), dispuestos por orden de peso y ligereza.
Como había leído a Plinio, tenía una idea de la cosmología griega: afirmó que el cielo de las estrellas giraba alrededor de la Tierra y que dentro de ese cielo los planetas giraban en un sistema de epiciclos. También expuso sobre las fases de la Luna y los eclipses, y afirmó, siguiendo sus lecturas, que la Luna era la responsable de las mareas. Sin embargo, el papel que le asignaba a la observación era prácticamente nulo: describió la muralla de Adriano, que quedaba apenas a doce kilómetros de donde estaba, a partir de lo que había leído y lo que le habían contado, sin dignarse a moverse hasta allí. Detalle que, aparte de lo dicho, me conmueve. Pienso en Beda, encerrado en su monasterio en medio de un mar de oscuridad, imaginando la muralla del luminoso Adriano.
También fue fruto de los monasterios ingleses lo poco que se escribió en medicina: en la primera mitad del siglo X se redactó un tratado que resumía los conocimientos médicos de la época: contiene partes terapéuticas, con prescripción de hierbas, se distinguen las fiebres tercianas, las cuartanas y las cotidianas, se hace mención del «contagio llevado por el aire» y a la viruela, entre otras enfermedades. La segunda parte es una recopilación de la medicina griega, lo cual muestra que ésta de alguna manera circulaba. Así como Beda el Venerable no se molestó en ir a ver la muralla de Adriano, hay poco y nada de observación clínica; no se tomaba el pulso, ni se verificaba el color de las heces, datos centrales para los médicos griegos y romanos.
La cultura, durante los siglos VI, VII y VIII, se retrajo a los monasterios benedictinos italianos e irlandeses y, posteriormente, ingleses y de Europa Central. Durante esta época la atención estuvo puesta principalmente en la conservación de los conocimientos anteriores, con poca producción nueva: el estudioso se dedicaba más a la hermenéutica y al copiado que a la observación del mundo. La lectura de los clásicos y su interpretación eran la forma de acceder al saber. Pero las copias, como ya se dijo, eran muchas veces fantasiosas, ya que los monjes de scriptorium muchas veces no entendían lo que copiaban. De la misma manera, la primacía que se otorgaba a los libros teológicos, colecciones de salmos y reglas religiosas llevó a la práctica de borrar los pergaminos y escribir encima de ellos, con lo cual pueden haberse perdido cientos de obras clásicas de importancia, en pro de vidas de santos y otras obras convencionales.
En fin: los años que van de la muerte de Boecio hasta el efímero renacimiento carolingio tuvieron muy poco para aportar a la historia de la ciencia. Vamos a dar un vistazo directamente, entonces, al primero de los «renacimientos» de la civilización occidental, que fue muy modesto, por cierto.

§. El renacimiento carolingio
En el año 800 se produjo una novedad política de importancia, al ser coronado Carlomagno por el Papa como emperador de los vastos territorios que había conquistado en la Marca de España, Dinamarca, Polonia, y, desde ya, lo que hoy es Alemania. De paso, vale la pena contar que, cuando Carlomagno se retiraba de España, su retaguardia fue sorprendida por los vascos en el desfiladero de Roncesvalles y completamente destrozada, muriendo allí su lugarteniente y sobrino Roldán junto a los once restantes pares de Francia, lo que dio lugar a la canción de gesta La Canción de Roldán (escrita siglos después), que inaugura la literatura francesa y en la que los vascos son trastrocados en moros. En realidad, Roncesvalles fue sólo una escaramuza sin importancia, pero que demuestra cabalmente que la literatura es más importante que la política, como dice André Maurois.
Pues bien, si la idea con la coronación de Carlomagno era restaurar el Imperio, hacía falta un sistema de gobierno. Y un sistema de gobierno necesita una burocracia mínimamente letrada, o sea, alguna política educativa. Para ello, Carlos llamó a Alcuino de York, un importante erudito inglés que había conocido en Roma, para que reorganizase (o mejor dicho fabricase) los estudios del nuevo imperio desde su capital en Aquisgrán (actualmente la ciudad más occidental de Alemania), fundando escuelas según la orden que impartió el emperador en una célebre carta de 788: «Abrir en cada diócesis y en cada monasterio escuelas en las que habrían de ser admitidos tanto los niños de condición libre como los de condición servil».
Alcuino pretendía convertir a la capital en la nueva Atenas (lo cual da una idea de lo despistado que estaba): el esfuerzo fue grande, pero los resultados, pobres, ya que se basaban en las tonterías de Isidoro de Sevilla o «sabios» por el estilo, que no pasaban de estudiar problemas elementales de aritmética, o acertijos como el del barquero que debe cruzar un lobo, una oveja y un repollo. No es gran ciencia, por cierto. El mismo Carlomagno era analfabeto, aunque parece que en su vejez aprendió a leer.
De todos modos, el renacimiento carolingio, que más que un verdadero resurgir de las ciencias fue un intento de reconstruir un cuerpo político devastado, duró poco: Carlos murió en 814 y el imperio subsistió apenas lo que vivió su hijo Ludovico Pío, para después fragmentarse en pedazos (que son los que, más o menos, dieron la Europa moderna).
La vida de Carlomagno fue tomada como modelo por los monarcas que lo siguieron; era el ejemplo perfecto de cómo debía ser un rey cristiano. Personificaba la fusión de las culturas germánica, romana y cristiana, que se convertiría posteriormente en la base de la civilización europea.
Después de Alcuino rigió la escuela palatina Juan Escoto Erígena, que, como curiosidad, enseñaba el sistema atribuido a Heráclides Ponto en el que Venus y Mercurio giraban alrededor del Sol, e incluso lo extendió haciendo girar también alrededor del Sol a Marte, Júpiter y Saturno. Después de su muerte, la escuela decayó irremediablemente y todo se hundió en la oscuridad.
Y eso fue el renacimiento carolingio. Nada del otro mundo (salvo para los carolingios, claro).
Hasta el siglo XI, excepto por el breve interludio del reinado de Carlomagno, ninguna estructura política brindaría estabilidad suficiente para un desarrollo del interés por la naturaleza. La única fuerza capaz de brindar alguna cohesión social y cultural era la Iglesia, que intentó con escaso éxito reorganizar los restos de los antiguos reinos y pueblos bajo control del Papa y los distintos poderes terrenales de reyes y emperadores, aunque las constantes disputas entre el poder religioso y el civil impidieron acuerdos mínimamente estables. Así, la religión siguió ofreciendo la perspectiva desde la que se miraban la política y la economía, así como la ciencia y el arte. Sólo el desarrollo de la burguesía gracias al comercio permitiría superar esta etapa paralizadoramente religiosa.

§. Tiempo y espacio: el cosmos medieval
Es necesario decir aquí algo acerca de la imagen del mundo medieval, aunque sólo sea porque la ciencia moderna nació en gran parte del intento de superarla y porque en nuestra vida social pueden advertirse bastantes huellas de esa lucha. El esquema etéreo y cosmológico de Aristóteles y los astrónomos alejandrinos se había convertido en un rígido mundo teológico-físico, en un mundo de esferas u orbes. Figuraban en él las esferas del Sol y la Luna, las esferas de los planetas y, por encima de todo, la gran esfera de las estrellas fijas, sobre las cuales estaban los cielos. Como contrapartida teológicamente necesaria estaba el inframundo (los círculos y abismos infernales tan firmemente descriptos más tarde en la Divina Comedia —1321—, de Dante Alighieri).
El universo estaba ordenado por rangos y lugares. Se trataba de un compromiso entre la imagen aristotélica de un mundo permanente y la imagen judeocristiana de un mundo creado por un acto y solamente susceptible de ser destruido por otro. Era un mundo transitorio que, pese a tener sus propias reglas, era solamente un escenario en el que se representaba la vida de cada hombre, vida que, como dice Shakespeare
no es más que una sombra que transcurre; un pobre actor que, orgulloso, consume su turno sobre el escenario para jamás volver a ser oído. Es una historia contada por un idiota, llena de ruido y furia, y que nada significa.
Y de esa vida dependía en último término la salvación o la condenación.
La jerarquía de la sociedad estaba reproducida en la jerarquía del universo mismo; al igual que papas, obispos y arzobispos, emperador, reyes y nobles, existía también la jerarquía celestial de los nueve coros angélicos: serafines, querubines, etcétera. Cada una de estas jerarquías tenía una función en el universo y permanecía unida al correspondiente rango de las esferas planetarias para mantenerlas en movimiento. El orden inferior de los simples ángeles que pertenecían a la esfera de la luna tenía mucho que ver con el orden de los seres humanos que estaban precisamente debajo de ellos.
Existía un orden cósmico, un orden social, un orden en el cuerpo humano, todos representativos de estados a los que la naturaleza tendía a volver cuando se la apartaba de ellos. Predominaba una concepción del equilibrio, pero no en un sentido físico sino moral. Había un lugar para cada cosa. Los elementos estaban en orden: la tierra abajo, el agua sobre ella, por encima el aire; el fuego, el elemento más noble, por encima de los otros tres. El mundo mítico y el mundo real, físico, se mezclaban en una misma lógica.
También los órganos nobles del cuerpo —corazón y pulmones— estaban cuidadosamente separados por el diafragma de los órganos inferiores del vientre. Este cosmos —tremendo y complicado, pero ordenado— era también idealmente racional porque combinaba las conclusiones mejor establecidas de los antiguos con las verdades incuestionables de la Escritura en la tradición de la Iglesia.
Después de ver toda esta arquitectura del mundo se comprende por qué un ataque a cualquiera de las partes de la imagen del universo se consideraba como algo mucho más serio que una mera cuestión intelectual: era una agresión a todo el orden de la sociedad, de la religión, y del universo mismo. Por consiguiente, era necesario defenderse con todo el poder de la Iglesia y del Estado. El sistema del pensamiento medieval era necesariamente conservador, aunque no por eso menos imaginativo. También era muy diferente la percepción del tiempo y el espacio: la dificultad de las vías de comunicación, el retroceso a una vida casi exclusivamente rural, la falta de relojes y de mapas (ya hablaremos de eso), hacían que el hombre medieval viviera en un mundo sin las coordenadas precisas que nos ubican (y a veces abruman) ahora. La mera idea de un «segundo» era inconcebible, y el hecho de que la noche y el día se dividieran en doce horas iguales cada una de ellas, generaba un tiempo elástico, en el que las duraciones eran difíciles de determinar, salvo por la salida y puesta del sol, y las campanas de las iglesias o los monasterios llamando a maitines o al ángelus. Cuentan que el rey Alfredo de Inglaterra mandaba encender antorchas sucesivas e iguales durante sus viajes, para tener una idea de la duración. ¡Y esto en el siglo IX!
Estas formas de percibir el espacio-tiempo se observan bien en las pinturas de las iglesias, como por ejemplo la que pueden ver en la siguiente imagen.

021.jpg

No es solamente que la pintura no sea realista, sino que tanto el espacio como el tiempo están organizados alrededor de figuras que son icónicas, no tienen edad; no hay espacio o tiempo organizado donde transcurren los fenómenos que el cuadro cuenta, sino que lo que aparece es un mero telón de fondo que rodea y adorna la anécdota piadosa. Esto comenzará a cambiar sólo siglos después, «cuando la realidad vuelva a Europa», como dijo alguien alguna vez.
Por otra parte, durante esta primera mitad de la Edad Media, la vida se desarrollaba en el seno de la aldea, donde se cultivaban las parcelas propias y los campos comunales (todavía el feudalismo no había llegado a su plenitud), donde la población solía vivir aterrorizada por las invasiones de pueblos como los húngaros o los vikingos, que en algunos casos se extendieron hasta los siglos IX o X. En Inglaterra y Escocia, la actividad de los piratas escandinavos era continua, y en el siglo XI, cuando Guillermo el Conquistador invade y conquista Inglaterra, ésta había sido invadida por los escandinavos ese mismo día (lo cual fue una de las causas de que Guillermo pudiera ganar la batalla de Hastings —1066— y proclamarse rey).
Así era más o menos la Europa de la Alta Edad Media, aunque las cosas, naturalmente, eran distintas en las ciudades del Mediterráneo. Carlomagno, cuando viajó a Roma, se quedó pasmado por la riqueza de las ciudades italianas.

§. Geografías imaginarias
La tradición de la geografía griega comenzó su decadencia ya en tiempos romanos, y los grandes mapas trazados por Tolomeo, Eratóstenes o Hiparco quedaron en el olvido (o bien escondidos tras la vida de algún santo en un palimpsesto). Los mapas medievales eran simples representaciones de una tierra aplanada como un disco (como querían los padres de la Iglesia —recuerden a Tertuliano—) con Jerusalén en el centro, el paraíso terrenal a la derecha y arriba, y el mar océano que rodeaba todo, más representaciones esquemáticas de las tierras conocidas (de oídas).
Los extensos vacíos que se dejaban (tal como ocurría con la filosofía, la física, y cualquier otra disciplina) eran completados con inventos de lo más imaginativos. No es casual, por eso, la profusión medieval de terras incognitas, de lugares que, sencillamente, nunca existieron.
Los lugares inexistentes son una vieja fantasía humana, y suelen nacer de una referencia, de un relato, una reliquia, una alusión que corre de boca en boca y luego adquiere espesor geográfico en manos de cartógrafos propensos a la fantasía.
El más famoso de los sitios imaginarios —y uno de los pocos sobrevivientes de una larga lista— es, al mismo tiempo, uno de los más antiguos: la Atlántida. Esta isla, localizada supuestamente en medio del océano Atlántico, al oeste del estrecho de Gibraltar, tiene su origen en dos diálogos de Platón: Timeo y Critias. En este último, Platón relata cómo los sacerdotes egipcios, durante una conversación con el ateniense Solón, describen una isla más grande que Asia Menor y Libia juntas. Se trataba de un lugar que unos nueve mil años antes había sido tremendamente rico y sus poderosos príncipes habían conquistado muchas de las tierras del Mediterráneo, hasta ser finalmente vencidos por los atenienses y sus aliados. Luego los habitantes de la isla se tornaron malvados e impíos y la Atlántida fue devorada por el mar después de varios terremotos.
Los europeos medievales recuperaron la leyenda por medio de los árabes, la creyeron al pie de la letra e intentaron identificarla con alguna otra región. Después del Renacimiento, por ejemplo, se hicieron numerosos intentos por equiparar Atlantis con América, Escandinavia y las islas Canarias. Incluso es posible que Platón no haya inventado la isla por sí mismo, sino que haya tomado registros egipcios de una erupción volcánica en la isla de Thera en el 1500 a.C., que habría colaborado con la caída de la civilización minoica. Esta erupción, una de las más importantes de los tiempos antiguos, fue seguida de numerosos terremotos y tsunamis —olas gigantescas, generalmente producidas por un maremoto— que asolaron la civilización cretense, lo que habría inducido a Platón a creer en la existencia de la Atlántida.
La forma en la que estos mundos se creaban era variada. El Continente del Sur, por ejemplo, nació de un razonamiento «impecable» para la lógica de la época: si al norte del Ecuador había una gran masa de tierra, ¿no debería haber otra en el sur para balancearla? En el año 43, el geógrafo Pomponio Mela imaginó el continente austral. Tolomeo tomó la idea, y dibujó en sus mapas una «Gran Tierra Austral» que se extendía desde el sur de África hasta Nueva Guinea y Java, uniéndose a Asia por el este: una terra incognita que fue parte del credo geográfico durante siglos, ya que Tolomeo gozó durante muchísimo tiempo de una reputación sólida.
Otras tierras nacieron de rumores. Ése es el caso del Reino del Preste Juan, uno de los lugares imaginarios más buscados de la Edad Media. La historia es interesante y en su momento tuvo una repercusión comparable a la de ciertas telenovelas actuales.
El preste Juan fue el centro de un número de historias que se remontan hasta el Nuevo Testamento. Era un legendario miembro de la Iglesia Cristiana de Oriente que no aceptaba la autoridad del patriarca de Constantinopla, sobre el que se conoce mucho más por rumores y creencias que por datos certeros. Las leyendas de la época lo señalaban como un sacerdote-rey de un territorio «en el Lejano Oriente, más allá de Persia y Armenia».
La historia del Reino del Preste Juan surgió de una legendaria carta enviada por un tal «preste (presbítero) Juan», alrededor de 1150, al emperador Manuel I Comneno de Bizancio, a Federico Barbarroja (emperador del Sacro Imperio Romano-germánico) y, según parece, al propio papa Eugenio III, en la que les hablaba de su reino y les prometía ayuda para conquistar el Santo Sepulcro.
La velocidad inexplicable con la que corren las noticias, en especial las más extravagantes, se ocupó del resto: en poco tiempo, el relato fantástico que contenía la carta fue traducido a decenas de idiomas. Ávidos de historias sobre lugares remotos y, sobre todo, de una defensa concreta contra la amenaza musulmana, los cristianos adoptaron con alegría y esperanza la historia del Reino del Preste Juan. Según se decía, este individuo había logrado someter a los musulmanes en su reino y había avanzado valerosamente para luchar por la Iglesia en Jerusalén. En verdad, cuesta creer hoy en día que alguien haya podido ver en ese texto un artículo de geografía en lugar de una bellísima narración (aunque, en rigor, si uno piensa en los platos voladores y otras cosas por el estilo, no sé si hoy en día se está tan al margen de ese tipo de historias).
Las descripciones de la carta son realmente asombrosas: las tierras del preste comprendían cuarenta y dos reyes «buenos y cristianos» y la Gran Feminia, gobernada por tres reinas y con un ejército de cien mil mujeres armadas.
Tenemos unas aves llamadas grifos que pueden transportar con facilidad un buey o un caballo al nido para alimentar a sus polluelos. También contamos con una clase de pájaros llamados ylleriones. No hay más que dos en todo el mundo y viven unos sesenta años, al cabo de los cuales se alejan volando y se sumergen en el mar. En una provincia de nuestro país hay un yermo y en él viven hombres con un cuerno que tienen un ojo en la parte delantera de la cabeza y tres en la trasera.
Desde ya, la carta del preste Juan, que además descendía de los Reyes Magos, no era más que una mera falsificación, que mezclaba los milagros de Santo Tomás, los viajes de Simbad el Marino y romances sobre Alejandro Magno.
Pero a los exploradores medievales les encantaba, y no se cansaron de buscar los dominios de ese señor: a veces lo confundieron con el inmenso Imperio Mongol de Gengis Khan, otras lo situaron más allá de Persia y Armenia. Osciló indefinidamente entre Asia y África y perduró en algunos mapas hasta el año 1573. El mismísimo Enrique el Navegante (1394-1460), rey de Portugal, amante de las artes y las ciencias, que no tenía nada de medieval y que fletó una expedición para llegar a las Indias por el Oeste setenta años antes de Colón, estaba convencido de su existencia y lo buscó activamente: exploró el Congo, el río Senegal, el Níger y el Gambia, e incluso envió emisarios a Jerusalén preguntando por el preste. Obviamente, no tuvo éxito: en Jerusalén contestaron que nunca habían oído hablar de esa persona, por preste que fuera.
Y el Reino del Preste Juan, finalmente y tras una agitada lucha de unos dos siglos, se esfumó tristemente y sin dejar rastros, salvo la legendaria carta que inspiró a miles de viajeros alrededor del mundo.
Las historias de fieles e infieles, de moros y cristianos, de reinos amenazantes como Gog y Magog y dominios redentores como el del preste Juan fueron las más importantes, sin dudas, de la imaginería geográfica medieval. Pero con el correr del tiempo todos estos lugares mitológicos fueron desapareciendo no sólo de la faz de la Tierra (aunque, en rigor, nunca estuvieron en ella), sino del imaginario colectivo.

§. Finale
La verdad es que me alegro de llegar al final de este capítulo, porque pese a todos sus aspectos sugerentes y maravillosos, la Alta Edad Media europea fue un período terrible. Y no solamente porque haya sido una época de profunda ignorancia y de prácticamente nula contribución a la ciencia y la filosofía, sino porque debajo de ese manto de lo maravilloso fue una época de pura brutalidad y violencia. Si avanzamos un poquito, podremos respirar con el Renacimiento europeo (el segundo, si contamos el carolingio) que se dio a partir del siglo XI.

Capítulo 9
En la taberna

Me dejé llevar, tal vez un poco exageradamente, por ese espíritu mágico que muchas veces asociamos con la Edad Media europea (en especial la Alta Edad Media), con sus lugares fantásticos, sus unicornios y sus búsquedas del Santo Grial, cuando en realidad fue un mundo de violencia brutal, invasiones de todo tipo, guerras permanentes, ignorancia profunda, hambrunas, pestes, vida puramente parroquial, decadencia de las ciudades, que por otra parte eran agujeros inmundos, en los que la basura se acumulaba sobre las murallas (¿qué dirán de nuestro mundo de hoy dentro de unos siglos?); un mundo dominado por la religión y por la única institución que había salido más o menos indemne de la catástrofe del hundimiento del Imperio y con una organización política más o menos extendida: la Iglesia.
Era un mundo muy diferente del nuestro, un mundo que se veía a sí mismo como decadente y viejo, que recordaba las épocas del Imperio como una edad de oro, que tenía como ideal la restauración y no el progreso (lo cual se ve bien en Carlomagno) y que sin embargo, al mismo tiempo, fantaseaba con su próximo fin: el Juicio Final, el Milenio, el Segundo Advenimiento, que llegarían más pronto que tarde. Por eso cuesta tanto atrapar todo en un relato.
Un mundo profundamente iletrado, en el que no había mucho lugar para una ciencia ilustrada, salvo la que se practicaba en los monasterios, cuya misión, sin embargo, era simplemente copiar y recopilar manuscritos que no entendían, con algunas pocas excepciones aisladas, como mi querido Beda el Venerable.
Además, cualquier pensamiento filosófico estaba tan sometido a (o mejor, diluido en) la teología que no podía producir algo verdaderamente diferenciado. La ciencia naturalista había arrancado de la separación entre los fenómenos naturales y los dioses, y la pregunta sobre cómo podemos obtener un conocimiento verdadero; esta época revierte ese proceso, fundiendo pensamiento y religión, y la vieja cuestión del conocimiento verdadero deja de ser un problema: el conocimiento verdadero es el conocimiento de Dios, garantizado por la revelación a la manera de San Agustín, en el que el amor divino provee el impulso que permite elevarse como el Eros platónico. Pero la revelación es necesariamente ambigua, y hace falta descifrarla, discutirla. Es el agujero por donde se filtrará la teología racional, que a la larga logrará independizar la filosofía de la teología.
Pero antes de seguir, antes de buscar (quizás infructuosamente) un relato que pueda describir un mundo tan disímil y extendido en el tiempo, vamos a detenernos por un momento en el que es, probablemente, el acontecimiento político más importante para la ciencia medieval europea, que paradójicamente se produjo fuera de Europa.
Veamos.

I. El Islam

A fines del siglo VI y principios del siglo VII, Mahoma (su nombre real era Muhammad ibn ’Abd Alla hibn Abd al Muttalib ibn Hashim, lo cual explica por qué en adelante usaremos los nombres árabes más o menos occidentalizados), consiguió unificar a las tribus de nómades de la península arábiga, dotarlas de un libro (el Corán), unificarlas bajo la égida de un solo dios (Alá), y un solo mandato: la jihad (la guerra santa), la conquista del mundo, que tuvo un efectivo cumplimiento.

022.jpg
Mapa de la ocupación islámica

Salieron de Arabia en el 632 y en poco más de un siglo ocuparon desde la India hasta Anatolia, así como el norte de África y lo que hoy es España, formando un imperio de dimensiones romanas. Incluso avanzadas árabes atravesaron los Pirineos e intentaron la conquista de Francia, pero fueron detenidas en la batalla de Poitiers (732) por Carlos Martel, entonces mayordomo (jefe) de palacio de los reyes merovingios (quien, aprovechando su resonada victoria, la usó para sustituir a la muy poco brillante dinastía merovingia por la suya, mucho más exitosa: la carolingia. De hecho, Carlomagno, su nieto, recibió su nombre en honor a él).
Bueno, pero la cuestión es que el imperio árabe se extendió como un puente desde China a España, transportando cultura, ciencia e inventos; además, la posesión de los centros de cultura que ocuparon, y que todavía sobrevivían, los puso en contacto con los miles de libros que habían sido llevados a Oriente por los sabios que escapaban de las diferentes persecuciones. Hubo algún breve episodio piromaníaco en la Biblioteca de Alejandría, que ya les conté, pero no fue más que un episodio: lejos de desinteresarse por la ciencia, los musulmanes se fascinaron con ella, y se convirtieron en coleccionistas de manuscritos como lo habían sido antes los Ptolomeos. (Hay, al respecto, una anécdota curiosa y seguramente falsa, pero divertida y que vale la pena contar: durante el reinado de Al Mammun—809-833—, un califa súper ilustrado, se creó la Casa de la Sabiduría en Bagdad, donde se operaba de manera parecida a la biblioteca alejandrina; la leyenda cuenta que el sultán pagaba los manuscritos en oro de acuerdo con el peso de los manuscritos, lo cual llevó al desarrollo de una caligrafía espaciada y llena de blancos.)
La verdad es que los árabes se ocuparon de la traducción en gran escala: Aristóteles, Galeno, Hipócrates, Platón; los Elementos de Euclides, el Almagesto de Tolomeo y los «papers» de Arquímedes.
En el siglo XI, pleno de grandes científicos, se fundó en El Cairo el Hogar de la Ciencia, para fomentar los estudios superiores y la investigación científica que, entre los siglos IX y XI, experimentaron un progreso desconocido desde la época de los Ptolomeos, en Alejandría. También se construyeron hospitales y observatorios astronómicos (desconocidos en Occidente), y se multiplicaron las escuelas y las «Casas de Sabiduría». En los siglos X y XI, había por todo el mundo islámico cientos de bibliotecas; la de la Casa de la Sabiduría de El Cairo, por ejemplo, tenía unas dieciocho mil obras, mientras había otras, como la de Maragá, de la que se decía que poseía cuatrocientas mil. Las cifras, seguramente, están infladas, pero vale la comparación con La Sorbona, que apenas llegaba a las dos mil obras en el siglo XIV.

§. La ciencia árabe
Pero el Islam no se limitó a traducir, compilar y sistematizar las grandes obras de la ciencia griega, sino que las tomó en el punto en que habían quedado y emprendió su desarrollo, combinándolas con otras influencias y habilidades, como por ejemplo el papel, los tipos móviles y la brújula de los chinos o la numeración decimal y el cero de los hindúes, que fueron adoptados a principios del siglo IX por los científicos de Bagdad. Por eso, y aunque la idea proviniera de la India, al pasar a Occidente, bastante más tarde, fueron y siguen siendo conocidos simplemente como «números arábigos».
Con semejante instrumento, los matemáticos árabes lograron un gran desarrollo de los métodos de cálculo y de los algoritmos aritméticos, algebraicos y trigonométricos, que a su vez ya eran conocidos en la India y en China, donde se aplicaban con procedimientos menos rigurosos. El primer manual de aritmética que utiliza el principio posicional (es decir, aquel principio según cual el valor del símbolo «5», por decir alguno, se define por el lugar que ocupa en la cifra), es el que compuso Muhammad Ibn Musa Al-khwarizmi (c. 780-850), matemático y astrónomo persa que vivió en Bagdad durante la primera época dorada de la ciencia islámica. Su libro sobre matemáticas elementales, llamado Kitab al jabr wa al muqabalah (El libro de la integración y la ecuación) se tradujo al latín en el siglo XII y dio origen al término «álgebra» (por «aljabr»). Kitab al jabr es una compilación de reglas para encontrar soluciones de ecuaciones lineales y cuadráticas, para la geometría elemental y para aplicarla a los complejos problemas de sucesiones hereditarias y sus proporciones, y multitud de aplicaciones para las necesidades de la sociedad civil. Iba mucho más allá de donde Diofanto había dejado la disciplina en el siglo III. Al-Khwarizmi no sólo legó a Occidente la palabra «álgebra» sino que escribió también un tratado llamado «Acerca del arte hindú del cálculo», luego traducido al latín como Algoritmi de numero Indorum, que dio origen al término «algoritmo», que se utilizó para designar todo el sistema de la aritmética decimal basada en el principio de posición (por ejemplo el algoritmo de la división, que ahora utilizamos como método de cálculo).
No les voy a hablar de los múltiples matemáticos árabes, pero sí del más grande de todos, Omar Kayyam (1048-1131), considerado además el máximo poeta de su tiempo, con sus celebrados Rubaiyat. Como algebrista se le debe una clasificación completa de las ecuaciones de primero, segundo y tercer grado, en la que se especifican 25 casos distintos, según el tipo de ecuación. Como curiosidad, digamos que Omar Kayyam manifestó su desconfianza y analizó (como ya lo habían hecho matemáticos anteriores) el famoso quinto postulado de Euclides, que trató de demostrar en vano.
Y ya que estamos con Omar Kayyam, que fusionó las matemáticas con la poesía (y la poesía con la enología, gracias a su glorificación del vino), leamos algunas de sus alcohólicas Rubaiyat.
Puesto que ignoras lo que te reserva el mañana, esfuérzate por ser feliz hoy.
Toma un cántaro de vino, siéntate a la luz de la luna
y bebe pensando en que mañana
quizá la luna te busque inútilmente.
Nuestro tesoro es el vino y nuestro palacio la taberna.
La sed y la embriaguez son nuestras fieles compañeras.
Ignoramos el miedo porque sabemos que nuestras almas,
nuestros corazones, nuestros cálices y nuestras vestes manchadas
nada tienen que temer del polvo, del agua ni del juego.
Y, por último, uno de los más hermosos de todos:
Cuando vaciles bajo el peso del dolor,
y estén ya secas las fuentes de tu llanto,
piensa en el césped que brilla tras la lluvia.
Cuando el resplandor del día te exaspere,
y llegues a desear que una noche sin aurora se abata sobre el mundo,
piensa en el despertar de un niño.

§. Astronomía y óptica
Otro de los campos en los que el Islam brilló, la astronomía, se desarrolló en parte debido a necesidades prácticas, como por ejemplo determinar la dirección de La Meca, en la que debían desarrollarse los rezos diarios. Pero los astrónomos árabes adquirieron una destreza enorme en el manejo de la astronomía tolemaica, que conocían al dedillo (el nombre de Almagesto, «el más grande», que le pusieron a la obra de Tolomeo, demuestra su reverencia por él), y re calcularon y mejoraron sus datos, para lo cual desarrollaron instrumentos de observación como el astrolabio o la esfera armilar.
Pero además, el particular carácter universal de los sabios árabes, llamados hakim, conocedores de todas las ciencias, los enfrentó con la vieja contradicción: el sistema tolemaico no respondía a la física de Aristóteles (¿recuerdan?), por lo cual se sintieron libres de esbozar algunos ensayos para mejorar y adaptar el antiguo y abandonado sistema de las esferas homocéntricas centradas en la Tierra, introduciendo recursos adicionales bastante audaces (que en general eran dotaciones extra de esferas) y dando lugar a los primeros modelos celestes no estrictamente tolemaicos, aunque siempre geocéntricos. Es posible —sólo posible— que Copérnico, durante su estadía en Italia, tuviera contacto con estos desarrollos.
Las ideas que pusieron en marcha en óptica abandonaron la vieja tradición de Platón, aceptada por Euclides (bah, por casi todos en general), que sostenía que la visión se producía por rayos que emanaban del ojo, y la sustituyeron por rayos que emanaban de los objetos, resolviendo así diferentes problemas que, más tarde, darían origen a la perspectiva. Alhazen (c. 965-1039), por ejemplo, trató las propiedades de los espejos parabólicos, la cámara oscura, las lentes y la visión.

§. Alquimias
Hablemos un poco de alquimia. No me siento cómodo haciéndolo, ya que esta pseudociencia degeneró en pura charlatanería, pero lo cierto es que, aunque rodeada de una atmósfera mágica y mística, la alquimia fue un primer paso interesante en la constitución de la química como disciplina, y esto tiene que ver, fundamentalmente, con su carácter forzosamente experimental: encerrados en sus laboratorios, perdidos entre ollas y alambiques, los alquimistas lucharon con la materia para arrancarle lo imposible y, así, empezaron a conocerla y a probar y rechazar procedimientos.
Si bien la palabra «alquimia» es árabe (al-Kimiya: «kimiya» es un derivado del griego «χυμεία», que significa «verter juntos» o tal vez de la palabra egipcia «chemi», que significa «negro»), la alquimia como práctica tuvo su origen en el Egipto de la era tolemaica y fue recibida por el Islam con sorpresa y curiosidad. Alentados por el Corán (que promovía toda práctica científica y matemática), muchos hombres se propusieron convertir metales cualesquiera en oro, para poder atisbar así la voluntad divina. Tal vez el más importante de todos ellos, por su modo «científico» de encarar el problema, fuera Jabir ibn-Hayyan, nacido en 760 y, por ello, testigo de la época más esplendorosa del imperio árabe.
Geber (tal fue su nombre cuando se occidentalizó) era un gran admirador del pensamiento griego, no obstante lo cual se atrevió a contradecir al incuestionable Aristóteles: en un arrebato de valentía, afirmó que la doctrina de los cuatro elementos estaba equivocada, y que la naturaleza se componía solamente de dos elementos: azufre (agente de la combustibilidad) y mercurio (portador de las propiedades metálicas). Cualquier metal bajo difería del oro únicamente por las inexactas proporciones de mercurio y azufre; trocarlo en oro sólo era una cuestión de recombinarlos adecuadamente. Pero Geber estaba convencido de que para lograrlo se necesitaba un catalizador, un compuesto capaz de acelerar el proceso y que quedaría intacto al terminar: un elixir, que no sólo tendría la propiedad de trocar en oro cualquier metal sino también de curar enfermedades incurables, inducir la juventud permanente o la vida eterna. El elixir, o la piedra filosofal, fue uno de los grandes protagonistas de la historia de la alquimia.
La búsqueda del oro seguía siendo infalible a la hora de convencer a personas para que se dedicaran a la alquimia. Al-Razi es el otro gran caso del imperio árabe. Repentinamente interesado por la medicina gracias a una amistad entablada con un farmacéutico, Al-Razi, un persa que vivió en Bagdad en el siglo X, escribió El secreto de los secretos, una obra en la que, lejos del misticismo de su título, se encargaba de describir minuciosamente los experimentos químicos que había llevado a cabo a lo largo de su vida y de clasificar científicamente las sustancias. En su búsqueda de la clasificación de los elementos, Al-Razi agregó al azufre y al mercurio «jaberianos» la sal, ya que, según decía, no era volátil ni inflamable.
A esta altura del partido (o, mejor dicho, del capítulo) ya es posible remarcar que dentro de todas las aspiraciones imposibles de la alquimia se estaban discutiendo también algunos temas importantes de la química. Pero no todo el mundo lo veía así, sobre todo porque, cuando se hablaba de producir oro, nadie se interesaba por el aspecto científico de la cuestión. Se dice que Al-Razi le envió al emir de Khorassan, al nordeste de Persia, un tratado de alquimia en el que se explicaba la receta para obtener oro y que el emir, intrigado, lo llamó a la corte para que hiciera el experimento públicamente. El resultado fue tan desalentador que el emir, enfurecido, golpeó brutalmente al pobre Al-Razi en la cabeza con su propio libro con tal violencia que, según la leyenda, fue la causa de la ceguera que acompañó al alquimista hasta su muerte, en el año 930.
Debajo de toda la superficie mística y mágica, ¿se estaba desarrollando una nueva teoría de la materia? Los alquimistas, es cierto, buscaban conocimientos que pudieran dar dominio sobre la naturaleza para manipularla y encontrar cosas inexistentes como el elixir de vida o la piedra filosofal, pero al mismo tiempo partían de un principio sumamente interesante y novedoso, un principio diferente del contemplativo-descriptivo gracias al cual podían manipular la materia en retortas y alambiques. Así, más allá de los objetivos inalcanzables que se planteaban y tal vez de manera lateral, se iba conquistando el conocimiento de productos como el alcohol, el agua regia (ácido nítrico y ácido clorhídrico) y diversos ácidos y álcalis. La práctica alquímica produjo una gran cantidad de información útil, aunque la teoría alquímica propiamente dicha tenía poco que ofrecer a la nueva química, que comenzó a surgir recién en el siglo XVII.

§. La medicina
Desde el siglo IX, los médicos árabes tenían acceso a las colecciones de Galeno y consideraban la medicina como una ciencia natural. Entre ellos, el más famoso fue el persa Avicena, autor en el siglo XI de un Canon de la medicina tan completo y perfecto que fue usado durante mucho tiempo en las universidades cristianas, en algunos casos hasta el siglo XVII.
Vale la pena señalar que en el siglo XIII el médico Ibn al Nafis escribió un comentario al libro donde describía la «pequeña circulación» de la sangre (el circuito entre el corazón y los pulmones). La influencia de la medicina islámica fue tan fuerte que dio lugar al primer centro de medicina profesional en Europa, en Salerno, al sur de Italia.
La verdad es que se podría escribir y escribir sobre la ciencia árabe, porque su contribución fue realmente pavorosa, pero tras este recorrido vertiginoso y parcial, ya que hay otras líneas de la ciencia del Islam que retomaremos luego, el relato nos fuerza a volver a Occidente, donde está por producirse una revolución tecnológica.

II. La revolución del siglo XI

Mientras la ciencia árabe alcanzaba su culminación y estaba pronta a estancarse, ya que al islamizarse las sociedades conquistadas los teólogos tomaron preponderancia sobre los científicos, Europa occidental vivía una verdadera revolución. Por empezar, el fin de las invasiones (de los vikingos, de los húngaros, de los sarracenos), que más o menos se produjo en el siglo X, generó una sociedad más abierta y menos a la defensiva. Al mismo tiempo, nuevas técnicas agrícolas permitían aumentar la producción.
A veces es impresionante ver la pequeñez de estas innovaciones en relación al resultado que produjeron: por ejemplo, la adopción del arado eslavo (común en el norte de Europa), más pesado que el romano, que permitía arar la tierra en profundidad; la utilización del caballo como animal de tiro y no sólo de guerra, resultado del descubrimiento de nuevas formas de enjaezarlo al arado sin ahogarlo, lo cual multiplicó su potencia por diez; la proliferación de las fuentes de energía con la incorporación de molinos hidráulicos y eólicos de diseño más eficiente. Todo permitió un mejoramiento de la dieta y, en consecuencia, una reducción de las hambrunas y mejora de la salud en general, lo cual condujo al aumento sostenido de la población, que, con idas y vueltas, se triplicó entre los siglos XI y XIV.
Y una cosa llevaba a la otra. El aumento de la necesidad de tierra cultivable corrió de manera sistemática la frontera agrícola. Los hijos menores de las familias numerosas (que no heredaban las parcelas, reservadas al hijo mayor) partían en busca de nuevas tierras, o bien emigraban a las ciudades; las ciudades, por otra parte, en muchos casos, se liberaban de sus señores feudales (siempre necesitados de dinero para sus guerras particulares) comprándoles sus libertades y la posibilidad de auto administrarse, y a veces se constituían en comunas independientes de cualquier señor feudal y adonde los siervos de la gleba podían huir: «El aire de la ciudad hace libre», aunque fuera irrespirable.
La permanencia de un año y un día en la ciudad liberaba al campesino de su servidumbre y entonces podía ingresar como aprendiz en las corporaciones de artesanos o integrarse al gremio de los comerciantes y, con mucha suerte, lograr que sus hijos y nietos fueran los incipientes banqueros.
Los grandes actores políticos de la época seguían siendo el Papa, el emperador del Sacro Imperio Romano Germánico y los reyes de los estados nacionales que empezaban a consolidarse, como Francia a partir de Felipe Augusto (1165-1223) o Inglaterra después de la ocupación normanda de Guillermo el Conquistador en 1066, aunque esta última fue durante mucho tiempo un país marginal.
Pero indisimuladamente y de a poco aparecía un nuevo actor social, la burguesía, que fue introduciendo un nuevo concepto: como busca el enriquecimiento, le interesa el progreso y el poder, no el estancamiento, y, además, basa sus capacidades ya no en la propiedad de tierras, baremo de todo en la Alta Edad Media, sino en algo mucho más abstracto, el dinero, que poco a poco va corroyendo las fronteras sociales basadas en la sangre y en la tierra. Y, lo más importante, la burguesía mira hacia el futuro.
Este proceso fue lento y, si ustedes quieren, no se completó del todo hasta el siglo XVIII, muy lejos del momento en que les hablo. Pero la ciudad y su crecimiento contribuyeron a fortalecer el proceso de abstracción, la reducción a las medidas y a las contabilidades, enormemente simplificada por la irrupción de los números arábigos, gracias, entre otros, a Leonardo de Pisa (Fibonacci).
Desde mediados del siglo XI, las Cruzadas (que si bien no fueron sino sangrientas expediciones de pillaje, en las que los piadosos caballeros cristianos cometieron una suma de barbaridades tan larga, aun para los estándares de la época, que nos llevaría un libro entero contarlas, pero que también enriquecieron a los banqueros venecianos e italianos en general, que prestaban el dinero para financiarlas y se veían favorecidos por el comercio que se incrementaba a través del Mediterráneo), las Cruzadas, decía, permitieron como «efecto colateral» la interacción entre el Oriente ilustrado, y el Occidente incivilizado, pero en rápida evolución y cambio. Casos y cosas que tratan, por un lado, de introducirnos en un relato que acompañe más o menos a la historia, intentando atrapar su inverosímil multiplicidad y capturar procesos que a veces nacían de manera confusa y desconectada, y, por el otro, de encontrar una dirección, un sentido, que muchas veces es pura reconstrucción. Por ejemplo: ninguna de las mejoras técnicas se derivaba de la investigación o el pensamiento científico, pero, así y todo, instalaron la idea de la innovación racional. Los artesanos e ingenieros todavía anónimos serán los precursores de Roger Bacon, Leonardo y Galileo.
Nuestro problema —y supongo que será el tema central de este capítulo, o de lo que queda de él— es ver cómo se dio ese proceso, cómo, en medio de esta atmósfera, el pensamiento evolucionó desde la patrística hasta el triunfo del pensamiento experimental y la crítica racional.

§. Desde Chartres le contestan a un tal Pedro Damián
¡Pobre Damián! La muerte lo llevó en una triste guerra ignorada y en una batalla casera.
BORGES, «La otra muerte»
Lo cierto es que a partir del siglo XI o XII, la atmósfera intelectual comienza a cambiar: por ejemplo, los hombres de la escuela de Chartres (fundada por el obispo Fulberto en 1028, como anexo a la catedral y considerada por mucho tiempo como el principal centro intelectual de Europa), creen en el progreso y Bernardo de Chartres (siglo XII) llegará a decir:
Si vemos más lejos, es porque estamos montados en hombros de gigantes.
Frase que luego retomará Newton y se convertirá en lugar común para analizar la evolución del pensamiento científico.
¿Qué era lo que estaba pasando? Indudablemente, la teología judeocristiana deja un resquicio: Dios crea el mundo y luego se aparta de él, interviniendo cada tanto mediante milagros. Es una fisura que permite investigar el mundo como si fuera una cosa más, e incluso da lugar a pensar que encontrar la manera de funcionamiento del mundo es glorificar la Creación, tal como pensaron los teólogos judeocristianos que identificaron las ideas platónicas con los pensamientos de un Dios que no necesita intervenir a cada instante, como Zeus con el rayo o Poseidón con los terremotos.
Lo dicen casi textualmente los hombres de Chartres: Guillermo de Conches (1080-1145), en su Filosofía del mundo, ataca aquellas interpretaciones de la Biblia que le parecen irracionales. Según él, el espíritu humano debe buscar la inteligibilidad en todas partes utilizando sus propios recursos:
Si una cosa que afirma la sagrada escritura escapa a la razón, debemos encomendarnos al Espíritu Santo y a la fe, pero primero hay que razonar y no hay que abandonarse a la pereza.
Tan sólo un siglo atrás, algunos pensadores se habían alarmado ante el despertar racionalista y de la dialéctica y así, un energúmeno como Pedro Damián (1007-1072), santificado luego por la Iglesia y convertido en pieza clave de «La otra muerte» de Borges, tronaba contra los dialécticos y aconsejaba que les arrancaran la lengua (procedimiento muy de acuerdo con la Fe, por cierto) sosteniendo que Dios, en su omnipotencia, está por encima de la lógica.
« ¿Puede Dios hacer que Roma no haya sido fundada, habiendo sido fundada?», preguntaba San Pedro Damián, y su respuesta era obviamente que sí.
Guillermo de Conches, desde Chartres, parece responderle directamente:
Lo que importa no es el hecho de que Dios haya podido hacer esto o aquello, sino examinar esto o aquello, explicarlo racionalmente, mostrar su finalidad y su utilidad. Sin duda Dios puede hacerlo todo, pero lo importante es que haya hecho esta o aquella cosa. Sin duda Dios puede hacer un novillo de un tronco de árbol, como dicen los rústicos, pero ¿lo hizo alguna vez?
Es todo un programa de conocimiento, casi equiparable al destierro de los dioses llevado a cabo por Tales. El pensamiento, ahora, no se ocupará de lo que Dios podría haber hecho sino de lo que efectivamente hizo: la naturaleza no deja de ser un objeto creado por Dios, pero se reconoce que encierra sus propios mecanismos (también creados por Dios, claro está).
Así como para San Agustín las causas naturales carecían de interés, ya que no tenían otro fin que conducir a la causa primera (Dios), para la gente de Chartres son causas operantes. Y así es como, al lado de Platón, estudiaban a Galeno.
En conclusión, los hombres de Chartres no dejan de ser platónicos, pero de un platonismo naturalista: en Platón ven una concepción racional de los fenómenos físicos, e intentan una indagación directa y concreta de los fenómenos de la naturaleza.

§. Nacen las universidades y los universitarios
Todo cambiaba: además de las escuelas catedralicias como Chartres, empezaban a surgir entidades intermedias más o menos independientes del poder eclesiástico. Entre otras cosas, la oleada de traducciones de escritos del mundo antiguo necesitaba instituciones apropiadas como las universidades, que originariamente eran asociaciones gremiales de estudiantes o de maestros. Primero fue la de Bolonia (1158) y luego vendrían París, Oxford (1167), Cambridge (1209), Padua (1222), Nápoles (1224), Salamanca (1227), Praga (1347), Cracovia (1364), Viena (1367) y St. Andrews (1410). Hacia 1500, el número de universidades había llegado a 62.
Al principio, no fueron gran cosa: el plan de estudios se determinaba sobre la base de las siete artes liberales. Las tres primeras o trivium eran la gramática, la retórica y la lógica, y se dirigían a enseñar al alumno a hablar y escribir correctamente en latín. Después venía el quadrivium, integrado por la aritmética, la geometría, la astronomía y la música. Sólo después de esto se podía estudiar filosofía y teología. El derecho (Bolonia) y la medicina (Salerno) se encuadraron en otras facultades o escuelas, pero ni la historia ni la literatura encontraron su lugar. A esta notable omisión se debe la reacción humanista durante el Renacimiento contra todo el sistema escolástico.
En la práctica, la enseñanza de la ciencia era muy escasa. La aritmética consistía en la numeración; la geometría en los tres primeros libros de Euclides; la astronomía iba poco más allá del calendario y del modo de calcular la fecha en que cada año caerían las Pascuas; física y música eran muy elementales. Había muy poco contacto con la naturaleza y con las artes prácticas.
Pero con el correr del tiempo, las universidades se convertirían en los centros de pensamiento y producción filosófica, por su misma naturaleza, cada vez más seculares, y su lenguaje y modos de pensar son los que darán lugar al surgimiento de la escolástica.

§. La escolástica tiene mala fama y es injusto
Si bien es verdad que la escolástica, es decir, el conjunto de doctrinas enseñadas en las escuelas medievales, tiene mala fama (especialmente propagada por los hombres del Renacimiento), no puede negarse que resultó protagónica entre los siglos IX y XII y fue a través de ella, a partir del siglo XI, donde se filtró poco a poco lo que más tarde se llamó teología racional, que empezó a minar subversivamente el viejo dicho de que «la filosofía es una simple esclava de la teología».
La palabreja venía del viejo término griego, scholastikos, que se utilizaba para designar a un filósofo profesional y, en las más tempranas escuelas religiosas cristianas, al director: scholasticus. Y se puede rastrear hasta el renacimiento carolingio.
Aunque ya para el siglo XV la escolástica se estancaría en discusiones sobre minucias sin sentido (por lo menos para nosotros), refrescó y puso en primer plano la discusión y el debate racionales (principalmente mediante la dialéctica, que significaba, precisamente, discutir con argumentos y contraargumentos, lo cual alarmaba tanto, y con razón, a San Pedro Damián). Ya Escoto Erígena, sucesor de Alcuino en la Escuela Palatina de Carlomagno, proclamaba que la filosofía era la búsqueda de Dios, y por lo tanto, no era diferente de la religión, pero que alcanzado el conocimiento de Dios, la razón, asistida por Él, tenía un papel en la indagación crítica para discernir la autoridad verdadera de la falsa.
Les recuerdo, de paso, que el mundo que describía Escoto Erígena estaba constituido por los cuatro elementos; incluso llegó a enseñar el sistema cosmológico de Heráclides Ponto, en el que Mercurio y Venus giraban alrededor del Sol y, parece, lo extendió a otros planetas como Marte y Júpiter, en una premonición de lo que medio milenio más tarde haría Tycho Brahe. Aunque quizá lo hizo porque, simplemente, no conocía a Tolomeo.
Bueno, pero esto fue una muy pequeña digresión: también fue el pensamiento escolástico el que recibió las obras de Aristóteles y logró conciliarlas con el dogma. Y fue dentro de la escolástica donde se dio el movimiento que llevaría por un lado a la ciencia experimental, y por el otro a la crítica científica racional.

III. En la taberna

La ciencia experimental y el análisis científico racional, que no es sino la aplicación de las matemáticas a las teorías científicas… Cuando estas dos vertientes se juntaran y se cortara el lazo entre razón y fe, estarían dadas las condiciones para el nacimiento de la ciencia moderna.
Pero trataremos de desbrozar el camino poco a poco, ya que la historia de la ciencia, como la historia en general, es confusa, y no tiende a ningún fin en particular. Muchas veces se detectan líneas de evolución, cambio o pensamiento (y de retroceso, por qué negarlo), que sólo existen en la cabeza del volátil autor de estas páginas a quien le gusta imaginarse sentado en una taberna, siguiendo los preceptos de Omar Kayyam, aunque no hasta el extremo de no poder seguir escribiendo. Tampoco al pie de la letra, ya que aquí venden cerveza caliente en lugar de vino, pero para el caso es lo mismo.
Del fondo provienen unos cantos rasposos:
In taberna quando sumus,
non curamus quid sit humus,
sed ad ludum properamus ,
cui Semper insudamus.
Quid agatur in taberna
Ubi nummus est pincerna,
Hoc est opus ut queratur,
si quid loquar, audiatur.
Quidam ludunt, quidam bibunt,
Quidam in discrete vivunt.
Sed in ludo quimorantur,
Ex his quidam denudantur
Quidam ibi vestiuntur,
Quidam saccis induuntur.
Ibi nullus timet mortem
sed pro Baccho mittunt sortem.
Con esfuerzo, logro traducir rústicamente:
Cuando estamos en la taberna,
No pensamos sobre cómo iremos al polvo,
sino que nos apuramos a jugar,
lo cual siempre nos hace sudar.
Lo que pasa en la taberna,
donde el dinero es anfitrión,
bien puedes preguntarlo
y oír lo que digo.
Algunos juegan, otros beben,
otros se comportan libertinamente.
Pero de aquellos que juegan,
algunos están desnudos,
otros con ropa,
algunos se tapan con sacos.
Aquí nadie teme a la muerte,
sino que se echa la suerte en honor a Baco.
En una mesa distingo a un grupo de estudiantes que bromea en latín (obviamente, ya que provienen de todas partes de Europa y el latín es la única lingua franca) y toman hidromiel…, algunos acusan a un joven de melancolía o tristitia, que consiste en negarse a gozar de los bienes espirituales que tanto abundan en la taberna; los más alegres, o los que tomaron más cerveza, tratan de seducir a la rechoncha tabernera.
La música del fondo continúa, y alcanzo a ver que proviene de un grupo de goliardos zaparrastrosos (algo así como clérigos-bardos) que, abrazados, continúan entonando canciones con el grueso humor medieval:
O, ó, ó
totus flore-ó,
iam amore virginalis
totus arde-ó,
novus, novus, novus amor est,
quo pé-reo.
Sin sospechar que mil años más tarde Carl Orff las retomará en su Carmina Burana.
Pero me dejo llevar por la conversación de los estudiantes, que en medio del barullo comentan los conflictos que enfrentan a alumnos y profesores en la Universidad de París. Aunque el latín del volátil autor de estas páginas es bastante flojo, le alcanza para entender que poco a poco la charla va derivando hacia una discusión profunda sobre el que probablemente será el gran tema de la filosofía medieval: la querella de los universales.

§. El nombre de la rosa
Algunos de ellos son realistas y piensan que los términos universales son preexistentes a los individuos particulares (es decir, que hay una rosa universal que preexiste a las rosas particulares); otros, nominalistas, sostienen que son los individuos particulares sumados los que construyen los términos universales, que en verdad no tienen ningún estatus ontológico sino que son sólo nombres, recursos lingüísticos: son las rosas de este mundo las que generan el universal lingüístico «rosa». La discusión no es menor, puesto que tiene consecuencias para el dogma: aceptar la postura nominalista implicaría que cada uno de los integrantes de la Trinidad (Padre, Hijo y Espíritu Santo) es un individuo separado, lo cual conduciría al politeísmo. No es casual que los estudiantes alcen el tono de voz y se acusen los unos a los otros.
Pero el dogma cristiano, que es omnipresente, no es lo que nos interesa aquí: si la Trinidad esto o la Trinidad aquello no nos afecta especialmente; lo que sí hay que señalar es que los nominalistas, al jerarquizar los objetos individuales, incitan a estudiarlos natural o experimentalmente; los realistas, al poner el acento en las ideas, tenderán hacia las matemáticas y la lógica. Las dos vertientes, otra vez, que tarde o temprano terminarán por juntarse.
El otro gran tema medieval fue el de las relaciones entre razón y Fe: ¿cómo conciliarlas?, ¿cuál es superior a cuál? Este asunto… pero un momento; oigo mencionar a Aristóteles… para variar…

§. La vuelta de Aristóteles
Efectivamente, ahora los estudiantes están hablando de sus textos y burlándose de la absurda prohibición del obispo Tempier. Dicen que la reintroducción del pensamiento greco-árabe, realizada a través de verdaderas empresas de traducción (como la que funcionaba en Toledo, reconquistada por los cristianos en 1085, y que uno de ellos asegura haber visitado) representa un viento nuevo para el pensamiento, en especial por los problemas que produce: muchas de las tesis de Aristóteles son heréticas, dicen algunos, como la de la eternidad del mundo, que contradice la creación, o la necesariedad del mundo, que contradice la omnipotencia divina y precisamente por eso, argumentan otros, fueron condenadas por el Papa y prohibidas en 1277 por el obispo Tempier en París.
Antes de dejarme llevar por la conversación, tengo que aclarar algo: uno de los principales agentes de la vuelta de Aristóteles fue Averroes (así fue «traducido» su verdadero nombre, Ibn Rushd, en el Medioevo) (1126-1198), el mayor filósofo musulmán. Su estilo librepensador lo enfrentó con la ortodoxia religiosa y le valió persecuciones y hasta el exilio. Buena parte de su vida la dedicó a comprender la obra de Aristóteles, «la más alta perfección humana». Según él, la revelación divina y la filosofía trabajaban en distintos planos, lo que impedía que se produjeran choques entre ambas. La filosofía tenía prácticamente el valor de una religión para quienes estuvieran más preparados intelectualmente. Según Averroes, y esto es muy interesante porque muchos creyentes «racionalistas» utilizarían el argumento, Dios era un principio de racionalidad y no un demiurgo caprichoso capaz de cualquier cosa. Es importante comprender este argumento porque permitirá a muchos intelectuales continuar con sus investigaciones sin tener que enfrentarse con la religión o con su propia necesidad de creer en Dios, a quien Averroes identificó con el primer motor inmóvil aristotélico.
Bueno, la cuestión es que el impacto de la filosofía de Aristóteles fue tremendo. Es posible que se debiera al esfuerzo de un puñado de científicos, y no hay que descartarlo, pero también al espíritu de crecimiento (y al crecimiento real) de Europa y a la actitud más secular que provenía de las ciudades, atentas a sus negocios más que a la doctrina cristiana. También puede ser que los márgenes del dogma cristiano fueran sentidos como asfixiantes en una sociedad de filósofos y pensadores (y tal vez científicos, por qué no) que quería ver más lejos montándose en hombros de gigantes. Y Aristóteles era un gigante, por cierto.
Desde ya, los nuevos textos avivaron la lucha que nunca terminaba entre razón y fe, porque, como bien señalaban los estudiantes, estaban plagados de ideas que se llevaban mal con el dogma cristiano.
El pensador medieval, entonces, se veía obligado a enfrentar un conflicto central. Si la cosmología cristiana se basaba en la fe y la nueva ciencia se había de basar en la razón, ¿cómo conciliarlas, teniendo en cuenta que los tiempos no daban para abandonar a —o por lo menos despreocuparse un poco de— la primera?
La ciencia había nacido de la separación entre razón y fe; luego la segunda había triunfado y ahora se trataba de hacerlas convivir pacíficamente.
Fue Tomás de Aquino (1225/6-1274), probablemente el más grande de los filósofos escolásticos, quien logró introducir a Aristóteles dentro del dogma. Se ordenó fraile dominico y estudió con Alberto Magno, uno de los aristotélicos más famosos de la época. Su gran logro fue convencer a la Iglesia de que el sistema de Aristóteles era preferible al de Platón como base de la filosofía cristiana.
La razón natural —dice Tomás— es deficiente en las cosas de Dios: puede probar algunas partes de la fe, pero otras no; puede probar, por ejemplo, la existencia de Dios y la inmortalidad del alma, pero no la Trinidad, la Encarnación o el Juicio Final. Tomás sostiene que es importante separar las partes de la fe que se pueden probar por la razón de las que no, tomando así la senda de la teología racional. La filosofía de Aquino coincide con la de Aristóteles, con la particularidad de adaptar el pensamiento del Estagirita al dogma cristiano con mínima alteración. En su tiempo fue considerado un atrevido innovador; incluso después de su muerte muchas de sus doctrinas fueron condenadas por las universidades de París y Oxford. Gracias a él, el escolasticismo dio un paso decisivo al incluir los textos aristotélicos.

§. La escuela de Oxford y el resurgimiento de la empiria
También estaba en el grupo un erudito de Oxford que llevaba largo tiempo estudiando lógica. Su caballo era delgado como un poste y os aseguro que él no estaba más gordo. Tenía un aspecto enjuto y atemperado. Se cubría con una capa corta muy raída. No había encontrado todavía subvención y era demasiado poco mundano para ejercer un empleo. Prefería tener en la cabecera de su cama los veinte libros de Aristóteles encuadernados en negro o en rojo que vestidos lujosos, el violín y el salterio. A pesar de toda su sabiduría, guardaba poco dinero en su cofre. Gastaba en libros y erudición todo lo que podía conseguir de sus amigos, y en pago rezaba activamente por las almas de los que le facilitaban dinero para proseguir su formación. Dedicaba la máxima atención y cuidado al estudio. Nunca pronunciaba palabras innecesarias y hablaba siempre con circunspección, brevedad y concisión, y selecto vocabulario. Sus palabras impulsaban hacia las virtudes morales. Disfrutaba estudiando y enseñando.
CHAUCER, Los cuentos de Canterbury
Con todo este asunto de la teología racional, dejé de lado el problema del empirismo, que pensaba tratar primero. Quizá me distraje con los estudiantes que discutían a Aristóteles y sus argumentos: es maravilloso cuando en un fragmento de conversación uno encuentra la síntesis de una época. En realidad, cree encontrar, ya que la síntesis de una época (y no quiero iniciar una discusión escolástica) raramente existe, pero noten que no me animé a decir «no existe».
Es difícil moverse en medio de todas estas sutilezas teológicas y dialécticas, pero es notable que la línea empírica haya provenido de los principales opositores al aristotelismo: los franciscanos, que luchaban por el poder intelectual contra los dominicos y su teología racional. Tuvieron dos centros: París y Oxford; en París, prevaleció una corriente principalmente mística; en Oxford, una tendencia platonista que los relaciona con los hombres de Chartres. Curiosamente, esta tendencia platonista se combinará con un vivísimo interés por los fenómenos naturales.

§. Un mundo de luz
Robert de Grosseteste (1175-1253), uno de los principales exponentes de la escuela de Oxford, no renegó del dogma y aseguraba que «la verdad de las cosas consiste en su conformidad con el Verbo», aunque esto no le impidió observar el mundo material con interés y, bebiendo del agua de Tales, armar una verdadera cosmogonía basada en la luz, considerada como forma primera y lugar de todas las sustancias. El Universo podía ser reconstruido racionalmente, aseguraba, partiendo de un punto desde el cual irradia la luz.
Naturalmente, esta cosmogonía colocaba a la óptica por encima de todas las demás disciplinas, y pretendía explicar todos los fenómenos por medio de líneas, ángulos y figuras geométricas simples. Con ello, apelaba ampliamente al principio aristotélico según el cual la naturaleza realiza siempre sus fines con el máximo de economía o, con sus palabras, «la naturaleza actúa según el camino más corto posible».
Lo cual tenía sus connotaciones epistemológicas: Grosseteste, como buen científico, se ocupó de reflexionar sobre el método y llegó a sugerir que se utilizara la falsación. Luego de hallar, por la clasificación de los hechos y por un acto original de intuición, las posibles causas de un fenómeno, admitía que se eliminaran por deducción todas aquellas en las que algunas de sus consecuencias resultaran contradictorias con la lógica o con nuevas observaciones.
El método sirvió para dar algunas explicaciones vagas, como que el cometa es un fuego sublimado, separado de la naturaleza terrestre y asimilado a la naturaleza celeste, especialmente a la de los siete planetas o que el arco iris es el producto de la intervención de dos refracciones en una nube convexa, la segunda de las cuales se produce en el límite entre la parte menos densa de la nube y la más densa de la llovizna.
Como buen platónico, Grosseteste creía que la naturaleza se esconde y engaña y que sólo en la matemática puede encontrarse una verdad incorruptible y absolutamente certera. De hecho, consideró a las ciencias físicas como subordinadas a las ciencias matemáticas, en el sentido de que sólo ellas podían dar la verdadera razón de los hechos físicos observados. Pero al mismo tiempo derivó el principio fundamental de su método de Aristóteles, aunque desarrollándolo de una forma más completa.
En fin: podría decirse que unió tempranamente y en apretada síntesis a Platón y Aristóteles y por eso se lo considera como fundador de la tradición del pensamiento científico en la Oxford medieval.

§. Submarinos y máquinas voladoras
—Pero tú, Guillermo, hablas así porque en realidad no crees en el advenimiento del Anticristo, ¡y tus maestros de Oxford te han enseñado a idolatrar la razón extinguiendo las facultades proféticas de tu corazón!
—Te equivocas, Ubertino —respondió con mucha seriedad Guillermo—. Sabes que el maestro al que más venero es Roger Bacon…
—Que deliraba acerca de unas máquinas voladoras —se burló amargamente Ubertino.
—Que habló con gran claridad y nitidez del Anticristo, mostrando sus signos en la corrupción del mundo y en el debilitamiento del saber. Pero enseñó que hay una sola manera para prepararse para su llegada: estudiar los secretos de la naturaleza, utilizar el saber para mejorar el género humano.
—El Anticristo de tu Bacon era un pretexto para cultivar el orgullo de la razón.
—Santo pretexto.
ECO, El nombre de la rosa
El discípulo más célebre de Grosseteste fue Roger Bacon (1214-1294), quien no dejó de ser un medieval auténtico y un teólogo antes que nada. Aunque, como su maestro, entre discusión y discusión sobre la naturaleza de Dios, lanzaba frases sorprendentes, como la de que «nada puede conocerse de las cosas de este mundo sin saber de matemáticas» (tal vez evocando aquello que estaba escrito en la entrada de la Academia platónica) o, contradiciéndose a sí mismo, la de que «el razonamiento nada prueba; todo depende de la experiencia».
En rigor, Bacon fue un experimentalista que reconoció, tempranamente, la importancia de las matemáticas como herramienta de conocimiento. Este intento de conciliación entre lo racional y lo experimental es fundamental para entender la evolución del pensamiento científico. Escuchemos a Bacon:
Los latinos ya han echado las bases de la ciencia en lo que se refiere a las lenguas, a la matemática y a la perspectiva; yo ahora quiero ocuparme de las bases suministradas por la ciencia experimental, pues sin experiencia nada puede saberse suficientemente. Si alguien que nunca vio fuego prueba mediante el razonamiento que el fuego quema, altera las cosas y las destruye, el espíritu del oyente no quedará satisfecho con ello y no evitará el fuego antes de haber puesto en él la mano o una cosa combustible para probar mediante la experiencia lo que le enseñó el razonamiento. Pero una vez adquirida la experiencia, el espíritu se siente seguro en la luz de la verdad. De manera que el razonamiento no basta, hace falta la experiencia.
Razonamiento y experiencia: ambas cosas van de la mano y de su conjunción surgirá la ciencia moderna.
Dije, al principio, que Bacon fue sin lugar a dudas un hombre de su tiempo, y les mentiría si no les mostrara también esta faceta. El desarrollo de la ciencia experimental, creía, tendría que ser aprovechado por la Iglesia en provecho propio, por ejemplo, para luchar contra los infieles y conjurar los peligros que la amenazaban. Tendrían que fabricarse barcos sin remeros, carros automóviles, máquinas voladoras, aparatos para viajar por el fondo del mar, puentes colgantes e instrumentos que permitieran leer a distancias increíbles. A pesar de que —contrariamente a lo que hizo Leonardo da Vinci— estas ideas no fueron acompañadas por investigaciones, parece casi seguro que Roger Bacon conocía la pólvora y posiblemente inventó los anteojos, ya que estuvo muy interesado por las combinaciones posibles de lentes y espejos cóncavos. También fue un precursor de la fotografía, al usar la cámara oscura para observar un eclipse de Sol.
Y mientras yo me enredo en los intentos de Bacon y Grosseteste por entender la vacilante realidad, escucho que los estudiantes comentan la paradoja que tengo en mente desde el comienzo del capítulo y que no puedo explicarme de ninguna manera: fueron los aristotélicos los que siguieron la línea de revalorizar la razón, y los platónicos quienes hicieron fuerza por las ciencias empíricas.
«Quizá no era una paradoja, y simplemente sucedía que platónicos y aristotélicos estaban siendo arrastrados por el espíritu de los nuevos tiempos», me digo, mientras yo mismo, insatisfecho con mi propia explicación, me veo también arrastrado por la somnolencia que da la cerveza hacia uno de los más grandes pensadores del Medioevo.

IV. La navaja de Ockham

Es así: ahora los estudiantes se han puesto serios y están hablando sobre Guillermo de Ockham. Tentado estoy de decirles que Ockham inspiraría el personaje de Guillermo de Baskerville, en El nombre de la rosa, pero seguramente no me creerían.
El canto de los goliardos se atenúa. Puedo escuchar claramente, entonces, lo que dicen los estudiantes sobre mi personaje favorito de la Edad Media. Me alegra que hayan abordado este tema, y más me alegra escuchar que todos sienten una admiración especial por Ockham, probablemente el responsable del corte definitivo con la discusión acerca de la relación entre fe y razón (lo cual le valió la excomunión del Papa y de la orden franciscana, a la que pertenecía).
Y es que Guillermo de Ockham (1284-1349) fue el pensador más importante del siglo XIV europeo, el que de alguna manera anunció el final de la escolástica medieval y el que estableció un nexo (temprano, por cierto) con lo que sería la nueva ciencia que representaría Galileo, doscientos cincuenta años más tarde.
Había nacido en la aldea de Ockham, a unos treinta kilómetros de Londres, alrededor de 1280, e ingresado en la orden franciscana. Realizó sus estudios en Oxford, donde se vio influido por Roger Bacon y donde funcionaba, dicho sea de paso, una escuela que investigó y encontró grandes novedades en física y en la teoría del movimiento; luego de escribir algunas de sus obras, fue llamado en 1324 a Aviñón (entonces residencia de la corte papal) por el papa Juan XXII (1244-1334), para responder a una acusación de herejía; en 1328, cuando la cosa se puso espesa y los problemas teológicos se implicaron con los políticos (puesto que tomó «la opción por los pobres» de los orígenes del franciscanismo en contra del despilfarro y la riqueza de la corte papal), se escapó y se refugió en Pisa bajo la protección de Luis VI de Baviera, a quien siguió después a Münich, donde murió en 1349 durante una epidemia de cólera.
El pensamiento medieval, como venimos diciendo y repitiendo, se arrastró en medio del difícil problema de conciliar la razón y la fe. Mientras que algunos pensadores optaban por la fe lisa y llana, y negaban la posibilidad de la razón o la subordinaban a la teología y a la revelación, a partir del siglo XII, con la reintroducción del aristotelismo, se produjo un esfuerzo marcado por encontrar entre ambas una articulación aceptable tanto para la teología y el catolicismo papal omnipresente como para la «ciencia según Aristóteles», que pretendía llegar a la verdad a través de la observación y el razonamiento. Ya vimos que había sido Tomás de Aquino quien le había dado al aristotelismo documento de identidad para moverse libremente por la Ciudad de Dios pretendida por la Iglesia (ciudad a la que el correr de los tiempos iba convirtiendo cada vez más en ciudad terrena).
Pero no es de Tomás de Aquino sino de Ockham de quien hablan los estudiantes. Y me alegra, porque Guillermo toma una postura radicalmente diferente y opuesta a la de Tomás de Aquino: si éste había trabajosamente ordenado y jerarquizado las «verdades de fe» y las «verdades de razón», para nuestro buen Guillermo no existe ni puede haber ninguna articulación entre ellas: la razón y la fe no tienen nada que ver, la teología y la filosofía (o la ciencia) se ocupan de cosas distintas, por caminos distintos y no pueden prestarse ningún apoyo mutuo (una separación que en su momento marcará claramente Galileo).
Pero además, y a pesar de venerar a Aristóteles, Ockham rompía con el aristotelismo, negando la posibilidad de conocimiento universal: todo conocimiento se deduce de la experiencia con los objetos individuales, que luego puede o no plasmarse en ideas generales, que están en el pensamiento, pero no en el mundo. Afirmaba enérgicamente que la única fuente de conocimiento es la intuición sensible, que nos pone en contacto inmediato con la realidad de los objetos individuales: sólo esa intuición está en condiciones de llevarnos a efectivos juicios de existencia. Todas las otras formas cognoscitivas derivan de la experiencia y encuentran en ésta su adecuada justificación.
Así, establecía un fuerte énfasis en la importancia de lo experimental, que cuajará a través de Jean Buridan en la teoría del ímpetus, una descripción del movimiento que desbancará el temible y ya estrecho corset aristotélico sobre el tema, y que será la inspiración del joven Galileo para avanzar hacia la ley de caída de los cuerpos.
Esto fue en relación con las disciplinas científicas, o la filosofía natural, pero no fue todo: en teoría política, Ockham proclamó un dualismo parecido entre poder temporal (el emperador) y espiritual (el Papa): el Papa no era sino un príncipe de la Iglesia, falible como cualquiera, y por tanto ya no el árbitro de la verdad; los príncipes temporales, por su parte, se ocupaban de las cuestiones civiles y no tenían que rendir ningún tipo de pleitesía al Papa. No es extraño que tuviera que escaparse de Aviñón: en sus últimos escritos, reclamó la separación de la Iglesia y el Estado, avanzó singularmente hacia la tolerancia y la libertad de pensamiento («fuera de la teología, cada uno debería ser libre de decir lo que le parezca y le plazca»), valores que ya prenunciaban el Renacimiento, que todavía tendría que esperar un siglo para aparecer.
En fin: Guillermo de Ockham fue un pensador múltiple y feraz que adivinó la tolerancia y el pensamiento libre, que enfocó los principales problemas de su época y la liberó de la pesada carga del dilema razón-fe.
¿Y la navaja de Ockham?
Es una concepción que tiende a excluir del mundo y de la ciencia, en nombre de la economía de pensamiento, a todos los entes y conceptos superfluos, y, antes que nada, a los conceptos y los entes puramente metafísicos. En rigor, lo que él enunció fue que «no se debe multiplicar de manera innecesaria el número de los entes», y que cuando estamos ante dos teorías igualmente explicativas, se debe elegir la más simple.
Tras pasar por su navaja, la idea de Dios es totalmente distinta: en tanto no podemos tener experiencia directa de su existencia, sólo puede tenerse fe, y ésta no tiene nada que ver con la ciencia; de esta manera parece salvarse finalmente la necesidad de congeniar constantemente la palabra de Dios con la naturaleza que se percibe. Las complejas disquisiciones teológicas empiezan a perder atractivo y el mundo comienza a ser el lugar en donde deben buscarse las respuestas. Durante los siglos XIII y XIV el método experimental se extendió y aunque no produjera grandes teorías, o teorías que más tarde se verían como ciencias del Renacimiento, abrió la puerta para que las nuevas generaciones urbanas profundizaran el trabajo.
Así, pues, después de Chartres, Oxford, París , Santo Tomás de Aquino, y, especialmente, de Guillermo, la filosofía y el naturalismo dejaron de ser «siervas de la teología», y se deslizaron por esa fractura entre el mundo y Dios. Instalados con firmeza en esa grieta, no hicieron otra cosa que ensancharla.
La navaja de Ockham cortó de una vez por todas, la ligazón entre razón y fe.
El camino quedaba despejado. Pero aún faltaba algo.

§. Nicolás de Cusa: el universo indeterminado
Es casi un lugar común afirmar que Giordano Bruno fue el primero que declamó la infinitud del universo y que, por eso, terminó como terminó: quemado en la hoguera por la no muy tolerante Iglesia Católica de la época, que habría de tener unos años más tarde un siniestro episodio con Galileo Galilei, el hombre que fundó la ciencia moderna, del que ya hablaremos in extenso.
Y sin embargo fue en realidad un clérigo, acaso la mentalidad especulativa más importante del tardío Medioevo, el que puso las primeras piedras del puente teórico que permitiría pasar del mundo cerrado de la Edad Media al universo infinito de la modernidad. Ese hombre, nacido en Cusa, se llamaba Nicolás, estaba fuertemente influido por el platonismo humanista y había estudiado en Padua, el mismo lugar donde estudiaría medicina Copérnico y donde Galileo terminaría por resolver el milenario problema del movimiento.
Cusa no decía, en realidad, que el universo fuera infinito sino que hablaba de una «indeterminación» de sus límites, lo cual acarreaba un fuerte corolario epistemológico: si el propio universo no estaba determinado en sus constituyentes, todo conocimiento que se tuviera de él, se adquiriera por la vía que se adquiriera, era parcial y refutable. Por eso la actitud aconsejable era la de una docta ignorantia, un reconocimiento de la imposibilidad de conocer la totalidad que no llevara a un abandono de la tarea de conocer sino todo lo contrario.
En consonancia con el complejo sistema metafísico que elaboró, Cusa proclamó, entre otras cuestiones revolucionarias para la época, que en ningún lugar de la naturaleza existían las órbitas perfectamente circulares sugeridas por el maestro Platón, que la Tierra se movía, que no era el centro del universo (porque en verdad era imposible determinar un centro para algo indeterminado) y que, por ende, el movimiento de los cuerpos era relativo:
está claro que la Tierra se mueve realmente, aunque no nos parezca así, ya que no aprehendemos el movimiento a menos que se pueda establecer cierta comparación con algo fijo. Así, si un hombre que estuviese en un bote en medio de una corriente no supiese que el agua estaba fluyendo y no viese la orilla, ¿cómo habría de aprehender que el bote estaba moviéndose?
Pero lo cierto es que, por más audaz e inteligente que fuera su pensamiento, nadie le dio mucha importancia, al menos hasta que Bruno y Copérnico reconocieron en él a un precursor. Tal vez ése sea el triste destino de los que se quedan a mitad de camino: porque, como dice Alexander Koyré, el mundo del cardenal «no era ya el cosmos medieval, aunque todavía no era en absoluto el universo infinito de los modernos».

V. Finale

Los estudiantes abandonan a Ockham y a Cusa y se van. Ya es de noche y yo también debo irme, aunque me produce un poco de inquietud cruzar la puerta y salir a la noche medieval. Sin embargo, lo hago, y me sorprendo porque apenas pongo un pie en la calle una moto pasa rozándome: he vuelto a mi lugar.
Resuena en mí el canto de los goliardos:
O, ó, ó
Totus flore-ó
Iam amore virginalis
Totus arde-ó
Novus novus novus amor est
Quo pére-o.
Quo pére-o….

Capítulo 10
Magos, brujas, humanistas e ingenieros: de la Edad Media al Renacimiento

Bueno, me costó bastante —y no sé si lo conseguí— tratar de sintetizar el desarrollo de las ideas científicas medievales, con sus sutilezas teológicas, con el realismo y el nominalismo, con la famosa navaja que finalmente iba a cortar el vínculo vicioso entre Razón y Fe, mediante palabras por momentos parecidas a las que más tarde usará Galileo: palabras que, de alguna manera, comenzaron a establecer, ya en el siglo XIV, un nuevo clima basado en la combinación de racionalismo y mentalidad experimental, las dos herramientas del pensamiento que acompañarían el crecimiento de Europa, y la conducirían a la Revolución Científica.
Ojo: no es que Guillermo de Ockham inventara el mundo moderno, sino que, al revés, creó su navaja porque el mundo moderno ya estaba inventado o, mejor dicho, estaba inventándose en el corazón del orden medieval. No quiero caer en el reduccionismo economicista o sociologista, pero es obvio, creo, que las ideas se fraguan y fructifican solamente — ¿solamente?— cuando el terreno es fértil. Ockham puso a disposición de los científicos por venir el escalpelo con el que cortar definitivamente con una época en la que la religión se entrometía constantemente en la observación del mundo.
Naturalmente, los factores que contribuyeron a la aparición de una nueva cultura fueron muchos, pero me gustaría destacar dos: por un lado, la decadencia del Papado y el Imperio, los dos principales actores políticos medievales, en favor de las monarquías nacionales, las signorias y los principados italianos y alemanes; por el otro, la emergencia y consolidación de una nueva vida ciudadana y una nueva clase, la burguesía, por ahora más mercantil que industrial. Ambos favorecieron la ruptura del orden social feudal, en el que cada persona ocupaba un lugar fijo e inamovible en un sistema total, y permitieron que se fuera gestando una perspectiva que otorgaba más elasticidad, movilidad, protagonismo y libertad al individuo. Noten que no digo «el sujeto».
Así es como nos aproximamos con alegría, rotundamente, al Renacimiento, un período que podemos ubicar más o menos entre la segunda mitad del siglo XIV y finales del siglo XV. Aunque sé que no fue así, no puedo dejar de imaginar a la Edad Media iluminada por la luz mortecina del atardecer de invierno, y a la Florencia renacentista, pletórica por el sol de un mediodía primaveral. Insisto: es sólo producto de mi imaginación, o de la del volátil autor de estas páginas, que también soy yo, que ni siquiera vuela por su cuenta, sino que se deja llevar por la imagen que forjaron los propios renacentistas. En realidad, al abordar este período, nos vemos enfrentados al eterno problema de la ruptura y la continuidad: ¿es el Renacimiento una continuación y desarrollo de las fuerzas que ya se manifestaban en siglos anteriores, o hay una ruptura más o menos radical?
Si nos pusiéramos en la cabeza de los renacentistas, la respuesta carecería de cualquier tipo de ambigüedad: así como les decía que los medievales no sabían que eran medievales, los hombres del Renacimiento fueron muy conscientes (y se esforzaron para dejarlo en claro) de que estaban viviendo una nueva etapa del pensamiento y la cultura, una etapa que chocaba de manera radical con las corrientes filosóficas y científicas de los siglos medievales.
En rigor de verdad, la fama de la Edad Media como un período negro para la historia de la humanidad (fama que, si se tomara en cuenta sólo hasta el siglo XI, estaría sensatamente ganada) nace con el Renacimiento, cuando los intelectuales, en especial los italianos, deciden que entre la antigüedad clásica y ellos se interpuso una etapa de oscuridad y retroceso.
¿Era esto cierto? ¿Estaban los renacentistas forjando una verdadera revolución cultural?
En realidad, es muy difícil saber cuándo se está viviendo una revolución cultural hecha y derecha: pensemos en nosotros mismos, que hoy percibimos la aparición de Internet y las nuevas tecnologías como una ruptura radical, aunque acaso algunos historiadores, dentro de doscientos años, lo vean como un eslabón más del proceso de expansión de las comunicaciones iniciado con el telégrafo en el siglo XIX.
Haya habido una genuina revolución o no, lo cierto es que la época del Renacimiento consolida el ascenso de una sociedad burguesa a cuyas necesidades hay que atender. Los artistas, ingenieros, hidrógrafos, arquitectos, inventores, no esperarían a que fraguaran las grandes teorías y las poderosas herramientas de la Revolución Científica del siglo XVII, que obviamente no podían imaginar, para actuar, desarrollarse y beneficiarse con la protección de los príncipes (en el caso de los italianos, muchas veces grandes señores banqueros o descendientes de banqueros, como los Médicis de Florencia).
A lo largo del siglo XV, la multiplicación de los grandes trabajos civiles y militares reconfiguró el mapa y la teoría militar a partir de la invención, o descubrimiento e implementación, de la pólvora, e impuso nuevos desafíos, que cambiaban por completo las artes y técnicas de la guerra; la publicación de tratados especializados, por otra parte, familiarizó a los espíritus con esas ingeniosas máquinas que asociamos con Leonardo da Vinci, pero que —recordémoslo— deberíamos asociar también con las profecías de Roger Bacon en el siglo XIII sobre aviones y submarinos.
No hay ni qué decir de la aparición de la imprenta, que multiplicó y abarató notablemente el costo de los libros: solamente en Venecia, la ciudad con mayor «mercado editorial» de Europa, se publicaron dos millones de ejemplares en el siglo XV.
Pero sí quisiera decir algunas cosillas sobre otro de los grandes acontecimientos de la época: el «descubrimiento» de América, que cambió la cosmovisión europea de una manera radical e insospechada.

§. Un navegante afortunado
Hagamos una aclaración obvia: Colón y los que lo siguieron no descubrieron nada o, en todo caso, «descubrieron» algo para los europeos en el mismo sentido en que uno puede contarles a sus amigos que «descubrió» un nuevo restaurante, o que «descubrió» tal o cual ciudad durante un viaje. No tiene sentido decir que «descubrió» un continente donde vivían noventa millones de personas.
Y éste es, también, el lugar de aclarar otro punto: desde el comienzo del libro, en que hablamos de las cosmologías primitivas, hay una notable ausencia de la «ciencia» desarrollada, entre otros pueblos americanos, por los mayas y los aztecas, y eso requiere una justificación. Lo cierto es que no sabemos demasiado sobre el pensamiento astronómico y científico en general de las grandes civilizaciones americanas, entre otras cosas porque los españoles se encargaron, en el «nombre de la verdadera fe», de quemar cuanto documento fuera combustible, y de destruir todo lo que pudiera ser destruido. El «descubrimiento» de América fue una empresa de saqueo y pillaje de una escala pocas veces vista en la historia (que, dicho sea de paso, financió en gran medida el desarrollo europeo), y un pavoroso genocidio, que no dejó en pie nada que podamos utilizar en nuestra historia.
Y ya que estamos con digresiones, vale la pena desarmar un mito que a veces, incomprensiblemente, persiste. La leyenda de Colón, que lo muestra como un visionario que sostenía que la Tierra es esférica ante la ignorancia de una época que la consideraba plana como un DVD, es una mentira flagrante. Como ya hemos visto cuando viajábamos por la Antigüedad, no sólo se conocía desde entonces la forma de la Tierra, sino que incluso se había medido su circunferencia; consecuentemente, en la época de Colón la esfericidad de la Tierra ya era un hecho perfectamente establecido (en el mismo año 1492 ya se hizo un globo terráqueo). Todo el mundo, o por lo menos todo el mundo ilustrado, sabía perfectamente que la Tierra es esférica y tenía una idea aproximada de sus dimensiones. Aunque, y no deja de sorprenderme, Copérnico, en su gran libro, cree necesario tratar el punto y demostrar la redondez de la Tierra, unos cuantos años después del viaje de Magallanes.
Pero hasta tal punto se confiaba en la redondez de la Tierra, que en el año 1487 el rey Juan II de Portugal —de acuerdo con una comisión de expertos— autorizó a dos navegantes, Fernando Dulmo y João Estreito, para que navegaran hacia el Oeste intentando descubrir la isla de la Antilla, una isla que, según se creía, estaba en medio de La Mar Océano (como entonces se llamaba al Atlántico).
Aunque la expedición de Dulmo y Estreito jamás regresó, nadie se permitía dudar sobre la redondez de la Tierra: el punto de conflicto entre Colón y los «sabios de la época» era muy otro. Colón basaba su idea en una estimación completamente falsa —o por lo menos totalmente especulativa— sobre la distancia a cubrir entre Europa y las Indias navegando hacia el Oeste: el Gran Almirante sostenía que se trataba, a lo sumo, de 4.500 kilómetros, y los geógrafos le contestaban que esa cifra era un disparate, con lo cual estaban mucho más cerca de la verdad que Colón. La verdadera distancia es de diecinueve mil quinientos kilómetros, que con algunas variantes era una cifra que manejaban los que se le oponían.
Colón seleccionó mapas que favorecían su idea, y se basó también en afirmaciones un tanto arbitrarias de Marco Polo, el gran viajero del siglo XIII, según las cuales Japón estaba a dos mil quinientos kilómetros de la costa de China. También es posible que hubiera oído hablar de los viajes de los vikingos, que a partir del siglo X habían llegado a América por el Norte e incluso establecido una colonia permanente en lo que ellos llamaban «la tierra de Vinland». A partir de comienzos del siglo XIV, al bajar la temperatura, en lo que se conoce como «la pequeña edad de hielo», los viajes vikingos por el norte helado se hicieron imposibles.
Lo cierto es que Colón manipuló cálculos y mapas de Alfageno, científico musulmán del siglo IX, y logró autoconvencerse de que Japón se encontraba a sólo 4.300 kilómetros al oeste de las Islas Canarias, cifra completamente ridícula, porque según ella Japón estaba ubicado más o menos donde está Cuba. Esto era forzar demasiado la geografía de la época, y no es de sorprender que los cosmógrafos consultados por los reyes de Portugal y Castilla consideraran irrazonable la empresa.
Naturalmente, ellos no podían adivinar que en el medio se iba a interponer la barroca figura de América. Pero tampoco lo adivinó Colón, que además, cuando la tuvo delante, fue incapaz de darse cuenta de que estaba en un nuevo continente y no en el Japón, como sostuvo hasta el final de su vida.
Lo cual no quita que el «descubrimiento» de Colón, el haberse topado de casualidad con una tierra nueva y completamente desconocida (para ellos), cambiara para siempre la cosmovisión europea: fue una ampliación de los horizontes, impulsó el desarrollo de las técnicas náuticas y geográficas, que ya estaban en plena evolución, y sobre todo significó un descentramiento del conocimiento que se reflejó, especialmente, en las ciencias naturales: plantas y animales nuevos, culturas distintas que aparte de ser explotadas hasta la extenuación y la muerte, obligaron a revisar la manera en que se pensaba el mundo y la humanidad… hasta tal punto que las discusiones sobre si los indios tenían o no tenían alma (es decir, en el fondo, si eran o no eran humanos), moneda corriente entre los teólogos, recién fueron saldadas gracias a la bula «Sublimis Deus» del papa Paulo III, en 1537.
Dicho esto, vamos a Italia.

§. Los humanistas
La verdad es que al volátil y deletéreo autor de estas páginas le resulta muy difícil dejar de ver la ciencia, el humanismo y el espíritu renacentista como una preparación para la Revolución Científica, en gran parte porque los métodos, desarrollos y observaciones de los científicos (y los artistas) de entonces no parecen estar tan subordinados a un esquema general como aquel en que se afanaban los medievales. Al fin y al cabo, ellos mismos definían su mundo como completamente nuevo y ensayaban respuestas nuevas para problemas como los que surgían de la aplicación de nuevas tecnologías, como por ejemplo los introducidos por la pólvora, tanto en las técnicas de guerra como en balística, como en medicina, a raíz de las heridas de combate producidas por este nuevo elemento bélico.
Los humanistas eran herederos de un paradigma general en disolución y no tenían un paradigma nuevo y claro con qué reemplazarlo, aunque con sus esfuerzos estaban contribuyendo a trazar sus líneas generales: habiéndose sacado de encima las cuestiones teológicas, como los conflictos entre razón y fe, apartados de las sutiles discusiones escolásticas entre realistas y nominalistas (y, no lo olvidemos, mientras los habitantes americanos morían masivamente en las minas de plata del Potosí), el humanista, el científico, el artista y el técnico renacentista, muchas veces reunidos en una sola persona, iniciaron en serio la fusión entre ciencia experimental y matemáticas, entre la empiria y la teoría; construyeron una nueva manera de percibir el espacio, el tiempo y el mundo, que cimentará en la filosofía mecánica del siglo XVII y la Revolución Científica.
Pero nos equivocaríamos si pensáramos en los humanistas como hombres de ciencia hechos y derechos al estilo moderno. En el zigzagueante transcurrir de la historia, y de la historia de la ciencia, se mezclan lo nuevo y lo antiguo, lo decididamente moderno y lo tradicional, la prodigiosa anticipación y la mera extensión de las investigaciones y el pensamiento de tiempos idos.
Así, por ejemplo, los humanistas seguían reconociendo en la naturaleza y en sus criaturas la revelación de la sabiduría y de la belleza de Dios, aunque separaban a Dios de la naturaleza y habilitaban el estudio de esta última desde una perspectiva no religiosa. Al mismo tiempo que la naturaleza se emancipaba relativamente de Dios, se poblaba de genios, demonios y fuerzas espirituales, controlables y comprensibles por medio de las ciencias ocultas, en especial la magia, que tuvo un enorme desarrollo hasta bien entrado el siglo XVI.
Si el mundo clásico, para los medievales, era motivo de nostalgia y de confirmación de la decadencia que veían alrededor, para los humanistas del Renacimiento resultó ser una especie de energizante que los convencía a cada momento de la irreductibilidad de ese mundo al esquema construido por el cristianismo. Desconfiaron de que pudieran conciliarse lo medieval con lo moderno y descubrieron, así, la conciencia histórica de su propia época: rechazaron el latín corrompido de las universidades, la lengua de expresión por antonomasia de las discusiones sin sentido del escolasticismo tardío, y renunciaron a una restauración imposible del Imperio. Aunque leyeron con aplicación a los filósofos romanos, como Cicerón y Séneca, su horizonte cultural es más bien griego que romano: pretendieron fundar la nueva Atenas en Florencia, el indiscutible epicentro de la renovación cultural (y recordemos que fundar una Nueva Atenas había sido el sueño irrealizable de Alcuino de York durante el breve renacimiento carolingio del siglo XI).
Pero lo que más nos importa a nosotros es que los humanistas ayudaron a restablecer, como lo había empezado a hacer Tales de Mileto unos dos mil años atrás, la plena autonomía de la naturaleza, de modo tal que apareciera como digna de ser estudiada no sólo de manera general sino también en sus estructuras particulares (y aquí vemos la influencia triunfante del nominalismo de Guillermo de Ockham). No es que el programa renacentista careciera de un trasfondo teórico general, pero, cada vez más, se fue cargando con las demandas de lo práctico: no se trata ya solamente de lograr una atractiva construcción intelectual que explique las cosas, sino, más bien, de obtener conocimientos que sirvan para la acción en el mundo.
Estos conocimientos técnicos son, precisamente, los que el intelectual renacentista se siente autorizado a valorar gracias a su interpretación operativa, no contemplativa, del saber. El nuevo enfoque, que exige la experimentación, tiende a transformar radicalmente el propio método de estudiar la naturaleza, renunciando de manera definitiva a hacer coincidir la ciencia con la investigación de teorías generales destinadas a explicar la totalidad del universo en un sistema cerrado y completo. Detrás de ese nuevo método, lo que se percibe es el progreso de una visión individualista del mundo, que concede la primacía a la experiencia personal, a la intuición inmediata e incomunicable, al encuentro directo con lo real concreto.
La masiva influencia de la ciencia y la literatura antiguas (es la época de los grandes descubrimientos de los códices, y de la lectura de los clásicos en su versión original, y no a través de traducciones, o de copias de copias medievales corrompidas) apenas altera la convicción del sabio renacentista de que es él el único y total responsable de todo, dado que lo que se les pide a los antiguos son, ante todo, hechos. El sabio del siglo XVI está convencido de abordar libremente la naturaleza con las únicas fuerzas de su genio.
Y sin embargo, y a pesar de lo que puedan pensar los humanistas, el Renacimiento debe mucho, pero mucho, a la Edad Media: de las universidades europeas medievales provienen los saberes desde los que emergen las teorías de los estudiantes del siglo XVI, aunque estos saberes ya no los limitan, sino que los estimulan a profundizar en el conocimiento de la naturaleza.
Tal vez por todo lo que conté en el capítulo anterior y estoy contando en éste, podría parecer que pienso que la ciencia moderna se construyó cuando el espíritu experimental se consolidó frente a los grandes sistemas teóricos, o a los grandes sistemas complejos y completos que se heredaban de la Edad Media, y también de la Antigüedad.
No fue así.
La ciencia moderna no es simplemente un programa experimental: lo que ocurrió es que el método experimental fue tomado directamente y con continuidad de la Edad Media, como vimos, mientras la fuente teórica, en cuya base estaba la matematización —que también tuvo un importante arraigo en el siglo XIV— necesitaba un replanteo mucho más radical.
O sea: hubo transiciones y continuidades. Y hay dos personajes que las encarnan bastante bien: Paracelso (1493-1541), el científico-mago, y Leonardo da Vinci (1452-1519), el científico-técnico. Hablemos un poco de ellos.

§. Paracelso: no hay tutía
No sé por qué me resulta tan desagradable este personaje, que es en general situado como una bisagra entre la medicina medieval y la moderna, entre la alquimia y la química: un típico renacentista. Hay quienes lo consideran pintoresco (lo era); hay quienes lo consideran extravagante (lo era); hay quienes lo consideran genial (¿lo era?), y hay otros que piensan, como yo, que sencillamente estaba loco de remate. Pero, así y todo, jugó su papel en esta compleja transición.
Ya les conté que la medicina medieval se había desarrollado, si cabe el término, como una mezcla de saberes que combinaban la siempre presente medicina popular con el uso de oraciones, pedido de milagros e intervención divina. La salud se consideraba principalmente como un estado espiritual y, por lo tanto, la curación del alma era tanto o más importante que la del cuerpo (lo cual significaba que, siempre y cuando el espíritu fuera purificado, no tenía mayor relevancia si uno terminaba vivo o muerto). Pero no sólo se usaban las invocaciones religiosas, sino algunos principios galénicos y remedios, principalmente vegetales, aunque también animales o minerales. Las recetas, extravagantes por cierto, incluían ingredientes como carne de serpiente, canela, madera de cedro, raspaduras de marfil, cortezas de limón, perlas, esmeraldas, médula y corazón de un ciervo, un escarabajo y cuerno de unicornio —es de suponer que molido—, oro, plata y azúcar (y esto, lo crean o no, está tomado de una receta de Copérnico, nada menos, que era también médico). Vaya a saber lo que le pasaba a uno cuando tomaba un mejunje como ése, o cuando tenía la suerte de conseguir tutía, palabra derivada del árabe tutiya (que no era sino sulfato de cobre), que se usaba en principio para enfermedades oculares pero que luego se convirtió en una especie de panacea y que, dicho sea de paso, dio origen a la expresión actual «no hay tutía», que significa, como saben, que no hay remedio, que se carece de solución para un determinado problema.
Obviamente persistía —no sé si hace falta decirlo— la teoría (casi una costumbre) de los cuatro humores y las cuatro cualidades. Para Galeno (autoridad indiscutible, recordemos) el organismo humano contenía cuatro fluidos o humores de cuyo equilibrio interior dependía la salud: la sangre, la bilis amarilla, la bilis negra y la flema, a cada uno de los cuales le correspondían dos cualidades (a semejanza de las que determinaban las cuatro sustancias fundamentales). Los remedios que se usaban, siguiendo la tradición de los grandes médicos árabes como Avicena, tenían en cuenta esas cualidades: si había un exceso de calor, por ejemplo, se aplicaba un remedio frío…
En todo este caos de medicinas populares y teorías médicas fantasiosas apareció la figura de Philipus Aureolus Theophrastus Bombastus von Hohenheim, o Paracelso, quien se puso su propio apodo (no demasiado humilde) para significar que se consideraba más grande que Celso, el enciclopedista romano del siglo I, que, sin ser médico, había compilado una admiradísima enciclopedia del saber medicinal de su tiempo, que se acababa de traducir y había tenido un enorme impacto.
Fiel al espíritu de la época, o a una de las líneas de la época, Paracelso no renunció a la mística alquimista sino todo lo contrario. No solamente buscó alquímicamente la piedra filosofal y el elixir de la vida, sino que incluso dijo haberla encontrado, y consecuentemente se proclamó inmortal, aunque parece que el elixir no funcionó del todo, porque murió antes de los cincuenta años. No se entiende muy bien por qué un médico que tiene el elixir de la vida siguió practicando «curaciones» por otros medios, pero todo indicaría que en realidad no había encontrado ningún elixir y que fue otra de sus muchas fanfarronadas.
Paracelso era un empírico puro que se había formado en su juventud junto a los mineros de la región de donde procedía, lo cual debe de haber inspirado su afección por el uso de metales. Negaba por principio toda teoría heredada, lo cual siempre es un poco imprudente (como bien sabían los hombres de Chartres antes que él) e incluso quemó públicamente los escritos de Galeno y Avicena, atacando la integridad de la teoría tradicional no sólo en sus aspectos teóricos sino también en los relacionados con la forma de recuperar la salud. Descreyó de la teoría de los cuatro humores, lo cual hubiese podido ser una buena cosa, pero los reemplazó por los dos principios de la medicina árabe (mercurio y azufre), a los que agregó la sal, lo cual en el fondo no hacía una gran diferencia.
Entre borrachera y borrachera, entre copa y copa o, mejor dicho, entre barril y barril, Paracelso pensaba que todos los procesos vitales eran fenómenos semejantes a los que se podrían observar y reproducir en sus morteros, hornos, retortas y alambiques. Es decir, eran todos —tanto vitales como no vitales— fenómenos químicos. Los cambios que llevaban de un mineral a una espada no eran de naturaleza distinta de los que determinaban la salud o la enfermedad en el ser humano. La enfermedad no era otra cosa que una mala mezcla de los tres principios: la melancolía y la parálisis, por ejemplo, se debían a un exceso del principio mercurio; la diarrea y la hidropesía, a la sobreabundancia del principio sal; el calor y la fiebre, al exceso del principio azufre. ¿Cómo restablecer el equilibrio perdido y recuperar la salud, entonces? Obviamente, incorporando al organismo enfermo determinados productos químicos capaces de reparar el déficit de un principio o el superávit de otro. Para ello, utilizó fundamentalmente como medicamentos sales de metales pesados, sustancias que hasta ese momento habían sido consideradas como venenos: todo depende, decía, de su dosificación. Cosa difícil, en verdad, en una época que carecía de instrumentos precisos de medición, y arriesgaba al paciente, como frecuentemente ocurría, a recibir dosis verdaderamente tóxicas de elementos como el mercurio, que se utilizaba para combatir la sífilis y que mataba antes que la propia enfermedad.
Al mismo tiempo, como firme creyente en la astrología, y en consecuencia en una estricta correspondencia entre macrocosmos (el cielo) y microcosmos (el cuerpo), sostenía la necesidad de indagar al primero para actuar sobre el segundo: las fuerzas mágicas que regían el macrocosmos eran en efecto —según él— las más idóneas para actuar también sobre el microcosmos, interrogando sus enfermedades. Correspondía estudiar el cielo y la conjunción de los planetas antes de hacer un diagnóstico y medicar… Digamos, en su defensa, que prácticamente todos los médicos de la época hacían lo mismo, de modo tal que por ahí uno tenía que esperar una conjunción, o proximidad, entre Marte y Júpiter, para ser obligado a saborear un poco de carne de serpiente, o de cuerno de unicornio molido, o de mercurio, o para que le hicieran una sangría que podía dejarlo al borde de la muerte.
Al proponer una ruptura total con la antigua tradición, Paracelso tenía necesariamente que ser identificado como un enemigo por la mayor parte de los médicos que lo conocieron. Y efectivamente tuvo la oposición del establishment médico, no sólo por sus posturas anti galénicas, sino porque no pertenecía a la cofradía médica, ya que no se había formado en las universidades, y además porque enseñaba en alemán en vez de en latín, de lo cual, y de una controversia alrededor de honorarios, resultó su expulsión de Basilea. Esto tampoco lo contuvo y se pasó el resto de su vida viajando y denunciando furiosa y fanáticamente a sus enemigos y predecesores, hasta que murió en Austria en septiembre de 1541.
Lo cierto es que sus enemigos y predecesores no eran mucho mejores médicos que él ni se manejaban con una teoría mucho mejor que la de él. Después de Paracelso, la química (que no era muy distinguible entonces de la alquimia, y sólo lo es ahora, desde una mirada actual) se fue convirtiendo de a poco en una parte esencial de la formación médica. Durante casi todo un siglo, los médicos se dividieron en paracelsistas, partidarios de la administración de minerales, que habían de llamarse iatroquímicos, y herboristas, que se atenían a los remedios vegetales. Es interesante ver cómo esta tensión aún sigue vigente, aunque degradada, por el uso new age de la división entre «natural» y «químico».
Y respecto de la alquimia, hay que decir que nuestro personaje fue indiscutiblemente uno de los protagonistas principales. Creyó, por supuesto, que era posible la transmutación de los metales en oro. Fíjense que esta historia de la transmutación de los metales puede parecer disparatada desde el punto de vista actual, pero no lo era tanto si, como se creía, el cambio de los metales desde los menos perfectos hacia los más perfectos era una de las tareas que llevaba a cabo la naturaleza, haciendo que evolucionaran en el interior de la tierra, por influencias astrales, desde el más bajo, plomo, y pasando por los intermedios, como el cobre, el hierro y la plata, hasta transformarse en oro. Si la naturaleza lo hacía, ¿por qué no iba a poder hacerlo el hombre? ¿Por qué no se iba a poder acelerar manualmente este proceso?
En sus investigaciones alquímicas, buscando lo imposible, el excéntrico Philipus Theophrastus logró añadir algunos datos que serían de utilidad para el saber químico que estaba gestándose, por ejemplo la observación de que mientras los vidrios se derivaban de un metal, los alumbres se derivaban de una «tierra», es decir, un óxido metálico.
En fin: Paracelso perteneció por completo a la tradición hermética, y, por lo tanto, concibió a la ciencia como una empresa puramente cualitativa no matemática, experimental e inductiva, al punto de que uno de sus discípulos, respirando las enseñanzas de su maestro, aconsejaba «vender todas las posesiones, quemar los libros (en una época que veneraba los libros clásicos) y empezar a viajar en busca de todo tipo de datos de la naturaleza; comprar después carbón, construir hornos y experimentar incansablemente con el fuego».
No sé si quedó claro por qué me parece un personaje sobrevalorado e insoportable, pero yo tampoco lo tengo claro. Así que basta de Paracelso.

§. Volar es para los pájaros
Cuando La Gioconda viajó del Louvre a Nueva York en 1962, ninguna compañía fue capaz de asegurarla. Y no porque el monto fuera muy alto, sino porque fue imposible fijar un monto, imposible asignarle un valor monetario; estaba más allá de todo: es lo más que un artista puede esperar de una obra suya. Y de ese artista nos vamos a ocupar por un rato; porque así como Paracelso representa la línea místico-mágica, Leonardo da Vinci encarna la línea técnico-operativa.
Pocos intelectuales del Renacimiento han recibido tantos elogios, o se han convertido tan claramente en la encarnación del genio universal como Leonardo: en efecto, además de pintor, fue ingeniero, anatomista, diseñó fortalezas y canales, estudió la incipiente mecánica, inventó —o creyó inventar— montones de mecanismos y máquinas, en la tradición de Arquímedes, como tornillos para elevar el agua, paracaídas, bombas de irrigación… etcétera, etcétera, etcétera.
Nació en 1452, y era el fruto de una relación extramatrimonial de su padre Piero con una tal Catherine; hacia 1470 se trasladó a Florencia con la familia paterna y empezó a hacerse conocido por los numerosos dibujos de máquinas, proyectos hidráulicos y arquitectónicos, que le valieron ser llamado por Lorenzo el Magnífico, entonces el jefe de la Signoria, y de la poderosa familia de los Médicis, para trabajar bajo su tutela.
También él fue uno de esos caballeros errantes del Renacimiento, que iban de un lugar a otro, a veces llevados por los acontecimientos políticos, a veces movidos por sus propias e internas hormigas. Y así es como unos años después lo encontramos en Milán, al servicio del duque Ludovico Sforza el Moro. Es muy interesante ver la carta que envía a Ludovico, como presentación, en la que enumera las cosas que sabe y puede hacer:
Tengo especies de puentes livianísimos y fuertes, y otros seguros e inatacables por el fuego. Sé, en el sitio de una plaza, sacar el agua de las zanjas y hacer infinitos puentes y escaleras y otros instrumentos pertinentes. Si por alguna razón no se pudieran usar las bombardas, tengo maneras de arrasar cualquier fuerte o roca. Tengo, también, tipos de bombardas comodísimas y fáciles de transportar. Y si se estuviese en el mar, tengo muchos instrumentos activísimos para atacar y defender los navíos.
Y así sigue:
En tiempos de paz, creo satisfacer muy bien, en comparación con cualquier otro, en arquitectura, en construcción de edificios públicos y privados, y de conducir agua de un lugar a otro. Lo mismo haré en escultura de mármol, bronce o tierra, lo mismo que en pintura, todo lo que se pueda hacer mejor que cualquier otro.
Todo el mundo exagera su currículum cuando busca empleo (y Leonardo no es la excepción), pero de cualquier manera hay que admitir que es muy impresionante. También observen que despliega su panoplia centrándose en aparatos y objetos relacionados con la guerra, obsesión de los príncipes en un tiempo plagado de novedades bélicas, derivadas del uso de la pólvora.
Fue durante su permanencia en Milán cuando trabó amistad con el matemático Luca Pacioli, quien escribió una Summa de Arithmetica, que recogía todo el saber matemático de su tiempo, y también De Divina Proportione, donde se hablaba del número áureo y de la perspectiva, y para la cual Leonardo dibujó maravillosas imágenes de poliedros tanto regulares como irregulares.
Después de que el duque fuera derrocado por las tropas del rey francés Luis XII, llegó a Florencia nuevamente, tras haber recorrido Mantua y Venecia, donde dejó trazas de su impresionante actividad: pictórica en Mantua, técnica en Venecia (donde diseñó una especie de submarino y otros aparatos). Mientras tanto, se dedicaba a la disección de cadáveres (muchos de los cuales conseguía quién sabe cómo y otros seguramente los robaba), lo cual le servía, como se sabe bien, para hacer estupendos dibujos del cuerpo humano interno y externo, que sólo serían igualados por los de Vesalio, unas cuantas décadas más tarde.
Bueno, y así en todas partes: durante su segunda estadía en Florencia pintó La Gioconda y siguió con el estudio del vuelo de los pájaros, con las disecciones y con los consecuentes dibujos. Salteé y saltearé muchas andanzas, pero déjenme contarles que finalmente aceptó la invitación del rey Francisco I de Francia y se estableció en el castillo de Cloux, donde murió en 1519.
¿Hay un misterio en Leonardo? Lo hay.
Si bien es innegable que leía, y mucho, se definía a sí mismo como eminentemente práctico y como un «uomo senza lettere», lo cual demuestra, de paso, el espíritu del «práctico renacentista», muy distinto del humanista eminentemente letrado que lee y escribe en latín clásico. Como buen personaje del Renacimiento, Leonardo tomaba en consideración los datos que obtenía en la literatura científica, aunque revisándolos puntillosamente, y no aceptando el principio de autoridad:
Quien discute alegando la autoridad, no utiliza la mente sino la memoria.
Al mismo tiempo, rechazaba de manera rotunda (a diferencia de Paracelso) las artes ocultas, la nigromancia y la alquimia.
Entre los discursos humanos más sin sentido debe considerarse la credulidad en la nigromancia, hermana de la alquimia.
Ya he dicho que Leonardo tenía una conciencia muy aguda de la importancia de lo experimental:
Muchos considerarán que podrán razonablemente replicarme, alegando que mis pruebas están en contra de la autoridad, sin considerar que mis cosas han nacido bajo la simple y mera experiencia, que es la verdadera maestra.
Y lo repetía a cada rato…
La experiencia no falla, lo único que puede fallar son los juicios que se hacen sobre ella.
Incluso tipificaba el método con que debía realizarse una experiencia para errar lo menos posible:
Antes de hacer de un caso una regla general, pruébalo dos o tres veces, y mira si las pruebas producen efectos semejantes.
Sin embargo, su concepción no era completamente experimental y en sus estudios mecánicos se ocupaba de aclarar que:
Mientras la naturaleza comienza con la causa y termina con el experimento, nosotros debemos recorrer el camino inverso, comenzando con el experimento mediante el cual investigamos la causa.
Y por lo tanto:
Ninguna investigación humana puede considerarse verdadera ciencia, a menos que se haga mediante una demostración matemática.
O sea, intuía esa síntesis entre experimentación y matemática que habría de producirse un tiempo después cuando se coronara la Revolución Científica.
¿Cuál es entonces el misterio?
Que siendo un espíritu universal como pocos en la historia, y el intelectual más destacado de su tiempo, y el más completo y genial, que habiendo llegado a resultados notables y anticipatorios, haya ejercido una levísima y casi nula influencia sobre sus contemporáneos (ejerce más influencia sobre nosotros que sobre ellos): su prosa es críptica, escrita de manera también críptica, fragmentaria, dispersa por aquí y por allá, en manuscritos que, salvo rarísimas excepciones, no fueron publicados. Se diría que no escribía para lograr el adelanto de una disciplina, ni para los eruditos, ni para el gran público, sino sólo para sí mismo, para poder fijar sus propias dudas y cavilaciones. Renegaba de las disciplinas herméticas, pero su escritura parece inspirada por ellas, y sus manuscritos fueron revalorados recién en el siglo XIX.
De todos modos, no es la figura que es por lo que influyó, sino por lo que fue: la perfecta encarnación del artista práctico, ingeniero y arquitecto del Renacimiento, que se interesa por todo, y que, sin abandonar las grandes líneas de la física medieval, se eleva por encima de ella y captura, o mejor dicho intenta capturar, la naturaleza toda, pero no como un sistema metafísico completo, ni como un sistema de signaturas orgánicas y operativas, como lo hacían las artes herméticas (que como vimos aborrecía), sino como un conjunto o una colección de hechos particulares, que deben ser examinados, hilados y manipulados según un criterio experimental para poder después llevarlos al plano teórico.
Recién en el siglo XIX se lo rescató en toda su amplitud. Y digo en toda su amplitud, porque lo que sí lo puso al tope de su época fue su obra artística, que lo sitúa entre los pintores más grandes de toda la historia. Valga como ejemplo la historia de La Gioconda que conté al principio. Y a veces me pregunto si a Leonardo se lo hubiera rescatado si no hubiese sido porque a través de los tiempos, y a pesar de sus manuscritos ilegibles, ahí estaban sus tremendos cuadros para dar testimonio de su genio.
Una apostilla sobre el vuelo artificial, que tanto lo preocupó. Leonardo intentó persistentemente diseñar máquinas para volar, pero de manera tal que estaban naturalmente condenadas al fracaso. Lo cierto es que tales intentos, desde Leonardo da Vinci en adelante, terminaron en un callejón sin salida porque se tomaba como modelo el vuelo de las aves y se intentaba reproducirlo con artilugios mecánicos que imitaban las alas.
Pero volar es para los pájaros: las cosas empezaron a cambiar recién cuando los ojos se posaron en otro objeto volador, mucho más prosaico, y conocido desde la Antigüedad: el barrilete, que era utilizado en Europa como juego por los niños ya en el siglo XII. Se trata de un objeto más pesado que el aire, que vuela según unas leyes que Leonardo no conocía (las de la aerodinámica) pero de las cuales podría haber tenido alguna intuición empírica y sospechado que un barrilete lo suficientemente grande podría acarrear a un hombre, como hace hoy el aladelta. Y como se hacía, de paso sea dicho, en China, donde los barriletes eran conocidos desde el siglo III y ya en el siglo VI hay referencias de vuelos humanos.
El mérito de Leonardo es que intuyó algo de esto, y, en las observaciones sobre el vuelo de las aves grandes, que baten poco las alas y planean durante largos trayectos, estuvo a un milímetro de formular las leyes aerodinámicas que rigen el vuelo del barrilete.

§. El martillo de las brujas
Hacia 1460, Marsilio Ficino (1433-1499), otro de los grandes humanistas italianos del Renacimiento, tradujo partes del Corpus Hermeticum, de Hermes Trismegisto, y su traducción tuvo un sinnúmero de reimpresiones y retraducciones. Era un texto que, según se creía, se remontaba a la más antigua o arcaica tradición egipcia, aunque se trataba de una falsificación escrita en el siglo II d.C., como se demostró hacia 1614. Es difícil entender cómo los humanistas, que se consideraban grandes filólogos, cayeron en esa trampa (a menos que quisieran caer en ella), pero lo cierto es que el Corpus se transformó en la base filosófica y el armazón del pensamiento de la época.
Porque el Renacimiento no es sólo el tiempo de los humanistas sino también el de los magos. La magia y la alquimia se confundían con la ciencia experimental, con la que compartían la tarea común de trabajar con sustancias concretas y objetos materiales, tal como vimos que hacía Paracelso, con sus desvaríos astrales y metalíferos, o como haría el matemático y médico Gerolamo Cardano (que era una buena pieza de corte paracelsiano, pero que, además, se dedicaba a robar ideas de los demás, especialmente al pobre Tartaglia, que no apareció todavía pero cuya triste historia voy a contarles en algún momento), o Gianbattista dalla Porta, que escribió una Magia Naturalis.
La palabra «magia» se originó en los magi, sacerdotes del dios Mitra (el dios persa de la luz solar, con gran influencia en la Roma imperial tardía) que fueron reconocidos como «sabios» por la cultura griega. La magia estaba, de algún modo, asociada a la sabiduría, como aparece en los cuentos tradicionales folklóricos. Y esta imagen incluso subsiste en la figura del «sabio loco» moderno: pensemos, por ejemplo, en el Dr. Emmet Brown (Christopher Lloyd), el científico de Volver al futuro de Zemeckis, a quien se lo presenta funcionalmente como un hechicero excéntrico y solitario, que se dedica a prácticas que nadie más que él comprende (y que, por lo tanto, parecen mágicas), pero que, finalmente, es el que tiene razón y resuelve los problemas.
La magia, o la creencia en la magia, está naturalmente asociada a la brujería, cuya persecución empezó a arreciar en esta época, desatando una etapa verdaderamente trágica: la propia Iglesia aceptaba como verdaderos los poderes de los brujos y magos, pero sostenía que estaban canalizados de mala manera, dado que el camino correcto para obtener beneficios de cualquier tipo de ser sobrenatural debía pasar inexorablemente por el clero de Dios. No importaba si la magia se practicaba para fines buenos o malos: los medios, absolutamente independientes de los que dictaminaba la Fe, eran signo claro de herejía, cosa que venía de lejos. Por eso, amablemente, el Éxodo XXII, 18 sugería:
No dejarás con vida a la bruja.
Pero comprobar que una bruja era efectivamente una bruja resultaba más difícil de lo esperado. Como las pruebas que la delataban eran inconsistentes, se inventaron evidencias ad hoc y se asignaron propiedades maléficas a determinadas cosas que, hasta entonces, habían sido perfectamente neutras. La creencia de que las hechiceras amamantaban a sus hijos con sangre o con un tercer pecho llevó a considerar cualquier malformación en el cuerpo en un determinante irrefutable de brujería. Ni hablar si, en la «escena del crimen», se encontraba algún inofensivo muñequito estilo vudú.
La primera condena formal a estas prácticas llegó en el siglo XII, cuando se incorporó al Corpus Juris Canonici un pasaje que repudiaba a
ciertas mujeres desamparadas, pervertidas por Satanás, que creen y confiesan cabalgar a lomos de ciertas bestias juntamente con la diosa Diana.
Según este texto, los actos de las brujas eran fantasías surgidas durante el sueño, y creer que fueran posibles durante la vigilia era herético. Más tarde la Iglesia cambiaría de opinión y empezaría a considerar aquellos actos no como producto de sueños sino tan reales como la Santísima Trinidad.
A mediados del siglo XV, la Iglesia no estaba del todo conforme con las labores inquisitoriales que se estaban practicando en algunos distritos. Muchos laicos e incluso algunos clérigos se negaban a dejar actuar libremente a los encargados de interrogar y asesinar brujas, con el sencillo argumento de que en sus provincias no se practicaban «esas enormidades». En ese contexto llegó la bula de Inocencio VIII, en 1448 (¡pleno Renacimiento y florecimiento del Humanismo!). En ella se establecía la primera definición oficial de la brujería y su clara asociación con la herejía y se designaba a dos inquisidores, Heinrich Kramer y Jacobus Sprenger, para que procedieran a la corrección, encarcelamiento y castigo «justos» de cualquier persona sin impedimento ni obstáculo alguno.
Kramer y Sprenger, dos estudiosos teólogos, se convertirían en fundamentales para la persecución luego de escribir lo que sería el manual más detallado y espeluznante de tortura, castigo y asesinato de las brujas: el Malleus Maleficarum (Martillo de las brujas) es un texto «erudito» publicado por primera vez en 1486 —otra vez, pleno Renacimiento— y aprobado unánimemente por los doctores de la facultad de teología de la Universidad de Colonia, Alemania. En él, Kramer y Sprenger detallan y analizan los hechizos que las brujas son capaces de practicar: el texto parece, hoy en día, una obra fantástica escrita por dos maniáticos homicidas, pero en su momento fue la justificación escrita incuestionable de la matanza que tendría lugar en los siglos XVI y XVII.
Los capítulos alternaban la pura crueldad con la imaginación perversa. En primer lugar, los inquisidores dejaban en claro que no creer en la brujería era signo inobjetable de herejía. Luego, explicaban cómo debía ser el procedimiento cuando se tenía un detenido: en primer lugar, se lo llevaba desnudo («si es mujer, ha sido desnudada ya por otra mujer intachable») a que viera los instrumentos de tortura para que, sin que se los aplicaran, confesara «libremente». Pero si la mujer, aterrada, confesaba, lejos de terminar, el infierno apenas comenzaba: la tortura duraría tanto cuanto se pudiera para que delatara a sus «compañeras de andanzas».
Si no confesaba, los suplicios eran cada vez más siniestros: se utilizaban tiras de azufre a las que se les prendía fuego sobre el cuerpo del acusado y toda clase de prácticas perversas, hasta que, cuando el condenado finalmente confesaba, era trasladado (en general en una camilla, porque no podía moverse por sus propios medios) a la pira, donde, si no se arrepentía de su confesión, se le concedía la gracia de ser estrangulado antes de quemado y se le exigía, antes de morir, que reconociera que la sentencia había sido precisa y el juicio, justo.
Lo cierto es que la persecución y quema de brujas se convirtió, más temprano que tarde, en un verdadero negocio para todas los que participaban en ella: el jugoso botín que representaba la confiscación de los bienes de ciertas brujas nobles no era para nada despreciable… muchas personas directamente vivían de la caza y quema de brujas, ya que era un trabajo muy bien pago: Matthew Hopkins, el joven inquisidor que lideró la masacre en Inglaterra entre 1645 y 1647, obtenía alrededor de treinta libras al día, cuando el salario medio era quinientas veces menor.
Pero es interesante ver la reacción de las clases ilustradas y de los científicos alrededor de esta siniestra manía persecutoria. Uno esperaría que el avance del racionalismo que se estaba dando en los siglos XV, XVI y especialmente en el XVII, hubiera producido una condena unánime, pero no fue así. Personajes ilustres, incluso con mentalidades amplias e inmersos en la revolución racionalista de esos tiempos, propugnaron la caza de brujas con la misma inusitada crueldad que los inquisidores más fanáticos.
Un buen ejemplo es Jean Bodin (1529-1596), un filósofo, político y jurista francés con ideas revolucionarias sobre la democracia, precursor de las teorías económicas de Adam Smith y de la idea del Estado moderno y la soberanía e impregnado de humanismo renacentista quien, lejos de pugnar por la tolerancia, se dedicó a cazar y torturar a cuanta bruja se le cruzara por el camino. En 1580, al final de su vida, Bodin escribió una obra propia, De la Démonomanie des sorciers, que tuvo diecisiete ediciones hasta 1603 y que es, si cabe, más perversa que el Malleus.

§. El prestigio del demonio
Pero sin embargo no faltaron quienes, desde la incipiente ciencia experimental, combatieron la caza de brujas, para lo cual, dicho sea de paso, había que tener mucho coraje. El más importante fue sin duda Johannes Weyer (1515-1588), un médico del siglo XVI que se había interesado desde temprano por las enfermedades mentales.
En 1564, en su libro De Praestigiis Daemonum (El prestigio del Demonio), Weyer negaba que la brujería fuera un fenómeno genuino y menos que menos una amenaza para el cristianismo. Exigía, como buen científico, pruebas tangibles, aduciendo que nadie había visto hasta entonces las reuniones de brujas con Satanás y que nadie había cabalgado por los aires en compañía de una bruja; frente a acusaciones concretas, como la de que cierta enfermedad del ganado estaba provocada por hechizos, sugería que, en vez de quemar a una pobre mujer en la hoguera, era más aconsejable una fumigación con sustancias aromáticas y azufre. Decía:
Los médicos desinformados y torpes atribuyen todas las enfermedades incurables, o todas las enfermedades cuyos remedios desconocen, a la brujería. Cuando hacen esto, hablan de la enfermedad del mismo modo que un ciego sobre el color. Cubren nuestra ignorancia de la medicina con el truco de los maleficios, siendo así que son ellos mismos los que los practican.
Según Weyer, las brujas no eran más que enfermas mentales. Para demostrarlo, investigó «experimentalmente» varios casos de brujería mostrando que no tenían base alguna, entre ellos uno de los episodios más famosos de posesión, el de las monjas de Colonia en 1564, en el que demostró claramente que las violentas convulsiones no eran provocadas por visiones religiosas o demoníacas sino por las «visitas» de ciertos caballeros cercanos al convento que les habían prodigado «atenciones especiales». Las monjas habían transformado (hoy diríamos: «sublimado») romances intensos en exaltación religiosa.
Weyer, como era de esperar, fue atacado por la Iglesia y por la propia corporación médica. Pero, para muchos historiadores de la medicina, es uno de los fundadores de la moderna psiquiatría; de hecho, es uno de los primeros en describir de manera racional varias alteraciones mentales, muchas de las cuales aún hoy en día son consideradas por la mitología popular (en general rural) como causadas por demonios, brujas y otras invenciones fantásticas.
Curiosamente, tal vez para protegerse de las embestidas de la Iglesia o para burlarse (o en una de ésas porque se lo creía), Weyer publicó también Pseudomonarchia Daemonum, un detallado catálogo de demonios y sus atributos en 1563. Según su inventario, hay exactamente 7.405.926 íncubos y súcubos divididos en 1.111 divisiones de 6.666 cada una.
El Prestigio del Demonio tuvo muchísima repercusión y varias ediciones, y fue, para su honor, colocado en el Índex de libros prohibidos por la Iglesia. Pero francamente, más que su contribución a la psicopatología, nada desdeñable por cierto, resalta su ubicación en la línea humanitaria del humanismo y en la comprensión de la brutalidad a la que se sometía a cantidades espantosas de víctimas: los cálculos hablan de un número que va de 300.000 a un millón de asesinatos.
Los procesos de brujas, sin embargo, no se detuvieron y el genocidio se arrastró durante todo el siglo XVI, XVII y aun el muy racionalista siglo XVIII. Tengo el dato (no corroborado) de que la última bruja fue quemada en 1782.
Y aún hoy hay quienes se consideran brujos y brujas; delante de mí una de estas personas, en pleno siglo XXI, afirmó en un programa de televisión que era capaz de matar a una persona a la distancia. Le sugerí que me matara a mí, en vivo, lo cual hubiese representado un éxito de rating enorme y un evento único en la historia de los medios de comunicación. Pero se negó.
Los procesos culturales son lentos, lentísimos.

Capítulo 11
Un sinuoso camino hacia la Revolución Científica

Tal vez se hayan dado cuenta de que, hasta ahora, hablando del Renacimiento, hice todo el esfuerzo posible por no nombrar a Aristóteles, lo cual me obligó a verdaderos malabarismos. Lo que pasaba es que estaba un poco cansado de verlo aparecer a cada rato, y supongo que ustedes también lo estarían. Y, de hecho, lo mismo les pasaba a los propios renacentistas. Pero ahora se vuelve imposible esquivarlo porque justamente lo que vamos a ver es cómo empezó a derrumbarse el universo que Él había inventado.
De todos modos, hay que decirlo, no deja de sorprender cómo la cultura y las ideas científicas (y filosóficas, y políticas) siguieron moviéndose al compás de los flujos y reflujos de Platón y Aristóteles: platonismo durante la patrística, aristotelismo en la escolástica, neoplatonismo en el Renacimiento…, todo sigue atado a los griegos y a las idas y venidas de las traducciones e introducciones de sus libros en el torrente de la cultura occidental. Recién después de Descartes y los filósofos del siglo XVII, y especialmente Galileo, la tradición se inventará un nuevo punto de partida y podrá olvidarse un poco de Platón y Aristóteles.
Intentaré, en estas páginas, agotar el Renacimiento —si es que tal cosa es posible, y es obvio que no lo es, pero yo soy incorregible— antes de exponer el Gran Tema que pienso dejar para el próximo capítulo: la teoría del movimiento, y el modo en que siguiendo su hilo y sus avatares se produjo la gigantesca revolución científica de los siglos XVI y XVII.
Empecemos, entonces, por uno de los acontecimientos políticos y religiosos fundamentales de la época: la Reforma.

§. La Reforma
El 31 de octubre de 1517, Martín Lutero, un fraile católico formado en la tradición agustiniana, fijó en la puerta de la Catedral del Castillo de Wittenberg, del norte de Alemania, donde había una importante universidad, una lista de 95 tesis que atacaban muy duramente a la Iglesia Católica. Corrieron como reguero de pólvora gracias a la reproducción permitida por la recientemente creada imprenta e iniciaron una verdadera fractura de la cristiandad que se prolonga hasta hoy.
El tema central de las tesis, aquel que les daba su título, era la denuncia de las indulgencias, un invento no muy elegante del papado para hacerse de algunos dinerillos extra (bastantes, en realidad): a cambio de una cierta suma se perdonaban pecados o se reducía el tiempo de permanencia en el purgatorio. Una indulgencia era un pagaré extendido contra el paraíso.
Pero a nuestro personaje no le interesaban solamente las indulgencias: convencido, como lo habían estado los humanistas algún tiempo antes, de que entre el momento de los grandes textos clásicos (en su caso, el único texto a considerar era la Biblia) y su propia época había habido poco más que un rejunte de charlatanes que se habían ocupado de distorsionar la palabra autorizada, Lutero se propuso arrancar nuevamente desde cero, olvidar a los comentadores, romper con las instituciones y establecer un contacto más directo con Dios, lo cual sólo era posible, según creía, a través de la lectura del texto desnudo y literal: de hecho, proclamó la libre interpretación de la Biblia —que el catolicismo reservaba a la Iglesia y él mismo se encargó de traducirla al alemán—. Fue publicada finalmente en 1534 y la imprenta se encargó de multiplicar los ejemplares. Ahora, cada uno podía leerla por sí mismo sin intermediaciones. Y la verdad es que, existiendo la imprenta, era imposible mantener el secretismo bíblico, más acorde con el lento circular de los manuscritos. Fue una bomba. Y no es que el asunto fuera del todo nuevo: en realidad, durante dos siglos se habían ido produciendo disidencias en el seno de la religión que la Iglesia a veces encuadraba en órdenes, como es el caso de los franciscanos, y a veces extirpaba por el simple expediente de la hoguera o del genocidio (como fue el caso de los cátaros y los albigenses). Pero en el siglo XVI el estado de tensión religiosa era ya insoslayable, y no se podía erradicarlo así como así (suponiendo que la masacre se considere algo «así como así»…).
Había razones políticas, religiosas y hasta sexuales, si se quiere, para que se produjera semejante cisma. Sexuales… sobre esto, me gustaría decir algunas palabras. La historia del celibato sacerdotal católico es bastante sinuosa y ambigua, por cierto, pero tiene una fecha de inicio precisa: en 1074 el papa Gregorio VII establece que toda persona que desea ser ordenada debe hacer primero un voto de celibato y, en 1123, el Concilio de Letrán decreta que los matrimonios clericales no son válidos e impone la exigencia del celibato para el sacerdocio. Lo que rara vez se dice es que esa prohibición, que tiene toda la apariencia de basarse en una pura consideración ética (a saber, que el sacerdote se dedique por entero a sus feligreses), fue una de las causas de que la Iglesia Católica accediera al inmenso poder que sabemos que tiene. La prohibición del celibato coincide con la consolidación del feudalismo europeo, y esto es muy importante porque la propiedad feudal, en principio, no era hereditaria, sino que era una concesión del supremo señor feudal, el rey o el emperador, que regresaba al rey al morir el feudatario. El señor feudal, a su vez, concedía partes de su feudo a sus propios vasallos, que podían repetir el esquema y así se formaba la pirámide. Pero, como es natural, el tiempo volvió costumbre que los hijos heredaran los feudos de los padres (lo cual se consiguió a veces con sangrientas rebeliones llamadas «de los valvasores», «vasallos de los vasallos»). Ahora bien: el concesionario de un feudo no necesariamente tenía que ser una persona (del mismo modo que el feudo no necesariamente tenía que ser tierra, y podía ser un derecho de mercado o de aduana), y podía ser un ente colectivo, por ejemplo, una ciudad. O una institución, como la Iglesia Católica, que fue el principal feudatario de Europa con un treinta por ciento, se calcula, de las tierras totales.
Así las cosas, no era del interés de la Iglesia que un obispo, vasallo a su vez del rey de Francia, intentara que sus hijos (que podían o no ser eclesiásticos) heredaran el obispado que era un feudo muy concreto, con inmensas cantidades de tierras. El celibato aseguraba la unidad feudal de la Iglesia y la conservación de sus enormes riquezas, que al morir cada feudatario, obispo, arzobispo o el mismo Papa, regresaban a la institución. El celibato garantizaba que la Iglesia estuviera a salvo de esos problemas y fuera Una e Indivisible.
El tema de las indulgencias fue el puntapié inicial, pero en verdad era sólo una pequeña muestra representativa de un problema gigantesco e imposible de invisibilizar para la época: el de la corrupción eclesiástica, manifestada en la venta de cargos eclesiásticos y en la vida principesca de obispos, arzobispos y grandes dignatarios, sin excluir al Papa, desde ya. Es lógico que una nueva doctrina que preconizaba la vuelta a la austeridad del cristianismo primitivo, y sus sencillos valores de ahorro y trabajo, tuviera éxito.
Es posible conjeturar que ese éxito también se debiera a los contactos entre algunos aspectos del luteranismo y el espíritu renacentista, fundamentalmente al deseo de renovación manifestado por ambos. El hombre de la nueva religión reformada participaba, de hecho, de algunas características del Renacimiento: no necesitaba conectarse con Dios por medio de un sistema general; no necesitaba que alguien le interpretara la revelación; podía leer por sí mismo. Pero al mismo tiempo es necesario aclarar que Lutero no fue para nada un humanista; por el contrario, pensaba que el trabajo que hacían los renacentistas con los textos antiguos no difería demasiado de lo que los propios humanistas les criticaban a sus antecesores medievales. Al mismo tiempo, creía que el destino del hombre estaba marcado desde el comienzo y que nada ni nadie podía modificarlo. Esto era muy poco renacentista, como es obvio.
Yo les dije que estaba un poco cansado de nombrar a Aristóteles… Fíjense lo harto que estaba Lutero:
¿Qué son las universidades? Hasta ahora no han sido instituidas para otra cosa que para ser «gimnasios de efebos y de la gloria griega» en los cuales se lleva una vida libertina, se estudia muy poco sobre la Sagrada Escritura y la fe cristiana, y el único que allí reina es el ciego e idólatra maestro Aristóteles, por encima incluso de Cristo. Mi consejo sería que los libros de Aristóteles, que hasta ahora han sido reputados como los mejores, sean abolidos junto con todos los demás que hablan de cosas naturales, porque en ellos no es posible aprender nada de las cosas naturales ni de las espirituales… como si no tuviéramos la Sagrada Escritura, gracias a la cual somos abundantemente instruidos en todas las cosas de las cuales Aristóteles no experimentó jamás ni el más mínimo barrunto.
Con esta crítica iba muchísimo más allá que el obispo Tempier, aquel que en 1277 había prohibido las tesis aristotélicas en la Universidad de París. Lo cierto es que a pesar de la pesada atmósfera teocrática reaccionaria que se impuso al principio en las comunidades protestantes (y sirva como ejemplo Calvino en Ginebra), con su carga de pecado y culpa, lectura literal de la Biblia, especulación sobre la gracia y la predestinación y las infaltables hogueras, la Reforma en la Iglesia mostraba que una revolución que lo trastrocara todo era posible. Pronto, y en otro terreno (aunque próximo, ahora que lo pienso, ya que ambos se ocupan del cielo), habría otra.
Quizá los habitantes de la época no lo percibían así, inmersos como estaban en las persecuciones y las devastadoras guerras religiosas; la Iglesia Romana, al comprender la seria amenaza que significaba el protestantismo en cualquiera de sus variantes, lanzó la Contrarreforma y fue tan implacable como sus adversarios.
En realidad, la Reforma tenía también profundas raíces políticas: reflejaba y era un síntoma de la delantera económica que estaban sacando las ciudades comerciales e industriales del norte de Europa (Gante, Brujas, Ámsterdam), o reinos como Inglaterra (que terminó, tras muchas idas y vueltas, plegándose a la religión reformada, aunque en una particular versión inglesa), frente a las potencias italianas que monopolizaban el comercio del Mediterráneo, que justamente estaba empezando a decaer a favor del Atlántico, y aun a España, que derrochaba las enormes riquezas que recibía como producto del saqueo americano en guerras puramente dinásticas y religiosas, de tal modo que ese capital terminó yendo a parar a las ciudades flamencas y hanseáticas. Es perfectamente posible, por eso, que la Reforma no hiciera sino reflejar el nuevo espíritu capitalista —con sus ideales de austeridad, ahorro, trabajo— que florecía en el norte germánico de Europa; no encontramos, allí, el dispendio principesco de la corte papal o las signore italianas.
Pero este espíritu burgués nórdico, más allá de los desafueros doctrinales de un Lutero o un Calvino, es también un espíritu de pesas y medidas, de dinero, de aparatos y ganancias, republicano en muchos casos y opuesto a las persecuciones de la Contrarreforma, que permitió convertir al norte en un lugar donde encontraron refugio pensadores aun católicos, como Descartes, Huygens, Leibniz y muchos otros, sin hablar de la ciencia inglesa.
Como suele suceder, no hay un lazo claro entre la nueva religión reformada, liberadora de la Iglesia como institución, y la Revolución Científica que habría de venir, pero de alguna manera la proliferación de corrientes creaba la sensación de multiculturalismo y, como ya les dije, introducía la idea de una reforma radical en la teología y, por extensión, en las ideas científicas.
Dejemos por un rato este difícil tema (las relaciones entre el desarrollo de la ciencia y los movimientos profundos de la sociedad son siempre complejas) y veamos un poco la manera en que el Renacimiento se enfrentó a la naturaleza.

§. La gran cadena del ser
Ya hemos hablado en algún momento de los toscos intentos medievales de clasificar la creación mediante bestiarios y herbarios que tenían mucho más de fantástico que de científico. Y, sin embargo, no dije nada sobre la gran cadena del ser, una metáfora que pervivió con la tenacidad de los grandes sistemas griegos (acaso porque era de origen griego) y que obstaculizó durante siglos la comprensión del hombre de su propio lugar en la naturaleza. La visión de los renacentistas, de hecho, quedó encuadrada en la tradición de la gran cadena del ser, que era el marco general que se había heredado de la Edad Media.
¿En qué consistía esta «teoría»? En el ambiente culto europeo había consenso general de que el conjunto de los seres vivos estaba ordenado en una escala jerárquica, una cadena continua y sin agujeros, que iba desde los más bajos (que en ocasiones alcanzaban a los minerales) hasta los más complejos. La posición del hombre, por supuesto, era especial: era a la vez la meta y el producto final de la creación material y el centro de toda la escala de las criaturas. El hombre estaba en el ápice de la escala de los seres materiales y en la base de los seres espirituales.
La gran cadena del ser abarcaba a toda la Creación en un ascenso ininterrumpido desde los minerales, pasando por las plantas y su alma vegetativa, los animales y su alma sensitiva y el hombre con su alma racional, que funcionaba como centro, culminación y bisagra con las criaturas espirituales hasta las jerarquías angélicas (que el seudo-Dionisio Areopagita, en el siglo VI, había clasificado en nueve círculos angélicos, en sentido creciente: ángeles, arcángeles, principados, potestades, virtudes, dominaciones, tronos, querubines y serafines). Y, tal vez lo más importante, esta cadena no admitía baches, ni eslabones perdidos (de hecho, es de ahí de donde viene la expresión «eslabón perdido»).
Esta posición intermedia del hombre traía algunos inconvenientes de identidad, como diría algo más tarde el poeta Alexander Pope (1688-1744):
Él permanece en medio, duda si actuar o descansar;
Duda si considerarse un dios o una bestia;
Duda si preferir su cuerpo o su mente.
Los renacentistas no podían evitar tener sus problemas con una cadena así: la asignación de un lugar fijo al hombre en la escala de los seres no era del todo cómoda para quienes, más bien, esperaban una plena libertad de acción. Acaso por eso La Oración sobre la dignidad del hombre del gran humanista Pico Della Mirandola, uno de los documentos más representativos de la época, ensayaba una reinterpretación de la cadena del ser para adecuarla al pensamiento renacentista: el hombre, ahora, se convierte en un eslabón móvil en esa estructura rígida. Según Pico, en el momento de la creación, Dios dijo:
Oh, Adán, no te he dado ni un lugar determinado, ni un aspecto propio, ni una prerrogativa peculiar con el fin de que poseas el lugar, el aspecto y la prerrogativa que conscientemente elijas y que de acuerdo con tu intención obtengas y conserves. La naturaleza definida de los otros seres está constreñida por las precisas leyes por mí prescriptas. Tú, en cambio, no constreñido por estrechez alguna, te la determinarás según el arbitrio a cuyo poder te he consignado.
Este tema de la cadena del ser, sea en su versión medieval o en su versión aggiornata en beneficio de la movilidad del hombre, era un verdadero problema para los estudios biológicos, que se manifestaba seriamente cuando había que intentar encontrar los parecidos, por ejemplo, entre el hombre y una piedra. Es cierto que se recurría a los eslabones perdidos que eran, de algún modo, como los elementos de la tabla periódica que predijo Mendeleev antes de que aparecieran, pero la multiplicación de huecos en la cadena resultaba poco creíble. Y planteaba, si se quiere, un problema teológico: si Dios había creado todas las plantas, animales y minerales, en seis días, y al mismo tiempo, ¿cómo se justificaban los casos notorios de falta de transición? ¿Por qué había huecos? La pregunta ya no podía responderse fácilmente diciendo que se trataba de un misterio en una época en la que se filtraba la idea de un mundo explicable por medio de la razón.

§. El desarrollo de las «ciencias de la naturaleza»
La cadena del ser había sido útil o funcional al menos en las épocas en que toda clasificación biológica se refería a herbarios y bestiarios más o menos fantásticos, ordenados por orden alfabético, o por necesidades de la farmacopea, pero la introducción de nuevas plantas americanas, y la necesidad de unificar las nomenclaturas de las diversas regiones de Europa, ahora conectadas por la imprenta, ponían en jaque el sistema entero y requerían nuevos estándares de clasificación. Lo que ocurría es que no se disponía de un criterio claro y rector, como sería la idea de especie más tarde, concepto que todavía era muy confuso en una época que ni siquiera separaba con total claridad los tres reinos: mineral, vegetal y animal.
Así y todo, hubiese sido raro que no se produjera ningún desarrollo, teniendo en cuenta que a cada rato aparecían nuevas especies americanas, y entre ellas el maíz, el tabaco y la papa, nada menos, que despertaban la curiosidad de todo el mundo. Acaso el más importante de los naturalistas haya sido Konrad Gesner (1516-1565), un autodidacta pobre y vagabundo nacido en el seno de una familia también pobre de Zürich. Este Gesner tenía cierta tendencia a la clasificación: entre 1545 y 1555, por ejemplo, se propuso compilar un catálogo de todos los escritos producidos en griego, latín y hebreo a lo largo de la historia de la humanidad, y llegó a los 1.800 autores. Pero lo más interesante es que, inspirado por algún pasaje de Plinio, Gesner intentó hacer con los animales lo mismo que había hecho con los textos clásicos: compilar en un solo trabajo un milenio y medio de historia, hacer un catálogo completo de todos los animales conocidos hasta el momento.
Su Historia Animalium es una gigantesca compilación, pero no deja de ser un híbrido: tiene bastante de los bestiarios medievales (tal vez la figura más extravagante sea una serpiente marina de 90 metros de largo) pero también novedades interesantes, como la primera descripción de la caza de una ballena. La obra de Gesner fue traducida al inglés y circuló mucho en el siglo XVII, convirtiéndose, si me perdonan el anacronismo, en un verdadero bestseller en el que, al lado de las ilustraciones de animales más precisas que se habían realizado hasta el momento, se discutía si el veneno de la Gorgona era emitido por el aliento o por los ojos.
Es difícil medir la importancia de la obra de Gesner y hasta hay quienes dicen que fue el padre de la zoología moderna. Sea como fuere, lo cierto es que testimoniaba una curiosidad inmensa por un campo en el que se presentaban novedades a cada rato y demostraba que el sistema de clasificación aristotélico era decididamente insuficiente e incompleto. De algún modo, puede decirse que inició un camino, o que retomó un camino, que habrían de seguir los grandes sistematizadores de la naturaleza.
Pero además, Gesner inauguró un nuevo concepto de la naturaleza: explícitamente señalaba que no constituía una amenaza, sino un entorno a explorar y disfrutar. Comprensiblemente, la naturaleza había sido, a lo largo de los siglos, reverenciada y temida como una fuerza poderosa y hostil. Terremotos, inundaciones, sequías, ciclones: las montañas (que más tarde serían el punto clave de la geología) eran lugares donde se instalaba el terror, y donde moraban trasgos, diablos y el mismo Demonio; eran el lugar de lo temible, como bien quedó documentado en los cuentos populares.
Pero Gesner se le animó a la naturaleza y no se conformó con las cosas escritas por sus antepasados: como sus colegas renacentistas, como el propio Petrarca, cuya carta sobre el ascenso al monte Ventoux es una especie de manifiesto del comienzo del Renacimiento, Gesner destacó la necesidad de internarse uno mismo en la naturaleza y extraer de allí las conclusiones:
Si deseáis ampliar vuestro campo de visión, dirigid la mirada a vuestro alrededor y contemplad todas las cosas que hay a lo largo y a lo ancho. En ningún otro lugar se encuentra tal variedad en tan reducido espacio como en una montaña.
Es decir, puro realismo y empirismo, que se vería reflejado también en otra de las «disciplinas» que comenzaba a desarrollarse por entonces: la mineralogía. El estudio de los minerales se apoyó en las Summas medievales sobre el tema, y los Lapidarius, en especial el de Alberto Magno (circa 1200-1280), que escribió De minerallibus et rebus metalliques libri quinque, reeditado en Colonia en 1569. Algunos «físicos» de la época, sin embargo, se especializaron, y así como el Renacimiento generó ingenieros, artilleros y exploradores naturales, generó también una lista de geólogos (o proto-geólogos, si ustedes quieren), y sus respectivos tratados, de los cuales el más importante es el De Re Metallica, de Georgius Agricola (1494-1555) en el cual se describen minuciosamente, gracias al trabajo realizado en las minas, algunos minerales y algunos procesos químicos como, por ejemplo, la separación del oro de la plata.
Agricola, un alquimista alemán, puede considerarse el primer minerólogo moderno y, también, un predecesor de la medicina y la higiene del trabajo, ya que catalogó las enfermedades de los mineros al pie del pozo, y denunció la frecuencia de los traumatismos, la senilidad precoz y la mortalidad prematura. Sólo se pueden imaginar con espanto las condiciones de trabajo en las minas, que, sin embargo, serían superadas en horror durante la primera fase de la revolución industrial.
Estos primeros mineralogistas integraban su historia en la historia universal, partiendo de las épocas de la Naturaleza marcadas por el Génesis, y reconocían, como los magos del Renacimiento, tres planos: el espiritual, el astral y el elemental.
El plano espiritual poblaba el interior de la Tierra de demonios y figuras mitológicas de toda laya, en general demoníacas, que manipulaban los minerales, como los Kobolts (que dieron su nombre al cobalto), o los Nicles, guardianes del níquel, entre muchos otros. El plano astral, que fue rechazado por Agricola, garantizaba la armonía entre el macro y el microcosmos, y describía la acción de los astros sobre la generación de los minerales, y las fuerzas cósmicas que regían la evolución de éstos en el seno de la Tierra (recordemos que Aristóteles atribuía el origen de los metales a la influencia del sol sobre los vapores subterráneos). Es interesante ver que aún hoy se atribuye a los metales y a las gemas poderes sanadores que se derivan de aquellas creencias… de hace mil años. Por último, en el plano elemental se incluía la acción de los cuatro elementos, pero si por una parte muchos recurrían a los viejos sistemas griegos, gente como Agricola o Palissy buscaba una explicación más natural. El primero, por ejemplo, no se quedó en Plinio u otros griegos, sino que hizo una clasificación de los terremotos en la que ya pueden reconocerse elementos actuales. También se ocupó de los volcanes, cuya universalidad había sido establecida por los viajeros, en especial los españoles, que habían soportado violentas erupciones en América, atribuidas, más o menos, a fuegos escondidos bajo tierra que una u otra causa hacía aflorar: estas teorías del fuego subterráneo perdurarían hasta que la geología se consolidara en el siglo XVII (y aún después).
Una curiosidad que no puedo resistirme a registrar aquí es que, por ese entonces, se produjeron también algunas de las más antiguas memorias sobre «tecnologías petrolíferas»: Pierre Belon (1517-1564) y el propio Agricola reconocieron que la nafta reemplazaba al aceite de las lámparas en Sicilia, en la India, en Etiopía, y que los campesinos de Sajonia la utilizaban para hacer marchas de antorchas nupciales. Y después estaba el asunto de los fósiles, sobre los cuales la discusión era viejísima. Agricola restauró el significado original de la palabra, a saber, cualquier cosa que se extraiga de la tierra (del latín fossa). Ninguno de los minerólogos de entonces podía dejar de reconocer el parecido con elementos vivos, o por lo menos orgánicos, de muchos de ellos; algunos pensaban que se trataba de «peces petrificados», de animales sobrevivientes del Diluvio, o atribuían su existencia a causas más o menos legendarias o fantásticas, cuando no recurrían a la vieja historia de que eran «juegos de la naturaleza» que adoptaba curiosas formas.
Otros, sin embargo, como Leonardo, Bocaccio, Gesner y muchos más, reconocieron la verdadera naturaleza de los fósiles, que ya era conocida por los autores griegos pero que había sido olvidada, e incluso hubo quienes trataron de integrarlos en el sistema zoológico de la época (de todos modos pobre e incipiente). El tema se arrastraría trabajosamente, y era lógico: la todopoderosa gran cadena del ser, que no distinguía tajantemente entre lo orgánico y lo inorgánico sino que más bien enfatizaba la continuidad, no era de gran ayuda.
Lo que es evidente es que todas estas nuevas clasificaciones y avances, aunque respetando más o menos la cosmovisión tradicional, muestran un intento de reconstrucción del mundo mineral y natural con una marcada inclinación por el realismo aristotélico. Y esta inclinación al realismo golpearía en todos los campos: valga, como ejemplo, la medicina.

§. La lección de anatomía
La verdad es que la medicina no experimentó grandes desarrollos en este período (ya saben que, para mí, la medicina científica recién arranca en el siglo XIX), salvo quizá por la introducción de medicinas minerales o químicas por los paracelsianos, quienes dieron origen a una línea de pensamiento que ya les he mencionado: la de los iatroquímicos, escuela que sugería el uso de sustancias químicas para la curación de enfermedades y que, por lo tanto, polemizó fuertemente con los herboristas durante muchísimo tiempo. Hay que decir que estos iatroquímicos, si bien son considerados por algunos como los precursores de la medicina actual, usaban elementos tales como el mercurio de una manera temeraria e imprudente, por decirlo elegantemente.
Pero donde sí hubo un desarrollo importante fue en el terreno de la anatomía. Era lógico: la nueva percepción naturalista y la invención de la perspectiva, de la que ya les hablaré en un rato, conducían a un realismo pictórico desconocido en los siglos medievales y al que no iba a escapar el cuerpo humano, que podía ahora ser observado detenidamente gracias a las disecciones que se practicaban en las universidades (o de manera privada, cuando se podía obtener, por medios no del todo sanctos, algún cadáver).
Si admitimos —cosa bastante dudosa— que la medicina occidental está fundada en la anatomía, debemos prestar especial atención a la obra de Vesalio, creador, por así decirlo, del pensamiento anatómico en el sentido moderno, que consiste en el esfuerzo por explicar todos los fenómenos fisiológicos y patológicos en base a la forma interna del organismo, a relaciones estructurales conocidas y estudiadas por medio de la disección.

023.jpg
La Lección de Anatomía

Hasta el año 1300 no se diseccionaron cuerpos humanos con el fin de aprender anatomía (que en griego significa «cortar»; recordemos que «tomo» significa parte): hay que pensar que se trataba en cierto modo de una práctica repugnante; no habiendo refrigeración, había que hacerlo a las apuradas para adelantarse a la descomposición del cuerpo, y rara vez los médicos «universitarios» accedían a intervenir con sus propias manos: normalmente, la disección se limitaba a la lectura de Galeno por parte del profesor, mientras un barbero cirujano enterraba las manos en el barro (en el cuerpo, mejor dicho) y enseñaba los distintos rasgos descriptos en el texto. En caso de discrepancia, se optaba por lo que estaba escrito y se coincidía en que el cadáver estaba equivocado. Tan tarde como 1632, Rembrandt daba a conocer La lección de anatomía, un cuadro encargado por el gremio de los cirujanos en el que se retrataba una de las «clases públicas» que Nicolaes Tulp daba cuando, una vez al año, se le permitía diseccionar un cadáver, siempre y cuando fuera de un criminal ejecutado. Si se detienen en la imagen, verán que ninguno de los discípulos observa los músculos del brazo que están a la vista: ¡todos posan su mirada en el libro!
Acaso por el cambio de perspectiva que representó, si hubiera que fijar una fecha de inicio para el estudio anatómico moderno, esa fecha sería 1543, annus mirabilis porque no sólo vio la publicación del Humanis corporis fabrica de Vesalio sino, lo que es muchísimo más importante, del De revolutionibus orbium coelestium, el libro de Copérnico que habría de cambiar para siempre la cosmovisión occidental y que sería el puntapié inicial de la Revolución Científica. Pero ya tendremos tiempo de hablar de eso; centrémonos ahora en la fábrica corporal humana que describió Vesalio.
Vesalio (1514-1564) había recibido una excelente educación clásica en su Bruselas natal y más tarde había estudiado Medicina en París, Lovaina y Padua, en cuyo ambiente liberal se practicaba la disección humana desde hacía tiempo. Incluso se cuenta que los jueces retrasaban las ejecuciones para que los médicos pudieran acceder a los cadáveres en las mejores condiciones posibles.
El efecto de la experiencia directa, a partir de 1539, fue inmediato: durante su curso en Bolonia invocó la autopsia como única autoridad, haciendo a un lado la anatomía tradicional de Galeno (quien, según descubrió, no había hecho otra cosa que aplicar a la anatomía de los hombres sus observaciones zoológicas). Al mismo tiempo, añadió láminas a sus estudios, cosa que por cierto no se acostumbraba y que ahora se veía inmensamente facilitada por la imprenta.
Vesalio estaba frente a un desafío enorme: había que ajustar toda la anatomía de Galeno. En tres años, preparó el nuevo atlas del «microcosmos»: en más de setecientas páginas y con unas trescientas ilustraciones (hechas por alumnos de la escuela de Tiziano), nuestro autor describió íntegramente el cuerpo humano y obtuvo un éxito inmediato, aunque, como es de esperarse, fue duramente criticado por los galenistas. En especial por Jacobus Sylvius (1478-1555), que había sido su maestro, y que, aunque reconocidísimo como profesor, creía hasta tal punto en Galeno que, cuando encontraba alguna discrepancia entre lo que se veía y la descripción del gran médico griego, sostenía que el cuerpo humano debía haber cambiado desde aquellos tiempos remotos.
A pesar de los anacronismos de Sylvius, Vesalio fue el responsable de imponer dos ideas nuevas que serían claves para el desarrollo de la «medicina biológica»: por una parte, colocó a la anatomía como base de la medicina, cuestión atisbada también por Leonardo; por la otra, introdujo la importante innovación de agregar láminas a los textos, iniciando así la anatomía gráfica.
Pero más allá de todo el esfuerzo que Vesalio y sus discípulos hicieron para que arrancara la anatomía (en apenas medio siglo sus obras se impusieron en todas las universidades de Europa), no por ello la medicina ganó el estatus de disciplina científica. Acuérdense de que, cuando digo «científica», no necesariamente me refiero a una disciplina puramente especulativa sino a una en la cual las decisiones que se toman tengan sustento en alguna base teórica sólidamente establecida. Y la medicina real de esa época distaba mucho de tener una base sólida; por el contrario, seguía siendo puramente empírica, como podrán verificar a través del personaje que les voy a presentar ahora.

§. Pólvora y aceite hirviendo
Fue la invención de la pólvora, más que los descubrimientos anatómicos, lo que impulsó la cirugía en el programa renacentista: la guerra fue siempre un terreno fértil para esa práctica, que no recibió un impulso como el que Vesalio le dio a la anatomía, pero que no obstante tuvo su gran reformador.
Ya en el siglo XIII se encuentran indicaciones sobre mezclas de salitre, azufre y carbón (componentes de la pólvora) en escritos orientales y en otros de Roger Bacon, y se le atribuye a Alberto Magno una receta sobre pólvora explosiva, pero el uso efectivo de la pólvora para impulsar proyectiles se instrumentó recién en el siglo XIV: Petrarca ya conocía el uso de la artillería; alrededor de 1330 empiezan a aparecer indicios que hacen suponer que en las batallas se utilizaban verdaderas armas de fuego; en 1405 aparece un tratado de la guerra en el que se estudia el uso de bombardas y, lo que me resulta más interesante, una figura en la que un caballero sostiene un globo en forma de dragón. Lo notable es que, como se lee en el manuscrito, el dragón se mantenía elevado en el aire gracias al aire caliente que producía una pequeña lámpara que se introducía en su boca… ¡cuatrocientos años antes de los hermanos Montgolfier!
Así como Vesalio terminó siendo médico del emperador Carlos V, el rey de Francia, Francisco I, tuvo a su propio gran médico: Ambrosio Paré (1510-1590), el más grande cirujano del Renacimiento, famoso en toda Europa.
Empezó como barbero-cirujano hasta que viajó a París, abandonó los cortes de pelo, se sumergió en la cirugía y se alistó como cirujano militar de los ejércitos franceses, en guerra permanente. Estuvo treinta años desempeñándose en esa posición, de los cuales —ya viejo— dejó un detallado recuento en sus Viajes por países diversos (escrito, dicho sea de paso, para contestar al ataque dirigido contra él por el decano de la Universidad de París, una muestra de la rivalidad entre médicos y cirujanos). El decano no podía tolerar que un «simple barbero» estuviera escribiendo un libro que no sólo trataba sobre cirugía, sino sobre la plaga y otras enfermedades. Ambrosio le contestó con ironía, y su respuesta es interesante porque tiene un fuerte trasfondo epistemológico:
¿Quieres enseñarme cirugía tú, pequeño maestro, que nunca has salido de tu gabinete? La cirugía se aprende con los ojos y las manos. Tú, mi pequeño maestro, no sabes más que hablar y hablar en una cátedra.
Frente al saber teorético y libresco del «pequeño maestro», útil para otras cuestiones, Paré se posicionaba como portador de otro saber: el empírico, el que otorga la experiencia.
Vale la pena glosar algunos fragmentos de sus Viajes… que nos darán una visión de la medicina de la época. Veamos, por ejemplo, su primera experiencia en Turín, donde, afirma, encontró el camino del aprendizaje del arte de la cirugía:
En un establo donde pensábamos guardar nuestros caballos, encontramos cuatro soldados muertos y tres moribundos apoyados en la pared. No veían, ni oían, ni hablaban y sus ropas estaban quemadas por la pólvora. Mientras los contemplaba, sintiendo gran piedad por ellos, llegó un viejo soldado que me preguntó si había manera de curarlos. Yo dije que no, y entonces él se les acercó y les cortó la garganta. Le dije que era un villano: me contestó que él le pedía a Dios que, si se veía en una circunstancia igual, alguien hiciera lo mismo por él, y no lo dejara arrastrarse en la agonía y la miseria.
Y esta otra: el famosísimo médico y cirujano Giovanni Da Vigo (1450-1525) había sostenido la extraña y arbitraria teoría de que las heridas producidas por las armas de fuego estaban envenenadas, de manera que debían ser tratadas con aceite hirviente; además, en las amputaciones, para detener la hemorragia de las arterias, había prescripto el hierro candente, indicaciones corrientes entre los médicos en la primera mitad del siglo XVI.
Paré empezó a tratar a los heridos de guerra como se solía hacer en esos tiempos: quemando las heridas con aceite hirviendo. El problema es que pudo hacer eso hasta que se le terminó su provisión de aceite; a partir de ese momento, tuvo que aplicarles a los soldados cuyas partes heridas aún no habían sido puestas a freír un ungüento de huevo, aceite de rosas y trementina. Esa noche no pudo dormir, cuenta, temiendo que a la mañana fuera a encontrar a esos pacientes muertos. Pero, para su gran sorpresa, encontró que los que habían sido tratados con ungüento casi no sentían dolor, mientras que los que habían sido tratados con aceite hirviendo
tenían fiebre, un agudo dolor e hinchazón en sus heridas. Así descubrí que la pólvora no era un veneno.
Paré rechazaba la teoría basándose en una situación experimental y, en consecuencia, resolvía
no tratar nunca más cruelmente con aceite hirviendo a los heridos por armas.
La fuente fundamental, ahora, era la empiria y no la autoridad:
Así es como aprendí cómo tratar este tipo de enfermedades, no de los libros.
Al terminar la guerra con Alemania, escribía:
Regresé a París con un caballero cuya pierna había cortado, que me dijo que la había sacado barata, al no ser detenida la hemorragia mediante un hierro candente.
Y contaba de qué manera las ligaduras de arterias suplantaban al cauterio (el hierro candente para detener las hemorragias en las amputaciones). Es increíble, pero todavía en el siglo XIX se utilizaban las quemaduras con hierros al rojo para desinfectar las heridas; muy tarde en el siglo XIX, y antes de Pasteur, la mordedura de un perro rabioso se «curaba» aplicando un hierro al rojo sobre la herida… Y qué decir de las amputaciones, que se hacían con instrumentos verdaderamente estremecedores.
Es una práctica que hoy sólo se utiliza en situaciones extremísimas (y, desde ya, con otros métodos), pero las ciudades medievales y renacentistas, e incluso modernas, estaban repletas de mendigos a los que les faltaban piernas, brazos, ojos, que se amputaban por cualquier cosa. Esto sin contar, desde luego, las amputaciones «judiciales», que incluían cortes de orejas o narices, por ejemplo. Uno se alegra de vivir, médicamente hablando, en el siglo XXI.
Para ver hasta qué punto llegaba el empirismo de Paré, una historia más amable, de la época de su primera campaña: un muchacho se había quemado malamente en gran parte del cuerpo con aceite hirviendo. Paré se apresuró a dirigirse a la farmacia para retirar las acostumbradas sustancias refrescantes, y allí encontró a una vieja curandera, quien le aconsejó poner sobre las quemaduras cebollas cocidas con un poco de sal. Siguiendo su consejo, obtuvo la salvación del muchacho, lo cual demuestra que en épocas en que la medicina «científica» o «biológica» poco y nada podía hacer, era la medicina popular la que muchas veces tiraba un cable de salvación. Sin embargo, la cosa no era tan simple: Galeno había calificado a las cebollas como «calurosas», y, por lo tanto, no podían servir para curar una herida caliente. Paré, uomo senza lettere, no podía contradecir a Galeno así nomás, así que decidió que las cebollas eran calientes, sí, pero «en potencia», mientras que «en acto eran húmedas». Apenas una manipulación de la teoría para adecuarla a la contundente empiria.
Después de 1559, dejó las campañas y se estableció en París, donde conoció a Vesalio, enviado desde Bruselas por Felipe II de España, para tratar al rey Enrique II, gravemente herido en un ojo, a quien no pudieron salvar. Más tarde tuvo algunos problemas, como cuando el sucesor de Enrique, Francisco II, murió de una enfermedad del oído, y él fue acusado de verter en ese oído un veneno por orden de la Reina Madre, Catalina de Médici, que provenía de la Florencia de los venenos y las conspiraciones, justamente como hizo Claudio, el tío de Hamlet, con su hermano y padre del príncipe.
Se cuenta que el día de la terrible matanza de San Bartolomé, el 22 de agosto de 1572, en París, cuando los católicos pasaron a cuchillo a todos los protestantes que pudieron encontrar, el propio rey, entonces Carlos IX, le dio refugio en sus aposentos privados, ya que se lo creía hugonote (protestante). Puede ser verdad o no; tampoco se sabe si Paré era católico o protestante, lo cual no tiene la más mínima importancia, pero es una buena muestra de intolerancia renacentista.
Más allá de todos los errores y disparates, que fueron muchos, la medicina avanzaba (¿avanzaba?) por la vía observacional y realista. Así, persistía la división entre lo que hemos llamado «medicina biológica» y el «arte de curar»: la primera se acumulaba gracias a los esfuerzos de gente como Vesalio, pero el arte de curar se alimentaba de la empiria de gente como Paré. Los biólogos descubrían cosas, pero no sabían qué hacer con ellas (era una situación parecida a la de los médicos de Alejandría); sus teorías sobre el cuerpo seguían siendo fantásticas y, si conseguían «grandes curaciones», era simplemente porque tenían suerte, o porque aplicaban remedios inocuos (que permitían, en los casos en que esto era posible, que el cuerpo se curara a sí mismo; lo cual, al fin y al cabo, era un precepto del arte de curar hipocrático), o porque se apoyaban en la medicina popular. Allí donde intervenían supuestas razones fisiológicas, como en el caso de las sangrías, los hierros al rojo o el aceite hirviendo, los resultados solían ser catastróficos.
Si quieren tener una idea de la imagen que daban los médicos por aquel entonces (no tan lejano, por cierto), escuchen a Leonardo:
Procurad conservar la salud y lo conseguiréis en la medida en que os mantengáis apartados de los médicos, porque sus drogas constituyen una trampa de alquimia, que produce menos medicina que los libros que hay sobre ellas.
O al poeta español Quevedo (1580-1645), que narra las hazañas del pretendiente médico de Ángela de Mondragón:
Él es un médico honrado,
Por la gracia del Señor,
Que tiene muy buenas letras
en el cambio y el bolsón.
Quien os lo pintó cobarde
No lo conoce y mintió,
Que ha muerto más hombres vivos
Que mató el Cid campeador.
En entrando en una casa
Tiene tal reputación
Que luego dicen los niños:
«Dios perdone al que murió».
No come por engordar,
Ni por el dulce sabor,
Sino por matar la hambre
Que es matar su inclinación.
Casaos con él y jamás
De viuda tendréis pasión
Que nunca la misma muerte
Se oyó decir que murió.
Si lo hacéis, a Dios le ruego
Que gocéis con bendición;
Pero si no, que vos libre
De conocer al dotor.
Con eso me parece que queda más o menos claro en qué estado estaba la medicina renacentista. Abandonémosla por un rato y hablemos un poco de los conejos.
¿De los conejos?
Sí.

§. Conejos y ecuaciones
En algún momento mencioné a Fibonacci (1170-1250), que había nacido en el norte de África, viajado extensamente por el Islam y que en el siglo XIII contribuyó decisivamente a la introducción de los números arábigos, que simplificaron la notación y permitieron aligerar y llevar más fácilmente las contabilidades (habilidad cara a la burguesía creciente) aunque, de todos modos, convivieron mucho tiempo con la numeración romana, más pesada y difícil para los cálculos.
La cosa es que Fibonacci condensó todo el saber aritmético de su época en su Liber Abaci, en cuya tercera sección aparecen los conejos. El problema es el siguiente: un hombre pone una pareja de conejos en un lugar cerrado, ¿cuántos pares de conejos pueden crearse a partir de esa pareja inicial en un año, si cada mes cada pareja engendra una nueva pareja, que se hace fértil a partir del segundo mes? Resolviendo este problema, Fibonacci se encontró con una serie que describía la proliferación de los conejos: 1, 1, 2, 3, 5, 8, 13, 21, 34…
Noten que cada número es la suma de los dos precedentes. Lo curioso es que la serie de Fibonacci aparece en numerosos sectores de las matemáticas, y anche de la naturaleza misma (como por ejemplo la espiral de ciertos caracoles, las flores del girasol o las falanges de nuestros dedos) y tiene una serie de propiedades suculentas, de las cuales la no menos importante es que el cociente de dos términos consecutivos converge al famoso «número de oro» que fascinó a los renacentistas. Además de esta curiosidad, Fibonacci, en su libro, encaraba las matemáticas con un sentido técnico operativo (renacentista avant la lettre, influido por las matemáticas árabes) y además exponía las cuestiones matemáticas en forma de problemas a resolver: ésta sería la forma en que los tratados de matemáticas funcionarían en adelante. Y aún más: los problemas y los desafíos saltarían de los libros y se convertirían (en especial durante el quattrocento) en verdaderos torneos públicos (se me ocurre que parecidos a las olimpíadas matemáticas de ahora) sobre la base de cuestiones propuestas, bastante difíciles por cierto. Estos torneos a veces asumían proporciones espectaculares, e intervenía en ellos un número enorme de personas completamente alejadas de la matemática, más interesadas en gozar del boato desplegado y de las peleas, a veces duras, entre los contendientes. Cuenta un cronista de la época que los torneos devenían a veces en verdaderas mascaradas: los partidarios de los dos bandos adversos marchaban hacia el lugar de la discusión con gran pompa, precedidos de heraldos y con gran despliegue de banderas; al vencedor se rendían luego los honores del triunfo, que a veces consistía en un premio en efectivo formado mediante el aporte de los concurrentes.
Y así, con el planteo público de desafíos que los matemáticos se hacían unos a otros, y la resolución pública, se fueron resolviendo los principales problemas algebraicos de la época, que consistían en encontrar la solución de ecuaciones cada vez más complejas.
La solución de la ecuación de primer grado, en la que la incógnita está elevada a la primera potencia (ax + b = 0), se conocía ya desde los tiempos de los babilónicos, y son ecuaciones que uno resuelve a cada momento en la vida diaria: si nos venden en oferta 6 objetos por una cantidad c, ¿qué precio estamos pagando por cada objeto?
6x = c
Diofanto y los matemáticos árabes ya habían resuelto la ecuación de segundo grado (en la que la incógnita aparece elevada al cuadrado): ax2+ bx + c = 0. En el transcurso del quattrocento se resolvieron las de tercero, gracias a Tartaglia (ax³ + bx2 + cx + d = 0) y las de cuarto, gracias a Ferrari (ax⁴ + bx³ + cx2 + dx + e = 0). Y ahí paró la cosa: no hubo esfuerzo que pudiera resolver la ecuación de quinto grado, que se transformó en un problema insoluble como la cuadratura del círculo, y que protagonizaría una trágica y romántica historia de amor y de muerte unos siglos más tarde.
Pero además de estas hazañas algebraicas, los matemáticos renacentistas desarrollaron y simplificaron la notación, lo cual también era parte del esquema técnico-operativo-experimental: se introdujeron los símbolos +, -, ×, ÷ (de suma, resta, producto y división); poco a poco fueron aceptándose como «verdaderos» los números negativos y, en el álgebra de Bombelli (1572), se aceptan los imaginarios (es decir, las raíces cuadradas de los números negativos).
Al mismo tiempo que los métodos del álgebra se hacían más potentes, también, paralelamente, alcanzaban mayor fortaleza simbólica. En gran parte por la obra del matemático francés Viète (1540-1603) los símbolos algebraicos empezaron a pensarse de otra manera: una expresión como a + b dejaba de imaginarse sólo como una representación de números ausentes o desconocidos, para alcanzar el estatus de una expresión simbólica autónoma, con la cual era más que lícito operar. Es un cambio radical en la manera de tratar los objetos matemáticos y, así, el álgebra ganaba tanto en operatividad como en abstracción.
Les voy a poner un ejemplo para que se entienda esta cuestión. Uno puede hacer un gráfico de, digamos, la evolución de las temperaturas medias a lo largo del año y puede imaginarse esa curva simplemente como la relación entre fechas y temperaturas, pero también puede verla como curva, y analizar sus propiedades independientemente de las relaciones que represente. Bueno, algo así hizo Viète, dándoles a las letras del álgebra un valor simbólico propio, independiente del referente. El álgebra adquiría así su estructura abstracta, que tantos resultados daría. También fue por esa época cuando apareció una formidable herramienta de cálculo, los logaritmos, que hasta hace poco fueron la pesadilla de los estudiantes secundarios pero que significaron un enorme alivio para quienes se veían obligados a realizar cálculos fastidiosos y difíciles: los logaritmos fueron la herramienta de cálculo más importante hasta la llegada de la calculadora de bolsillo y la regla de cálculo logarítmica puede considerarse una verdadera computadora (hoy abandonada).
Bueno, empezamos con una pareja de conejos, cuyos nombres, si es que los tenían, no registró la historia, y terminamos con los logaritmos. Y ahora vamos a hablar del descubrimiento geométrico más importante de la época: la perspectiva.

§. La primavera de Botticelli
El descubrimiento de la perspectiva, es decir, de la representación tridimensional sobre una superficie, se desarrolló a mediados del siglo XV, bajo la influencia del gran pintor Piero della Francesca, que la transformó de una mera técnica en una teoría matemática (o geométrica, mejor dicho).
La perspectiva no sólo renovó completamente el arte, produciendo algo irreductible a la representación medieval (y aún antigua, que tanto atraía a los humanistas), sino que reflejó las nuevas formas en que empezaban a percibirse dos intuiciones básicas: el espacio y el tiempo.
El espacio percibido por el hombre medieval suele ser, como el tiempo, despojado de medida, no métrico (ni geométrico, por supuesto); ya hemos charlado un poco sobre eso. Y se ve muy bien en los cuadros medievales o, mejor dicho, en los frescos, ya que el objeto «cuadro», tal como lo concebimos nosotros, como algo que se cuelga de la pared y que no forma parte de la pared misma, nace con el Renacimiento. El espacio pictórico está determinado por lo que ocurre adentro de los cuadros. El fenómeno, el tema pictórico, determina el espacio donde está ocurriendo. Fíjense en el cuadro de Giotto: el fondo, el volumen, está de alguna manera contorneando a las figuras, pero nada más.

024.jpg
La resurrección de san Lázaro, de Giotto

Lo que ocurre allí es lo que podríamos llamar el fenómeno, la anécdota, el motivo del cuadro o el fresco, el hecho. Y el espacio no es autónomo, se cierra sobre el fenómeno, se adapta al fenómeno, no existe sino para él, no existe fuera de él; por su parte, la decoración es icónica: las plantas o animales son apenas signaturas que apoyan la anécdota religiosa.
Lázaro resucita: ése es el fenómeno. Pero ese fenómeno delimita el espacio: atrás no hay nada, hay un telón, en cierto modo convencional que envuelve lo que está ocurriendo. Del mismo modo, los personajes no tienen edad, son figuras a través de las cuales no transcurre el tiempo.
Pero el ascenso de la nueva vida ciudadana y burguesa impone un cambio porque predispone a la geometrización, y a la vida geométrica (comprendo que esta última expresión es una exageración mía, pero me gusta). La primavera, de Botticelli, uno de los cuadros más emblemáticos del quattrocento italiano, ya nos muestra un panorama por completo distinto al de la pintura medieval. Todo lo que ocurre en el cuadro, todos los «fenómenos» tienen un carácter simbólico: la escena representa un rito pagano, tan caro a los renacentistas. Los personajes (en general tomados de la realidad) están caracterizados como dioses griegos (Mercurio, Venus, las Gracias), casi desnudos y en su tamaño natural, y con un complejo simbolismo filosófico que requiere un hondo conocimiento de cultura renacentista para interpretarlo. Pero si miran las figuras van a ver que el trabajo ya no es icónico sino realista: un buen ejemplo es el rostro de Giuliano de Medici (hermano de Lorenzo el Magnífico), el personaje a la izquierda: es un verdadero retrato.

025.jpg
La Primavera, de Botticelli

Botticelli no usa aquí plenamente la perspectiva, pero el fondo ya no es inerte y los detalles están tratados con mucho cuidado. Y el motivo del cuadro no es religioso sino humano, muy humano, aunque revestido con ropajes mitológicos y clásicos. Y no pretende ningún contenido moral: ese contenido moral está reemplazado por la búsqueda de la belleza de las formas per se, por la belleza misma.
En cambio, en el conocidísimo retrato del matrimonio Arnolfini (1434), de Jan van Eyck (1390-1441), el espacio está bien delimitado por la perspectiva: es una habitación en un lugar muy bien señalado. Pero al ser geométrico, también es previo: hay un escenario donde después (es un después ontológico; no quiere decir que la acción concreta se haya llevado a cabo después) el pintor coloca los sucesos. Podría haber puesto uno más o uno menos, sin modificar necesariamente el escenario.

026.jpg
Retrato de Giovanni Arnolfini y su esposa de Jan van Eyck

Aquí hay, además de espacio, tiempo percibido: los personajes tienen edad, se trata de un matrimonio burgués, cuya situación podemos ubicar en el tiempo. El Renacimiento, y más fuertemente aún el Barroco, transforman la idea de la precedencia del fenómeno sobre el espacio en una precedencia del espacio y, yo agregaría, el tiempo, sobre los fenómenos.

§. Vivir geométricamente: la silla vacía
Pero esa manera de ver y percibir el espacio (y el tiempo) es justamente la construcción de la gran Revolución Científica de los siglos XVI y XVII. Lo que hace esta última es agarrar todos los fenómenos de lo físico, todos los fenómenos del mundo y establecer: primero, están el espacio y el tiempo. Newton lo va a enunciar con toda claridad en sus Principios matemáticos de filosofía natural, de 1687, que son la piedra basal de toda la ciencia moderna: hay un espacio y ese espacio es anterior a todo. Antes que nada, antes de que ocurra el primer fenómeno, existe el universo y, dentro del universo, dentro del espacio, ocurren los fenómenos. El espacio es un receptáculo independiente y previo a lo que ocurra en él.
Así funciona en cierta medida nuestra percepción moderna: miramos una silla y no pensamos que la silla se constituye en tanto silla en el momento en que alguien se sienta en ella. La silla es previa, la silla para sentarse está allí, vacía, independientemente de que yo la use o no. En cambio, si percibiéramos el mundo como una playa y nos sentáramos en la arena, veríamos que la arena se adapta a «nuestro sentarnos», digamos, y se forma una especie de silla, pero esa silla sí empieza a existir después de que nos sentamos y en tanto nos sentamos. Y después de un tiempo, se borra. En esa playa, el espacio es plástico, se adapta al fenómeno, que en este caso es el acto de sentarse, y no hay silla independiente de ese fenómeno.
Hay un ejemplo muy claro de cómo funciona el manejo del espacio: el teatro. El teatro medieval y renacentista, en general, es un teatro itinerante: un grupo de juglares o actores recorre el mundo y, luego, en un determinado sitio, arma un tinglado y representa su obra. Cuando levantan todo y se van, no queda un escenario vacío, no queda nada, porque el espacio teatral sin fenómeno teatral carece de sentido. Pero en una obra moderna, el escenario puede quedar vacío, porque el espacio escénico es anterior al fenómeno escénico; los actores se ubican en ese espacio que ya estaba.
Lo mismo pensarán los científicos de la Revolución: lo que está ahí, en el mundo, está ahí. Los planetas están ahí, las estrellas están ahí, las plantas y los animales están ahí, aun las cosas más difíciles, más complicadas de interpretar, como la fuerza de gravitación, están ahí. Hay un realismo implícito y una objetividad metodológica; el mundo es el mundo y yo soy yo, yo y mis instrumentos de medición, que me permiten capturarlo.
La geometrización del espacio (y del tiempo) disuelve el espeso mundo medieval, borrando los «lugares naturales», borrando también las signaturas (que habían bajado a la tierra, transformándose en magia y acción) y, a la larga, borrando las diferencias entre cielo y tierra, entre macro y microcosmos, sometiendo a ambos a una geometría, a una teoría, y a una ontología únicas.
Porque, aunque resulte increíble, en medio de toda esta mezcolanza, que por momentos parece no tener ningún hilo conductor, que mezcla las excentricidades de Paracelso con la técnica (e incluso el hermetismo) de Leonardo, el humanismo con la caza de brujas, estaba naciendo un orden sólido, un orden que conduciría a una nueva etapa para el pensamiento científico, tan importante como lo fue la irrupción del pensamiento griego en el siglo VI a.C.

Capítulo 12
El problema del movimiento

Todo se mueve
nada está quieto
salvo mi corazón.
La serpiente se arrastra
en su lecho de piedra
y la piedra se desliza
al costado del volcán
y el viento
es aire en movimiento
nada está en calma
salvo mi corazón.
Casi todo, a nuestro alrededor, se mueve. Vemos al Sol cruzar el cielo de oriente a occidente, vemos la piedra que cae, el insecto que se arrastra penosamente sobre su camino mínimo; vemos al proyectil cruzar el aire límpido de una mañana de verano, casi flotar en él, y luego de un momento de gloria, precipitarse miserablemente al suelo. Y aunque no lo vemos, ni lo sentimos, sabemos que la Tierra, que nos parece en reposo, cruza el espacio con velocidades de pesadilla. Las partículas se agitan en el fondo de los átomos. El mundo que nos rodea es cambio, no permanencia: se mueve.
Es algo con lo que convivimos día a día y a lo que, mal que mal, ya estamos acostumbrados, como lo estaban el bueno de Aristóteles o sus herederos y detractores renacentistas. Pero si es tan natural… ¿por qué, entonces, el movimiento conformó un misterio durante tantos siglos, y fue su elucidación la que dio paso a la ciencia moderna?
Porque no todas las cosas parecen moverse de la misma manera. Si se empuja una pelota, ésta rueda hasta que se detiene, como si se cansara de haberse movido. Si se suelta una piedra, cae espontáneamente, sin que nadie haga nada, y lo hace cada vez con más velocidad, como si estuviera apurada por regresar al suelo. Los objetos celestes, en cambio, parecen moverse solos y siempre de la misma forma, como si la hubieran aprendido, les gustara y no encontraran una buena razón para cambiarla. Tampoco caen al suelo, como sí lo hacen la manzana o la piedra.
Ni siquiera todos ven los mismos movimientos de la misma manera. Si se mira el libro que se lee mientras el tren nos arrastra hacia algún destino más o menos incierto, el libro parece estar quieto, en reposo, en nuestra mano. Pero el que desde afuera nos ve pasar a gran velocidad, observa que el libro se mueve, junto con el tren y con nosotros. ¿Quién tiene razón?
Milan Kundera sostiene que “la lucha del hombre contra el poder es la lucha de la memoria contra el olvido”. Forzando un poco las cosas, puede decirse que la lucha del hombre por comprender la naturaleza fue, en gran medida, la lucha por comprender el movimiento. Por qué se mueven los cuerpos es una de las preguntas más antiguas de la ciencia: desde las primitivas explicaciones hasta la teoría de la Relatividad, desde Aristóteles a Einstein, se razonó, se pensó, se especuló sobre las causas y modos del movimiento y el reposo, se trató de distinguirlos, se buscó algo cuyo movimiento —o falta de él— fuera absoluto y nadie pudiera discutirlo, y muchas veces se creyó encontrarlo. La mecánica avanzó penosamente, en ocasiones quedó estancada durante siglos y a veces produjo estallidos espectaculares, en los que las concepciones del hombre sobre el movimiento —y al mismo tiempo sus concepciones sobre el mundo— tuvieron que cambiar drásticamente.

§. La mano y la piedra
Se mueve el mar en el mar
Se mueve el viento en el viento
Y el viento
Es aire en movimiento
Todo se mueve
Salvo mi corazón.
La primera teoría completa la formuló, cuándo no, Aristóteles. Para él, el movimiento tenía un significado diferente al que ahora le damos nosotros, y estaba subsumido en la idea más general de cambio: los procesos de nacimiento, corrupción y muerte, el animal que salta sobre una presa o la piedra que se degrada por la acción del mar eran ejemplos de movimiento tan legítimos como el de la flecha que cruza el cielo azul o los planetas que giran en el cielo pegados a sus esferas homocéntricas. El movimiento tal como nosotros lo entendemos era sólo uno de los tantos procesos de cambio, al cual llamaba «movimiento local». Prescindiremos de esa denominación, entendiendo que cuando hablamos de «movimiento», nos referimos a lo que él, y quienes lo siguieron, denominaron «local».
Hemos hablado algo de esto, pero como la teoría del movimiento terrestre y celeste será el hilo conductor y la piedra de toque que nos guiará a lo largo de la Revolución Científica —en gran medida porque la mecánica combina perfectamente y con absoluta claridad la experimentación y la razón— debemos volver un poco a él en detalle. Lo que me gustaría poder transmitirles es la dificultad tremenda y el esfuerzo que significó establecer una teoría sobre algo que parece tan simple.
El movimiento, tal como lo entiende Aristóteles, es un proceso de restauración del orden, un impulso hacia la estabilidad y la armonía. No olvidemos que el cosmos aristotélico está jerarquizado, y ofrece de entrada una división tajante y fundamental entre la esfera supralunar, donde nada puede cambiar, y la esfera sublunar donde todo se corrompe y modifica. Son dos mundos gobernados por diferentes leyes y formados por elementos distintos: la esfera sublunar, por los cuatro elementos tradicionales de Empédocles (una esfera de tierra, rodeada por una caparazón de agua, otra de aire, y otra de fuego, que se extiende hasta la esfera de la luna); la esfera supralunar, y más allá, por un quinto elemento o quintaesencia, el éter, que es incorruptible, transparente y eterno.
Por su parte, la rotación de la esfera de la luna desordena la esfera sublunar, la vuelve confusa y promiscua, mezcla las cosas. Pero esta esfera degradada, por su propia naturaleza, trata de que el orden se restaure, y así, los objetos intentan regresar al lugar que les pertenece naturalmente: la piedra cae porque su impulso ontológico (encarnado en su peso, o su gravedad) la arrastra, precisamente, hacia su lugar natural, la lluvia cae buscando la esfera del agua, y lo mismo hacen los ríos al bajar de las montañas; las burbujas que se generan bajo el agua ascienden hasta alcanzar el aire, que les es propio, el humo sube porque su levedad (Aristóteles distinguía entre levedad y peso o gravedad) lo lleva a la esfera de fuego, la más externa.
Éstos son movimientos naturales que sólo se producen por razones constitutivas y privativas de cada cuerpo: cuando alcanzan el sitio que les corresponde, y ponen –literalmente— las cosas en su lugar, el movimiento cesa, porque no tiene razón de ser.
Aristóteles logra determinar que ciertas características del movimiento natural sublunar dependen del objeto y del medio; mientras más pesado sea el objeto, más rápido se moverá o caerá, y cuanto más denso sea el medio, más se retrasará su movimiento. Lo cual excluye, de paso, la existencia del vacío, ya que en el vacío, al ser la resistencia nula, para Aristóteles la velocidad sería infinita, lo cual no puede ser por dos razones: primero, porque si se moviera con velocidad infinita, estaría en dos lugares diferentes al mismo tiempo (lo cual es absurdo), y segundo, por otra razón más sutil: para Aristóteles no puede haber ningún fenómeno que implique el infinito de hecho, «en acto»; el infinito es solamente «potencial».
La explicación, sin embargo, deja un flanco débil: no da cuenta, por ejemplo, de por qué la piedra que cae lo hace cada vez más rápido: Aristóteles atribuye el aumento de velocidad a la proximidad cada vez mayor del lugar natural, que la apura y la impulsa a moverse más rápido. Una explicación, sí, aunque no demasiado convincente.
En el mundo supralunar las cosas son completamente distintas: el movimiento de los astros y las esferas es por naturaleza circular y eterno, aunque necesita la ayudita de un primer motor inmóvil situado más allá de la esfera de las estrellas fijas, y los motorcitos inmóviles gentilmente adosados a las esferas interiores.
Hasta ahí los movimientos naturales.
Pero hay otro tipo de movimientos, exclusivos del corrupto mundo sublunar, que de ninguna manera pueden caer dentro de esta descripción: una flecha que sube (por lo menos al principio) no se dirige a lugar natural alguno, una piedra lanzada hacia arriba tampoco, más bien se aleja de su lugar natural, violentando su naturaleza, y por lo tanto son movimientos violentos o forzados. Cualquier objeto que se mueva alejándose de su lugar natural o sin aproximarse a él, está imbuido de un movimiento violento, y como un objeto cualquiera no tiene ninguna razón para moverse abandonando o alejándose de su lugar natural, necesita algo que lo mueva, o un motor: la mano que arroja la piedra, la cuerda del arco que arroja la flecha, son los motores que permiten (causan) el movimiento. Obviamente, no puede haber movimiento violento sin motor, nada puede moverse sin que algo lo mueva.
El movimiento en Aristóteles es absoluto, por supuesto: si algo se mueve, se mueve; si está en reposo, está en reposo (lo mismo que las direcciones arriba y abajo en relación al centro del mundo). Y además, como el movimiento natural está conectado con la esencia del cuerpo y el movimiento violento es un simple accidente, son atributos contrarios, no pueden mezclarse y un móvil no puede participar de ambos a la vez.
Uno estaría tentado de preguntarse por qué nuestro filósofo elaboró una teoría tan complicada; mucho más que la de los atomistas, por ejemplo, que sostenían como axioma que los átomos se movían en el vacío al azar y espontáneamente (y con la misma velocidad).
De todos modos, la construcción de Aristóteles era mucho más completa que la de los atomistas; muy en su estilo, no sólo abarcaba todos los movimientos, sino que armonizaba más o menos bien con su esquema general del universo.
La verdad es que a primera vista no está mal: es una teoría armónica, sensata y parece acomodarse bastante bien a la experiencia cotidiana. Pero sólo a primera vista. Cuando uno la examina más de cerca, se da cuenta de que es completamente inverosímil. Y, fundamentalmente, contradice el sencillo y cotidiano hecho de que si uno arroja un proyectil, éste sigue moviéndose después de que el motor (la mano) ha cesado de actuar y el proyectil se ha separado de ella. ¿Cómo puede ser? ¿No es que no había movimiento sin motor? ¡Y resulta que cuando la mano suelta la piedra, ésta se sigue moviendo, sin motor aparente alguno!
Aristóteles toma buena nota de esta dificultad realmente fatal y elabora una respuesta que consiste en sostener que el movimiento aparentemente sin motor se debe a la reacción del medio por el que circula: la mano actúa como motor de la piedra, y, a la vez, le confiere la facultad de ser motor al aire inmediatamente vecino, que mueve a la piedra y así sucesivamente, hasta que el impulso se agota, el movimiento violento cesa, y la piedra retoma el movimiento natural y cae al suelo. La explicación es ingeniosa, pero es muy difícil de creer. A la larga, junto con el misterio de la aceleración de los cuerpos en caída libre hacia su lugar natural, terminaría por poner en entredicho toda la teoría.
La teoría presenta dos serios problemas, por lo menos: el del incremento de la velocidad en la caída libre y el del lanzamiento. Pero pese a estas dificultades, subsistió como teoría principal o estándar, durante muchos siglos, lo cual demuestra, de paso, que un par de dificultades no son un obstáculo cuando hay una teoría coherente que pretende explicar (y en cierta medida lo hace) todos los fenómenos. Lo retorcido de la elaboración aristotélica muestra, de paso, las dificultades que presenta la explicación del fenómeno.
Sería muy bueno habitar
el mundo supralunar,
¿no creen ustedes?
Aquí todo se te rompe
el teléfono no anda
el coche se descompone
la ropa se mancha
se quema la plancha
arriba no pasa nada.
Dos mundos, dos mundos
el de arriba puro
el de abajo corrupto.
Arriba éter cristalino
abajo mineral sucio.
Aire tierra, fuego y agua
arriba todo se mueve
en un perfecto círculo
abajo todo se mezcla
y la tierra está inmóvil
en el centro del mundo.
Pero….
En la esfera supralunar no hay ciencia
no hay libros
sólo un eterno movimiento circular.
Que cansaría hasta a los ángeles.
Mejor volver a la lucha, a la furia de los elementos de un mundo promiscuo y cambiante, donde por lo menos se puede hacer algo.
Por otra parte, la verdad es que no me gusta la teoría de Aristóteles. Además del pequeño detalle de ser falsa, tiene, para mí, otro gran defecto: no es elegante, está llena de parches, de divisiones arbitrarias (como la del espacio supra y sublunar), de argumentos recauchutados para arreglar las dificultades. Y tiene, además, otro defecto, que no lo era entonces, pero ahora sí: estudia el movimiento como una parte inseparable de una concepción cosmológica global, mientras que, para nosotros, es un fenómeno aislado.
Lo cual no quita que siga siendo intrigante: ¿Por qué la piedra se cae y la luna no se cae, por ejemplo? Creemos que el movimiento de la bicicleta es producido por el esfuerzo de nuestras piernas pedaleando, nada parece más evidente. Pero si colgáramos la bicicleta de un alambre no se movería por más que pedaleáramos. No son nuestras piernas, pues. ¿Qué mueve entonces a la bicicleta? ¿Y por qué si pedaleamos hacia atrás, la bicicleta se mueve hacia adelante? ¿Pueden explicarlo?
Les digo esto para mostrarles que, aún hoy, una mirada primaria al movimiento puede traer problemas y hacer evidente que una buena explicación tiene que ser forzosamente compleja. Esto justifica los intentos más o menos exitosos, más o menos fallidos, y la enorme cantidad de talento e inteligencia invertidos en resolver el misterio. Porque, obviamente, es un misterio.

§. La piedra y la flecha: los movimientos violentos
Aunque la de Aristóteles fue la teoría dominante, es falso pensar que perduró intacta hasta ser destruida por Galileo. Ya en el siglo VI, Juan Filopón, de Alejandría, hizo una severa crítica y demostró (parece que fue el primero) que el medio no podía ser la causa del movimiento del proyectil. Si es el aire el que transporta la piedra y la flecha, ¿por qué su batir violento no las movía directamente? ¿Por qué una piedra pesada puede ser lanzada más lejos que una liviana?
Obviamente, el aire no producía el movimiento, sino que oponía resistencia a él, y así propuso que la mano o el arco impartían «poder motor» no al aire sino al mismo proyectil: una cierta fuerza motriz incorpórea debía ser dada al proyectil a través del acto de lanzar, pero esta fuerza o energía era simplemente «prestada» —del mismo modo que el calor es «prestado» por el fuego a un objeto—, se iba disipando y decrecía.
Filopón cuestionaba también la afirmación de Aristóteles sobre la caída de los cuerpos –el movimiento «natural»— según la cual un objeto que caía lo hacía con una velocidad proporcional a su peso, argumentando, otra vez, que la experiencia mostraba que un objeto más pesado y uno menos pesado soltados desde la misma altura tocaban el suelo con una diferencia de tiempo muy pequeña.
Las observaciones de Filopón tuvieron escasa repercusión en la Edad Media, aunque tuvieron muchísimo peso en las discusiones de los autores árabes sobre el asunto (en especial Avicena y Averroes) hasta que fueron retomadas, o fueron desarrolladas independientemente, por Jean Buridan (c. 1300-c. 1360), dos veces rector de la Universidad de París y discípulo nada menos que de Guillermo de Ockham, es decir, del más alto linaje intelectual.
Buridan rechazó la teoría aristotélica, con argumentos parecidos a los de Filopón, y agregó argumentos propios: un objeto terminado en punta se movería más despacio que uno rematado en una superficie plana, ya que el aire tendría más ocasión de propulsar hacia adelante, lo cual no era el caso, según decía haber experimentado (lo cual podría ser falso). El aire no podría explicar el movimiento rotatorio de una rueda de molino, porque el movimiento continuaba aunque se colocara una cubierta sobre ella.
En lugar de la teoría aristotélica, que tantos baches empezaba a mostrar, propuso que lo que el motor confería al móvil era una cierta propiedad o virtud, el impetus, que, mientras perduraba, sostenía el movimiento; luego se iba disipando del mismo modo que se disipa el calor en un cuerpo, hasta que el móvil, finalmente, abandonaba su movimiento violento y caía a tierra siguiendo su tendencia natural.
En los proyectiles, este impetus se reducía progresivamente por la resistencia del aire y por la tendencia natural de caer; en los cuerpos que caían libremente, el impetus aumentaba gradualmente por esa tendencia natural, que actuaba como una fuerza aceleradora que añadía incrementos o impetus sucesivos a los ya adquiridos. La medida del ímpetus de un cuerpo era su cantidad de materia multiplicada por su velocidad.
Pero… ¿qué era este ímpetus? Se trataba de algo diferente del cuerpo en movimiento, algo externo, que el motor le comunicaba:
Este ímpetu es una cosa duradera, distinta del movimiento, por el cual el proyectil es movido… Y es probable que este ímpetu sea una cualidad asignada por la naturaleza para mover el cuerpo sobre el cual es impreso, de la misma manera que se dice que una cualidad impresa por un imán sobre un pedazo de hierro mueve el hierro hacia el imán. Y es probable que de la misma forma que esta cualidad es impresa por el motor en el cuerpo en movimiento juntamente con el movimiento, también sea disminuido, corrompido y obstruido, como lo es el movimiento, por la resistencia del medio o la tendencia natural contraria.
Si esto último no pasaba, el impetus permanecería, de lo cual daban buena cuenta las esferas celestes, que, al no tener resistencia, seguían moviéndose eternamente gracias al impetus conferido ab initio por Dios.
En toda esta indagación de Buridan encontramos algo muy propio del espíritu medieval: necesita preguntarse qué es el impetus; no le alcanza del todo con describirlo. Las ideas científicas necesitaban, todavía, un qué, y no se conformaban con el cómo: a este problema responderán en forma tajante, como veremos más tarde, el propio Newton y los hombres de la Revolución Científica, quienes considerarán el qué como un problema ajeno a la ciencia, de índole completamente metafísica: no objetan la metafísica pero creen que debe mantenerse apartada de la mecánica. Quiero aclararles que la actitud de preguntarse por el qué me parece científicamente legítima, aunque los mecánicos de la Revolución la van a rechazar como «puramente metafísica».
Hay otra cosa importantísima en lo hecho por Buridan, aunque ciertamente pasó desapercibida en su época: unificó los movimientos terrestres y celestes al asegurar que todos ellos tenían una misma causa, el impetus. Era una manera muy «light» de hacerlo, pero era algo: la fastidiosa división del mundo en dos empezaba a mostrar cicatrices, invisibles por ahora, pero que se irían acumulando.
La teoría del impetus fue aceptada ampliamente durante los siglos XIV y XV por todos los físicos que actuaron y abordaron el problema durante el Renacimiento, incluyendo a Leonardo da Vinci y al joven Galileo.
¿Estaba pues resuelto el problema del movimiento?
De ninguna manera.
Por empezar, no estaba claro qué era lo que gastaba o se oponía al impetus (ya que en la formulación de Buridan era una entidad permanente), ni tampoco qué ocurriría con el movimiento en el vacío (cuya existencia los físicos del ímpetus aceptaban): al no haber resistencia, ¿por qué habría de gastarse? ¿El móvil se seguiría moviendo siempre como las esferas celestes? ¿Y cómo lo haría? ¿En línea recta? ¿De manera circular?
Antes de seguir con los problemas y de ver cómo se fueron resolviendo, echaremos una mirada a lo que, más o menos en la misma época de Buridan, hacían los científicos de Oxford, que habían emprendido un camino diferente y complementario…
Se mueve el pez en el mar.
Se mueve el ave en el viento
y el viento
es aire en movimiento
nada está quieto
salvo mi corazón.
(Y el volcán
¡rataplán!)
Vuela el pájaro en el aire
juega la luz en la nieve
por el espacio vacío
la tierra también se mueve.
Se mueve el mar en el mar
donde relumbran los peces
y se agita entre las flores
el colibrí, que no duerme.
Y en la montaña el arroyo
y en los pastos la serpiente.
Cae el águila de pronto
sobre la presa inocente
y en el espacio vacío
también la tierra se mueve.
La Tierra se mueve, la Tierra se mueve… Tendremos que hablar del asunto.
Pero por ahora, nos mudamos a Oxford.

§. La escuela de Oxford y el estudio matemático del movimiento
La escuela de Oxford era heredera y el resultado de un gran linaje intelectual, que había empezado con Robert Grosseteste y Roger Bacon. Y mientras en París trataban de centrarse en los movimientos reales, lo cual era difícil dada la falta de instrumentos de medición, en Oxford todo era teórico, y se desarrolló un tipo de estudio que ya no se basaba en las propiedades del móvil, o en las causas de que se moviera, sino en la matemática de su trayectoria: es decir, una cinemática.
Parece que el primer autor en intentar ese estudio puramente cinemático del movimiento fue Gerardo de Bruselas (s. XIII), quien consideró como principal objetivo el análisis y la representación de las velocidades uniformes. Su análisis implicaba inevitablemente el concepto de velocidad y, según parece, supuso que la velocidad de un móvil puede ser expresada por un número o una cantidad.
Lo que es importante contar es que los científicos de Oxford pudieron superar una de las dificultades centrales de la teoría aristotélica: su imposibilidad de ser matematizada.
La idea de describir la posición de un punto mediante coordenadas rectangulares era conocida por geógrafos y astrónomos desde los tiempos clásicos. Los médicos estaban familiarizados con la representación del calor y el frío mediante números. Galeno mismo había sugerido un grado neutro de calor, lo que sirvió a los autores latinos y árabes, para establecer una escala que se hizo popular y que tenía cuatro grados de calor o de frío, y los filósofos de la naturaleza utilizaron una de 8 para medir las diferentes cualidades primarias (húmedo, seco….). Naturalmente, la tajante separación entre opuestos (el calor y el frío, la pesantez y la levedad) era un obstáculo imposible de sortear para poder establecer una escala unificada, como las que usamos nosotros, para la cual era necesario resolver esos pares de cualidades y subsumirlas en conceptos únicos. Fue la mecánica y la cinemática quienes lo lograron, y en ello jugaron un papel central los oxonienses.
El objetivo de los métodos desarrollados en Oxford era expresar los grados de aumento o disminución numérica de una cantidad en relación con una escala dada. Tomando como referencia una línea horizontal recta, se representaba cada grado de la intensidad por medio de una línea vertical perpendicular, de altura determinada.
La velocidad era uniforme cuando se recorrían distancias iguales en tiempos iguales, y «disforme» cuando esto no ocurría. Se decía que una velocidad disforme era uniformemente disforme cuando la aceleración o el retraso eran uniformes (lo que nosotros llamamos movimiento uniformemente acelerado).
Habitantes de un mundo visual en que todo se grafica y se representa, desde las variaciones de precios hasta las fluctuaciones de audiencia de un programa de televisión, resulta difícil medir la dificultad y la genialidad de concebir los primeros gráficos: al fin y al cabo, son construcciones numéricas y geométricas abstractas, que pretenden ser un modelo del mundo: pero no de la totalidad del mundo, sino de una cualidad que se aísla de la totalidad y se mide.
Medir: también es algo cuya dificultad nos cuesta concebir. Vivimos rodeados de relojes, de cintas métricas, de códigos de barras; aislamos intervalos muy pequeños de tiempo o espacio que eran totalmente ajenos a la percepción cotidiana de esta gente, que a duras penas podía percibir un segundo o un milímetro con sus toscos aparatos y cuya única medida regular de intervalos pequeños de tiempo, durante siglos, había sido el ritmo de la respiración.
Pero volvamos. Al postular que la velocidad podía expresarse como el cociente del espacio recorrido por un móvil por el tiempo tomado en recorrerlo, los científicos de Oxford eliminaron una dificultad central de la teoría estándar, que consideraba que este cociente era ridículo porque ponía en relación dos magnitudes por completo inconmensurables. Esto se debía, en gran parte, a lo reacios que eran los griegos a reducir segmentos a números (y si recuerdan el desastre de los pitagóricos, no les faltaba razón). Una expresión como espacio/tiempo carecía de sentido y, por eso, la física debía ser no matemática sino puramente cualitativa y descriptiva como la biología.
Pero no era una dificultad para los oxonienses, que estaban muy preocupados por determinar el «grado de intensidad» de las magnitudes (que ellos llamaban «latitud») y representaron el «grado de velocidad» en gráficos, acercándose al concepto que bastante más tarde, y tras remontar muchas colinas, sería central en el proceso de reconstruir la mecánica de arriba abajo: el de velocidad instantánea. Fíjense que el concepto de velocidad instantánea es bastante elusivo: es la velocidad que, obviamente, tiene un móvil en un instante dado… ¡pero un instante tiene una duración cero! ¡Y entonces el espacio recorrido también es cero! ¿Qué significa entonces?
El oxoniense Heyfetsbury (1313-1372) dio una definición que era algo así: la velocidad instantánea es la velocidad con que se seguiría moviendo el móvil si conservara la velocidad de ese instante, algo no muy diferente de lo que diría Newton bastante más tarde. Pero a pesar de esa definición, que parecía venida del futuro, el concepto seguía siendo prematuro.
Los oxonienses, en especial los «calculadores» del Merton College, gozaron de muchísimo prestigio y lograron establecer algunas propiedades, como, por ejemplo, el teorema del valor medio, que dice que el espacio que recorre un móvil uniformemente acelerado es igual al que recorrería con una velocidad uniforme igual a la que alcanza en la mitad de su recorrido.
Ellos no lo sabían, naturalmente, pero estaban trabajando en una dirección que tarde o temprano habría de confluir con la que se desarrollaba en París, en la línea de Buridan. Haber atacado el movimiento como un problema métrico y gráfico desbrozaba un camino que todavía estaba erizado de problemas, pero la audacia y la imaginación intelectual de estos tipos era realmente asombrosa. Nicolás de Oresme (1320-1382), precisamente discípulo de Buridan y uno de los espíritus más grandes y geniales que existieron, llevó el método gráfico a su máxima expresión (a la máxima expresión posible en ese entonces, desde ya) y con justicia se le agradece (o por lo menos se lo agradece el volátil autor de estas líneas) ser un precursor de Descartes y la geometría analítica.
Los oxonienses tampoco dejaron de prestar atención al espinoso asunto del aumento de velocidad de los cuerpos que caen, especialmente porque habían logrado demostrar que ese aumento de velocidad era uniforme, esto es uniformemente acelerado («uniformemente disforme»), y como la visión que tenían era métrica, se preguntaron cuánto se aceleraba (no por qué).
Si hacen el experimento de dejar caer una moneda al suelo, van a descubrir lo difícil que resulta darse cuenta de que la velocidad de caída aumenta de manera uniforme. Y además… ¿De manera uniforme respecto de qué? La mayoría se inclinó por pensar que la velocidad de caída era proporcional al espacio recorrido, ante la evidente constatación de que un móvil al que se dejaba caer desde una altura mayor, llegaba al suelo, como ya había observado el propio Filopón, con mayor velocidad. Casi todos coincidían en este punto: Nicolás de Oresme adheriría a esta postura, que luego adoptaría Descartes y al principio Galileo. La excepción, notable por cierto, fue Domingo de Soto (1494-1560) que intuyó que en realidad la velocidad era proporcional al tiempo de caída. Hoy en día sabemos que, en realidad, lo es al cuadrado del tiempo.
Lo cierto es que la escuela de Oxford, y sus seguidores, introdujeron una novedad que sería indispensable para el buen gusto del «cocktail» que se estaba armando, y que explotaría con Galileo y su nueva ciencia del movimiento: el aspecto métrico. El movimiento no era considerado como un juego de potestades metafísicas (parte del cambio en general, o resultado de causas borrosas como el impetus o los lugares naturales), sino como un fenómeno a medir, y sobre el cual establecer una teoría métrica.
Es interesante ver de qué manera todos estos científicos y filósofos se comunicaban y discutían entre sí. Pero qué solos, qué metafísicamente solos estaban, luchando por establecer de alguna manera, de cualquier forma, nociones elementales como las de velocidad, velocidad instantánea, aceleración, que nosotros vemos cómodamente representados en el tablero del automóvil y que para ellos eran conceptos confusos, difícilmente aprehensibles. Cuando pienso en los científicos actuales y su panoplia de aparatos (que vuelan al espacio o que permiten espiar el fondo de la materia), en los equipos gigantescos y multidisciplinarios que bombardean lo desconocido, los bordes del universo y sus primeros instantes, en la inaprehensible materia oscura y el bosón de Higgs, me invade una cálida sensación de cariño y simpatía por los científicos de Oxford o París, al lado de los cuales el mismo Galileo, con sus toscos instrumentos, pero siempre seguro de sí mismo, resulta contemporáneo.
Y ya que vimos cómo estos científicos trataban el problema de la caída de los cuerpos, veamos qué pasaba con eso en otros lados donde el asunto se mezclaba con una nueva disciplina muy propia de esos tiempos: la balística.

§. El cañón y la bala: la caída de los cuerpos y la acción a distancia
Ya para ese entonces se trataba de una vieja historia: ¿por qué se aceleran los cuerpos al caer? Era evidente que debía haber un aumento de la causa motriz que fuera proporcional al aumento de velocidad… ¿Pero cuál? ¿De dónde venía ese aumento?
Una de las posibilidades era «la atracción del lugar natural»: el cuerpo se aceleraba del mismo modo que una limadura de hierro se acelera al acercarse al imán, pero esta parte de la «teoría estándar» empezó a perder popularidad: Alberto de Sajonia (1316-1390) hizo una objeción seria a que el lugar natural ejerciera cualquier tipo de fuerza. Señaló que a tal fuerza, un cuerpo más pesado podía ofrecer una resistencia mayor que un cuerpo ligero y que por lo tanto, debería caer más lentamente, lo cual no era el caso.
El problema es que la atracción del lugar natural implicaba la acción a distancia, que sería objeto de largas polémicas. Los autores que consideraban la acción a distancia como algo imposible, y los que proponían la analogía del imán, tenían en mente la explicación dada por Averroes: la fuerza que movía al hierro era una cualidad inducida en él por la species magnetica que salía del imán a través del medio y lo atrapaba como una garra metafísica.
Había algunos pocos, como nuestro queridísimo Guillermo de Ockham, que no veían inconveniente alguno para la acción a distancia: si el sol, al iluminarnos, actuaba a distancia, ¿por qué no lo harían el resto de los objetos del mundo? Sea como fuere, la opinión general rechazaba tanto la acción a distancia como las fuerzas externas y adoptaba la teoría aristotélica y de Averroes de una fuerza intrínseca.
La solución de Buridan, quien pensó que en los cuerpos que caían la velocidad aumentaba debido al peso, que actuaba como una fuente aceleradora añadiendo incrementos o ímpetus sucesivos, fue más o menos adoptada por todos los físicos del impetus, aunque más que resolver el problema, lo aplacaba. Y ya no alcanzaba con aplacarlo: en el siglo XVI, el problema de la caída de los cuerpos se combinó con una nueva disciplina nacida al calor —literalmente— de la pólvora y la generalización de las armas de fuego durante el Renacimiento. El cañón derribó conceptos establecidos y los hizo temblar nuevamente…
Porque la nueva artillería puso sobre el tapete problemas tales como los ángulos de tiro y el alcance de las balas, evidentemente centrales para cualquier militar, ingeniero o técnico que diseñara fortalezas. La pregunta central que surgió, entonces, fue: ¿cómo es la trayectoria de una bala de cañón?
Recordemos que como tradicionalmente los movimientos natural y violento no podían mezclarse (porque representaban cualidades contradictorias que se destruirían una a la otra —para Aristóteles sería como decir que un cuerpo era caliente y frío a la vez—), se suponía que la trayectoria de una flecha o de una bala poseía un tramo de movimiento violento y, cuando éste se agotaba (fuera por razones aristotélicas, o por el agotamiento del ímpetus), recuperaba su movimiento natural y se precipitaba al suelo.
Alberto de Sajonia había utilizado la teoría del ímpetus de Buridan para explicar la trayectoria de un proyectil y había sostenido que estaba dividida en tres tramos o períodos:

027.jpg
El movimiento según Alberto de Sajonia. En el primer tramo, el móvil actúa por el ímpetus conferido; en el segundo, se combinan el movimiento violento y natural y, en el tercero, sólo actúa la gravedad.

Aquí, Alberto introducía una bienvenida cuña en el principio que emponzoñaba todo: la imposibilidad de coexistencia de movimientos naturales y violentos, que abolía con su novedoso segundo tramo.
Esta teoría fue seguida por Leonardo da Vinci, Nicolás de Cusa y muchos otros hasta que fue modificada por Tartaglia (el mismo que resolvió la ecuación de tercer grado), también fundador de un linaje: en su libro La Nova Scientia, de 1537, trataba por primera vez la balística en forma teórica, evitando toda discusión filosófica sobre los conceptos que usaba y las causas de los fenómenos: un poco porque se dirigía al ingeniero operativo renacentista, y no al filósofo, pero también porque en la lucha entre el qué y el cómo, este último empezaba a anotarse algunos tantos.
Al principio, Tartaglia aceptaba que el movimiento de un cuerpo podía ser o bien violento o bien natural, pero no «mixto». En el movimiento natural, la velocidad aumenta tanto en función del alejamiento del punto de partida, como de la proximidad del punto de llegada. El movimiento violento, en cambio, tiene la propiedad contraria: su velocidad disminuye. Tartaglia rechazó la creencia generalizada —y en cierta medida incomprensible— de que un proyectil tenía un momento de aceleración inicial al abandonar al lanzador, cosa que creían a pie juntillas todos, incluyendo a los cañoneros.
Pero el asunto aquí era la forma de la trayectoria de un proyectil. De su tesis de la imposibilidad de un movimiento mixto, tenía que resultar una trayectoria angular. Pero había un dilema, ya que esta trayectoria angular empezaba a desafiar la percepción; al fin y al cabo era más fácil creer que una flecha vuela rectilíneamente, se detiene y cae, que pensar que lo hace una pesada bala de cañón.
¿Y entonces? Y entonces nuestro amigo no aceptó esta consecuencia de su propio principio, adoptó la traza tripartita, y admitió que el movimiento de la bala, en la parte curva, aún siendo violento, lo era por efecto de su peso. Pero esto llevaba a otro absurdo porque si el peso podía curvar el movimiento violento, ¿por qué no lo hacía a lo largo de toda su trayectoria? Tartaglia se dio cuenta de la dificultad y la esquivó sosteniendo —un poco arbitrariamente en el marco de su razonamiento— que las partes rectilíneas en realidad se curvan, aunque de manera «insensible». Lo cual muestra que la ciencia se mueve de manera no exactamente racional, o mejor, rigurosa (dije «se mueve», y no «avanza», porque el desarrollo continuo, o la percepción del desarrollo continuo es un resultado de la Revolución Científica).
Iba de a poco, por lo visto, y mirando dónde pisaba, aunque no tenía mucho miedo de hacerlo en terreno barroso. Paso a paso: en su libro siguiente hizo, precisamente, una movida muy audaz: aceptó que su teoría anterior llevaba a un absurdo y rechazó la incompatibilidad de la coexistencia entre movimiento violento y natural, lo cual implicaba que no había parte alguna de la trayectoria que se produjera en línea recta porque siempre estaba actuando el peso. La creencia en la rectilinearidad del movimiento se basaba tan sólo en la imprecisión de los sentidos y la debilidad del intelecto humano. No era broma defender este resultado porque los propios cañoneros alegaban que, de acuerdo a su experiencia, la bala sí se movía en línea recta. Pero Tartaglia llegaba así a un punto en el cual trataba de asentar la balística sobre un tipo de experiencia (la verdadera, dada por la teoría) y no sobre la seudo experiencia confusa provista por el sentido común de la vida cotidiana.
La postura era bastante radical: aunque le hubiera sido imposible expresarlo así, lo que estaba diciendo es que no es el sentido común ingenuo el que debe guiar la investigación, sino la experiencia llevada a cabo bajo la sombra de la teoría, en un espacio que imite todo lo posible el sustrato geométrico del mundo, y donde las leyes, por lo tanto, puedan manifestarse tal cual son. Estaba pidiendo, sin saberlo, el laboratorio, un lugar donde los fenómenos puedan aislarse para ser contemplados y analizados en toda su pureza.
Era prematuro. Y así, del mismo modo que la propuesta de trayectoria tripartita tuvo bastante éxito, la de una trayectoria enteramente curvilínea no tuvo ninguno, y nadie, ni siquiera mecánicos tan eminentes como Benedetti, la consideró y ni siquiera la discutió. De todos modos, aclaremos que Tartaglia no resolvió el problema, ya que no dio con la trayectoria real, que no es «curvilínea» (lo cual remite a lo circular), sino parabólica, pero es posible que en ese momento nadie fuera capaz de concebir tal cosa.
Así y todo los rasgos de la teoría de Tartaglia contenían las semillas del futuro. Era todo un manifiesto lo que declaraba en el prefacio de su libro Cuestiones e invenciones diversas, cuando dedicaba el estudio a
Quien desea ver nuevas invenciones
No tomadas de Platón ni de Plotino
Ni de ningún otro griego, ni latino
Pero sí del arte, la medida y las razones.
Porque el continuador de su linaje fue su discípulo Gianbattista Benedetti (1530-1590) que llevó el asunto de la caída de los cuerpos aún más lejos.

§. Benedetti llega a un paso de Galileo
En efecto, Benedetti abandonó la línea de pensamiento cualitativa aristotélica y adoptó la línea rigurosa de Arquímedes; y en vez de pensar en pesos, pensó en densidades y pesos específicos.
En un libro de 1554 explicó que la doctrina según la cual la velocidad de los cuerpos que caen es proporcional a los pesos es completamente falsa. No es el peso —aseguraba— el que determina la velocidad de caída, sino el exceso de peso sobre la resistencia del medio, y enseguida agregaba que ni siquiera es el peso en general sino el peso específico (peso sobre volumen) el que juega el papel determinante. El procedimiento mental por el que Benedetti llegó a semejante conclusión es digno de explicación.

028.jpg
Miren la figura. Hay dos cuerpos homogéneos O y G tales que G es la mitad de O. Hay, asimismo, otros dos cuerpos compuestos de la misma materia que los primeros: A y E, cada uno de los cuales es igual a G, es decir, la mitad de O. A, E y G caen, obviamente, todos con la misma velocidad porque son idénticos. Ahora imaginemos que A y E están en las extremidades de un segmento (o, si ustedes quieren, un hilo que no pesa nada) con lo cual podemos verlos como un solo cuerpo A-E. Ese cuerpo conjunto, como es evidente, tiene su centro de gravedad en I (el punto medio del segmento) y su peso es idéntico a O, porque está compuesto por dos cuerpos que pesan exactamente la mitad de O. Por lo tanto, A-E cae con la misma velocidad que O.

Imaginémonos ahora que A-E está cayendo y, en el medio de la caída, yo le corto el hilo que los une. ¿Qué pasaría? ¿Se retrasaría la caída de A y E por haber dejado de formar parte del conjunto A-E? Es obvio que no. Por lo tanto, A y E caen con la misma velocidad que el conjunto A-E y que O. A y E, entonces, son tan rápidos como G y como el conjunto A-E. Por lo tanto, tanto G como A como E son tan rápidos como O.
Además de ponderar la importancia del peso específico para la velocidad de caída de los cuerpos, Benedetti rechazaba las ideas de peso y levedad absolutos que la mayoría de los físicos aún conservaba: los cuerpos son todos pesados en proporción a sus densidades y su peso está en relación con el medio en que están inmersos.
Aunque conservó el concepto de impetus, rechazó que fuera circular: el impetus era siempre lineal; incluso en el caso de una rueda que gira, las partículas tenderían a moverse en línea recta, pero la violencia de la cohesión material de la rueda las fuerza a seguir con el movimiento circular… La verdad es que estaba a un paso del principio de inercia.
En fin, decía Benedetti: Aristóteles no entendió nada sobre el movimiento y no lo hizo porque no comprendió un hecho fundamental: el papel de las matemáticas en la mecánica. Solamente partiendo de los resultados de las matemáticas se podía comprender el movimiento.
Pero el peor error de Aristóteles, para Benedetti, fue que negara la existencia del vacío con el argumento de que la velocidad de un cuerpo allí sería infinita en acto. Nada más falso: dado que la velocidad es proporcional al peso específico del cuerpo, retardada, pero no dividida por la resistencia, se ve que su velocidad no aumentaría indefinidamente al disminuir la resistencia del medio, y que cuando la resistencia se hiciera cero, es decir, en el vacío, alcanzaría una velocidad finita (es decir, no infinita) que dependería de su densidad. Por lo tanto, todos los cuerpos compuestos de una misma materia caerían en el vacío con la misma velocidad.
Compuestos de la misma materia… levantar esta condición conducirá a la ley de la caída de los cuerpos que enunciará Galileo.
Pero en fin, hasta aquí llegó Benedetti, y hasta aquí llegamos nosotros.

§. ¿Qué estaba pasando?
La progresiva geometrización del espacio borraba los lugares naturales, dejando sin sustento uno de los pilares de la mecánica aristotélica: si cada lugar era exactamente igual a cualquier otro, ¿por qué la piedra debería dirigirse a él en particular? En el nuevo espacio en construcción, un punto geométrico es sólo eso, un punto geométrico, y por lo tanto inerte, sin propiedades físicas o metafísicas.
El espacio geométrico puro, al fin y al cabo, era una pura abstracción, que estaba (y sigue estando) fuera de cualquier empiria o posibilidad de experimentación, aunque el laboratorio trate de imitarlo. Sea como fuere, la experimentación no es más que un remedo parcial, y sobre todo local, del mundo.
La geometrización y matematización del espacio (y de la vida) fueron el producto de un proceso cultural profundo (que quizás no haya terminado), y quienes lo estaban haciendo no sabían, naturalmente, que lo estaban haciendo. Muy pocos, como Nicolás de Cusa o Giordano Bruno, lo proclamaron con todas las letras.
El halcón va atravesando
el aire y en él se mueve.
El barco corta las olas
de mares que nunca duermen.
Los cuerpos se precipitan
hacia la tierra inocente
donde damos nuestros pasos
y se oculta la serpiente.
Pero se está construyendo
Un nuevo mundo que tiene
en la base geometría
y en la cima nuevas leyes
matemáticas, geométricas
que lo enmarcan y defienden.
El ciervo ante el cazador
huye rápido a esconderse.
El proyectil busca el cielo
donde ya no encuentra el éter.
Todo se está transformando,
todo cambia, todo crece.
La flecha en su trayectoria
¡Y hasta la Tierra se mueve!

Parte III
La revolución científica

029.jpg

Contenido:
13. El hombre que movió al mundo
14. La derrota del círculo
15. Galileo
16. El conflicto con la Iglesia
17. Newton, hacedor de universos
18. En busca de la certidumbre: el compromiso de 1758

Capítulo 13
El hombre que movió al mundo

Allá en Polonia, un tipo decía
que el Sol estaba quieto,
y la Tierra se movía.
Aunque no parecía.
Aunque el Sol cruzaba el cielo
cada día.
Aunque un pájaro volaba
muy lejos de su nido
y al volver no se perdía.
Tercamente decía
ese viejo,
que la Tierra se movía.
Y no sabía
que iniciaba un viaje a las estrellas,
adónde iba a llegar,
algún lejano día.
En marzo de 1543 salió de la imprenta de Petrius, especializada en ediciones de astronomía, en Nüremberg, un libro que haría época, y que podemos, de manera arbitraria como siempre en estos casos, poner como punto de partida de la Revolución Científica: Sobre las revoluciones de las esferas celestes, del astrónomo polaco Nicolás Copérnico, que se hallaba ya en su lecho de muerte (murió, efectivamente en mayo de ese mismo año y el cuento de que recibió un ejemplar en su lecho de muerte no debe ser más que una leyenda; de todas maneras, había perdido la conciencia desde muchas semanas antes). Y ese libro encerraba un mundo, un mundo que todavía no era pero que habría de ser, porque se ofrecía una solución nueva para uno de los más antiguos desafíos de la ciencia y la filosofía: comprender cómo funciona el cielo y cómo funciona el mundo y la estructura del universo.
Nada menos.
La revolución copernicana fue, como lo sería la Revolución Francesa dos siglos y medio más tarde, el derrocamiento de un viejo orden, y la trabajosa construcción de uno nuevo, con sus flujos y reflujos propios de las revoluciones, y sus sectores radicalizados y conservadores.
El mundo se transformó: se volvió enorme, frío y sin ningún tipo de refugio donde el hombre se pudiera sentir cómodo, o al menos un poco más importante (lo cual no es malo, desde ya), pero también se convirtió en un mundo que el ser humano puede comprender, manejar y pretende dominar.
El hombre, entonces, ya no es un signo más, aunque fuera central, en la cadena del ser: se corre, deja de considerarse el único objeto de la Creación, aunque, a la vez, comprueba que es la única criatura capaz de entender lo que verdaderamente ocurre. O por lo menos tiene posibilidades de acercarse.
La Tierra cambiará de lugar definitivamente, el espacio comenzará a resultar inhóspito y desaparecerá la inmensa construcción aristotélica y las ruedas tolemaicas que durante siglos habían girado junto a la humanidad. Dios comenzará a retirarse, a permanecer en las iglesias, y dejará de visitar tan asiduamente los centros de estudios.
El mundo emergerá como un gigantesco mecanismo que funciona sin propósito alguno, regido por leyes impersonales y precisas; se unificará, y de ser un puñado de sensaciones, se transformará en orden y medida, en dato y ley. Hasta Aquiles empezará a moverse más rápidamente; es más, los hombres de la Revolución Científica podrán pensar que alcanzará a la tortuga.
No es poco para un par de siglos.
La idea de Revolución Científica, a pesar de ser aún discutida, ha arraigado rotundamente en la historia de la ciencia y se refiere a un proceso muy complejo marcado por un cambio intelectual que se produjo en los siglos XVI y XVII y dio nacimiento a la ciencia moderna. Como siempre, uno puede poner el énfasis en los elementos de ruptura o de continuidad, es una simple cuestión de sistemas de referencia. En este caso, vamos a poner el énfasis en los cambios, porque me gusta la revolución científica y porque, al fin y al cabo, la idea de revolución, o por lo menos la idea de revolución consciente, es la idea moderna por excelencia, así como la idea de permanencia era la idea medieval por excelencia.
Los antiguos modos de pensar mostraron ser inadecuados e insatisfactorios, no sólo en astronomía sino también en anatomía y química, y en todas las ciencias particulares. Los hombres del Renacimiento —y Copérnico era un hombre del Renacimiento—, aunque sólo resolvieron algunos de los nuevos problemas planteados, al menos abrieron el camino para la solución de los restantes.
Así, pues, convencionalmente, hablaremos de la Revolución Científica y, un poco porque pertenecemos a una cultura del libro y otro poco porque nos gusta, vamos a situarla entre dos libros. Es una idea cándida, ingenua, pero respeta la veneración occidental por la idea del libro, por la cultura del libro, aunque, por supuesto, se trate de fechas y mojones arbitrarios.
Esos dos libros son Sobre las revoluciones de las esferas celestes, de Copérnico, de 1543 y los Principia (Philosophiae naturalis principia matematica), de Newton, de 1687. Con este último, la ciencia moderna, la que hoy conocemos como ciencia, está ya casi completamente delineada: es una ciencia madura, como aquella manzana que al caer —dice la leyenda— inspiró la ley de gravitación, esa ley de leyes, esa piedra de toque que organiza el cosmos; una ciencia madura con un programa completo, un programa que indica qué es lo que hay que hacer y cómo hay que hacer eso que hay que hacer, una ciencia con una ontología propia que cambia una vez más las cosas que existen en el mundo y que son objeto de la atención científica. En el mundo que se crea en los Principia, se da una respuesta nueva a la vieja pregunta, que desesperaba al viejo Parménides, sobre qué es «lo que hay».
La Revolución Científica empezó por la astronomía y era natural, hasta cierto punto, que la ruptura del sistema de ideas tanto de la Antigüedad como del Medioevo, que comprometería fatalmente todo el aparato aristotélico, comenzara por los cielos. Al fin y al cabo, era la disciplina más clara y acabada. La astronomía descriptiva había acumulado observaciones suficientes y desarrollado métodos matemáticos lo bastante finos como para permitir que las hipótesis pudieran formularse claramente y comprobarse numéricamente. También era objeto de un interés particular, tanto por su viejo empleo astrológico como por su nuevo uso en navegación (aunque está bastante claro que eso sólo no habría provocado un progreso tan radical), y por las necesidades de reforma del calendario, que ya estaba totalmente retrasado respecto de los tiempos astronómicos.
Y, por otra parte, era el ámbito del conocimiento (justamente por ser claro y acabado) donde se manifestaban más evidentemente las deficiencias de una ciencia que solamente pretendía «salvar las apariencias», como era el sistema tolemaico. La astronomía era lo más parecido a un laboratorio, donde los fenómenos aparecen destilados. Otras disciplinas vendrán detrás, alimentadas por la nueva forma de mirar al mundo, como le ocurrió, por ejemplo, a la química. El mundo mágico, simbólico y sólo a medias experimental del Renacimiento dará lugar, en apenas ciento cincuenta años, a un mundo casi totalmente mecánico.
En cierta forma, era natural que esto pasara: Occidente avanzaba, queriéndolo o no, y sabiéndolo o no, hacia un mundo cuantitativo, un mundo de ciudades, dinero y mercancías. Y en medio de toda esa efervescencia, Copérnico, el gran Copérnico, tuvo la audacia de sacar un ladrillo de la base que sostenía la enorme construcción que ya hemos visto. Ciento cincuenta años, nada más que ciento cincuenta años, tardaría en aparecer el gran libro de Newton y derrumbar definitivamente el edificio entero.

§. La astronomía en tiempos de Copérnico
A fines del siglo XV y principios del XVI, la astronomía seguía enredada en los dos grandes sistemas astronómicos de Aristóteles y de Tolomeo, pero la falta de precisión ya empezaba a resultar molesta y se manifestaba, entre otras cosas, en el atraso del calendario, que desembocaría en la reforma gregoriana de 1582.
Como sé lo fastidioso que resulta para el avisado lector volver atrás y buscar referencias anteriores, repasemos aquí brevemente lo que ya contamos: la astronomía que los griegos dejaron en herencia a Occidente.
En el siglo IV a.C. Platón exigía que todos los fenómenos celestes se explicaran como combinaciones de círculos y esferas, síntomas de la perfección, en lo que luego se conoció como «el mandato de Platón». En el marco de su concepción del mundo, describir los movimientos observables no importaba tanto como «salvar las apariencias», es decir, encontrar una combinación de esferas cualquiera que permitiera predecir los fenómenos celestes.
Cumpliendo ese «mandato», primero Eudoxo y luego Aristóteles imaginaron que los astros estaban fijos sobre esferas transparentes, todas ellas centradas en la Tierra (homocéntricas) con distintas inclinaciones y que, combinadas, describían el movimiento errático de los planetas, el Sol y la Luna. Todo el conjunto daba vueltas cada veinticuatro horas en torno de la Tierra. Aristóteles acumuló hasta 55 esferas; pero aún así, el sistema era bastante impreciso.
Había por entonces dos dificultades centrales para la astronomía. La primera era explicar los difíciles y en apariencia erráticos movimientos de los planetas, sobre todo sus retrogradaciones: cada tanto, los planetas parecían detenerse en el cielo, emprender una marcha hacia atrás, y luego retomar su camino. La segunda era el cambio de brillo que se observaba en los planetas, lo cual no podía sino explicarse por la variación de sus distancias a la Tierra (cosa en principio imposible si giraban en esferas alrededor de ella).
Pero si el sistema aristotélico era impreciso (entre otras cosas porque Aristóteles no era astrónomo, como él mismo lo admitía), no lo era el sistema tolemaico, la culminación de la astronomía griega. Claudio Tolomeo optó por un camino diferente del aristotélico para armar una descripción del mundo. En su Almagesto, resolvía las dos anomalías de la astronomía planetaria de una manera original. En primer lugar, el del movimiento retrógrado o en zigzag: supuso que los planetas se movían alrededor de la Tierra adosados a pequeñas esferas llamadas epiciclos, que a su vez tenían su centro sobre las esferas principales (deferentes). Al moverse epiciclo y deferente al mismo tiempo, se explicaba por qué se observaba que el planeta retrocedía, cuando en realidad sólo estaba completando el círculo de la esfera más pequeña. La combinación de ambos movimientos conseguía explicar los avances y retrocesos de los planetas en el cielo.
Ajustando el tamaño de los epiciclos o, si hacía falta, agregando epiciclos secundarios, Tolomeo daba cuenta de las observaciones mucho mejor que en el sistema de Aristóteles.
La segunda cuestión era el cambio de brillo de los planetas y el hecho de que se los viera moverse con velocidades diferentes. Para resolverlo, los planetas del sistema tolemaico no tenían como centro geométrico de sus órbitas perfectamente circulares a la Tierra sino al ecuante, un punto fuera de la Tierra, y giraban en torno de él con velocidad uniforme.
Si bien la Tierra estaba inmóvil, como en Aristóteles, el sistema no era estrictamente geocéntrico, ya que el centro de las órbitas estaba desplazado para explicar el cambio de brillo de los planetas. Matemáticamente funcionaba y predecía aceptablemente, pero tenía inconvenientes físicos, como por ejemplo que los epiciclos y las esferas desplazadas giraran alrededor de un punto en el que no había nada. Los epiciclos «salvaban las apariencias», es cierto, pero no eran demasiado convincentes para comprender «lo que ocurría realmente».
Por eso es lógico que, en los tiempos de Copérnico, el mecanismo tolemaico ya estuviera funcionando con dificultades después de cumplir servicios durante bastante más de un milenio. Y no se trataba solamente de su excesiva complejidad o de las dificultades que presentaba respecto de la física aristotélica: cuando los astrónomos Regiomontano y Peurbach, a fines del XV, revisaron las tablas de observaciones en vigencia, encontraron que había diferencias del orden de dos horas en los eclipses.
Y era también manifiesto el atraso que se había producido en el calendario: Julio César, en el 46 a.C. había impulsado una reforma que determinaba que la longitud del año era de 365 días y un cuarto (lo cual llevó a agregar un día al mes de febrero cada cuatro años). Pero la duración del año juliano era de once minutos más que el año astronómico real y esos once minutos se iban acumulando. Después de quince siglos, el desfasaje era de unos once días, de tal modo que la fecha de los equinoccios y solsticios, esenciales para que la Iglesia pudiera determinar la fecha de la Pascua, estaba notoriamente errada.
Cuando Copérnico estudiaba astronomía, en Cracovia, había una especie de esquizofrenia estelar: el modelo aristotélico de esferas homocéntricas lo enseñaban los naturalistas, más propensos a describir «la realidad», mientras que el de Tolomeo lo enseñaban los matemáticos, como un método de cálculo, que permitía predecir el curso de los planetas por el cielo, sin abrir juicios sobre su «realidad». Copérnico comentará esta situación más tarde:
Unos usan sólo círculos homocéntricos; otros, excéntricos y epiciclos. Los que confían en los homocéntricos no pudieron deducir de ellos nada tan seguro que respondiera sin duda a los fenómenos. Mas los que pensaron en los excéntricos admitieron muchas cosas que parecen contravenir los primeros principios sobre la regularidad del movimiento.
Los ecuantes encerraban una idea para muchos absurda: un sistema construido partiendo de la idea de una Tierra inmóvil en el centro del mundo terminaba teniendo como centro otro lugar; u otros lugares, mejor dicho, dado que cada planeta tenía su propio ecuante. La verdad, era una manera bastante costosa de salvar las apariencias, y cuando el Papa León X invitó a Copérnico a participar de la reforma del calendario, declinó la oferta señalando que:
A los filósofos, que en otras cuestiones han estudiado tan cuidadosamente las cosas más minuciosas de ese orbe, no les consta ningún cálculo seguro sobre los movimientos de la máquina del mundo.
Y que:
Vemos que muchas cosas no coinciden con los movimientos que debían seguirse de su enseñanza (de Tolomeo), ni con algunos otros movimientos, descubiertos después, aún no conocidos para él. De ahí que, incluso Plutarco, cuando habla del giro anual del Sol, dice: hasta ahora, el movimiento de los astros ha vencido la pericia de los matemáticos. En efecto, tomando como ejemplo el año, han sido evidentemente tan diversas las opiniones, que incluso muchos han desesperado de poder encontrar un cálculo seguro sobre él.
Obviamente flotaba en el aire la necesidad de una reforma de la astronomía.

§. Gerolamo Fracastoro, esferas y medicina
En 1538, Gerolamo Fracastoro (1478-1553), que estudió en Bolonia en el mismo tiempo que Copérnico y que probablemente fue su amigo, propuso un sistema de 79 esferas homocéntricas que no hicieron sino complicar las cosas.
Ya que estamos, vamos a hablar un poquito de Fracastoro: si bien su sistema astronómico fue un fracaso, no alcanza con decir que fue un astrónomo fallido, nada de eso. Resultó ser una figura verdaderamente importante para la historia de la medicina por haberse enfrentado de manera decidida y con solidez teórica a una enfermedad nueva y desconocida: la sífilis. No es que las plagas y epidemias fueran desconocidas o faltaran, más bien todo lo contrario: formaban parte de la vida cotidiana, y todavía debía estar vivo el recuerdo de la peste negra (1347-1353), de la cual dejó testimonio Boccaccio en su Decamerón y que había producido la muerte de un tercio de la población europea, con consecuencias políticas y económicas inmensas, ya que la falta de trabajadores impulsó un alza persistente y secular de jornales. Es interesante comparar esta situación con las epidemias más recientes para ver todo lo que se ha avanzado en el control: basta pensar, por ejemplo, en las epidemias de gripe aviar o gripe porcina de los últimos años.
La cuestión es que la epidemia de sífilis se había extendido a partir del asedio de las tropas francesas a Nápoles, entre cuyos defensores había marineros regresados de América —aunque es casi seguro, no es absolutamente seguro que la enfermedad fuera de origen americano—: era traída y llevada por las prostitutas francesas que cruzaban el frente para satisfacer a uno y a otro bando (de ahí también la denominación de «mal francés»), lo cual derivó en una catarata de libros sobre el nuevo mal.
Entre ellos y en 1530 —el año en que se supone que Copérnico terminó De Revolutionibus, aunque no accedió a publicarlo hasta trece años más tarde—, Fracastoro dio a conocer un extenso poema épico en estilo virgiliano (Syphilis sive morbus gallicus, La sífilis o el mal francés) en el que se proponía narrar el origen mítico de la enfermedad. El héroe del poema, Syphilo, era un pastor del rey de Haití que encendía la ira del dios Apolo por erigir altares prohibidos en la montaña, y la respuesta del dios era la enfermedad de la sífilis. Aunque, por suerte, después el resto de los dioses se apiadaba (ustedes saben cómo son los dioses griegos: caprichosos, crueles, conventilleros y dicharacheros, que hacen y deshacen a piacere) y creaban «el amplio y frondoso árbol que vencería la fuerza del veneno». Más allá de ese «origen mítico», Fracastoro hacía una descripción completa de la sífilis —a la cual puso nombre— y puntualizaba los dos posibles tratamientos: el mercurio o el guayaco, «árbol milagroso».
Pero no terminó allí: en 1546, como resultado de sus investigaciones, publicó De contagione et contagiosis morbis, et eorum curatione (Sobre el contagio y las enfermedades contagiosas y su curación), un verdadero clásico de la historia de la medicina. Según decía allí, la transmisión infecciosa se debía a partículas imperceptibles e invisibles, seminaria (o semillas) que se reproducían y propagaban muy rápidamente y eran capaces de penetrar en el organismo e infectarlo de tres maneras distintas: por contagio directo, mediante vehículos, o infectándolo a distancia, como la viruela o la plaga. Reconocía la naturaleza venérea de la sífilis, aunque seguía sosteniendo —y aquí se ve su lado mágico renacentista— que las semillas de contagio podían surgir de emanaciones venenosas causadas por determinadas conjunciones planetarias.
Digamos de paso que los dos tratamientos que recomendaba eran malísimos: uno por mortífero (el mercurio, cuyo uso era alentado por Paracelso) y el otro por inocuo (la madera del guayaco). La verdad es que ninguno de los dos servía para nada. Bah, el mercurio, en realidad, sí: servía para que el enfermo se sintiera espantosamente mal, con vómitos, diarrea, dolor de cabeza y se muriera más temprano que tarde, no por la enfermedad sino por el tratamiento. De ahí el dicho sobre la sífilis: una noche con Venus, toda una vida con Mercurio.
Y nada mejor que esta referencia a Venus y Mercurio para devolvernos al cielo y las complicaciones de la astronomía planetaria.
La propuesta de Fracastoro y sus 79 esferas homocéntricas no fue la única. Un humanista aristotélico menor, Giovanni Battista Amici, en un librito de 1536, elaboró un engendro parecido aunque todavía más complicado. Años antes, en 1520, el astrónomo Celio Calcagnini, quien también, parece, fue amigo de Copérnico, había sugerido que se aceptara la rotación diurna de la Tierra, ya adelantada por Nicolás de Cusa.
Y así las cosas se iban acercando al punto crucial: el movimiento de la Tierra.

§. La rotación terrestre
Ya había, en ese entonces, todo un corpus de hipótesis sobre la rotación de la Tierra, y es posible que el maestro de Copérnico, Domenico de Novara, pensara en el asunto.
La rotación diurna de la Tierra había sido considerada por astrónomos de la Antigüedad y en el siglo XIV había sido estudiada con una inusual profundidad por Nicolás de Oresme, con quien nos hemos encontrado ya cuando hablábamos de la escuela de Oxford y sus gráficos representando el movimiento.
El estudio del asunto por parte de Oresme fue el más detallado y agudo realizado en el período que va desde los griegos a Copérnico. Analizó una a una las objeciones (también derivadas de la Antigüedad y consideradas por el propio Tolomeo) al movimiento de la Tierra y las refutó con una notable inteligencia teórica, a tal punto que sus respuestas habrían de ser utilizadas más de un siglo después por Copérnico y Giordano Bruno.
La primera objeción era que la experiencia mostraba claramente que era el cielo el que se movía, a lo que Oresme replicaba que este movimiento era relativo. Recuerden que una de las hipótesis fundamentales de la cosmología aristotélica era que debía haber un centro del universo, un punto fijo alrededor del cual giraran las esferas celestes y que, por lo tanto, el movimiento debía ser absoluto. Oresme argumentaba contra esto que las direcciones del espacio, el movimiento, la gravedad natural y la levedad, debían ser relativos.
Así, de la misma forma en que a la persona que está en un barco cualquier movimiento rectilíneo respecto del barco le parecerá rectilíneo, concluyó pues que es imposible demostrar, por cualquier observación, que los cielos se mueven con movimiento diario y que la Tierra no se mueve de esa forma.
La segunda objeción, un clásico en la historia de la ciencia, era que si la Tierra giraba de Oeste a Este, habría un fuerte viento en sentido contrario. Pero Oresme replicaba que el aire y el agua giraban solidariamente junto con la Tierra. Al mismo tiempo, decían los negadores del movimiento terrestre, si efectivamente la Tierra giraba, una piedra tirada hacia arriba no caería en el mismo punto en el que había sido arrojada sino un poco al Oeste, porque la Tierra se habría movido. Oresme contestaba que
la piedra se mueve muy rápidamente hacia el Este con el aire que atraviesa, y con la masa entera de la parte inferior del universo que se mueve con movimiento diario, y de este modo vuelve al lugar de donde partió.
Aquí hablaba casi de manera explícita de la composición de movimientos, prohibida por la física aristotélica pero que ya estaba empezando a ganar adeptos, como Alberto de Sajonia, en el otoño de la Edad Media.
A la objeción de que la rotación de la Tierra destruiría la astronomía, replicaba que todos los cálculos y tablas serían los mismos. Y con respecto a las dificultades con la Biblia, Oresme pensaba que ella se conformaba como podía al lenguaje humano, tal como quedaba demostrado cuando decía que Dios se arrepentía o se encolerizaba.
En definitiva: con la rotación de la Tierra se solucionaban muchos problemas y resultaba más perfecta y sencilla que cualquier otra alternativa. Y sin embargo, Oresme no dejaba de ser un hombre de su tiempo: después de repasar todos estos argumentos, afirmaba nuevamente su convicción geostática («de hecho nunca ha habido ni habrá sino un único universo corpóreo, y ese universo es el geostático») y minimizaba la enorme potencia de su proeza intelectual tildándola de mero juego:
Todos defienden —y yo lo creo— que los cielos se mueven y no la Tierra, porque Dios fijó la Tierra de forma que no se mueve… Y así, lo que he dicho por diversión puede adquirir de este modo un valor para confundir y poner a prueba a quienes quieren usar la razón para poner en cuestión nuestra fe.
Después de razonar luminosamente (aunque sobre el movimiento de rotación de la Tierra y no sobre su movimiento orbital, que no llegó a plantear, y que seguramente ni se le ocurrió), Oresme volvía al redil de la fe y al dogma bíblico que acababa de desmantelar. El problema es que, como comprendió muy bien, ninguno de sus argumentos probaba definitivamente que la Tierra se moviera (y ésta sería la tesis que mantendrá el cardenal Bellarmino durante el primer conflicto con Galileo).
La verdad es que el movimiento de la Tierra era difícil de aceptar así como así. No sólo era negado de manera cerrada por la física aristotélica, sino que desafiaba (y sigue desafiando) abiertamente la más elemental intuición, la percepción más simple y cotidiana.
Al mismo tiempo, el sistema tolemaico era resistente y, en cierto sentido, autoinmune, ya que llevaba en sí mismo las herramientas para solucionar cualquier problema que apareciera: si había que hacer una corrección, se agregaba una rueda extra al enorme engranaje y así el modelo se protegía de cualquier medición más precisa, aunque a costa de complicarlo más y más.
Y sobre todo corría con ventaja, porque no existía ningún otro sistema alternativo. De alguna manera, se había llegado a un callejón sin salida. La cosmología geostática, apuntalada por pivotes que empezaban a cansarse después de tanto tiempo, no daba para más o no daba para mucho más. Se estaba quedando anticuada para un mundo que empezaba a verse a sí mismo como joven y pujante. Y bueno, es aquí, justo aquí, donde Copérnico toma al toro por las astas: arranca la Tierra del centro del mundo, pone allí al Sol y construye una nueva cosmología. Y con ese solo gesto pone en marcha una revolución científica destinada a replantear y cambiar todo lo que se sabía y se pensaba sobre todas las cosas.
En el siglo III antes de Cristo, Arquímedes, a propósito de las leyes de la palanca, había dicho: «Denme un punto de apoyo y moveré el mundo». Bueno, Copérnico lo hizo. Movió el mundo. Y sin ningún punto de apoyo. O sí: sólo su audacia y su genialidad.

§. Pequeños avatares de un gran científico
A principios del siglo XV, una buena parte de Polonia y Prusia estaba dominada por la temible Orden de los Caballeros Teutónicos, una horrible institución teológico-militar, semejante a los Templarios, que no ahorraba crímenes y brutalidades y que llegó a ser una de las principales potencias europeas durante el siglo XIII, en el cual fueron derrotados por las tropas rusas del príncipe Alejandro Nevsky (que no sólo salvaron a la ciudad de Novgorod, «el Gran Señor Novgorod», sino que inspiraron una magnífica película de Eisenstein, Alejandro Nevsky [1938] y una no menos magnífica cantata de Prokofiev).
Así como el príncipe Nevsky en 1242, el rey polaco Vladislav II los había derrotado en 1410, y un año más tarde los nobles y brutales caballeros se comprometían a un cese de hostilidades que duró poco, ya que en 1454 se inició una nueva guerra de trece años, que culminó con la firma, en 1466, del segundo tratado de Torum, mediante el cual Polonia se anexaba dos regiones: la Pomerania oriental y la diócesis de Varmia.
Y fue justamente en Torum donde, el 19 de febrero de 1473, nació Nicolás Copérnico, en el seno de una familia acomodada. Era hijo de Nicolás Kopernik (Copernicus es la versión latinizada, y Copérnico la castellanizada), comerciante en cobre (de ahí su apellido), que se había establecido allí a finales de la década de 1450, procedente de Cracovia.
Nicolás quedó huérfano cuando tenía diez años, al morir su padre, y pasó al cuidado de su tío Lucas Waczelrode, más tarde obispo de Varmia. A los 18 años, el mismo año en que Colón partía del Puerto de Palos (un puerto de morondanga, dicho sea de paso, del que tuvo que salir porque el resto de los puertos se hallaba colmado por judíos que estaban siendo infame y siniestramente expulsados de España, puesto que ese mismo día vencía el plazo fijado por Fernando e Isabel), a los 18 años, decía, marchó a la importante Universidad de Cracovia, entonces muy prestigiosa en Europa, donde permaneció cuatro años. Era allí donde, como contaba, se enseñaban las dos versiones de la astronomía: la «real» y la puramente matemática.
Pero a los 22 su tío lo mandó llamar: uno de los canónigos del capítulo de Frauenburg estaba a punto de morir, y por una curiosa reglamentación, si lo hacía en un mes par, el obispo designaba a su reemplazante (si no, lo designaba el Papa). El obispo Lucas quería el puesto para su sobrino, lo cual le aseguraría el sustento de por vida (lo que se llama, literalmente, una canonjía). Pero Nicolás no tuvo suerte: el canónigo se murió en septiembre, un mes impar, y se quedó sin su puesto. Mientras esperaba otra oportunidad, se fue a Italia, donde permaneció diez años.
Allí, siguiendo los pasos de su tío, se inscribió en la Universidad de Bolonia para estudiar filosofía, derecho, matemáticas, astronomía, griego y quizás un poco de pintura. Su profesor de astronomía fue Domenico Maria de Novara, astrónomo prestigiosísimo, a quien ayudó en tareas observacionales (unos años después, Rhetico —quien jugaría un papel importantísimo en la vida de Copérnico— dirá que «más que un alumno era un colaborador») como, por ejemplo, la observación del ocultamiento por parte de la Luna de la estrella Aldebarán, en la constelación de Tauro, que más tarde utilizaría en su gran obra.
En 1497 se murió otro de los canónigos del capítulo de Frauenburg, pero éste tuvo la gentileza de hacerlo en un mes par (agosto), con lo cual su tío pudo conseguir la canonjía. Sin embargo, Nicolás se quedó en Italia. En 1500 estuvo en Roma, donde según Rhetico dio conferencias sobre matemáticas (astronomía) ante un vasto público de estudiantes y un grupo de grandes hombres y expertos de esta rama del conocimiento. Aunque es difícil creerle a Rhetico al pie de la letra, ya que se supone que, como admirador incondicional de su maestro, tendería a exagerar cualquier detalle en su favor.
En 1501 vencía su permiso para ausentarse de Frauenburg, pero por lo visto Nicolás estaba decidido a prolongar su estancia italiana, así que regresó, consiguió una prórroga y se inscribió en la escuela de medicina, justamente renombrada, de la Universidad de Padua, donde estudiaría pocos años más tarde Vesalio. Sin embargo —y es muy extraño—, se graduó en Ferrara, en derecho. En cuanto a la medicina, aunque concluyó los estudios, no se graduó. En 1506, el «Doctor Nicholaus» volvió a Frauenburg y ya no volvió a viajar, salvo por cortos trayectos. En esa ciudad se comportó como un buen renacentista: incursionó en la teoría económica (enunciando lo que se conoce hoy como «Ley de Gresham»: la mala moneda reemplaza a la buena, a propósito de un proyecto de reforma monetaria) y, sin ser graduado, fue bastante apreciado como médico.
En 1514, el mismo año en que declinó la oferta del Papa para reformar el calendario, redactó una primera versión de su teoría llamada Commentariolus (Breve comentario), que no publicó pero hizo circular en forma manuscrita. Mientras, trabajaba en el manuscrito de De Revolutionibus, que terminó hacia 1530, aunque durante largos años no dio señales de querer publicarla.
Con la difusión del Commentariolus, la noticia de que el doctor Nicolás Copérnico estaba elaborando una teoría heliocéntrica del mundo se desparramaba lenta pero persistentemente, al tiempo que su fama crecía. En 1533, el propio papa Clemente VII se hizo explicar el nuevo sistema, y tres años más tarde recibió una carta del cardenal Von Schonberg, confidente del Papa siguiente, Pablo III (a quien dedicaría más tarde su libro), donde se lo instaba a divulgar su nueva teoría del universo, pero Copérnico no dio señales de hacerle caso.
Sin embargo, en 1539 recibió una visita inesperada: un joven y entusiasta profesor de matemáticas y astronomía de la Universidad de Wittenberg, Georg Joachim von Lauchen, cuyo apodo era Rheticus (por la ciudad en la que había nacido, Rhaetia), quería escuchar una versión del nuevo sistema de primera mano.
Rheticus no sólo era protestante, sino que procedía de la misma cuna del protestantismo, allí donde Lutero había publicado sus famosas tesis. También era allí donde el mismo Lutero había dicho que
Algunos han prestado atención a un astrólogo advenedizo que se esfuerza por demostrar que es la Tierra la que gira y no el cielo. Este loco anhela trastrocar por completo la ciencia de la astronomía, pero las Sagradas Escrituras nos enseñan que Josué ordenó al Sol, y no a la Tierra, que se detuviera.
Lo cual no fue, sin embargo, un inconveniente para obtener el permiso de viajar a una diócesis católica, con objeto de conocer a Copérnico, también católico. Rheticus se sumergió en el estudio del manuscrito de De Revolutionibus, y en diez semanas completó la Narratio Prima, un resumen del original que se publicó en Danzig un año más tarde, tuvo varias reediciones y una excelente recepción.
Rheticus, entonces, redobló su presión sobre su maestro para lograr que completara y publicara el dichoso libro. En 1542, el manuscrito estaba listo para la imprenta, de donde salió un año más tarde, en 1543. No se sabe si Copérnico llegó a ver el libro impreso, pues murió ese mismo año. Se cuenta que fue en su lecho de muerte, en 1543, que recibió un ejemplar del libro, pero de poco habría servido, ya que había perdido la conciencia hacía tiempo.
Sería lindo poner ahora: «y entonces empezó otra historia».
Pero no fue así.
O por lo menos, no fue del todo así.

§. El nuevo sistema
Probablemente fue en Italia donde Copérnico se convenció de que los problemas de la astronomía no tenían otra solución que un cambio radical hacia una teoría heliocéntrica y que no alcanzaba con introducir la rotación diurna, sino también el movimiento orbital, que ya era otro cantar. Buscó antecedentes de un modelo similar, y encontró que Cicerón hablaba de Hicetas de Siracusa (siglo V a.C.) y su convicción de que la Tierra se movía; se topó con que los pitagóricos ya lo habían postulado (aunque, como recordarán, el sistema de los pitagóricos como Filolao, no hacía que la Tierra girara en torno del Sol, sino que todos los cuerpos celestes, incluidos la Tierra y el Sol, giraran en torno de un «fuego central», en un sistema absolutamente fantasioso y sin fundamento observacional) y con que Heráclides Póntico (siglo IV a.C.) también había afirmado que la Tierra giraba.
Y así… empecé yo también a pensar que la Tierra se movía.
En cuanto a la teoría heliocéntrica en sí, hasta donde se sabe hoy, fue concebida por primera vez por Aristarco de Samos (320-250 a.C.), a quien curiosamente no nombra. Sobre este asunto tengo un curioso dato, que leí alguna vez y que no he podido después ubicar, pero lo cuento con todas las precauciones del caso: en el primer manuscrito del De Revolutionibus, Aristarco aparece tachado por mano del propio Copérnico. La memoria es falible, y puede ser que haya sido en alguna versión del Commentariolus (también puede ser una ilusión, un recuerdo falso), pero en cierto modo encaja, porque, dada la revisión de textos clásicos que hizo nuestro astrónomo, es realmente imposible que no hubiera leído sobre Aristarco. El misterio es por qué no lo puso como antecedente.
Sea como fuere, las ideas centrales del nuevo sistema aparecían en el primer libro de los seis que componen De Revolutionibus, aunque ya habían sido adelantadas en el Commentariolus y la Narratio Prima.
  1. El centro de la Tierra no es el centro del universo, lo es solamente de la gravedad, y de la órbita de la Luna.
  2. Todos los planetas se mueven alrededor del Sol como su centro y, por lo tanto, ése es el centro del universo.
  3. La distancia de la Tierra al Sol es imperceptible frente a la altura del firmamento.
  4. Lo que aparece como movimiento del firmamento no depende de un movimiento del firmamento mismo, sino del movimiento de la Tierra. La Tierra, junto con los elementos que están a su alrededor, cumple una rotación completa alrededor de sus polos en su movimiento diario, mientras el firmamento inmóvil y los cielos altísimos no experimentan variación alguna.
  5. Lo que aparece como movimiento del Sol no deriva de un movimiento de éste, sino del movimiento de la Tierra y de nuestra esfera, con la cual giramos alrededor del Sol como todos los otros planetas. Además, la Tierra tiene más de un movimiento.
  6. El aparente movimiento retrógrado y directo de los planetas no deriva de un movimiento de ellos sino del de la Tierra. Así, el movimiento de la Tierra por sí solo es suficiente para explicar tan diferentes desigualdades aparentes de los cielos.
Salvo por el «pequeño detalle» del movimiento de la Tierra, se explicaban de una manera relativamente sencilla muchos fenómenos.Pero no todo era color de rosa en el sistema copernicano.

§. Las dificultades
No es verdad que el sistema copernicano apareciera de repente para explicar todo. Se podían hacer objeciones de todo tipo a la teoría de Copérnico, y algunas de ellas bastante serias.
Por empezar, era necesario comprender por qué funcionaba ese nuevo mecanismo de relojería ahora alrededor del Sol, cuál era el impulso que lo hacía mover. Estaba el primer motor de Aristóteles, pero no parecía un arreglo del todo convincente… ¿cómo hacía el primer motor para imprimir la rotación a la esfera de la Luna, centrada en la Tierra? Y además, el movimiento circular y perfecto, según Aristóteles, estaba reservado exclusivamente al cielo. Asignárselo a la Tierra era cometer un pecado de leso aristotelismo, ya que el estado natural de la Tierra era el reposo. La respuesta de Copérnico era que una esfera tendía por sí sola a girar.., ¿era convincente? Muy poco.
Después estaba el asunto de la composición de los planetas. Si la Tierra era «un planeta más»… ¿Marte también estaba hecho de rocas y no de éter? ¿Y las estrellas? ¿De qué material estaban hechas las estrellas? El éter comenzaba a resquebrajarse y la sagrada e intocable distinción entre espacio sublunar y supralunar estaba amenazada.
Y todavía había más cosas que aclarar. Por ejemplo, por qué una piedra caía hacia la Tierra si ya no era el centro del universo. Copérnico hizo algunos malabarismos: los cuerpos no caen hacia el centro del mundo, sostuvo, y la gravedad no es sino la tendencia natural de las partes de un todo que han sido separadas de ese todo, a volver a él.
Así, los cuerpos terrestres no intentaban al fin y al cabo acercarse al «centro del mundo» (el Sol) para descansar en él, sino que tendían hacia su «todo»: la Tierra. Tampoco ésta era lo que se dice una explicación muy convincente: ¿cómo sabía cada cuerpo cuál era su «todo»? Si tuviéramos en la mano un pedazo lunar y lo soltáramos, ¿saldría disparado hasta la Luna? Naturalmente, nadie planteó esto: era inconcebible aún la frase «tener en la mano un pedazo lunar». Los tiempos han cambiado…
Y, además, estaba la gravísima falta de observación de paralaje estelar, de la cual ya hemos hablado en algún momento: cuando un objeto se observa desde dos puntos diferentes, tiene que verse ligeramente corrido respecto del fondo por el cambio de perspectiva. Pero las estrellas, observadas desde los dos extremos de la órbita terrestre, no mostraban ningún tipo de paralaje.
Copérnico arguyó sensatamente que estaban demasiado lejos como para que el fenómeno fuera apreciable y agrandó el radio del universo a unos 2.000 radios terrestres, que son unos 12.400 millones de kilómetros. En realidad, nuestro amigo se quedó bastante corto, muy corto: es apenas un cuarto de la distancia entre el Sol y Mercurio, su planeta más cercano. Pero Copérnico no podía tener la más remota idea del tamaño del universo, aunque escribió que, «comparada con la distancia a las estrellas, la Tierra es como un punto». Copérnico tenía razón en que el problema de la ausencia de paralaje se debía a la distancia de las estrellas, pero su respuesta era puramente especulativa y con eso no alcanzaba.
El sistema conservaba muchos rasgos del anterior, lo cual no contribuye a hacérnoslo —ahora— simpático: sobre todo, se conservaban las esferas y, aunque la última de ellas dejaba de moverse, seguía siendo un caparazón que cerraba el universo. Así y todo, Copérnico parecía hacer algunos avances confusos hacia la idea del espacio infinito.
Pero dicen que fuera del cielo no hay ningún cuerpo, ni lugar, ni vacío, ni en absoluto nada por donde pueda extenderse el cielo. Pero si el cielo fuera infinito y sólo fuera finito en su concavidad interior, quizá con más fuerza se confirmaría que fuera del cielo no hay nada, puesto que cualquier cosa estaría en él, sea cual fuere la magnitud que ocupara, pero el cielo estaría inmóvil.
Es confuso, no hay duda, pero algo es.
Por otro lado, para cumplir con la exigencia de movimiento uniforme, se vio obligado, nuevamente, a descentrar las órbitas: el verdadero centro del sistema no estaba en el Sol sino en el centro de la órbita de la Tierra alrededor del Sol, que no coincidía con el Sol propiamente dicho y que, por eso, se parecía bastante a los ecuantes tolemaicos.
Además, para ajustar el sistema y hacerlo más permeable a las observaciones, echó mano de las herramientas tradicionales: los epiciclos de los que justamente quería librarse. Al final se encontró con que necesitaba al menos 36 círculos para «salvar las apariencias»; no era una mejora decisiva (en la cantidad de círculos) respecto de los 40 promedio que se utilizaban en los sistemas que provenían de Tolomeo. Por supuesto, el problema era que las órbitas de los planetas no son circulares sino elípticas, pero hacía falta casi un siglo para que a alguien se le ocurriera semejante solución.
Para ganar cuatro esferas, habrán pensado muchos, y para toparnos con ecuantes disfrazados, no hacía falta reformar todo y armar tanto lío.
Por si fuera poco, Copérnico le agregó a la Tierra un tercer movimiento, el de trepidación, con el objeto de mantener el eje de rotación fijo, movimiento que, según se demostró, era inexistente, además de innecesario.
Y también estaba el asunto de la Luna: ¿por qué razón, entre todos los astros que giraban alrededor del Sol, sólo uno tenía la notable ocurrencia de hacerlo alrededor de la Tierra? ¿Y por qué la Tierra no la dejaba atrás en su raudo volar por el espacio?
Copérnico dejaba una multitud de problemas por resolver. Pero la marcha de la ciencia es así, y los científicos ensayan respuestas con los recursos que tienen a mano; no saben (o quizá sí saben) que más adelante, en el territorio que se atrevieron, con mejor o peor fortuna, a explorar, están las herramientas que permitirán prender el fuego mediante el golpe inteligente de dos piedras de sílex.

§. El prólogo fraguado
Por más que no explicara todo, que tuviera parches, y que conservara muchos rasgos que ya olían a rancio, el sistema heliocéntrico estaba ahí, completo y contundente. La nueva teoría era suficientemente audaz como para temer las iras religiosas. Sin embargo, la reacción eclesiástica fue mínima y aún menor entre los católicos que entre los protestantes. Lutero sí se horrorizó: ya vimos lo que dijo, y Melanchton, su brazo derecho, declaró que era una vergüenza y un verdadero escándalo presentar al público opiniones tan descabelladas.
Por el lado romano, sin embargo, no hubo problemas; al poder eclesiástico el libro no le pareció grave. Estaba dedicado al papa Pablo III y el propio Copérnico era canónigo y hombre de la Iglesia. Recién en 1616, casi ochenta años más tarde, la teoría heliocéntrica sería considerada herética y De Revolutionibus puesto en el Index de libros prohibidos. Todo esto gatillado por la propaganda que le estaba haciendo Galileo, y que llevó a su primer choque con el poder romano.
Pero había un pequeño detalle: en la edición de De Revolutionibus, y sin que Copérnico lo supiera, «se deslizó» un prólogo que presentaba al sistema como absolutamente especulativo y sin pretensiones de describir la realidad. El autor del fraude —como más tarde denunciaría Kepler— fue Osiander (1498-1552), un teólogo protestante de Wittenberg, que decía, entre otras cosas por el estilo:
No es necesario que estas hipótesis sean verdaderas, ni siquiera verosímiles. Alcanza con que provean un cálculo conforme a las observaciones. No son por fuerza verdaderas y ni siquiera probables. No se las expone para convencer a nadie de que sean verdaderas, sino tan sólo para facilitar el cálculo.
O sea: el sistema era simplemente ficcional, sólo un método de cálculo. Mientras no se creyera que la teoría heliocéntrica era «real», no habría problemas. Dicho sea de paso, esto me hace acordar un poco a la actitud de muchos científicos actuales, que bajo el argumento de que lo que postulan son «modelos» de la realidad evitan a toda costa emitir opinión sobre la realidad de esos modelos.
La verdad es que no hay que condenar de buenas a primeras al pobre Osiander, que probablemente obró de buena fe, ya fuera porque creía en lo que decía, ya porque trataba de proteger a Copérnico de los disgustos y problemas de enfrentar a la Iglesia, como más tarde comprobaría Galileo.
Pero basta con leer los primeros capítulos para comprender que Copérnico en ningún momento dudó de la «realidad» de su propuesta, aunque sabiendo que era por completo antiintuitiva. Establecía una cosmología radicalmente distanciada del sentido común: todo aquello que vemos con claridad es aparente y es sólo reflejo de otras cosas que sí son verdaderas. Lo verdadero es algo más profundo, que es tan real como las piedras. Es un realismo platónico-pitagórico, cuya inspiración explícitamente declaraba. Incluso, entre los argumentos para que el Sol estuviera en el centro, citaba fuentes herméticas como el propio Hermes Trismegisto:
Y en medio de todo permanece el Sol. Pues ¿quién en este bellísimo templo pondría esta lámpara en otro lugar mejor desde el que pudiera iluminar todo? Y no sin razón, unos le llaman «lámpara del mundo», otros «mente», otros «rector». Trismegisto le llamó «dios visible».
Éste es el único ejemplo en De Revolutionibus en que se incluye el mundo mágico-simbólico del Renacimiento.
El movimiento del Sol y de los cielos es aparente, solamente una ilusión, como el hecho de que la Tierra y el cielo se junten en el horizonte. ¡La Tierra se mueve contra todo lo que indican nuestros sentidos! Aquí queda marcada una de las características que tendrá la ciencia que surja de la Revolución Científica: se trata de una construcción contra la inducción ingenua, el sentido común y la experiencia sensible, por lo menos la inmediata, que Tartaglia ya había desechado al descreer de lo que decían los cañoneros sobre la trayectoria de las balas. El sentido común, por lo menos en su versión inmediata, engaña; la verdadera realidad está escondida bajo la complejidad de los fenómenos del mundo.
Pero entonces, para poder experimentar con esa verdadera realidad y con los verdaderos fenómenos, hace falta un lugar especial y donde los fenómenos profundos aparezcan destilados (como hará Galileo con sus bolas rodando por planos inclinados).
Y ese lugar será el laboratorio, un préstamo tomado de los alquimistas. Pero el laboratorio moderno no es, como el alquímico, un espacio donde se manifiestan las fuerzas místicas y herméticas que gobiernan la materia, sino un lugar donde reina la geometría pura y dura, y donde los fenómenos revelan su estructura matemática.
Aunque se propugne el método experimental, la vieja idea de que los sentidos engañan será más fuerte que nunca y el divorcio entre «lo que es» y «lo que se ve» alejará a la ciencia del público, fenómeno que se constata aún hoy, cinco siglos después.

§. El libro no fue un bestseller
Las revoluciones era un libro difícil. Tuvo una sola reedición y si bien no se lo leía mucho, tal vez por su complejidad, se sabía de su existencia y su influencia era grande. En 1551, Erasmus Reinhold (1511-1553), también de Wittenberg, recalculó las tablas astronómicas sobre la base de la teoría heliocéntrica, y publicó las Tablas Prusianas, que aunque tampoco eran demasiado precisas, se usaron para reformar el calendario en 1582 y seguían ampliando la brecha por la que fluía la Revolución Científica.
Algunos tomaron la teoría como un modelo matemático sin asidero físico, siguiendo el camino propuesto por Osiander, en lo que se llamó «la interpretación de Wittenberg», que volveremos a encontrar en pleno siglo XX cuando hablemos de la mecánica cuántica: una interpretación puramente instrumentalista, que no hace afirmaciones sobre la existencia de los términos postulados por la teoría.
Otros, en cambio, consideraban que Copérnico era «el nuevo Tolomeo», como el inglés Thomas Digges (1546-1596), que explicaba por qué a muchos les costaba aceptarlo: Puesto que el mundo ha arrastrado durante tanto tiempo la opinión de la estabilidad de la Tierra, la contraria tiene que resultar ahora muy inaccesible.
William Gilbert, iniciador del estudio del magnetismo, adhirió con fervor. Lo mismo que Giordano Bruno, que rompió con las esferas y proclamó un mundo infinito, donde las estrellas no eran sino soles lejanos y casi sin vestigios de metafísica, y que fue condenado a la hoguera y asesinado por la Inquisición en el año 1600.
Y aunque en todo el siglo XV prácticamente no se publicó ninguna obra en defensa del copernicanismo, hay un dato curioso: parece que se discutía popularmente en las calles de Florencia. En 1552 (apenas diez años después de la publicación), el escritor y satirista Antón Francesco Doni (1513-1574) escribió y publicó un interesante diálogo entre dos hombres del pueblo, que trata de cuestiones cosmológicas, y que muestra que el copernicanismo formaba parte de las conversaciones populares, que en las noches de verano sostenía la gente del popolo minuto, sentada en los mármoles de la catedral florentina.
Y también se difundía entre nuevas generaciones de astrónomos como Kepler o Galileo. En el proceso, el sistema se fue enriqueciendo y transformando, mientras se ajustaba para encontrar las respuestas que faltaban.

§. Elogio de Copérnico y despedida provisoria
El sistema que surgía de Las revoluciones no se había liberado del todo de los lastres de la astronomía tradicional. Copérnico conservó las esferas de cristal y sería Tycho Brahe quien rompería con esa limitación. Conservó el movimiento estrictamente circular que exigía Platón y sería la tarea de Kepler introducir las órbitas elípticas. No pudo dar una explicación totalmente convincente de por qué las cosas no salían volando por el aire al moverse la Tierra, y Galileo tuvo que tomarse el trabajo de encontrar una respuesta. En cierta forma, su obra fue un constructo, a veces algo forzado, y llevó los esfuerzos de un siglo y medio resolver las dificultades que planteaba.
Tampoco fue el primero en atribuir movimientos a la Tierra; ya lo habían hecho en la Antigüedad Aristarco de Samos o los pitagóricos Filolao y Heráclides Póntico. La rotación terrestre, por su parte, había sido propuesta, entre otros, por Nicolás de Cusa y analizada a fondo por Nicolás de Oresme.
Y sin embargo, fue él solo quien, pese a las imperfecciones, construyó el primer sistema heliocéntrico completo, coherente; quien movió al mundo de su lugar fosilizado en el centro del sistema, lo lanzó a través del espacio y armó, con todos sus errores y dificultades, una estructura coherente y tenaz, capaz de competir con Tolomeo. Fue él quien realizó un esfuerzo intelectual tan enorme, que el término «revolución copernicana» quedó acuñado para describir cualquier cambio de fondo en las concepciones del mundo.
No es posible pensar que Copérnico no comprendiera las consecuencias de la reforma que había emprendido, la cantidad de cosas establecidas con las que rompía, la manera en que alteraba la cosmovisión y la imposibilidad de una vuelta atrás. Tenía que sospechar que estaba sacando el ladrillo de abajo de la enorme construcción aristotélico-tolemaica. Y una vez hecho, era sólo cuestión de tiempo que el edificio entero se derrumbara.
La hazaña de Copérnico no fue solamente una revolución astronómica, sino una revolución filosófica y cultural. Mover a la Tierra es algo que trasciende lo puramente astronómico. Si la Tierra no está en el centro del mundo, tampoco se entiende por qué tiene que estar en el centro de la creación. Y si es un planeta como los demás, no se entiende por qué debería estar compuesta por elementos diferentes: los dos mundos (sublunar y supralunar), tan tajantemente separados durante dos mil años, empezaban a mezclarse.
Es interesante que en medio del humanismo, que trasladaba la atención del cielo a la tierra, Copérnico produjera un desplazamiento tan brutal de los intereses humanos en la lista de prioridades del universo.
Copérnico descentró al hombre, le dio una primera pauta de su poca importancia; una Tierra equivalente al resto de los planetas es una Tierra mucho más laica y secular. Copérnico nos hace ser lo que somos, seres perdidos en un universo tan vasto que no podemos siquiera imaginar, pero sí intentar comprender. Copérnico nos enseñó a todos que una revolución completa es posible, nos mostró el poder de la mente humana, capaz de dar vuelta de un saque dos mil años de tradición y ver más allá de lo que ven nuestros ojos. Copérnico está en la base misma de todas nuestras ideas sobre el mundo, es el pilar sobre el que se apoya la modernidad.
Su intento fue desmesurado, una utopía astronómica superior a sus fuerzas (y a las de la época), que necesitó ciento cincuenta años para concretarse. Dediquemos un admirado y cariñoso recuerdo a uno de los pensadores y científicos más grandes de la historia.

Capítulo 14
La derrota del círculo

Esa alegre amalgama entre magia y ciencia exacta (o pretendidamente exacta) que se había desplegado y vivido alegremente durante el Renacimiento no podía durar, y no duró. El mundo orgánico, u organicista, perdió su estructura simbólica y se fue conformando como un conjunto de fenómenos que sería, más temprano que tarde, objeto de una nueva síntesis a medida que se impusiera la filosofía mecánica.
Copérnico, Digges y Bruno habían roto el espacio signado, o signaturizado: Copérnico, al igualar la Tierra al resto de los planetas; Digges, de quien hemos hablado poco, al divulgar en Inglaterra el sistema copernicano e incluso ampliarlo, extendiendo el cielo más allá del caparazón de las estrellas fijas y afirmando que había infinitas estrellas a distancias disímiles (aunque su espacio infinito conservara rasgos teológicos al ser la sede de las grandes potencias espirituales); Giordano Bruno, de quien hablaremos más adelante, al afirmar que nuestro mundo no era único, sino que el universo debía contener infinitos mundos habitados por seres inteligentes y al disminuir de un plumazo el estatus astronómico del Sol, sosteniendo que no era más que una estrella como todas las demás. Ya no cabía duda de que el espacio de «lugares» especiales y signados estaba dando paso al espacio único de Euclides.
O mejor dicho, de Arquímedes.

§. Tycho Brahe mira el cielo y ve algo raro
El 11 de noviembre de 1572, el joven Tycho Brahe (1546-1601), de 26 años, que con el correr del tiempo llegaría a ser el astrónomo más famoso de su época, volvía a su casa después de una noche de trabajo en el laboratorio de alquimia de su tío Steen Bille, donde había estrujado la materia para arrancarle los átomos de fuego y producir oro. Al echar una mirada al cielo descubrió que algo raro estaba pasando allí arriba: cerca de la constelación de Casiopea había una estrella brillante, más brillante que el planeta Venus, donde antes no había nada. En los días que siguieron, la estrella aumentó su brillo cada vez más hasta hacerse observable incluso de día, para luego empezar a desvanecerse y desaparecer a principios de 1574. Una serie de mediciones muy simples dejaron en claro que no era un efecto atmosférico (como se pensaba que eran los cometas) sino que, por el contrario, se trataba de un fenómeno que estaba ocurriendo más allá de la Luna.
¡Una estrella nueva que aparecía y desaparecía! ¿Cómo podía ser posible? Según el dogma, en el cielo nunca nada podía cambiar (recuerden a Aristóteles). Pero allí estaba la nueva estrella de Tycho que, a decir verdad, no era exactamente una estrella nueva sino una supernova, la pavorosa explosión con que algunas estrellas terminan su vida y durante la cual su brillo se multiplica miles de millones de veces, cosa que por supuesto Tycho no podía ni remotamente sospechar.
Nuestro personaje había nacido el 14 de diciembre de 1546, tres años después de la publicación del libro de Copérnico, en el extremo sur de la península escandinava, un lugar que ahora pertenece a Suecia, pero que entonces era parte de Dinamarca. Procedía de una familia de aristócratas. Su padre había estado al servicio del rey como consejero privado, había ocupado varios cargos oficiales y terminó su vida como gobernador del castillo, situado enfrente de Elsinore, donde transcurre Hamlet, la gran obra de Shakespeare. Dicho sea de paso, tanto el príncipe protagonista como su amigo Horacio estudiaban en la Universidad de Wittenberg, donde se originó la Reforma, y de donde partió Rheticus para visitar a Copérnico e insistirle con la publicación de su libro.
Tycho fue educado por su tío (como Copérnico por su tío Lucas), y recibió una formación sólida: fue enviado a la Universidad de Copenhague en 1599, cuando no tenía aún trece años de edad, lo cual puede sorprendernos a nosotros, aunque no debería, porque el concepto de universidad englobaba, desde la Edad Media, lo que nosotros conocemos como educación secundaria.
La idea era que el muchacho siguiera una carrera que lo llevara a un cargo en el Estado o en la Iglesia, pero un eclipse parcial de sol que se produjo en 1560 desvió su vocación: Tycho se quedó pasmado por el hecho de que el eclipse hubiera sido predicho. Le pareció algo divino que los hombres pudieran conocer los movimientos de los astros de una manera tan precisa que fueran capaces de predecir ese tipo de eventos con semejante antelación.
Y así fue como dedicó los dieciocho meses que pasó en Copenhague a estudiar matemáticas y astronomía, hasta que cambió Copenhague por Leipzig, para estudiar leyes. La afición de Tycho por la astronomía, de cualquier manera, continuaba intacta, y gastaba todo su dinero en comprar aparatos de observación, gracias a lo cual sus conocimientos aumentaron rápidamente y le permitieron darse cuenta de que la comprensión que se tenía de los movimientos astronómicos no era tan precisa como había creído al principio: en 1563, una conjunción entre Saturno y Júpiter (es decir, el momento en que dos planetas están tan próximos que parecen confundirse y «habilitan» las especulaciones de los astrólogos y otros charlatanes) se produjo un mes antes de lo pronosticado.
Quizá fue entonces cuando concibió (¡a los 16 años!) las que habrían de ser las líneas directrices de su vida científica, y que implicaban una idea nueva en la astronomía observacional: las mediciones de las posiciones estelares debían ser precisas (sin admitirse los errores que, por ejemplo, había cometido Tolomeo, cuyas observaciones habían sido tomadas como buenas por Copérnico), y el único camino para la construcción de tablas precisas era la observación continuada y el seguimiento de un cuerpo celeste, noche a noche, y no las observaciones aisladas, como era común practicar hasta entonces.
Sin embargo, Tycho abandonó Leipzig al estallar la guerra entre Suecia y Dinamarca, y marchó nuevamente a Copenhague, donde ocurrió un curioso incidente: cuando el rey Federico II cruzaba con un destacamento el puente que unía el castillo de Copenhague con la ciudad, se cayó al agua, y el tío de Tycho, entre otros, acudió inmediatamente al rescate. El rey salió ileso, pero el tío pescó un resfrío que le provocó la muerte (¡un resfrío!), lo cual trajo como «efecto colateral» que Tycho recibiera una herencia, y se viera libre de las presiones familiares que aconsejaban que un joven no se dedicara a la astronomía sino a algo más útil y propio de un caballero.
Después de ese episodio, nuestro amigo estuvo en Wittenberg y en Rostock, donde se graduó, habiendo estudiado astrología, química (alquimia, en realidad) y medicina. Como tantos en su tiempo, Tycho creía en la astrología y era aficionado a elaborar horóscopos. En particular, después del eclipse de Luna del 28 de octubre de 1566, hizo un horóscopo en el que predecía la muerte del sultán Solimán el Magnífico, que había expandido increíblemente el Imperio Otomano, incluyendo la conquista de varias partes de Europa, y que sería el responsable indirecto de una de las grandes invenciones de la modernidad, como pueden leer en el recuadro.

Solimán el magnífico y el genio en la botella(azul)
Solimán el Magnífico fue no sólo lacabeza y sultán del Imperio Otomano en el momento en que éste alcanzó sumáximo poder sino el responsable, indirecto e involuntario, de la invenciónde uno de los grandes centros del pensamiento occidental moderno. No, ni laRoyal Society ni la Académie des Sciences sino algo mucho más humilde: elcafé. Solimán, cuya muerte había de predecir Tycho unos cuantos años después,llegó hasta las mismísimas puertas de Viena en 1529, marcando el apogeo de lainvasión otomana, aunque fracasó en su intento de tomarla. Cuando en 1683 losturcos intentaron sitiar nuevamente la ciudad y, nuevamente, tuvieron quedarse por vencidos, dejaron equipaje y provisiones, entre las que se contabannumerosas bolsas de café. Estas bolsas fueron imprescindibles para que, pocotiempo después, se fundara La Botella Azul, el primer café vienés, queinauguraría una moda en Europa y produciría delicias como la Cantata del caféde Johann Sebastian Bach. Cuenta la leyenda que los dueños de La BotellaAzul, al principio, recorrían las casas ofreciendo a los vecinos tazas delnuevo brebaje. El café era el genio en la botella que se había liberado enEuropa.
Lo demás es historia conocida: el cafécomo lugar de reunión, el cafetín como inspiración del tango y discutibleuniversidad del barrio; el café como refugio de la bohemia; el café comolaboratorio de la mente. Este libro se escribió en un café, sin ir más lejos.

La cuestión es que, cuando llegó la noticia de que el sultán efectivamente había muerto, su fama se fue a las nubes. Aunque seguramente bajó un poco a tierra cuando se supo que en verdad había muerto un mes antes del eclipse y, por ende, un mes antes de la predicción de Tycho, con lo cual su predicción pasó automáticamente a ser una «posdicción»: las cosas de la astrología eran y siguen siendo así. Pero por más que ahora esté mucho más desprestigiada que en ese entonces y sólo se la considere una seudo ciencia o, mejor, pura charlatanería, hay quienes la practican, quienes creen en ella, y hay muchos diarios (quizá la mayoría) que aún la siguen sosteniendo como una sección. Ni hablar de las páginas y páginas que se pueden encontrar en Internet.
Los procesos culturales son lentos, lentísimos.
El eclipse y la «predicción» de la muerte de Solimán (que bien hubiera podido tener hacia nuestro amigo la delicadeza de morirse después del eclipse, cosa que le hubiera costado poco, siendo tan poderoso como era) derivaron en una historia inesperada: en un baile de diciembre de ese mismo año tuvo un choque con otro aristócrata, Mnaderup Parsjberg, quien, al parecer —no es seguro, pero es interesante—, se burló de él por la predicción de la muerte de Solimán a posteriori. La burla redundó en un duelo, durante el cual un mandoble de su oponente le arrancó la nariz a Tycho (o, mejor dicho, buena parte de ella), a raíz de lo cual tuvo que usar una prótesis durante el resto de su vida, hecha —Tycho era pomposo, arrogante y extravagante— de oro y plata. También solía llevar una caja de ungüento que se extendía sobre la zona afectada para calmar la irritación. Cosas, también, de la astrología, que no sólo es una pseudociencia sino que, como demuestra la anécdota, es mala para quienes pretenden conservar su nariz.

§. Un gran observador
El asunto fue que su creciente pericia astronómica empezó a llamar la atención, y el propio rey le prometió una canonjía (un cargo similar al que había tenido Copérnico) apenas quedara vacante alguna. Dinamarca era protestante, y en realidad ya no había propiamente canónigos, pero el puesto se conservó para beneficiar a científicos y estudiosos, en una modalidad muy parecida a lo que hoy llamaríamos becas.
Tycho reanudó sus viajes, y realizó observaciones (para las cuales se hizo construir un cuadrante gigantesco) hasta que, en 1571, falleció su padre, recibió una aceptable herencia y se fue a vivir con un tío materno, Steen Bille, que había sido el primero en introducir en Dinamarca la fabricación en gran escala de papel y las manufacturas de vidrio, y a quien ayudaba en su laboratorio de alquimia. En esos menesteres andaba cuando observó la supernova de 1572, la «nueva estrella».
¿Pero cómo estar seguro de que, efectivamente, se trataba de una estrella nueva? Podía ser un cometa, o cualquier otro fenómeno atmosférico. ¿Cómo saberlo? La respuesta de Tycho fue registrar su posición noche a noche (la supernova fue visible durante dieciocho meses) e ir fijándose cómo variaba respecto del resto de las estrellas.
Durante todo el tiempo en que estuvo visible, la nueva estrella no se movió respecto de las estrellas fijas: Tycho se convenció de que no se trataba de un fenómeno atmosférico, sino de que estaba de manera permanente en la zona del cielo que, hasta ese momento, se presumía inmutable por estar más allá de la Luna. Por primera vez se observaba científicamente un cambio evidente en el «mundo supralunar». Claramente, algo andaba mal en ese asunto de las dos regiones del mundo.
A raíz de eso publicó, en 1573, un pequeño libro, De Nova Stella, donde demostraba que el nuevo objeto pertenecía, efectivamente, a la esfera de las estrellas fijas, y lo comparaba con otro objeto que Hiparco, 125 años antes de nuestra era, afirmaba que había observado en el cielo. Y, como no podía faltar, deslizaba diferentes consideraciones astrológicas, de las que podemos cómodamente prescindir.
De paso, fijó la palabra «nova», que aún ahora se utiliza plenamente para referirse a los aumentos de brillo repentinos de una estrella, debido a diferentes procesos relacionados con su muerte, y a veces con su muerte explosiva (la supernova). El fenómeno fue también observado y estudiado por muchos otros astrónomos, entre ellos el propio Thomas Digges, el gran propagandista inglés del sistema copernicano que ya les mencioné.

§. La supernova de Tycho (y algunas más)
Las supernovas son uno de los fenómenos más impresionantes de la astronomía, y probablemente de la naturaleza: la pavorosa explosión de una estrella, que multiplica su brillo en miles de millones de veces. A gran escala (galáctica), son relativamente frecuentes. Pero, desde nuestra modesta perspectiva, son fenómenos muy raros. En realidad, durante los últimos milenios, muy pocas supernovas se han observado a simple vista en los cielos de la Tierra.
La supernova de Tycho no fue la primera; de hecho, ya se habían observado varios fenómenos de este tipo, en 1006, en 1054 (supernova del Cangrejo) y en 1181.
Ésta, la cuarta supernova, estalló en la constelación de Casiopea e inmediatamente fue vista desde Corea, China, y por astrónomos de toda Europa.
La supernova, que también llegó a brillar tanto como Venus, dejó de observarse recién un año y medio después. En la década de 1950, los científicos detectaron sus restos mortecinos (en luz visible y en ondas de radio). Y aunque Tycho no fue el único, y ni siquiera el primero en observarla, es recordada como la supernova de Tycho porque fue él quien pudo determinar su carácter supralunar.

§. El examen del cielo
Lo cierto es que, a raíz de esta historia, Tycho tomó la decisión de estudiar el cielo y llegó a convertirse en el más grande de los astrónomos observacionales antes de la llegada del telescopio. El trabajo de toda su vida consistió en la fabricación de instrumentos muy precisos y el acopio de una cantidad increíble de observaciones con una exactitud desconocida hasta entonces.
Y así fue: después de varios avatares y debido a su fama cada vez más grande, el rey Federico, imitando prematuramente a Marlon Brando en El padrino, «le hizo una oferta imposible de rechazar»: le regaló la pequeña isla de Hveen, entre Copenhague y Elsinore, con unos buenos dinerillos para que se construyera un observatorio, al que llamó Uraniborg (por Urania, la musa de la astronomía).
Durante veinte años, Tycho se encargó de expandir y de transformar la isla en un verdadero y amplio centro científico, con un segundo observatorio, una profusa biblioteca, una imprenta (donde imprimir sus tablas y sus libros incluyendo sus poemas) y hasta una fábrica de papel para producir los insumos necesarios. Y fue allí donde empezó a poner en práctica su política de precisión y seguimiento, que implicaba la observación de los astros noche a noche.
Cuando murió el rey Federico II (1588), el gobierno de Dinamarca quedó en manos de un consejo de regencia, pero cuando el nuevo rey Christian II alcanzó la mayoría de edad y fue coronado, empezó a practicar lo que hoy llamaríamos una política de ajuste (que por lo visto es anterior al FMI), rebajando el presupuesto de Uraniborg y llegando a suprimir su pensión anual.
Tras un período de inestabilidad, Tycho fue llamado por el emperador del Sacro Imperio, Rodolfo II, en junio de 1599, después de dejar a su familia en Dresde. Llegó a Praga, la capital del Imperio, una ciudad hedionda y malsana que un informe de la época describe de la siguiente manera:
Salvo que el hedor de las calles haga retroceder a los turcos, hay pocas esperanzas de que las fortificaciones puedan hacerlo. Las calles están llenas de inmundicias, hay varios mercados grandes, los muros de algunas casas son de piedra de sillería, pero la mayoría son de madera y barro, y están construidas con poco arte y carecen de estética, siendo las paredes de troncos de árboles tal como se sacan del bosque, y en ellas la corteza está trabajada de una forma tan tosca que se puede ver a ambos lados del muro.
Tras una audiencia con el emperador, recibió el nombramiento de matemático imperial, le fue asignada una buena renta y se le ofreció el castillo de Benatky, 35 kilómetros al nordeste de Praga, adonde hizo llevar los grandes instrumentos de Uraniborg. El castillo tuvo que ser adaptado para convertirlo en un observatorio adecuado. Tycho, que pasaba ya los cincuenta años, no realizó demasiadas observaciones importantes en este lugar, salvo las de rutina: era breve el tiempo que faltaba para su muerte. Sin embargo, antes de llegar a Praga, había iniciado una correspondencia que le garantizaría el mejor uso posible para la obra que había realizado durante su vida. Comparados con los veinte años que pasó en Dinamarca, su estancia en Praga fue corta, ya que murió en 1601, al parecer después de haber superado todos los límites de exceso durante una escabrosa comilona.
Pero antes de esa cena —un año antes, para ser preciso—, Tycho recibió una visita decisiva, que sería tan importante como la visita de Rheticus para Copérnico: el joven Johannes Kepler.

§. El ocaso de las esferas
Las contribuciones de Tycho muchas veces han sido disminuidas, encasillándolo como solamente un astrónomo observacional y fundador de la astronomía de precisión, o como el iniciador del nuevo estilo de observación sistemática y seguimiento (lo cual no es poca cosa, desde ya), o como el diseñador de un sistema intermedio entre el copernicano y el tolemaico, que a la larga no tuvo una gran fortuna.
Pero en realidad fue mucho más allá y dio algunos de los pasos conceptuales que lo erigen en protagonista de la Revolución Científica, o por lo menos de este hilo astronómico que estamos siguiendo, y de la devastadora marcha de la astronomía que terminaría por demoler toda la construcción tolemaica y aristotélica sin dejar ni siquiera los escombros. Fue un proceso de ciento cincuenta años que comenzó con Copérnico y fue paso a paso. Y uno de esos pasos lo dio, precisamente, Tycho.
La «estrella nueva» que observó en 1572, y cuyo estudio le permitió determinar que se encontraba más allá de la esfera de la Luna, donde en principio nada podía modificarse, preparó el terreno para su siguiente intervención en la teoría astronómica.
Y es que tres años después de haber visto la «nueva estrella», Tycho observó un cometa. Los cometas eran conocidos desde la Antigüedad, y eran tomados como signos astrológicos de catástrofes, hambrunas, pestes, guerras, epidemias y augurios por el estilo.
Los cometas eran muy conocidos desde antiguo. Aristóteles los había estudiado y había llegado a la conclusión de que se trataba de fenómenos atmosféricos por la sencilla razón de que su irregularidad (aparecen, desaparecen y se mueven en trayectorias irregulares y cambiantes) era propia únicamente del espacio sublunar.
Pero Tycho, con su «astronomía de precisión», y ya alertado por la nova de 1572, determinó que el cometa estaba más allá de la Luna, que se movía alrededor del Sol, y que además lo hacía entre Marte y Venus, o sea que cruzaba las esferas que sostenían las órbitas de ambos planetas. ¿Cómo podía un astro atravesar esferas materiales y cristalinas sin que se hicieran trizas?
Ante la evidencia, Tycho optó por una idea audaz: decidió que las esferas no existían.
Ya no apruebo la realidad de aquellas esferas cuya existencia había admitido antes apoyado en la autoridad de los antiguos. Actualmente estoy seguro de que no hay esferas sólidas en el cielo, independientemente de que se crea que hacen girar a las estrellas o son arrastradas por ellas.
El golpe estaba bien colocado y el cristal se partió. Es difícil disminuir la importancia conceptual de este paso. La demolición de las esferas cristalinas, de casi dos mil años de antigüedad y que el propio Copérnico no había cuestionado, agregaba una pieza más a la paciente construcción que llevaría a la Teoría de la Gravitación Universal.
Porque la inexistencia de las esferas planteaba el problema del movimiento de los astros bajo una luz por completo diferente: sin las esferas ya no podía existir tampoco el sistema de correa transmisora del primum mobile, que impulsaba a la última esfera y se iba transmitiendo a las esferas interiores.
Ahora, y por decirlo así, los planetas (y el Sol, y la Luna) quedaban «sueltos». Las fuerzas motrices del sistema, fueran lo que fueren y vinieran de donde vinieren, tenían que actuar directamente sobre los planetas, como comprenderá muy bien Kepler. El buen Tycho puso así un palo más en las ruedas del sistema tolemaico. Y tarde o temprano, al aparecer el problema de qué era lo que movía a los planetas, el sistema astronómico tendría la necesidad de ser, también, un sistema físico.

§. El sistema de Tycho
Tycho, aunque lo conoció perfectamente —como todos los astrónomos de la época—, nunca aceptó el sistema copernicano. Puede ser que tuviera ganas de tener su propio sistema personal del mundo, pero la principal razón por la cual no se adhirió a la teoría heliocéntrica es que le resultaba imposible aceptar que la Tierra se moviera. Meticuloso como era, no sostuvo la inmovilidad de la Tierra como un dogma, sino que, para demostrarla, ideó un experimento: disparó con un cañón hacia el Este y el Oeste. ¿No era obvio que si la Tierra se movía la bala que iba en el sentido del movimiento de la Tierra y la que iba en contra debían alcanzar distancias diferentes? Pero las dos balas llegaron a la misma distancia.
Este argumento había sido contestado ya por Copérnico, y mucho antes por Nicolás de Oresme, pero para Tycho seguía siendo decisivo. Además, seguramente podía argüir que, si bien la paralaje no era observable en tiempos de Copérnico, si existía, no escaparía a su astronomía de precisión. Aquí Tycho se equivocaba de medio a medio, ya que la paralaje estelar se observó, como ya dije, recién en 1838 y con la ayuda de los ya desarrollados telescopios de esa época; naturalmente, Tycho ni siquiera podía imaginar la astronomía telescópica que estaba por sobrevenir en poquísimos años.
Pero la experiencia del cañón y la falta de paralaje lo convencieron de que la Tierra estaba inmóvil y lo llevaron a rechazar el sistema copernicano. Tycho se equivocaba, pero no actuaba de manera irracional ni atado a dogmas. Y es que hasta que alguien resolviera el problema y explicara cómo podía ser que la Tierra se moviera y no saliéramos todos (Tycho incluido) disparados por el aire, el sistema copernicano no podría avanzar en forma decisiva hacia la teoría de la gravitación universal.
«No podría avanzar»: aquí me dejo llevar por la narrativa y estoy mostrando la evolución de la astronomía como una marcha pausada pero firme, y hasta orgánica, desde el primer y gran intento de Copérnico hasta la teoría de la gravitación universal de Newton…
Es que, de alguna manera, es así como se construyó el imaginario histórico de la Revolución Científica, aunque ciertamente no es un buen reflejo de la historia de las ideas científicas: la ciencia se movió, como siempre, en zigzag, con avances y retrogradaciones, como los planetas, con esplendores y estancamientos. La misma idea de que «avanzó» puede ser sospechosa, aunque creo que, ya embarcados en la revolución astronómica, es lícito decirlo.
Un buen ejemplo es el sistema ticónico. En realidad, el sistema que esbozó Tycho es intermedio entre el copernicano y el tolemaico, que tampoco aceptaba, debido a las discrepancias en las observaciones, la inexistencia de las esferas y la mutabilidad del cielo.
En 1587 y 1588 publicó una obra en dos volúmenes, Astronomiae Instauratae Progymnasmata (Introducción a la nueva astronomía), donde expuso su sistema: la Tierra está inmóvil en el centro del universo, mientras la Luna, el Sol y las estrellas describen órbitas alrededor de ella. Pero los planetas no: los cinco se mueven alrededor del Sol, y todo el conjunto gira alrededor de la Tierra, rellenando el espacio que se extiende hasta la esfera de las estrellas fijas, que para Tycho estaban a una distancia equivalente a 14.000 veces el diámetro de la Tierra (unos 182 millones de kilómetros). Este sistema no necesita epiciclos ni deferentes, y además suprime la objeción de la falta de paralaje, ya que la Tierra está inmóvil. Por supuesto, las órbitas, y esto es una innovación seria, no están asociadas a nada material, ya que se cruzan y atraviesan todo el tiempo.
El sistema fue relativamente aceptado, probablemente más por quienes no querían comprometerse demasiado con el copernicano y preferían una actitud astronómica tibia, o neutral (en particular los jesuitas). Sin embargo, cuando Galileo escribiera su trabajo sobre los grandes sistemas del mundo, ni siquiera lo tomaría en cuenta.
También parece que Tycho (al igual que Copérnico en su momento) lo diseñó sin tener demasiado en cuenta la enorme masa de sus propias observaciones sistemáticas, en especial aquellas relacionadas con la órbita de Marte, que resistían todos los intentos de adaptarse al círculo desde hacía siglos.
La órbita de Marte, la órbita de Marte…
Allí estaría la clave para la siguiente y rotunda gran modificación de la astronomía.

030.jpg
El sistema de Tycho

§. Johannes Kepler
La vida de Kepler no fue tan cómoda como la de Tycho. Para nada cómoda, en realidad. Aunque procedía de una familia que en otros tiempos había pertenecido a la nobleza, su abuelo había sido un peletero que hacia 1520 se trasladó de Nüremberg, su ciudad natal, a Weilderstadt, no lejos de Stuttgart, en el sur de Alemania, donde tuvo éxito como artesano y llegó a ser alcalde. Llegar a dicho cargo no tuvo poco mérito, dado que era un luterano que vivía en una ciudad donde predominaban los católicos; su hijo mayor, Heinrich, el padre de nuestro Kepler, fue un despilfarrador y un borracho cuyo único empleo duradero fue el de soldado mercenario. Se casó joven con una mujer llamada Katharina, que tenía una gran fe en los poderes curativos de los remedios caseros, como las hierbas y otros parecidos, una creencia frecuente en aquella época (y más, dada la ineficiencia de la medicina), pero que iba a dar como resultado finalmente su encarcelamiento como sospechosa de brujería, lo cual causó no pocos dolores de cabeza a su hijo, que tuvo que usar toda su influencia una y otra vez para salvarla.
Johannes Kepler, que más tarde pondría orden en el sistema solar, nació el 29 de diciembre de 1571 y, cuando sólo contaba dos años de edad, su padre se marchó a combatir en los Países Bajos y Katharina lo siguió, dejando al niño con su abuelo. Sus padres regresaron en 1576 y la familia se trasladó a Leonberg, en el ducado de Wurttemberg. Heinrich probó suerte en distintos negocios, incluido regentear una taberna, actividad en la que perdió todo su dinero. Entonces, volvió a engancharse como mercenario, se fue y no se volvió a saber nada de él.
Johannes fue víctima de todo este ajetreo, cambiando de hogar y de escuela a cada rato. Mientras estaba con su abuelo contrajo viruela, a consecuencia de la cual su vista quedó afectada para el resto de su vida, condenándolo a no ser un buen observador de los cielos. A la edad de 7 años fue admitido en una de las nuevas escuelas latinas, fundadas para preparar a los funcionarios luteranos que exigía la Reforma para la prestación de servicios dentro de la Iglesia o en la administración del Estado; con el título de una de estas escuelas podía presentarse a un examen para ser admitido en un seminario y prepararse para el sacerdocio, que era el camino obvio y tradicional que tenía que seguir un joven inteligente para salir de la pobreza.
Es posible que el interés de Kepler por la astronomía ya se hubiera despertado cuando era sólo un niño y vio (en dos ocasiones diferentes) un brillante cometa (el mismo que Tycho Brahe estudió en 1577) y un eclipse de Luna, aunque estas cosas siempre se dicen a posteriori.
Lo que sí es seguro es que, a pesar de ser un joven enfermizo, demostró ser tan prometedor académicamente que sus tutores se esforzaron en hacerlo ingresar a la Universidad de Tubinga, donde iba a completar sus estudios de teología. Aunque se estaba formando para llegar a ser sacerdote, entre las materias que Kepler tuvo que estudiar estaban las matemáticas, la física y la astronomía, y en todas ellas fue un alumno destacado. El catedrático de matemáticas de aquella universidad era Michael Maestlin (1550-1631), quien explicó debidamente a sus alumnos en las clases oficiales el sistema de Tolomeo, aprobado por la Iglesia Reformada. Sin embargo, en privado, Maestlin expuso también el sistema de Copérnico a un selecto grupo de alumnos, entre los que se encontraba Kepler. Estas explicaciones seguramente impresionaron profundamente al joven y lo inclinaron hacia Copérnico desde temprano. En realidad, bajo el influjo de Maestlin se convirtió en uno de los astrónomos copernicanos más combativos desde Rheticus.
¿Hubiera sido un buen pastor luterano? Afortunadamente, no lo sabremos nunca, ya que en 1594, el año en que debía haber finalizado sus estudios de teología, su vida cambió a causa de un fallecimiento que tuvo lugar lejos de allí, en la bella ciudad austríaca de Graz, junto al río Mur (o por lo menos bella ahora…, habría que ver si entonces no era una de esas inmundas ciudades medievales).
Porque resulta que en Graz había un seminario que mantenía estrechas relaciones académicas con Tubinga y, al morirse el profesor de matemáticas, las autoridades solicitaron a Tubinga un sustituto. Resultado: allí fue Kepler a instalarse en Graz.
Graz pertenecía al Imperio, pero estaba ubicada en uno de los Estados donde la influencia católica era dominante, cosa que le traería continuos problemas. Aunque algunos de los príncipes locales eran más o menos tolerantes y permitían cierta libertad de cultos, Graz era la capital de un pequeño estado llamado Estiria y estaba gobernado por el archiduque Carlos, decidido a aplastar el movimiento protestante (aunque en la época en que llegó Kepler se toleraban todavía algunas excepciones, como el seminario luterano de Graz).
Kepler no disponía de recursos económicos procedentes de su familia y su situación no mejoró cuando los miembros de la dirección del seminario decidieron asignarle los tres cuartos del salario hasta que demostrara su valía. Sin embargo, existía un trabajo mediante el cual podía ganar algo de dinero y granjearse las simpatías de la alta sociedad de Graz: confeccionar horóscopos, ocupación que usaría durante toda su vida como un medio para ganar dinero. Hay quienes sostienen que Kepler no creía en los horóscopos y los utilizaba por pura necesidad, y que en su correspondencia privada se refería a los clientes denominándolos «imbéciles» y afirmando que la astrología era un asunto «tonto y vacío», aunque eso puede ser una afirmación para engrandecerlo a Kepler. Al fin y al cabo, hizo el horóscopo de su familia y de sus hijos, y realmente la creencia en los horóscopos no desentonaba del todo con el misticismo pitagórico y neoplatónico en que vivía envuelto.
De todos modos, la habilidad de un astrólogo es hacer «predicciones» mediante generalidades ambiguas y decir a cada persona más o menos lo que desea oír. Un buen ejemplo de la habilidad de Kepler en este arte es lo que hizo cuando le encargaron un calendario del año 1595, en el que tenía que predecir los acontecimientos importantes que se iban a producir durante aquel año venidero. Entre las predicciones que tuvieron éxito cabe mencionar las rebeliones de los campesinos de Estiria, las incursiones de los turcos en Austria desde el Este y un invierno frío. Su habilidad para revestir con un galimatías astrológico estas predicciones de sentido común no sólo consolidó su reputación en Graz, sino que consiguió que su salario aumentase hasta el nivel correspondiente al puesto que ocupaba.

§. El misterio del Universo
Fue precisamente en Graz donde tuvo una «iluminación» que de alguna manera definiría su vida: se dio cuenta de que del mismo modo que sólo existen cinco poliedros regulares, sólo existen seis planetas, y por lo tanto sólo cinco espacios entre ellos. Y eso, para un buen místico pitagórico como él, no podía ser obra del azar sino la huella de un dios geómetra que había construido el mundo con los Elementos de Euclides en la mano.
La brillante idea que se le ocurrió a Kepler fue encajar estos poliedros regulares imaginariamente, unos dentro de otros, de tal forma que en cada caso los vértices de la figura interna tocaran la superficie de una esfera que rodeaba el sólido, y que esta esfera, a su vez, tocara las caras internas de las superficies de la siguiente figura que envolvía a esta esfera dentro del conjunto de figuras anidadas. Teniendo en cuenta que se utilizaban cinco sólidos euclídeos y una esfera dentro del sólido más interno, así como otra por fuera del más externo, eran en total seis esferas —una por cada órbita planetaria—. Situando el octaedro en el medio, rodeando al Sol e incluyendo en su interior una esfera con la órbita de Mercurio, seguido de un icosaedro, un dodecaedro, un tetraedro y un cubo, Kepler consiguió un espaciamiento entre las distintas esferas que correspondía más o menos —con mucha buena voluntad— al espaciamiento entre las órbitas que describen los planetas alrededor del Sol.
Desde ya era falso (aunque no podía saberlo, los planetas ni siquiera son seis) y la construcción que intercala los poliedros entre los planetas suena hoy a un disparate. Pero muchos científicos, aun los más grandes, se manejan a puros golpes de intuición, que a veces lo único que logran es dejarlos en la oscuridad y hacerles perder tiempo.
La coincidencia no pasaba de ser aproximada y no era más que un delirio pitagórico sin sustento, pero cuando se le ocurrió la idea le pareció una especie de revelación divina. Un poco contradictoria, si se quiere, ya que estaba basada en el sistema copernicano, no aceptado por la Iglesia Reformada, pero ya se sabe que una revelación es una revelación.

031.jpg

El Mysterium Cosmographicum

Kepler pasó el invierno de 1595-1596 desarrollando su engendro con todo detalle y mantuvo correspondencia al respecto con su antiguo maestro Michael Maestlin. A principios de 1596, se le concedió un permiso que lo liberaba temporariamente de su trabajo como profesor para ir a ver a sus abuelos enfermos y aprovechó la oportunidad para visitar a Maestlin en Tubinga, que lo animó a desarrollar sus teorías en un libro y supervisó la impresión de esta obra, que se publicó en 1597, poco después de que Kepler volviera a retomar sus funciones en Graz.
El libro se conoce en general con el título Mysterium Cosmographicum (El misterio del cosmos) y aparte de sus juegos poliédricos y varios otros sin mucho sentido (como la música de las esferas, que llega a poner en notación musical), adelanta una idea que usaría fructíferamente más tarde: recogiendo la afirmación de Copérnico según la cual los planetas se mueven en sus órbitas más lentamente cuanto más lejos se encuentran del Sol, sugirió que se mantenían en sus órbitas por efecto de una fuerza que llamó «vigor» o anima motrix, procedente del Sol, que los impulsaba en su trayectoria y que disminuía con la distancia al Sol, por lo que haría que los planetas más distantes se movieran más lentamente.
Mi propósito… es demostrar que la máquina del universo no es como un ser animado por la Divinidad, sino como un reloj,
aseguraba. Kepler envió copias de su libro a los astrónomos y científicos más grandes de su tiempo, entre los cuales cabe mencionar a Galileo. Bueno, en realidad no se lo envió directamente a Galileo, que por ese entonces distaba mucho de ser «uno de los científicos más grandes de su tiempo», sino que hizo circular copias, recomendando que se hicieran llegar a científicos distinguidos. Así llegó a manos de Galileo, que no se molestó en enviar comentario alguno como respuesta, salvo unas frases formales, pero mencionó el modelo en sus clases magistrales. Por otra parte, no es de extrañar, ya que a Galileo le habrá parecido un libro puramente místico, en una línea completamente opuesta a la que él estaba trabajando y que tanto resultado le daría.
Pero —y éste es el punto fuerte— sí le contestó Tycho Brahe, mucho más sensible a ese tipo de especulaciones, quien quedó impresionado por las habilidades matemáticas del autor del libro, aunque la idea de un universo centrado en el Sol era todavía anatema para él. De hecho, Tycho Brahe estaba tan impresionado que le planteó la posibilidad de unirse al equipo de ayudantes que trabajaba con él, cosa que sólo se realizaría unos años más tarde, pero que sería un momento decisivo para Kepler.
En 1597, se casó con Bárbara Müller, una joven viuda, hija de un rico comerciante, lo cual fortaleció su posición económica, pero mientras tanto, la situación política se iba deteriorando en Estiria: en diciembre de 1596, el archiduque Fernando, que era un católico ferviente, se había hecho con el gobierno de este pequeño estado, y decidido como estaba a que su dominio volviera al catolicismo, había comenzado con las presiones sobre los protestantes. En septiembre de 1597 se hizo público un edicto en el que se conminaba a todos los maestros y teólogos protestantes a abandonar el Estado en un plazo de dos semanas o a convertirse al catolicismo.
No había más remedio que obedecer y Kepler fue uno de los muchos luteranos expulsados que se refugiaron en los estados vecinos, aunque a él se le permitió volver, seguramente debido a su creciente prestigio como matemático. No obstante, las severas condiciones bajo las cuales tuvo que vivir a partir de aquel momento le hicieron pensar en mudarse, especialmente en 1599, cuando la situación llegó a ser intolerable. Por entonces Tycho Brahe estaba en pleno proceso de instalarse a unos 320 kilómetros de distancia, cerca de Praga, en un lugar en que las personas tenían libertad para practicar los cultos religiosos a su propia manera, y Kepler accedió a él a través del barón Hoffman, un noble de Estiria (que estaba impresionado por la obra de Kepler y había conocido a Tycho Brahe), y gestionó el primer encuentro entre ambos. Aunque la intención de Kepler había sido realizar una breve visita (había dejado a su esposa y a su hijastra en Graz y no había presentado su renuncia al cargo que tenía allí), la convirtió en una larga estancia.
Kepler, que carecía por completo de dinero, necesitaba desesperadamente un puesto oficial con su correspondiente retribución para poder trabajar con Tycho, que había estado negociando con el emperador Rodolfo justamente para conseguirle ese cargo oficial. Al mismo tiempo, en el verano de 1600, cuando se exigió a todos los ciudadanos de Graz que no eran todavía católicos que cambiaran de religión inmediatamente, Kepler se negó, por lo que fue cesado en sus cargos y «beneficiado» con un período de seis semanas y tres días para marcharse del Estado. Kepler escribió a los dos únicos buenos contactos que tenía, Michael Maestlin y Tycho Brahe, pidiéndoles ayuda. La respuesta de Tycho Brahe llegó inmediatamente, asegurándole que las negociaciones con el emperador marchaban bien y urgiéndole a que se pusiera inmediatamente en camino hacia Praga, con su familia y con los bienes que le permitieran llevarse.
La cosa es que, después de una breve estancia en Praga, en febrero de 1601 los Kepler se mudaron con la familia de Tycho y, tras algunos escarceos, por fin Kepler fue presentado formalmente al emperador, que lo nombró ayudante oficial (¡y remunerado!) de Tycho, con el cometido de recopilar una nueva serie de tablas de posiciones planetarias, que se llamarían Tablas Rudolfinas, en honor del emperador.

§. Kepler hereda el cielo de Tycho
Por fin había quedado regularizada la posición de Kepler, aunque las relaciones con Tycho distaban de ser armoniosas: el flamante ayudante se quejaba de que su maestro le suministraba sus datos en una especie de gota a gota, sólo cuando consideraba que Kepler los necesitaba, sin permitirle nunca el libre acceso a toda aquella información. Difícilmente se puede hablar de una relación estrecha y amistosa.
Pero, al cabo de poco tiempo, el 13 de octubre, después de la comilona que mencionamos, Tycho cayó enfermo. Tras diez días al borde de la muerte, delirando frecuentemente y de tal forma que se le oyó gritar en más de una ocasión que tenía la esperanza de que no pareciera que había vivido en vano, su mente se volvió lúcida de repente la mañana del 24 de octubre. Esa mañana, le encomendó a Kepler la tarea de terminar las Tablas Rudolfinas y lo designó como responsable de preservar el enorme tesoro de datos relativos a los planetas —aunque también lo urgió a que los utilizara para demostrar que el modelo del mundo que él había construido era el verdadero, y no el de Copérnico—.
Tycho murió poco después de haber confiado el legado de la obra de su vida al asombrado Kepler, que sólo unas semanas antes no había sido más que un refugiado sin un centavo, y cuyo asombro no fue menor cuando, un par de semanas más tarde, fue nombrado sucesor de Tycho Brahe como matemático imperial de la corte de Rodolfo II, lo cual implicaba que sería el único responsable de todos los instrumentos de Tycho y también de su obra no publicada.
Durante los años que Kepler pasó en Praga, su trabajo se vería obstaculizado por muchos factores. Sufrió continuas dificultades financieras; hubo interferencias de los herederos de Tycho Brahe, que estaban ansiosos por ver impresas las Tablas Rudolfinas y otras publicaciones póstumas (sobre todo por la esperanza de conseguir dinero gracias a los libros) y además estaban las funciones que tenía que desempeñar como matemático imperial (lo cual significaba ser el astrólogo imperial), que le hacían perder gran parte de su tiempo en la tarea de aconsejar al emperador Rodolfo sobre el significado de los prodigios cósmicos en relación con esto y aquello, desde las perspectivas de guerra con los turcos, las malas cosechas o el desarrollo de los conflictos religiosos. Encima, los cálculos eran pesados y laboriosos en un mundo, para nosotros, inimaginable, sin calculadoras de bolsillo o computadoras.

§. La órbita de Marte: contra el círculo
No es sorprendente que fuera tan trabajoso establecer la órbita de Marte, desafío que se arrastraba desde Tolomeo, y que nadie había podido resolver con precisión (la verdad de la milanesa es que su excentricidad —que mide cuánto se aparta del círculo— era grande, y es lógico que presentara problemas).
En primer lugar, Kepler intentó una solución tolemaica (y copernicana, para qué vamos a ocultarlo): exploró la posibilidad de una órbita descentrada, aunque estrictamente circular, de tal modo que Marte se encontraba en una mitad de su órbita más cerca del Sol que en la otra mitad. Dado que el movimiento de los planetas era impulsado por el Sol, por medio de ese «vigor», que actuaba más poderosamente cuanto más cerca estuviera el planeta de él, era perfectamente aceptable que Marte se moviera con mayor velocidad en una parte de su órbita que en otra: estaba levantando así la exigencia de movimiento uniforme (cosa que hubiera horrorizado a Copérnico), lo que lo llevó a formular la ley de las áreas (que quedaría como su segunda ley): el radio vector que une un planeta y el Sol barre áreas iguales en tiempos iguales.
Kepler encaró entonces la tarea de determinar la órbita de manera exacta con los datos precisos de Tycho. Pero cuando tras interminables cálculos llegó a una conclusión, hete aquí que encontró un par de observaciones que no encajaban con las esferas de Copérnico. La diferencia era poca (ocho minutos de arco), error que Copérnico hubiera aceptado. Pero Kepler no estaba dispuesto a ignorarlo:
Esta diferencia es menor que la incertidumbre de las observaciones de Tolomeo, la cual era por lo menos de diez minutos, según las declaraciones de dicho astrónomo. Pero la bondad divina nos presentó en Tycho Brahe a un observador muy exacto; estos ocho minutos que ya no se pueden despreciar me han puesto en el camino para reformar toda la astronomía.
¿Y entonces? Y entonces, al encontrar una discrepancia para él imposible de remontar entre la observación y la teoría, rechazó la teoría y decidió probar con órbitas no circulares. Era una idea de una audacia terrible y seguramente inédita: el círculo era la forma perfecta, el símbolo de la divinidad, el centro de la cosmogonía, era la figura ideal para mantener en marcha los cielos. Enfrentar al círculo era como enfrentarse a un dios, o quizás aún peor (a veces pienso que la naturaleza imaginativa y propensa a lo místico y lo fantástico de Kepler, como lo probaba el constructo de los poliedros, lo ayudó en semejante decisión filosófica y epistemológica).
Y si no era un círculo: ¿qué podía ser? Kepler fue gradual y tanteó: probó con un círculo estirado (un óvalo) y cotejó dificultosamente las observaciones.

La supernova de Kepler
Así como Tychohabía tenido la fortuna de observar en 1572 una supernova, Kepler, aunque másno fuera por lo que había ya hecho, sino por lo que haría, merecía tener lasuya y la tuvo: el 9 de octubre de 1604 otra bomba de luz estalló en laconstelación de Ofiuco. Aparentemente, llegó a ser casi tan brillante como lade Tycho, y tardó más de un año en desaparecer. Kepler trató de encontrar suparalaje, pero no tuvo éxito: nuevamente quedaba en claro que esas «cosas»formaban parte del mundo de las estrellas. Nuevamente, un golpe a los cielosinmutables. Al igual que en los casos anteriores, la astronomía moderna logróencontrar el lugar exacto y los restos de la supernova de Kepler.
Quizá vale lapena notar una cosa que muestra cómo es la marcha de la ciencia: Kepler nodudó en deducir de la falta de paralaje de la supernova (él naturalmente nosabía que lo era), su pertenencia al mundo de las estrellas, pero ignoró elproblema de la falta de paralaje que ensombrecía el sistema copernicano, yque se despachaba con el argumento (que muy bien podía considerarse entoncesad hoc) de las Revoluciones: las estrellas estaban muy lejos.

En 1603, escribió que si la forma de la órbita fuera una elipse perfecta, podrían encontrarse todas las respuestas en Arquímedes y Apolonio. Un año y medio más tarde suponía que la verdadera forma estaba entre la oval y la circular, algo intermedio, exactamente como si la órbita de Marte fuera una elipse perfecta.
Finalmente, tras estrellarse una y otra vez contra el óvalo, encontró una fórmula que determinaba la distancia. Y entonces vio que la fórmula correspondía a una elipse.
Oh, qué estúpido he sido,
escribió.
Cuando reemplazó los óvalos por elipses, todos los datos se acomodaron.
Hay que tener en cuenta el esfuerzo intelectual que significaba pensar en una elipse. Un círculo puede girar sobre sí mismo, y permanecerá siempre idéntico. Copérnico creía que una esfera naturalmente tendería a girar y mantendría ese movimiento circular. Pero con una elipse no hay manera: la elipse no goza de las simetrías perfectas del círculo. Sin embargo, gracias a Kepler, la segunda cónica de Apolonio hizo su entrada triunfal en el mundo astronómico.
En 1609 publicó su obra maestra, Astronomía nueva, donde se enuncia su primera ley, que reemplaza las órbitas circulares por órbitas elípticas con el Sol en uno de los focos:
Los planetas se mueven en torno del Sol siguiendo elipses y el Sol ocupa uno de los focos.
Era el fin del mandato de Platón: la circunferencia (o la esfera) era una cerradura demasiado estrecha, un
instrumento muy grueso como para mirar la realidad. Kepler forzó de una vez por todas esa cerradura y destruyó el mandato que había respetado Copérnico, ¡y respetaría el mismísimo Galileo!
Kepler y sus elipses no tienen precursores. Nadie antes había sospechado siquiera nada así (aunque Tycho, parece, deslizó que la órbita del cometa de 1575 podía ser ovalada, y también parece —aunque no es seguro— que un tal Arzaquel de Toledo —1029-1087— sugirió la idea de las órbitas elípticas, aunque basándose en datos totalmente equivocados; de todos modos, Kepler no pudo tener noticias de él).
La primera y la segunda leyes de Kepler, junto a la tercera, que enunció recién en 1619 y que dice que los cuadrados de los períodos de los planetas son proporcionales a los cubos de los ejes mayores de las respectivas órbitas (relacionando así las distancias con los tiempos de revolución), completan el sistema de Copérnico enunciado cincuenta años antes y lo dotan de elegancia y simplicidad. Ya no hace falta recurrir a epiciclos y otras antiguallas, ni al asqueroso «sol medio» para hacer encajar en círculos, a la fuerza, órbitas que en realidad eran elípticas. Y además —esto hay que decirlo— la tercera ley permite deducir la ley de gravitación universal de una manera elegantísima, aunque un poco complicada para ponerla aquí. También las dos primeras lo permiten, como demostrará Newton.

032.jpg
La primera y la segunda leyes de Kepler

Y bueno. Ya estaba en orden el sistema solar. Faltaba averiguar qué lo mantenía en orden y movimiento. Y ahora no había vuelta que darle: no podía haber primum mobile, puesto que de las esferas no quedaba nada; ya eran planetas sueltos en el espacio que se movían alrededor del Sol y encima sobre elipses. Si había algún motor allí, ese motor tenía que aplicarse sobre los planetas mismos.
En Francia, Descartes inventaría una teoría según la cual todo el movimiento del mundo estaba sostenido por torbellinos de materia sutil, que entre otras cosas movían a los planetas y construiría sobre esa base una especie de física cualitativa, incapaz de predecir nada, dicho sea de paso, pero que tendría éxito en Francia debido al enorme prestigio de su autor. Pero no era para nada convincente.

§. El anima motrix
Kepler, por su parte, le había dado vueltas al asunto, y en 1628 publicó un libro de astronomía copernicana donde reflotaba una idea que aparecía ya en su Misterium Cosmographicum: hay una fuerza motriz, un anima motrix que emana del Sol y, al girar éste, actúa sobre los planetas, una fuerza de tipo magnético que «barre» los planetas, lateralmente, y los empuja hacia el costado, evitando así la tendencia natural de los cuerpos al reposo. Aquí Kepler interpretaba el movimiento como un proceso transitorio que lleva inevitablemente al reposo: le faltaba la ley de inercia que formularía Galileo unos años más tarde.
Kepler describía esta fuerza como «nervios» o «tientos» que salen del Sol, que gira sobre sí mismo, y actúan solamente en el plano de la eclíptica (donde se ubican las órbitas planetarias), formando una especie de remolino aplanado y por lo tanto disminuyendo en forma inversamente proporcional a la distancia, y no al cuadrado de la distancia, como había pensado al principio, dada la afinidad que veía con la propagación de la luz. Estos tientos empujaban lateralmente a los planetas sobre una órbita circular.
Era, si se quiere, una fuerza ad hoc, muy diferente de todo y que además obligaba a justificar por qué las órbitas eran elípticas (cuando el anima motrix imponía la circularidad). Pero a Kepler no se le ocurrió otra cosa. Ahí a nuestro gran astrónomo se le deslizó cierto residuo platónico, que él mismo había combatido y destruido. No sólo por eso era poco satisfactorio: nadie podía explicar la naturaleza de esa fuerza, ni las observaciones coincidían con los «tientos», que más bien parecían las bridas de los carros de los caballos del Sol.
Los círculos, que se resistían a morir, no se observaban de hecho: para que la trayectoria fuera efectivamente una elipse, tal como lo había calculado, Kepler agregó otra fuerza, una fuerza magnética, tomada de los estudios que William Gilbert había hecho sobre el magnetismo. Gilbert consideraba que los planetas eran gigantescos imanes, y Kepler utilizó esas fuerzas magnéticas, de atracción y rechazo entre los planetas y el Sol, que deformaban las órbitas circulares y las volvían elípticas. Así, Kepler completaba su sistema matemático y lo transformaba también en un sistema físico.
La obra de Kepler no fue apreciada como merecía, pese a ser uno de los astrónomos más famosos de Europa (era el astrónomo imperial, al fin de cuentas). Y quizá no fue aceptada como merecía porque sus tres leyes luminosas estaban escondidas, cuando no enterradas, dentro de parvas de especulaciones esotéricas sobre la música de las esferas, y las relaciones pitagóricas entre los planetas y las notas musicales, y además, porque se lo veía, principalmente, y no obstante su fama, como un fabricante de horóscopos y un fantasioso especulador sobre ideas que eran rechazadas por la naciente filosofía mecánica. Galileo nunca consideró las órbitas elípticas, de hecho. Aunque Newton, en su gran síntesis, lo citaría abundantemente.
Pero las Tablas Rudolfinas, que publicó en 1627, habían sido calculadas tomando en cuenta las tres leyes, eran las más exactas jamás producidas y fueron usadas durante más de un siglo como referencia inevitable. A partir de esas tablas, todos los astrónomos, de alguna manera, estaban aceptando la astronomía kepleriana.
Las tres leyes y la concepción del sistema solar como un sistema que tiene en el Sol su centro matemático —ya que ocupa uno de los focos de las elipses planetarias— y físico —ya que del Sol emana la fuerza motriz— jugaron un papel importante en el desarrollo de las ideas que encaminarían la Revolución Científica hacia una síntesis astronómica.
Perseguido por el fanatismo protestante y católico, siguió ejerciendo la profesión bastante remunerativa de astrólogo hasta su muerte en 1630.
Tres años antes de que empezara el gran conflicto de Galileo con la Iglesia.

Capítulo 15
Galileo

No sé si es exacto, pero si no lo es, por ahí anda: creo que uno podría decir que así como la ciencia en general arranca con Tales de Mileto y su decisión de no darles papel alguno a los dioses en la explicación de los fenómenos naturales, la ciencia moderna empieza con Galileo Galilei y su decisión tajante de separar cualquier interferencia teológica del estudio de la naturaleza.
Es cierto que hay una tradición detrás que no es para nada despreciable: sin ir más lejos, ya Copérnico había descentrado a la Tierra y con ese descentramiento había desencadenado una serie de cambios fenomenales en la cosmovisión occidental, que culminarían con una de las más grandes hazañas del pensamiento humano: el libro de Newton Los Principios matemáticos de la filosofía natural (hacia donde nos estamos dirigiendo), que se seguiría casi al pie de la letra durante los dos siglos siguientes, y su ley de gravitación universal que no sólo unificó de golpe el universo bajo una ciencia única, sino que le dio a esa ciencia única un programa completo.
Pero Copérnico fue y siguió siendo, más allá de su genio extraordinario y valeroso, un hombre del Renacimiento, un neoplatónico y pitagórico, con cierta ligera condescendencia renacentista con el hermetismo (muy poca, en verdad); Tycho, que tenía una actitud más de avanzada con la ciencia experimental (que no otra cosa era su astronomía de precisión) y que había realizado un importantísimo trabajo al demoler las esferas de cristal, seguía siendo un devoto de la tradición aristotélica, a pesar del diseño poco aristotélico de su sistema; Kepler era un místico pitagórico que buscaba en el universo las antiguas armonías musicales, aunque sin quererlo las destruyó con sus tres leyes, pero Galileo….
Galileo, por el contrario, es plenamente moderno. Su teoría del conocimiento, su modo de experimentar, su epistemología, su enfrentamiento con la tradición (que lo condujo a su tragedia con la Iglesia) son la modernidad, constituyen plenamente aquello que hoy consideramos que es la ciencia. Aunque la historia de la ciencia no es una competencia por ver quién es más moderno, una historia de las ideas científicas tiene que mostrar esas tendencias.
La ciencia autónoma, la ciencia independiente de los dogmas y de la fe, la ciencia perfectible y siempre sujeta a revisión, la ciencia provisoria y hasta la interpretación realista de los modelos científicos surgen de Galileo. Es justo, por eso, que hablemos de él con cierto detalle.

§. Vida de Galileo
Nació en Pisa el 15 de febrero de 1564, el mismo año que William Shakespeare, el mismo mes en que murió Miguel Ángel, y a pocos años de que la Iglesia desatara, o intensificara, mejor dicho, su ofensiva de la Contrarreforma. Su familia tenía buenos contactos y una posición respetable dentro de la sociedad, pero siempre sería un problema para ellos encontrar el dinero necesario para mantener el «estatus», y, de hecho, durante buena parte de su vida Galileo tendría una y otra vez problemas económicos.
El padre de Galileo, Vincenzo Galilei, que había nacido en Florencia en 1520, fue un excelente músico profesional, profundamente interesado por la teoría de la música, a tal punto que algunas de sus obras se siguen ejecutando (si quieren escuchar algunas de sus composiciones, pongan «Vincenzo Galilei» en Youtube), aunque quizás se deba a la fama universal de su hijo más que al mérito propio. Se había casado en 1562 con una joven llamada Giulia, y Galileo fue el mayor de sus siete hijos, de los cuales tres murieron en la infancia.
Vincenzo, que tenía montado un buen sistema de relaciones sociales, llegó a ser músico de la Corte de Toscana y desde allí, entró en contacto con duques y príncipes de Florencia, que era entonces el centro intelectual (y artístico) de la Italia renacentista, una especie de nueva Atenas brillante y colorida, aunque oscurecida por las guerras y las persecuciones religiosas, siempre siniestras.
Hasta los 11 años, Galileo fue educado por su padre en su propio hogar, se convirtió en un músico excelente por derecho propio, y durante toda su vida tocó (sobre todo el laúd) únicamente por placer. Aunque sin embargo, y déjenme especular un poco, esta cualidad musical pudo haberlo ayudado en sus posteriores experimentos científicos, ya que un oído finísimamente entrenado lo pudo ayudar a medir pequeños intervalos de tiempo.
Tras un breve paso por un monasterio, su educación se completó también en su casa, hasta que Vincenzo decidió que la profesión adecuada para su hijo era la de médico. De este modo, en 1581, a los 17 años de edad, Galileo se matriculó como estudiante de medicina en la Universidad de Pisa, donde no fue un estudiante especialmente pacífico, y desde muy temprano ejercitó su espíritu polémico. Se hizo famoso entre los estudiantes, que le dieron como apodo «el pendenciero», y no era un apodo mal puesto, por cierto.
Pero afortunadamente, la medicina no era cosa para él: a principios de 1583, su vida tomó un nuevo rumbo, ya que entró en contacto con Ostilio Ricci, el matemático de la Corte, que lo inclinó en forma permanente hacia las matemáticas e incluso intercedió para que Vincenzo le permitiera cambiar sus estudios de medicina por aquello que más le interesaba.
Vincenzo se negó, pero Galileo no le hizo caso: continuó estudiando matemáticas, ignorando ampliamente los estudios de medicina. Así que cuando se fue de Pisa en 1585, no era ni médico ni nada: y así fue como, no teniendo un miserable título, volvió a Florencia y tuvo que intentar ganarse la vida a duras penas como profesor particular de matemáticas y filosofía natural.

§. Pisa: ¿nos perdimos un buen médico?
No lo sabemos, aunque «un buen médico» de la época es una expresión dudosa. El asunto es que como no tenía medios económicos propios, o los que tenía eran insuficientes, hizo algo típicamente renacentista: buscar un mecenas influyente, que fue el marqués Guidobaldo del Monte, un aristócrata que había escrito un libro importante sobre mecánica, estaba profundamente interesado por la ciencia, y que consiguió que, en 1589, sólo cuatro años después de haber abandonado la Universidad de Pisa con una mano atrás y otra adelante, Galileo volviera a esa misma universidad como catedrático de matemáticas, con un contrato de tres años, lo cual muestra algunos aspectos de la política universitaria del siglo XVI. No es que Galileo no se mereciera el cargo, desde ya, pero que se lo merecía es ciertamente una apreciación a posteriori. Por supuesto, no había nada parecido a los concursos.
En realidad, se trataba sólo de un primer paso modesto en su carrera académica y mal pago por añadidura, de tal modo que se veía obligado a completar sus ingresos aceptando estudiantes que vivían con él y tenían la ventaja de disfrutar de sus enseñanzas y su influencia más o menos a tiempo completo, no sólo en las horas de clase. No era un procedimiento raro en la época, pero como no era accesible a todo el mundo, sólo los hijos de los ricos y los poderosos podían pagar este tipo de enseñanza. Lo cual tenía un «efecto colateral» beneficioso para el profesor: cuando estos jóvenes terminaban sus estudios y volvían a sus casas, la fama de Galileo se extendía precisamente en aquellos círculos en que a él lo beneficiaba más ser famoso, en una época de mecenazgo y en la que la protección de los poderosos era crucial.

§. Padua
Así y todo, la situación económica de Galileo llegó a ser acuciante en 1591, cuando falleció Vincenzo, que lejos de dejar alguna herencia sustancial a sus hijos, sólo dejó deudas. Galileo, que era el mayor de los hijos, quedó como jefe de familia y debió ponerse a buscar otro cargo mejor remunerado. Por eso, le echó el ojo a la cátedra de matemáticas de la Universidad de Padua. Además de ser un empleo más prestigioso, Padua formaba parte de la República de Venecia, un Estado rico y lo suficientemente poderoso como para no estar sometido a la tutela teológica y política de Roma.
Galileo se movió para conseguir el puesto, visitó la propia Corte veneciana, donde recibió el apoyo del embajador de Toscana y de sus amigos poderosos y prominentes en la República y al final consiguió el empleo, inicialmente por cuatro años y con un salario de 180 coronas al año. Con el permiso del Gran Duque de Toscana, Galileo aceptó este nuevo empleo en octubre de 1592, cuando tenía 28 años de edad. Era un nombramiento por cuatro años con opción a dos más; es de suponer que ni el mismo Galileo imaginó que se iba a quedar en Padua dieciocho años, y que allí iba a cimentar buena parte de su obra científica.
Empezó con un tratado muy renacentista —esa mezcla de sabiduría práctica y teoría ingenieril—sobre fortificaciones, importante para la república de Venecia, y luego con un libro de mecánica, basado en las clases que estaba impartiendo en la universidad, donde, como rasgo interesante, explicó claramente cómo funcionan los sistemas de poleas.
También la vida social e intelectual de Galileo floreció en Padua, desarrollándose en torno a nuevos conocidos, entre los cuales estaba Paolo Sarpi, que fue su íntimo amigo, y también llegó a conocer a Roberto Bellarmino.
En 1604, la República de Venecia había omitido consultar al Papado sobre la abolición de la ley de exención del clero de la jurisdicción civil y había decidido excluir a la Iglesia del derecho de poseer bienes inmuebles. En la disputa entre la Santa Sede y la República, Sarpi fue el apasionado defensor de esta última: era un católico tan poco ortodoxo que, más tarde, algunos de sus opositores llegarían a sospechar que era un protestante encubierto (y pagaría por ello: de hecho, sobrevivió a un intento de asesinato). Bellarmino, por su parte, era una figura destacada de la Iglesia oficial, un jesuita, teólogo e intelectual que había desempeñado un papel importante en el infame procesamiento de Giordano Bruno por herejía, férreo sostenedor de la supremacía papal sobre los poderes temporales, y gran defensor de la Contrarreforma, esa especie de cruzada que llevó adelante el Papado contra el protestantismo. Retengan el nombre de Bellarmino porque, como veremos en el próximo capítulo, desempeñará un rol protagónico en el primer proceso a Galileo.
Lo cierto es que a nuestro amigo no le alcanzaba con moverse en círculos influyentes y seguía estando constantemente preocupado por el dinero, entre otras cosas porque era un bon vivant a quien simplemente le gustaba disfrutar de buenos vinos y buena comida, e invitar a sus amigos generosamente siempre que pudiera. Por eso, trató de ganar algo de plata mediante algún invento práctico que pudiera comercializar. Entre sus ideas de los primeros tiempos estuvo el termoscopio, una especie de termómetro primitivo, y también el «compás», un instrumento de metal graduado que se podía utilizar como calculadora.
Pero sus compromisos se multiplicaban porque, además de todo, comenzó una relación estable con Marina Gamba, una mujer paduana. Como Marina pertenecía a una clase social más baja, nunca se casaron (y ni siquiera convivieron), aunque la relación era pública y tuvieron tres hijos: dos hijas nacidas en 1600 y 1601, y un hijo que nació en 1606, llamado Vincenzo igual que su abuelo, y que fue reconocido posteriormente de manera legal por Galileo como heredero suyo. Con respecto a las hijas, decidió que su destino fuera hacerse monjas, una decisión no muy generosa, digamos, que pudo deberse tanto a que Galileo quería que sus hijas se ocuparan de él, como al deseo de evitar problemas con dotes de casamiento que, en el caso de sus hermanas, le habían dado muchos dolores de cabeza.
También fue en Padua donde contrajo (o se manifestó por primera vez) una enfermedad que iba a afectarle durante el resto de su vida, una especie de artritis (aunque imagínense que los diagnósticos de entonces no son muy de fiar) que le produjo repetidos ataques que lo obligaban a guardar cama durante varias semanas seguidas.
Lo cierto es que a los 40 años de edad, Galileo se había hecho ya una más que aceptable reputación como experto en filosofía natural y matemáticas, proporcionando beneficios prácticos al Estado veneciano, y llevaba una vida plena y feliz en Padua.

§. El problema del movimiento
Pero eso no fue todo, obviamente: lo más importante es que en Padua inició la línea de pensamiento e investigación sistemática que sería el centro de su vida científica; allí llevó a cabo sus famosos experimentos con péndulos y también con esferas que descendían rodando por planos inclinados.
Y fue en Padua donde resolvió, de una vez por todas, el problema del movimiento que se arrastraba desde hacía dos mil años. Abandonemos por unos momentos la vida de Galileo, demoremos su viaje a Florencia (que de todos modos fue mucho más tarde) para ocupar el cargo de Primer Matemático de la Universidad de Pisa y Primer Matemático y Primer Filósofo del gran duque de Toscana y veamos cómo empezó a revolucionar la historia del pensamiento a partir de su estudio del movimiento.
Aunque recién publicó sus resultados en 1638, en los Discorsi e dimostrazioni matematiche intorno a due nuove scienze, fue en la época de Padua cuando Galileo resolvió el problema del movimiento contra el que tantos se habían estrellado durante dos mil años.
Decir que se habían estrellado es demasiado; en realidad, cada uno lo había resuelto a su manera, sorteando los escollos y las contradicciones como se pudiera y con plena conciencia, a veces, de la insuficiencia de las explicaciones.
Recordemos un poco qué era lo que se estaba discutiendo acerca del movimiento antes de que Galileo viniera a desbrozar el terreno. Aristóteles había establecido su teoría, que podríamos resumir en unos pocos puntos:
  1. No hay movimiento sin motor.
  2. El movimiento es un proceso transitorio de restauración del orden.
  3. El movimiento es una propiedad del cuerpo, por lo tanto, dos cualidades opuestas, como el movimiento «violento» y el «natural» no pueden mezclarse porque se destruirían entre sí.
  4. Hay un primer motor que arrastra a los cielos.
  5. El movimiento es una propiedad absoluta de los cuerpos. Movimiento y reposo son cualidades completamente diferentes.
  6. El movimiento en el vacío es imposible.
  7. El movimiento de caída vertical es acelerado por la atracción del lugar natural, que hace que el cuerpo se apresure en llegar a él.
  8. El movimiento de los cielos es natural, circular y eterno.
Todas estas proposiciones ya habían cedido bastante terreno frente a la teoría del impetus de Jean Buridan (s. XIV), que se enseñaba como «la física de la universidad de París» en muchos lados aunque distaba de ser universal: el propio Galileo, aunque partidario en su juventud de la teoría del impetus, se veía obligado a enseñar en sus clases la mecánica aristotélica.
Los físicos del impetus negaban que los enunciados de Aristóteles fueran verdaderos y decían que el gran filósofo no había entendido nada de nada sobre el movimiento.
Sostenían que:
  1. La fuerza motriz le imprime al móvil un anima motrix, o impetus, que pertenece al cuerpo, y que lo mantiene en movimiento hasta que, por una u otra razón, se gasta (del mismo modo que se gasta el calor), y el móvil cae a Tierra. No había acuerdo sobre la naturaleza de ese impetus, que Buridan cuantificaba como «la cantidad de materia por la velocidad».
  2. Los móviles en caída libre no se mueven por atracción de su lugar natural, sino que se aceleran por el empuje de impetus sucesivos que les confiere su propio peso.
  3. El medio no juega ningún papel en el mantenimiento del movimiento, sólo lo retrasa.
  4. Es perfectamente posible el movimiento en el vacío, ya que la velocidad del móvil está signada por el impetus impreso, y retrasada, pero no dividida por la resistencia del medio. En el caso del vacío, la resistencia sería cero y, si dividiera en lugar de simplemente retrasar, el móvil se movería con velocidad infinita, y estaría en varios lugares al mismo tiempo, que era el argumento que esgrimía Aristóteles para rechazar el vacío.
Los físicos del impetus, en especial Alberto de Sajonia, habían especulado con una especie de «impetus mixto», que intervenía en el movimiento de los proyectiles y actuaba como bisagra entre el movimiento natural y el violento. Tartaglia, por su parte, había admitido que la trayectoria de los proyectiles «tenía una inclinación circular», pero sin reconocer la curva que describían, ni recibir demasiada atención.
El que más lejos llegó, recuerden, fue Gianbattista Benedetti quien sostuvo que «todos los cuerpos de naturaleza homogénea» (esto es, de igual peso específico) caen con la misma velocidad. Benedetti fue tan lejos como podía ir; en realidad se detuvo en la mismísima frontera, aferrado a la idea del impetus, que fue el lastre que le impidió dar el paso que lo hubiera colocado plenamente dentro de la ciencia moderna. Pero escribió un tratado sobre el movimiento, De motu, que influiría de manera absolutamente decisiva en quien sí daría ese paso y resolvería, después de dos mil años, el enigma: Galileo.

§. Planos inclinados y la ley de caída de los cuerpos
Fue en el período de Padua (y probablemente un poco antes, en Pisa) cuando Galileo empezó a estudiar el fenómeno de la caída libre: al trabajar con esferas que ruedan sobre planos inclinados, consiguió retardar la velocidad de caída, lo cual le permitió medir los tiempos y minimizar el rozamiento, que ya visualizaba como una cualidad externa al fenómeno principal, que lo perturbaba y le impedía mostrarse tal cual era (hablaremos de esto en algún momento: «tal cual era» es una frase muy fuerte), y que clasificaba como «minucia».
No encuentro referencias de otros científicos de la época que utilizaran planos inclinados, pero me resulta difícil creer que en un momento en que estos problemas estaban a flor de piel, por así decirlo, y cuando se publicaban tratados de mecánica, como el De Motu de Benedetti, o la Meccanica de Guidobaldo del Monte, nadie experimentara con ese método; es raro pensar que Galileo fue el primero al que se le ocurrió, aunque podría ser.
Lo cierto es que pronto se dio cuenta y asumió que, a pesar de las distintas velocidades, el movimiento sobre el plano inclinado y el de caída libre eran del mismo tipo, relacionados de una manera muy simple mediante el ángulo de inclinación del plano, como puede verse en la siguiente figura,

033.jpg

Y además, llegó a una conclusión fundamental: la velocidad de caída no sólo no depende del peso del cuerpo, sino tampoco de la naturaleza del cuerpo, de su peso específico, que era la frontera donde se había detenido Benedetti: si se desprecia el rozamiento, todos los cuerpos, independientemente del peso y de su naturaleza, caen con la misma velocidad
O mejor dicho, aceleración: Galileo la definía como un aumento continuo de la velocidad (y no como los físicos del ímpetus y aun los científicos de Oxford, como aplicaciones sucesivas de ímpetus que provocaban aumentos discretos de la velocidad). No está nada mal, teniendo en cuenta que Galileo no estaba en posesión del concepto de velocidad instantánea (ni de aceleración instantánea), que requeriría un tratamiento especial del infinito (que haría su discípulo Buenaventura Cavalieri [1598-1647] y que conducirá al cálculo infinitesimal).
Pero eso no es todo: el 16 de octubre de 1604, en una carta enviada a su amigo Paolo Sarpi, Galileo enunció por primera vez la ley que siguen los cuerpos en caída libre, o sobre planos inclinados:
El espacio recorrido por un móvil es proporcional al cuadrado del tiempo empleado en recorrerlo.
Así, si en el primer segundo un móvil recorre un tramo, en los dos primeros segundos recorrerá cuatro, en los tres primeros segundos nueve, y así sucesivamente.
También fue en esta época cuando entró en posesión de las leyes de isocronía del péndulo: todas las oscilaciones, no importa su amplitud, toman el mismo tiempo, que sólo depende de la longitud del péndulo y no de su peso. Esta ley, como ya les conté, no es estrictamente cierta, y sólo es válida cuando los ángulos son pequeños. Mediante sus experimentos, Galileo destruyó el mito de la imposibilidad de la composición de movimientos (pronto veremos que esto tiene un alcance más vasto), y resolvió el problema de la trayectoria de la bala de cañón, que, recordemos, Tartaglia había descripto como «aparentemente circular». Galileo analizó el recorrido de un proyectil sometido, a la vez, a una trayectoria horizontal uniforme y a la caída libre debida a la gravedad (que se rige por el cuadrado de los tiempos); los dos movimientos no sólo no se interferían, sino que se componían, dando como resultado una parábola. La hasta entonces puramente geométrica tercera cónica de Apolonio entraba así en la física.
Esta misma composición de movimientos le permitió afirmar que una piedra arrojada desde lo alto de un mástil de un barco en movimiento uniforme caería al pie del mástil y no en la popa, como sostenían los aristotélicos. La piedra ya participa del movimiento del barco, y, al componerlo con el movimiento de caída, describe (para un observador externo) una parábola que la sitúa justamente al pie del mástil, mientras que el observador en el barco ve una caída perfectamente vertical.

034.jpg



La leyenda de la Torre de Pisa
Una de las historias que Viviani contósobre Galileo es conocidísima y se refería a la época de éste como profesorde matemáticas en Pisa: se trata del famoso asunto sobre cómo Galileo dejócaer objetos de pesos diferentes desde lo alto de la Torre Inclinada de Pisapara demostrar que llegarían al suelo al mismo tiempo. No hay ninguna pruebade que Galileo hiciera tal cosa, y es seguramente otro de los inventos de Viviani.Lo cierto es que el experimento sí fue llevado a cabo en 1612 por uno de losprofesores aristotélicos adversarios de Galileo, con el fin de refutar laafirmación de Galileo de que los objetos de pesos diferentes caen a la mismavelocidad. Los pesos tocaron el suelo casi de manera simultánea, pero noexactamente en el mismo instante, hecho que los peripatéticos consideraroncomo una prueba de que Galileo estaba equivocado. Éste fue muy directo en surespuesta:
Aristóteles dice que una bola de cien libras de peso que caiga de una altura de cien brazas llega al suelo antes que una bola de una libra haya podido recorrer una braza (y le saca 99 brazas de ventaja). Yo afirmo que llegan al mismo tiempo. Si se hace la prueba, se ve que la bola mayor adelanta a la menor por dos pulgadas. Ahora bien, detrás de esas dos pulgadas queréis esconder las noventa y nueve brazas de Aristóteles, y habláis sólo de mi error, pero guardáis silencio sobre su enorme equivocación.

Lo cual nos muestra a un Galileo rápido y mordaz.
Pero la leyenda de la Torre de Pisa, a pesar de ser sólo una leyenda, encierra una significación más general: se empieza a percibir que el experimento per se debe ser público. La ciencia se está librando de todo hermetismo (cuyos restos sobrevivían aun en el menos hermético de los renacentistas del quattrocento, como Leonardo Da Vinci). Ya no bastaba con escribir los resultados en cuadernos inescrutables: hace falta que todos puedan estar al tanto y eventualmente repetirlos.
El experimento controlado y repetible sería una de las ideas-fuerza de la nueva ciencia que se avecinaba.

§. El principio de inercia
El estudio de los planos inclinados llevó a Galileo a una constatación que tendría las más importantes consecuencias.

035.jpg

Traten de seguir el dibujo. Galileo constata que si una esfera rueda hacia abajo por un plano inclinado —despreciando las «minucias», claro está, como el rozamiento—, y luego trepa por otro, alcanzará exactamente la misma altura de la cual partió (dicho en términos modernos, recuperará su energía potencial). Si se la hace trepar por planos inclinados cada vez menos inclinados, el trayecto para alcanzar la altura original será cada vez más largo.
Hasta ahí, todos estos resultados pueden ser deducidos de la observación experimental, con esferas y planos inclinados concretos.
Pero aquí, Galileo da un salto conceptual y lo hace de modo puramente mental: es evidente que cuando la inclinación del plano se aproxime a cero, los trayectos se alargarán fuera de todo límite. Límite, ésa es la palabrita: en el límite, si el plano por el que ha de subir la esfera no tuviera ninguna inclinación, el trayecto se haría infinito y la esfera, sobre la cual no actúa ninguna fuerza, se seguiría moviendo por siempre con velocidad rectilínea y uniforme.
Éste no es un resultado experimental, sino la extrapolación mental de una situación experimental, o, lo que es lo mismo, un experimento mental, basado en un experimento real: no es posible experimentar de manera efectiva con planos infinitos, trayectos infinitos y esferas que ruedan para siempre; pero se puede deducir mediante un razonamiento matemático (que todavía no tiene nombre, pero que, cuando lo tenga, se llamará «paso al límite», paso al límite que fue justo el punto que Arquímedes no se atrevió a dar).
Toda la física, hasta Galileo, consideraba que la tendencia natural de un cuerpo en movimiento era el reposo: de ahí los «tientos solares» de Kepler, que empujaban a los planetas para que no se detuvieran.
Galileo enfrenta esa idea con su principio de inercia, piedra de toque de toda la ciencia moderna, que resuelve todas las idas y vueltas de dos mil años sobre el movimiento:
Un cuerpo que se mueve sin rozamiento con velocidad uniforme, persiste en su movimiento eternamente: el movimiento uniforme (es decir, el rectilíneo con velocidad constante) es un movimiento autosostenido, que no necesita de motor alguno, y que, como veremos, ya no es una propiedad del cuerpo como sostenían tanto los peripatéticos como los físicos del ímpetus.
Pero lo que es interesante aquí, además, es la mezcla de experimento fáctico y experimento mental: veremos que la ciencia moderna (y Newton lo dejará muy claro), participará de esa «composición de análisis», del mismo modo que la piedra participaba de la composición de movimientos. La idea de experimento mental se las trae, porque lleva implícita la idea de que la naturaleza funciona de manera racional y matemática, igual que nuestro cerebro.
Antes de hacer algunas aclaraciones sobre el principio de inercia de Galileo, que no tuvo la forma acabada que le darán Descartes o Newton, vamos a la otra clave de bóveda que cimentará la nueva teoría del movimiento: la relatividad.

§. El principio de relatividad
Encerraos con un amigo en la mayor estancia que haya bajo cubierta de una nave. Si la nave está quieta, observad con diligencia. Luego haced que la nave se mueva con la velocidad que se quiera: siempre que el movimiento sea uniforme no reconoceréis ni la más mínima mutación en todos los efectos nombrados, ni ninguno de éstos os hará saber si la nave se mueve o está quieta. Si saltáis, tampoco el suelo se desplazará mientras estéis en el aire.
GALILEO, Diálogo sobre los principales sistemas del mundo, 1632

Esta cita, un poco retocada por cierto, es la enunciación clara del principio que, junto al de inercia, funda la ciencia moderna y resuelve los larguísimos años de especulaciones sobre el tema. El movimiento deja de ser una propiedad de los cuerpos para convertirse en una relación entre los cuerpos.
El mismo cuerpo (el barco) está en reposo para quien viaja en él y en movimiento para quien lo mira desde la costa: el reposo y el movimiento uniforme son indistinguibles, porque un móvil sólo se está moviendo en relación a un punto de referencia. Ésta es una idea que, vagamente (o no tan vagamente, en realidad), había sido adelantada por Copérnico en los primeros capítulos de las Revoluciones:
Luego, por qué no confesamos sobre la revolución diaria que es apariencia en el cielo y verdad en la Tierra, y que estas cosas son como lo que dijera el Eneas de Virgilio, cuando afirma: «Salimos del puerto y las tierras y las ciudades retroceden». Puesto que al flotar una nave sobre la tranquilidad de las aguas, todo lo que está fuera de ellos es considerado por los navegantes moviéndose, de acuerdo con la imagen de su movimiento, y al mismo tiempo juzgan que están quietos, con todo lo que está con ellos, así en lo que respecta al movimiento de la tierra puede estimarse que todo el mundo da vueltas.
Si el movimiento es relativo a un punto de referencia, la teoría del impetus pierde cualquier tipo de sustento, ya que no se trata de una propiedad del cuerpo, sino de una relación entre el cuerpo y el resto de los objetos del mundo o de los sistemas de referencia que adoptemos: el movimiento (por lo menos el movimiento rectilíneo y uniforme) no tiene entidad más que como concepto relacional. Y por lo tanto, es indistinguible del reposo: si viajamos en un avión, los objetos que están dentro nos parecerán quietos —a pesar de que se están moviendo a 1.000 kilómetros por hora respecto de la Tierra—, puesto que su distancia a nosotros no varía. Recuerden el problema de la piedra que cae al pie del mástil: para quien esté en el barco, su trayectoria es rectilínea y no hay manera de demostrar que no lo es excepto que se use otro sistema de referencia.
La verdad es que no se entiende cómo esta aguda observación de lo que pasa en un barco, que ya había sido adelantada por Nicolás de Oresme, fue ignorada por los científicos griegos. Naturalmente, todos pasaban por esa experiencia de la equivalencia entre movimiento uniforme y reposo, pero quizás no tenían un marco mental apropiado para registrarlo. Es hasta cierto punto comprensible que se le haya pasado a Aristóteles, porque su sistema del mundo era completamente cerrado y cada pieza comprometía al conjunto, pero es sorprendente que no lo hayan notado los de Alejandría.
Hay que decir aquí que el principio de relatividad de Galileo, que se puede enunciar también como que ningún experimento o señal mecánica puede distinguir entre el reposo y el movimiento rectilíneo y uniforme, no se lleva bien con el sentido común, que se inclina por la idea de movimiento absoluto: una cosa o se está moviendo o está quieta. Aquí hay un hiato, una fractura entre la ciencia y el sentido común: yo estoy convencido de que la larga construcción de la ciencia moderna es una construcción hecha contra el sentido común, lo cual quizás explica lo que me pregunté antes: cómo se les escapó a los griegos.
El nuevo principio trae aparejada una serie importante de consecuencias. Para empezar, ya no hace falta andar justificando por qué no salimos disparados de una Tierra que se mueve, lo cual constituía uno de los principales argumentos contra Copérnico. Todo ocurre como si la Tierra estuviera en reposo, del mismo modo en que la bala dejada caer desde el mástil de un barco en movimiento, cae al pie del mástil, y no, como sostenían los aristotélicos, en la popa. Éste es un hecho experimentable, susceptible de ser sometido a una prueba crucial. Los cañones de Tycho, disparando hacia el este y el oeste, no podían evidenciar ninguna diferencia; las balas se movían ab initio con el movimiento de la Tierra, y los fenómenos que les ocurrieran luego eran independientes de este movimiento, de la misma manera que los pájaros tienen la misma facilidad para volar hacia el este, el oeste o donde sea.
Por otra parte, el movimiento, al no ser algo que haga el cuerpo, sino una relación entre el cuerpo y un punto de referencia, no necesita de motor alguno. Porque en caso de necesitarlo… ¿a cuál de los dos estaría moviendo? ¿Al barco o a la costa? ¿Al móvil o al punto de referencia? ¿Al colectivo o a la calle? La pregunta pierde sentido, y la necesidad de que todo movimiento tenga un motor queda definitivamente enterrada.
Al mismo tiempo, del principio de relatividad se puede deducir el principio de inercia: si el movimiento no es una propiedad de los cuerpos sino un estado relacional, un cuerpo que se mueve en línea recta y con velocidad uniforme obviamente no tiene por qué detenerse. ¿Por qué habría de hacerlo? Al fin y al cabo, el movimiento de ese cuerpo puede ser aparente y deberse simplemente al movimiento del punto de referencia, y si aparentemente se detiene frente a un punto de referencia, puede no hacerlo frente a otros. O bien puede detenerse respecto de un punto de referencia pero seguir moviéndose respecto de otros, así como la botella apoyada sobre la mesa del camarote de un barco se sigue moviendo respecto de la costa. Si al lado de nuestro barco navega otro, con la misma velocidad uniforme y dirección, la botella estará en reposo respecto de este segundo barco, y en movimiento respecto de la costa. Si el segundo barco se detiene repentinamente, la botella empezará a moverse respecto de él, al mismo tiempo que de la costa. Detenerse significa pasar del movimiento al reposo, pero el reposo no es más que una ilusión.
Así y todo, y a pesar de la inmensa novedad de la propuesta, Galileo no llegó a la formulación moderna del principio de inercia: su enunciado es el de un principio de inercia circular, en el cual los objetos no tienen un movimiento rectilíneo uniforme, sino que mantienen siempre la misma distancia respecto del centro de la Tierra.
En fin: Galileo funda la mecánica moderna antes de 1610, pero la exposición sistemática de sus resultados tendrá que esperar hasta 1638, con la publicación de los Discorsi.
En el medio hubo un acontecimiento, mejor dicho un aparato, que lo llevó a levantar sus ojos de la tierra al cielo, y reorientó por un buen tiempo sus investigaciones.

§. El telescopio
En julio de 1609, durante una visita a Venecia, Galileo había oído por primera vez rumores sobre la existencia de un aparato que permitía ver objetos lejanos como si estuvieran cerca. Efectivamente, Hans Lippershey, un fabricante de anteojos afincado en Holanda, había hecho el descubrimiento por casualidad durante el otoño anterior, y en la primavera de 1609 se vendían como juguetes en París unos telescopios cuya potencia amplificadora era de tres aumentos.
En realidad, tampoco Lippershey (que lo patentó) había sido del todo original, ya que en Inglaterra Leonard Digges (1515-1559) había construido uno, perfeccionado por su hijo Thomas Digges, de quien ya dijimos que había sido un gran propagandista del sistema copernicano en suelo inglés. Y en todo caso, para la misma época, el matemático, astrónomo, explorador y quién sabe cuántas cosas más Thomas Harriot, un isabelino contante y sonante avant la lettre, estaba ya observando con un telescopio, y tratando de levantar un plano de la Luna. Y es que no hay caso: las cosas surgen del espíritu de su tiempo, y en varias partes simultáneamente.
Oídos los rumores sobre este nuevo instrumento, Galileo se puso a trabajar para construir su propio telescopio, sabiendo únicamente que el instrumento tenía dos lentes colocadas dentro de un tubo. Era un artesano consumado (recordemos el termoscopio, el compás, el tratado sobre fortificaciones) y, en apenas un día, lo cual es una flor de hazaña, construyó uno. Y que encima era el doble de bueno (literalmente: tenía seis aumentos en lugar de tres) que cualquiera de los que andaban por ahí.
Galileo volvió a Venecia antes de que terminara el mes de agosto —seguimos en 1609— y causó sensación en el Senado cuando realizó una demostración del funcionamiento del aparato, que entregó al Dux en concepto de regalo. El Dux y el Senado, encantados con el instrumento, ofrecieron a Galileo la posibilidad de que ocupara su cargo de la Universidad de Pisa de forma vitalicia y duplicaron su salario fijándolo en 1.000 coronas anuales, lo cual no era poco.
Después de su éxito en Venecia, salió volando (es un decir) para Florencia con el fin de hacer la demostración de otro telescopio ante Cosme II, Gran Duque de Toscana (la cátedra de Otilio Ricci, que había muerto en 1603 todavía estaba vacante). Para diciembre de 1609, Galileo había fabricado ya un telescopio con una potencia de amplificación de veinte aumentos, y en marzo de 1610 tendría hechos ya nueve más con una potencia similar; de hecho, envió uno de éstos al Elector de Colonia para que se lo pasara a Kepler, de modo tal que el ya entonces reconocido como uno de los mejores astrónomos de Europa (si no el mejor) lo usara para verificar sus descubrimientos.
En enero de 1610, Galileo empezó su exploración sistemática del cielo. Y lo que vio cambiaría para siempre la ya maltrecha visión que se tenía del cosmos.
Por empezar, vio que la Luna tenía valles y montañas muy altos, que midió a partir de la sombra que proyectaban. La verdad es que no se capta la verdadera dimensión del descubrimiento salvo que se tenga en cuenta que, para ese entonces, se seguía pensando que los cielos debían estar compuestos de una sustancia especial, incorruptible, incomparable con la materialidad sublunar. Pero el telescopio revelaba que la Luna estaba aparentemente hecha de los mismos materiales que la Tierra. No era fácil de aceptar; de hecho Christopher Clavius, buen astrónomo y profesor de matemáticas del colegio romano, sugirió, para salvar la perfección de la Luna, que las montañas y los valles de Galileo estarían cubiertos de una sustancia cristalina y perfectamente esférica.
También vio que, al apuntar el telescopio a la Vía Láctea, ésta se disolvía en millones de estrellas: no era, como se creía, un rejunte de vapores atmosféricos, sino una acumulación estelar tan grande, que sus integrantes no se podían distinguir unas de otras a simple vista.
Observó que Saturno no tenía una forma esférica, sino que presentaba unos extraños lóbulos, que no acertó a dilucidar (la idea de los anillos debía esperar unas décadas, a Huygens, y telescopios mejores). Siguió durante algunas noches un objeto que parecía desplazarse como un planeta, pero, como después se nubló, las observaciones se interrumpieron. Se trataba de Neptuno, que se le escapó por un pelo (por unas nubes, en realidad), y no sería encontrado hasta 1846 por Adams y Le Verrier, de una forma que hace honor al intelecto humano y que ya contaremos en su momento.
Vio manchas oscuras en el Sol, lo cual le valió una disputa por la prioridad con el jesuita Cristóbal Scheiner, que las interpretó como un enjambre de planetas que se movían cerca del Sol. Galileo objetó que la forma irregular y errática de las manchas no las hacían compatibles con el hecho de ser planetas, sino con manchas efectivas en el Sol. Se trataba de otra señal más de la imperfección de los cielos. Al mismo tiempo, pudo demostrar que Venus tenía distintas fases, como la Luna, que era una predicción que surgía de la teoría copernicana.
No sé si me estoy salteando algo, porque no expuse estos descubrimientos telescópicos en orden cronológico, pero dejé para el final el más espectacular de todos: la observación de cuatro pequeños satélites que se movían alrededor del planeta Júpiter, a principios de 1610, a los que llamó «astros mediceos», en honor a Cosme II, aunque hoy se los llama satélites galileanos.
En marzo de 1610, publicó un pequeño libro (obviamente dedicado al gran duque Cosme II de Médicis… no perdía de vista la cátedra) titulado Siderius Nuncius (El mensajero de los astros), que tuvo un éxito descomunal entre las personas cultas de todo el mundo, hasta el punto que se tradujo al chino antes de los cinco años posteriores a su publicación.
Y al final consiguió su objetivo: en mayo de 1610, aceptó la oferta de ocupar la cátedra de matemáticas en la Universidad de Pisa (la de Ricci), siendo nombrado filósofo y matemático vitalicio de la Corte del Gran Duque de Toscana, con un salario de 1.000 coronas anuales. No era un salario superior al que ganaba en Venecia, pero no tendría que dedicarse a ningún tipo de actividad como docente. Este asunto de los salarios, que vimos que también padeció Kepler, y que no aparecía en la Antigüedad o la Edad Media, es significativo, ya que indica una incipiente profesionalización de la ciencia.

§. Galileo defiende a Copérnico
Galileo se trasladó a Florencia mientras que su compañera Marina Gamba decidió quedarse en Padua y se separaron amistosamente.
La mudanza fue un paso audaz: Toscana era un lugar donde la Inquisición tenía mucho más poder que en la libre República de Venecia. Además, en 1605, la situación política en Italia experimentó un cambio drástico. Pablo V había sido elegido Papa e hizo un esfuerzo decidido por extender la autoridad de la Iglesia y afianzar el poder papal en los estados católicos. Pero el poder detrás del trono lo ejercía en realidad el cardenal Roberto Bellarmino: en parte porque Pablo V sabía que debía su puesto a la decisión de Bellarmino de inhibir su propia candidatura. Así, Bellarmino, que sería una pieza clave en el primer proceso de 1616, manejaba el rumbo de la Iglesia, ya embarcada en la Contrarreforma.
Igualmente, Galileo se dirigió hacia Florencia y empezó su cruzada personal para defender el sistema copernicano. La verdad es que los descubrimientos telescópicos eran demoledores para el sistema tolemaico, en especial el de los satélites de Júpiter. Un contraargumento contra el sistema copernicano era que dado que la Luna describía una órbita en torno a la Tierra, no era posible que la Tierra describiera al mismo tiempo una órbita alrededor del Sol, porque en ese caso la Tierra dejaría atrás a la Luna. Pero el descubrimiento de cuatro satélites que giraban describiendo órbitas en torno a Júpiter (el cual describía por sí mismo una órbita en torno ya a la Tierra —como querían los tolemaicos— o al Sol —como sostenían los copernicanos—) demostró la posibilidad de que la Luna estuviera girando en órbita alrededor de la Tierra, aunque la Tierra también se moviera.
Al mismo tiempo, destruía otra objeción de los anticopernicanos, que era, en efecto, la de que si todos los astros efectúan su revolución alrededor del Sol, no se comprendía por qué la Luna constituía una excepción tan especial girando alrededor de la Tierra. La existencia de los satélites mostraba que el «girar alrededor» era un fenómeno mucho más general y que no necesariamente tenía que tener a la Tierra como centro.
Por supuesto que estos argumentos no convencieron a los aristotélicos más intransigentes, quienes sencillamente no aceptaban que lo que se veía a través del telescopio fuera real —incluso hubo quienes se negaron a mirar—, imaginándose que era algún tipo de objeto producido por el propio instrumento, pese a que el propio Galileo refutó esta posibilidad observando cientos de objetos a través del telescopio y comparando sus imágenes con lo que podía ver de cerca, directamente, con el fin de averiguar si el instrumento hacía algo que no fuera ampliar los objetos. Obviamente que no hacía nada más que eso.
Semejantes hallazgos no eran para despreciar, y Galileo estaba decidido a hacer propaganda sobre ellos y sobre el sistema copernicano en general. En marzo de 1611 partió para visitar Roma como embajador científico oficial del Estado de Toscana. Esta visita, que se prolongó hasta julio, fue un éxito total. Fue recibido por el Papa (que aún era Pablo V). El propio cardenal Bellarmino miró a través del telescopio de Galileo y nombró una comisión de expertos para que dictaminaran sobre lo que Galileo afirmaba haber visto con el telescopio. Los miembros de este comité (todos jesuitas) llegaron a las siguientes conclusiones:
  1. La Vía Láctea está formada realmente por un gran número de estrellas.
  2. Saturno tiene una extraña forma ovalada con protuberancias a cada lado.
  3. La superficie de la Luna es irregular.
  4. Venus presenta fases.
  5. Júpiter tiene cuatro satélites.
Ahora Galileo tenía un resultado oficial, avalado por el establishment científico papal. Pero el comité se cuidó muy bien de no sacar ninguna conclusión de aquellos resultados. Los jesuitas, que más tarde se volverían contra él, habían adoptado el sistema de Tycho, que salvaba la inmovilidad de la Tierra y recogía algunas ventajas del sistema copernicano.
En Roma, Galileo se convirtió en miembro de la que se considera la primera sociedad científica del mundo, un grupo conocido como la Accademia dei Lincei, que se llamaba como se llamaba en honor al lince, animal cuya excelente visión se presentaba como una especie de modelo a seguir para el nuevo hombre de ciencia. En un banquete celebrado en honor de Galileo, los linces propusieron por primera vez llamar «telescopio» al nuevo instrumento.
En junio, nuestro personaje volvió triunfante a Florencia, después de haber cubierto de gloria el nombre de Toscana.
Con el empujón de su éxito en Roma, y las abrumadoras evidencias que arrojaba el telescopio, más el aval papal que había creído obtener, Galileo se volvió menos cauto y se lanzó a una defensa abierta del sistema heliocéntrico, sugiriendo que la teología debería dejar en paz a la investigación científica.
Dado que «la Biblia enseña cómo se va al cielo, no cómo va el cielo», era necesario revisar la interpretación de la Biblia para ajustarla a los resultados que proponía la ciencia (y no viceversa). Proponer una reinterpretación de la Biblia no era para nada menor. Se trataba sin lugar a dudas de motivo de anatema para Roma, embarcada en la lucha contra los protestantes que, justamente, proclamaban la libre interpretación de la Biblia. En ese sentido, lo que proponía Galileo sonaba a protestantismo. La Iglesia Romana había tardado en darse cuenta del problema que le presentaba el sistema heliocéntrico, pero en parte gracias a la propaganda de Galileo lo hizo: en adelante, los dos sistemas lucharían a muerte.
En 1616, el Santo Oficio (la Inquisición, de infame memoria) declaró impía la opinión que colocaba al Sol en el centro del mundo y se le prohibió a Galileo enseñar o defender las teorías heréticas.
Y así empezó su penuria, que les contaré en el próximo capítulo.

Capítulo 16
El conflicto con la Iglesia

I. Escena inicial

Estamos en Roma, en una plaza frente al convento de los dominicos. De a poco van llegando artesanos, mercaderes, vendedores ambulantes, alguno que otro prelado. Suena, en el fondo, la pavana La Battaglia (que pueden escuchar poniendo simplemente «Pavana La Battaglia» en YouTube), que por momentos se confunde con las campanas que empiezan a doblar lentamente. Repentinamente se hace un silencio espectral y entran tres nobles romanos.
NOBLE 1: Se dice que Galileo está ante el Santo Oficio.
NOBLE 2: Nunca debió venir a Roma.
NOBLE 3: Lo obligaron, y mi alma se ensombrece; la luz de Italia se ve oculta por las nieblas de la religión.
NOBLE 1: ¡Silencio! En Roma las paredes oyen.
NOBLE 2: El Santo Oficio tiene ojos y oídos en todas partes.
NOBLE 3: El susurro se ha apoderado de las plazas y las calles.
La música sigue escuchándose de fondo. Entra un Juglar haciendo piruetas y se topa con el Relator, que ya ha tomado su posición. Los nobles, mientras tanto, escuchan.
RELATOR 1: Estamos a… ¿qué día es hoy?
JUGLAR: 22 de junio de 1633.
La música se torna más solemne.
RELATOR 1: Es verdad. Desde el amanecer me he estado preguntando qué ocurriría hoy. Toda Roma está pendiente.
JUGLAR: Y cómo no ha de estarlo.
RELATOR 1: Las campanas sonaron esta mañana recordando el evento.
JUGLAR: Sonido de bronce de las campanas, doblando por el señor Galileo.
RELATOR 1: En el subsuelo del Monasterio de los Dominicos está sesionando el tribunal de la Inquisición, el sagrado Tribunal del Santo Oficio, la organización creada por la Iglesia para vigilar por el estricto cumplimiento del dogma católico, para barrer la herejía.
JUGLAR: (Aparte) Siniestra institución.
RELATOR 1: Ha comparecido, una vez más, un hombre ya anciano, un viejo de espaldas vencidas, pero terco en su herejía.
JUGLAR: (Aparte) Un viejo de espaldas vencidas… habrase visto. Es un gran científico, conocido en toda Europa.
RELATOR 1: Viste, como corresponde, el hábito de los penitentes, de los que han osado desafiar a la Iglesia. Y el tribunal lo invita a renunciar a la absurda idea que sostiene.
JUGLAR: (Aparte) La intolerancia de siempre.
RELATOR 1: ¡Este hombre sostiene una idea ridícula, imposible! ¡Dice que la Tierra se mueve alrededor del Sol!
JUGLAR: Este relator no está muy informado.
RELATOR 1: El tribunal le mostró los instrumentos de tortura, y le sugirió —solamente le sugirió— que si no se retractaba sería quemado en la hoguera, como Giordano Bruno, hace 36 años.
Se oye, lejanamente, una voz que se va apagando.
VOZ DE GIORDANO BRUNO: Las estrellas son soles muy lejanos, de tal modo que cualquiera que estuviera allí, se creería en el centro del universo.
JUGLAR: ¡Vaya tribunal! ¡Y vaya relator!
Otra voz:
GALILEO: «Yo he sido declarado sospechoso de herejía, por haber sostenido y creído que el Sol es el centro del mundo y que permanece inmóvil y que la Tierra no es el centro y se mueve. Por lo tanto, con el fin de apartar de la mente de todos los cristianos fieles esta fundada sospecha levantada en mi contra con justicia, maldigo y reniego de mis errores y herejías. Y juro que en el futuro no diré jamás cosas tales que puedan hacer recaer sobre mí sospechas similares…»
JUGLAR: ¿Qué dicen ustedes? ¿Hizo bien en retractarse?
RELATOR 1: Finalmente, Galileo admitió que se había equivocado y que la Tierra está absolutamente inmóvil.
JUGLAR: Pero según cuenta la leyenda, luego de retractarse, aun de rodillas ante los inquisidores, murmuró: «Y sin embargo se mueve».
Es una leyenda,
inventada siglos después.
Pero igual vale
¿No creen ustedes?
«Digo que la Tierra está quieta,
juro que lo creo,
y sin embargo se mueve».
¿No habrían hecho lo mismo?
NOBLE 1: La Tierra se mueve alrededor del Sol.
NOBLE 2: Yo he adherido al sistema de Copérnico.
NOBLE 3: He mirado a través del telescopio del señor Galileo, y he visto cuatro lunas girar alrededor de Júpiter.
GALILEO: ¡Y sin embargo se mueve! ¡Pese a quien le pese, la Tierra está en continuo movimiento!
RELATOR 1: (Se pone más solemne) Un poco terco el hombre. Íbamos a contar la historia de Galileo Galilei, el hombre que ustedes han visto retractarse de sus falsas ideas. Pero si dijo eso… habrá que tomar medidas.
JUGLAR: No me gusta este relator. ¿No habrá otro?
Entra el Relator 2. Se lo ve agotado, exhausto.
RELATOR 2 (al Juglar): He venido de Venecia a todo correr de mi caballo, pero me han detenido los guardias de los Estados Pontificios en la frontera. Me han hecho mil preguntas y me he arreglado para responderlas sin despertar sospechas. Por eso llego tarde. ¿Qué pasa?
JUGLAR: (lo mira con desconfianza) ¿Quién es usted?
RELATOR 2: Un relator apropiado para estos duros tiempos que corren.
JUGLAR: (desconfiado) Mmmm, no me fío de usted, grandísima… Señoría. ¿Viene usted de Venecia? ¿No será que lo envía el Vaticano?
RELATOR 2: ¿El Vaticano? Escuchen eso. ¡El Vaticano! Aquí están mis pasaportes que acreditan que he venido desde la República de Venecia. Y si no me creéis, escuchad: (rápido) Galileo es un héroe de la ciencia, el modelo a imitar cuando se intenta describir el trabajo de los científicos. Su obra es inmensa, y con él nació la astronomía moderna. Su mayor logro, quizás, es haber impulsado el final del vínculo entre la ciencia y la teología. Ubicó cada cosa en su lugar.
JUGLAR: Cada cosa en su lugar, cada cosa en su lugar… Me gusta este relator… a ver… a ver… ¿qué es eso?
RELATOR 2: «En cuestiones científicas, la autoridad de la opinión de mil hombres no vale ni por un destello de razón de uno solo». «El libro de la Naturaleza está escrito en caracteres matemáticos».
RELATOR 2: Galileo pidió que la religión se ocupara de cómo se va al cielo y no de cómo va el cielo.
JUGLAR: ¡Eso estuvo bien dicho!
El RELATOR 1, que ha presenciado todo este diálogo, va a quejarse al Gran Inquisidor y a denunciar al RELATOR 2. Le dice cosas al oído. Los inquisidores comentan.
INQUISIDOR 1: Esto es imposible.
INQUISIDOR 2: Terrible.
INQUISIDOR 3: Abominable.
RELATOR 1: (sigue y dice algo con voz pomposa): Yo digo las cosas como son.
INQUISIDOR 1: ¡Muy bien!
RELATOR 1: (estúpido) Yo digo las cosas como las pienso.
INQUISIDOR 1: ¡Horror! Nadie debe pensar.
INQUISIDOR 2: ¡Herejía! Nadie debe pensar por sí mismo.
INQUISIDOR 3: ¡Blasfemia! Nadie debe pensar sin que nosotros vigilemos sus pensamientos.
INQUISIDOR 1: ¡Tortúrenlo!
INQUISIDOR 2: ¡Mátenlo!
INQUISIDOR 3: ¡Quémenlo!
JUGLAR: Así le pagan su fidelidad.
INQUISIDOR 1: Manos a la obra.
Se levantan y se disponen a hacerlo. Un inquisidor se acerca al RELATOR 1 con una antorcha para quemarlo. El RELATOR 1 huye.
RELATOR 2: Los inquisidores siempre quieren matar, torturar y quemar. Y aun así no consiguen nada.
JUGLAR: Guarden su fuego y torturas
los inquisidores,
que de pensar como quieran y de decir lo que quieran
nacieron libres los hombres.
Guarden su fuego y torturas,
que nacen libres los hombres.

INQUISIDOR 1: Huyó.
INQUISIDOR 2: Le temió al fuego purificador.
INQUISIDOR 3: Nos hemos quedado sin relator.
INQUISIDOR 1: Pero ¿qué nos importa? Galileo se retractó. Hemos logrado lo que queríamos. Hoy es 22 de junio de 1633, y la historia nos lo agradecerá siempre.
INQUISIDOR 2: Siempre nos lo agradecerá.
INQUISIDOR 3: Seremos venerados y respetados como héroes.
JUGLAR: Eso se llama tener visión… (Los inquisidores se retiran satisfechos. El Juglar hace una reverencia) Salud, siniestros señores.
Vuelve a sonar la pavana La Battaglia y las fanfarrias del principio. Los inquisidores se retiran. En la calle se ha juntado mucha gente.
NOBLE 1: ¡Galileo se ha retractado!
NOBLE 2: ¡Se ha retractado! Pero no por ello la Tierra dejará de moverse.
NOBLE 3: Estos siniestros personajes no podrán detener el triunfo irresistible de la ciencia y el maravilloso sistema de Copérnico.
Cada vez suena más fuerte la pavana. Se vuelven a ver las caras de los inquisidores: ahora caminan entre la multitud, que se aparta a su paso con miedo. Los inquisidores bendicen al público reunido. La gente comenta que se retractó. Se oyen murmullos: «Que nadie diga que la Tierra se mueve alrededor del Sol. ¡Que nadie lo diga ya más!». El juglar se mezcla con la multitud y se acerca a los tres nobles. Por la puerta del convento se lo ve salir a Galileo, vencido. Se detiene en la puerta y mira hacia la plaza. Todos lo miran a él, menos los inquisidores. Vuelven a doblar las campanas lentamente. La gente empieza a arrodillarse, y los inquisidores les imparten la bendición. Al pasar los inquisidores junto a los tres nobles, éstos se arrodillan. El juglar se queda ostensiblemente de pie. Ahora está todo el mundo de rodillas, excepto el juglar.
JUGLAR: Guarden su fuego y torturas
los inquisidores,
que de pensar como quieran
y de decir lo que quieran
nacieron libres los hombres.
Guarden su fuego y torturas
y guarden sus bendiciones,
que de decir lo que quieran
nacieron libres los hombres.

Los inquisidores, que están saliendo, se detienen y lo miran fijamente. Siguen doblando las campanas y suena más fuerte que nunca la pavana, mientras las palabras del Juglar se pierden en la música.

II. El primer conflicto

Ya lo vimos en el capítulo anterior: 1609 significó un quiebre radical tanto para la vida del protagonista de nuestra historia como para la ciencia occidental. Ese año, Galileo dirigió el telescopio al cielo y vio lo que nunca nadie había visto. No era menor, puesto que muchas de las cosas que vio eran más que suficientes para poner en cuestión varios de los puntos centrales de la doctrina cosmológica aceptada por la Iglesia. Sin embargo, a raíz de su éxito en Roma de 1611 (recordemos que sus resultados observacionales fueron aceptados por una comisión de expertos nombrados por el mismísimo Bellarmino), y aunque todavía era precavido con respecto a lo que enviaba a la imprenta, Galileo se sintió libre de hablar más abiertamente sobre las ideas copernicanas. Ideas que, por supuesto, manifestaba desde bastante antes de decidirse a hacerlas públicas, como queda claro en una carta enviada a la Gran Duquesa Cristina Lorena de Toscana:
En las discusiones sobre fenómenos naturales, no debemos partir de la autoridad de los pasajes bíblicos, sino de la experiencia sensorial y de las necesarias demostraciones.
Lo cierto es que el copernicanismo galileano se fue haciendo cada vez más fuerte. Y no sólo eso, sino que al tiempo que se iba convirtiendo en uno de los más renombrados defensores del nuevo sistema, nuestro protagonista polemizaba y acumulaba enemigos. En 1613 escribió un pequeño libro sobre las manchas solares, publicado por la Accademia dei Lincei, en el que se atribuía la prioridad del descubrimiento, lo cual derivó en una enconada disputa con el astrónomo jesuita Christopher Scheiner, quien afirmaba haberlas visto antes que Galileo. Es posible que Scheiner tuviera razón: de hecho, el inglés Thomas Harriott y el holandés Johann Fabricius se habían adelantado a ambos en este descubrimiento.
En un apéndice a ese mismo libro aparecían afirmaciones claras y sin ambigüedades basadas en la teoría copernicana, en las que utilizaba el ejemplo de las lunas de Júpiter para justificar su alegato. Las críticas contra Galileo empezaban a aparecer y a multiplicarse. Su copernicanismo ya era lo suficientemente escandaloso, pero, para colmo, se le iban encontrando más «delitos» graves, como ser amigo del herético veneciano Paolo Sarpi (quien, recuerden, había sido un defensor convencido y tenaz de Venecia en el conflicto con la Iglesia de Pablo V y publicaba escritos terriblemente críticos contra Roma), o cartearse con Kepler, un astrónomo protestante, o admirar a Gilbert, otro malvado hereje inglés, copernicano además, autor de un magnífico libro sobre el magnetismo del que nos habremos de ocupar.
Copernicano, amigo de protestantes y herejes, cuestionador de los jesuitas: los cargos se iban superponiendo mientras Galileo, tenaz, insistía en que la teología no interfiriera con la ciencia y que la «autoridad» de la Biblia no se entrometiera en las investigaciones científicas. Dirigiéndose a los jesuitas que se arrogaban la prioridad en el descubrimiento de las manchas solares, Galileo aseguraba que los teólogos poco tenían para decir en tales materias.
Porque ello sería como si un príncipe absoluto, a sabiendas de que puede mandar y hacerse obedecer libremente, quisiera, sin ser médico ni arquitecto, que se medicara y construyese a su antojo, con grave riesgo para la vida de los míseros enfermos y manifiesta ruina de los edificios.
Con esto bastaba. La situación de Galileo era sospechosa para una Iglesia que, atacada por varios flancos (o por lo menos, que convivía con esa sensación), estaba en pleno proceso de intentar reconstruir su poder. Pero nuestro protagonista seguía tranquilo porque confiaba en la eficacia de su alegato y en las amistades que tenía en Roma. En realidad, él no pretendía destruir la religión, sino que la Iglesia abandonara sus posiciones reaccionarias y se aggiornara, aceptando la nueva ciencia. De hecho, fue la intransigencia oscurantista y autoritaria de la Iglesia lo que transformó el conflicto en un enfrentamiento entre Fe y Razón.
En 1615, cuando estaba ya próximo a cumplir 52 años, Galileo obtuvo un permiso para ir al Vaticano a finales de año con el propósito de aclarar la situación. Lo hizo desoyendo los consejos del embajador de Toscana en Roma, quien afirmó que en ese momento, a diferencia de 1611, existía un ambiente hostil, y sugirió que otra visita no haría sino empeorar las cosas.
El 11 de diciembre de 1615, Galileo se convirtió en huésped oficial del embajador en la residencia de éste en Roma. Y así empezó todo.
Su contrincante en lo que habría de ser el primer choque era un viejo conocido: el jesuita y ahora cardenal Roberto Bellarmino, teólogo papal, y el poder detrás del trono del Papa. Bellarmino distaba mucho de ser un ignorante obtuso; por el contrario, era el teólogo más influyente de su tiempo y el mayor experto en el pensamiento de los padres de la Iglesia (según los cuales y únicamente según ellos podía interpretarse la Biblia, como había dispuesto el Concilio de Trento). Pero, no lo olvidemos, había participado de la siniestra condena de Giordano Bruno a la hoguera. Vale la pena que le dediquemos unas palabras a Bruno, triste antecedente del destino que enfrentaría Galileo.

§. Un trágico antecedente
La Iglesia Católica no pareció darse cuenta de la manera en que el copernicanismo enfrentaba su dogma hasta que Giordano Bruno (1548-1600) —quien, para colmo iba aún más lejos que Copérnico al entender el universo como algo infinito y con infinitos mundos— hubo explicado las consecuencias latentes en el mismo. En esa época (ya corrían los tiempos de la Contrarreforma), la Iglesia endurecía su posición en todos los ámbitos y Bruno fue sólo una de las víctimas.
Giordano Bruno nació en Nola, Italia; era hijo de un soldado profesional. A los 14 años se dirigió a la cercana Nápoles a estudiar humanidades, lógica y dialéctica, y allí encontró a un profesor llamado Colle, quien lo introdujo en el aristotelismo. La obra del griego se transformó en una especie de anti-faro para Bruno: todas sus obras se caracterizaron por su rechazo al pensamiento aristotélico.
En 1565 ingresó a un convento dominico, en donde tomó el nombre de Giordano. A poco de ingresar, sus actitudes poco ortodoxas lo hicieron sospechoso de herejía. En tiempos de Inquisición, la Iglesia hacía gala de una rigidez despiadada. Aun así, fue ordenado como sacerdote en 1572 y enseguida volvió a Nápoles para seguir estudiando teología, aunque al mismo tiempo leía obras prohibidas, como las de Erasmo. Después llevó una vida errante, abandonó la orden dominica y luego de deambular por el norte de Italia se instaló en Suiza, donde abandonó a la Iglesia Católica y se transformó en calvinista, lo que le valió un arresto y la excomunión, aunque se rehabilitó por retractación y se le permitió abandonar la ciudad para dirigirse a Francia (Toulouse y París). Siguieron Londres y Oxford, Alemania, Venecia, donde fue traicionado y denunciado a la Inquisición, y fue extraditado a Roma en 1593, donde sufrió un juicio que duró siete años. En un comienzo reconoció errores teológicos sin arrepentirse de cuestiones más filosóficas, algo que no gustó a sus jueces. Bruno se negó a retractarse por toda su obra y el papa Clemente VIII dio su veredicto: hereje impenitente. El 8 de febrero de 1600 fue sentenciado a la hoguera. Pocos días después era quemado vivo. En ese fuego ardió uno de los más audaces pensadores de su tiempo.
El sistema cosmológico de Bruno no era el más preciso de la época, por cierto, pero tenía algunas intuiciones interesantes. En sus obras sobre el universo, escritas a partir de 1584, sostenía su teoría del infinitismo esencial de la astronomía y se oponía a la visión medieval de un cosmos ordenado y finito, visión que, con modificaciones, todavía había ocupado el pensamiento de Copérnico.
Bruno iba en realidad más allá, ya que ni siquiera otorgaba un rol fundamental al Sol, que, según él, se trataba simplemente de otra estrella. Al mismo tiempo, negaba de manera radical cualquier excepcionalidad de la Tierra, el Sol, o los lugares aristotélicos; en su concepción todos los lugares del universo eran equivalentes, y el universo era un receptáculo de los fenómenos, una concepción parecida a la de los atomistas, que consideraban al espacio vacío como el lugar donde se movían los átomos. Esta idea del cosmos como receptáculo será la que triunfe con la Revolución Científica. Él pensaba que el universo estaba poblado por infinitos «mundos» semejantes al nuestro.
Hay un único espacio general, una única y vasta inmensidad que podemos libremente denominar vacío: en él hay innumerables globos como éste en el que vivimos y crecemos.
Los argumentos clásicos contra el movimiento de la Tierra —los de los vientos, las nubes, los pájaros— no valen nada, explicaba Bruno, porque el aire que rodea la Tierra (si ésta se mueve) es arrastrado por el movimiento mismo del planeta. El argumento de la piedra arrojada desde lo alto que cae verticalmente en lugar de hacerlo en forma oblicua, decía Bruno, se realiza en la Tierra; ahora bien, todas las cosas que se encuentran en la superficie de la Tierra se mueven con ella, y se mueven respecto de la Tierra exactamente igual que si ésta estuviera en reposo.
Si Bruno hubiera ido un «porqué» más lejos, habría llegado a acariciar la inercia. Tal vez si no lo hubieran llevado a la hoguera, habría dado el paso que le faltaba.
En el universo de Bruno no puede haber lugares privilegiados ni direcciones determinadas dada su esencia infinita. De esta manera, «arriba» y «abajo» no son más que nociones relativas, y en cuanto a la de «centro del mundo», carece ya plenamente de sentido.
Aquí Bruno propone una nueva ruptura con el sentido común. La equivalencia de todos los puntos transforma al espacio en un lugar puramente geométrico. Para los contemporáneos de Bruno, su visión del universo infinito resultaba enteramente gratuita, sin fundamentación en los datos astronómicos y mucho menos aceptable —en tanto iba aún más lejos— todavía que el sistema de Copérnico que defendía. Giordano Bruno no fue, probablemente, un gran científico en el estricto sentido de la palabra, pero sí un visionario que adivinó mundos y vio más lejos que sus contemporáneos. El 17 de febrero de 2000 se le rindió homenaje, haciendo el mismo recorrido que él hizo cuatrocientos años antes hacia el Campo dei Fiori, en Roma, en donde fue quemado.
Pero los muertos no resucitan.

§. Volvemos a Galileo, Roma, 1616
Esta digresión imprescindible nos alejó un poco de nuestro tema. Estábamos hablando de Bellarmino, el experto teólogo que protagonizó el primer episodio tenso de Galileo con la Iglesia. La posición del cardenal frente al copernicanismo era, digamos, «neutral», mientras el copernicanismo lo fuera también, esto es, mientras se presentara como un sistema ficcional, destinado a «salvar las apariencias», sin pretensiones de realismo.
No era original en esto: seguía la línea propuesta por Osiander en el prólogo fraguado al libro de Copérnico. Una interpretación realista resultaba un escándalo.
Lo cierto es que la interpretación ficcional de los sistemas del mundo le permitía a la Iglesia tener la última palabra en un tema tan importante. Pero Galileo, como ya vimos, pensaba todo lo contrario, y no se limitó a pensarlo sino a declamarlo, a publicarlo, a hacer propaganda, a intentar convencer al resto, desplegando una verdadera actividad proselitista a favor de la teoría heliocéntrica (interpretada en clave realista, claro está) en conferencias que daba en palacios y salones.
La actividad de agitación de Galileo ganó la calle, por así decirlo, y se discutía popularmente, como conté que parece haber ocurrido en los primeros tiempos después de la publicación del Revolutionibus. Pero esa discusión no podía sino implicar una reinterpretación de la Biblia, o de algunos pasajes (como el dichoso en que Josué manda detenerse al Sol), lo cual resultaba inadmisible para la Iglesia de la Contrarreforma. De a poco, en Roma se iban dando cuenta del riesgo real que significaba aceptar cualquier propuesta que oliera a copernicanismo.
Fue así que el 19 de febrero de 1616 Bellarmino convocó a once expertos en teología de la Inquisición, que necesitaron solamente cuatro días para determinar la «falsedad» de estas dos proposiciones:
a. «El Sol es el centro del mundo.»
b. «La Tierra se mueve toda de por sí, además, con movimiento diurno.»

La primera era «filosóficamente necia, absurda y formalmente herética»; la segunda, igual desde el punto de vista de la filosofía y además errónea en relación con la fe.
Estaba todo dado: quienes defendían una doctrina herética debían comparecer ante el tribunal. Pablo V dio entonces instrucciones a Bellarmino para que citara a Galileo y le impusiera verbalmente el abandono de las opiniones censuradas sobre las que había emitido su juicio la comisión: de ser cuestionada por Galileo la advertencia verbal, el comisario de la Inquisición procedería a reiterarla de manera formal en presencia de notario y testigos y, de negarse Galileo también a esta requisitoria formal, debía ser encarcelado.
Galileo fue citado el 16 de febrero en la residencia de Bellarmino, donde estaban, además, el comisario de la Inquisición y otros prelados y un notario. No es seguro lo que pasó allí, y las versiones varían. Es verosímil la que cuenta que, al entrar Galileo, Bellarmino se le acercó y le dijo por lo bajo quiénes estaban presentes y le dijo también que aceptara sin reparos la admonición verbal, ya que la situación estaba… complicada, digamos. Galileo, que sabía perfectamente quiénes eran los que estaban allí y sabía la poca simpatía que despertaba entre ellos, se apresuró a aceptar.
En ese momento intervinieron los inquisidores, que no estaban dispuestos a que Galileo se les escapara, pero Bellarmino sacó a Galileo de la sala antes de que se firmara documento alguno. Esto no impidió que la Inquisición depositara en el registro oficial un acta redactada presumiblemente por el notario, pero que está sin firma y donde no figuran firmas de testigos:
Ante mí y los testigos, continuando presente el señor Cardenal (Bellarmino), el citado Galileo recibió del mencionado Comisario orden rigurosa, en nombre de Su Santidad el Papa y de toda la Congregación del Santo Oficio, para que abandonase por completo dicha opinión de que el Sol está inmóvil en el centro del mundo y que la Tierra se mueve; y que no prosiga en modo alguno enseñándola, sosteniéndola ni defendiéndola, ya sea verbalmente o por escrito; de lo contrario el Santo Oficio adoptaría otros procedimientos; cuyo requerimiento el dicho Galileo acató y prometió obedecer.
Esta acta (que durante mucho tiempo se consideró una falsificación) sería usada como pieza clave en el segundo acto del conflicto, durante el proceso de 1633.
Luego de este episodio, como es lógico, comenzaron a propagarse rumores de que Galileo había sido castigado, de que se lo había declarado culpable y que se lo había obligado a abjurar de sus creencias y a hacer penitencia delante de la Inquisición.
No era así: Galileo regresó a su alojamiento en la embajada, obtuvo una entrevista con el Papa (lo cual era desde ya tranquilizador) e incluso un escrito de Bellarmino, firmado de su puño y letra, donde éste negaba que Galileo se hubiera retractado y certificaba que solamente se le había prohibido a Galileo defender o sostener el copernicanismo, por ser éste contrario a la Escritura. Es importante que en este texto no apareciera ningún problema respecto de la enseñanza, lo cual es consecuente con la posición de Bellarmino, que consideraba, como ya dijimos, que mientras se enseñara como si fuera ficcional, no había problemas.
Galileo entonces regresó a Florencia y en cierto modo dio por terminado el episodio.
Un contemporáneo no demasiado afecto a Galileo escribió:
Las disputas del señor Galileo se han disuelto en humo de alquimia, puesto que el Santo Oficio ha declarado que mantener tal opinión es disentir manifiestamente de los dogmas infalibles de la Iglesia. De manera que, por fin, nos vemos ahora de nuevo seguros en una Tierra sólida, y ya no tenemos que volar con ella, como hormigas que se arrastran por la superficie de un globo.
El 5 de marzo sería dado a conocer un decreto por el cual se incluían dentro del Índex de libros prohibidos todos aquellos que defendieran la realidad del movimiento de la Tierra. El libro de Copérnico fue «suspendido» hasta ser «corregido» y se lo liberó cuatro años más tarde con pequeñas modificaciones, aunque la versión original se mantuvo prohibida durante doscientos años.
Pero Galileo, que había salido relativamente bien parado y con mínimos daños de esta primera escaramuza, no estaba dispuesto a abandonar la guerra.
De hecho, en 1618 volvió a pelearse con los jesuitas por cuestiones científicas: en este caso, se trataba de la naturaleza de tres cometas que aparecieron ese año. Los religiosos, que habían adoptado el sistema mixto de Tycho Brahe, ubicaron las trayectorias entre la Luna y el Sol, en una órbita no circular. Galileo, por su parte, creyó que una órbita no circular amenazaba el sistema de Copérnico (cosa que no se entiende del todo, teniendo en cuenta que ya se habían difundido las dos primeras leyes de Kepler, leyes que, dicho sea de paso, Galileo jamás tomó en cuenta) y ensayó una teoría completamente fantástica sobre la generación de los cometas en la atmósfera como mezcla de vapores y de luz solar. Era una posición insostenible, pero a la cual se aferró, atacando duramente a sus contrincantes (que eran buenos astrónomos). Dicha postura no hizo sino enardecer el antagonismo hacia él que mantenía la poderosa orden a la que pertenecían. Más allá de lo disparatado de su teoría, lo cierto es que Galileo se enconó con los jesuitas por ser representantes de un modo de pensamiento teológico aplicado a las ciencias naturales, lo cual sirvió para que empezara a exponer (o continuara exponiendo, mejor dicho) cuestiones metodológicas y teóricas de una importancia fundamental para la historia de la ciencia. Es en este contexto que escribe uno de sus párrafos más famosos:
La filosofía está escrita en este vasto libro que continuamente se abre ante nuestros ojos (me refiero al universo), el cual sin embargo no se puede entender si antes no se ha aprendido a entender su lengua y a conocer el alfabeto en el que está escrito. Y está escrito en el lenguaje de las matemáticas, siendo sus caracteres triángulos, círculos y otras figuras geométricas, sin las cuales es humanamente imposible comprender una sola palabra; sin ellos sólo se conseguirá vagar por un oscuro laberinto.
Las matemáticas eran la sintaxis del mundo y, luego del primer juicio, las cosas estaban relativamente tranquilas. Relativamente tranquilas.

III. Intermedio

JUGLAR: Dos mundos, dos mundos
el de arriba puro
el de abajo corrupto.
Arriba éter cristalino
abajo mineral sucio.
Aire tierra, fuego y agua
arriba todo se mueve
en un perfecto círculo
abajo todo se mezcla
y la tierra está inmóvil
en el centro del mundo.
¿Cómo es que los pájaros no salen volando?
¿Y cómo es que la luna no se queda atrás?
¿Y cómo puede ser que no nos demos cuenta?

HOMBRE: Se mueve el pez en el mar.
Se mueve el ave en el viento
Y el viento
Es aire en movimiento
Nada está quieto
Salvo mi corazón.

JUGLAR: (Y el volcán
¡rataplán!)

MUJER: Vuela el pájaro en el aire
juega la luz en la nieve
por el espacio vacío
la tierra también se mueve.

NIÑO: Se mueve el mar en el mar
donde relumbran los peces
y se agita entre las flores
el colibrí, que no duerme.
Y en la montaña el arroyo
y en los pastos la serpiente.

HOMBRE: Cae el águila de pronto
sobre la presa inocente
y en el espacio vacío
también la tierra se mueve.

JUGLAR: Y el volcán
¡rataplán!

HOMBRE: La tierra parece quieta
palacio de grandes torres
donde sólo el viento turbio
sabe agitar los faroles.
Ya relumbra en la alameda
la espesa quietud del cobre
y las mujeres cetrinas
con vestiduras de hombre
que cuentan en las esquinas
el dinero de los pobres.

MUJER: La Tierra parece inmóvil,
serena como una torre
Como un árbol o una vela
Cuando no hay viento que sople.

GALILEO: Y sin embargo se mueve.
JUGLAR: Señores inquisidores,
policías, represores
del pensamiento que vuela.
Tristes guardianes del éter,
oigan lo que digo yo.
La tierra se está moviendo
les guste a ustedes o no.
Vayan con su dios pequeño
que vigila noche y día.
Rataplán plan plan.
¿Qué puede el pequeño dios Contra Galileo? ¿Qué puede?
Rataplán plan plan.

IV. El segundo proceso

Los actores del segundo proceso a Galileo serían otros: Bellarmino había muerto en 1621 y el papa Pablo V en 1623. Galileo vio su oportunidad cuando asumió como Papa con el nombre de Urbano VIII el cardenal Maffeo Barberini, un hombre que se consideraba a sí mismo un renacentista ilustrado, amigo de las artes y las ciencias, que había admirado la Francia de Enrique IV, donde se había conseguido por una vez imponer la paz religiosa y no la paz de los cementerios, como era usual en aquella época y como lo sigue siendo, al menos más de lo que uno querría, ahora y que, vale decirlo, era un verdadero admirador de Galileo, a tal punto que le había dedicado un poema unos pocos años antes.
La dedicatoria de Il saggiatore (El ensayador), el libro que fue el resultado de la polémica de 1618 con los jesuitas (y en el que se exponen algunas de las más exquisitas reflexiones sobre la ciencia de nuestro autor), fue dirigida, como era de esperarse, al nuevo Papa; los miembros de la Accademia dei Lincei, por su parte, incorporaron al sobrino del Papa, Francesco Barberini, que luego sería nombrado cardenal por su tío y que integraría el tribunal que juzgaría a Galileo en 1633.
Nuestro protagonista se entrevistó entonces con el flamante Urbano VIII, quien declaró públicamente que no se opondría a la publicación de nuevos libros de Galileo sobre la cuestión copernicana siempre que (¡otra vez!) se lo considerara como un sistema ficcional. Mientras tanto, celebraba las pullas que Galileo dedicaba a los jesuitas en el Saggiatore («se partía de risa»), que era la comidilla de Roma, ciudad en la que Galileo ya era considerado un nuevo Cristóbal Colón o un nuevo Prometeo.
Lo cierto es que Galileo creyó percibir un ambiente favorable, y se puso a redactar la gran obra que venía prometiendo desde el Sidereus Nuncius: un libro en el que se proponía comparar los dos grandes sistemas del mundo (el tolemaico y el copernicano) para exhibir claramente sus ventajas y desventajas.
El Diálogo sobre los dos máximos sistemas del mundo fue escrito entre 1624 y 1630, año en que viajó a Roma para entregar el manuscrito y fue recibido amablemente por el Papa, a quien expuso las líneas generales del libro. Finalmente, el trabajo recibió la aprobación de la censura y se publicó en 1632: su repercusión fue grande y las alabanzas unánimes. Todo parecía ir de la mejor manera. Pero se estaba cebando una bomba de tiempo que estallaría casi en seguida.

§. El Diálogo
El Diálogo sobre los dos máximos sistemas del mundo (llamado habitualmente el Diálogo) quedó terminado en noviembre de 1629. Como su título indica, adoptó la forma de un debate imaginario entre dos personas: Salviati (defensor del sistema copernicano) y Simplicio (que daba argumentos a favor del sistema de Tolomeo). La utilización de un diálogo de este tipo era un recurso tradicional, que se remontaba a los antiguos griegos y, en principio, ofrecía un modo claro de enseñar teorías no convencionales (o, en este caso, heréticas), sin que el autor tuviera que aprobarlas al pie de la letra.
Sin embargo, Galileo no siguió exactamente esta tradición. Había existido en la realidad un Filippo Salviati, amigo íntimo de Galileo, que había muerto en 1614 y, al elegir este nombre para el interlocutor copernicano, Galileo se acercaba peligrosamente a identificarse explícitamente él mismo con aquella visión del universo. También había existido un Simplicio (en realidad Simplicius), un hombre de la Grecia antigua que había escrito un comentario sobre la obra de Aristóteles, por lo que se podía alegar que este nombre era adecuado para el defensor de Tolomeo (y de Aristóteles) en el Diálogo. El nombre sugiere, por otra parte, que sólo un simple podía creer que el sistema de Tolomeo era correcto.
La tercera voz en este libro era la que aportaba Sagredo, llamado así por otro viejo amigo de Galileo, Gianfrancesco Sagredo, que había fallecido en 1620. Se suponía que Sagredo era un comentarista imparcial, que escuchaba el debate entre Salviati y Simplicio, planteando cuestiones para que fueran debatidas. Pero este personaje tendía cada vez más a apoyar a Salviati frente a Simplicio, por la fortaleza de sus argumentos.
El Diálogo es un verdadero manifiesto copernicano «para todo público», donde Galileo niega la dicotomía entre mundo terrestre y celeste, afirma que es erróneo atribuir a los cielos y a la tierra movimientos naturales distintos (circulares para uno y rectilíneos para la otra) y analiza los últimos descubrimientos astronómicos, considerándolos incompatibles con la cosmología aristotélica: la Luna es opaca como las piedras, y la Tierra la ilumina al reflejar sobre ella la luz recibida del Sol; la misma materia existe en todas partes, y en suma la misma física es aplicable a los cielos y a la tierra; el éter no es más un elemento; la Tierra, desde ya, está en movimiento pese a la percepción cotidiana. Para demostrar esto último, refuta los argumentos tradicionales respecto del movimiento terrestre, y usa el famoso ejemplo del barco que se desliza en un mar calmo. Todas las cosas del barco participan de su movimiento, y la piedra que cae del mástil tiene movimientos compuestos que no interfieren entre sí, situación prohibida por la filosofía peripatética.
Cuando Simplicio sostiene que no puede «ver» la trayectoria curvilínea, se le pone el ejemplo de una caminata nocturna en la que la Luna parece desplazarse por arriba de los techos, cosa que evidentemente es una apariencia que «evidentemente nos engañaría si no interviniera la razón».
Alcanza con todo esto para darse cuenta de que el Diálogo era una verdadera bomba y no tardó en despertar la furia de los enemigos de Galileo: apenas cuatro meses después de su publicación se efectuaron reuniones de teólogos que querían prohibirlo y el censor de la Iglesia pidió al inquisidor de Florencia que secuestrara los ejemplares que pudiera ubicar.
Además, se sugirió a Su Santidad que Galileo había escrito deliberadamente para dar a entender que el propio Urbano VIII era un simple, lo cual, por supuesto, enfureció al Papa, quien más tarde diría sobre Galileo: «No temía burlarse de mí». El resultado fue que se constituyó una comisión papal para investigar el asunto. Revisando en los archivos en busca de algo que pudieran encontrar sobre Galileo, los jesuitas dieron con lo que parecía ser una prueba condenatoria: las actas no firmadas de la reunión de 1616, aquella de la que había participado Bellarmino, donde se decía que Galileo había recibido instrucciones de abstenerse de «sostener, defender y enseñar» la teoría copernicana del universo. Ésta fue la prueba decisiva que hizo que Urbano VIII llamara a Galileo a Roma para someterlo a un juicio por herejía.
Es cierto que Galileo actuó con exceso de confianza, pero a simple vista la situación así lo permitía. Lo grave fue que el mismísimo Papa, movido por intrigas palaciegas, traicionó a Galileo y se pasó al bando de sus enemigos: en septiembre, el inquisidor de Florencia hizo llamar a Galileo y lo conminó a que se presentara en Roma.
Galileo trató de retrasarlo, pero en enero de 1633, año trágico, se lo intimó amenazándolo con hacerlo llevar por la fuerza, sin que el Gran Duque de Toscana hiciera una defensa enérgica. Finalmente llegó a la embajada de Toscana en Roma el 13 de febrero de 1633, dos días antes de cumplir 69 años, para iniciar una verdadera ordalía.

§. Galileo era «culpable»
El 12 de abril se presentó ante los jueces. En los procesos de la Inquisición, de infame memoria, el acusado ignoraba los cargos, no tenía abogado defensor y se lo consideraba culpable a menos que pudiera probar su inocencia (sin contar las horrendas torturas que se aplicaban para obtener confesiones).
Pero este caso era complicado para la Inquisición, ya que el Diálogo se había publicado con autorización eclesiástica y el acta de 1616 no tenía gran valor, pues carecía de firma de testigos.
La Iglesia quería demostrar que Galileo había desobedecido la orden del Papa de no enseñar el sistema copernicano en ningún caso. Pero las actas no firmadas correspondientes a la reunión de 1616, en las que supuestamente se le prohibía a Galileo enseñar el sistema copernicano, quedaron sin valor cuando Galileo presentó el documento firmado que el cardenal Bellarmino había escrito de su puño y letra, en el que se establecía que Galileo no podría «ni sostener, ni defender» aquellas teorías. No se decía nada de enseñar. Era una buena primera treta, pero no podía durar mucho: había que hacer verdaderos malabares argumentativos para sostener que el diálogo no era una defensa o un sostén del sistema copernicano, y de hecho en cierto momento, desesperado por la falta de argumentos, Galileo sostuvo la ridícula hipótesis de que el tratado estaba destinado a demostrar que los supuestos de Copérnico eran inconcluyentes, cosa que era a todas luces mentira. Así terminó el primer tramo del interrogatorio.
El problema es que Galileo era indudablemente «culpable» (de un «delito» por cierto imperdonable para la Iglesia: la disidencia intelectual) y poco podía decir a su favor. Era cierto que había defendido y sostenido el sistema copernicano desde la prohibición y era muy fácil de demostrar. Había un libro publicado, un libro que poco pie daba a las ambigüedades, y todo el mundo sabía sobre el copernicanismo galileano. No podía engañar a nadie.
En junio el proceso se reanudó con nuevos interrogatorios y finalmente Galileo terminó por reconocer todo lo que se le pedía, con lo cual se lo consideró confeso de las acusaciones en su contra, y se lo conminó a decir toda la verdad, amenazándolo con la tortura (y no es arbitrario pensar que pueden haberle mostrado los instrumentos de tortura con una explicación de sus efectos para que, amablemente, confesara más rápido).
Durante el interrogatorio, el acusado respondió que no adhería a la doctrina condenada:
Hace mucho tiempo, yo era indiferente y consideraba ambas opiniones, la de Tolomeo y la de Copérnico, como un tema abierto a la discusión en la medida en que cualquiera de ellas podía ser verdad en la naturaleza. Pero después de dicho decreto, convencido de la sabiduría de las autoridades, dejé de dudar y sostuve, y aún sostengo, como la más verdadera e indiscutible, la opinión de Tolomeo, es decir, la estabilidad de la Tierra y el movimiento del Sol.
Galileo admitía haber sido copernicano hasta que se lo prohibieron. Así firmó y recitó su retractación definitiva:
Yo, Galileo, hijo de Vincenzo Galileo de Florencia, a la edad de 70 años, interrogado personalmente en juicio y postrado ante vosotros, Eminentísimos y Reverendísimos Cardenales, (…) juro que siempre he creído, creo aún y, con la ayuda de Dios, seguiré creyendo todo lo que mantiene, predica y enseña la Santa, Católica y Apostólica Iglesia.
Pero, como, después de haber sido jurídicamente intimado para que abandonase la falsa opinión de que el Sol es el centro del mundo y que no se mueve y que la Tierra no es el centro del mundo y se mueve, y que no podía mantener, defender o enseñar de ninguna forma, ni de viva voz ni por escrito, la mencionada falsa doctrina, y después de que se me comunicó que la tal doctrina es contraria a la Sagrada Escritura, escribí y di a la imprenta un libro en el que trato de la mencionada doctrina perniciosa y aporto razones con mucha eficacia a favor de ella sin aportar ninguna solución, soy juzgado por este Santo Oficio vehementemente sospechoso de herejía, es decir, de haber mantenido y creído que el Sol es el centro del mundo e inmóvil, y que la Tierra no es el centro y se mueve. Por lo tanto, (…) con el corazón sincero y fe no fingida, abjuro, maldigo y detesto los mencionados errores y herejías y, en general, de todos y cada uno de los otros errores, herejías y sectas contrarias a la Santa Iglesia. Y juro que en el futuro nunca diré ni afirmaré, de viva voz o por escrito, cosas tales que por ellas se pueda sospechar de mí; y que si conozco a algún hereje o sospechoso de herejía, lo denunciaré a este Santo Oficio o al Inquisidor u Ordinario del lugar en que me encuentre.
Yo, Galileo Galilei, he abjurado, jurado y prometido y me he obligado; y certifico que es verdad que, con mi propia mano he escrito la presente cédula de mi abjuración y la he recitado palabra por palabra en Roma, en el convento de Minerva este 22 de junio de 1633.
Yo, Galileo Galilei, he abjurado por propia voluntad.
La condena fue la prisión de por vida. Primero se le conmutó por un arresto domiciliario en la embajada de Toscana en Roma; luego pasó a estar bajo la custodia del arzobispo de Siena (que simpatizaba con él) y finalmente todo quedó en el confinamiento en su propio domicilio cerca de Arcetri, desde principios de 1634. La vigilancia no fue demasiado estricta: en su aislamiento, Galileo recibía visitas, se carteaba con múltiples científicos europeos y, lo que es más importante, tuvo tiempo de terminar el más importante de todos sus libros, Consideraciones y demostraciones matemáticas sobre dos ciencias nuevas (denominado habitualmente Dos nuevas ciencias), que recopilaba todos sus trabajos sobre mecánica, inercia y péndulos y describía su concepción del método científico, aplicando el tratamiento matemático a temas cuyo estudio hasta entonces había sido prerrogativa de los filósofos. El manuscrito se sacó clandestinamente de Italia y Louis Elzevier lo imprimió en Leiden en 1638. En sus últimos años, se quedó completamente ciego y le escribió a un amigo:
Ay de mí, Señor mío… Galileo, vuestro servidor está, completa e irreparablemente ciego. ¡Cuánto dolor! ¡¡Cuánta injusticia!! Ese cielo, ese mundo y ese universo que yo, con maravillosas y claras demostraciones, había ampliado cien y mil veces más allá de cuanto vieron todos los sabios de la historia, ahora se ha vuelto diminuto, se ha restringido hasta un punto que no es mayor que el espacio que ocupa mi persona.
Galileo murió en Arcetri mientras dormía durante la noche de 8 al 9 de enero de 1642, unas pocas semanas antes del día en que habría cumplido 78 años.

§. Balance: los dos juicios
El proceso a Galileo fue fuente de inspiración de obras de teatro y fuente también de ríos de tinta: durante el papado de Karol Wojtyla (Juan Pablo II), finalmente se reivindicó a Galileo, «solamente» cuatrocientos y pico de años después, y ahora hasta se publican los documentos de ese grandioso papelón que pasó la Iglesia (y que no terminó en tragedia debido a la razonable actitud de Galileo al retractarse y salvar su cuerpo de la tortura y su vida de la hoguera).
El primer asalto de 1616 no terminó en nada concreto; el de 1633 ya fue otra cosa: la Iglesia se había pronunciado abiertamente contra la astronomía heliocéntrica y era herejía ya no sólo enseñarla sino creer en ella, y se le exigió a Galileo no sólo arrepentirse de haber creído en ella, sino hacerlo «sinceramente»: una siniestra farsa que sólo por un pelo no terminó de la manera más horrible (como había sido el caso de Giordano Bruno) gracias a la lucidez de Galileo. Desde ya, fue una de las tantas siniestras muestras de intolerancia de la Iglesia Católica, que rechazó y prohibió el sistema que sólo medio siglo más tarde se consagraría de manera irrefutable con la obra de Newton. En verdad, en 1616, la Iglesia estaba fundamentalmente preocupada por controlar cómo se enseñaba la realidad; en 1633, ante los fracasos de la Contrarreforma, ya estaba preocupada por controlar cómo era la realidad.
Pero hay algo más sobre el juicio a Galileo: por un lado está el papelón de condenar la teoría copernicana, una teoría ya adornada por las tres leyes de Kepler y que estaba siendo aceptada en Inglaterra y Holanda, por poner un par de ejemplos, y que en poco tiempo más se vería coronada de manera definitiva por Newton; Galileo tenía razón frente a lo retrógrado de la postura papal. Sí. Pero… ¿y si Galileo hubiera estado equivocado, qué? ¿En ese caso la intolerancia hubiera tenido su costado razonable o disculpable?
Al fin y al cabo, la idea de libertad de pensamiento es relativamente nueva: se remonta no mucho más allá de la Revolución Francesa. ¿Es legítimo condenar un acto de intolerancia del siglo XVII con los parámetros actuales? ¿No es una falacia juzgar hechos pasados con valores presentes? ¿Puede uno horrorizarse ex post de la represión en una época que ni soñaba con la libertad de pensamiento como un derecho? ¿O de la recurrencia a la tortura, cuando ésta era parte legal de los procesos judiciales y faltaba bastante para que se publicara el alegato Dei delitti e delle pene, de Beccaria, que cambió el pensamiento jurídico?
Yo creo que decididamente sí: es difícil tomar aquellos horrores como simplemente epocales; al fin y al cabo, si se utilizaban eran precisamente porque se los consideraba horrores, inseparables del castigo. Además, no eran para nada universales: Holanda, en gran medida Inglaterra, y hasta la República de Venecia (por no hablar de Toscana, donde Galileo era ampliamente aceptado) tenían hacia el pensamiento actitudes muy distintas (no así hacia la tortura en los procesos judiciales, aunque, vale la pena recordar, el mismo derecho romano prohibía la tortura —a los ciudadanos, claro está; los demás podían ser torturados libremente—). Por otra parte, no está de más recordar que el pensamiento intolerante es bastante más actual de lo que uno desearía.
Así pues, hay dos juicios a Galileo: uno es el científico; el otro es la represión a la disidencia y la discordancia: el primero no hace sino volver más nítido, más repudiable y más repugnante el segundo. Del primero, el Vaticano se retractó. Del segundo, no.
Y seguramente, mientras el juicio a Galileo se desarrollaba, muchos infelices eran torturados y languidecían en los calabozos de la Inquisición, esperando que los ataran a la pira donde serían quemados.

VI. Final

Relator: La última leyenda. Una leyenda, y esta vez no inventada por Viviani, sino forjada un siglo y medio después. Cuenta que después de recitar su retractación, Galileo murmuró por lo bajo «eppur si mouve» («y sin embargo se mueve»). Claro está que no cometió semejante acto de rebeldía, que podría haberle costado nada menos que la hoguera. Pero a los fines dramáticos, la aceptaremos para este final.
Juglar: Para entonces, su fama era inmensa, y era alabado en toda Europa. Sus libros, que estaban prohibidos, corrían por los ambientes académicos de Inglaterra y Francia y se leían en las nuevas sociedades científicas que acababan de nacer, como las de Londres y San Petersburgo.
Ahora sabemos que el mundo que el hombre creyó presidir desde la Tierra no existe: vivimos en una pequeña geografía de un pequeño planeta, insignificante respecto de la estrella alrededor de la cual giramos. Esta estrella es una más entre cientos de miles de millones de estrellas que forman la galaxia, que es una más de las cien mil millones de galaxias que pueblan el Universo.
Y todo empezó esa oscura noche de Pisa de 1610, cuando el ojo curioso de Galileo, oculto detrás de un telescopio casi de juguete, lo apuntó por primera vez al cielo estrellado y destruyó los relatos míticos y las filosofías antiguas.
Entran inquisidores y guardias.
Su eco puede escucharse tenuemente en una noche sin Luna, cuando el cielo muestra todo su esplendor de estrellas y galaxias. Entonces, en medio del campo, rodeado sólo por el abrumador silencio de la noche, se puede sentir una mirada que aún sigue activa.
Es la mirada de alguien que solo, amparado por la razón, se enfrentó con todo el mundo.
Es la mirada de Galileo.
Los guardias aprisionan al juglar, lo atan y lo arrastran hasta la pira, donde el verdugo lo ata. Lo queman.
Es la mirada de Galileo.
Un inquisidor le da la bendición al juglar.
Es la mirada de Galileo.
Ahora está todo iluminado por la luz rojiza del fuego. La pira donde se quema el juglar crece. Pero se escucha cada vez más fuerte el grito:
Juglar: Es la mirada de Galileo, y una voz que susurra: « ¡Y sin embargo se mueve!».
El fuego poco a poco se va apagando; en la pira se ve el cuerpo carbonizado del juglar. Se ha hecho la oscuridad más absoluta, y brillan las estrellas. Sale la Luna. La gente se aleja de la hoguera cabizbaja. Se oye un murmullo general.
Señores inquisidores
policías, represores
del pensamiento que vuela,
de la razón que no duerme.
Oigan lo que digo yo:
la tierra se está moviendo
les guste a ustedes o no.
Vayan con su dios pequeño.
Perdonen vuestras mercedes.
No va a dejar de moverse
porque lo digan ustedes.
Perdonen vuestras mercedes.
No va a funcionar el mundo
como lo digan ustedes.
Y cae el telón.

Interludio:
Milonga de Galileo

En 1970, el papa Juan Pablo II inició la revisión del caso Galileo. En 1995, la iglesia reconoció su error, el Papa pidió perdón por la condena, y Galileo fue reivindicado. Pero pocos conocen la verdadera historia del asunto.
La muy santísima iglesia
reivindicó a Galileo
después de trescientos años:
lenteja, asigún yo creo.
Pero muy pocos conocen
la verdadera razón,
y el secreto bien guardado
de tal reivindicación.
Sucede que en Buenos Aires
allá en Barracas, que un día
se llamó Santa Lucía,
había un taura aficionado
a estudiar astronomía.
Se sentaba, noche a noche
a orillas del Maldonado
a contemplar las estrellas
y meditaba asombrado.
«Qué taura tan grande fue
Galileo Galilei,
malevo como el que más,
y encima, varón de ley.
¿Cómo se puede admitir
que le hayan hecho un proceso,
en el que casi lo queman
y después lo manden preso?».
Y un día como cualquiera
con el facón en la mano,
decidió cambiar las cosas
y viajó hasta el Vaticano.
Se fue derecho a San Pedro
y sin pedirle permiso
se plantó ante el propio Papa
achurando a un guardia suizo.
Y sin besarle el anillo
le dijo: «Su Santidá
permitamé que le hable
con entera libertá.
¿Acaso la iglesia cree
que el sol se mueve a través
del cielo, y sigue ignorando,
que es justamente al revés?».
Y dijo el Papa: «Hijo mío,
sabemos bien quién se mueve,
pero a arreglar ese enriedo
ahora nadie se atreve.
Resulta casi imposible
reparar todos los daños
que hizo la Inquisición
hace ya trescientos años».
Y el taura: «Usté, como Papa,
tal vez lo pueda decir,
pero yo, como malevo
no lo puedo permitir».
«Arreglarlo —dijo el Papa—
es una complicación,
hay que citar un Concilio,
tal vez una Comisión,
Hay seiscientos cardenales
cada cual con su opinión,
¿usted sabe lo que implica
semejante discusión?»
«Mire, Papa —dijo el taura—,
no me importa lo que implica:
al amigo Galileo
usté me lo reivindica.
Si no, Juan Pablo Segundo,
le voy a ser muy sincero,
me da el pálpito que pronto
habrá un Juan Pablo Tercero».
Contestó el Papa: «Hijo mío,
estoy lleno de problemas,
no trates de complicarme
trayéndome nuevos temas.
¿Sabés lo que significa
manejar el Vaticano,
la mafia, la corrupción,
y el crack del Banco Ambrosiano?
Los sacerdotes rebeldes,
cada tanto un atentado,
y afinar el papamóvil
que tiene el motor gastado».
Y el taura: «Se lo repito,
le juro como malevo
que usté me lo reivindica
o tenemos Papa nuevo».
Al tiempo que esto decía,
revoleaba su facón
en las narices del Papa,
con mucha resolución.
En fin, suspiró Juan Pablo,
cosas que el Papado tiene,
¡solucionar un entuerto,
que no me va ni me viene!
Y vista la cercustancia
el Papa salió al balcón
y admitió que Galileo
tuvo toda la razón.

Capítulo 17
Newton, hacedor de universos

Nature and Natures laws lay hid in night: God said, «Let Newton be!» and all was light.
(La naturaleza y sus leyes estaban ocultas en la oscuridad; Dios dijo: «Sea Newton», y todo fue claridad).
ALEXANDER POPE

Desde hace unos capítulos hemos seguido la evolución de las ideas físicas y astronómicas desde que, según la fecha que fijé (que no es tan arbitraria como dije al principio), en 1543 Copérnico abriera la Revolución Científica con su De Revolutionibus orbium caelestium. Esta línea imaginaria que hemos trazado, que pasa por Brahe, Galileo y Kepler y que funciona como la melodía fundamental que permite descubrir y reconstruir la sinfonía, culmina con otro libro, acaso el más importante de toda la historia del pensamiento científico occidental: Philosophiae naturalis Principia matematica, o Principia, como se lo nombra más frecuentemente, de Isaac Newton, de 1687. Es con los Principia que la línea se completa y la ciencia moderna sale armada prácticamente de pies a cabeza.
Pensar las cosas así, esto es, como una marcha continua, sostenida y ascendente del De Revolutionibus a los Principia, de Copérnico a Newton, puede resultar (y resultará a tantos lectores) demasiado ex post, demasiado reconstructivo a la luz de los resultados y desde el punto de vista actual.
Y sin embargo hay algo en la actitud y el pensamiento científico de estos personajes de los que hemos hablado, y de los que hablaremos ahora, que parece indicar una verdadera novedad: se trata de un esfuerzo consciente, explícito y tenaz que no se detiene ante lo ya conocido, sino que lo considera incompleto, formula sus aportes y exige a los continuadores que resuelvan los problemas que quedan abiertos. Así, por ejemplo, Brahe es perfectamente consciente de que, destruidas las esferas cristalinas, su sistema, con el Sol girando alrededor de la Tierra y el resto de los planetas girando alrededor del Sol, no está bien fundamentado y le encarga a Kepler que lo haga (cosa que Kepler no sólo no cumplió, como sabemos, sino que usó los preciosos datos de Brahe para fundamentar el sistema copernicano, lo cual seguramente hizo a Brahe revolverse en su tumba).
Galileo es consciente, también, de los problemas que quedan abiertos:
Nadie ignora que esa causa (de la caída) recibe el nombre de gravedad. Pero excepto el nombre, no comprendemos nada de esa cosa: ni de la virtud que hace bajar una piedra, ni de la que empuja una piedra proyectada hacia arriba, ni de la que mueve la Luna en su órbita.
Es, a la vez, una mirada al pasado pero un asomarse al futuro: la conciencia de la propia ignorancia no lleva a la parálisis ni a los libros de los antiguos sino a la reflexión y la investigación; la mente humana es potencialmente capaz de resolver todos los nuevos acertijos que se van planteando y el científico se convierte, en cierto modo, en un postulador de acertijos que deben funcionar como guías del pensamiento futuro y ser solucionados por los que vendrán.
Descartes escribiría:
Espero que nuestros nietos nos estarán agradecidos, no sólo por las cosas que he explicado sino también por las que voluntariamente he omitido, con el fin de dejarles el placer de inventarlas.
Los hombres de la Revolución Científica son científicos conscientes de que lo son, de que la ciencia es una tarea colectiva y pública que avanza gracias al trabajo acumulado de una comunidad dentro de la cual cada investigador ve más lejos que el anterior porque tiene la posibilidad de montarse en los hombros de sus predecesores, en «hombros de gigantes»… La frase, que define al propio Newton, no es ociosa: la ciencia está planteando un nuevo escenario y ubicándolo en el futuro.
«Si vemos más lejos es porque estamos subidos en hombros de gigantes»: es una proposición bastante elocuente. Suele atribuírsela a Newton, pensando que a lo que se refiere es a que su ley de gravitación es posible sólo gracias a que pudo subirse en los hombros de Copérnico, Galileo y Kepler. Pero no fue así. Newton la usó en una carta a Robert Hooke en la que hablaba de las críticas que éste había hecho a su teoría corpuscular de la luz, y no tiene nada que ver con los Principia ni con la ley de gravitación universal. Tampoco es original de Newton, sino, como recordarán, de Bernardo de Chartres, en el siglo XII, lo cual muestra que esta postura de los científicos de la revolución tenía algunas raíces en el pasado y que poner fechas de comienzo, o límites, o fechas de cierre, es siempre un poco arbitrario.
Sea como fuere, la línea que trazamos tiene sus justificaciones. Y si le dedicamos un capítulo a quien inaugura la Revolución Científica, tenemos que dedicarle otro a quien la culmina, produciendo esa pavorosa síntesis que marcó el rumbo que seguiría la ciencia hasta… hasta hoy.

§. Vida de Newton
Es muy difícil aproximarse con ecuanimidad a Newton, hacedor de universos, y considerado por muchos como el científico más grande que jamás haya existido. Inclinado al esoterismo, tuvo una personalidad extraña y enfermiza, paranoica hasta el exceso, al borde mismo de la locura, que estuvo alguna vez a punto de acabar con él. Vengativo, perseguía a sus enemigos científicos hasta el cansancio y hasta el extremo de hacer desaparecer de la Royal Society el retrato de Robert Hooke, uno de los científicos más importantes del siglo XVIII. Tenaz en sus odios, mantuvo una absurda polémica con Leibniz por la prioridad en la creación del cálculo infinitesimal que envenenó las relaciones entre la ciencia inglesa y la continental y retrasó en Inglaterra el desarrollo de las matemáticas.
Había nacido en 1642 en una granja de Woolsthorpe, una ciudad en Lincolnshire, al este de Inglaterra, que permanecería relativamente ajena al turbulento período de la historia que le tocaría vivir. Siete años después del nacimiento de Newton, la segunda guerra civil entre el rey y el Parlamento llegó a su punto de máxima tensión cuando Carlos I fue ejecutado y se instauró la república puritana de Cromwell, que duró hasta 1660, cuando la sucedió la restauración de los reyes Estuardo (que finalizaría con la «Revolución Incruenta» de 1688).
A los 12 años, es decir, en pleno proceso de protectorado de Cromwell, Newton fue enviado a estudiar a una escuela de enseñanza secundaria en Grantham, a unos 8 kilómetros de su granja natal. Tras la muerte de su padre, su madre quiso que se hiciera cargo del manejo de las propiedades familiares, para lo que Newton fue tan incapaz que finalmente lo enviaron de nuevo al colegio. En junio de 1661, a los 18 años de edad (y ya con los Estuardo en el trono de una restaurada monarquía), ingresó en el Trinity College de Cambridge, como sub-becario, lo que significaba ser criado de un estudiante más pudiente, tarea de lo más baja, que podía resultar extremadamente desagradable e incluir trabajos tales como vaciar los orinales del amo, con lo cual, supongo, no tuvo nada que ver su cariño por la mecánica de fluidos, que ocupa el segundo libro de los Principia

§. El Trinity College
Platón es mi amigo, Aristóteles es mi amigo, pero mi mejor amigo es la verdad.
NEWTON
La enseñanza en Cambridge era por entonces obsoleta, o más bien apolillada; Newton, como seguramente cualquier otro estudiante interesado e informado, decidió ignorar en gran medida los programas de estudios formales y se dedicó a leer lo que le interesaba, como, por ejemplo, las obras de Galileo y de Descartes, Gassendi, Hobbes, Boyle y la geometría de Euclides. La astronomía copernicana, la mecánica de Galileo y la obra de Kepler parecen haber causado un profundo efecto en él, hasta inducirlo a cambiar el foco de sus estudios.
Sin embargo, aunque en 1660 Cambridge era aún un centro de estudios estancados, en 1663 el político y clérigo Henry Lucas aportó la dotación para que se creara allí una cátedra de matemáticas —la primera cátedra científica de la universidad y la primera cátedra de cualquier tipo que se creaba desde 1540— que fue el primer anuncio de lo que esa universidad llegaría a ser.
El primero que accedió a la cátedra lucasiana de matemáticas fue Isaac Barrow, un antiguo profesor de griego que se había volcado a las matemáticas y cuyo curso, probablemente, fue el que estimuló el interés de Newton por la ciencia. Cinco años duró Barrow en el cargo. Es poco tiempo para una tarea de semejante importancia, y esto despertó las elucubraciones y la imaginación de los hagiógrafos newtonianos. Según ellos, Barrow le dejó la cátedra a Newton porque admiraba tanto a su discípulo que simplemente consideró que merecía el cargo más que él. Lo cierto es que, aunque el propio Barrow argumentó que dimitía para ocuparse de sus asuntos religiosos, no tardó en llegar a ser capellán real y luego director del Trinity College, por lo que nos es dado pensar que su dimisión no se debió precisamente —o solamente— a una casi increíble generosidad.
Newton terminó en Cambridge sus estudios previos a la graduación, llegó a ser primero miembro del Trinity College y, en 1669, catedrático lucasiano de matemáticas, reemplazando a Barrow a los 26 años. Pero antes de llegar a ese cargo pasaron muchas cosas en su vida.
En 1665 había conseguido, sin pena ni gloria, su primer grado académico. Al poco tiempo la plaga que estalló en Inglaterra (y que mató sólo en Londres a treinta mil personas) lo obligó a refugiarse en el campo y volver a su hogar materno. Retirado en su pueblo natal, probablemente sin muchas cosas interesantes para hacer, se concentró en las propias investigaciones y entre 1665 y 1667 (¡a los 23 años!), elaboró el núcleo principal de todos sus más importantes descubrimientos matemáticos y físicos, o por lo menos así lo contó después. Las reconstrucciones de Newton hay que tomarlas con pinzas, ya que, como veremos, muchas veces eran puramente interesadas y dirigidas a disminuir a algún rival, real o fantástico. Pero fue en este lugar donde, según la leyenda, cayó la famosa manzana que disparó en su mente la idea de la gravitación universal.

§. Manzanas
La manzana de Newton juega en la historia de la ciencia un papel parecido al de la manzana de Adán y Eva en la cosmogonía judeocristiana: ambas están al fin relacionadas con el conocimiento, y en cierto sentido se puede decir que el mordisco dado a una (y la consecuente caída del sujeto) permitió la caída de la otra, y el ascenso del sujeto a la construcción de una explicación unificada, global y total, de la mecánica celeste y terrestre.
La historia de la manzana fue contada por Voltaire, a quien se la contó, a su vez, la sobrina de Newton, que la recibió del propio Newton. Pero la versión que se ha popularizado, según la cual lo que descubrió nuestro protagonista en ese momento es que la Tierra atraía a la manzana, alteró por completo el verdadero significado de ese momento clave, si es que alguna vez ocurrió (si no ocurrió, como veremos, Newton tuvo sus buenas razones para inventarlo).
Imaginemos la escena: Newton, forzado a la ociosidad por la epidemia que azota a Cambridge, se ha sentado bajo el manzano a reflexionar sobre los mecanismos del mundo. Ya se sabe —lo explicó Copérnico— que el Sol ocupa el centro del sistema. Ya se sabe —lo explicó Galileo— por qué no salimos disparados de la Tierra al moverse ésta, y también cuál es la ley que rige la caída vertical, por la fuerza que ejerce la Tierra y que ya se denomina gravedad. Los mecanismos del mundo sublunar, los que ocurrían en la Tierra, estaban explicados. Ya se sabe —lo explicó Brahe— que las esferas de cristal son quimeras. Ya se sabe —lo explicó Kepler— que los planetas rodean al Sol describiendo elipses gracias a, según Kepler, una fuerza de tipo magnético que se ejerce a través de tientos magnéticos que salen del Sol.
Es un día cualquiera, en el que a la Luna le toca ser vista de día muy por encima del manzano, de una de cuyas ramas se desprende una manzana fragante que cae a los pies del joven Newton. ¿Por qué ha caído la manzana? Porque la gravedad de la Tierra tiró de ella hasta el suelo, según la ley de Galileo. ¿Pero qué habría ocurrido si la manzana hubiera estado unos metros más arriba? No cabe duda de que la gravedad la alcanzaría igualmente y la haría caer. ¿Y si hubiera estado un poco más arriba aún? Lo mismo, por supuesto. ¿Hasta dónde llega esa fuerza de gravedad entonces? ¿Por qué habría de detenerse en el árbol o en cualquier otro sitio?
Probablemente hasta el límite de la atmósfera… ¿pero esto tiene sentido? Claro que no. Si la manzana ubicada en el límite de la atmósfera cae, ¿por qué no habría de caer si está situada unos centímetros más arriba? ¿Acaso la gravedad se corta de repente?
Es decir, piensa Newton, la gravedad llega hasta muy arriba, por ejemplo hasta la Luna. Pero si la atracción terrestre alcanza a la Luna y tira de ella hacia sí, eso significa que la Luna también está cayendo, sólo que lo hace de tal manera que esa caída permanente se convierte en un permanente girar. Entonces llega a una conclusión asombrosa: la misma fuerza que tira de la manzana es la que mantiene a la Luna en su órbita y la hace girar alrededor de la Tierra, tirando de ella.
No hay una fuerza especial para los astros. La fuerza que mueve a la Luna alrededor de la Tierra es exactamente la misma que hace caer la piedra al suelo: la gravitación. De un solo golpe, Newton unifica la física del mundo, al establecer que dos fenómenos que en principio no parecen tener nada que ver responden a una sola e idéntica causa.
Es un día cualquiera, un día en el que a la Luna le toca ser vista de día muy por encima del manzano, de una de cuyas ramas se desprende una manzana fragante que cae a los pies del joven Newton y le permite unificar el insoportable universo.
Faltaba saber cómo funcionaba esa fuerza.

§. Óptica
Tras el fin de la plaga, Newton regresó a Cambridge. En esta época, y probablemente tras haber leído la Micrographia de Hooke, donde éste daba cuenta de sus descubrimientos microscópicos, se puso a estudiar la naturaleza de la luz, utilizando prismas y lentes.
En el trabajo más importante que hizo sobre óptica, descompuso la luz blanca (en realidad luz solar) en los colores del espectro del arco iris utilizando un prisma, para luego recombinarlos y conseguir de nuevo luz blanca, demostrando así que la luz blanca era precisamente una mezcla de todos los colores del arco iris.
A partir de este trabajo, su interés por los colores lo llevó a plantearse el problema de las franjas coloreadas que se producían en los bordes de las imágenes vistas mediante los telescopios construidos con lentes, y que se llamaba aberración cromática, llegando a diseñar y construir un telescopio de reflexión en el que no se presentaba este problema.
Cuando Newton explicó parte del trabajo realizado sobre la luz en las clases magistrales que dio como catedrático lucasiano, y a través de personas que habían visitado Cambridge y vieron el telescopio u oyeron hablar de él, empezaron a difundirse noticias relativas a todo esto. La Royal Society solicitó ver el instrumento y, a finales de 1671, Isaac Barrow llevó uno a Londres e hizo una demostración con él en el Gresham College. Inmediatamente, Newton fue elegido miembro de la Royal Society y se le preguntó si tenía algo más en reserva. Su respuesta consistió en presentar ante la Royal Society una extensa ponencia sobre la luz y los colores.
Newton estaba a favor de la teoría corpuscular de la luz, ya que la concebía como una corriente de partículas, pero los descubrimientos que presentó en aquel momento eran válidos tanto si se utilizaba este modelo como si se utilizaba el modelo ondulatorio (a favor del cual estaban, por ejemplo, el gran físico danés Christiaan Huygens y el también gran físico inglés Robert Hooke), lo cual desató una polémica con Hooke que provocó un intercambio de cartas de tono más que agresivo, hasta que la intervención de otros miembros de la Royal Society permitió un nuevo intercambio de cartas y, finalmente, una forzada reconciliación.
Hooke a Newton:
Considero que en este asunto [el estudio de la luz] ha llegado usted más lejos que yo… Creo que el tema no podría ser investigado por una persona más adecuada y capaz que usted, que está capacitado en todos los sentidos para completar, rectificar y reformar lo que fueron las ideas derivadas de mis primeros estudios, que yo me proponía haber realizado por mí mismo, si lo hubieran permitido los otros cometidos agobiantes que me fueron asignados, aunque soy bastante consciente de que lo hubiera hecho con unas capacidades muy inferiores a las de usted.
Newton a Hooke:
Es usted demasiado generoso al valorar mis capacidades. Lo que Descartes hizo fue un paso importante. Usted ha añadido mucho de distintas maneras, especialmente al tomar en consideración filosófica los colores de unas láminas muy finas. Si yo he sido capaz de ver más allá, es [y aquí viene la famosa frase] porque me encontraba sentado sobre los hombros de Gigantes.
Fue un frágil tratado de paz, que olía a hipocresía por las dos partes (aunque Hooke estaba lejos de poner en juego un carácter tan desagradable como el de Newton). En ese mismo año, Newton publicó su primer trabajo científico acerca de la luz y el color. En 1678 sufrió un ataque nervioso que lo llevó a aislarse por casi seis años y, superada su crisis, volvió a gatear lentamente hacia la teoría de la gravitación universal.

§. El embrollo de la fuerza centrífuga
No era el único que gateaba, por cierto. Todos lo hacían, o lo habían hecho. William Gilbert (1544-1603), que había estudiado a fondo el magnetismo, se imaginaba que la Tierra, los planetas, y el Sol eran grandes imanes que actuaban entre ellos mediante fuerzas magnéticas (recordemos que la Tierra es, en realidad, un enorme imán, aunque no hay que confundir su fuerza magnética con la gravitatoria; no tienen nada que ver); Kepler, influido por Gilbert, pensó que del Sol emanaban tientos o cadenas que arrastraban a los planetas lateralmente, con una fuerza que disminuía proporcionalmente a la distancia y evitaba que se detuvieran. Para Kepler, la tendencia natural todavía era al reposo, y las fuerzas magnéticas de Gilbert actuaban deformando las órbitas y transformando los círculos en elipses.
También en la Royal Society se discutía sobre esa fuerza, y se sospechaba que disminuía proporcionalmente al cuadrado de la distancia (es decir, seguía la ley del cuadrado inverso).
Había una razón para esta ley del cuadrado inverso, que no era algo nuevo ni siquiera entonces. Se remontaba al menos a 1673, cuando Huygens (1629-1695) había calculado la fuerza centrífuga de un objeto que se desplazaba recorriendo una órbita circular y había determinado que disminuía con el cuadrado de la distancia al sol. Hooke había comenzado a especular siguiendo la misma línea de razonamiento; como veremos, en la correspondencia que sostuvo con Newton a partir de 1674 estaban de acuerdo en que las leyes del movimiento de Kepler implicaban que la fuerza centrífuga que empujaba a los planetas tendiendo a alejarlos del Sol debía ser inversamente proporcional a los cuadrados de sus distancias a este astro y que, por consiguiente, con el fin de que los planetas permanecieran en sus órbitas tenían que ser atraídos por el Sol con una fuerza equivalente que contrarrestara totalmente la fuerza centrífuga. Ésta era, también, la forma de razonar de Newton en la época del manzano: la permanencia en las órbitas era producto del equilibrio entre ambas fuerzas.
En 1674, Hooke ya había dado con el núcleo del problema del movimiento orbital. En un tratado que se publicó aquel mismo año, descartó la idea de un equilibrio entre las fuerzas que empujaban hacia dentro y las que empujaban hacia afuera para mantener a un objeto como la Luna en su órbita. Constató que el movimiento orbital resultaba de sumar, por una parte, la tendencia de la Luna a moverse en línea recta y, por otra, una fuerza «única» que la atraía hacia la Tierra. Mientras tanto, el propio Newton, Huygens y todos los demás seguían hablando de «una tendencia a alejarse del centro», y Newton había llegado al extremo de aceptar vórtices cartesianos como responsables de empujar a los objetos para que volvieran a situarse en sus órbitas, a pesar de su tendencia a desplazarse hacia el exterior.
Es decir, Hooke ya había llegado a la conclusión de que había una sola fuerza, que tiraba hacia el centro y apartaba permanentemente al planeta de su trayectoria rectilínea y uniforme.
No eran dos fuerzas que se equilibraban, sino una única fuerza que tiraba hacia el centro.
¿Y la fuerza centrífuga? Hooke se dio cuenta de que era una fuerza ficticia, que dependía del sistema de coordenadas y que sólo expresaba la tendencia del cuerpo a seguir moviéndose en una trayectoria rectilínea, como lo ordenaba el principio de inercia.

036.jpg
El embrollo de la fuerza centrífuga

Hooke también prescindió de los vórtices, y tuvo la audacia de introducir la idea de una «acción a distancia», ni más ni menos que la gravedad, que se transmitiría a través del espacio «vacío» para ejercer una tracción sobre la Luna o los planetas. Hooke estaba por ese entonces más adelantado que el propio Newton, enredado todavía en el rollo de la fuerza centrífuga.
En 1679, cuando ya había desaparecido la polvareda levantada por su confrontación inicial sobre la luz, Hooke escribió a Newton para pedirle su opinión sobre estas teorías (que ya se habían publicado). Le habló de la ley del cuadrado inverso, que Newton ya tenía, de la acción a distancia, y de la idea a la que había llegado: no había fuerza centrífuga ninguna, sino solamente una fuerza centrípeta que apartaba a los planetas de una trayectoria rectilínea y la curvaba mediante la gravedad.
Probablemente fue esta carta la que liberó a Newton del asunto de la fuerza centrífuga (que es una fuerza artificial, simplemente la reacción a la fuerza centrípeta —esta última sí real—) y lo estimuló para demostrar, en 1680, que una ley de la gravedad con cuadrados inversos a las distancias exige que los planetas se muevan recorriendo órbitas elípticas, e implica que los cometas deben seguir trayectorias elípticas o parabólicas alrededor del Sol. Ésta es la razón por la que ya tenía la respuesta preparada cuando, en 1684, Halley se apareció en la puerta de su casa.
Porque fue así: aprovechando un viaje, Halley, en agosto de 1684, visitó a Newton en Cambridge, donde debatieron sobre las órbitas de los planetas y la ley del cuadrado inverso. Según contó Newton después, cuando llevaban cierto tiempo reunidos, Halley le preguntó qué tipo de curva creía él que describirían los planetas, suponiendo que la fuerza de atracción hacia el Sol fuera inversa al cuadrado de las distancias respectivas de los planetas a dicho astro. Newton dijo inmediatamente «una elipse», ante lo cual Halley le preguntó cómo lo sabía. «Porque lo he calculado», respondió Newton de inmediato. Tras esto, Halley le pidió que le dejara ver los cálculos, pero Newton buscó entre sus papeles y no pudo encontrarlos. Se comprometió entonces a volver a hacerlos y a enviárselos apenas los tuviera listos. Ese encuentro entre Halley y Newton y los cálculos que nunca encontró se convertirían en el puntapié inicial para que nuestro protagonista se pusiera a escribir los Principia.

§. Los Principia
Ya en 1684 Newton publicó un trabajo en el que explicaba la ley del cuadrado inverso, pero recién en 1687 vio la luz su gran obra épica, Philosophia Naturalis Principia Mathematica (Principios matemáticos de la filosofía natural).
En los trescientos y pico de años que nos separan de aquella publicación, los homenajes y las expresiones de asombro ante Newton y su obra principal se han ido acumulando desde el jocoso comentario de Hume, quien señaló que «no había cuerpos celestes cuyo movimiento Newton no hubiera explicado, con excepción del de las mujeres», el más solemne de Laplace, que calificó los Principia como «obra cumbre del pensamiento humano», hasta la encendida admiración de Einstein en el artículo conmemorativo del bicentenario de la muerte del gran físico. Prodigioso, monumental, grandioso… no hay aumentativo que se haya dejado de aplicar, y la verdad es que en ningún caso puede considerarse una exageración.
Y es que al leer los Principia uno se queda pasmado, completamente pasmado. Todos los fenómenos mecánicos del mundo quedan explicados con el más exquisito rigor: los móviles, el movimiento, las mareas, los planetas, los satélites, las estrellas, las elipses de Kepler, los cometas… Todo. Realmente es el libro de la Naturaleza reclamado por Galileo, escrito en caracteres matemáticos (básicamente geométricos), en el que todo está comprendido y explicado. Resulta increíble que semejante obra haya sido el producto de una sola persona, y no extraña que Newton haya tenido después una crisis nerviosa que lo puso al borde de la demencia.
La verdad es que uno se queda sin palabras para describirlo.
Los Principia de Newton inauguran de manera formal y orgánica la física moderna, resumen un siglo y medio de búsqueda y tanteo —en el que hay que incluir figuras del calibre de Copérnico, Galileo, Giordano Bruno, Tycho Brahe, Kepler, Descartes, Hooke—, unifican de golpe toda la mecánica del mundo, establecen leyes que describen el movimiento de todos los cuerpos, fundan una metodología, derrumban para siempre la concepción aristotélica y fabrican un nuevo universo, limpio y vacío, donde las leyes de la física se cumplen con geométrica pulcritud.
Cualquiera de sus otros descubrimientos, sea en el terreno de la óptica, sea, especialmente, la creación —en forma independiente y contemporánea con Leibniz— del cálculo infinitesimal, le hubiera valido un lugar de honor en la historia de la ciencia, pero los Principia lo situaron en la cúspide. Su larga vida, en la que alcanzó la cima del prestigio científico y la presidencia de la Royal Society, ofrece facetas múltiples, algunas bastante extravagantes, como la dedicación y el tiempo que empleó en especulaciones alquímicas y teológicas tratando de fijar la fecha exacta del Diluvio Universal o del Segundo Advenimiento.
Pero es a través de un libro, de un único libro, que lleva a cabo una hazaña muy poco usual: fabricar un mundo completo.
Los Principia exponen la física como un conjunto de proposiciones, axiomas y definiciones, con riguroso estilo matemático. Ya en el primer libro enuncian la ley de inercia, la de proporcionalidad entre la fuerza y la aceleración, y el principio de acción y reacción.
LEY I
Todo cuerpo persevera en su estado de reposo o de movimiento uniforme o rectilíneo en tanto que no sea obligado por fuerzas impresas a cambiar su estado. (Principio de inercia)
LEY II
El cambio de movimiento es proporcional a la fuerza motriz impresa y ocurre según la línea recta a lo largo de la cual aquella fuerza se imprime.(F = m × a: la fuerza no produce movimiento sino cambio del estado de movimiento)
LEY III
Con toda acción ocurre siempre una reacción igual y contraria, o sea las acciones mutuas de dos cuerpos siempre son iguales y dirigidas en direcciones opuestas. (Principio de acción y reacción)
Si bien es cierto que la primera había sido utilizada por Galileo (aproximadamente, ya que como vimos el principio de inercia galileano era circular) y enunciada por Descartes, y la segunda había sido empleada con éxito por Huygens, es en los Principia donde se elevan a la categoría de cimientos, de leyes fundadoras de toda la mecánica y válidas para toda la materia. Con estas tres herramientas, Newton desarrolla la dinámica de la masa puntual demostrando, entre otras cosas, la ley kepleriana de las áreas como un teorema y demostrando también que un cuerpo que cumpla las leyes de Kepler se mueve según una fuerza central inversamente proporcional al cuadrado de la distancia. En este primer libro, y en el segundo, establece sobre bases firmes la cinemática y la dinámica, como preludio al tercero, con el promisorio título de «Sistema del mundo matemáticamente tratado». Título tentador, por cierto, que no defraudaría a nadie.

§. La ley de gravitación universal
Es allí donde aparece la ley de gravitación universal:
Siendo universalmente evidente, mediante los experimentos y las observaciones astronómicas, que de todos los cuerpos que giran alrededor de la Tierra gravitan hacia ella, que nuestro mar gravita hacia la Luna y que todos los planetas gravitan unos hacia otros y que los cometas gravitan hacia el Sol, de igual manera, entonces, debemos admitir que todos los cuerpos están dotados de gravitación recíproca.
O sea:
Dos cuerpos cualesquiera, en lugares cualesquiera, se atraen con una fuerza que es directamente proporcional al producto de sus masas e inversamente proporcional al cuadrado de la distancia que los separa.
(F = G × M × m/d2, donde G es una constante universal).
Dos cuerpos cualesquiera, en dos lugares cualesquiera…, es muy difícil transmitir la fuerza prodigiosa de esta síntesis. Dos cuerpos cualesquiera… La manzana que cae del árbol y la Luna que no cae, la gota de lluvia que se abre paso en la atmósfera y los satélites de Júpiter descubiertos por Galileo responden a la misma ley. La fuerza que nos mantiene a nosotros, los hombres, sujetos a la Tierra, mantiene los planetas en sus órbitas, es causa de las mareas y actúa, entre el Sol y las estrellas más lejanas, con matemático rigor.
Las esferas celestes tolemaicas —y aun las copernicanas—, la separación entre cielos y Tierra, entre mundo sub y supralunar, se esfuman para siempre. Después de ciento cincuenta años de especulación, de avances y retrocesos, el mundo estaba explicado.
Los Principia dieron lugar para el conventillo al que Newton era tan afecto (lo cual, como ven, caracterizaba y sigue caracterizando al mundo científico). Hooke, con quien Newton ya se había amigado «voluntariamente», se quejó porque el manuscrito, al que tuvo acceso en calidad de miembro de la Royal Society, no le daba suficiente crédito, una queja perfectamente justificada, ya que él había descubierto y comunicado ideas importantes y había sido su carta de 1679 la que había puesto a Newton en la senda correcta. La reacción de nuestro protagonista, exagerada por cierto, fue amenazar con retirar la publicación del tercer volumen y luego revisar el texto antes de enviarlo a la imprenta, suprimiendo radicalmente cualquier referencia a Hooke.
También este odio desenfrenado puede explicar la leyenda de la manzana: Newton quería aclarar que estaba en posesión de la ley mucho antes de que Hooke le enviara su famosa carta. En fin: nadie está a salvo de la banalidad.

§. Después de los Principia
No pasó nada nuevo, la verdad. El libro logró materializar lo que los científicos habían estado buscando a tientas, a veces sin ser conscientes de ello, desde los tiempos de Copérnico: la constatación de que el universo funciona según principios esencialmente mecánicos susceptibles de ser comprendidos por los seres humanos. Como resultado de la publicación de su libro, Newton llegó a ser un científico famoso, extendiéndose su renombre mucho más allá del círculo de la Royal Society. John Locke, amigo de Newton y el filósofo más prestigioso de la época, escribió sobre este libro lo siguiente:
El incomparable señor Newton ha demostrado lo lejos que nos pueden llevar las matemáticas en el conocimiento de algunas provincias especiales, si podemos llamarlas así, del incomprensible universo, si aplicamos esta ciencia a ciertas partes de la naturaleza, a través de principios que se justifican como una cuestión de hecho.
Sin embargo, en 1687, Newton abandonó la investigación (cumpliría 45 años al final de ese año) y no hubo nuevas publicaciones ulteriores: su obra Opticks, muy anterior, se publicaría a principios del siglo XVIII, puesto que Newton esperó para darla a la imprenta a la muerte de Hooke.
El resto de su vida tuvo poca relación directa con la ciencia: fue parlamentario, y a pesar de que se sumergió en sus trabajos de alquimia a principios de la década de 1690, parece ser que en 1693 sufrió una importante depresión nerviosa. En 1696 le ofrecieron el cargo de custodio de la Casa de la Moneda, que ejerció actuando según su carácter obsesivo, llevando a cabo una tarea importante, y con una gran efectividad a la hora de ahorcar falsificadores. En 1699, cuando el director de la Casa de la Moneda falleció, Newton ocupó su cargo. Desde 1703 hasta 1727, año en que murió, estuvo al frente de la Royal Society.

§. Sin lugar para los ángeles: espacio y tiempo absolutos
Pero, en realidad, el mundo no estaba solamente explicado. Lo que había sufrido era una verdadera reconstrucción: finalmente se había fabricado un escenario nuevo. Porque no alcanzaba con decir que todas estas fuerzas estaban operando; era necesario decir dónde operaban. ¿Cómo era ese lugar en el que todos los cuerpos se atraían entre sí de acuerdo con las leyes explicitadas por Sir Isaac Newton? (Habrán notado que puse Sir, porque en 1705 fue nombrado caballero.) ¿Y cómo era el tiempo en el que tales leyes cumplían su función con rigor adamantino?
El cosmos tradicional, heredado de la Antigüedad y la Edad Media, era un lugar cerrado por la esfera exterior de las estrellas fijas, que Copérnico, como vimos, no había tocado, fuera de la cual no había nada, y dentro de la cual el espacio estaba rigurosamente jerarquizado: espacio perfecto y supralunar, espacio imperfecto y mudable sublunar, donde cada cuerpo se movía según un sistema de lugares previamente asignados, o mejor, signados, y donde no existía el vacío. Cuando Copérnico alteró la visión geocéntrica, mantuvo las esferas y la finitud del universo, o por lo menos no se metió mucho con ellas. Kepler argumentó en favor de la finitud del cosmos y la existencia de la esfera de las estrellas fijas. Galileo no incursionó demasiado profundamente en el problema de la unicidad del mundo, aunque la supuso (o la sobrentendió). En el año 1600, Giordano Bruno había sido quemado —entre otras cosas— por postular un espacio infinito, con infinidad de sistemas solares, y en el que todos los lugares eran equivalentes, uniformemente llenos de materia sutil. El sistema de Descartes, que rechaza el vacío por constituir (para él) una imposibilidad lógica, es, probablemente, el primero que presupone un espacio indeterminado, aunque lleno de materia sutil, cuyos torbellinos aportaban la cantidad de movimiento constante para el funcionamiento del mundo. Indeterminado, no infinito, palabra que reserva sólo para Dios.
Pero… ¿dónde y cuándo ocurre el sistema de Newton? El marco es un espacio absoluto y vacío, sobre el que fluye el tiempo, uniforme y matemático: hay un reloj teórico que da la hora para todo el universo. Es el espacio y tiempo de Euclides, el mundo de la geometría, un receptáculo donde los cuerpos interactúan según leyes deducidas matemáticamente de algunos principios generalizados por inducción. No hay lugares ni momentos privilegiados: el espacio se extiende infinitamente hacia todos los lados, y en el tiempo, hacia atrás y hacia el futuro. El propio Newton sintetizaba así sus concepciones del espacio y del tiempo:
Nos ha parecido oportuno explicar hasta aquí los términos menos conocidos y el sentido en que se han de tomar en el futuro. En cuanto al tiempo, espacio, lugar y movimiento, son de sobra conocidos para todos. Hay que señalar, sin embargo, que el vulgo no concibe estas magnitudes si no es con respecto a lo sensible. De ello se originan prejuicios para cuya destrucción conviene que las distingamos en absolutas y relativas, verdaderas y aparentes, matemáticas y vulgares.
I. El tiempo absoluto, verdadero y matemático en sí y por su naturaleza y sin relación con algo externo, fluye uniformemente, y por otro nombre se llama duración; el relativo, aparente y vulgar, es una medida sensible y externa de cualquier duración, movimiento (sea la medida exacta o desigual) y de la que el vulgo usa en lugar del verdadero tiempo; así, la hora, el día, el mes, el año.
II. El espacio absoluto, por su naturaleza y sin relación con cualquier cosa externa, siempre permanece igual e inmóvil; el relativo es cualquier cantidad o dimensión variable de este espacio, que se define por nuestros sentidos según su situación respecto de los cuerpos, espacio que el vulgo toma por el espacio inmóvil: así, una extensión espacial subterránea, aérea o celeste definida por su situación relativa a la Tierra.
Es decir, aunque los movimientos entre los cuerpos puedan ser relativos, el espacio en sí mismo, como un todo, está inmóvil.
Esta geometrización no es una simple especulación, sino que es necesaria para que las leyes que enuncian los Principia puedan funcionar, está implícita en ellas. Si un móvil sobre el que no actúa ninguna fuerza se mueve siempre sobre una línea recta, debe encontrar siempre regiones donde moverse. Si el sistema estelar no colapsa sobre sí mismo por acción de la gravedad, siempre, y a toda distancia, se deberán encontrar estrellas, en número infinito, entre las que la fuerza de gravitación actúa en forma instantánea y a distancia, a través del espacio vacío. Y si se quiere encontrar que los fenómenos cumplan las leyes y propiedades deducidas geométricamente, el espacio-tiempo debe también ser geométrico, euclidiano, plano, infinito y único. El espacio de Newton es un espacio profano, sin lugares distintos o especiales y sin jerarquías sacralizadoras: es un espacio laico, sin lugar para los ángeles. Es el escenario ideal para que actúen los científicos del Iluminismo, es el mejor sitio imaginable para creer en la razón.
Notablemente, Newton no compartía para nada esta postura más bien volteriana (y hasta cartesiana, se podría decir, con muchos recaudos). Muy por el contrario, tanto él como los teólogos ingleses Bentley, Harris, Clarke y Derharn creyeron ver en los Principia una base perfecta para la fundación de una teología natural de cuño newtoniano y una imagen del mundo donde la Providencia estaba presente, según las exigencias del anglicanismo latitudinario, la religión que profesaba Newton. Incluso pensaban que el sistema newtoniano evitaba el mecanicismo y el ateísmo supuestamente implícito en el sistema cartesiano (del cual ya tendremos ocasión de hablar), defectos que se agregaban al no despreciable de ser falso, como el mismo Newton había demostrado. Newton mismo contribuyó activamente a sustentar esta postura y en sus últimos años llegó casi a identificar a Dios con el espacio absoluto, algo así como un éter invisible y omnipresente, cuya divina y continua intervención permitía el funcionamiento de las leyes físicas y la acción a distancia de la gravitación universal.
Buena parte de estas cuestiones ocuparon la polémica siguiente a la aparición de los Principia. La mecánica newtoniana, aunque rápidamente aceptada en Inglaterra, encontró más resistencias en Europa, donde debió luchar con paciencia contra los torbellinos y la física del plenum de Descartes. Voltaire, newtoniano acérrimo, comentaba risueñamente:
Un francés que llega a Londres encuentra las cosas muy cambiadas en filosofía, como en todo lo demás. Ha dejado el mundo lleno: se lo encuentra vacío. En París se ve el mundo compuesto de torbellinos de materia sutil; en Londres no se ve nada de eso.
El problema de la acción a distancia de la gravedad no fue el menor de los escollos: muchos científicos de la época la consideraban imposible, y criticaban la fuerza de gravitación como un elemento místico, espiritual, metafísico, que Newton había introducido de contrabando.
Newton contestó en la segunda edición de los Principia:
No he podido deducir a partir de los fenómenos las razones de estas propiedades de la gravedad y yo no imagino hipótesis. Pues lo que no se deduce de los fenómenos ha de ser llamado hipótesis; y las hipótesis, bien metafísicas, bien físicas o de cualidades ocultas o mecánicas, no tienen lugar dentro de la Filosofía experimental.
Entre otras cosas, la polémica entre Newton y Leibniz sobre la prioridad en el descubrimiento del cálculo infinitesimal erizó y emponzoñó la resistencia a la mecánica newtoniana en el continente europeo. Sin embargo, a mediados del siglo XVIII, el nuevo sistema del mundo estaba firmemente asentado, y aun los cartesianos más recalcitrantes se batían en retirada.

§. El regreso del cometa Halley
La primera persona que aceptó el desafío y la oportunidad que le ofrecía la obra de Newton fue Edmond Halley, que puede considerarse el primer científico pos newtoniano y que, digamos de paso, había pagado de su bolsillo la publicación de los Principia, ya que la Royal Society estaba quebrada a raíz de la publicación de otro libro científico, History of Fishes, de Ray y Willughby. Halley desarrolló su interés por los cometas intercambiando una avalancha de cartas en las que discutía el tema con Newton y demostrando que muchos de ellos recorrían órbitas elípticas alrededor del Sol. En 1682 había pasado un cometa y, estudiando los datos históricos, Halley comenzó a sospechar que ese mismo cuerpo era el que había sido visto y descripto en 1607 por Kepler y 76 años antes por Petrus Apianus. Predijo entonces que el cometa de 1682 regresaría «hacia el año 1757», cumpliendo así las leyes de Newton. No fue exacto, pero efectivamente, el día de Navidad de 1758, 16 años después de la muerte de Halley y 15 después de la de Newton, el astrónomo aficionado Johann Georg Palitzsch vio, cerca de Júpiter, un punto de luz que se agrandaba noche a noche.
¡Era el cometa Halley, que volvía!
Arrastrado por la Gran Ley de Gravitación Universal, acudía a la cita, aunque algo retrasado por culpa de la atracción de Júpiter y Saturno.
La predicción del regreso del cometa Halley aportó una prueba formidable y Newton y la física de Newton se convirtieron en el paradigma de la física y de toda ciencia. No hubo disciplina que no aspirara al rigor newtoniano.
Y, dicho sea de paso, las observaciones del cometa Halley se utilizaron para calcular la distancia de la Tierra al Sol, dando como resultado una cantidad equivalente a 153 millones de kilómetros, que se aproxima asombrosamente al resultado de la mejor medición moderna: 149,6 millones de kilómetros.
Lo interesante es que el sistema de Newton logró un triunfo casi completo y se asentó como un sistema puramente mecánico, libre de las desafortunadas especulaciones de su propio autor sobre la intervención de la Providencia para garantizar a cada instante el cumplimiento de la Ley de Gravitación Universal. El espacio absoluto, infinito, vacío, profano, geométrico y euclideano de Newton, sobre el que fluye el tiempo continuo y matemático y donde la gravedad actúa a distancia, se impuso como visión del cosmos… y así se quedaría durante más de dos siglos, hasta que las poderosas manos de Einstein lo curvaran, sometiéndolo al rigor de nuevas geometrías.
El problema —perturbador, por cierto— de la acción a distancia fue discretamente obviado y la naturaleza de la fuerza de atracción (sobre la que Newton afirmó al principio «que él no forjaba hipótesis» y que la trataba como una fuerza matemática) fue asimilada como una propiedad más en la materia sobre la que, precisamente, no se forjaban hipótesis. El problema quedó pendiente y otra vez hubo que esperar hasta 1915, cuando Einstein, al enunciar su Teoría General de la Relatividad, replanteó el asunto.

Capítulo 18
En busca de la certidumbre: el compromiso de 1758

El nuevo universo no salió límpido y acabado de las cabezas de Galileo o Newton. Durante todo el siglo XVII se habían hecho esfuerzos para ajustar la marcha de una nueva ciencia, ciencia que necesitaba, por supuesto, de la construcción de una nueva filosofía. Los enunciados que surgían a cada rato necesitaban ser sometidos a la constatación: ¿cómo se podía saber que los Principia decían la verdad sobre el mundo? ¿Cómo se podía saber que la ley de caída de los cuerpos de Galileo era correcta? ¿Cómo corroborar la exactitud o inexactitud de su teoría de las mareas (que dicho sea de paso era errónea, como demostró Newton)? ¿Cómo determinar que, mediante todos estos métodos nuevos, se estaba accediendo, por fin, a un conocimiento verdadero?
Y una vez determinado esto: ¿cuáles serían las herramientas que se aplicarían con legitimidad y precisión en este nuevo modo de razonar y experimentar?
Lo que estaba pasando era que todo el saber tradicional se estaba retirando, desde el primer empujón de Copérnico hasta la culminación de Newton, dejando detrás de sí un vacío en que los científicos tenían que ir tanteando, donde todas las certidumbres (reales o supuestas) adquiridas en veinte siglos iban desapareciendo una tras otra. Ante un mundo vacío de certezas, era natural que fuera una preocupación determinar la manera de evitar el error.
Por otra parte, el lugar del hombre había cambiado, o por lo menos estaba cambiando: la Reforma y las guerras de religión produjeron una fractura en la mismísima fe y la teología misma se había dividido haciendo que católicos y reformados se acusaran unos a otros de herejía; la revolución inglesa de 1649 y la ejecución del rey Carlos I, la república puritana de Cromwell, la restauración y la nueva revolución de 1688 —que entronó a María y Guillermo de Orange— destruyeron la teoría del derecho divino e inauguraron lo que sería la monarquía parlamentaria inglesa (el mismo Newton fue parlamentario); el crecimiento del capitalismo mercantil hizo retroceder las fuerzas espirituales del Renacimiento: los nuevos comerciantes de ultramar, los nuevos banqueros, los incipientes industriales construyeron (porque lo querían así) un mundo más contante y sonante y menos mágico, un mundo acorde con sus necesidades prácticas. La ciencia, obviamente, no podía ser ajena a este cambio radical de cosmovisión: se postuló, a veces de manera más tangencial y a veces de manera más directa, que debía ser reconstruida desde el principio (lo cual ya había sido demostrado por Copérnico) y que para reconstruirla había que saber cómo. Si los viejos métodos habían conducido a un sistema que se caía a pedazos, hacían falta nuevos métodos y sistemas que evitaran caer nuevamente en el error.
La consigna, entonces, quedaba flotando en el aire de una modernidad que estaba revisando y demoliendo todos los presupuestos sobre los que se asentaba el conocimiento: ¿Cuál era el método apropiado para descifrar el lenguaje del mundo, el lenguaje de las cosas, que por lo visto hablaban en murmullos que ya no se entendían? En realidad, habían cambiado de idioma, y ese nuevo idioma había que aprenderlo, pero ni siquiera se conocía su gramática. ¿Cuál sería? ¿Las matemáticas y la deducción? ¿O la observación y la inducción? Las dos grandes corrientes, la inductivista-empirista y la deductivista, convivirían celándose, incluso combatiéndose, hasta que se pudo finalmente lograr una síntesis. O, mejor dicho, un compromiso.

§. Francis Bacon y el programa inductivo
La verdad es que la historia de la ciencia (y la historia, en general) no proceden ordenadamente como a uno le gustaría. Y no lo hacen porque la historia «no sabe» que se está construyendo, no es un todo que tiende a un fin determinado y consciente. Un cambio de ideas tan profundo como el que se dio en el siglo XVII es, por lo tanto, confuso: no viene primero una generación de metodólogos, que deja las cosas claras como para que los Galileo y los Newton se pongan a trabajar. Nada de eso: todo funciona con la alegre, y muchas veces trágica, confusión de los asuntos humanos. Si uno se pone a escuchar, oye una confusa algarabía de voces mezcladas; unas se adelantan en el canon, otras van compases y compases atrasadas, otras cantan directamente al revés, y de repente un acorde suena mucho antes de tiempo y se pierde. En síntesis: la filosofía de la Revolución Científica se construyó paralelamente a la nueva ciencia, a veces sincrónicamente y en amigable diálogo, a veces en franca distonía.
Aquí aparece Francis Bacon (1561-1626), a quien no debemos confundir con Roger (que vivió en el siglo XIII, que fantaseó con aviones y submarinos y que puede ser considerado, con bastante justicia, si no el primero, uno de los pioneros en el intento de establecer un nuevo método científico). Francis no fue en realidad un científico, ni realizó grandes avances en ninguna disciplina, ni, en el fondo, resultó realmente revolucionario en metodología. Ni siquiera fue un filósofo propiamente dicho: fue más bien un político apropiadamente oportunista, que ocupó altos cargos —llegó a ser canciller del reino durante el reinado de Jacobo I— y hasta fue a la cárcel por haberse quedado con algunas monedas que no le pertenecían, aunque estuvo preso solamente tres días gracias a la intervención directa y explícita del rey. Pero sí fue un pensador de la nueva ciencia que se estaba desarrollando: no sólo por su utopía La Nueva Atlántida, en la que la sociedad ideal está sustentada y guiada por el avance de las ciencias, en tanto que la religión está completamente separada de ella, sino por sus reflexiones metodológicas. Es en este punto donde abordó uno de los grandes problemas filosóficos de la ciencia, problema que sigue totalmente vigente y que representa un desafío para quienes consideran que la ciencia tiene como objetivo acercarse cada vez más a la verdad del mundo: el de la inducción.

§. El problema de la inducción
Así como la deducción garantiza la verdad de los resultados siempre y cuando las premisas sean verdaderas, la inducción, esto es, la generalización a partir de casos particulares, no asegura nada, y menos que menos la conservación de la verdad. Bertrand Russell lo expresó en su forma más cruda con su metáfora del «pavo inductivista». Un pavo recibe su comida un día a las nueve de la mañana. Al día siguiente ocurre lo mismo. Pasan días de calor, días de frío, días de lluvia y sigue recibiendo su comida puntualmente. Finalmente se anima a saltar a una conclusión: todos los días, a las nueve de la mañana, soy alimentado. Al día siguiente es 24 de diciembre y le cortan el cuello.
La metáfora nos obliga a plantear un interrogante: ¿en qué momento es válido generalizar a partir de los casos particulares que observamos? Esta generalización a partir de casos particulares no sólo es uno de los procedimientos importantes de la metodología que utilizan día a día los científicos, sino que es de lo que nos solemos valer en la vida cotidiana. La mayor parte de nuestros actos se desenvuelve bajo la presunción de que el mundo que nos rodea funciona inductivamente: si durante una semana, o un mes, verifico que el colectivo pasa por la puerta de mi casa entre las ocho y las ocho y cinco, supongo que siempre, salvo que ocurra algo excepcional, va a pasar a esa hora y obro en consecuencia: no salgo a esperarlo a las siete y media porque es en vano.
Para muchos de nuestros actos más cotidianos empleamos la inducción de una manera práctica: si elegimos naranjas de una pila, nos basta probar tres o cuatro y verificar que están maduras para concluir que todas las de la pila están apropiadamente maduras (aunque a esta suposición subyace la idea, de índole más deductiva que inductiva, de que las naranjas de la pila son homogéneas, más o menos todas iguales, o que provienen del mismo lote). Nadie puede sorprenderse, sin embargo, si en el conjunto que ha comprado se topa con una naranja podrida; la única manera cierta de asegurarse de la buena salud de todas las naranjas es, precisamente, examinándolas todas, cosa que si ya es de por sí difícil, es imposible en el caso en que las situaciones a evaluar son infinitas (como los planos inclinados de Galileo o los prismas de Newton).
En estos casos, al generalizar hay un salto a lo desconocido y ese salto constituye una acción no justificada lógicamente y que no da garantía de verdad, como sí la da la deducción: a nadie se le ocurriría extraer el hecho de que la suma de los ángulos internos de un triángulo es igual a dos rectos examinando triángulos particulares y generalizando a partir de allí. Aunque, reconozcámoslo, el uso y la costumbre pueden tener valor heurístico, como lo prueba el teorema de Pitágoras, algunos de cuyos casos eran usados inductivamente por egipcios y babilonios, como vimos en aquellos lejanos capítulos de la Antigüedad. Dicho lisa y llanamente: la inducción no garantiza la verdad, lo que ocurre aquí o allá, o en este momento o en aquél, no garantiza que ocurra también en lugares o momentos distintos.
Pero así y todo, resulta que la nueva ciencia necesitaba desesperadamente de la inducción, tanto como el náufrago casi ahogado que ha logrado arrastrarse hasta la playa necesita una bocanada de aire. Y la necesitaba porque los nuevos principios que empezaban a ver la luz no se intuían a partir de premisas generales, sino que se extraían de los resultados del laboratorio: Galileo haciendo rodar esferas por planos inclinados y midiendo tiempos y recorridos hasta encontrar una relación matemática —la ley de caída de los cuerpos— es un buen ejemplo de un principio extraído por inducción de una serie de experimentos. Galileo no hizo —ni podía hacer, ni era concebible— rodar todas las esferas posibles sobre todos los planos inclinados posibles (lo cual hubiese constituido una tarea infinita), aunque se cuidó de realizar e interpretar sus experimentos en las condiciones más generales imaginables. Y así y todo, el paso de esos casos particulares a la generalización seguía sin estar justificado del todo. ¿Por qué y cuándo y bajo qué condiciones lo que se hace experimentalmente puede ser elevado a la categoría de principio general? ¿Cómo puedo decidir que lo que vale para muchos casos vale para todos los casos?
Bacon, un paso atrás cronológicamente de Galileo, creyó que tenía un método inductivo válido. El objetivo era, como el de casi todos los inductivistas preocupados por garantizar la legitimidad del método, encontrar algún tipo de inducción que superara a la «inducción por simple enumeración» que ya había considerado Aristóteles, esquivando de este modo el escollo del pavo inductivista. Así, Bacon propuso una suerte de «inducción por tablas»: para descubrir la naturaleza del calor, por ejemplo, consideraba que había que hacer tablas de presencia y de ausencia y de grados diferenciales del fenómeno. Está claro que en la luz del Sol hay presencia de calor y que en la luz de la Luna no, con lo cual se demuestra que el calor no es un fenómeno asociado a la luz. Haciendo una lista exhaustiva de fenómenos en los que el calor intervenía de diferentes formas, Bacon confiaba en que se podría manifestar alguna característica presente exclusivamente en los cuerpos calientes y ausente en los fríos y pensaba que así podrían establecerse leyes generales (que él llamaba «formas»). Una regularidad sugerida por este método debía ser comprobada por medio de su aplicación a nuevas circunstancias; si operaba en estas circunstancias, quedaba confirmada.
El problema era la palabra «exhaustiva»: ¿qué significaba exactamente una lista exhaustiva? Significaba muy poco, la verdad, y lo cierto es que el alcance de la inducción baconiana siguió siendo tan provisorio como el de cualquier otra inducción. Es por eso que la filosofía de la ciencia contemporánea, necesariamente, tiende a aceptar la provisoriedad de los resultados científicos. Cosa que el mismo Bacon se ocupó de analizar, digamos de paso: las tablas podían ampliarse y conducir a nuevos resultados.

****

La búsqueda desesperada de un método sobre el que cimentar el conocimiento está imbricada con el contexto cultural de la época. Los hombres de la Revolución Científica —y en ese sentido Bacon lo es— tratan de buscar una salida, o mejor dicho un reemplazo tanto a las creencias venidas de la Antigüedad, como a las mágico-simbólicas del Renacimiento. El mundo ya no es para ellos un todo orgánico regido por fuerzas espirituales, sino un mundo inerte sobre el cual se elaboran tablas (de tal manera que desaparezcan las «virtudes ocultas», como hará Galileo con el impetus), y en el cual hay que tomar recaudos para no caer en el error.
El error es el horror del científico y filósofo natural del siglo XVII. Para construir un sistema sólido que permita aprehender el mundo, es necesario primero deshacerse de una serie de prejuicios que obstruyen el camino del hombre hacia la verdad. Bacon distingue, en este sentido, cuatro tipos de «ídolos» que se resisten a ser derribados y que hacen que el pensamiento yerre confundido, desviándose a cada paso del sendero del conocimiento. Los ídolos de la tribu son aquellos comunes al hombre en tanto especie (por ejemplo, el tender a imaginar cómo estables cosas que en realidad son mudables) y requieren, por lo tanto, una revisión crítica de la naturaleza humana en general; los ídolos de la caverna dependen de las disposiciones de cada individuo (ya sean educativas, culturales o naturales); los ídolos del foro derivan del lenguaje, que crea palabras vacías para cosas inexistentes, o bien palabras confusas para cosas existentes, pervirtiendo así los razonamientos (lo cual da pie a una interesante polémica filosófica acerca de la relación entre lenguaje y pensamiento, que será una constante en la historia de la filosofía occidental); por último, los ídolos del teatro se deben a la (mala) influencia de las teorías tradicionales. La eliminación de todos ellos es la condición necesaria para la elaboración de las tablas.
A su modo, Bacon quería que la ciencia escapara de los «primeros principios» obtenidos de manera puramente racional y pretendía que se accediera a ellos por vía experimental. En realidad —tal vez porque era un poco temprano, aunque fue contemporáneo de Brahe, Kepler y Galileo— se le escapó por completo la importancia que habían de tener en la nueva ciencia las matemáticas, a las que subestimaba por ser poco experimentales y atadas a principios generales. Por las mismas razones, subestimaba la deducción. Acaso por ello su plan de innovación general de una ciencia que estaba incorporando las matemáticas a todo vapor estuvo lejos de alcanzar el impacto que él deseaba.
Así, aunque Bacon no hubiera creado la nueva ciencia que anunciaba y en la que se enfrascaría Galileo, sí reflejó el nuevo espíritu (acorde con las nuevas clases mercantiles en ascenso) que pretendía dar a la humanidad el dominio sobre las fuerzas de la naturaleza por medio de descubrimientos e inventos científicos y que manifestaba la necesidad de que la filosofía se separara de la teología. Fue el primero de una larga serie de filósofos de espíritu científico que subrayó la importancia de la inducción. El programa inductivo iniciado por Bacon fue una de las grandes fuentes del pensamiento científico moderno, fue en gran parte tomado como credo por la Royal Society y el propio Newton lo adoptaría en los Principia.

§. Descartes: el entronamiento de la razón y el universo mecánico
Bacon trató de eludir la filosofía tradicional, pero soslayó el papel que tendrían, por un lado, las matemáticas y, por el otro, el segundo gran método (junto con la inducción) del conocimiento científico: la deducción. Justamente por allí empezó a desarrollar su filosofía René Descartes. Si Bacon quiso edificar una política del conocimiento que permitiera construir una Nueva Atlántida regida por la ciencia (desarrollada inductivamente), Descartes se propuso un objetivo mucho más ambicioso: rehacer toda la filosofía a partir de la deducción.
Descartes nació en 1596 en la Turena francesa y sus primeros estudios le sirvieron para comprender lo poco que sabía del mundo. Pronto comenzó a considerar que el único referente firme y satisfactorio sobre el que se podía construir algo, el único capaz de dar la clave para comprender la naturaleza, era la matemática (una mirada que, como ustedes ya habrán notado, tiñe todo este proceso de la Revolución Científica: baste recordar, aquí, a Kepler o Galileo). A pesar de todo, se recibió en Derecho en la Universidad de Poitiers y luego fue a la escuela militar de Breda. En 1618 comenzó a estudiar matemáticas y mecánica, influido por el inglés Isaac Beeckman (que fue un científico de fuste, uno de los primeros en hablar de la presión atmosférica, y defensor de la existencia del vacío). Pero tuvo que interrumpir cuando se enlistó en el ejército bávaro de Mauricio de Nassau, que luchaba contra España por la liberación de los Países Bajos.
En la noche del 10 de noviembre de 1619 tuvo una revelación acerca de una nueva ciencia «admirable» y se dedicó, desde entonces, a escribir un gran tratado de física, que terminó unos diez años después y que decidió no publicar cuando se enteró de la condena de Galileo y se vio a sí mismo, tan copernicano como el propio Galileo, repitiendo el funesto destino de Giordano Bruno. La época —el horno de la época— no estaba para bollos.
Luego de sus participaciones en enfrentamientos militares en Bohemia y Hungría y un tiempo en Italia, se instaló en París hasta que, en 1628, decidió asentarse en Holanda, famosa por su ambiente liberal, donde vivió durante los siguientes veinte años. En 1649, la reina Cristina de Suecia lo invitó a Estocolmo para que le diera clases y allí fue, huyendo un poco del clima enrarecido que se había producido en Holanda debido en parte a algunas controversias generadas por su obra. Lo que no calculó fue que la reina lo haría ir a las cinco de la mañana todos los días para trabajar en matemáticas, por lo que tuvo que romper con la tradición de levantarse a las once que había mantenido siempre. El frío sueco de las madrugadas terminó con él en unos pocos meses. En 1650 murió de neumonía.

§. Rehacer la filosofía
Los estudios, como les conté, y según él mismo cuenta, le sirvieron en un principio para darse cuenta de lo poco que comprendía del mundo:
Tan pronto como hube terminado el curso de los estudios, cuyo final suele dar ingreso en el mundo de los hombres doctos, me embargaban tantas dudas y errores que me parecía que, procurando instruirme, no había conseguido más provecho que el de descubrir cada vez más mi ignorancia.
Había que desechar todos los presupuestos y edificar ex nihilo —a partir de la nada—, lo cual significaba reconstruir la filosofía desde cero. Menuda tarea, por supuesto, ya que
toda la filosofía es como un árbol cuyas raíces son la metafísica, el tronco es la física y las ramas que proceden del tronco son todas las demás ciencias
O sea que si de lo que se trataba era de reconstruir la filosofía, la metafísica, la física y las ciencias particulares, resultaba que había que reconstruir todo el pensamiento, hurgar hasta sus raíces más profundas y extraerlas para verificar si el árbol podía sostenerse y seguir creciendo o si, en definitiva, esas raíces estaban podridas y había que sembrar una nueva semilla.
Estaba claro que veinte siglos de ciencia habían producido un mundo que se derrumbaba preso de sus propios errores. ¿De dónde habían salido esos errores? No se debían a problemas de observación, o a un mal ajuste entre la observación y la teoría, o entre la teoría y el mundo. Para nada. El error residía en el punto de partida, ya que el mundo, el lenguaje de las cosas, es confuso y no da ninguna seguridad. La pregunta « ¿cómo es la realidad?» había sido contestada dando por sentado el mundo, y los resultados —estaba a la vista— distaban de ser satisfactorios. Había que partir de algún otro lado.
Lo que Descartes intentó hacer fue justificar que se podía alcanzar un conocimiento claro y distinto del mundo, y para ello necesitó poner todo (literalmente todo) en duda y encontrar una certeza tan absolutamente cierta e inconmovible que a partir de ella se pudieran derivar, por deducciones, otras certezas igual de ciertas e inconmovibles. Si los sentidos engañan, si el razonamiento tampoco está libre del error, ¿por dónde se puede empezar a construir conocimiento?
La respuesta cartesiana es tajante: por el yo pensante. Porque yo puedo dudar de los sentidos, que han demostrado que me engañan habitualmente (como cuando veo el sorbete torcido dentro del vaso de agua), puedo dudar de la razón (que comete errores lógicos) y hasta puedo dudar de la matemática, porque puedo suponer que hay un genio maligno que hace que todos mis razonamientos, incluso los matemáticos, fallen. Es decir: cualquier objeto que caiga bajo mi pensamiento (sea empírico, sea matemático) puede ser un engaño. Esto nos llevaría al más profundo escepticismo —una corriente que, dicho sea de paso, venía siendo revitalizada en Francia desde Michel de Montaigne (1533-1592) —. Pero el escepticismo era una postura que ya no podía seducir a un hombre del siglo XVII: no era posible seguir admitiendo la imposibilidad de conocer, seguir admitiendo que el mundo excedía las posibilidades y capacidades humanas y resignarse a vivir en una confortable ignorancia. ¿Y entonces? Entonces había que buscar un nuevo punto de partida.
Mientras yo pienso, dice Descartes, puedo dudar de la empiria, de la razón y de la matemática, puedo pensar que todo lo que pienso es falso. Pero lo que no es falso, y no puedo dudar de ello, es que estoy pensando:
Hube de constatar que, aunque quisiera pensar que todo era falso, era por fuerza necesario que yo, que así pensaba, fuese algo. Y al observar que esta verdad «pienso luego soy » ( cogito ergo sum ) era tan firme y sólida que no eran capaces de conmoverla ni siquiera las más extravagantes hipótesis de los escépticos, juzgué que podía aceptarla sin escrúpulos como el primer principio de la filosofía que yo buscaba.
Así, puedo estar pensando cualquier disparate, pero lo que es indudable es que estoy pensando. Y si pienso, soy, o sea: existo. Descartes ha demostrado (o ha creído demostrar) la existencia de algo absolutamente cierto y autoevidente: yo soy una cosa que piensa. A partir de ese punto de partida edificará toda su filosofía.
Porque esa cosa que piensa, si se queda en eso, termina como Parménides, o como Meliso de Samos, ya no contemplando el Ser sino contemplando el propio pensamiento, lo cual es exactamente lo que se llama solipsismo (sólo existo yo y mis pensamientos y de ahí no se puede pasar). Pero si lo que se quiere es avanzar en el conocimiento del mundo, es necesario que esa cosa que piensa pueda decir algo sobre la verdad o la falsedad de sus pensamientos.
¿Cómo hacerlo? Por empezar, distinguiendo entre los pensamientos: los hay oscuros y confusos, por un lado, y claros y distintos por el otro. La manera de alcanzar los últimos, que son los únicos que valen, es seguir a rajatabla cuatro reglas metódicas. La primera aconseja poner en duda, sistemáticamente, todo saber establecido (resuena, aquí, el eco de los ídolos del teatro de Bacon); la segunda, dividir los problemas en otros menores más manipulables; la tercera indica que una vez que se tienen esas pequeñas partes solucionadas hay que usarlas como peldaños de una escalera que permita ascender hacia la comprensión de lo más complejo, y la cuarta es la de siempre corroborar que, en cada paso de nuestro razonamiento, no se haya pasado nada por alto.
Hay una quinta regla, que Descartes obviamente no explicita como metodológica (y que en realidad no lo es), y que es la de no levantarse nunca antes de las once de la mañana. Pero justamente la violación de esta regla en Estocolmo, como ya les conté, le costó la vida.
Digresiones aparte, gracias a estas reglas —que en el fondo no eran tan originales, ya que muchos filósofos desde la Antigüedad habían hablado del análisis y la síntesis— enunciadas en el famoso Discurso del Método, Descartes llega a la certeza del yo pensante. Pero, como venía diciéndoles, lo que hay que legitimar es el conocimiento que ese yo tiene del mundo. El yo está repleto de ideas, algunas que crea él mismo de manera más o menos arbitraria (ideas artificiales), algunas que le vienen de su confrontación con la empiria (ideas adventicias) y algunas que lo constituyen en tanto que sujeto (ideas innatas). Lo que tiene que hacer Descartes para escapar del solipsismo es mostrar que esas ideas que se generan dentro de nosotros no son meros caprichos sin sentido, sino que tienen alguna razón de ser. ¿Cómo lograrlo? Examinando cuidadosamente las ideas.
Y efectivamente, en su exploración de las ideas que tiene «esa cosa que piensa», se topa con una idea muy especial: la de una sustancia
infinita, eterna, inmutable, independiente, omnisciente y por la cual yo mismo y todas las demás cosas que existen (si es que de verdad existen cosas) hemos sido creados y producidos.
Esa idea no es otra que la idea de Dios. Y la idea de Dios tiene que venir de algún lado… ¿y de dónde podría venir si no es de una sustancia que, efectivamente, posea los rasgos de infinitud, eternidad, independencia, omnisciencia? ¿Cómo podría yo mismo haberme creado la idea de un ser con todos esos rasgos? La existencia de la idea de Dios en mi cabeza (o en la cabeza de Descartes, para ser más precisos) prueba que Dios existe, y esta prueba le permite escapar del laberinto aparentemente sin salida del yo.
Y esto es esencial, porque si ese ser infinitamente bondadoso rige el destino del mundo, es evidente que no puede permitir que el genio maligno me engañe del todo. Me garantiza que en tanto yo opte por las ideas claras y distintas y respete las cuatro reglas del método, no caeré en el error. ¿Y cuáles son las ideas claras y distintas por antonomasia? Las ideas matemáticas, las geométricas. Queda así legitimado el conocimiento matemático. Y, por lo tanto, el mundo que surja de este razonamiento será un mundo basado en la geometría, un mundo de pura extensión, que Descartes identifica con la materia.
La naturaleza de la materia o del cuerpo tomado en general no consiste en ser una cosa dura, pesada, coloreada o que incide en nuestros sentidos de alguna otra forma, sino sólo en que es una sustancia extensa en longitud, anchura y profundidad (…), su naturaleza consiste sólo en esto: es una sustancia que posee extensión.
Y además de la extensión, otros dos atributos geométricos: la figura y el movimiento.
Habrán notado que en toda esta construcción cartesiana no hay ninguna apelación empírica. Él no dice: se observa esto o aquello y entonces… No, él razona como si su metafísica fuera una geometría, y haciéndolo de este modo construye el trípode yo-Dios-mundo por medios puramente mentales, racionales. Esto ya nos da una pista del rumbo que tomará su física. Porque… ¿qué es lo no empírico en la física? Lo que funciona de manera racional, el mecanismo. El mundo cartesiano será, pues, un enorme mecanismo donde las esferas pueden rodar sobre los planos inclinados y se puede despreciar el fenómeno secundario del rozamiento.
Nada más lejos de la inducción baconiana, que trataba de buscar regularidades a partir de la empiria.

§. Física cartesiana
La imaginación y la sensibilidad, siempre y cuando estuvieran bien utilizadas (es decir, siempre y cuando respetaran a pie juntillas las reglas del método) tenían que conducirnos a razonamientos confiables acerca del mundo material. Estos «razonamientos confiables», a decir verdad, no fueron para nada felices, aunque la influencia que tuvo el sistema cartesiano en la cultura francesa fue enorme. Pongamos, por ejemplo, la opinión que emitía tras devorar la obra de Galileo en unas horas:
Todo (lo que éste dice) de la velocidad de los cuerpos que caen en el vacío, etc., está construido sin fundamento, pues antes habría tenido que determinar qué es el peso, y si hubiera sabido la verdad, habría sabido que el peso en el vacío es nulo.
Además de notar que aquí sobrevive un fuerte rescoldo sustancialista (hay que saber qué es el peso, cosa que no preocupaba en absoluto a Galileo), es importante que recordemos que, para Descartes, el vacío, por definición, no podía existir: dado que el espacio mismo era consustancial con la materia, el universo estaba constituido por un plenum, un lleno total de materia sutil, de éter, que, a lo sumo, presentaba diferentes densidades en toda su superficie. Lo cual permitía explicar muchos fenómenos, como por ejemplo el peso: si un cuerpo tenía menos materia que el aire que lo rodeaba, ese exceso de materia que se encontraba en el cielo producía una presión sobre el cuerpo hacia el centro de la tierra, es decir: el peso. Esta teoría del peso, que no se derivaba de ninguna fuente experimental sino del puro intelecto, parece algo débil y efectivamente lo era, lo que no fue obstáculo para que, sobre todo los franceses, la tomaran al pie de la letra.
El movimiento también se explicaba desde su teoría del plenum. Tal como lo había expuesto Galileo, el movimiento cartesiano era relativo: «es» sólo en relación con otro objeto en reposo. Un cuerpo no cambia su estado de movimiento (o de reposo) si no es porque choca con otro cuerpo y estos choques producen movimientos rectilíneos. Es una hipótesis no muy lejana a la de la inercia: los cuerpos siguen en movimiento rectilíneo a menos que algo varíe ese estado. Ahora bien: ¿cuál es el motor que inicia el movimiento?
Por su omnipotencia, Dios ha creado la materia con el movimiento y el reposo, y conservado ahora en el Universo, por su concurso ordinario, tanto movimiento y tanto reposo como puso en él al crearlo.
Así, la inercia cartesiana distingue entre el movimiento y el reposo, más o menos al mismo tiempo que Galileo demostraba que no hay distinción entre el movimiento rectilíneo y uniforme y el reposo. Por otra parte, la cantidad de movimiento total que Dios había impreso al mundo en sus orígenes pasaba de un objeto a otro pero se mantenía constante siempre. Algunos cuerpos se detenían al entrar en contacto con otro, pero su movimiento pasaba a estos últimos que comenzaban así a moverse: aquí muchos leen un antecedente del principio mecánico de conservación de la cantidad de movimiento (la cantidad de movimiento de un móvil es el producto de su masa por su velocidad).
El universo cartesiano, lleno de una materia sutil, estaba regido por el principio de conservación del movimiento y el principio de inercia, con los cuales, con una buena dosis de voluntad, y muchísima pero muchísima imaginación, se «explicaba» todo, incluso los movimientos planetarios. Porque el éter cartesiano no se limitaba a llenar, como una mera presencia ontológica que tranquilizaba conciencias con horror al vacío. Nada de eso: el éter era activo. El postulado del cual partía Descartes, a saber, que la fuerza no puede transmitirse sino por la presión o el impacto (esto es, sólo por contacto y nunca por acción a distancia, piedra del escándalo y núcleo de las críticas racionalistas a la gravitación newtoniana) forzaba al éter cartesiano a la acción, formando torbellinos o vórtices que arrastraban a los cuerpos, generando el movimiento y transportando las acciones a distancia, ya fuera la gravitación, ya fuera la luz, o el magnetismo. Descartes sacó al éter de su pereza ontológica y lo obligó a trabajar: puesto que no había acción a distancia, alguien debía transportar lo transportable, y el éter se encargó de ello, convirtiéndose, en el sistema de Descartes, en la fuerza activa más potente del universo, aunque desde ya era imposible saber de qué estaba hecho o qué clase de cosa era.
Los torbellinos eran, al mismo tiempo, los que mantenían el movimiento de los planetas, aunque su inventor nunca se preocupó de ver si se ajustaban a las leyes de Kepler sobre el movimiento planetario. Lo cual era una clara muestra de que su mundo era una deducción mental, un mundo puramente geométrico, extraído de principios metafísicos, y sin recurrencia al experimento.
El cartesianismo tuvo un impacto muy grande en la ciencia francesa y europea; fue el punto de resistencia a la mecánica newtoniana y bien avanzado el siglo XVII nada menos que Euler y Bernoulli basaron su teoría del magnetismo en los torbellinos cartesianos. Pero era una física más bien cualitativa, que no permitía predecir nada en el alegre caos de torbellinos de éter. En realidad, todo este sistema era un disparate grandioso, un dislate de dimensiones aristotélicas. Pero estaba sostenido por la autoridad de Descartes y su inmenso prestigio.
Obviamente, no todo el mundo estaba conforme con el imperialismo cartesiano. Huygens (1629-1695), de quien ya hemos dicho algo, escribió:
Descartes, que me parece que estaba celoso de la fama de Galileo, tenía la ambición de ser considerado el autor de una nueva filosofía, que se enseñara en las universidades en lugar del aristotelismo.
Pero fue Newton quien, tras estudiar la teoría, la destruyó sin demasiadas complicaciones y matemáticamente, convirtiéndose en aquello que, según Huygens, Descartes estaba buscando. Primero en el segundo libro de los Principia, y luego en el Escolio general.
La hipótesis de los vórtices se ve acosada por muchas dificultades.
Y después, en un párrafo letal, termina:
Las revoluciones del Sol y de los planetas en torno de sus ejes, que deberían concordar con los movimientos de los vórtices, discrepan de todas estas proporciones. Los movimientos de los cometas no pueden explicarse por los vórtices. Los cometas se desplazan con movimientos muy excéntricos, cosa que no podría ocurrir si no se suprimen los vórtices.

§. El hombre máquina
Otro rasgo del mecanismo de Descartes está dado por su concepción de los animales como máquinas, una suma de pequeños relojitos y mecanismos gobernados enteramente por las leyes de la física y exentos de sentido o conciencia (excepto los hombres, claro, que sí la tienen). Según él, estos animales/máquina, que poseían una complejidad mucho mayor que la que jamás podría producir el hombre, no sentían dolor.
Los hombres, a diferencia de los otros animales, poseían un alma, cuyo contacto con el cuerpo se producía en la glándula pineal (una afirmación discutible si las hay). Esta diferencia era esencial y alejaba totalmente la vida animal de la vida humana y creaba una oposición entre las conductas mecánicas y las razonables.
La vida no era más que un fluido, que iba del corazón al cerebro en la sangre y de allí al resto del cuerpo para dirigir las funciones vitales. La biología misma, para Descartes, era una rama de la mecánica: los organismos vivos eran, en última instancia, pequeños fenómenos físicos acumulados.
Es por eso que Descartes acogió con entusiasmo el libro de William Harvey (1578-1657) Movimiento del corazón y la sangre en animales de 1628, en el que se explicaba la circulación de la sangre, y siempre tuvo la esperanza de hacer algún descubrimiento importante en ese campo científico.
Este dualismo cuerpo y alma permitió algunas situaciones algo drásticas, como la que vivió el más famoso seguidor de Descartes, Malebranche, cuando, caminando por la Rue Saint Jacques, pateó a una perra embarazada y, frente a las críticas de sus compañeros, respondió que más valía ocuparse del dolor humano, el verdadero dolor, y no del de una máquina inconsciente que no sabía lo que hacía sino que simplemente respondía a estímulos.
La filosofía de Descartes, muy poco generosa con los animales (más que poco generosa, más bien siniestra) justificaba los experimentos de vivisección, que entonces se practicaban a rolete.

§. La geometría analítica
Si la física de Descartes era insatisfactoria, como vimos que demostró Newton, sus matemáticas fueron, en cambio, espléndidas, geniales. Hay cierta coherencia profunda en este asunto: al fin y al cabo, no es para extrañarse que de una posición tan metafísicamente racional las matemáticas dieran mejores resultados que la física. Las matemáticas eran uno de los pocos saberes antiguos que Descartes respetaba, aunque lo encontraba terriblemente incompleto y caótico por no haber sido nunca enmarcado en una metodología clara, en una justificación teórica válida. Por eso se propuso crear una matemática general más amplia y coherente, y que fuera modelo de todas las otras ciencias.
Su creación, la geometría analítica, cuya invención comparte con el gran matemático francés Pierre Fermat (1601-1665), fue una verdadera revolución: le permitió transformar los problemas geométricos en algebraicos.
Su método, que expuso en el libro Geometría de 1638, se puede resumir brevemente y con notación moderna: mediante dos ejes de coordenadas, asociaba a cada punto geométrico un par de números. Lo cual le permitía encontrar las relaciones algebraicas que cumplen los puntos de una curva, y obtener una ecuación que la representa. Así, por ejemplo, una figura geométrica puede expresarse con la notación y= f(x).
Descartes estaba más que orgulloso de su descubrimiento, que había elaborado prácticamente de cero, y se vanagloriaba públicamente de haberlo hecho. Y lo cierto es que había motivos para envanecerse: la geometría analítica cerraba una brecha que se había abierto en la matemática griega, que deliberadamente había separado los dos campos. El álgebra y las matemáticas se transformaron en brújulas que permitieron guiarse mejor a quienes transitaban por la geometría.
La geometría analítica es una creación realmente impresionante, que marca un antes y un después, que fue mucho más productiva que sus devaneos sobre la materia sutil, y que permitió el surgimiento del cálculo diferencial e integral. Geometría analítica y cálculo infinitesimal serán el lenguaje matemático que hablará la nueva ciencia.

§. Conclusión cartesiana
Los filósofos no necesariamente son buenos científicos y Descartes no lo fue: su contribución consistió, fundamentalmente, en la concepción de un mundo mecánico; el resto de sus aportes a la ciencia (salvando la genialidad de la geometría analítica) fueron mínimos, e incluso reaccionarios, en un momento en que casi todos los científicos (incluyéndolo a él mismo) estaban imbuidos de la idea de progreso.
Tampoco es verdad que Descartes no hiciera experimentos: los hizo en óptica, terreno donde dedujo la ley de la refracción, y también en mecánica, donde experimentó con el choque, deduciendo una serie de leyes, casi exclusivamente falsas. También tuvo intuiciones importantes en relación con el origen de la Tierra (imaginó que era una estrella como el Sol que se había enfriado, o un trozo del Sol que se había desprendido y también enfriado), y sobre la estructura interna de nuestro planeta.
Descartes, salvando las diferencias, recuerda un poco a Aristóteles, que planteaba bien los problemas, pero los resolvía con elementos traídos de los pelos. Por eso lo más valioso de Descartes no era la forma en la que encontraba leyes —generalmente erróneas— sobre el mundo, sino su vocación por sintetizar los problemas en un número reducido de conceptos que se pudieran manejar y su concepción de un mundo mecánico, vacío de fantasmas (aunque no de materia), lo que resultó un estímulo invalorable para la ciencia moderna.

§. Avatares y conflictos
La más importante de las instituciones científicas del siglo XVII, la Royal Society, adoptó explícitamente el programa baconiano; sin embargo, sus miembros más conspicuos, y científicos de primer orden como Boyle o Hooke, si bien no dejaban de ser empiristas, eran plenamente conscientes de que la confección de tablas y la acumulación de datos sin un pensamiento rector y organizador (¿qué datos buscar y considerar?, ¿qué datos excluir?), no llevaba a ninguna parte. Pero una postura como la cartesiana les resultaba imposible, y no sólo por las falacias de su física, por ejemplo respecto del vacío (que Boyle y Hooke producían con sus bombas neumáticas), o la acción a distancia (que producía el sacro horror de los cartesianos) sino porque no podían aceptar que la física, la química, y la ciencia positiva en general, se derivaran de una metafísica, que debía, eso sí, parecerles uno de los temibles «ídolos» de sir Francis que justamente se debían evitar.
De cualquier manera, la mera recolección de datos obviamente no bastaba y era necesario usar las armas de la deducción: ¿pero cómo usarlas sin caer en la idolatría y el error? ¿Cómo solucionar el dilema?
Muy a la inglesa, pragmáticamente y mediante un compromiso.

§. El compromiso de 1687
Tanto el inductivismo baconiano como el racionalismo de Descartes coincidían en proponer el progreso de la ciencia y en aconsejar el manejo de saberes prácticos para el progreso de la humanidad, pero aparentemente había una oposición irreductible en la fundamentación de un método que permitiera dar carta de ciudadanía a la verdad en la nueva ciencia. Bacon quiso construir una nueva sociedad basada en esa nueva ciencia, Descartes pretendió reconstruir el mundo basándose en la razón geométrica, pero ni uno ni otro parecían fundamentar suficientemente la física newtoniana. Aunque Newton, en su primera regla del método, parecía optar muy directamente por la postura baconiana:
Las proposiciones obtenidas por inducción a partir de los fenómenos han de ser tenidas, en filosofía experimental, por verdaderas o exactas o muy aproximadamente, hasta que aparezcan otros fenómenos que las hagan o más exactas, o expuestas a excepciones.
Pero Newton no explicaba qué era lo que lo autorizaba a realizar la inducción. O sea que aparentemente seguíamos estancados en el mismo problema de la generalización injustificada.
Pero hete aquí que no es así. Los Principia, que señalaron el camino en tantos aspectos, también lo señalaron metodológicamente al dar una pauta que justificaba el uso de la inducción. Y esa pauta, aunque no explícitamente, implica un a priori, una petición de principios de tipo cartesiano.
Por empezar, el núcleo de la construcción newtoniana no son los datos, sino que su núcleo son los fenómenos, y de los fenómenos se extraen los datos. Pero para poder generalizar un fenómeno, como la ley de caída de los cuerpos, digamos, que en la naturaleza tal como la vemos es confusa y se produce de maneras completamente distintas, hay que desechar las razones circunstanciales que diferencian una ocurrencia del fenómeno de las otras: hay que destilarlo.
¿Pero cómo hacerlo? Pues creando un lugar especial, donde se pueda percibir el fenómeno con la mayor generalidad posible, y ese lugar es el laboratorio. En el laboratorio no se examina el fenómeno tal como lo vemos en el mundo, sino que se lo produce en condiciones ideales, de tal manera que aparezca como claro y distinto eliminando (mediante una acción racional, o experimento mental) los elementos secundarios como el rozamiento, por ejemplo, o las imperfecciones de los aparatos. El laboratorio, mediante esta operación racional, queda disgregado del espacio empírico engañoso: el laboratorio es un trozo del espacio isotrópico sobre el cual transcurre el tiempo matemático.
Pero como el espacio es isotrópico, es decir, todos los puntos son equivalentes en todas direcciones, así como todos los instantes de tiempo matemático, pasados o futuros, son equivalentes, el fenómeno producido de esta manera es representativo del mismo fenómeno producido en cualquier otro lugar o tiempo (del mismo que una naranja es representativa de todas las naranjas si sabemos a priori que son todas homogéneas, como los puntos geométricos y los instantes de tiempo matemático). El péndulo no oscila geométricamente en ese momento, sino en todos los momentos, y en todos los lugares. ¿Por qué habría de variar?
Ahora bien: la isotropía del espacio y el tiempo no es algo que se deduzca de la empiria, sino que se trata de un a priori metafísico, aunque diferente, muy parecido al a priori geométrico de Descartes. Claro que ahora el espacio no es consustancial con la materia, puede existir por sí mismo, es autónomo y previo, es un receptáculo donde se desarrollan los fenómenos, y claro está, puede estar vacío.
La acción a distancia, el punto más débil de la física newtoniana, que no encajaba para nada con el precepto cartesiano de la acción cuerpo a cuerpo, quedaría pendiente hasta el compromiso de 1758. Es decir, el método que sale de los Principia es inductivo, pero en condiciones especiales que exigen un compromiso racional a priori.

§. El compromiso de 1758
La vuelta del cometa Halley marcó el triunfo en gran escala (¡astronómica!) de la ciencia newtoniana, y una terrible demostración de la fuerza y la potencia pavorosa de la Ley de Gravitación Universal, y aunque los vórtices cartesianos todavía persistirían, un poco por tradición y un poco por nacionalismo —eran vórtices franceses, al fin y al cabo—, paulatinamente, el compromiso inglés de 1687 y los Principia se fueron extendiendo a toda la ciencia europea: la acción a distancia, el vacío, los corpúsculos, los átomos, irrumpieron en el mundo mecánico de Descartes, ahora colonizado por el espacio y tiempo geométricos de Newton y por la acción a distancia de una fuerza, como la gravedad, de cuya naturaleza no se sabe nada, y sobre la cual «no se formulan hipótesis».
Pero además, la ciencia newtoniana representaba todo un «programa», una indicación que mostraba cómo proceder con lo que se sabe y cómo abordar lo que no se sabe. La Revolución Científica culminaba con un método y una forma de hacer ciencia que se extendería a todas las disciplinas, cuya mayor aspiración sería, desde entonces, acceder a un conocimiento tan sólido como el que había conseguido Sir Isaac.

Parte IV
La ciencia ilustrada: el triunfo de las disciplinas particulares

037.jpg

Contenido:
19. Los éxitos de la ciencia experimental
20. La circulación de la sangre y las nuevas polémicas biológicas
21. Todos los fuegos el fuego: la revolución química
22. El tiempo profundo
23. La luz, el calor, la electricidad
24. La forma del cielo y la filosofía natural

Capítulo 19
Los éxitos de la ciencia experimental

Aunque hasta ahora fuimos rastreando los pasos de la Revolución Científica, desde Copérnico a Newton, y la formación del método experimental desde Bacon hasta el compromiso de 1758, siguiendo la paulatina resolución de los problemas del movimiento terrestre y celeste como línea conductora, es obvio que la Revolución Científica no fue la obra de un puñado de grandes figuras, sino el resultado del trabajo de cientos de matemáticos y filósofos naturales que estaban empeñados en construir una nueva imagen del mundo y una nueva ciencia que lo describiera.
Así, esa línea principal que se fue trazando no fue la única en la que brilló la nueva ciencia racionalista y experimental. Si me permiten una metáfora bélica —ya que hablamos de Revolución—, alrededor de la batalla principal —o la que elegí como principal— se producían multitud de escaramuzas, para nada secundarias. La medicina, el magnetismo, el estudio de los gases y el vacío tuvieron sus propias batallas, a veces indecisas durante un tiempo, mientras el nuevo método y la nueva manera de pensar se imponían sobre todas las disciplinas, y muchas de ellas arrancaban en el camino de transformarse en «ciencia newtoniana».
Dicho todo esto, hablemos un poco de los grandes éxitos de la ciencia experimental.

§. William Gilbert y el magnetismo
Es difícil dar cuenta ordenadamente de los adelantos producidos en la ciencia experimental, y eso se debe, en buena medida, a que los científicos de la época todavía no trabajaban de una manera completamente metódica sino que iban probando en diferentes disciplinas y formulando teorías a veces más exitosas, a veces menos. Por eso, en algunos casos (como el que viene a continuación) se corre el riesgo de que el relato de los avances parezca una mera enumeración. Pero tengan paciencia, porque cada ladrillo que se pone es fundamental para el edificio entero.
En el año 1600 se publicó De Magnete Magneticisque Corporibus, et de Magno Magnete Tellure (Sobre el magnetismo, los cuerpos magnéticos y el gran imán que es la Tierra), De Magnete para los amigos y para nosotros, del médico inglés William Gilbert, una obra que estudiaba a fondo el fenómeno del magnetismo y que generó, por su método, el entusiasmo de Galileo y, por sus ideas, ejerció una profunda influencia en Kepler, que, como les conté cuando hablamos de él, imaginó fuerzas magnéticas entre los planetas que transformaban las órbitas circulares en elípticas. Gilbert es considerado por algunos como el primer científico moderno, clasificación un poco apresurada, pero digna de consideración.
Nació el 24 de mayo de 1544 en Colchester, al nordeste de Londres, en el seno de una familia importante de la localidad, tuvo una posición cómoda en la sociedad y no pasó en ningún caso por las difíciles situaciones que tuvieron que atravesar Kepler o Galileo por la angustia de la falta de dinero; en 1558 fue a Cambridge, donde adquirió el grado de doctor en Humanidades y en 1569 el de doctor en Medicina. Después viajó por el continente durante varios años, hasta que se estableció en Londres, donde llegó a ser miembro de la junta de gobierno del Royal College of Physicians en 1573 (que era una de las instituciones prestigiosas de la ciencia inglesa, y más tarde semi rival de la Royal Society). Gilbert fue un médico importante y de mucho éxito, y fue ocupando uno tras otro casi todos los cargos del Royal College. En 1600 se transformó en médico personal de la reina Isabel I, la misma bajo cuyo período floreció el famoso teatro inglés que tuvo como máximo exponente a Shakespeare. Cuando la reina murió, en 1603, fue nombrado médico personal por su sucesor, Jacobo I, pero falleció casi inmediatamente, el 10 de diciembre de ese mismo año.
Y así y todo, no fue en el terreno de la medicina en el que Gilbert llevó a cabo los trabajos que lo hicieron famoso sino en el de la física: durante dieciocho años se dedicó al estudio del magnetismo (y un poco al de la electricidad).
Por supuesto que no era el primero: el análisis de las propiedades magnéticas y, sobre todo, la sorpresa ante las inexplicables virtudes de la «piedra imán», databan de antiguo, lo cual no es para nada extraño: las características de los imanes son o resultan verdaderamente extraordinarias, y ésa es la razón por la cual los chicos suelen (o solían) jugar con ellos. Además, estaban rodeados desde la Antigüedad de leyendas fabulosas, como la de la existencia de una montaña entera formada de piedra imán, que arrancaba los clavos y cuanto objeto de hierro hubiera en los barcos que osaban acercársele.
Lo cierto es que los imanes ya estaban pasablemente descriptos desde la Edad Media. En 1269, por citar sólo un caso, el estudioso Pedro de Mauricourt, el Peregrino (quien, de paso, había sido calificado por Roger Bacon como el más importante científico de su época), escribió una Epistola de magnete, donde examinaba meticulosamente las propiedades de la piedra imán y las enumeraba: dos polos distintos se atraen y dos iguales se rechazan; un imán siempre tiene dos polos, y si se lo parte no se obtienen «polos separados», sino que cada una de las partes recupera la bipolaridad. Además, había llegado a diseñar dos brújulas, una flotante y otra sobre un pivote, y presentó la primera discusión sobre la brújula en Occidente.
Pero no fue éste el libro que condujo a Gilbert a ocuparse del magnetismo sino uno un poco más contemporáneo: Magia Naturalis, de Dalla Porta, un verdadero bestseller de «ciencia» popular que mezclaba algunas pocas intuiciones verdaderamente científicas con la parafernalia inagotable de la magia renacentista. Valga, para demostrarlo, un ejemplo:
Se cree que la piedra imán produce melancolía; se la emplea para preparar brebajes de amor, se afirma que la piedra frotada con ajo pierde su poder de atracción, poder que recobra cuando se la unta con sangre de macho cabrío.
Gilbert, hombre de la Revolución Científica en ciernes, se ocupó de destruir las afirmaciones gratuitas y mágicas de Dalla Porta, usando puntillosamente y de modo sistemático el método experimental y tirando abajo todas las características fantasiosas que se les habían atribuido a los imanes. No era tan difícil, a decir verdad. El autor de Magia Naturalis decía, por ejemplo, que un trozo de hierro frotado con diamante se magnetizaba. Gilbert, por supuesto, repitió el experimento con un resultado devastador (al menos, devastador para la seriedad de Dalla Porta):
He realizado esta experiencia con setenta y cinco diamantes en presencia de varios testigos; he empleado barras de hierro y trozos de alambre, manipulándolos con sumo cuidado mientras frotaba, mediante soportes de corcho sobre agua. No obstante, nunca logré observar el fenómeno indicado por Dalla Porta.
Les cuento que no pude resistir e hice la prueba del ajo, que supuestamente quita las propiedades magnéticas, con un imán de esos que sirven para pegar en la heladera. Obtuve los mismos resultados que Gilbert, y la verdad es que, si no hubiera sido así, me habría muerto del susto. A veces no se entiende cómo creencias completamente absurdas, como la del ajo, de fácil refutación cotidiana, pudieran perdurar tanto tiempo.
Sea como fuere, ése es un resultado que obtuve con un determinado diente de ajo y un determinado imán. ¿Qué me autoriza a generalizar, como lo hizo Gilbert, a todos los stickers pegados en la heladera, y luego a todos los imanes? Aquí vemos el componente fuertemente inductivo, adelantado por Gilbert, de la ciencia moderna.
Sin embargo, con experimentación e inducción no alcanza para entender cómo se va constituyendo esa ciencia moderna. Y efectivamente, Gilbert no se quedaba en los experimentos, sino que teorizaba sobre ellos:
En el descubrimiento de cosas secretas y en la investigación de causas ocultas, se obtienen razones más poderosas mediante experimentos seguros y argumentos demostrados, que a partir de conjeturas probables y de opiniones de especuladores filosóficos. Esta obra nada afirma que no haya sido muchas veces controlado.
Cosa que haría las delicias de Galileo, que empezaba a aplicar el mismo método a la mecánica.
Como buen científico al filo de la Modernidad, Gilbert no podía despreocuparse del método. A «aquellos filósofos que discursean basándose en unos pocos experimentos vagos y no concluyentes», les recomendaba, dado que «es fácil cometer equivocaciones y errores en ausencia de experimentos fiables»
manejar los objetos con cuidado, con destreza y habilidad, no con descuido o con torpeza; cuando un experimento fracasa, no permitamos que en su ignorancia condenen nuestros descubrimientos, porque no hay nada en estos libros que no haya sido investigado, y realizado una y otra vez, y repetido ante nuestros ojos.
Utilizando este método cuidadoso, Gilbert seguía muy de cerca a Petrus Peregrinus y probaba y confirmaba resultados adelantados por él unos siglos antes, como la atracción y la repulsión de los polos magnéticos y la bipolaridad permanente de un imán, independientemente de cuántas veces se lo divida. Comprobó también que la acción magnética atravesaba láminas de madera y metal, mostró que una aguja no aumentaba de peso al ser imantada y concluye que la imantación «es una propiedad imponderable, una virtud» del imán, inscribiéndose en la línea renacentista: recordemos que la misma palabra, «virtud», era utilizada para describir esa cosa imponderable (por inexistente) que era el ímpetus, agente del movimiento. Si hubiese sido plenamente moderno (es decir: newtoniano), Gilbert hubiera dicho que sobre la naturaleza de la fuerza magnética no se formulan hipótesis, pero faltaba mucho para la famosa frase de Don Isaac, que en realidad ni siquiera había nacido. Su demostración de que los imanes calentados a altas temperaturas pierden sus virtudes magnéticas lo llevó a conjeturar algo sobre esa «naturaleza»: supuso que el magnetismo se debe a un ordenamiento (¿de los corpúsculos?) del metal imantado, que es destruido por la temperatura:
Convulsionado por el calor, el hierro toma una forma confusa y perturbada, de manera que no es más atraído por el imán y pierde su fuerza de atracción, cualquiera sea la manera como la adquirió.
Aquí asomaba también la teoría corpuscular de la materia, de la que fue un fuerte defensor, y del calor, que era concebido como una agitación de los átomos. También, en una línea que más tarde se llamará newtoniana, mostró que los imanes no sólo actúan a distancia, sino que son capaces de imantar a distancia, conclusión que sería rechazada por Descartes, quien diría, como pueden sospechar, que la «virtud magnética» era transportada por sus insulsos y arbitrarios torbellinos.
Petrus Peregrinus, después de rechazar la existencia de grandes minas de piedra imán en los polos, atribuía el origen del magnetismo a los cielos, encargados de orientar la brújula; Gilbert se apartó de esta línea de pensamiento y concibió a la Tierra como un gran imán, aunque el hecho de que no pudiera distinguir los polos magnéticos de los geográficos le impidió explicar fenómenos como la declinación de la brújula, y supuso que el magnetismo se confunde con el «alma de la materia». Petrus Peregrinus afirma que la dirección de la aguja está dada por los polos celestes. Cardano opinaba que la estrella en la cola de la Osa Mayor engendraba las oscilaciones de la brújula… Así es la costumbre del ser humano, cosas cercanas le parecen despreciables, las lejanas le parecen caras y son el objeto de su nostalgia.
Y si la Tierra era un gran imán… ¿por qué no habrían de serlo los demás planetas? Esto muestra que sus intereses incluyeron la astronomía, y que era un decidido copernicano que veía a los planetas como similares a la Tierra y sostenía que era el juego de las fuerzas magnéticas el que los mantenía en sus órbitas. Pero, además, mostró lo fácil que es explicar la precesión de los equinoccios desde el sistema copernicano, sugirió que las estrellas están situadas a diferentes distancias de la Tierra y no todas adheridas a una esfera de cristal, como ya lo habían hecho Thomas Digges y Giordano Bruno, y que podrían ser cuerpos celestes similares al Sol rodeados por las órbitas de sus propios planetas habitables.
Su investigación sobre la electricidad producida frotando con seda objetos hechos de sustancias como el ámbar o el cristal fue menos completa que su estudio sobre el magnetismo, pero determinó que la electricidad y el magnetismo eran fenómenos distintos, lo cual no es poca cosa (de hecho, acuñó la palabra «eléctrico» en este contexto), aunque recién más de un siglo después el físico francés Charles Du Fay (1698-1739) descubriría que existen dos clases de carga eléctrica, que se comportan en cierto modo como polos magnéticos, por el hecho de que las cargas del mismo tipo se repelen entre sí, mientras que las cargas opuestas se atraen. En realidad no es así, y no hay «dos electricidades», como veremos cuando suene la «hora eléctrica» y se prendan las luces respectivas.
Sus investigaciones fueron tan minuciosas y precisas que no hubo ninguna novedad importante en el terreno del magnetismo durante dos siglos, hasta los trabajos de Michael Faraday, lo cual lo convierte no sólo en un gran científico sino también en un ineludible precursor.

§. La Royal Society y las primeras academias
Ya dije varias veces que la ciencia es, por definición, pública, y que se forma por el trabajo colectivo de muchas personas interesadas en descifrar el mundo. En estos siglos que estamos revisando, y que constituyen el punto de inicio de la ciencia tal como la conocemos hoy, fue central un nuevo modelo de institución que permitía agrupar personas que tenían mucha curiosidad y el deseo de investigar la naturaleza de las cosas.
La primera fue la Accademia dei Lincei (Academia de los Linces) de Roma, cuyo nombre se inspiró en la aguda mirada de ese felino. Fue fundada en 1603 por cuatro jóvenes. Uno de ellos, Federico Cesi, de 18 años (1585-1630), era el hijo del Duque de Acquasparta. Entre los otros tres, apenas mayores que Cesi, había un médico holandés. Al grupo le gustaba ocultar sus encuentros detrás de un velo de misterio que se les volvió en contra y alimentó las sospechas de familiares y autoridades. En 1604, el miembro holandés fue expulsado de Roma por ocultismo y el grupo se desmembró, aunque la correspondencia continuó y por este medio también siguieron con el programa que se habían propuesto.
Hacia 1610, la academia se había recuperado y estaba en lento crecimiento. En 1611 se sumó Galileo Galilei, lo que estimuló aún más su importancia. En 1625, el número de miembros había llegado a 32. Durante los encuentros se discutían cuestiones científicas, administrativas, y se decidía sobre eventuales publicaciones, entre las que estuvieron las obras galileanas Storia e dimostrazioni intorno alle macchie solari (1613) e Il Saggiatore (1623).
A pesar de estos éxitos, cuando murió Cesi, en 1630, la academia se diluyó una vez más. Su posición se venía debilitando desde 1616, cuando apoyó el copernicanismo de Galileo. A pesar de todo, la tradición sobrevivió por un tiempo en la Accademia del Cimento (del experimento) en Florencia, de inspiración galileana, y que tuvo el patrocinio y sostén de los Medici: su mismo nombre indicaba su orientación: el experimento era la prueba de fuego que debían pasar las teorías científicas, y su lema era «provando e riprovando», esto es, experimentando y rechazando la teoría que no pase la prueba experimental. Los científicos del Cimento se ocuparon de experiencias relacionadas con todos los campos de la física, propiedades de líquidos y sólidos, magnetismo y electricidad; la parte más importante de sus publicaciones se relaciona con la presión atmosférica y mediciones de la temperatura. Fueron ellos los que hicieron los famosos experimentos sobre el vacío, que llevaron, tras muchas idas y vueltas, a la resolución de este viejo problema.
L’Académie des sciences de Francia tiene su origen en un proyecto de Jean Baptiste Colbert (1619-1683), ministro de Finanzas de Luis XIV, de crear una academia general en la que reunir a los científicos de la época. Ya existía la tradición de reuniones de savants —sabios o filósofos—, desde hacía décadas, en torno de un mecenas que los financiara. En 1666, Colbert convocó a un grupo de estos savants en la biblioteca del rey. Durante los primeros treinta años, las actividades fueron relativamente informales. Recién en 1699, Luis XIV les dio su primer reglamento para la ahora llamada Académie royale y mudó a sus setenta miembros al edificio del Louvre. Desde allí contribuyó al movimiento científico del siglo XVIII por medio de publicaciones y del poder que le daban las consultas del rey acerca de temas específicos. Esta institución fue cerrada en 1793, en tiempos de la Revolución Francesa, cuando algunos de sus miembros —como Lavoisier— fueron guillotinados.
Dos años más tarde se formó un Institut national des sciences et des arts , y en 1816 L’Académie des sciences recuperó su autonomía que, con algunas variaciones, éxitos y fracasos se mantiene hasta la actualidad.
Pero sin duda la más importante, por lo menos en lo referente al siglo XVII, es la Royal Society , que empezó a funcionar alrededor de 1645, cuando un grupo de científicos de la época se propuso utilizar e intercambiar experimentos y saberes a fin de aumentar sus conocimientos. Entre sus fundadores se cuentan nombres que harían historia (de la ciencia), como el de Robert Boyle o Robert Hooke. Boyle se refería en sus cartas a ese grupo de científicos como «el colegio invisible».
El grupo se reunió en el Gresham College hasta el año 1658, cuando tuvo que ocultarse de los soldados (del Parlamento). En 1660, cuando se produjo la Restauración y Carlos II Estuardo retornó a Londres, volvieron a hacerse las reuniones, que se hicieron más formales y el rey se involucró más en el funcionamiento de la institución. En 1662, en una ceremonia dirigida por el rey, se la bautizó oficialmente como Royal Society y se le dio un estatuto (aunque no financiación).
El número de miembros escaló rápidamente gracias a grandes nombres como el mismo Isaac Newton, quien se incorporó en 1672. Lo cierto es que pertenecer a la Royal Society se convirtió en una de las modas de la Restauración, hasta el punto de que mucha gente alejada, o con poco interés en la ciencia, pasó a formar parte de ella, basándose en una curiosa cláusula mediante la cual todo miembro de la nobleza con rango superior al de barón era automáticamente admitido.
Cláusula rara pero pragmática: al fin y al cabo, esa nobleza podía aportar financiación, y se parece a lo que hacen algunas sociedades hoy en día, cuando nombran a empresarios o ricos industriales en puestos honoríficos. En 1665 se inició la publicación de las Philosophical transactions , la revista científica más antigua de las que aún permanecen hoy.
La Royal Society adoptó oficialmente el ideario baconiano, tanto en la idea clave de la ciencia como capaz de modificar la naturaleza, como en la base inductivista de la metodología científica (a diferencia de la Académie francesa, que fue obviamente cartesiana) y la práctica del experimento y la experiencia como fundamental criterio de verdad. Incluso muchos creyeron ver en la Royal Society una materialización del ideal baconiano de la Nueva Atlántida, con la academia como la Casa de la Sabiduría: así, incluso, se la describe en la Historia de la Royal Society de Thomas Spratt (1667). Era un disparate, sin duda, pero es posible que este baconianismo exagerado también tuviera sentido político, y que el culto a Bacon, ministro de Carlos I, el ejecutado padre del entonces rey, encubriera espurios intereses monetarios: a diferencia de la Casa de la Sabiduría, la Royal Society era una institución privada, que necesitaba autofinanciarse, y así puede ser que el culto baconiano fuera sólo una fachada; al fin y al cabo, los miembros más conspicuos de la Sociedad, y científicos de primer orden como Boyle o el enorme Robert Hooke, si bien no dejaban de ser empiristas, eran plenamente conscientes de que necesitaban una buena dosis de filosofía mecánica.
Pero una postura como la cartesiana les resultaba imposible, y no sólo por las falacias de la física cartesiana, por ejemplo respecto del vacío (que Boyle y Hooke producían con sus bombas neumáticas), o la acción a distancia, que producía el sacro horror de los cartesianos a ultranza, sino porque no podían aceptar que la física, la química, y la ciencia positiva en general se derivaran de una metafísica, que debía, eso sí, parecerles uno de los temibles «ídolos» de Sir Francis, que justamente se debían evitar.

§. El triunfo del vacío
La existencia o no del vacío, o su mera posibilidad lógica, había atravesado los siglos. Como les conté al principio, el increíble Aristóteles rechazaba el vacío por cuestiones filosóficas y lógicas: puesto que el medio es el encargado de retrasar el movimiento, el vacío permitiría una velocidad infinita, lo cual conduciría a aceptar que un móvil pudiera estar en dos lugares simultáneamente. La escuela atomista, por su parte, había postulado el vacío, donde se movían libremente los átomos, para sacar a la ciencia del callejón sin salida en el que la había metido Parménides, con su Ser inmóvil que lo llenaba todo uniformemente y no permitía pensar en nada que no fuera él. La postulación de la existencia del vacío por parte de los atomistas constituía, para Aristóteles, razón suficiente para rechazar de plano su teoría. Dos mil años después, el asunto no estaba todavía resuelto.
Es interesante seguir el itinerario de esta cuestión, que era una de las tantas grandes dicotomías u oposiciones que arrastraba la ciencia desde la Antigüedad, junto a la de la observación o la teoría, la finitud o infinitud, los átomos o el continuum y tantas otras.
La enorme autoridad de Aristóteles había oscurecido la idea de vacío, aunque muchos medievales pudieron pensar en su posibilidad: al fin y al cabo, si Dios era omnipotente, podía crear un vacío si se le daba la gana; era más poderoso que Aristóteles, al fin de cuentas.
No obstante, predominaba la idea aristotélica de que «la naturaleza odia el vacío»: el horror vacui, nombre que le dieron algunos pensadores medievales escolásticos, que era necesario para explicar un ejemplo cotidiano y obvio como el de la ventosa: una vez apretada contra una superficie no puede volver a su forma original porque esto supondría generar vacío y, como tal cosa es imposible, la ventosa permanece entonces adherida a la superficie sobre la que se apretó. Es lógico; equivocado pero lógico. Lo mismo se puede decir de un fuelle al que se trata de abrir mientras se tapa su boca de entrada. Evidentemente, estas imposibilidades indicaban que la naturaleza odia el vacío como, con otras palabras, sostenía Aristóteles, e incluso Platón. Este tipo de evidencias sirvieron en la Edad Media como argumento definitivo.
Eso, los medievales; pero sin ir muy lejos el propio Descartes, como les conté en el capítulo pasado, negó su posibilidad —sin usar ningún elemento divino— al identificar materia y extensión (un atributo que no podía existir por separado, es decir, espacio puro). La cuestión no era menor, porque lo que se estaba discutiendo en realidad era la estructura del espacio (y de rebote, del tiempo): si podía haber vacío, también podía haber espacio puro, y el espacio puro, anterior a la materia y a los fenómenos que en él acontecieran, era el que ansiosamente necesitaba la nueva ciencia, la que se forjó recién con los Principia de Newton.
El experimento clásico para demostrar el horror al vacío de la naturaleza era el que se observaba con las bombas de succión, tubos en los que se genera el vacío en la parte de arriba y por los cuales el agua sube desde un pozo: al hacerse el vacío en el caño de la bomba, el agua se precipitaba a llenarlo.
El problema era que la naturaleza parecía tenerle horror al vacío pero no tanto: si el caño de succión era suficientemente largo, a los 10 metros, aproximadamente, el agua dejaba de ascender y allí se quedaba, sin precipitarse para nada a llenar la parte superior del caño. Los poceros lo sabían muy bien.
Y fue uno de ellos el que resolvió consultar al propio Galileo, que ensayó una explicación de por qué el agua no se elevaba más allá de esa medida y adoptó una solución intermedia: la ruptura de la barra de agua era comparable con la ruptura de una barra de cualquier material que se estira más allá de sus posibilidades. La columna de agua, en determinado momento, vence su resistencia interna y se queda ahí. La explicación era floja, ya que no resolvía la cuestión de fondo: si el agua dejaba de subir, ¿qué es lo que había entre la columna de agua y la parte superior del caño?
Ya por entonces había quienes aventuraban otra explicación: el elevarse de la columna de agua no se debía al horror al vacío ni a nada de índole metafísica sino, sencillamente, a la presión del aire sobre el agua, que, al no encontrar resistencia dentro del tubo, subía por él, hasta que el peso de la columna dentro del caño equilibraba la presión ejercida por el aire.
Así se lo hizo saber en una carta del 26 de octubre de 1630 un joven filósofo, Baliani, a Galileo (y también Isaac Beeckman, el que fuera maestro de Descartes lo había sostenido), pero Galileo no le hizo caso.
El tema del peso del aire estaba literalmente en el aire.
Pero en Roma, mientras tanto, se discutía y se experimentaba. La Accademia del Cimento montó un tubo de más de diez metros, rematado por una esfera de vidrio, de donde se extrajo el aire y se selló la esfera: el agua, obediente, subió hasta los diez metros y allí se quedó.
Gasparo Berti, admirador y seguidor de Galileo, decidió reproducir el fenómeno en su propia casa, y el resultado fue el que todos esperaban: el agua se elevaba hasta los diez metros y no iba más allá, no llegaba a llenar la esfera de cristal… El misterio seguía en pie: ¿qué quedaba en la esfera, que había sido cerrada herméticamente? Berti sostuvo que se trataba de un espacio vacío, pero el jesuita Atanasius Kircher, fiel a la escolástica, lo negó y sostuvo que había entrado aire. Los cartesianos, por su parte, sostenían que no había vacío sino «materia sutil» que había entrado atravesando el vidrio. Esta historia de la materia sutil era una idea muy confusa, y servía para «explicar», digamos, un montón de fenómenos, pero no tenía el más mínimo contenido experimental.
Kircher, entonces, hizo un experimento ingenioso y, según creía, crucial: logró instalar una campanilla dentro de la esfera de cristal, y la accionó mediante un imán; dado que todos los presentes pudieron escuchar el sonido, no podía ser vacío lo que había en el interior de la esfera, lo cual cerraba el problema para él, aunque no para los partidarios del vacío: al fin y al cabo, la esfera podía no estar tan herméticamente sellada, y el aire podía haberse filtrado, o haber quedado algo de él. O sea que el experimento no era tan crucial, y esto es algo que pasa a menudo con los así llamados «experimentos cruciales»: sólo convencen en principio a los que ya están convencidos.
Magnoti, un amigo de Berti, buscó para repetir el experimento la ayuda de Evangelista Torricelli (1608-1647), un físico y matemático italiano que había sido aceptado como discípulo del mismísimo Galileo, pero sugirió hacerlo con agua de mar, lo que permitía, puesto que el agua de mar es más pesada, usar tubos más cortos y más fáciles de conseguir. Viviani, por su parte, sugirió el mercurio, con lo cual bastaba con un tubo de vidrio de un metro. Acostumbrados a los grandes experimentos de hoy, ya sea el Supercolisionador de hadrones —la «Máquina de Dios»— o las sondas que se envían a Marte, no podemos imaginar adecuadamente las dificultades de esta gente para conseguir aparatos apropiados, aun los más simples, como tubos de vidrio. Aunque, si se lo piensa bien, las dificultades de quienes llevaron adelante el experimento que está en marcha tras el bosón de Higgs para conseguir los abultados presupuestos que necesitaban no fueron precisamente leves. Nada cambia tanto.
Finalmente, el 11 de junio de 1644, dos años después de la muerte de Galileo, Torricelli comunicó que, efectivamente, no sólo había vacío en la parte superior del tubo, sino que, además, éste se debía a la presión del aire exterior.
Torricelli no volvió a referirse al asunto, ya que todavía era peligroso enfrentarse al apolillado escolasticismo de la Iglesia (habían pasado apenas diez años del juicio a Galileo), pero se encargó de que se enterara el padre Mersenne, que era una especie de conmutador central de la chismografía científica de la época. Bastaba que el padre Mersenne se enterara de algo para que se enteraran todos: al fin y al cabo, las reuniones de científicos en su celda fueron el embrión de la Academia Francesa.
Mersenne, como era de esperar, voló (es un decir, fue obviamente por tierra) a Italia, donde presenció una repetición del experimento del mercurio, y al volver a Francia habló del asunto a Pierre Petit Pascal, ingeniero y consejero real, y padre del famoso Blaise, que reprodujo el experimento, obteniendo idénticos resultados. Naturalmente, ni los escolásticos ni los cartesianos se convencieron: para los primeros, el espacio vacío estaba lleno de vapores de mercurio; para los cartesianos, de materia sutil.
Pascal diseñó un experimento vistoso para refutar a los escolásticos: hizo llenar un tubo de agua y otro de vino (tinto), preguntando a los asistentes cuál creían que iba a alcanzar mayor altura. La respuesta general fue que sería el agua, ya que el vino, más volátil, dejaría emanar más vapores. Sucedió lo contrario: el vino se elevó unos cuantos centímetros por encima del agua.
Luego de esto, Pascal realizó los famosos experimentos del monte Puy de Dome para refutar las tesis cartesianas, que él veía como un nuevo aristotelismo (y en cierto modo tenía razón). Midió allí la columna de mercurio a diferentes alturas sobre el nivel del mar, y pudo comprobar que cuanto más se ascendía, más bajaba la columna: la idea de presión atmosférica estaba en marcha (de hecho, Pascal había inventado el barómetro).
El fantasma del vacío recorría Europa: en Magdeburgo, Alemania, Otto von Guericke hizo la famosa experiencia pública de los hemisferios. Juntó dos esferas metálicas huecas de 500 litros de capacidad, hizo el vacío en ellas, y luego probó que no alcanzaba con ocho caballos de cada lado para separarlas. Cuando se dejaba entrar el aire, por el contrario, hacía falta una fuerza mínima.
En tanto, en la Royal Society, Boyle y Hooke diseñaron una bomba neumática que permitía obtener vacíos más fácilmente, y gracias a la cual —cuenta Newton en los Principia— pudo verse a la pluma y la piedra caer simultáneamente, como sostenía la ley de Galileo.
El triunfo del vacío tiene una doble significación: por empezar, mostró cómo un experimento en la línea inductiva podía destronar una teoría derivada de una concepción y sistema metafísico, tanto en el caso de Aristóteles como en el de Descartes, que había durado siglos. Por el otro, fortalecía la teoría del espacio absoluto y previo, y la de los atomistas, que Newton también adoptó y que permitiría el compromiso de 1687.
El vacío había triunfado.
Pero tendría, siglos más tarde, nuevos, divertidos y vistosos avatares.

Capítulo 20
La circulación de la sangre y las nuevas polémicas biológicas

El descubrimiento de la circulación de la sangre fue un hito fantástico en la historia de la medicina y de la fisiología humana, no cabe duda. Pero como ya dijo muchas veces el volátil autor de estas páginas, la medicina verdaderamente científica (se podría decir newtoniana) sólo comenzó en el siglo XIX, cuando más o menos se resolvieron los conflictos teóricos o fueron convergiendo hacia una síntesis, cuando se mejoraron decisivamente los microscopios y cuando la química comenzó a ponerse a tiro de las necesidades médicas: recordemos que hasta el siglo XIX no hubo asepsia, ni vacunas, ni antibióticos, ni anestesia, ni rayos X hasta entrado el siglo XX, ni toda la parafernalia médica del siglo XXI, que muchos critican por ser una «medicina despersonalizada», pero que logra alcance masivo, un control de la enfermedad y una extensión de la vida que los personalizados médicos de estas épocas no lograban.
Por el momento, todo eran aprontes…

§. William Harvey
Había nacido en Folkestone, Kent, un condado inglés al sudeste de Londres, el 1° de abril de 1578. Fue el mayor de los siete hijos de un pequeño terrateniente y granjero. Estudió en la King’s School de Canterbury y en el Caius College de Cambridge, donde obtuvo su licenciatura en Humanidades y comenzó probablemente a estudiar medicina, pero pronto se trasladó a Padua, donde se discutía no sólo sobre el movimiento en general (recuerden que allí Galileo lograba, mediante sus experimentos empíricos y mentales, resolver el problema de la caída libre, entre otros) sino sobre el movimiento de la sangre, y donde fue discípulo de Girolamo Fabricio, que lo orientó hacia los problemas embriológicos y fisiológicos.
Se doctoró en Medicina en 1602 y tras volver a Inglaterra se casó con Elizabeth Browne. Fue un buen casamiento, ya que su esposa era la hija de un famoso médico, Lancelot Browne; el consecuente acceso directo a los círculos más prestigiosos de la profesión, sumado a sus méritos propios, naturalmente, le permitió desarrollar una exitosa carrera: en 1609 fue nombrado médico del hospital de San Bartolomé de Londres, después de haber sido elegido miembro del consejo de gobierno del College of Physicians (Colegio de Médicos) en 1607, y en 1618 llegó a ser, como lo había sido Gilbert (a quien ya mencionamos algunas veces y que será protagonista del próximo capítulo) uno de los médicos de Jacobo I. En 1630, Harvey recibió un nombramiento aún más prestigioso como médico personal del hijo de Jacobo I, Carlos I, que accedió al trono en 1625. Como recompensa por estos servicios, en 1645, a los 67 años de edad, fue nombrado director del Merton College de Oxford. Sin embargo, en 1646, cuando la guerra civil entre el rey y el Parlamento asolaba Inglaterra, Oxford cayó dentro de la esfera de influencia de las fuerzas parlamentarias, por lo que Harvey renunció a su cargo (aunque técnicamente conservó su puesto de médico real hasta que Carlos I fue decapitado en 1649) y llevó una vida tranquila hasta su muerte, el 3 de junio de 1657.

§. La circulación de la sangre
Parece que Harvey ya estaba en posesión de la idea de la circulación en 1616; de hecho, en unas notas manuscritas para las lecciones de anatomía que impartía en el Royal College of Physicians de Londres, decía:
La estructura del corazón demuestra que la sangre es transportada continuamente a la aorta a través de los pulmones, a la manera de una bomba para elevar agua. Mediante ligaduras, se muestra el pasaje de la sangre de las arterias a las venas. Queda por lo tanto probado que el pulso del corazón produce un movimiento circular perpetuo de la sangre.
Sin embargo, recién en 1628 publicó un pequeño libro de 72 páginas De Motu Cordi set Sanguinis in Animalibus (Sobre el movimiento del corazón y de la sangre en los animales) donde anunciaba su fabuloso descubrimiento.
Antes de Harvey, los conocimientos que se habían ido transmitiendo (y que se remontaban hasta Galeno y épocas aún anteriores) coincidían en que la sangre se fabricaba en el hígado y era transportada a través de las venas por todo el cuerpo para llevar alimento a los tejidos y se consumía totalmente en este proceso, de tal forma que se tenía que producir sangre nueva constantemente. Se consideraba que la función del sistema arterial era transportar el «espíritu vital» desde los pulmones y repartirlo por todo el cuerpo.
En 1553, el médico y teólogo español Miguel Servet explicaba en su libro Christianismi Restitutio la circulación «menor» de la sangre, en la que ésta viaja desde el lado derecho del corazón hasta el lado izquierdo del mismo, pasando por los pulmones y no a través de unos diminutos orificios de una pared que dividía el corazón, como había dicho Galeno (la circulación menor había sido sostenida o intuida también por algunos médicos árabes). Servet planteó esa conclusión y la presentó como una digresión dentro de un tratado de teología. Pero sus puntos de vista eran heréticos respecto del calvinismo teocrático que campeaba en Ginebra, donde fue encarcelado y quemado en la hoguera en 1553. También sus libros fueron quemados y sólo se salvaron tres copias de Christianismi Restitutio.
De todos modos, Servet no ejerció ninguna influencia sobre la ciencia de su época y Harvey no llegó a saber nada sobre su obra, aunque con toda seguridad sí conoció la de Realdo Colombo, rival de Vesalio, que había publicado en 1559 un tratado en el que sostenía que la sangre pasaba de la parte derecha del corazón a la izquierda a través de los pulmones. También en Padua, el médico galenista Eustaquio Rudio, en 1600, había reeditado una obra suya de 1587, donde describía la circulación menor, lo cual provocó una polémica de prioridades con Colombo. Como se ve, el tema estaba en el aire —o en la sangre— de la época.
En realidad, desde Galeno en adelante siempre se había pensado que las venas y las arterias transportaban sustancias diferentes, es decir, dos tipos de sangre.
La cosa es complicada, porque uno podría decir que el corazón está formado realmente por dos corazones en uno solo; la mitad de la derecha bombea sangre sin oxígeno hacia los pulmones, donde la sangre toma oxígeno y regresa a la mitad izquierda del corazón, que a su vez bombea la sangre oxigenada a todo el cuerpo. Uno de los puntos clave para Harvey fue la comprensión de la función de las válvulas venosas, que ya se conocían pero que fueron descriptas y estudiadas minuciosamente por su maestro en Padua, Fabricius de Acquapendente (1537-1619), en demostraciones públicas en 1579 y posteriormente en un libro con ilustraciones muy precisas publicado en 1603. Pero Fabricio no acertó a dar con la función de las mismas: pensó que lo único que hacían era frenar el flujo sanguíneo que partía del hígado para que pudiera ser absorbido por los tejidos del cuerpo.
Harvey llegó a una conclusión diferente: las válvulas imponen un flujo de dirección único, que hace que la sangre viaje por las venas únicamente hacia el corazón, de donde tiene que salir como sangre arterial y viajar a través de diminutos capilares que unen los sistemas arterial y venoso, entrando así la sangre de nuevo en las venas. Por otra parte, combatía la creencia (que venía desde Galeno) de la existencia de diminutos poros que separaban los dos ventrículos del corazón:
Aun suponiendo que el tabique tuviera poros, ¿cómo es posible que uno de los ventrículos extraiga algo del otro, dado que se contraen y se expanden simultáneamente?
Harvey fue cauto, y por eso retrasó la publicación. Era muy consciente de la novedad de su postura (y así lo hacía saber en la dedicatoria al rey, por supuesto, y a sus colegas médicos):
Tras investigar nueve años o más he venido confirmando mi opinión con muchas demostraciones oculares, la he venido ilustrando con razones y argumentos y la he librado de objeciones de doctísimos y meritísimos anatómicos.
Ya habían transcurrido cincuenta años desde la publicación de la Fabbrica de Vesalio, pero en algunos círculos seguía existiendo una fuerte oposición a los intentos de revisar las enseñanzas de Galeno y tenía que presentar el caso con una claridad meridiana con el fin de demostrar que la circulación de la sangre era un hecho real. Y es precisamente lo que hizo, utilizando sistemáticamente, como lo hiciera Gilbert, el método experimental.
Pero ya sabemos que con eso no alcanzaba. Harvey se valió, obviamente, de la deducción, que le sirvió para comprobar su hipótesis mediante una genial y sencilla prueba aritmética. En primer lugar, midió la capacidad del corazón y calculó la cantidad de sangre que bombeaba a las arterias por cada pulsación. Obtuvo que en cada latido bombeaba, por término medio, 4 gramos de sangre, lo cual significaba que en media hora, durante la cual se producen más de mil latidos, habrían pasado por el corazón más de 8 kg de sangre. Esa cantidad es superior a la que hay en todo el cuerpo, por lo cual es obvio que no podía ser producida por el alimento. Ergo, la cantidad que circulaba continuamente por las venas y las arterias tenía que ser mucho menor. Un razonamiento perfecto.
Harvey construyó su teoría utilizando una combinación de experimentos y observaciones. Aunque no podía ver las diminutas conexiones existentes entre las venas y las arterias, demostró que debían existir atando una cuerda (o ligadura) alrededor de un brazo. Las arterias se encuentran a mayor profundidad que las venas bajo la superficie del brazo, por lo que, aflojando ligeramente la ligadura, dejaba que la sangre fluyera a través de las arterias, mientras la cuerda seguía estando lo suficientemente apretada para evitar que la sangre retrocediera por las venas. El resultado era que las venas se hinchaban bajo la ligadura, o sea que seguían recibiendo sangre que sólo podía provenir de las arterias. Harvey indicó también que la rapidez con que los venenos podían repartirse por todo el cuerpo encajaba con la idea de que la sangre circula continuamente. Además, llamó la atención sobre el hecho de que las arterias que se encuentran cerca del corazón son más gruesas que las que están lejos de este órgano, precisamente tal como debe ser para resistir la mayor presión que se produce cerca del corazón debido a la fuerte expulsión de sangre en la acción de bombeo.
Sin embargo, al no tener clara una teoría de la respiración, no pudo dar con la función de la circulación, y en cierto modo se apoyó en las ideas tradicionales que incluían fuerzas vitales y espíritus que mantenían el cuerpo vivo. Según sus propias palabras:
Con toda probabilidad, lo que sucede en el cuerpo es que todas sus partes son alimentadas, cuidadas y aceleradas mediante la sangre, que es caliente, perfecta, vaporosa, llena de espíritu y, por decirlo así, nutritiva: en dichas partes del cuerpo se refrigera, se coagula y, al quedarse estéril, vuelve desde allí al corazón como si éste fuera la fuente o la morada del cuerpo, con el fin de recuperar su perfección, y allí, de nuevo, se funde mediante el calor natural, adquiriendo potencia y vehemencia, y desde allí se difunde otra vez por todo el cuerpo, cargada de espíritus. Por lo tanto, el corazón es el principio de la vida, el Sol del microcosmos, lo mismo que en otra proporción el Sol merece ser llamado el corazón del mundo, por cuya virtud y pulsación la sangre se mueve de manera perfecta, es convertida en vegetal y queda protegida de corromperse y supurar: y este dios doméstico y familiar cumple sus tareas para todo el cuerpo, alimentando, cuidando y haciendo crecer, siendo el fundamento de la vida y el autor de todo.
El corazón no era una mera bomba que mantiene la sangre en circulación, sino un sol en miniatura con ciertas virtudes espirituales. El que aprovecharía el hallazgo de Harvey sería Descartes, quien en su Discurso del método defendería la idea del corazón-bomba, muy de acuerdo con su filosofía mecánica y su concepción del cuerpo como una máquina.
La obra de Harvey no se aceptó sin polémica: en 1630 el médico Jacques Primirose, galenista acérrimo, dirigió contra él un fuerte alegato, y tres años después llegó un nuevo ataque del médico romano Emilio Parisano:
No todas las venas tienen válvulas, y como de un hecho particular no puede concluirse una teoría general, del hecho de que haya válvulas en ciertas venas no se puede concluir que la sangre de todas las venas vuelve al corazón.
Se trata de una crítica sensata a la inducción apresurada. A la mención que hacía Harvey de los «ruidos» cardíacos, Parisano replicaba con ironía:
Esos ruidos se oirán en Londres; en Italia no somos tan finos de oído.
Pero las pruebas de la teoría circulatoria no se limitaban a las válvulas venosas; había una pléyade de ellas. El médico holandés Bevernwik fue el primero que levantó en el continente su voz a favor de la circulación y del «circulador» (como se llamaba a Harvey), sobre cuyo trabajo se carteó con Descartes, que también era un ferviente harveyano. Poco a poco, la teoría se fue imponiendo: era, fiel al estilo de la época, un contundente golpe al plexo solar de la tradición científica de la medicina, el galenismo, que no obstante seguiría resistiendo por un buen rato.
Aunque la teoría de Harvey no fue aceptada universalmente al principio, sin embargo, a los pocos años de su muerte, gracias al microscopio, la única laguna seria que había en su argumentación quedó resuelta con el descubrimiento por Malpighi (que fue el primer italiano que resultó elegido miembro de la Royal Society) de los diminutos capilares que conectaban directamente las arterias y las venas.
Pude ver claramente que la sangre se divide y fluye a través de vasos tortuosos, y que siempre es conducida a través de pequeños tubos y distribuida por las múltiples flexiones de los vasos.
Era el eslabón perdido que faltaba para cerrar la teoría circulatoria. Unos pocos años más tarde, el microscopista holandés Anton van Leeuwenhoek hizo de forma independiente el mismo descubrimiento.
Ahora fíjense qué curioso: los capilares no eran observables, y Harvey se atrevió a postularlos para cerrar su teoría; de manera opuesta, decidió que los poros de la membrana que dividía el corazón, puesto que no eran observables, no existían, ya que hacían incomprensible que un ventrículo pudiera extraer algo del otro, dado que se contraen y expanden al mismo tiempo. Es decir, eran teóricamente incómodos, y Harvey no vaciló en negarlos, lo cual demuestra que las ideas científicas avanzan a tropezones, y por claramente que estén delineadas en la cabeza de su o sus practicantes, siempre dejan puntos oscuros que, como en este caso, se encargan al futuro.
Harvey decidió que tenían que existir los capilares o algo parecido (una de las hipótesis que rondó por ahí es que la sangre arterial era vertida en diminutas vesículas de aire, de donde la tomaban las venas, vesículas también invisibles, de paso), y no dejó de lado su teoría porque no se los observara, del mismo modo que Copérnico dio explicaciones bastante dudosas sobre muchos aspectos de su sistema, que se aclararon después. La intuición, la empiria, la deducción, los prejuicios y los ídolos: en fin, la mezcla forma la carnadura y el andamiaje de la ciencia.
Poco después de que Malpighi viera los capilares, Richard Lower (1631-1691), miembro del grupo de Oxford que luego se convertiría en el núcleo de la Royal Society, demostró mediante una serie de experimentos que el color rojo de la sangre que fluye desde los pulmones y el corazón por todo el cuerpo se debía a algo contenido en el aire:
Que este color rojo se debe exclusivamente a la penetración de partículas de aire en la sangre es una cuestión que está bastante clara a partir del hecho de que, mientras la sangre se vuelve roja en su totalidad dentro de los pulmones (porque el aire se propaga por ellos a través de todas las partículas, y por lo tanto se mezcla completamente con la sangre), cuando la sangre venosa se recoge en un vaso, su superficie toma un color escarlata debido a la exposición al aire.
A partir de esta embrionaria teoría de la respiración, el grupo de Oxford comenzó a considerar la sangre como una especie de fluido mecánico que transportaba por todo el cuerpo partículas esenciales obtenidas de los alimentos y del aire. La idea encajaba cada vez mejor con la imagen cartesiana que contemplaba el cuerpo como un mecanismo, sólo conectado con el alma a través de la glándula pineal, tan arbitraria como los torbellinos…

§. Las ideas biológicas después de Harvey: iatroquímicos, iatromecánicos y clínicos
La aceptación de la circulación de la sangre desató toda una serie de elucubraciones que, lentamente, llevaron a una comprensión más cabal del funcionamiento del cuerpo. También desde el punto de vista práctico, del «arte de curar», tuvo como consecuencia los primeros intentos de transfusiones de sangre, que ya pueden imaginarse cómo terminaron, y poco más.
Sin embargo, la filosofía mecánica, con el envión provisto por el hallazgo de Harvey, alimentó una polémica que dividió a la «ciencia médica». Ahora voy a contarles algunos de los temas de discusión que se arrastraron hasta el siglo XIX.
Un personaje interesante de esta historia es Jan Baptiste van Helmont (1580-1644), que jugó un papel importante en la química al reconocer la multiplicidad de los gases y al boicotear la teoría de los cuatro elementos (es verdad que no hasta el fondo, ya que conservó el agua como elemento universal). Aunque para él la química era un asunto lateral: su interés fundamental era usarla para comprender el fundamento de los procesos del cuerpo humano, y es aquí donde se lo puede considerar el fundador de una teoría médica.
Para Van Helmont, los fenómenos patológicos y fisiológicos eran de naturaleza esencialmente química —y recordemos que la química no estaba separada aún de la alquimia y tampoco estaba constituida como ciencia newtoniana—, y por lo tanto todos los descubrimientos anatómicos de Vesalio y sus seguidores (y aun sus rivales, como Colombo), como la misma circulación de la sangre —una irrupción mecánica— eran fenómenos secundarios en su doctrina, que partía de una convicción central: todos los fenómenos de la materia orgánica no eran sino especies particulares de fermentación. El «fermento» portador de la energía formativa producía a partir del elemento agua una semilla y dirigía el desarrollo de la vida animal o vegetal. Por otra parte, fermentos específicos presentes en los distintos órganos constituían la base de todos los procesos del organismo, en especial seis digestiones o cocciones —no las voy a detallar— que convertían el alimento en tejido vivo. Pero además, Van Helmont mezclaba afirmaciones espiritualistas: si bien había inventado un sistema de fermentaciones puramente químicas para explicar los fenómenos fisiológicos, había superpuesto un sistema de entes inmateriales: los archaei y los subarchaei, que eran los que verdaderamente dirigían el organismo y organizaban la actividad de los fermentos.
Nacía la iatroquímica, que adquirió el carácter de un cuerpo de doctrina homogénea, en manos de Franciscus Sylvius (1614-1672), quien subsumió la obra de Van Helmont en un sistema dogmático: los procesos vitales del cuerpo son composiciones y descomposiciones que llama fermentaciones y efervescencias, y que producen, a través de una serie de transformaciones, sustancias ácidas o alcalinas. Cuando estas sustancias se encuentran en la proporción adecuada el cuerpo está sano, pero la prevalencia de una u otra provoca la penetración de sustancias perjudiciales en la sangre y rompe el equilibrio de la salud. Así, el conocimiento de los ácidos y los álcalis no solamente explicaba todos los procesos vitales, sino que también indicaba el tratamiento apropiado (esto es: exceso de ácido se compensa con remedios alcalinos y viceversa). Fíjense que detrás de este sistema podemos adivinar la antigua doctrina del equilibrio, ya sea de los humores o de los principios de Paracelso. Lo cierto es que Sylvius tuvo una enorme influencia y tanto la iatroquímica como sus obras fueron leídas y editadas hasta finales del siglo XVIII.
Los iatromecánicos, por el contrario, imaginaban al cuerpo como una máquina, al estilo cartesiano, aunque con matices: la circulación de la sangre mostraba que el corazón era una bomba; los dientes, tijeras; los huesos eran palancas accionadas por poleas que eran los músculos; el pulmón era un fuelle; las venas y el corazón conformaban un sistema hidráulico. Incluso fenómenos aparentemente poco mecánicos como la digestión se concebían como el resultado de movimientos en el estómago, que producía choques entre las partículas de los alimentos y los trituraba. Las glándulas eran filtros y retortas… Gian Alfonso Borelli (1608-1679), Giorgio Baglini (1668-1706) y Santorio (1561-1636) representaron bien esta doctrina y estudiaron bajo su «luz» los movimientos como saltar, caminar, la contracción de los músculos, e introdujeron —novedad importante— la noción de medida, incorporaron el termómetro, y Santorio vivió casi toda su vida sobre una balanza de su invención, tomando nota de las variaciones de peso debidas al sueño, a la transpiración y a cualquier otra de las variantes mecánicas del organismo.
Sin embargo, y a diferencia de los iatroquímicos, percibieron que la iatromecánica era incapaz de explicarlo todo, y se abrieron un poco (aunque no demasiado) a la química. Es natural que fueran menos dogmáticos que los iatroquímicos, ya que su sistema provenía de la física experimental, que, como ciencia constituida, estaba abierta a un examen filosófico más abarcativo.
Y, si quieren, se puede decir también que hubo una tercera línea, que podríamos clasificar o describir como «clínica», y cuyo mayor representante fue Herman Boerhaave (1668-1738), el gran sistematizador de la medicina del siglo XVIII. Boerhaave renegaba de iatroquímicos y iatromecánicos: les reprochaba haber caído en el antiguo vicio de establecer sistemas generales y deducir dogmáticamente a partir de ahí; para él, la sola fuente de conocimiento era la experiencia clínica y su recomendación era que la mejor cátedra se escuchaba junto al lecho del paciente. En cierto modo, retomaba la medicina hipocrática, con su empirismo fundamental, o mejor, con sus «estudios de caso». Lo que Boerhaave quizá no veía es que él también partía de un sistema general, en este caso de la pura experiencia clínica y de la mera inducción sobre los síntomas.
Lo cierto es que ninguno de estos sistemas, al menos por sí solo, podía producir adelantos sustanciales en el arte de curar. Solamente cuando convergieran y se complementaran iba a nacer la medicina científica. Y para eso faltaba bastante.
Pero ahí estaban, y las polémicas entre iatroquímicos, iatromecánicos y clínicos se extendieron hasta el siglo XIX. En cierto modo repetían las polémicas griegas entre escuelas dogmáticas, empíricas e hipocráticas. Es extraordinario comprobar que tantos desacuerdos y oposiciones, tan tarde como en los siglos XVII y XVIII, se remontan a los orígenes de la medicina, aunque disfrazados.

§. Vitalismo y mecanicismo
Otra de las polémicas médicas (que también se remonta a la Antigüedad) es la que enfrentó a los animistas o vitalistas con los mecanicistas Harvey descubrió la circulación de la sangre, pero no sabía para qué la sangre circulaba, ni cuál era su función:
Resulta incierto si es para distribuir el alimento, o el calor.
Tenía en la cabeza una mezcla del mundo mágico y la naciente filosofía mecánica (que Descartes elaboraba más o menos por la misma época —la filosofía mecánica no esperó a que Descartes la formulara de forma acabada—), sobre todo porque no tenía una teoría razonable de la respiración, y estaba atrapado en las concepciones tradicionales según las cuales la respiración servía para enfriar la sangre. Y participaba en la creencia renacentista (y más antigua también) de que había «algo», distinto de la materia, o de las leyes de la física y la química (que, digamos de paso, todavía no habían sido formuladas) que mantenía las cosas, en este caso la circulación, en funcionamiento.
Las corrientes que asumieron esta postura anti mecánica atravesaron la Revolución Científica: el gran sistematizador de la teoría del animismo o vitalismo fue Ernest Stahl (1660-1734), que sería el inventor de un engendro como el flogisto (del cual hablaremos en algunos capítulos), que rechazó por igual la iatroquímica y la iatromecánica, y que concibió al ser vivo como una estructura particular y distinta de cualquier otra estructura o mecanismo, y sujeto a leyes diferentes: al fin y al cabo, argumentaba, en los mecanismos no vivos los desplazamientos se producen desde afuera, al revés de los seres vivos que los generan desde su interior (aquí hay un cabo suelto: sería interesante estudiar con rigor esa definición de «afuera»). Del mismo modo, la química es impotente para explicar la fisiología del organismo: éste contiene compuestos estables que, no obstante, apenas se separan del organismo, se pudren y degradan. Entonces, ¿por qué no se descompone el organismo?
Pues porque hay un «alma» que confiere estabilidad a la materia viva y dirige los procesos que se producen en ella: el alma ha de ser el objetivo básico de los estudios médicos: el origen de las enfermedades es el mal funcionamiento del alma, que a veces relaja su vigilancia, y el médico debe ayudarla, mediante remedios suaves —aquí vemos un residuo hipocrático—, a restablecer su buen funcionamiento, y así…
Boerhaave lo llamaba «curandero metafísico». Yo creo que Stahl era un charlatán.
El animismo stahliano fue profesado por muchos e importantes médicos de la época, que introdujeron variantes, como reemplazar el «alma» por el «espíritu vital» (cuyas diferencias, vistas desde ahora, nos resultarían imposibles de reconocer). Está claro de dónde tomaba sus fuentes: si bien fue una reacción ante el excesivo materialismo de algunos iatromecánicos, conservaba muchos elementos que se remontan a Paracelso, a Van Helmont y más atrás: el pneuma, el archaeus, el alma, o cualquiera de los «espíritus» que gobernaban la organización del cuerpo y sus fermentos.
El vitalismo llegó a producir polémicas hasta bien entrado el siglo XIX, incluso en la época de Pasteur, cuando la medicina ya estaba graduándose de «ciencia newtoniana». Sin embargo, sufrió un golpe brutal cuando en 1828 Friedrich Wohler (1800-1882) logró sintetizar la urea, un compuesto orgánico (en realidad ya se había logrado obtener artificialmente un compuesto orgánico cuando en 1772 Scheele sintetizó el cianuro de potasio). Este hallazgo fue de gran importancia, ya que hasta entonces se creía que los productos orgánicos sólo se producían en el interior de seres vivos, y que la química «orgánica» y la «inorgánica» estaban separadas por un abismo que, justamente, estaba marcado por el «ánima vital».
La síntesis de Wöhler fue el comienzo del fin del vitalismo, pero las teorías se resisten a morir: hizo falta un buen desarrollo no sólo de la química sino también de la mineralogía y la geología para que los principios vitalistas quedaran desterrados (o escondidos).
El vitalismo ponía, si se quiere, un límite al arte de curar: lindaba demasiado con la religión y el mundo mágico. Si la vida procede de un proceso metafísico o divino, es evidente que siempre habrá una limitación humana frente a semejantes poderes. Era una ideología completamente reaccionaria que perdura aún hoy en cierta veneración por los «sistemas médicos alternativos», que pretenden paliar las impotencias y las serias falencias de la medicina y que lo que logran, en realidad, es retrotraerla a la prehistoria.
También se puede pensar de otra manera: a pesar de su estatus newtoniano, dignamente alcanzado, y de sus fantásticos éxitos, hay todavía enormes zonas que la medicina no alcanza a cubrir, y rincones del cuerpo a los que no puede llegar. El vitalismo, o sus residuos, se nutre de situaciones en las cuales la medicina actual fracasa, del mismo modo que la medicina folklórica o tradicional cubría las horribles falencias de la medicina pre newtoniana. Pero si nos paramos en la visión moderna del progreso de la ciencia, no será de allí de donde provengan las soluciones.
Porque lo cierto es que es la medicina newtoniana la que ayudó a que se resolviera la mayoría de los problemas de salud del hombre. Para ello, fue necesaria la aparición de un nuevo instrumento que modificaría para siempre el campo de los estudios biológicos.

§. Los microscopistas
Así como el telescopio revolucionó la astronomía abriendo mundos nuevos, el microscopio abrió los suyos, esta vez en el terreno de lo mínimo, reafirmando, además, la utilización de aparatos que ampliaban los sentidos humanos. Aparatos que, dicho sea de paso, fueron rechazados por muchos científicos de la vieja escuela que adujeron que lo que se veía a simple vista era lo que Dios quería que se viese, argumento estúpido si los hay, pero que se apoyaba en las imperfecciones —que las había, y muchas— en los aparatos ópticos de la época. Así las cosas, hubo médicos que se resistían a utilizar el microscopio ¡a fines del siglo XVIII!
Hay un asunto que, por lo menos para mí, llama la atención. La posibilidad de fabricar lentes de aumento se conocía desde hacía bastante: recordemos a Roger Bacon, que en el siglo XIII recomendaba el uso de los anteojos. Resulta raro que llevara más de tres siglos utilizar esa propiedad de las lentes para mirar el mundo y ampliarlo. Pero lo cierto es que a nadie se le ocurrió hacerlo.
Naturalmente, los primeros aparatos eran muy primitivos, producían aberraciones cromáticas, brindaban imágenes confusas, en las que las proyecciones de lo que el científico quería ver, así como las ilusiones ópticas, jugaban un papel nada desdeñable. Algunos eran simples lupas cuidadosamente talladas, que alcanzaban muchos aumentos; otros, un mero tubo con una o dos lentes, y una placa para depositar el elemento a examinar, sin ningún dispositivo mecánico para acercar o alejar la lente: el observador sostenía el tubo y lo orientaba hacia la luz a la manera de los telescopios. Al principio, el aumento no superaba los 10 diámetros, pero paulatinamente se fueron introduciendo mejoras.
Entre los pioneros del primer grupo de grandes microscopistas —que incluía a Malpighi, quien, recordemos, había encontrado los capilares que cerraban la teoría de Harvey— se destacaron Robert Hooke y Anton van Leeuwenhoek.
Hooke parece estar en todo, y en realidad no es que parezca, sino que verdaderamente estuvo en todo. Recordemos, por ejemplo, que en gran parte gracias a él Newton encontró el camino hacia la ley de gravedad. Pero su trabajo no se agota allí: participó activamente de la reconstrucción de Londres después del incendio de 1666 y formuló la Ley de Elasticidad, por mencionar sólo algunas cosas. Notarán que soy un ferviente partidario de la revalorización de Hooke, que se da en la historia de la ciencia por estos días. Fue un espíritu universal, uno de los más notables de su tiempo, y me parece justo rescatar su figura opacada por el odio tenaz de Newton.
El asunto es que Hooke construyó su propio microscopio y mejoró mucho el aparato, introduciendo cambios en cuanto a iluminación, platinas y métodos de aproximación, y se dedicó a poner bajo las lentes todo lo que le caía en las manos, desde las plumas de las aves hasta las puntas de los alfileres. Analizando un pedazo de corcho, concluyó que era similar al de un panal de abejas y, por su semejanza con las celdas de los panales, llamó «células» a los poros, un término que se mantendría hasta la actualidad para definir cada una de las más pequeñas unidades funcionales de la materia viva. En realidad, no se puede decir o no tiene mucho sentido decir que Hooke «descubrió» las células en el sentido moderno. Vio una red de agujeros en el corcho, pero el nombre quedó.
En 1665 publicó su libro Micrographia, que fue el primer tratado sobre el tema, donde describía y dibujaba desde el ojo de una mosca hasta las escamas de los peces… y sostienen las malas lenguas que fue justamente este libro el que atrajo a Newton hacia el estudio de la luz, que culminaría en su Óptica y en la consecuente polémica.
Al mismo tiempo, en Holanda, había también un extraordinario microscopista autodidacta —en el sentido de que no había recibido formación académica, aunque al fin y al cabo todos eran autodidactas frente al nuevo aparato— que realizaría por sí mismo una larga y profunda exploración de lo invisible.
Anton van Leeuwenhoek había nacido en la ciudad de Delft en 1632, y no tuvo formación científica alguna. Terminado el colegio, se internó como aprendiz en una tienda de telas en Ámsterdam y se sintió definitivamente atraído por las lupas que se utilizaban para analizar la calidad de los tejidos. Ese interés habría de cambiar el curso de su vida.
Efectivamente, su pasión desde entonces fueron los microscopios y las lupas con las que trabajaba habitualmente, y a lo largo de su vida no hubo nada capaz de alejarlo de su notable hobbie. Además, se convirtió en un experto fabricante de estos aparatos, y se dice que logró alcanzar hasta 500 aumentos.
Por supuesto, como todo este primer grupo de microscopistas clásicos, hizo pasar por debajo de sus lentes todo lo que se le cruzó por el camino. Era un observador tenaz y paciente, que compartía los descubrimientos con sus vecinos y que, poco a poco, se fue ganando una fama bien merecida.
De hecho, en 1673 su fama llegó a Inglaterra: un renombrado médico holandés (Regnier de Graaf, que había —digamos de paso— descubierto los folículos de Graaf en el útero, que durante ciento cincuenta años fueron tomados por los óvulos femeninos) le envió una carta a Henry Oldenburg, secretario de la Royal Society de Londres, para contarle que en Holanda un tipo estaba descubriendo un mundo increíble a través de las lentes de microscopios fabricados por él mismo.
Por ese entonces, Holanda e Inglaterra se encontraban en una enconada batalla comercial por los tesoros de las Indias Orientales, lo cual no impidió que se desarrollara un ámbito de colaboración científica. Leeuwenhoek le escribía a Oldenburg en holandés, el único idioma que sabía, y el representante de la Royal Society se encargaba de traducir esas cartas y publicarlas en las Philosophical Transactions. Leeuwenhoek vio de todo, y entre lo que vio están los glóbulos rojos circulando a través de los capilares de la oreja de un conejo; unos organismos en la saliva humana que llamó animálculos —y que nosotros llamamos protozoos—, y, en el sarro de sus dientes, una bacteria.
Pero una de sus grandes super hazañas de observación, que en cierto modo iniciaría la historia de la microbiología, fue encontrar el fantástico micromundo que se desarrollaba en una pequeña gotita de agua. Leeuwenhoek puso en remojo algunos granos de pimienta durante tres semanas, luego tomó una muestra y la enfocó con el microscopio. El resultado lo narra él mismo en una carta de 1676:
Al observar por casualidad el agua vi en ella, con gran asombro, un número increíble de pequeños animálculos (animalillos) de distinta índole. Algunos de entre ellos eran tres o cuatro veces más largos que anchos. Estas criaturas estaban dotadas delante de la cabeza de patas extraordinariamente cortas y finas (aunque soy incapaz de distinguir una cabeza, denomino así a la parte que siempre iba adelante cuando se movían). El segundo tipo de animálculo formaba un óvalo perfecto. También había un tercer tipo que excedía en número a los dos anteriores. Eran animalillos con cola como los que he señalado que había en el agua de lluvia. El cuarto tipo de animalillos era increíblemente pequeño; tan pequeño que si se pusiesen en fila, cien de esos animales diminutos no llegarían a alcanzar la longitud de un grano de arena gruesa. Y de ser así, un millón de tales criaturas vivas difícilmente alcanzarían el volumen de uno de esos granos.
Parecía demasiado fantasioso; esta vez, la Royal Society recibió el informe con cierto escepticismo y le encargó, por supuesto a Hooke — ¿a quién si no?— que realizara públicamente la experiencia para verificar las observaciones de Leeuwenhoek. Así lo hizo Hooke con su habitual genio y diligencia, y el agua se llenó de «animálculos». Leeuwenhoek fue la primera y única persona en la historia de la Royal Society en ser invitada a formar parte de ella sin tener ningún tipo de formación académica.
La significación teórica de sus descubrimientos no fue comprendida hasta mucho tiempo después, y generó en un principio trabajos mucho más literarios que científicos, basados en la idea de nuevos mundos en donde nosotros no seríamos más que pequeños «animálculos» invisibles, sólo perceptibles a través de lentes inmensas.
Pero sus observaciones merecían adquirir trascendencia científica: trabajando a tientas y en la oscuridad, Leeuwenhoek se había topado con las bacterias, había visto los glóbulos rojos, algunos protozoos y otras cosas que más tarde se considerarían encuadradas en nuevos reinos.
Sin embargo, su descubrimiento más espectacular fue el de los espermatozoides.
En noviembre de 1677, Leeuwenhoek envió una carta al presidente de la Royal Society informándole de su nuevo hallazgo. La historia había sido más o menos la siguiente: un estudiante de medicina le había contado que había puesto en el microscopio el semen de un enfermo de gonorrea y que había observado cómo se revolvían en él un grupo de animalillos (engendrados, según decía, por la putrefacción).
Leeuwenhoek, en un acto heroico de sacrificio por la ciencia, obtuvo una muestra de su propio semen (desde ya se ocupó muy bien de aclarar que no había sido obtenido «por medios pecaminosos», signifique esto lo que signifique) y lo colocó bajo su lente implacable.
He visto una multitud de animálculos vivientes, más de 1.000, moviéndose en el volumen de un grano de arena,
escribió.

§. Ovistas y espermatistas
La embriología sufrió una revolución. Hasta ese entonces, predominaba la teoría epigenética (que había sido acuñada por Aristóteles y fortalecida por Harvey y Descartes), que sostenía que el embrión se desarrollaba a partir de material indiferenciado y que los órganos iban apareciendo sucesivamente en el curso del crecimiento. El semen funcionaba como una especie de «vapor fertilizante». Pero con la irrupción del microscopio todo cambió.
Los primeros estudios microscópicos habían llevado a varios observadores a formular la curiosa teoría ovista: el óvulo femenino contenía en potencia todo el ser futuro pero en una reducción microscópica: dentro del óvulo (en realidad, como les dije antes, no eran los óvulos sino los folículos de Graaf; los óvulos fueron vistos al microscopio recién en 1828) el desarrollo era, simplemente, un despliegue de algo ya preexistente.
Los ovistas eran preformistas. Sostenían que todas las generaciones humanas se encontraban, en tamaños constantemente decrecientes y encajadas unas en otras, como mamushkas rusas en los ovarios de Eva en el mismísimo Paraíso Terrenal.
Era una hipótesis que tenía ciertas ventajas sobre la epigénesis. En primer lugar, superaba el problema de la creación de «novedades» al suponer que, en realidad, nada se generaba sino que se desenvolvía. La hipótesis, por si fuera poco, ampliaba el campo de influencia de Dios y reducía el de la naturaleza: la cópula apenas infundía un soplo vital (aura seminalis) a las gónadas femeninas, que contenían en sí mismas generaciones y generaciones de hombres y mujeres creados por Dios y colocados en los ovarios de la mujer original. No se trataba de una doctrina disparatada —bueno, no completamente disparatada—: entre sus defensores estuvieron algunos de los más prestigiosos científicos de la época hasta el siglo XIX. Además, se desarrolló en una época constreñida por la cronología bíblica: en esa época aún no se había descubierto la pasmosa antigüedad de la Tierra y se pensaba que tenía apenas 6.000 años de edad, de modo que las generaciones que tenían que estar contenidas no eran tantas.
Marcello Malpighi dedicó una parte importante de su tiempo al estudio del embrión, especialmente, a partir del huevo de gallina fecundado. Pero Malpighi, que como observador era excepcional, no era un buen teórico: creía que el embrión existía en el huevo incluso antes de que la gallina lo incubara y, dado que la observación, en especial con aquellos microscopios, dependía mucho de lo que uno quería observar, aseguró haber visto el embrión bien formado en un huevo no incubado. Lo único que le faltaba era crecer.
Jan Swammerdam (1637-1680), otro de los grandes microscopistas, fue un tenaz defensor del ovismo. En sus minuciosos estudios de los insectos llegó, en algún momento, a ocuparse de la metamorfosis. Mediante pacientes observaciones, había logrado detectar los órganos de la crisálida enrollada en la larva de la mariposa e incluso había logrado hacer salir de la crisálida, hundiéndola en alcohol, la mariposa ya formada.
Su conclusión era predecible: la mariposa está encajada en la crisálida, que a su vez está encajada en la larva. Entonces, los huevos de mariposa encierran mariposas completamente preformadas que, a su vez, encierran otras mariposas más chiquitas pero igualmente preformadas, y así sucesivamente.
Las teorías preformistas fueron bien vistas por la Iglesia: al fin y al cabo, según ellas, en la sucesión de las generaciones no se producían «novedades», sino un simple desarrollo de seres vivos presentes ya en el Jardín del Edén. Que la naturaleza no produjera «novedades» dejaba cualquier iniciativa en manos de Dios. Sin embargo, las cosas no serían fáciles para la teoría ovista: el descubrimiento de los espermatozoides por Leeuwenhoek echó por tierra la hipótesis de que el semen aportaba al huevo algo inmaterial. Era un poco difícil pasar por alto la importancia que esos «animálculos» debían tener en la fecundación. Lo cual no significó un rechazo tajante del preformismo sino todo lo contrario: si los ovarios podían contener generaciones y generaciones de hombrecitos, ¿por qué no habrían de ser los espermatozoides los que alojaran a la humanidad entera?
Leeuwenhoek mismo fue el precursor del animalculismo (o espermatismo), la nueva doctrina preformista que mudaba a los homúnculos desde los ovarios hacia los espermatozoides y a la cual adhirieron personalidades de la talla de Leibniz o Boerhaave (quien decía que el semen masculino contenía «los rudimentos del futuro cuerpo humano»). Incluso algunos aseguraron haber visto, dentro del espermatozoide, la cabeza, el tronco y los miembros de la infinitesimal personita (en cuyos espermatozoides había otras personitas más chicas y así sucesivamente). En realidad no eran exactamente «soñadores»: como tantas veces, se vio lo que se quería ver.
La gran polémica entre animalculistas y ovistas se extendió hasta fines del siglo XVIII, y culminó con una derrota de ambas en beneficio de la epigénesis, gracias a los estudios de Caspar Friedrich Wolf (1734-1794) y de Kart Ernest von Baer (1792-1876), que armados con microscopios potentes pudieron ver que el óvulo (y los espermatozoides) se presentaban como un continuo uniforme, que se iba diferenciando a lo largo del crecimiento del embrión.
Von Baer, que fue el primero en «ver» los óvulos de mamíferos y el óvulo femenino en 1828, describió la progresiva evolución del embrión a partir de ese continuo indiferenciado, y la forma en que, en distintas etapas, iban apareciendo los diferentes órganos. La epigénesis triunfaba y tanto el ovismo como el animalculismo estaban muertos, a pesar de que recién a fines del siglo XIX se demostró que la fecundación exigía la unión del óvulo y el espermatozoide, y que no fue hasta principios del siglo XX cuando se dilucidó el mecanismo de la ovulación.

§. La generación espontánea
¿No ves que todo tipo de cuerpos que se corrompen con el paso del tiempo y con el calor enervante se convierten en pequeños animales? Vete también, entierra los toros elegidos tras haberlos sacrificado: de sus entrañas putrefactas por todas partes nacen abejas que recolectan las flores, las cuales, a la manera de sus progenitores, cultivan los campos, se dedican al trabajo y se esfuerzan por el futuro; un caballo guerrero cubierto de tierra es el origen del avispón; si le quitas a un cangrejo de la costa sus pinzas huecas y pones el resto bajo tierra, de la parte sepultada saldrá un escorpión. El lodo tiene las semillas que hacen nacer las verdes ranas y no es un cachorro lo que la osa ha producido en su reciente parto, sino carne apenas viva: la madre, lamiendo, la moldea en miembros. Hay quienes creen que, cuando la espina dorsal se ha corrompido en un sepulcro cerrado, la médula humana se convierte en serpiente.
OVIDIO, Las Metamorfosis
Los dioses solían nacer de manera extravagante, como Minerva de la cabeza de Júpiter, o de la espuma del mar, como Venus, o de piedras, o de soplidos apropiadamente dados sobre barro, árboles o animales o simplemente de la Nada (de la cual el glorioso Parménides predicaba que nada podía provenir): los dioses nacían del deseo, nacían míticamente, lo cual, hasta cierto punto, era natural, ya que los dioses eran mitos, a veces cálidos y a veces terribles y a veces las dos cosas: todos ellos, en última instancia habían brotado de la imaginación y el terror humanos.
¿Pero de dónde nacían los innumerables animales y animalitos, en especial los insectos que poblaban la tierra y que parecían materializarse ex nihilo en las aguas corrompidas de las últimas lluvias o en la carne abandonada al calor y que se pudría infructuosamente?
La doctrina de la generación espontánea fue la respuesta a ese abundante misterio que excedía, tal vez, lo que se podía pensar por entonces, y que seguramente una observación más cuidadosa hubiera revelado como lo que verdaderamente era: un mito, como los que se desarrollaban entre las nieblas del Olimpo y se llevaban con ellos ciudades enteras como la anhelada Troya y Micenas, la dorada.
Otra vez hay que remontarse al eterno y muchas veces infinito Aristóteles, que no iba a dejar de lado una especulación sobre el nacimiento de los insectos y otros animales minúsculos. Así, escribió que las moscas, los gusanos y otros animales pequeños se originaban espontáneamente, sin proceso de gestación, en el agua putrefacta: nacían sin progenitores, eran hijos de la descomposición y, por supuesto, ellos mismos no procreaban. Si uno lo piensa, era injusto con los pobres bichos, ya que padecían de orfandad congénita y ni entonces ni ahora hay seguridad social para los animales.
Según las observaciones que se podían hacer en la época, la teoría tenía su base empírica, digamos: Aristóteles veía que, de un balde de agua estancada, de repente surgían insectos, aunque una observación más cuidadosa, y sobre todo algún experimento, podían haber revertido el asunto. Recordemos una vez más la diferencia entre observación y experimento: la primera es una colección de datos recogidos tal y como se dan en la naturaleza por observaciones reiteradas, mientras que el experimento es un fenómeno generado o aislado en el laboratorio.
Un microscopio habría resuelto rápidamente la cuestión, pero Aristóteles no tenía microscopios, ni siquiera una lupa. Lo que sí tenía eran ciertos preconceptos que no le jugaban a favor: su creencia de que los animales «inferiores» como los insectos no tenían órganos internos diferenciados era un aliciente para creer en la imposibilidad de una reproducción similar a la del hombre.
Y así nació la teoría de la generación espontánea: la vida saliendo de la nada en determinados contextos. Por supuesto, la Edad Media no puso en duda los dichos de El Filósofo, y durante la Revolución Científica la doctrina se mantuvo: Harvey, por ejemplo, era un firme partidario de ella.
Van Helmont propuso, por su parte, algunas curiosas recetas:
Las criaturas tales como los piojos, garrapatas, pulgas y gusanos son nuestros huéspedes y vecinos, pero nacen de nuestras entrañas y excrementos. Porque si colocamos ropa interior llena de sudor junto con trigo en un recipiente de boca ancha, al cabo de 21 días el olor cambia y penetra a través de las cáscaras del trigo, cambiando el trigo en ratones. Pero lo más notable es que estos ratones son de ambos sexos y se pueden cruzar con ratones que hayan surgido de manera normal.
Otra más:
El agua de la fuente más pura, colocada en un recipiente impregnado por el aroma de un fermento, se enmohece y engendra gusanos. Los olores que se elevan desde el fondo de los pantanos producen ranas, babosas, sanguijuelas, hierbas… Hagan un agujero en un ladrillo, introduzcan [allí] albahaca triturada, coloquen un segundo ladrillo sobre el primero de modo de cubrir totalmente el agujero, expongan los dos ladrillos al sol y, al cabo de algunos días, el olor de la albahaca, actuando como fermento, transformará [a la hierba] en verdaderos escorpiones.
El microscopio no sólo no terminó con el asunto de la generación espontánea, sino que la doctrina tuvo una larga, larga vida, en gran parte por la desconfianza que despertaba la introducción del nuevo aparato.
Pero con desconfianzas y errores medievales está amasada la ciencia moderna y la cuestión es que, en algún momento, los artefactos desplegaron y pusieron a la vista de todos (o por lo menos, de todos los que quisieran) dos mundos nuevos: uno gigantesco, descomunal e inabarcable y el otro, diminuto e invisible, y hasta cierto punto más raro.
El primer golpe que sacudiría peligrosamente la doctrina de la generación espontánea y la haría perder el equilibrio lo asestó un médico y filósofo florentino llamado Francesco Redi (1626-1697). Por medio de una serie de sencillos experimentos, Redi demostró que de la carne en putrefacción no surgían gusanos si se la protegía con una gasa.
En otra de sus experiencias, preparó ocho frascos que contenían varias clases de carne y cerró herméticamente cuatro de ellos, dejando abiertos los demás. En todos los frascos la carne se descompuso y se pudrió, pero sólo aparecieron larvas en los frascos abiertos, donde las moscas habían podido posarse y depositar sus huevos. En los frascos cerrados no pasó nada. Su conclusión fue rotunda: los gusanos, las larvas de las moscas, no eran descendientes directos de la putrefacción, sino que se originaban en los huevos de los insectos.
Su conclusión fue publicada en la Esperienze intorno alla generazione degli insetti (Experiencia en torno de la generación de los insectos), un libro en forma de carta que se convirtió en la primera refutación empírica de la doctrina.
De aquí comencé a dudar si todos los gusanos de la carne sólo derivaran de las simientes de las moscas y no de las mismas carnes podridas, y más me confirmaba en mi duda cuando en todas las generaciones de moscas por mí criadas, siempre vi posarse sobre las carnes, antes de que se agusanaran, moscas de la misma especie que aquellas que después nacieron. La carne, las plantas y otras cosas susceptibles de descomposición no desempeñan ningún otro papel ni cumplen otra función en la generación de los insectos que preparar un lugar apropiado o nido en el cual, en el momento de la procreación, el gusano, los huevos u otra semilla del gusano son depositados e incubados por los animales, y en este nido, los gusanos, cuando nacen, encuentran comida suficiente para alimentarse en abundancia.
Sin embargo, Redi no fue lo suficientemente drástico en sus creencias como para acabar del todo con la historia ésta, que venía secundada por un séquito de varios siglos y de múltiples pensadores: aunque se atrevió a negar la generación espontánea en la carne podrida, admitía que los insectos que se formaban en los robles eran un producto directo de la fuerza vital del árbol (el error provenía, probablemente, de un resto de vitalismo y de la falta de microscopio para optimizar sus observaciones: Marcello Malpighi sería el encargado de mostrarle su falencia interpretativa).
La historia continuó en Holanda y su protagonista local fue Swammerdam, aquel partidario del ovismo, cuyo interés por las ciencias naturales se le había despertado gracias a su colección de curiosidades anatómicas de su padre farmacéutico.
Meticuloso naturalista y médico, Swammerdam se dedicó pacientemente al estudio de la anatomía de los insectos aprovechando las facilidades (y obviando las dificultades) de los nuevos microscopios caseros. En 1669 compiló los resultados de sus trabajos en una Historia Insectorum Generalis (Historia general de los insectos), en la que ofreció dibujos y descripciones sin comparación para la época, obtenidos gracias a su ingenio en la fabricación de herramientas para tratar objetos diminutos y a su inigualable paciencia.
Swammerdam se obsesionó con los insectos y llevó adelante sus investigaciones con una tenacidad y un apasionamiento propios del más intenso de los amores; sus escritos, de hecho, se parecen bastante más a una colección epistolar de dos amantes que a un sistemático informe de los resultados de sus experiencias científicas.
Los más finos detalles de los cuadros de Apeles son groseras vigas comparados con la finura con que la naturaleza creó los órganos de los insectos. Los encajes más finos debidos a la mano del hombre no soportan la comparación con la tráquea de un insecto. ¿Dónde encontrar un arte que pueda emular en finura a estos órganos? ¿Dónde un espíritu que pueda describirlos? ¿Dónde la perseverancia capaz de penetrar en sus partes más minúsculas?
se preguntaba Swammerdam en su estudio de un tipo de escarabajo. Y agregaba:
Como los órganos de los insectos no son menos complejos en estructura y no sirven en menor acierto a sus finalidades que los del hombre, es imposible admitir que los insectos sean engendrados por la descomposición de la materia inerte.
Un golpe duro para la doctrina: el pequeño cuerpo de los insectos revelaba una cadena de órganos tan intrincada como la de los hombres, y era difícil pensar que estructuras tan complicadas surgieran de la nada. Para colmo de males, no sólo no eran productos de la descomposición sino que eran agentes de la misma.
Sin embargo, todavía quedaba algo por explicar: ¿qué decir de los invisibles microorganismos que había visto Van Leeuwenhoek? Un caldo en apariencia estéril, después de un tiempo, hervía de ellos: ¿no significaba, esta vez sí, que habían aparecido por generación espontánea?
La incógnita se resolvió casi un siglo después, gracias al naturalista Lazzaro Spallanzani (1719-1799), que había dado clases en distintas universidades italianas y había visitado Nápoles mientras el Vesubio estaba en erupción (de lo cual no se puede concluir que visitar el Vesubio en erupción sea garantía de un descubrimiento científico).
Spallanzani hirvió diversas soluciones durante períodos que oscilaban entre los tres cuartos de hora y la hora y media, para que fueran realmente estériles, las cerró herméticamente en frascos y comprobó que en esos frascos no aparecían microorganismos por más tiempo que esperara.
Era en verdad un problema práctico: en las pruebas anteriores la hermeticidad no había sido suficiente y, por lo tanto, los frascos no eran suficientemente estériles como para que los microorganismos no se desarrollaran.
Lejos estuvo Spallanzani de imaginar que este experimento teórico tendría alguna vez una importancia práctica en el terreno de la conservación de alimentos y mucho menos que tendría una inmediata aplicación militar y remataría en los alimentos enlatados.
Los partidarios de la generación espontánea adujeron que el prolongado calentamiento había ejercido su acción de dos maneras: alterando las «moléculas orgánicas», y disminuyendo por lo tanto su fuerza vegetativa, y tornando inutilizable el aire contenido en el frasco para las funciones vitales. La cuestión seguía en pie.

Homero refuta la generación espontánea
Si leemos a Homero, veremos que en unpasaje, y varios siglos antes que Aristóteles, se acercó increíblemente a loque los renacentistas pensarían después. En la Ilíada, el poema épico querelata «la cólera del pélida Aquiles» en la Guerra de Troya, hay unareferencia a la idea de que la putrefacción origina vida: en el canto XIX,cuando Aquiles se entera de la muerte de su amigo y escudero Patroclo,golpeado por la tristeza, le dice a su madre, la diosa Tetis:
Mucho metemo que en tanto me voy a combatir, vengando a Patroclo, y le preparohonrosos funerales, las moscas penetren por las heridas de su cuerpo,engendren gusanos y lo corrompan.

Es decir: para Aquiles, y por lo tanto para Homero, los gusanos no se generan de la propia putrefacción del cadáver, como propondría más tarde la doctrina de la generación espontánea, sino que son engendrados por otros bichos que, atraídos por la carne en descomposición, penetran en ella y dejan sus huevos.

§. El fin de la generación espontánea
Los siglos de lucha de la generación espontánea no se acabarían silenciosamente, sino que tendrían como epílogo una gigantesca controversia científica (digna de la escandalosa historia milenaria que llevaba a cuestas) que enfrentó al descubridor de la infección microbiana, el gran químico francés Louis Pasteur (1822-1895) —y fíjense que ya estamos en el siglo XIX—, y al último de los grandes partidarios de la doctrina aristotélica: el naturalista francés Félix Archimède Pouchet (1800-1872).
Los estudios de Pasteur sobre la fermentación lo habían llevado a determinar que los orígenes de la putrefacción se debían a la acción de determinados gérmenes, diminutos organismos que atacaban las proteínas de los alimentos. Era imposible ignorar, a esta altura del partido, el tema del origen de esos gérmenes. ¿De dónde salían? ¿Era posible que, siendo ellos mismos agentes de la putrefacción, fueran producto de ella? ¿Eran, efectivamente, producto de una generación espontánea? Había un vasto grupo, liderado por Pouchet, que aseguraba que sí, mientras que Pasteur sostenía incansablemente que la cuestión era un poco más compleja.
La generación espontánea no produce seres adultos, procede de la misma manera que la generación sexual que, como todos sabemos, es inicialmente un acto completamente espontáneo mediante el cual se unen en un órgano especial los elementos primitivos de un organismo,
argüía don Pouchet. Fue entonces que intervino la Académie des sciences de París, que, para poner paños fríos al asunto y terminar de una vez por todas con la aparentemente irresoluble polémica, ofreció una recompensa de 2.500 francos a quien pudiera
arrojar luz sobre la cuestión de la generación espontánea.
Pasteur aceptó el desafío y logró doblegar a todos sus adversarios en la última famosa contienda que generó la ya por entonces vetusta teoría. En un verdadero duelo público de experimentos y contra-experimentos, Pasteur se propuso demostrar que el aire era el vehículo que transportaba a los microorganismos vivos.
Filtró el aire inspirándolo a través de un tubo en el cual había intercalado un pedazo de algodón cuyas fibras detenían las partículas sólidas. Al disolver el algodón en una mezcla de alcohol y éter, las partículas retenidas se depositaban en el fondo y luego, cuando se las introducía en infusiones orgánicas previamente calentadas, los microbios comenzaban a multiplicarse.
En otro de los experimentos, Pasteur colocó un caldo esterilizado en una serie de tubos con diferentes formas, diseñados especialmente para permitir el movimiento del aire pero impedir la circulación del polvo que acarreaba consigo los indeseados gérmenes. El líquido, como era de esperarse (o como nosotros ahora sabemos que ellos deberían haber esperado), permaneció cristalino por meses.
Socarronamente, Pasteur solía decir:
Prefiero creer que la vida proviene de la vida antes de que viene del polvo.
También pudo mostrar, mediante experiencias igualmente ingeniosas y sencillas, que las sustancias fermentables expuestas al aire permanecen estériles siempre y cuando se limpie de gérmenes el aire en suspensión.
Pouchet había sido derrotado definitivamente, pero la antigua (y ya por entonces destronada) teoría aún conservaba un postrer aliento. Faltaba la última batalla, que se libraría en 1876 y que marcaría su fin definitivo…
Ese año, H. Charlton Bastian, un patólogo inglés, publicó un grueso volumen en el que se aportaban nuevas observaciones a favor de la generación espontánea. En uno de sus experimentos, había calentado orina ácida por encima de la temperatura de ebullición (en torno a los 110°). Esta orina, cuando se la resguardaba del aire, permanecía clara y, al parecer, estéril. Sin embargo, cuando se introducía una solución de potasa, procurando que la orina siguiera resguardada del aire, al cabo de diez horas «hervía» de bacterias vivas.
Pasteur no se amilanó —la verdad, no era momento de tirar tanto esfuerzo por la borda— y logró solucionar el nuevo enigma demostrando la existencia de bacterias resistentes a temperaturas incluso superiores a los 100 grados.
Y así fue cómo Pasteur acabó de una vez por todas y para siempre con la historia ésa, e inició un nuevo camino que habría de sentar las bases para la esterilización y la antisepsia, claves de la medicina moderna.
Pero si hay algo que verdaderamente impresiona es que la doctrina echada a rodar por Aristóteles en el siglo IV a.C. sobreviviera hasta 1876: hay ideas científicas que son persistentes y se resisten a morir. Un poco como tantas ciudades modernas que conservan sus cascos históricos, o las ruinas de los asentamientos antiguos que los precedieron.

Capítulo 21
Todos los fuegos el fuego: la revolución química

Primero vino el fuego, el árbol que ardía, la floresta incendiada que aquellos hombres monos mirarían pasmados. Luego la quemadura y el grito: apenas el fuego y la piel se separaron vino el relato, la palabra dicha a viva voz o susurrada en la larga noche prehistórica.

La práctica química tiene una larga tradición en la historia humana. En cuevas prehistóricas se han encontrado pinturas que necesitaban del uso de tinturas elaboradas; la metalurgia determinó el destino de pueblos y civilizaciones; la alfarería implicaba la transformación de los materiales; la farmacopea, desde siempre, la requirió como aliada.
Pero la química propiamente dicha es una ciencia muy joven. Hasta la Revolución Científica, en general, permaneció como saber eminentemente práctico, o como saber alquímico, es decir, como un saber adornado por fórmulas espirituales e invocaciones místicas: así floreció en el Islam, atravesó mayoritariamente la Edad Media y llegó a las puertas del siglo XVIII.
Ojo: el saber alquímico no se redujo a la mera invocación de fórmulas sacramentales para convertir los metales en oro, o encontrar el elixir de larga vida; si ésa fue en muchos casos la línea principal, también estimulaba todo tipo de prácticas laterales que fueron formando un corpus que, apenas se desataron las ataduras mágicas y místicas con el triunfo de la ciencia experimental, se armó como una nueva disciplina, que, como todas, aspiró al rigor newtoniano.
Así como la revolución en la física nació de la resolución del problema del movimiento y la ley de gravitación universal, que resolvió el problema astronómico, la constitución newtoniana de la química también giró alrededor de un problema definido.
Es lo que les voy a contar en este capítulo: de qué manera la química evolucionó hasta transformarse en una ciencia newtoniana, cuando Lavoisier resolvió el problema de la combustión.
Y es que sí, como les dije, todo empezó con el fuego.

§. Historia del fuego
Tomé en hueca caña la furtiva chispa, madre del fuego; lució, maestra de toda industria, comodidad grande para los hombres; y de esta suerte pago la pena de mis delitos, puesto al raso y en prisiones.
ESQUILO, Prometeo encadenado
Hace cuatrocientos mil años se encendieron las hogueras del hombre de Pekín y desde entonces el fuego fue tan esencial para el hombre que es difícil imaginarse la civilización sin él; uno puede pensar en culturas sin rueda, sin escritura, sin arado, pero no sin fuego.
También es difícil imaginar lo que significó: nuestros antepasados prehistóricos habitaban una tierra hostil, plagada de peligros y calamidades naturales. El fuego era una de ellas: cuando un rayo o la sequía incendiaban la sabana no podían hacer otra cosa que huir y temblar. Pero resulta que un día aprendieron a llevarlo a sus cavernas y conservarlo arrimando cuidadosamente ramas secas, y de repente ese azote terrorífico se convirtió en un aliado y todo fue distinto. Permitía cocinar los alimentos, defenderse de las fieras y sentarse a su alrededor; la tribu caliente y protegida por la luz podía por primera vez compartir sus historias en un lenguaje que ni siquiera existía aún.
Que el fuego se apagara — ¡los desdibujados dioses del principio no lo permitieran!— podía significar el fin y la muerte de todos. Y otro día, alguien —nunca sabremos su nombre, si es que lo tenía, si es que existían los nombres— descubrió que golpeando dos piedras saltaba una chispa con la cual se podía encender un conjunto de hojas secas. En ese preciso momento, justo en ese instante, cambió el curso de la especie. Se terminó el temor de que el fuego se apagara; ahora el fuego era nuestro, era una herramienta, la herramienta más poderosa, la tecnología más potente que jamás se inventó. Ni los grandes cohetes que van a la Luna, ni los satélites artificiales, ni los sofisticados robots que arman los circuitos integrados para las computadoras pueden compararse al invento que surgió del golpe inteligente de dos piedras de sílex.
El fuego multiplicó los poderes y las habilidades: cerca de él el barro se endurecía, tornándose duro e impermeable; nacía la cerámica, las vasijas, capaces de almacenar y transportar el agua, el ánfora griega, los jarrones chinos, el arybalo incaico y el plato que tenemos en nuestra mesa. El fuego vence al metal: lo derrite y lo vuelve maleable; permite trabajar y dar la forma que uno quiera al cobre, el plomo, la plata y el oro. Y más tarde vendrían las aleaciones como el bronce y, luego, el hierro con su cohorte de instrumentos: el taller, el fuelle, el yunque y el martillo, de donde descienden directamente los altos hornos y el acero, que hoy esparcen sus productos por los cuatro rincones de la Tierra.
¿Cómo no creer que era un dios e identificarlo con el Sol, proveedor también de luz, calor y vida? Cuando aquellas tribus, hordas, grupos o lo que fueran, se transformaron en civilizaciones que construyeron ciudades, el fuego conservó ese valor ritual de haber marcado un comienzo que todos habían ya olvidado y fue recubierto por leyendas. Prometeo, el fuego olímpico, las fogatas de San Juan, el terror ante el incendio, el silencio ante el fogón del campamento.
Cuentan los tehuelches que Kóoch, «el que siempre existió», vivía entre neblinas oscuras en el punto en que el mar y el cielo se reúnen. Cansado de estar solo, un día comenzó a llorar sin parar, durante tanto tiempo que formó el mar llamado Arrok. Kóoch, sorprendido, detuvo sus lágrimas y suspiró, produciendo el viento por primera vez. Kóoch quiso ver su obra y, alzando la mano, creó una enorme chispa, el Sol, que iluminó todo a su alrededor. Luego llegaron las nubes y Kóoch quedó satisfecho.
Tiempo después Elal, un héroe dios, creó a los Chónek, los hombres, en El Chaltén y se transformó en su guía y protector. Elal comprendió que sus criaturas se sentían solas y desprotegidas y les dio el mejor regalo que se puede tener: les enseñó que golpeando dos piedras se pueden hacer chispas, madres del fuego. Nunca más los tehuelches temieron a la oscuridad ni a las heladas porque eran dueños del secreto del fuego.

§. Átomos de fuego
El aire, que envuelve y canta.
La tierra que germina.
El agua que fluye y lava
el pecado y la ropa.
El fuego en la muralla y en la hoguera:
cuatro elementos bastaban
para un mundo en ciernes.
Sin embargo, fue muy difícil averiguar qué es el fuego. De pronto parece una cosa viva: se mueve, se propaga, nace y se extingue. A veces, es maléfico, quema la piel y se lleva la vida; a veces es benefactor, sirve en la paz y en la guerra es un arma temible. Cambia de color: si acercamos un poco de sal al fuego de la cocina, la llama se vuelve amarilla. El carbón es difícil de encender, una hoja de papel se quema con mucha rapidez, la pólvora se enciende con un fogonazo. Para que vuele una gran roca, es necesaria la dinamita. Para que un automóvil o un avión puedan moverse hacen falta una serie de pequeñas explosiones de gasolina.
¿Hay algo en común entre esos fuegos? ¿Por qué algunas cosas se encienden y otras no? ¿Por qué se contagia? ¿Qué ocurre cuando algo se quema? ¿El fuego es algo que sale de adentro de la materia que arde?
El fuego transforma las cosas: endurece la arcilla, funde los metales, convierte la madera en cenizas y un pastizal en humo, quema la piel y consume casi por completo un trozo de carbón. ¿Cómo puede ser? No es nada fácil responder. Pero era fatal que una vez que se hubo aprendido a dominarlo, se avanzara paso a paso hasta saber qué era.
No es sorprendente que cuando los filósofos griegos decidieron comprender qué es el mundo sin recurrir a los dioses, eligieran al fuego como uno de sus componentes fundamentales. Recordarán que nuestros viejos amigos Empédocles y Aristóteles (universal y omnipresente como siempre en todas las cosas que tienen que ver con esta humana costumbre de hacer ciencia) inventaron la teoría de los cuatro elementos, cuatro sustancias, que formaban todas las demás, y el fuego fue una de ellas: las otras tres eran el aire, el agua y la tierra.
En cualquier filosofía que partiera de la existencia de los cuatro elementos, el fuego era una sustancia, un ente material. Sin embargo, era un ente material en cierto modo diferente de los otros: la tierra y el agua se pueden palpar; el aire puede respirarse y encerrarse en una vasija, pero el fuego, en cierta forma, es inasible; por alguna razón misteriosa, no se puede tener «fuego solo», si bien los pitagóricos, por su parte, pensaban que la Tierra, el Sol, la Luna y todos los planetas giraban alrededor de un gran fuego central que ocupaba el centro del universo.
La teoría de los cuatro elementos se combinó con las de quienes opinaban que todo estaba formado por partículas indivisibles, los átomos, y así se estableció que había cuatro tipos de átomos y entre ellos, naturalmente, átomos de fuego. Al quemarse, la materia cedía los átomos de fuego encerrados en ella y formaba la llama. Y si no estaba formada por ese tipo de átomos, la materia no ardía.
Ya no era un dios, sino un ente material como los demás, una de las sustancias básicas del mundo, que además tenía la rara propiedad de descomponer la materia en sus elementos más simples y básicos, como cuando arde la madera y se separan el humo y las cenizas. Toda una idea.
La alquimia medieval no modificó las cosas: heredó la teoría antigua sobre el fuego y los alquimistas estrujaron la materia para obtener átomos de fuego, combinarlos con átomos de tierra y producir oro: era la piedra filosofal, que buscaron con ahínco, encerrados en la bruma de sus laboratorios. Pero ellos mezclaban la experimentación con la especulación filosófica y religiosa, los rituales mágicos, las creencias astrológicas que asociaban los planetas con los metales y las doctrinas esotéricas reveladas por Hermes Trismegisto, que muchos años más tarde guiaría en Macondo la afanosa búsqueda de José Arcadio Buendía. O se aferraban a creencias espiritualistas, según las cuales la materia estaba de alguna manera viva y respondería al contacto de la piedra filosofal dando el oro, lo mejor de sí.
No consiguieron nada, claro está, y nada concreto quedó de aquellas aspiraciones de la alquimia. Pero a partir del Renacimiento, los alquimistas que buscaban la piedra filosofal y el elixir de larga vida se transformaron lentamente en químicos constructores de moléculas, cazadores de sustancias y fundadores de poderosas industrias.
Ya hablamos de uno de estos personajes intermedios, medio científicos, medio magos: Paracelso, del que les conté que hay quienes dicen que era solamente extravagante pero genial, que muchos lo consideran, algo exageradamente, como uno de los iniciadores de la medicina y la química modernas, pero que para mí simplemente no estaba en sus cabales. Paracelso, que aún tenía un pie, o uno y medio, o los dos en el pensamiento pre científico, tenía serias dudas sobre los cuatro elementos, los dejó «por el momento» de lado (no se animó a abandonarlos completamente, ya que la autoridad de Aristóteles era demasiado grande) y los reemplazó por tres «principios» tomados de la alquimia árabe: azufre, mercurio y sal, que según él entraban en la formación de todas las sustancias y eran portadores de sus propiedades. Desde ya, también tuvo su teoría del fuego y la combustión: lo que arde es el azufre, lo que se volatiliza y escapa en el humo es el mercurio y lo que queda como residuo es la sal. La nueva idea marcaría una época.
Otro personaje que intervino en el asunto fue Van Helmont, de quien ya hablamos en el capítulo anterior, que tampoco creía mucho en los cuatro elementos. Bueno, en realidad, creía en uno solo de ellos: el agua y, en consecuencia, negó materialidad al fuego, aunque desde ya apoyaba la antigua convicción de que el fuego separaba la materia compuesta en elementos simples. Este caballero tuvo sus cosas: inventó la palabra «gas», tomándola, según algunos, del griego chaos, y según otros, por su semejanza fonética con la palabra alemana geist (espíritu). Además, aunque no fue el primero en reconocer la multiplicidad de las sustancias gaseosas, sí fue el primero en describir diferentes gases (empezando por el dióxido de carbono) de forma clara (aunque, curiosamente, creía que era imposible encerrarlos en recipientes):
Los gases son tan diferentes entre sí como los cuerpos de los que provienen.
Y creyó que existía un disolvente universal, llamado alcahesto, capaz de conseguir que cualquier sustancia volviera al agua original. En cuanto a la llama, aseguraba que no era otra cosa que un gas incandescente, un vapor encendido, un gas al rojo vivo, de la misma manera que el hierro se pone al rojo vivo si se calienta mucho y que el fuego era un agente, un mero accidente de la materia. Aquí había una idea interesante, algo nuevo.
Pero ya estaba en funciones la Revolución Científica. Y eso era más nuevo todavía.

§. El fuego resiste a la Revolución Científica
La Revolución Científica dio vuelta todo: el universo múltiple de los magos, el universo irreparable de los metafísicos, el universo teologal de los medievales y el universo cerrado de Aristóteles saltaron en pedazos y la inmensa y multiforme maquinaria de los antiguos y los medievales fue reducida a ruinas no siempre gloriosas. El mundo se transformó en un gigantesco mecanismo gobernado por leyes simples y sometido al método experimental.
Pero además, la Revolución Científica fue también una revolución conceptual, un cambio de actitud que partía de una sencilla convicción: ese mecanismo se podía comprender. No era cuestión de sentarse y esperar a que se manifestara o revelara, sino que había que ir hacia él, experimentar con él, mirar con precisión lo que ocurría, reproducirlo en el laboratorio.
La materia y el misterio de la combustión, sin embargo, resistían. En medio de la avalancha de transformaciones y descubrimientos, en pleno siglo XVII, Robert Boyle (1627-1691), a quien muchos consideran el padre de la química moderna, revisó cuidadosamente todos los conceptos químicos, entonces bastante nebulosos (su libro The Skeptical Chemist se considera, con justicia, fundacional) y rechazó aquellas ideas que fueran confusas, al mejor estilo cartesiano.
Los químicos, hasta ahora, se han dejado guiar por principios estrechos sin alcance superior alguno. Yo trato de partir de un punto de vista completamente distinto, pues considero la química no como lo haría un médico, o un alquimista, sino como debe hacerlo un filósofo.
Se debían eliminar todos los términos y conceptos que no estuvieran claramente definidos, y no debía aceptarse ninguna teoría que no estuviera avalada por pruebas experimentales, «únicas de las que se puede esperar el progreso de una verdadera ciencia».
Desde ya, descreyó de los cuatro elementos, arguyendo que no había ninguna prueba de que lo fueran y de los tres principios de Paracelso:
Me gustaría saber cómo se llegaría a descomponer el oro en azufre, en mercurio y sal. Yo me haría cargo del costo de la operación.
Aunque Boyle era un hombre rico, nadie aceptó el desafío. Y ya que de dudar se trataba, dudó también de la milenaria convicción de que el fuego descomponía la materia en sustancias simples:
Creer que el fuego reduce los cuerpos a sus ingredientes elementales es desconocer el hecho experimental de que la combustión da origen a productos nuevos, que en su mayoría son de naturaleza compuesta.
Boyle tenía una nueva e interesante herramienta para investigar la naturaleza del fuego: la bomba de vacío, de reciente invención, y con ella comprobó que en el vacío las cosas (aun un cuerpo tan inflamable como el azufre) no ardían, y por lo tanto subrayó la importancia del aire para la combustión.
En realidad, la importancia del aire era un hecho conocido ya por los alquimistas y que en cierto modo intuye cualquiera que sopla para avivar la brasa de un fogón, el herrero armonioso que se apura con el fuelle porque está pasando el señor Georg Friedrich Haendel o el espectador impotente que ve cómo el viento extiende el incendio incontrolable de un bosque. Pero la bomba de vacío corroboró de manera irrefutable que, sin aire, no había fuego.
Era una pista importante, aunque Boyle no la siguió hasta el final. Fue demasiado cauto en relación con el fuego, y aunque descreyó de que fuera un elemento, e incluso de su carácter material, también habló de «partículas de fuego».
Las investigaciones de Boyle y de su continuador, el gran Robert Hooke, insinuaban una línea que se aproximaba al secreto del fuego y a la construcción de una química de tipo newtoniano, acorde con los tiempos que corrían, pero no prosperó, porque de repente apareció una explicación, una teoría general que parecía resolver el problema de la combustión de una vez por todas.

§. La doctrina del flogisto
Cuando el buen señor Johann Joachim Becher (1635-1682) publicó en 1669 su Physica subterranea, no sospechó que estaba preparando el terreno para una teoría de alcance universal. No creía en los cuatro elementos aristotélicos, que estaban de capa caída, pero sí en dos de ellos: el agua y la «tierra», o mejor dicho tres tipos de tierra; una de ellas, la «tierra combustible», se liberaba en la combustión en forma de gas a través del fuego y dejaba atrás las cenizas (o una cal en el caso de los metales). Respecto del fuego, Becher seguía la línea de Van Helmont: el fuego era el agente universal de las transformaciones, que descomponía materiales complejos en compuestos simples que lógicamente (como las cenizas) resultarían incombustibles, ya que no les quedaba tierra combustible que quemar.
No hacía falta ser un genio para darse cuenta de que las tres tierras de Becher eran apenas una especie de disfraz casi explícito de los tres principios de Paracelso. Pero resultó que uno de los discípulos de Becher, Georg Ernest Stahl, aquel vitalista acérrimo del que hablamos en el capítulo 18, tomó las ideas de su maestro y las transformó en una teoría general de la combustión y en el espinazo de la química de aquel entonces. A la tierra que Becher había llamado «combustible», la llamó «flogisto» (del griego, que significa «quemado» o «llama») y le asignó el supremo y noble propósito de ser el eje, la clave, el agente y el sostén de la combustión. Y mucho más.
El flogisto era un «principio», una sustancia a medio camino entre la materialidad y la metafísica, pero que aseguraba el funcionamiento químico del mundo. La combustión, según Stahl, era simple: quemarse era simplemente dejar escapar el flogisto oculto en el cuerpo que se quemaba y que como un humo invisible se mezclaba con el aire. Todos los cuerpos capaces de arder contienen flogisto y lo entregan al quemarse. En el momento de la combustión, el flogisto rompe su unión con los cuerpos y se escapa; la pérdida de flogisto explica el cambio de propiedades de los cuerpos quemados: la madera, al perder su flogisto, produce carbón. Indudablemente, era una idea simple y atractiva.
La verdad es que este flogisto del amigo Stahl era medio raro: ni líquido, ni sólido ni gaseoso, era invisible, estaba oculto y en principio no podía ser aislado porque siempre estaba combinado; en cierta forma se parecía al alcahesto, aquel disolvente universal que había imaginado Van Helmont, capaz de lograr que cualquiera de las sustancias volviera al agua original y que, obviamente, no podía ser retenido en ningún recipiente. El flogisto tenía un olorcito metafísico que no pegaba del todo con su carácter material.
Pero, raro o no, el flogisto explicaba casi todos los hechos conocidos entonces sobre la combustión. Quemarse era perder flogisto. La combustión obviamente terminaba al agotarse el flogisto del combustible. La importancia del aire en el asunto se debía a que el aire ponía en movimiento las partículas de flogisto y, dado que ese movimiento es bastante rápido, el flogisto se desprendía. En una campana cerrada de vidrio, la llama se apagaba después de un tiempo, porque un volumen determinado de aire podía absorber una cierta cantidad de flogisto y no más y cuando el aire se saturaba de flogisto (se flogistizaba), la combustión cesaba. Y respecto del vacío, obviamente nada podía arder, ya que… ¿a quién podría entregarle su flogisto?
Además, Stahl dixit, había un ciclo del flogisto en la naturaleza: era atraído por el aire atmosférico y luego era reabsorbido por las plantas, como lo probaban las propiedades combustibles de la madera. Al quemarse ésta, devuelve su flogisto, que pasa nuevamente al aire. El ciclo del flogisto era el lazo principal entre los tres reinos naturales.
A mediados del siglo XVIII, la doctrina del flogisto, que no implicaba grandes rupturas ni con la física aristotélica ni con las teorías en boga de la materia, era ampliamente aceptada y el misterio de la combustión parecía resuelto. El mismísimo Kant la alabó en su Crítica de la Razón Pura como «una de las grandes conquistas del espíritu humano». No era una teoría aislada, una explicación particular de un fenómeno particular: era un sistema completo alrededor del cual se organizó la química, flogistizada de arriba abajo.
Una consecuencia inesperada —en realidad un «daño colateral»— fue la resurrección de la ya obsoleta teoría de los cuatro elementos de Aristóteles. La química del flogisto, tal como la inició Stahl, era atomística, pero los átomos eran incognoscibles y sólo se manifestaban en las propiedades que conferían a las mezclas, mientras que el nivel esencial de las interpretaciones químicas seguía dado por los cuatro elementos aristotélicos.
Se reconocerá sin duda con asombro que actualmente admitimos como principios de todos los compuestos los cuatro elementos: el fuego, el agua, el aire y la tierra, que Aristóteles había designado como tales mucho antes de que se tuvieran los conocimientos químicos necesarios para comprobar la verdad de esta afirmación. En efecto, sea cual fuere la forma en que descompongamos los cuerpos, siempre obtenemos estas sustancias; constituyen el colofón del análisis químico,
se aseguraba bajo la entrada «Principios», en el diccionario de química de Pierre Joseph Maquer publicado ¡en 1766!
Las cosas, sin embargo, seguían su curso y la química, aunque flogistizada, dio sus grandes investigadores: Black, Scheele, Cavendish. Y Priestley.
Henry Cavendish (1731-1810), que fue uno de los grandes químicos del siglo XVIII, era un tipo extravagante: aristócrata, padecía una misantropía tan severa que sus sirvientes apenas lo veían para servirle la comida. Un compañero de la Royal Society de Londres (el único lugar en el que se codeaba con otra gente desde la precoz edad de 21 años) decía que le había escuchado decir menos palabras en su vida que a cualquier otra persona, «sin excluir a los monjes de La Trapa», que son monjes que hacen voto de silencio.
Cavendish aisló cantidades enormes de nuevas sustancias, trabajó en electricidad y magnetismo y fue el primero, mediante un ingenioso experimento de muchísima precisión, en medir la fuerza de gravedad en un laboratorio.
El asunto es que, hurgueteando y experimentando, se topó con un gas que provenía de la reacción entre ácidos y metales, mucho menos denso que el aire, que ardía si se le aplicaba una llama: supuso que este «aire inflamable» —era el hidrógeno— provenía de los metales, y pensó que había logrado aislar el escurridizo flogisto (aunque el flogisto no se podía aislar, porque hubiera sido como aislar la libertad o la justicia en un tubo de ensayo).
Luego hizo arder una mezcla de aire y «aire inflamable» en un recipiente y observó que se acumulaba humedad en las paredes… La conclusión fue conmovedora: ¡había obtenido la síntesis del agua como una mezcla de dos gases! ¡El agua no era un elemento en sí mismo, sino que era un compuesto de dos gases! ¡Se derribaba estrepitosamente el enorme edificio teórico que se había construido sobre los cuatro elementos aristotélicos! Si el agua estaba compuesta de dos gases diferentes, los elementos podían ser muchos más.
Naturalmente, Cavendish no dudó del flogisto, y explicó su hallazgo del agua en términos flogísticos, como un político que esgrime una teoría obsoleta y se resiste a cambiar: llegó a la conclusión de que el agua debía ser un compuesto de aire puro y flogisto. En realidad, Cavendish creía que el hidrógeno era flogisto puro.

§. Priestley encuentra un nuevo y sorprendente gas
Joseph Priestley (1733-1804) era, como Cavendish, inglés, librepensador en cuestiones de religión y ortodoxo en química, flogicista a muerte, sacerdote y uno de los mayores cazadores de sustancias, en especial gases, de todo el siglo XVIII.
En 1767, vivía al lado de una fábrica de cerveza y comenzó a interesarse en el fenómeno de la efervescencia que producía el llamado «aire fijo» (dióxido de carbono), un gas descubierto y aislado por Black. Experimentando incansablemente con él, descubrió un montón de gases más, que pudo describir para su mayor gloria y honor. Pero fue el 1° de agosto de 1774 cuando alcanzó la inmortalidad (y algo más).
Con una lupa que concentraba los rayos del Sol, calentó un poco de óxido de mercurio dentro de una campana de vidrio herméticamente cerrada y al abrirla encontró un «aire», un gas sin olor. Cuando introdujo una vela encendida en ese «aire» notó que la llama se avivaba. Evidentemente había obtenido un gas nuevo (el mismo que, aunque él no lo supiera, había aislado Scheele).
Era obvio que si ese nuevo gas hacía arder muy bien una vela o permitía vivir a un ratón, estaba «ansioso» por tomar el flogisto (como un papel por absorber el agua), mucho más ansioso que el aire común, como si careciera por completo de flogisto. Esto es, estaba deflogisticado, y así lo llamó: «aire deflogisticado». Priestley estaba orgulloso de su descubrimiento; después de respirar «su» aire deflogisticado, contaba:
Mi pecho se sintió particularmente ligero por un tiempo… quién sabrá, pero, en un tiempo este aire puede transformarse en un lujoso artículo de moda. Hasta este momento sólo dos ratones y yo hemos tenido el privilegio de respirarlo.
Priestley era un verdadero militante, casi un guerrillero del flogisto, que en ese entonces imperaba sin opositores, por lo menos visibles, y no era para extrañarse. A nadie se le había ocurrido ninguna otra teoría que explicara tantas cosas; el flogisto ponía en contacto los tres reinos naturales y revelaba el ciclo de nacimiento y muerte de la naturaleza; no era solamente el agente de la combustión y el fuego, el que había transformado al hombre prehistórico en el hombre poderoso del siglo dieciocho, sino que era el portador de las principales cualidades químicas: una sal combinada con el flogisto, daba un álcali; un ácido universal con el flogisto, daba un ácido nítrico. Era, como la luz, el magnetismo o la electricidad, uno de los agentes imponderables y esenciales del mundo. La civilización entera estaba sostenida por andamiajes de flogisto. Todo encajaba: ¿cómo no iba a reinar sin cuestionamientos? Y además, el flogisto develaba el misterio del fuego y la combustión: era lo que todos estaban esperando desde el momento en que por primera vez el metal se fundió para fabricar una espada o un arado.

§. Un punto débil: el enigma de la calcinación de los metales
Sin embargo, la gran síntesis del flogisto, la coronación de la química que había instaurado Stahl, que había develado los misterios del fuego y que había producido su mejor joya en el aire deflogisticado de Priestley, en el que cualquiera podía respirar de manera exquisita, tenía algunos puntos flojos y uno de los más serios era el problema de la calcinación de los metales. A muy altas temperaturas, un metal también se quema y deja como residuo una cal, cambiando naturalmente su aspecto. Hasta ahí no había nada raro, ya que era obvio que si el metal perdía su flogisto, sus propiedades se tenían que alterar. Pero lo que sí resultaba más que raro, rarísimo, era que, después de perder su flogisto, los metales aumentaran de peso.
¿Cómo era posible?
Esta historia de la calcinación de los metales y el aumento de peso era conocida desde hacía mucho tiempo. Lo habían informado algunos alquimistas, e incluso se había intentado explicarlo, ya que contradecía la antiquísima idea de que el fuego descomponía la materia. Según algunos, los átomos de fuego se fijaban sobre el metal al quemarse y para otros el fuego arrancaba las partículas más livianas del metal y así lo tornaba más pesado (no hay que olvidarse de que el aristotelismo diferenciaba pesadez y liviandad, y así los átomos de fuego eran como globos más livianos que el aire enquistados en la materia que, cuando se soltaban y subían, la hacían más pesada).
Desde ya, el misterio no escapó a la minuciosa atención de Boyle, que estudió el fenómeno con la meticulosidad de siempre: calcinó estaño en un recipiente cerrado; pesó el estaño antes y después de quemarse y lo mismo con el recipiente. Al abrir el recipiente, oyó al aire entrar precipitadamente.
Si Boyle hubiera podido leer este libro, seguramente habría prestado más atención a ese sonido. Pero faltaba mucho para que este libro se publicara y el hecho se le escapó. Y es que la ciencia funciona así: un pequeño descuido, o la imprudencia de no leer el libro adecuado, impide un gran descubrimiento que los científicos tienen delante de sus narices. Tampoco se le ocurrió a Boyle pesar el recipiente con el estaño adentro antes y después de la calcinación y supuso que el aumento de peso era debido a una sustancia que el metal sacaba del fuego y que había atravesado las paredes de la retorta.
Robert Hooke, que fue su ayudante, interpretó la combustión de manera diferente: supuso que en el aire había algo, una sustancia que poseía la propiedad de disolver todos los cuerpos combustibles si eran calentados suficientemente y, por lo tanto, el fuego era un mero fenómeno accidental.
Hubo un químico, John Mayow (1645-1679) que fue más allá: demostró que no es el aire sino un constituyente del aire el que alimenta la combustión, al que llamó «espíritu nitroaéreo». Mezclado con nitro (nitrato de potasio), observó, un cuerpo se quema en el vacío y el «espíritu del nitro» sirve de alimento al fuego. Para que un cuerpo pueda arder, decía, no alcanza con que tenga partículas combustibles, sino que hace falta que éstas entren en contacto con el espíritu nitro-aéreo que existe en el aire.
Mirado desde la teoría del flogisto, el aumento de peso era problemático: aseguraba que, al quemarse, los metales se separan en sus elementos más simples: cal y flogisto. ¿Pero cómo podía ser que los metales al perder flogisto ganaran peso? Stahl supuso que la pérdida del flogisto dejaba «huecos» en la materia que el aire comprimía y así todo se volvía más pesado… El argumento era verdaderamente flojo: confundía peso y densidad, ya que si el aire comprime, la materia se vuelve más densa, pero no más pesada.
Algunos seguidores de Stahl, como suele suceder, fueron más allá de su maestro y propusieron una solución arriesgada, arriesgadísima: ya que las teorías de Aristóteles y el asunto de los cuatro elementos estaban otra vez en boga (¡en pleno siglo XVIII!), concluyeron que el flogisto tenía en su naturaleza ir hacia arriba (como el fuego del que era parte) y por lo tanto le quitaba peso al objeto que era su lastre. Esto es… ¡el flogisto tenía peso negativo!
Era una explicación un tanto descabellada, pero la verdad es que los flogicistas no estaban muy alarmados por la cuestión de los metales, ni el problema les quitaba el sueño: suponían que en algún momento se encontraría la explicación, del mismo modo que los copernicanos imaginaban que tarde o temprano se arreglarían las dificultades físicas del sistema heliocéntrico.
Otro problema del flogisto era su inmaterialidad, su carácter casi metafísico. ¿Pero acaso no lo eran la luz, el magnetismo o la electricidad (que ya estaban dando vueltas en el aire de la época)… y hasta la propia fuerza de gravitación? Ya se resolvería.
Pero en realidad el mayor problema, el problema fundamental que debía afrontar el flogisto, era que no existía.
El que enfrentó decididamente al flogisto y lo derrotó fue Antoine Laurent Lavoisier (1743-1794), que lo envió adondequiera que van a parar las sustancias que no existen.

§. Lavoisier decide revolucionar la química
Nada se crea ni en las operaciones del arte, ni de la naturaleza, y se puede elevar a la categoría de principio que en todo proceso hay una cantidad igual de materia antes y después del mismo… Sobre este postulado se funda todo el arte de hacer experiencias en química.
LAVOISIER, Tratado de química, 1789
El padre de Antoine Laurent Lavoisier, un rico abogado preocupado por la educación de su hijo, lo envió a un excelente colegio donde estudió matemáticas, astronomía, química y botánica, se empapó de una ideología razonablemente liberal y se convirtió en un verdadero intelectual del Siglo de las Luces, un caballero de buena posición y con la ideología de la Ilustración a flor de piel, lo cual lo llevó a apoyar la Revolución Francesa, por lo menos en sus inicios. A los 22 años, con un ensayo sobre la mejor manera de iluminar las calles de París, recibió una medalla de oro de la Académie des sciences y a los 25 lo aceptaron como miembro gracias a un trabajo sobre el análisis de la pureza del agua de París.
Pero lo importante del experimento no era, en realidad, la pureza del agua. Resulta que desde hacía siglos los alquimistas y luego los químicos (incluyendo al propio Boyle) habían comprobado que si se calentaba agua largo tiempo en un recipiente hasta que se evaporaba del todo, era posible juntar un fondo terroso, lo que mostraba que el agua se podía transformar, por lo menos en parte, en tierra.
Lavoisier realizó la prueba pesando con precisión el agua, la tierra que quedaba y —genial— el recipiente en el que se hacía el proceso. Tras calentar todo durante varias horas comprobó que el peso de la «tierra» que había quedado luego de que el agua se hubiera evaporado ¡era exactamente igual que el que había perdido el recipiente! Es decir que la supuesta «tierra» no provenía del agua sino del recipiente. Conclusión: el agua no se transforma en tierra.
En realidad, había logrado algo mucho más importante que destruir una creencia milenaria (que ese mismo año había destruido también Scheele); el experimento daba un golpe formidable a la hipótesis de la transmutación, pero, quizás más importante aún, daba un paso decisivo hacia el principio general, el eje sobre el que armaría todo su sistema y revolucionaría la química, dándole un carácter newtoniano: el principio de conservación de la materia. Tomó el concepto newtoniano de masa que el gran Isaac había definido, un tanto confusamente, como «cantidad de materia», la midió por su peso y estableció que nada podía surgir de la nada:
La materia puede cambiar de forma, pero el peso total de la materia implicada en una reacción química sigue siendo el mismo.
Esto es: las cosas se transforman pero no desaparecen ni aparecen de la nada; la materia, aquello que tiene masa y por ende peso, no podía crearse ex nihilo, sólo podía provenir de transformaciones de la materia misma, y de ahí en adelante, las cosas girarían alrededor de la balanza. No es que la balanza no se hubiera usado antes; tanto Boyle como Van Helmont se habían valido de ellas y lo mismo Black, Scheele y casi obsesivamente Cavendish. La habían usado, sí, pero no habían hecho de ella y, por ende, de la masa y de su conservación, el principio fundamental de su sistema. Pero ahora Lavoisier clavaba el pivote sobre el cual levantaría su edificio, el concepto de masa invariante, medida por su peso, una idea y una metodología absolutamente newtonianas.
El mismo año del experimento de la balanza, ¡ay!, compró acciones en la Ferme Générale, una compañía privada responsable de cobrar los impuestos al tabaco, con las grandes ganancias que parecen acompañar durante todas las épocas a las empresas privadas que se hacen cargo de los servicios públicos.
Las acciones (que más tarde le costarían la cabeza, literalmente, tras la Revolución, ya que la empresa era un símbolo del abuso del poder y se había ganado el odio de buena parte de la sociedad) le permitieron vivir de rentas, comprar los mejores dispositivos para experimentación disponibles en su tiempo y montar un laboratorio que fue famoso y visitado por los químicos de toda Europa. Se casó con Marie-Anne Paulze (de sólo 14 años), quien fue su mejor ayudante a lo largo de su vida (y que después de su muerte se volvió a casar con otro científico, el excéntrico Conde Rumford, con quien vivió una especie de telenovela mexicana avant la lettre).
Lavoisier tenía algo del espíritu meticuloso y obsesivo de Tycho Brahe; así como el gran astrónomo danés se había puesto a revisar las observaciones tradicionales con su astronomía de precisión, desde 1773 Lavoisier se dedicó a repetir los experimentos químicos tradicionales en forma estricta, para determinar cuánto de los resultados que se habían obtenido anteriormente se debían simplemente a errores en las mediciones o en los procedimientos. Pero, además, era muy consciente de lo que hacía y de lo que quería: resolver el problema de la combustión y producir una revolución en la química. El 20 de febrero de 1773, fecha histórica, lo asentó explícitamente en su diario:
La importancia del fin propuesto me ha animado a emprender todo este trabajo que parece destinado a producir una revolución en la química.

§. Se resuelve el problema de la combustión
El flogisto es un deus ex machina de los metafísicos; un ente que aparentemente todo explica y que en realidad no explica nada.
LAVOISIER
A Lavoisier no podía gustarle el flogisto. Una sustancia imposible de aislar, que al abandonar los cuerpos les agregaba peso y que por lo tanto era pasible de tener peso negativo (como sostenía el químico Guyton de Morveau), no encajaba con su concepto de la masa como aquello que tiene peso. El «peso negativo del flogisto», desde ese punto de vista, era un disparate, y si los metales aumentaban de peso, algo se les debía agregar al ser calcinados.
Lavoisier no era un intuitivo como Kepler, ni alguien que borra sus huellas y muestra sólo los resultados, como Newton; por el contrario, avanzó paso a paso: para empezar, comprobó que no sólo los metales aumentaban de peso al quemarse, sino también el azufre y el fósforo. También repitió el experimento que un siglo antes había hecho Boyle. Calentó un trozo de estaño en un balón herméticamente cerrado, pero esta vez, sí, pesó cuidadosamente el conjunto antes y después de la calcinación. El peso no varió y, por lo tanto, concluyó, nada había entrado atravesando las paredes de la retorta, como había creído Boyle.
Al abrir el balón el aire entró y, ahora sí, aumentó el peso del conjunto. Lavoisier se convenció de que el aumento de peso experimentado se debía a que el metal había tomado cierta cantidad de aire para transformarse en cal y no que liberaba flogisto; era una idea que ya lo rondaba desde hacía un par de años.
Y es que así como Kepler había roto con la obsesión circular, Lavoisier estaba rompiendo de una vez por todas con la idea tradicional enquistada desde los orígenes, la que había sido formulada por Aristóteles y aceptada por los alquimistas, la que hasta el gran Boyle había terminado por suscribir, la que había impedido comprender el fenómeno de la combustión: esto es, que la combustión era algo que provenía de adentro del cuerpo que se quemaba. Lavoisier encaró el problema de una manera opuesta: el principio de la combustión estaba fuera del cuerpo combustible, que no liberaba ni átomos de fuego, ni tierra combustible, ni flogisto ni nada.
En realidad absorbía algo. Algo que estaba en el aire, o que era una parte del aire. Lavoisier no estaba seguro. Primero pensó que era el «aire fijo» de Black, sin poder demostrarlo. Y entonces, en octubre de 1774 recibió una visita en París.
Era, ni más ni menos que John Priestley, el gran químico inglés del flogisto, que le habló entusiastamente de su «aire deflogisticado en el cual una llama arde mucho mejor que en el aire común». Un gas que avivaba la llama, un gas que la alimentaba… era justamente lo que Lavoisier estaba esperando y no es raro que intuyera inmediatamente que era ése el componente del aire con el que se combinaban los metales durante la combustión.
Naturalmente, primero corroboró el descubrimiento de Priestley y luego comprobó que, tras el proceso de calcinación, en la retorta ya no había más «aire deflogisticado», que había sido absorbido por el metal durante la combustión y que sólo quedaba un «aire fétido» (que llamó ázoe y que hoy llamamos nitrógeno), incapaz de mantener la combustión.
El principio que se une a los metales durante la calcinación, que aumenta su peso y que es parte constituyente de la cal, es nada menos que la parte más saludable y pura del aire, que luego de combinarse con un metal, puede liberarse de nuevo con posterioridad,
escribió en 1778. Había que buscar un nombre para esta nueva sustancia, un nombre que reemplazara al de «aire deflogisticado» y que no contuviera resabios del flogisto.
Y Lavoisier eligió una palabra que proviene del griego y significa «hacedor de ácidos»: oxígeno.
La verdad es que en eso se equivocó, porque puede haber ácidos independientemente del oxígeno, pero no tiene demasiada importancia. El misterio de la combustión estaba resuelto y de ahí en adelante para el flogisto fue el comienzo del fin: exhalaba sus últimas bocanadas. No le quedaba oxígeno, si es que tal cosa hubiera sido posible.

§. El flogisto se defiende
El flogisto luchó por su vida con tenacidad tolemaica. Del mismo modo que las esferas cristalinas habían resistido un tiempo los golpes de Tycho Brahe, del mismo modo que los torbellinos de Descartes trataron de aguantar los embates de la teoría de la gravitación, el flogisto no se resignaba a su propia inexistencia.
Lavoisier abrió el fuego: en 1786 publicó un artículo llamado «Reflexiones sobre el flogisto» en el que declaraba la guerra:
Si todo se explica en química de una forma satisfactoria sin recurrir al flogisto, basta para que sea infinitamente probable que este principio no exista; que sea un ente hipotético, una suposición gratuita: y, en efecto, es un principio de buena lógica el no multiplicar los entes sin necesidad. Quizás hubiera podido atenerme a estas pruebas negativas y contentarme con haber probado que los fenómenos se explican mejor sin flogisto que con flogisto, pero ya es hora de que me manifieste de un modo más preciso y más formal sobre una opinión que considero como un error funesto para la química y que creo que ha retardado considerablemente su progreso por la mala manera de filosofar que introdujo en ella.
Evidentemente, había aprendido mucho de Ockham pero también de Newton: buscaba un puñado de reglas simples y coherentes que explicaran al mundo basándose en axiomas mecanicistas y pusieran los rieles para la ciencia moderna, que avanzaba como un torrente.
Por eso, a pesar de la oposición de titanes de la química como Priestley o Cavendish, cada vez más científicos abandonaron al flogisto, cuyos seguidores desaparecieron poco a poco, aunque se mantuvieron, hasta comienzos del XIX, focos de resistencia tenaz, sobre todo en Alemania. El mismísimo Lamarck, que más tarde elaboraría la primera teoría coherente de la evolución, fue un gran defensor del flogisto.
Un punto a favor de Lavoisier era la claridad de sus explicaciones, basadas fundamentalmente en el principio de conservación de la materia y en fórmulas relativamente simples. Pero lo más probable es que los argumentos de poco sirvieran para convencer. Porque, como decía el físico Max Planck, «una teoría científica nueva no triunfa convenciendo a sus adversarios y haciéndoles ver la luz, sino más bien porque sus opositores finalmente acaban muriéndose».

§. El fin de Lavoisier y el flogisto
Es tiempo de conducir a la química a una rigurosa manera de razonar.
LAVOISIER
El fin del flogisto señaló el comienzo de la química moderna en serio y su constitución como ciencia newtoniana. Lavoisier no se conformó con haber develado el secreto de la combustión: reformó completamente la nomenclatura química, que adquirió el aspecto actual, y en 1789 su Traité élémentaire de chimie fue la culminación de su obra. Al comenzar la Revolución, participó en la comisión convocada en 1790 que establecería el sistema métrico decimal. Pero su pertenencia a la odiada Ferme Générale, que fue abolida en 1791, lo hizo sospechoso y tuvo que abandonar todos sus trabajos para el Estado.
Cuando comenzó el Terror, en 1793, se cerró la Academia de Ciencias y a finales de ese año un edicto ordenó la detención de todos los fermiers. El 8 de mayo de 1794 lo guillotinaron junto a sus colegas en la Place de la Révolution, la actual Place de la Concorde. Su cadáver fue arrojado a una fosa común.
Es famosa la frase que (dicen) pronunció Laplace: «Llevó unos segundos cortar esa cabeza y harán falta cien años para producir otra así».
Hace cuatrocientos mil años se habían encendido las hogueras del hombre de Pekín, iniciando una nueva época y planteando el misterio del fuego y la combustión. Ahora, el fuego y la fortaleza de la química habían caído en manos de la ciencia newtoniana.

Capítulo 22
El tiempo profundo

Durante el siglo XVIII, el fluir de las ideas científicas se orientó a cumplir el ambicioso programa de la Revolución Científica, y se constituyó en el principio organizador del pensamiento de la Ilustración, que se proponía sistematizar y establecer una visión científica del mundo que permitiera reformar (y reconstruir) la sociedad de acuerdo con principios racionales y cuya gran manifestación política fue la Revolución Francesa de 1789.
La noción de razón fue considerada el principio general de la naturaleza; los iluministas veían al mundo como un gran mecanismo racional, gobernado por leyes y principios impersonales cuyo funcionamiento podía ser develado por medio de la filosofía mecánica y la ciencia experimental, y cuya enorme variedad podía sistematizarse a partir de la observación inteligente.
Fue durante este siglo cuando las diferentes disciplinas empezaron a adquirir un perfil propio, limando sus límites y diferenciándose y quedaron listas para su constitución definitiva y el enorme impulso que recibirían durante el siglo siguiente.
El esfuerzo de sistematización y generalización de la ciencia está bien representado por la publicación de la celebérrima Enciclopedia, o Diccionario razonado de la ciencia, de las artes y los oficios, dirigida por Denis Diderot (cuyos tomos fueron apareciendo entre 1751 y 1772), donde se pretendía reunir una Summa de todo el conocimiento humano acumulado hasta entonces, y cuyo prólogo, escrito por D’Alembert, proclamaba que las ideas de Bacon, a quien se presentaba como el promotor de todo el progreso científico (lo cual era, por supuesto, un tanto exagerado), se estaban cumpliendo.
A todo esto hay que sumar, obviamente, la idea misma de progreso científico (y de progreso en general), que como hemos venido viendo ya se manifestaba tenuemente incluso en algún pensador medieval, pero que se alzó como el eje articulador de todo el pensamiento científico a partir de este momento: la razón y el método científico irían iluminando, progresivamente, todas las zonas de la realidad que estaban aún bajo el imperio del oscurantismo y la superstición.

§. La clasificación del mundo natural y el concepto de especie
El siglo XVII había hecho notables esfuerzos con el objetivo de encontrar algún tipo de clasificación que superara la tradicional que se usaba desde hacía siglos anárquicamente en los bestiarios y los herbarios, y en la cual no cabía ya la avalancha de especímenes nuevos que se conocían a medida que Europa se expandía e iba afirmando su supremacía sobre el resto del mundo. ¿Pero cómo hacerlo?
Aquí jugó un papel importante el naturalista inglés John Ray (1627-1705), que en su Breve Methodus Plantarum (1682) daba la primera definición aceptable de «especie» —que hasta entonces había sido una noción intuitiva y difusa— y en su Historia de las plantas (1686-1704) hacía una descripción sistemática de todas las plantas conocidas de Europa. A diferencia de los compendios alfabéticos de naturalistas tan importantes como Gesner, en los de Ray no había criaturas fantásticas (ni unicornios, ni sirenas, ni monstruosas serpientes marinas), ya que se basaba en la observación directa, como mandaba el método experimental, y no en la recopilación bibliográfica. Justamente, fue la variedad de especímenes lo que le sugirió la conveniencia de buscar un elemento unitario, el concepto de especie, que definió como:
Un conjunto de individuos que mediante la reproducción originan individuos similares a sí mismos.
La misma definición era válida para plantas y animales y proponía una unidad sobre la cual construir un criterio de clasificación. Era un primer paso fundamental.

§. La polémica de la fijeza
Si el concepto de especie estaba basado en la reproducción, no es extraño que fueran los órganos de la reproducción los que sirvieran de criterio clasificatorio para el botánico sueco Carl Linneo (1707-1778), sin duda uno de los biólogos más grandes de su tiempo, a quien llamaban el «princeps botanicorum» y que en 1735 publicó su Systema Naturae. En su edición original no era más que un folleto de doce páginas, pero en su edición número 13 era ya un conjunto de tres volúmenes de 500 páginas, en cada uno en las cuales se tomaban en consideración los tres reinos de la naturaleza (animal, vegetal y mineral) y se ordenaba todo sistemáticamente en clases, órdenes, géneros y especies.
En 1749, Linneo dio un importante paso organizativo al introducir su nomenclatura binaria (en la cual cada especie es designada por dos nombres, uno para el género y otro descriptor específico), que luego aplicó sistemáticamente a miles de especies y que, sin grandes modificaciones, sigue en uso hoy en día. Así, el género sirve de denominación común a todo un grupo natural: Felis domesticus (gato), Felis catus (gato salvaje), Felis leo (león), Felis pardus (pantera), Felis tigris (tigre). El término Felis, obviamente, designa al género de los felinos.
Pero Linneo no sólo encontró una manera relativamente simple de nombrar a las especies de tal manera que fueran reconocibles por todos los naturalistas, sino que se lanzó a la caza de nuevos ejemplares desconocidos en Europa, enviando a sus discípulos por todo el mundo con el objetivo de recolectar y luego clasificar según el sistema binomial toda la naturaleza.
Si el sistema de Linneo fue eficaz y exhaustivo en el caso de las plantas, no fue tan feliz con los animales, y directamente desechable en el de los minerales (a los que también pretendió aplicar la noción de orden, género y especie).
Detrás de todo esfuerzo sistemático de clasificación, naturalmente, hay un afán de dominación: conocer es controlar. Pero además se esconde una pregunta interesante desde el punto de vista filosófico: ¿los taxones (las unidades de clasificación: especie, género, orden, familia) están en nosotros o están en la naturaleza? ¿Son reales o artificiales?
Pregunta difícil si las hay. El asunto se arrastraba desde el siglo anterior: los partidarios de una clasificación «natural» trataban de agrupar a los seres vivos según un conjunto de rasgos, tratando de aproximarse a las agrupaciones que parece haber naturalmente en el mundo, mientras que los que defendían la clasificación artificial se basaban en la selección de un rasgo específico que se tomaba como central, o como indicador, y que siempre tenía algo de arbitrario, aunque ese rasgo estuviera relacionado con la característica más conspicua de los seres vivos, como es la reproducción.
Fue este asunto, justamente, el que enfrentó a Linneo con el gran naturalista francés Georges Louis Leclerc de Buffon (1707-1788), a quien volveremos a encontrar más tarde en este capítulo, que reclamaba una clasificación «natural».
Ray y Linneo, muy religiosos, habían estipulado el principio de la absoluta fijeza de las especies, todas creadas por Dios en el origen y que permanecían tal cual a lo largo de toda la historia del planeta:
Se cuentan tantas especies como fueron al principio creadas,
escribía Linneo, aunque más tarde debió flexibilizar esa posición, dada la cantidad de especies híbridas con que se encontraba. En 1759 ya escribía:
Puede ser que en el reino vegetal las especies pertenecientes a un mismo género no sean sino derivadas de una sola especie mediante cruzamientos. Sin embargo, ¿todas esas especies son hijas del tiempo, o el Creador, en el comienzo del mundo, ha limitado ese desarrollo a un número limitado de especies? No me atrevería a pronunciarme con certeza a este respecto.
Y en las ediciones siguientes de su Systema Naturae suprimió la afirmación de la imposibilidad de la aparición de nuevas especies.
Aunque, como vemos, incluso en manos del muy creyente Linneo la doctrina de la fijeza de las especies ofrecía algunas grietas, la obra de clasificación seguía significando, tanto para él como para Ray, comprender la naturaleza, que era una obra de Dios para gloria del género humano.
Buffon, que si bien se confesaba muy devoto católico, no parecía serlo (como bien comprendían quienes pretendían prohibir, censurar o quemar sus libros, pese a la palinodia que Buffon entonaba al estilo Osiander, prologuista fraguado de Copérnico, diciendo que lo suyo no eran más que hipótesis), concebía las especies como entidades históricas, sujetas a cambios casi evolutivos, aunque no llegó a proponer la idea de evolución. Sin embargo, su idea del cambio degenerativo, por el cual algunas especies no eran sino versiones «degeneradas» de las originales, se le parecía mucho.
Buffon era múltiple: los 36 tomos de su Historia Natural, que aparecieron a lo largo de su vida, más los ocho que se publicaron después de su muerte, trataban de todos y cada uno de los temas de la naturaleza, desde el hombre y los pájaros hasta los peces, los cetáceos y los minerales, sin olvidar la geología y la meteorología. Y, merecidamente, se convirtieron en bestsellers, rivalizando incluso con la Enciclopedia.
Buffon se sentía incómodo en el rígido corset bíblico que aceptaba perfectamente Linneo (y había aceptado Ray) y fue uno de los primeros en romper con la idea de que la Tierra tenía apenas seis mil años de antigüedad, como indicaba el Génesis, aunque conservó esa cifra para la antigüedad del hombre, que había aparecido en la última época de las siete en que dividió la historia de la Tierra.
¡Y estamos ya en el siglo XVIII! Es difícil entender cómo un relato ingenuo, escrito tanto tiempo antes de nuestra era, podía tener todavía semejante influencia en el Siglo de la Razón y de las Luces.
Pero lo cierto es que la tenía, aunque se empezaba a debilitar, en gran parte por la emergencia de otra disciplina: la geología.

§. La ciencia de la Tierra
El estudio de la Tierra y los fenómenos que ahora llamamos geológicos ya tenía una larga historia: la idea tradicional, que venía de la Antigüedad, era que los terremotos y los volcanes eran el resultado de vientos que circulaban por cavernas subterráneas (¿se acuerdan de la teoría de Tales, según la cual se debían al oleaje?). Por otra parte, los cambios evidentes sobre el paisaje, como el desgaste de una montaña o el lecho ya seco de un río de otro tiempo, no eran más que muestras de pequeñas modificaciones observables, pero insuficientes para creer que el mundo evolucionaba en un sentido o en otro. Plinio, en su enciclopedia, daba una explicación animista de los terremotos: según él la «Madre Tierra» protestaba contra el ataque constante de hombres ambiciosos que no intentan «buscar medicinas para curar sus enfermedades» sino simplemente extraerle oro, plata y otros metales.
Durante la Edad Media se habían confeccionado, del mismo modo que los herbarios y los bestiarios, lapidarios, donde se describía a las piedras según propiedades como el color, la textura y hasta el olor (¡el olor de una piedra!), sin contar sus propiedades mágicas. Por ejemplo, Alberto Magno, el maestro de Tomás de Aquino, había escrito en el siglo XIII De Mineralibus et Rebus Metallicis (Sobre los minerales y metales), en el que hacía un inventario bastante organizado de los minerales conocidos, aunque intercalaba sus propiedades mágicas en las descripciones. Allí describía los fósiles como petrificaciones de lo que alguna vez habían sido seres vivos y coincidía con casi todos sus antecesores en que los volcanes y los terremotos eran producidos por los vientos de vapores subterráneos. Este tipo de tratados había sido relativamente común tanto en la Edad Media como en el Renacimiento, como el De Re Metallica, del que ya hemos hablado en su momento.
Pero el siglo XVII introduciría novedades: algunos naturalistas ya miraban los minerales (y el mundo) con los ojos de la nueva ciencia y comenzaban a notar las relaciones que se podían establecer entre distintos tipos de rocas. El danés Nicolás Steno (1638-1686), por ejemplo, estableció dos principios geológicos básicos: primero, que las rocas sedimentarias, es decir, las que se forman por acumulación de sedimentos y que, sometidas a procesos físicos y químicos, resultan en un material de cierta consistencia, se disponen en forma horizontal y, segundo, que las rocas más nuevas están puestas sobre las rocas más antiguas. Los estratos se disponen de la misma manera que sucesivas capas de pintura, con las más viejas debajo. Los principios de Steno permitieron a los mineros de los siglos XVII y el temprano XVIII establecer relaciones temporales entre los tipos de rocas, incluso aquellas que estaban distantes entre sí.

§. El problema de los fósiles
Pero además, Steno avanzó sobre uno de los puntos conflictivos de la geología: los fósiles. En efecto, admitió que los fósiles que había encontrado en distintas rocas eran testigos de un episodio remoto que no se encontraba en las Escrituras. No todos lo aceptaban, naturalmente, y muchos preferían verlos como producto de misteriosas fuerzas que operaban dentro de las rocas. Edward Lhwyd (1660-1709), por ejemplo, que era el responsable de catalogar la colección de fósiles de un museo vecino a la Universidad de Oxford, concluyó que eran meros objetos naturales que debían ser clasificados junto con otros productos de la «madre tierra». Parecido pensaba otro contemporáneo, el médico y naturalista Martin Lister (1683-1712), quien aseguró que esa suerte de caracoles que suelen encontrarse como impresos sobre algunas lajas (amonites), aunque superficialmente parecieran un caracol, no guardaban ninguna relación con los moluscos vivos, ya que, argumentaba, no se habían encontrado animales vivos con esa forma:
No existe tal cosa como conchas petrificadas sino que esas conchillas que parecen berberechos son sólo lo que parecen, piedras de un estilo particular y nunca fueron parte de ningún animal.
Fue Robert Hooke, otra vez, quien hizo los mayores esfuerzos por aplicar el método científico para determinar el origen de los fósiles. En su Micrographia postuló que tenían un origen orgánico después de usar el microscopio para comparar la estructura de bosques fósiles y vivientes:
Esta madera petrificada se empapó con agua petrificante que luego se fue apropiando de las partículas pedregosas de esa agua que la permeaba y esas partículas fueron transportadas por el fluido y se quedaron no sólo en los poros microscópicos, sino también en los intersticios que, mirados por el microscopio, parecen más sólidos.
Palabras más, palabras menos, lo que estaba diciendo era que los minerales del agua se metían en los recovecos del elemento orgánico ocupando su lugar y solidificándose lentamente.
Hooke suponía que de la falta de equivalentes vivos de algunos de esos fósiles se podía deducir que las especies en algunos casos se extinguían e incluso, con un poco más de audacia, aseguraba:
Ha habido muchas otras especies de criaturas en eras previas de las cuales no quedan ejemplos en el presente; y no sería raro también suponer que existen muchas otras nuevas, que no existían en el comienzo.
Dios no tenía nada que ver con el asunto y la naturaleza se reinventaba a sí misma sin ayuda de nadie. E incluso fue más lejos: los fósiles de tipo marino encontrados en las montañas probaban que éstas alguna vez habían estado sumergidas y que eran
probablemente el efecto de un gigantesco terremoto.
Las cosas se iban encaminando. Y no sólo con el asunto de los fósiles.
También fue por entonces que se resolvió otro de los temas que venían arrastrándose desde hacía siglos: el de la procedencia de los ríos. El consenso generalizado hasta entonces era que el origen estaba en grandes depósitos de agua subterráneos. Pero en 1674 el francés Pierre Perrault (1611-1680) publicó Sobre el origen de los manantiales, donde demostraba que el agua que llovía en toda la región de París bastaba y sobraba para producir el caudal del Sena. Su estudio fue confirmado por otros posteriores y poco a poco se desvaneció la idea de que los ríos surgían del interior de napas subterráneas.
El origen de las montañas, por su parte, seguía siendo un enigma. Para algunos todavía era posible sostener que la actual estructura de la superficie de la Tierra era esencialmente la misma que la que había sido originariamente creada por Dios. Pero otros investigadores estaban más inclinados a creer que las montañas en realidad estaban formadas por un proceso natural desde el tiempo del Arca de Noé. En esa área en particular faltaba mucho por averiguar, pero el Diluvio y el Arca de Noé, todavía en el siglo XVII, eran artículo de fe.

El Arca de Noé
En abril de 1997se inició en Australia un curioso juicio en el que un destacado científico,el profesor Ian Plimer, jefe del Departamento de Ciencias de la Universidadde Melbourne, demandó a un auto titulado «doctor» Allen Roberts por haberpedido fondos para buscar el Arca de Noé en la cumbre del monte Ararat, enTurquía, acusándolo de defraudación pública y de abusar de la ingenuidad dela gente.
El solo hecho deque el «doctor» Allen Roberts haya recolectado jugosos fondos demuestra quela creencia en el Arca de Noé y el Diluvio Universal todavía tiene susadeptos. Pero no tiene el menor asidero meteorológico: en realidad, toda elagua existente en el planeta sería insuficiente para cubrir ya no los másaltos montes, sino simples colinas, muchísimo más modestas, y ni qué hablarde un monte como el monte Ararat.
Y sin embargo,el 2 de junio de 1997, dos meses después de iniciado el juicio en Australia,el juez falló —aunque parezca mentira— a favor del buscador del Arca de Noé.Se preocupó de dejar bien aclarado que el asunto del Arca era una farsa, peroconcluyó que Allen Roberts no había violado leyes comerciales, como sosteníaPlimer, lo cual hasta podía ser cierto.

§. Nostalgias del Diluvio
Aquel día fueron rotas todas las fuentes del grande abismo y las cataratas de los cielos fueron abiertas sobre la Tierra y hubo lluvia sobre la Tierra cuarenta días y cuarenta noches. Y las aguas prevalecieron mucho en extremo sobre la Tierra y todos los montes altos que había debajo de la Tierra fueron cubiertos.
GÉNESIS

Naturalmente, la idea del diluvio, así como estaba, no podía resistir: puesto que la superficie de nuestro planeta es, aproximadamente, de 432 millones de kilómetros cuadrados, si lloviera toda el agua contenida en la atmósfera (alrededor de un millón trescientos mil millones de litros, o 13.000 kilómetros cúbicos) sin quedar ni una gota, ni una molécula —hecho, desde ya, harto improbable—, la Tierra quedaría cubierta con una capa de menos de tres centímetros de espesor, que no sólo no taparía los altos montes sino ni siquiera los bajos pastos de este mundo.
Lo curioso es que este sencillo cálculo se realizó ya en el siglo XVII, y estuvo a cargo del reverendo Thomas Burnett (1635-1715), un prominente clérigo anglicano, que más tarde llegaría a ser capellán privado del rey Guillermo III de Inglaterra, y que entre 1681 y 1689 publicó, en cuatro tomos, La Sacra Teoría de la Tierra.
La historia es notable. Burnett, que se guiaba fielmente por la Biblia, pero desconfiaba de la literalidad, partió de esa sensata observación: no había manera de que el diluvio universal hubiera cubierto toda la Tierra. Con los datos asequibles en la época y mediante una sencilla cuenta, mostró que el agua que podía haber llovido en cuarenta días y cuarenta noches era insignificante desde el punto de vista pluviométrico. Y además, ¿adónde había ido a parar el agua después? Burnett llegó a la conclusión de que el Diluvio Universal no había sido posible, por lo menos a partir de la lluvia.
Pero, incapaz de renunciar al Diluvio, llegó a una notable conclusión: si el desastre no había caído de los cielos era porque había irrumpido desde la profundidad. Tomando una vieja idea de Descartes, conjeturó que en el momento de la Creación la Tierra era una esfera perfecta y paradisíaca, cubierta por una corteza de materia sólida, lisa y sin rasgos, con los océanos fluyendo por debajo de ella. La inundación, según Burnett, ocurrió cuando la corteza se partió, colapsando en fragmentos que se hundieron en el agua. Los pedazos irregulares del caparazón original constituyen el relieve de la Tierra que observamos hoy, sólo las ruinas de lo que fue.
En verdad, la Sacra Teoría de Burnett, aunque llamó la atención del mismísimo Newton, no tuvo demasiado éxito, aunque ésa es ya otra historia. Lo cierto es que, venido de arriba o venido de abajo, el Diluvio Universal empezó a hacer agua (como corresponde a un diluvio) ya en el siglo XVII.
Pero renunciar a una creencia tan ancestral era difícil: el Diluvio, como todos los mitos, resistió y, ante la perspectiva de desaparecer, recurrió al último y gran recurso que tienen los mitos: transformarse. Y así fue que se transformó en la bella teoría del océano en retirada.

§. La teoría del océano en retirada
De alguna manera, el extravagante planteo de Burnett demostraba que el diluvio no era viable, y se transformó gradualmente en la idea de que, después de la Creación, todo el planeta había estado cubierto por un inmenso océano que, gradualmente, se había ido retirando y despejando la tierra firme: este océano primitivo tenía disueltos los minerales que, al depositarse, formaron las rocas, las montañas y todo lo demás.
El autor de la idea original había sido el gran filósofo y científico alemán Gottfried Leibniz (1646-1716) y poco a poco se fue convirtiendo en el sustituto más popular del Diluvio Universal, por lo menos entre los geólogos. Conservaba una ligazón un poco forzada con el relato bíblico, pero casi todas las explicaciones que se dieron sobre el origen de la Tierra durante el siglo XVIII seguían las grandes líneas de esta idea: un gran océano originario que retrocedía paulatinamente. La obra de Leibniz, Protagea, donde exponía su teoría, se publicó a mediados del XVIII, muchos años después de su muerte, y la explicación no era meramente mítica, sino que parecía resolver con las herramientas de la nueva ciencia algunos enigmas.
Un poco más radical fue el diplomático francés Benoît de Maillet (1656-1738) en un libro que circuló de modo clandestino desde principios del siglo XVII hasta la muerte de su autor. Consistía en un diálogo entre un filósofo indio y un misionero francés acerca de la disminución del mar, la formación de la Tierra, el origen de los hombres y animales y otros curiosos temas relacionados con la historia natural y la filosofía. De Maillet imaginaba una Tierra inmensamente antigua y no hacía referencias a diluvio ni Dios alguno. Pero sí aseguraba que los registros egipcios de los niveles de agua del Nilo eran evidencia de una declinación en el nivel del mar, ya en tiempos históricos, y que si se extendía en el tiempo llevaba a suponer que alguna vez toda la superficie había estado cubierta por agua.
Un gran océano que se retiraba: la imagen no estaba nada mal y era intrínsecamente bella. Aún hoy conserva un inmenso poder de seducción: el agua primordial recuperaba la vieja idea de Tales de Mileto o el mar eterno e inaccesible del pensamiento hindú, donde nadaban las primitivas tortugas que sostenían el mundo; el mar, objeto y fruto de reverencia y terror, que abandonaba, como un inmenso animal, en cierta forma vivo, regiones que serían, andando el tiempo, nuestro hogar.
El mar originario en retirada no era sólo una fantasía producto de la necesidad bíblica. Nada de eso: fue una teoría muy seria y que parecía explicar algunos enigmas. Uno de ellos era, por ejemplo, la existencia de fósiles marinos en lo alto de las montañas; otro, que el Mar Báltico se hiciera cada vez menos profundo (aunque, en realidad, era una consecuencia del fin de las eras glaciales: la superficie del norte europeo estaba aún en ascenso luego de liberarse del peso del hielo).
El más grande de los teóricos del océano en retirada fue Abraham Gottlob Werner (1749-1817), profesor de la Escuela de Minería de Freiburg en Alemania, adonde afluían estudiantes de toda Europa ansiosos de escucharlo.
Werner observó que algunas rocas se habían formado en el mar y generalizó alegremente, atribuyendo este origen a todas las rocas. Entonces, pensó, cuando el gran océano antiguo se retiró, las rocas más antiguas quedaron expuestas al aire y sobre ellas se acumularon nuevas rocas, producto de la erosión, que se instalaron en capas sucesivas, formando las montañas y todos los accidentes geológicos. El poder de la teoría de Werner residía en que era funcional a las observaciones y permitía deducir mucha información útil a la hora de explotar las minas y saber qué mineral era probable encontrar debajo de determinada capa geológica. El principio de superposición de estratos —según el cual las rocas más jóvenes se depositan sobre las viejas— estaba bien explicado y, por otro lado, era bastante lógico. Por principio, cada tipo de mineral pertenecía a una época particular.
La teoría del océano en retirada era hermosa, pero tenía, en realidad, algunos puntos muy débiles: por empezar, no quedaba claro de dónde había salido ese océano original, ni a dónde iba a parar el agua sobrante a medida que el océano retrocedía dejando en descubierto la tierra firme. Y segundo —y fatal— no explicaba —o explicaba mal— la existencia de los volcanes.
Werner no se conmovió mucho por estos argumentos. Respecto del destino final del agua, argüía:
Yo soy un geólogo y de ningún modo un cosmólogo como para especular sobre eso. La evidencia en la baja del nivel del mar está en las rocas, y yo sólo interpreto la evidencia lo mejor que puedo.
Y con respecto a los volcanes…, la verdad es que Werner los despreciaba un poco: pensaba que eran fenómenos modernos y aislados y creía que las erupciones se debían a la combustión subterránea de capas de hulla en las cercanías.
Sin embargo, fueron los propios discípulos de Werner quienes demostraron que había volcanes muy antiguos, que muchas de las montañas de ahora eran volcanes extinguidos y que, como si esto fuera poco, la lava que salía de los volcanes no era muy distinta de las rocas que según Werner sólo podían originarse en el mar.
Aunque estaba equivocada, la teoría de Werner ayudó muchísimo a comprender nuestro planeta: organizó los datos geológicos del momento sobre las rocas, y las grandes eras y períodos que reconocemos actualmente.
La idea, además, tenía otros seguidores ilustres, como el mismísimo Buffon. Para nuestro personaje, la Tierra se había desprendido del Sol por el golpe de un cometa y estaba enfriándose lentamente. En el interior había aún roca fundida y la superficie no era más que la parte que se había enfriado por el paso del tiempo. Las montañas de granito representaban las únicas partes de la corteza originariamente solidificada que todavía se podían ver, mientras que las demás habían sido cubiertas por material depositado en épocas posteriores. Tan pronto como la corteza se enfrió lo suficiente, comenzó a caer una lluvia de agua casi en estado de ebullición; esa lluvia había cubierto todo o casi todo formando un vasto océano hirviente habitado por seres marinos que murieron cuando el agua se enfrió. De allí provenían los fósiles que todavía se podían encontrar en las laderas de las montañas.
Los volcanes, a su vez, eran el resultado de la actividad química que había comenzado hacía muy poco tiempo, al principio de los tiempos modernos. En su libro Las épocas de la naturaleza, sostenía la existencia de siete períodos que se podían asociar, muy oportunamente, con los siete días de la creación.
Buffon se esforzó por hacer coincidir su teoría geológica con las ideas sobre el reino animal que expuso en su monumental Historia Natural. Lo que quedaba claro era la necesidad de alguna hipótesis orgánica que uniera geología, fósiles, largos períodos de tiempo, vida y evolución. Pero aún faltaba para que semejante ambición se viera concretada.
Palabras más palabras menos, en las primeras décadas del siglo pasado la teoría del océano que se retiraba, dolorosamente herida, se retiraba de a poco, dejándonos sólo la nostalgia de aquel mar originario, mientras la atención —y la imaginación— se desplazaban hacia el fuego.

§. Los fuegos infernales
La Tierra es un gran mecanismo, sin atisbos de comienzo ni final.
JAMES HUTTON, 1795
La teoría del océano en retirada fue calma y gentil y un poco triste: había tenido la serena belleza del clasicismo. La nueva teoría, acorde con la estética romántica, era densa y nerviosa; irrumpió como un sturm und drang de la geología y reemplazó al agua amable por los fuegos infernales y la acción de los volcanes. Neptuno fue destronado por Plutón, el dios del mundo subterráneo y rey de los infiernos; al fin y al cabo, los volcanes siempre habían estado ligados al infierno en el imaginario colectivo.
Los plutonistas negaban que el océano se retirara; es más, negaban que hubiera existido jamás un gran océano universal, y negaban que el agua fuera la fuente del cambio, acaso porque negaban que existiera una fuente del cambio. Aceptaban la idea, muy en boga, que ya habían considerado Descartes, Leibniz y Buffon, de que la Tierra era el resultado de una inmensa masa de fuego —desprendida probablemente del Sol— que se enfriaba paulatinamente; el centro de la Tierra continuaba siendo para ellos una inmensa fuente de calor y de allí venía el impulso geológico: la tierra firme no era otra cosa que roca fundida que se había abierto paso desde el mundo subterráneo y luego se había enfriado. Los plutonistas transformaron los volcanes en la fuerza principal que mantenía las cosas en marcha. Naturalmente, esto descartaba cualquier conexión con el Diluvio Universal y desafiaba toda la historia bíblica, lo cual despertó no pocas resistencias y escándalos. Cuando Transactions, de la Royal Society de Edimburgo, publicó, en 1788, la nueva teoría, su autor, James Hutton (1726-1797), fue acusado de ateo, de negar la evidencia de la Creación presente en las rocas y de ignorar la historia del diluvio catastrófico.
En realidad no era así: Hutton era un caballero del Iluminismo escocés, contemporáneo y amigo de James Watt (el inventor de la máquina de vapor) y Adam Smith (el primer gran teórico de la economía capitalista). A Hutton no lo satisfacía la teoría del océano en retirada porque, en cierto modo, le resultaba demasiado estática: implicaba que la erosión, tarde o temprano, terminaría arrastrando toda la tierra firme al fondo del mar y de ninguna manera podía aceptar que el Creador fuera a convertir la superficie terrestre en un lugar inhabitable. Pensaba que debía haber un mecanismo de regeneración y elevación de la corteza que compensara el ciclo de erosión, un mecanismo mediante el cual surgieran permanentemente rocas nuevas desde el mundo subterráneo, equilibrando la erosión y transformando el planeta en una perpetua máquina en movimiento, creada por la perfección divina. El resultado era un sistema siempre renovable.
El sistema que propuso era simple y razonable. Por un lado, el viento, la lluvia y demás desgastan las montañas y los estratos caen en las tierras bajas hasta llegar al mar. Por el otro lado, el sedimento que se acumula en el fondo del océano se hunde por su propio peso y los sedimentos más bajos se funden, circulan y finalmente surgen nuevamente a través de los volcanes. Las erupciones volcánicas eran una prueba de que el centro del planeta estaba formado por roca fundida. También se podía imaginar que esa lava no siempre llegaba a la superficie, sino que a veces empujaba la costra fría de los continentes hacia arriba, se enfriaba y formaba capas de granito y basalto, tipos de roca muy dura, lo que a su vez generaba elevaciones que tarde o temprano armaban verdaderas cadenas montañosas en un ciclo uniforme y permanente. De esta manera, Hutton describía el planeta como una máquina en movimiento perpetuo que se reciclaba a sí misma constantemente.
Muy pronto se demostró que Hutton tenía razón o por lo menos buena parte de razón y que rocas como el granito (que según Werner sólo podían haberse originado en el mar) eran de origen volcánico: con experimentos en altos hornos, el químico James Hall ofreció la prueba de que el granito se solidificaba a partir de un estado líquido.
Aunque finalmente perdieron la batalla, los neptunistas, partidarios del océano en retirada, se resistieron. Y es que no sólo se estaban enfrentando el agua calma contra los fuegos infernales, o dos teorías geológicas. Los neptunistas perdían la batalla, pero quedaba sobre el campo, tanto para unos como para otros, el que era el aspecto fundamental de la discusión: el tiempo.
Hutton pensaba que los procesos de formación de las rocas en realidad se daban en ciclos regulares. Su teoría era la base del «uniformismo» moderno, que indicaba que los mismos procesos que habían formado la superficie terrestre seguían en acción y eran constantes. Para Hutton en particular, sus observaciones encajaban con la idea de eternidad que resumió con su frase más conocida:
El resultado, por lo tanto, de este análisis físico es que no vemos vestigios de un comienzo ni atisbo de final.
Era el opuesto de cualquiera de las versiones que asignaban un lugar primordial a los cambios bruscos o en un solo sentido (como un diluvio universal o una Tierra muy caliente al principio, o incluso el océano en retirada, que había existido una sola vez), versiones a las que se caracterizaba bajo el título muy general de «catastrofistas», es decir, que creían que había un fenómeno de magnitudes inusuales que repentinamente cambiaba la configuración del planeta. Las distintas versiones de uniformismo y catastrofismo se enfrentarían por bastante tiempo.

§. Uniformismo
Del lado del uniformismo más radicalizado estaba Charles Lyell (1795-1875), quien sostenía que los procesos de sedimentación, erosión y cambio geológico eran extremadamente lentos y que así habían sido a lo largo de la historia. Su libro, Principios de geología, cuyo primer tomo se publicó en 1830, inicia para muchos la geología moderna. Adhería sin fanatismos exagerados a la teoría de Hutton. De hecho, es probable que Lyell reivindicara a Hutton más de lo que le hubiera gustado, como forma de enfrentar la posición catastrofista generalmente asociada con el diluvio universal, con el océano en retirada y, por lo tanto, con la religión.
Como evidencia de sus afirmaciones, Lyell utilizaba las pruebas existentes de sucesivos ascensos y descensos en el nivel de la costa mediterránea desde los tiempos de los romanos. Su ejemplo más conocido eran las columnas del Templo de Serapis en Puzzuolo, cerca de Nápoles, Italia, construidas en el siglo I antes de Cristo. Sobre ellas había marcas que habían dejado sucesivos ascensos y descensos en el nivel del agua. Si en sólo un par de miles de años se podían encontrar semejantes variaciones, en unos pocos millones se podía justificar la existencia de cadenas montañosas completas.
Lo mismo podía decirse de las pruebas que Humboldt había traído de Chile donde, según se calculaba, un terremoto había logrado elevar casi dos metros una franja de tierra de cien kilómetros de largo. Lyell postulaba que alcanzaba con sumar estas pequeñas catástrofes para dar cuenta de fenómenos mucho más grandes.
El argumento era sólido: el tiempo era más importante que la fuerza. El de Lyell es un aporte nada menor, puesto que la fuerza del tiempo permite comprender muchas cosas que van más allá de la escala humana observable y da el puntapié inicial para pensar en las escalas de tiempo real que necesita la vida para poder aparecer y la evolución para poder actuar.
Desde esta perspectiva, las montañas se desgastan y aplanan, mientras que en otra parte (o en la misma, ya que una montaña que se levanta al mismo tiempo se desgasta) surge una nueva en un eterno equilibrio. Era razonable, y por otro lado este tipo de ejemplos dejaba abierta la puerta a un consenso y transformaba todo en una cuestión de perspectiva y gradientes.
Según Lyell, era un error suponer que entre un estrato rocoso y el siguiente había una continuidad temporal necesaria. Podía ocurrir que se formara una capa, luego un cambio en el clima la erosionara por completo y se depositara otra capa sin que quedara registro del tiempo intermedio. De esta manera, los fósiles encontrados en un estrato y el siguiente podían tener millones de años de diferencia que justificaran la falta de continuidad entre ambos. Las catástrofes se podían verificar en casos puntuales, pero de ninguna manera como regla de transformación.
La posición de Lyell era sólida, pero en su esfuerzo argumentativo por descartar de plano a los catastrofistas se privó a sí mismo de la posibilidad de creer que en algún momento las cosas pudieran haber sido distintas. De hecho, llegó a sostener que los fósiles no eran evidencia de un cambio evolutivo, sino que las especies habían sido más o menos siempre las mismas: quería negar toda posibilidad de linealidad y acumulación en la flecha del tiempo. La ferviente oposición de Lyell a la teoría de la evolución de Jean Baptiste Lamarck (1744-1829), de la que ya tendremos ocasión de hablar, produjo el efecto paradójico de generar interés por la hipótesis lamarckiana, e inspirar incluso a Charles Darwin, quien se llevaría la obra del gran geólogo durante su largo viaje por los mares del sur, en el cual elaboró las bases de su teoría de la evolución por selección natural.
El libro de Lyell fue un hito geológico y buena parte de los catastrofistas abandonó las posturas más radicales respecto de la virulencia de los cambios. La discusión se centró, desde entonces, más bien en si había una linealidad global en el cambio de las condiciones de la Tierra originaria o si se trataba de ciclos iguales e infinitos. Los catastrofistas «aggiornados» estaban convencidos de que las condiciones en los comienzos del planeta habían sido más extremas y los cambios en ella se habían dado en forma más repentina. Así fue que buena parte de ambos bandos se dedicó a cuestiones de índole práctica, tales como determinar la antigüedad de los distintos estratos rocosos.
Como sea, los geólogos salieron a registrar estratos en busca de marcas homogéneas, intentando luego ponerlas en relación con aquellos estratos que estaban por encima y por debajo. Distintos personajes nombraron sus propios períodos en los que se especializaron, generando en algunos casos ridículas disputas académicas por dar más importancia a su campo específico (una costumbre que, por otro lado, sigue viva en la actualidad y no sólo en la geología). Ya en 1840 existía un consenso razonable acerca de los diferentes períodos geológicos (más o menos como son aceptados hoy: primario, secundario, terciario, cuaternario), lo cual tendría, entre otros, el mérito de confirmar a Darwin en su teoría de la evolución.
Los dos supuestos «bandos» de la geología se dedicaron en buena medida a estudiar cómo se acumulaban los cambios y lo que veían no era tan distinto. Mientras tanto, quedaban afuera las preguntas más controvertidas: ¿Cómo se habían producido esos cambios? ¿Cómo era el planeta en aquel origen? ¿Cómo se había alterado la disposición de las rocas una vez que se habían formado?

§. El tiempo profundo
La discusión entre neptunistas y plutonistas fue áspera, salió del ámbito científico y ganó la literatura: no les digo que se discutiera en las calles, pero grandes poetas como Goethe se vieron involucrados en ella.
Y es que en realidad, como les dije un poco antes, lo que se estaba discutiendo era algo esencial para la cultura humana. Cada gran teoría presenta una cosmovisión, una manera de mirar el mundo: la teoría del océano en retirada mostraba un planeta terminado desde el principio, que podía, mal que bien —más mal que bien, pero bueno— encajarse en la historia bíblica de la Creación y el Diluvio Universal, mientras que el plutonismo, que imaginaba a la Tierra como una máquina en perpetuo movimiento y renovación, exigía, con la mejor buena voluntad, muchos millones de años para la historia de nuestro planeta.
La eternidad asusta tanto hacia atrás como hacia adelante y la gente, que estaba acostumbrada a pensar en un mundo recientemente creado, necesitaba —ella también— tiempo para procesar estas ideas y acostumbrarse a lo que de veras se estaba descubriendo: el tiempo profundo.
El «tiempo profundo»… parece raro, pero no hay otra manera de describirlo. Por debajo de nuestro tiempo cotidiano que medimos en días y años, por debajo del tiempo histórico que medimos en siglos, se desarrollan procesos lentos, increíblemente lentos, que sólo pueden notarse después de millones de años.
Tanto Hutton como Lyell demostraban que a lo largo de la historia de nuestro planeta los mecanismos de cambio eran muy graduales, y que —sobre todo— eran los mismos que en el presente y actuaban con el mismo ritmo: los ríos cavaban sus cañadones a través de los siglos; las rocas eran moldeadas por la lluvia a través de los milenios; las montañas se elevaban con paciencia exasperante, por acción del fuego; la corteza ascendía sin que lo notáramos, y una cordillera podía tardar millones de años en formarse.
Era una verdadera revolución conceptual: de pronto, tras el rudo golpe de enterarse de que habitaban un planeta que no estaba en el centro del universo, los hombres del siglo XIX descubrían que su tiempo, el tiempo de sus vidas, prácticamente no contaba en la inmensidad de los tiempos geológicos; descubrían que los ríos y los océanos, las montañas y los volcanes eran más importantes y más antiguos que ellos, que sus culturas y civilizaciones.
Pero no un poco más antiguos, como los dioses de las viejas mitologías, o incluso el Dios cristiano; no: mucho, pero mucho más antiguos, tanto que resultaba difícil de creer. Los nuevos dioses, las fuerzas que lentamente moldeaban la Tierra, trabajaban en escalas que nada tenían que ver con ellos y al lado de las cuales sus propias maneras de percibir el tiempo significaban demasiado poco. El tiempo profundo, el tiempo verdadero de la Tierra, parecía reducirnos a la nada; especialmente, si el pasado había sido eterno, si —como proclamaban los uniformistas— la Tierra era una máquina sin principio ni final.
La resistencia fue tanta que en 1890 — ¡1890!—, cuando el historiador César Cantú escribió su monumental Historia del Mundo, no lo podía aceptar:
Desde que el saber se rebeló contra Dios, apeló a la ciencia más antigua y a la más moderna para desmentir el relato de Moisés, pero, interrogadas la astronomía y la geología, con leal conciencia y más vastos conocimientos, dispusieron en su favor, y hoy los seis días son, pues, seis edades de la Tierra, cuya duración no es dado al hombre calcular, pero que dejaron de sí huellas en el globo. Queda pues confirmada con los progresos de la ciencia la narración de Moisés, que no da al hombre más de siete a ocho mil años de antigüedad, y es una maravilla, para quien lee el Génesis, su concordancia con los más recientes adelantos de la ciencia.

§. La edad de la Tierra
Pero a todo esto, el asunto de la edad de la Tierra empezó, también, a estar sobre el tapete. Tradicionalmente, se estimaba según la interpretación literal de la Biblia. El cálculo se hacía siguiendo paso a paso las palabras del Génesis, donde se detallan todas las generaciones, desde Adán a Jesús, y oscilaba, según el teólogo o el científico de que se tratara, entre los cuatro mil y los seis mil años. En 1650, el arzobispo James Ussher, del Trinity College de Dublín, concluyó que la Tierra (y el universo) habían empezado a las seis de la tarde del sábado 22 de octubre del año 4004 a.C. y su contemporáneo John Lightfoot, de la Universidad de Cambridge, discrepó sutilmente, proponiendo el año 3928 a.C. El mismísimo Newton dedicó buena parte de su tiempo a calcular el momento exacto de la Creación, que situaba alrededor de aquellas fechas.
La precisión (rayana en la ridiculez) con que se intentaba medir los tiempos para hacerlos acordar con las Escrituras estaba en el aire de una época que todavía no se había metido de lleno en el vendaval ilustrado. Por poner sólo algunos ejemplos, el geólogo alemán Johann Scheuchzer (1672-1733) afirmaba que la aparición de coníferas en los estratos de carbón demostraba que el Diluvio había tenido lugar en el mes de mayo, mientras que, desde Inglaterra, el astrónomo W. Whiston discrepaba cuando, en 1708, aseguraba que había comenzado un miércoles 28 de noviembre. Allí mismo, un célebre predicador, John Wesley (1703-1791), enseñaba que los volcanes y los terremotos no existían antes del «pecado original».
Pero este tipo de especulaciones ya no pegaban con la Ilustración: la época retomaba el precepto del viejo Tales y exigía explicar el mundo mediante mecanismos naturales.
El primero que se atrevió a arriesgar una cifra fue Buffon, de quien ya les hablé, siguiendo la hipótesis de que la Tierra se había formado a partir de un pedazo que se había desprendido del Sol. Buffon decidió estimar el tiempo que habría tardado una esfera del tamaño de la Tierra en enfriarse hasta alcanzar su temperatura real, y así llegó a la conclusión de que tenía setenta mil años de edad. Para ser exactos, 74.832 años. La cifra produjo una conmoción: era difícil creer que la Tierra fuera tan espantosamente vieja (y en realidad, cuentan las malas lenguas, Buffon había especulado con la espantosa cifra de tres millones de años, pero finalmente optó por dejar de lado algo tan inaceptable).
Sin embargo, para la Geología de Lyell, cuya hipótesis central era que los procesos de sedimentación, erosión y cambio geológico eran extremadamente lentos y que así habían sido a lo largo de toda la historia del planeta, los setenta y cinco mil años de Buffon resultaban una miseria. Inspirado por esta obra, el geólogo John Philips (1800-1874), basándose en el estudio de los estratos rocosos, estimó la edad de la corteza terrestre en nada menos que noventa y seis millones de años.
Era un verdadero océano de tiempo, pero ya se dibujaba en el horizonte la teoría de la evolución, y era obvio que los procesos de transformación de las especies requerían esos grandes períodos. En 1863, el gran físico escocés William Thompson (1824-1907), conocido como Lord Kelvin, retomando la idea de Buffon —la Tierra como una bola incandescente que se enfriaba de a poco—, y afinando los cálculos, confirmó la cifra de Philips: noventa y ocho millones de años. Con reservas: Kelvin admitía que el cálculo era sólo aproximado. Y establecía como edad mínima para la Tierra veinte millones de años. Y como edad máxima, ¡nada menos que doscientos millones!
¿Era mucho? ¿Era poco? ¿Cómo podía saberse? Hacia fines de siglo, el inglés John Joly (1857-1933) trató de evaluar la edad de los océanos mediante su contenido en sal —una idea que había propuesto Halley ya en el siglo XVII— y también la estimó alrededor de noventa y noventa y nueve millones de años, digamos cien, que se convirtieron casi en un artículo de fe, y los científicos se aferraron con uñas y dientes a esa cifra. ¡Cien millones de años!
Pero, aunque parezca monstruoso, era poco: hacia principios del siglo XX el geólogo inglés Arthur Holmes (1890-1965), utilizando los métodos radiactivos que acababan de descubrirse, hizo una estimación de mil seiscientos millones años de edad.
Parecía una barbaridad, y sin embargo todavía era poco. El mismo Holmes, más tarde, mejoró las técnicas de datación, y elevó la edad de la Tierra a cuatro mil quinientos millones de años, la cifra que manejamos hoy.

Capítulo 23
La luz, el calor, la electricidad

El siglo XVIII, al mismo tiempo que clasificaba el mundo natural e indagaba sobre su origen, topándose con la desesperación existencial que acarreaba el descubrimiento del tiempo profundo, no dejó de ocuparse de algunos fenómenos más terrenales, conocidos desde siempre (o casi), pero sobre cuya naturaleza no había una teoría firme. Es más: sobre los que no se sabía, en rigor, prácticamente nada, lo cual podía haber sido angustiante para los hombres de todas las épocas pero más aún para aquellos que vivían el momento posterior a la síntesis de la ciencia newtoniana con las ideas de la Ilustración, uno de cuyos efectos había sido la convicción de que todos los fenómenos podían y debían someterse a los rigores de una explicación racional.
No es casual, entonces, que muchos de los hombres de ciencia de la época se volcaran a analizar el calor, la luz y la electricidad, en una exploración que combinó fuertemente los estudios experimentales con la discusión y la especulación sobre la naturaleza de los fenómenos estudiados.
¿Qué eran, al fin y al cabo, el calor, la luz o la electricidad? Vamos a seguir los pasos de quienes intentaron averiguarlo.

La luz: ondas o corpúsculos

§. La teoría corpuscular
No es raro que la luz haya sido concebida primero como un ente material: los griegos, al fin de cuentas, pensaban en rayos, que se prestaban para ser descompuestos en corpúsculos. Demócrito y Platón formularon las primeras teorías «granulares» de la luz, atribuyéndole una naturaleza material. Para Demócrito, en perfecta sintonía con su teoría atómica, la luz se componía de partículas que viajaban a velocidad finita —para que nos entendamos, cuando digo «finita» es por oposición a infinita, es decir, no infinita—, poseían diferentes formas y orientaciones, y se asociaban entre ellas dando lugar a los diferentes colores. Para Platón, las partículas luminosas eran macizas, con la forma de tetraedros de diferentes tamaños; los colores se producían porque viajaban a distintas velocidades.
Como ustedes recordarán, en el siglo XIII, Robert de Grosseteste, maestro de Roger Bacon, había elaborado una metafísica del mundo basada en la luz, que, para él, era la «primera forma corpórea» de la creación, de la cual se había derivado todo lo demás.
A lo largo del siglo XVII, esta concepción corpórea de la luz se mantuvo: la compartió Galileo, y el propio Newton, en su poderosa construcción, la imaginó así, fiel a su concepción atomista y mecanicista. En su Óptica de 1704 (pero escrita mucho antes, ya que esperó a que se muriera Hooke para publicarla), y en la línea de Demócrito, definió el carácter corpuscular de la luz: los rayos eran conjuntos de pequeños cuerpos sometidos a las mismas leyes que todos los demás. Los más pequeños producían los colores violetas y azules; los más grandes, el verde, el amarillo, el naranja y el rojo. Los fenómenos conocidos de la luz, como la reflexión y la refracción (el cambio de dirección de la luz al pasar de un medio a otro, que podemos comprobar cuando sumergimos una cucharita en un vaso de agua y la vemos doblada) resultaban fáciles de explicar: la reflexión era una especie de rebote elástico al incidir sobre una superficie, la refracción consistía en el cambio de trayectoria de los corpúsculos cuando pasaban del aire al agua, porque el cambio de medio les hacía cambiar su velocidad.
La composición o unión gravitatoria de los corpúsculos de diferentes colores producía un nuevo corpúsculo de luz blanca, que se descomponía al pasar por un prisma debido a los diferentes índices de refracción.
Lo que no quedaba claro era por qué los objetos que emitían esas partículas no retrocedían, conforme al principio de acción y reacción newtoniano, ni tampoco cómo era posible que el Sol, que obviamente irradia una gran cantidad de partículas, no se consumiera con el tiempo.

§. La teoría ondulatoria
Sin embargo, había otra línea de pensamiento: Descartes imaginó que entre la fuente de luz, el ojo y los objetos había una columna de plenum —es decir, de materia sutil— a lo largo de la cual podía viajar la luz, ya no concebida como proyectil ni como un fluido, sino como un movimiento. La luz era, vista así, sólo una propiedad mecánica del objeto luminoso y del medio de transmisión.
A mediados del siglo XVII, los dos grandes Roberts ingleses, Boyle y Hooke, descubrieron el fenómeno de la interferencia: al pasar por una pequeña ranura u orificio y dar en una pantalla, se observaban franjas alternativas de luz y oscuridad, cosa que no pegaba para nada con la concepción corpuscular, que no era suficiente para dar cuenta del fenómeno de interferencia.
Hooke propuso, entonces, una teoría ondulatoria: la luz consiste en rápidas vibraciones debidas a la agitación del medio. Alrededor de 1690, el gran astrónomo y físico holandés Christian Huygens, en su Tratado de la Luz, la describía como
un movimiento de la materia que se encuentra entre nosotros y el cuerpo luminoso.
Para Huygens, la luz, del mismo modo que el sonido en el aire, se propaga en el éter, el viejo éter inventado por Aristóteles, que seguía vigente incluso para Newton y que en manos de Descartes se había transformado en «materia sutil».
La polémica sobre la naturaleza de la luz se arrastraría durante todo el siglo XVIII: la teoría corpuscular estaba avalada por la inmensa autoridad de Newton y llegó a la Tabla de Elementos del propio Lavoisier, en la que figuraba en el primer puesto, seguida por el calórico (el fuego, el calor), el oxígeno, el ázoe (nitrógeno) y el hidrógeno; la teoría ondulatoria, fiel a su nombre, no se quedaba quieta: en 1746, mientras trabajaba en la Academia de Ciencias de Federico el Grande, en Berlín, Leonhard Euler (1707-1783), uno de los mayores matemáticos de todos los tiempos, y sin duda el más grande del siglo XVIII, publicó su Nueva teoría de la luz y el color. Allí explicaba que los objetos luminosos vibran, y el éter lleva dichas vibraciones al ojo del mismo modo en que el aire transporta el sonido al oído.

§. Thomas Young y la doble ranura
Pero fue Thomas Young (1773-1829) quien aportó una pieza clave en el rompecabezas de la luz cuando logró entender el efecto de la interferencia. Así como en un estanque, cuando se arrojan dos piedras en distintos lugares, las olas producidas por cada una de las piedras cuando se cruzan entre sí pueden aumentar su tamaño o bien cancelarse, del mismo modo las ondulaciones del éter, si se cruzan, pueden o bien fortalecerse o bien debilitarse hasta anularse.
Para demostrar su hipótesis, Young realizó un experimento que lleva su nombre y también se conoce como el de la doble rendija. Proyectó un rayo de luz a través de dos rendijas paralelas entre sí. A través de éstas pasaba la luz, se esparcía e incidía sobre una pantalla donde formaba una imagen consistente en rayas de luz y sombra: un perfecto ejemplo de interferencia. Young explicó el fenómeno diciendo que se veía luz en aquellos lugares donde las ondas que llegaban de las dos rendijas andaban a la par (en fase), llevando el mismo paso, de manera que los picos de ambas ondas se sumaban. Y se veía oscuridad (¿se puede ver oscuridad?) donde las ondas de las dos rendijas no llevaban el mismo paso sino que estaban desfasadas, es decir, el pico de una onda coincidía con el valle de la otra, de manera tal que se anulaban. No había forma de explicar el fenómeno si no era mediante una concepción de la luz como una onda.

038.jpg

La teoría corpuscular no podía dar cuenta del fenómeno: dos corpúsculos que llegaran a un mismo lugar no se podrían aniquilar entre sí. Corpúsculo más corpúsculo da corpúsculo se vea por donde se lo vea. Pero con la teoría ondulatoria, onda más onda puede generar tanto luz más potente como oscuridad, según la forma en que lleguen. La teoría ondulatoria recibía un espaldarazo, aunque los físicos acérrimamente newtonianos (en especial los británicos) no podían aceptar la idea de que Newton hubiera podido estar equivocado.
Y lo cierto es que la polémica se prolongó en el siglo XIX. La siguiente escaramuza estuvo a cargo del ingeniero francés Augustin Fresnel (1788-1827), que en 1818 hizo una histórica presentación en la Academia de Ciencias de París, en presencia de los más importantes físicos de la época (Pierre Simon Laplace entre otros), todos partidarios de la teoría newtoniana. Frente a un público a todas luces adverso, Fresnel repitió el experimento de Young y mostró que la teoría ondulatoria podía explicar no sólo la propagación rectilínea de la luz y los fenómenos de reflexión y refracción sino también los fenómenos de interferencia y difracción, que eran desviaciones de la propagación en línea recta. La teoría ondulatoria parecía triunfar de una vez por todas. Pero el empujón definitivo vendría de un experimento crucial que estaba relacionado con la velocidad de la luz.

§. La velocidad de la luz
Porque la polémica acerca de la naturaleza de la luz no era la única, lo cual era lógico dada la importancia del fenómeno para nuestras vidas cotidianas y la dificultad que acarrea conceptualizarlo y aprehenderlo. El otro gran problema era el de la medición de su velocidad: ¿se trataba de una magnitud finita o infinita? No había una respuesta para esta cuestión. Pero, obviamente, en tiempos en que los fenómenos empezaban a tamizarse y a destilarse en los laboratorios, ya no alcanzaba con la observación cotidiana para resolver un problema científico. Acaso por eso, en 1638, Galileo propuso un experimento que consistía en observar el retraso entre señales efectuadas con linternas desde dos colinas que se encontraban a un kilómetro de distancia una de la otra. Su propósito era medir el tiempo que tarda la luz en recorrer dos veces la distancia entre los experimentadores situados en las colinas. Uno de ellos destapaba su linterna y el otro, cuando veía la luz, destapaba la suya. El tiempo transcurrido desde que el primer observador activaba su linterna hasta que veía la señal procedente del segundo, era el tiempo que tardaba la luz en recorrer ida y vuelta la distancia entre ambos. El experimento fracasó: el problema era que la velocidad de la luz es demasiado alta y el tiempo que se medía era muy pequeño, por lo que Galileo no hubiese podido de ninguna manera obtener un valor razonable. De modo que el asunto seguía en ascuas.
Pero muy pronto vendría la primera medición de la velocidad de la luz mediante una idea genial, que para mí es digna de Aristarco de Samos. En 1676, Oleg Rømer, un astrónomo danés que estudiaba las lunas de Júpiter descubiertas por Galileo, comprobó que sus eclipses (es decir, los momentos en que los satélites se ocultan detrás del planeta) a veces se producían con retraso respecto de lo que fijaban las tablas, en especial cuando la Tierra, en su órbita, estaba del lado más alejado de Júpiter. Y se le ocurrió que ese retraso se debía al tiempo que la luz, llevando la imagen de los eclipses, tardaba en cruzar la órbita de la Tierra.

039.jpg

Utilizando la mejor estimación disponible entonces para el diámetro de la órbita de la Tierra, y sabiendo el tiempo de retraso, calculó que la velocidad de la luz debía ser (en unidades modernas) 225.000 kilómetros por segundo. El resultado es un poco bajo (el valor que tenemos hoy es de 299.792 kilómetros por segundo), pero fue la primera estimación, hecha cuando todavía no se habían publicado los Principia de Newton y se tenían unas dimensiones de la órbita de la Tierra para nada precisas. Se trataba de una verdadera hazaña: había quedado establecido por primera vez sobre bases ciertas que la luz tiene una velocidad finita, aunque enorme.
¡No era extraño que Galileo no hubiera podido medirla!

§. El triunfo de la teoría ondulatoria
La siguiente estimación se produjo recién casi doscientos años más tarde, a finales de la década de 1840, cuando el físico francés Armand Hippolyte Fizeau (1816-1896) realizó, junto con Léon Foucault (1819-1868), la primera medición directa de la velocidad de la luz mediante un instrumento de laboratorio diseñado por ellos. No voy a entrar en los detalles del método que utilizaron, que serían engorrosos, pero sí les cuento que llegaron al valor de 298.000 kilómetros por segundo.
Las técnicas usadas por Fizeau permitieron zanjar de una vez por todas, al menos por un tiempo, la disputa entre la teoría corpuscular y la ondulatoria. La primera predecía que la luz viajaba más rápido por el agua que por el aire; la otra, que era justamente al revés. En 1850, Fizeau demostró que la luz se desplaza más lentamente en el agua que en el aire.
Es lo que se suele conocer como un experimento crucial, que decide entre dos teorías rivales: la hipótesis corpuscular cayó derrotada y la ondulatoria triunfó. Después de todo, la luz resultaba ser una vibración que se propagaba por el éter, el éter de entonces, desde ya, en el que todos creían.
Poco más tarde, Maxwell demostró matemáticamente de qué clase de ondas se trataba:
Tenemos poderosas razones para concluir que la luz en sí misma es una perturbación electromagnética en formas de ondas que se propagan a través del campo electromagnético según las leyes del electromagnetismo.
La hipótesis sobre la existencia de ondas electromagnéticas fue verificada por el alemán Heinrich Hertz en 1888. Así pues, la luz no era otra cosa que ¡una onda electromagnética, campos magnéticos y eléctricos que se propagaban en el éter!
Era una gran sorpresa, pero el problema de la naturaleza de la luz parecía estar zanjado.
Y sin embargo, y aunque nadie lo podía sospechar entonces, no estaba dicha la última palabra, ni sería la última sorpresa.

El calor: sustancia o movimiento

Que por mayo era, por mayo, cuando hace la calor, cuando los trigos encañan y están los campos en flor.
Romance del prisionero

Tal como ocurría con la luz, en relación con el calor había dos corrientes principales y en cierto modo parecidas: quienes lo consideraban una sustancia y quienes pensaban que era una forma de movimiento.
Asociar el calor con el movimiento no es tan insólito como a primera vista parece: ante fenómenos tan comunes como la agitación de la llama o el calentamiento de los cuerpos por frotamiento o percusión, uno puede pensar que es este movimiento el que genera el calor, agitando o separando las partículas de los cuerpos, provocando su dilatación o, cuando se da con mayor fuerza, su cambio de estado (como cuando el agua se evapora).
En cuanto a las causas de este movimiento, las opiniones estaban divididas entre quienes lo atribuían a un origen puramente mecánico y quienes creían que era provocado por un agente material. Quienes interpretaban la presión que un gas ejercía sobre las paredes de un recipiente como el resultado del golpeteo de las partículas del gas sobre estas paredes y comprobaban que, cuando el gas se calentaba, la presión aumentaba, deducían con facilidad que el calor que se transmitía al gas calentándolo y el aumento de presión consiguiente se debían a que las partículas adquirían mayor velocidad (o vibraban más rápidamente), golpeando las paredes con más frecuencia o fuerza. El hecho no preocupaba demasiado a quienes veían al calor como una sustancia porque la explicación de este fenómeno era todavía más simple: al calentarse el recipiente, entraba en él el calor sustancial, que, como ocupaba espacio, hacía que el gas se expandiera; al enfriarse el gas, salía ese calórico y, por consiguiente, el gas se contraía. Como ven, todo se puede explicar si se pone el suficiente empeño.
La concepción movimientista, o cinética, era mayormente sostenida por los físicos mecanicistas, en especial los más rigurosamente newtonianos, mientras que los químicos tendían a la idea sustancialista, es decir, sostenían que había una sustancia específica (los átomos de calor) que actuaba por su cuenta, penetrando o abandonando los cuerpos.
Cuando se difundió la doctrina del flogisto, muchos pensaron que el flogisto era la sustancia del calor. El hecho de que no se pudiera detectar ningún aumento de peso en los materiales calentados era un problema para la teoría, aunque por momentos se hacía uso y abuso del ejemplo de los metales calcinados, que sí evidenciaban un aumento de peso. Es divertido: el aumento de peso de los metales calcinados era una seria objeción a la teoría del flogisto, pero apuntalaba la teoría sustancialista del calor.
En 1732, el muy influyente Boerhaave, de quien ya hablamos cuando nos ocupamos de la medicina, publicó unos Elementos de química, donde consideraba que las partículas de un cuerpo estaban asociadas por fuerzas de atracción (responsables de su cohesión). Por otra parte, existía el «fuego elemental», una sustancia distribuida por todo el espacio, compuesta por partículas sutilísimas, no sometidas a la ley de gravitación, por lo cual carecían de peso, que al penetrar en los cuerpos oponían, frente a las fuerzas de cohesión, una acción disgregadora, manteniéndolas en perpetua agitación. Al ser sustancial, este fuego no se creaba ni se destruía: el calor no era más que su movimiento vibratorio.
Entre tanto, ya se habían ido distinguiendo las ideas de calor y temperatura y se habían desarrollado diversos termómetros y escalas termométricas como las de Fahrenheit (1714), Réaumur (1730) y Celsius (1742), de las cuales la primera y la tercera (decimal, o mejor centesimal, que fija el 0 en el punto de congelación del agua y 100 el punto de ebullición) siguen en uso. También se había desarrollado la idea de calor específico: la cantidad de calor que necesita una unidad de cualquier sustancia para aumentar un grado su temperatura.
Las cosas avanzaban a paso firme, pero aún quedaba un rescoldo sustancialista que tardaría en ser destronado.

§. El calórico
Porque lo cierto es que durante el siglo XVIII, salvo en Inglaterra (donde la influencia de Newton era absoluta), predominó más o menos la teoría sustancialista del calor. El propio Lavoisier creía que la «materia del fuego era un fluido sutil y elástico, capaz de penetrar los poros de todos los cuerpos», y le dio el nombre de calórico cuando propuso una nueva nomenclatura química, al tiempo que le asignó un lugar de privilegio en su tabla de los elementos como uno de los ladrillos básicos de la química y la materia. No deja de ser interesante señalar que así como Lavoisier había rechazado la existencia del flogisto, en gran parte por su índole metafísica y por carecer de peso, aceptó esas propiedades en el caso del calórico, lo cual muestra que las teorías científicas (y los científicos) no necesariamente son coherentes por completo.
Así, para la nueva química de Lavoisier, el calórico era una sustancia imponderable, sin peso, que fluía de un cuerpo a otro silenciosamente provocando cambios de temperatura. Pero seguía teniendo algunos pequeños inconvenientes: los casos de producción de calor mediante frotamiento, por ejemplo, eran mejor explicados por la teoría cinética: al poner en contacto un cuerpo caliente con otro frío, sus moléculas, animadas de rápido movimiento, chocaban con las del objeto frío, que se movían más lentamente; como consecuencia de ello, las moléculas rápidas perdían velocidad y las lentas se aceleraban un poco, con lo cual fluía calor del cuerpo caliente al frío.
Fíjense que toda esta discusión se dio sin que nadie tuviera la menor idea o prueba sobre la existencia de los átomos…

§. Rumford: el fin del calórico y el triunfo de la teoría cinética
El conde Rumford se llamaba en realidad Benjamin Thompson. Había nacido en 1753 en Massachusetts, en lo que todavía no eran los EE.UU., y su vida fue la de un aventurero inventivo, audaz, y nada escrupuloso: a los diecinueve años contrajo matrimonio con una viuda rica de treinta y tres en la ciudad de Concord, Nueva Hampshire, región también conocida como Rumford, con lo cual arregló sus problemas económicos.
Estallaba la Revolución Norteamericana, y Rumford colaboró con los británicos aunque, cuando las cosas pintaron mal, huyó a Europa, plantando a su mujer y a sus hijos, a los que nunca volvió a ver.
Después de varias peripecias, pasó a formar parte de la corte del elector de Baviera, donde dirigió una serie de experimentos sobre las propiedades de la seda, importante producto durante aquella época. En 1792, el elector le dio el título de conde. Y, más tarde, se casó con la viuda de Lavoisier (después de que a Antoine Laurent le cortaran la cabeza durante la Revolución), con quien protagonizó una relación tortuosa y tormentosa cuyas peleas eran la comidilla de París. No era un tipo muy simpático, y cuando en 1814 se murió a causa de una «fiebre nerviosa» (fuera esto lo que fuere), muy poca gente asistió a su entierro.
Pero más allá de las idas y vueltas de la vida de Rumford y de sus andanzas (¿cómo decirlo de manera elegante?) éticamente cuestionables, hizo un serio aporte a la teoría cinética. El más importante de sus experimentos estuvo relacionado, justamente, con la naturaleza del calor. Cuando supervisaba el arsenal de Baviera, donde los cañones se fabricaban taladrando un molde de metal, observó que se producía un aumento de temperatura en la estructura del cañón, en las virutas metálicas, pero también en la propia mecha o taladrador, de modo que parecía generarse calor continuamente en lugar de conservarse, como predecía la teoría del fluido calórico. Los partidarios de la teoría del calórico no se conmovieron, desde ya: contestaron que era porque el taladro rompía en pedazos el metal, dejando que el calórico contenido en éste fluyese hacia afuera, como el agua de un jarrón roto.
A Rumford no lo satisfacía la explicación, por lo cual hizo una serie de experimentos. En uno de ellos utilizó mechas desafiladas, de modo tal que el taladro giraba sin hacer mella sobre el metal ni desprender virutas. Y resultó que se producía tanto calor como si se utilizara una mecha nueva.
El calórico, entonces, no se desprendía por la rotura del metal y quizá no procediese siquiera de éste, lo cual resultaba completamente lógico si se corroboraba que, inicialmente, el metal estaba frío.
Para medir el calórico, Rumford observó cuánto se calentaba el agua utilizada para refrigerar el taladro y el cañón, y llegó a la conclusión de que si todo ese calórico se reintegrara al metal, el cañón debería fundirse, o sea que no podía haber estado allí desde el principio. Entonces pensó que el calor no podía ser una sustancia material y que más bien parecía ser el resultado del rozamiento o del trabajo realizado por las fuerzas de rozamiento.
Además, había un hecho incontestable: la fuente de calor parecía ser inagotable; bastaba que el taladro horadase continuamente el cañón para que éste se siguiera calentando eternamente.
Todo aquello que un cuerpo o sustancia puede continuar suministrando sin limitación no puede ser una sustancia natural, y me parece extremadamente difícil, si no imposible, imaginar algo capaz de producirse y comunicarse como el calor en estos experimentos a no ser el movimiento.
Rumford se convenció de que había demostrado que el calor no era un fluido, sino una forma de movimiento. A medida que el taladro rozaba contra el metal, su movimiento se convertía en rápidos y pequeñísimos movimientos de las partículas que constituían el bronce.
Igual daba que el taladro cortara o no el metal: el calor provenía de esos pequeñísimos y rápidos movimientos de las partículas, y, como es natural, seguía produciéndose siempre y cuando girara el taladro. La producción de calor no tenía nada que ver con ningún calórico que pudiera haber o dejar de haber en el metal.
Los experimentos de Rumford no tuvieron la repercusión que merecían y, además, se levantaba frente a la teoría cinética la enorme autoridad de Lavoisier. De modo que el calórico duró hasta mediados del siglo XIX, cuando Maxwell (y fíjense que ya es la segunda vez que lo nombro; la primera fue hace sólo unas páginas, en relación con la naturaleza de la luz), ya con la teoría atómica medio afirmada, mostró matemáticamente cómo las partículas del gas, moviéndose al azar, creaban una presión contra las paredes del recipiente que lo contenía. Además, esa presión variaba al comprimir las partículas o al dejar que se expandieran. La teoría cinética de Maxwell era aplicable tanto a líquidos y sólidos como a gases. En un sólido, por ejemplo, las moléculas no volaban de acá para allá como proyectiles, que es lo que sucedía en un gas, pero en cambio podían vibrar en torno de un punto fijo. La velocidad de esta vibración, lo mismo que las moléculas proyectiles de los gases, obedecía a las ecuaciones de Maxwell.
La teoría cinética, finalmente, triunfaba, y el calórico se sumergió en el abismo de las sustancias que nunca existieron.

La electricidad

Si se me pregunta cuál puede ser la utilidad de los fenómenos eléctricos, no puedo responder otra cosa sino que, hasta el presente, no hemos avanzado lo suficiente como para lograr que sean útiles al género humano.
SIR WILLIAM WATSON, 1746

§. Prehistoria
Hay muy pocas cosas más presentes en nuestra vida que la electricidad; vivimos rodeados de enchufes y aparatos y cuando nos falta nos sentimos perdidos. Pero la revolución eléctrica es muy reciente: hasta hace tan sólo un siglo y medio, el mundo vivía a pura vela, sebo y otras porquerías. Y eso que la electricidad estuvo siempre a la vista; sin ir más lejos, el trueno y el relámpago son fenómenos eléctricos. Pero es muy difícil, realmente muy difícil, darse cuenta de que el rayo se produce mediante el mismo mecanismo que el que se observa cuando al frotar un pedazo de plástico éste atrae pequeños pedazos de papel. Por eso es lógico que meter la electricidad en un cable y hacerla circular llevara milenios.
Tales de Mileto, nuestro viejo amigo que nos acompaña desde el primer capítulo, no tenía ni plástico ni papel, pero sí notó que el ámbar (una sustancia resinosa), después de ser frotada, atraía pajillas, plumas y otros objetos livianos. Como la palabra griega que designa al ámbar es «elektron», el buen Tales llamó «eléctrica» a esta fuerza misteriosa y conjeturó que era de la misma naturaleza que la fuerza que arrastra pedacitos de hierro hacia la piedra imán. No era raro que se le ocurriera, puesto que el efecto de tracción del magnetismo es realmente parecido, y durante mucho tiempo se pensó efectivamente que la fuerza eléctrica y el magnetismo eran semejantes.
Así empezó la electricidad en el mundo antiguo.
No hay ninguna evidencia de que se usara para algo práctico, salvo que las mujeres griegas decoraban sus rizadores de cabello con piezas de ámbar: cuando los rizadores eran electrificados por frotamiento, se producían curiosos fenómenos en el pelo. Si uno piensa en el papel que la electricidad habría de jugar en el mundo, no es demasiado…

§. Los efluvios eléctricos de Gilbert
Desde Tales hasta que se hizo el siguiente descubrimiento en el campo de la electricidad pasaron solamente dos mil años, y fue William Gilbert, el gran investigador del magnetismo, quien retomó el hilo (o el cable, digamos, aunque nadie soñaba con tales cosas en el siglo XVII). Lo primero que hizo fue distinguir los fenómenos eléctricos de los magnéticos: sólo por poner algunos ejemplos, la atracción magnética no necesita frotamiento para producirse, atraviesa una hoja de papel y sobrevive a la inmersión en agua, mientras que la fuerza eléctrica es destruida mediante la interposición de una mera pantalla. De este modo, para las sustancias que se comportaban como el ámbar —el vidrio, el azufre, o la cera— (y exclusivamente para ellas) acuñó el término «eléctricas»; poco después, Thomas Browne, también médico y escritor, inventó la palabra «electricidad».
Como ya conté en su momento, en el año 1600 Gilbert publicó el resultado de sus investigaciones en su famoso De Magnete. Pero no se limitó a describir sus experimentos y fue un poco más allá al elaborar una teoría sobre la naturaleza de la electricidad de corte sustancialista: bien acorde a la época, Gilbert pensó que la electricidad se debía a algo que bajo la fricción se liberaba del ámbar o del vidrio.
¿Pero qué podía ser? Gilbert era médico e, inspirado por la teoría de los humores, pensó que la fuerza o «virtud» eléctrica era algo parecido a un «humor» que existía en determinados cuerpos. La fricción, al calentarlos, los liberaba y se desprendía en forma de «efluvio» o «emanación».
¿De qué otra manera podía producirse la atracción entre cuerpos electrificados si no era por la atmósfera de efluvios que los rodeaba? Gilbert era un hombre de su tiempo y todavía no se hablaba de «acción a distancia»: si un cuerpo actúa sobre los demás por medio de una fuerza invisible, algo invisible debe rodearlo: parecía obvio entonces. Ése era el modo de razonar de un hombre de la época. Los efluvios que salían del cuerpo al ser frotado tenían una tendencia inherente a volver al cuerpo de origen y al hacerlo arrastraban consigo los pequeños objetos que quedaban a su alcance.
Fue la explicación que se impuso, y cuando medio siglo más tarde se descubrió que la electricidad podía producir rechazo y no sólo atracción, los efluvios de Gilbert se habían convertido en artículo corriente. Ni siquiera la teoría de la gravitación de Newton, que consagraba el principio de acción a distancia, había podido conmoverlos. Los «efluvios eléctricos» estaban firmemente arraigados y lo estarían por mucho tiempo más.
Pero efluvio va, efluvio viene, igual aparecían novedades: Otto von Guericke, burgomaestre de Magdeburgo, el mismo que había hecho el famoso experimento de los hemisferios para demostrar la existencia del vacío, inventó la primera «máquina eléctrica» de que se tuviera noticias: aprovechando los «efluvios» que producía el rozamiento, hizo girar un disco entre dos escobillas, lo cual hacía saltar una chispa. La máquina eléctrica se convirtió en un juego de sociedad.
En 1745, el científico danés Musschenbroek, de Leyden, consiguió «embotellar» —literalmente— los efluvios eléctricos. En realidad, inventó el primer condensador: la botella de Leyden, capaz de almacenar suficiente cantidad de electricidad como para producir una sensible descarga a quien la tocase estando cargada.
Poco antes había habido una noticia importante: la electricidad podía ser conducida. Esto sí que era una gran novedad. A nosotros, acostumbrados a los cables, nos puede parecer extraña la sorpresa que produjo, pero resultaba insólito que un delgado hilo pudiera llevar la electricidad de un cuerpo a otro.
No sólo era asombroso sino que complicaba las cosas para la teoría de los efluvios. Mientras la electricidad atrajera pequeños objetos, o fuera embotellada o no hiciera más que producir chispas, la explicación de Gilbert podía pasar. Pero los efluvios no eran lo más apropiado para ser conducidos de un cuerpo a otro: la misma idea de emanación tiende a la quietud y no al transporte. Tras el descubrimiento de la conducción, los efluvios dejaron de ser buen negocio y cayeron lentamente en decadencia.
Empezaban los tiempos del fluido eléctrico.

§. El fluido eléctrico
Desde hace un tiempo, soy de la opinión de que el fluido eléctrico no se crea por fricción, sino que es recolectado, siendo en realidad un elemento difuso atraído por otro tipo de materia, particularmente por el agua y los metales,
escribió en 1747 Benjamin Franklin.
En realidad, desde el descubrimiento de la conducción eléctrica, los efluvios estaban de capa caída y empezó a imponerse la idea de que la electricidad era un fluido, algo así como un impalpable e invisible líquido de materia sutil, semejante, digamos, al calórico, al flogisto o a cualquiera de esas sustancias que nunca existieron. Los partidarios de los efluvios, a regañadientes, se batieron en retirada, aunque en 1733 un informe de la Académie Française señalaba que
alrededor de un cuerpo electrificado se forma un vórtice de materia extraordinariamente sutil en un estado de agitación, que arrastra hacia él las sustancias livianas que están dentro de su esfera de actividad.
Un vórtice cartesiano, claro está.
Los efluvios estaban terminados, pero enseguida apareció otro tema de controversia gracias a (o por culpa de) el investigador Charles François Du Fay (1698-1739), que a través de sus experimentos llegó a la sorprendente conclusión de que en realidad existían no una sino dos clases de electricidad: una que llamó «vítrea» y otra «resinosa».
Hay dos electricidades de naturaleza completamente diferente. Cada una de ellas repele a los cuerpos que contrajeron electricidad de la misma naturaleza y atrae a los cuerpos que tienen electricidad de naturaleza opuesta.
No todos compartían la hipótesis de las dos electricidades. En 1746, el farmacéutico inglés William Watson sugirió que las acciones eléctricas se debían a la presencia de un «éter eléctrico» que en el cargarse y descargarse de un cuerpo se transfiere, pero no se crea ni se destruye. Para Watson, la excitación de un conductor no consiste sino en la acumulación de un excedente del éter eléctrico a expensas de algún otro cuerpo, cuyo stock disminuye en la misma cantidad.
Más o menos al mismo tiempo, el primer gran hombre de ciencia norteamericano, Benjamin Franklin (1706-1790), en la misma línea de pensamiento, proponía una cosa parecida: la cantidad total de electricidad en un sistema aislado es invariable (principio de conservación de la carga), y en realidad hay un solo tipo de electricidad. Para Franklin, la única electricidad que existe es «la electricidad vítrea» de Du Fay; la otra, la «electricidad resinosa», es una ficción, es simplemente la falta de fluido eléctrico. Franklin asignó un signo positivo a la «electricidad vítrea», y un signo negativo a la falta de electricidad. Se imaginaba a la electricidad como un fluido elástico, compuesto por
partículas extremadamente sutiles, dado que pueden permear la materia común y aun los más densos metales, con tanta facilidad que no se percibe ninguna resistencia.
Naturalmente, los experimentos más conocidos de Franklin fueron sus trabajos sobre la electricidad atmosférica: se tomó muy en serio la sugerencia, hecha por el profesor J. H. Winkler de Leipzig, quien sostenía que la descarga de una botella de Leyden y el trueno y el relámpago eran básicamente uno y el mismo fenómeno. Pensó (y no fue el primero) que el rayo era meramente una descarga eléctrica entre dos objetos con diferente potencial, como las nubes y la tierra, y observó que el rayo tendía a alcanzar edificios altos y árboles, lo cual le dio la idea de atraer el fluido eléctrico deliberadamente a la tierra de un modo que la descarga no produjera daños. Vale la pena insistir en que no era una asociación de ideas fácil.
A comienzos de 1747, Franklin escribía
Si el fuego eléctrico y el de los rayos es el mismo, como he tratado de demostrar, y admitiendo esta suposición, me pregunto si el conocimiento del poder de las puntas no podría beneficiar a los hombres para preservar las casas, las iglesias, los buques, etcétera, contra los golpes del rayo, fijando perpendicularmente sobre las partes más elevadas de los edificios, barras de hierro en forma de aguja y doradas para prevenir la herrumbre y al pie de esas barras un alambre que llegue hasta los cimientos de la tierra. ¿No atraerían esas barras de hierro, en silencio, el fuego eléctrico de la nube antes de que ésta pueda aproximarse para dar el golpe? ¿Y no podríamos, por esos medios, precavernos de tantos desastres repentinos y terribles?
La cita tiene la forma, para nosotros, de una adivinanza, cuya respuesta está a la vista: el pararrayos.
Es bien conocido su experimento decisivo. En 1752 remontó un barrilete en medio de una tormenta. El barrilete tenía en su extremo superior un alambre terminado en punta, que mediante un hilo de seda estaba conectado a una llave de metal cerca del extremo que sostenía Franklin. En plena tormenta, acercó la mano a la llave y saltó una chispa, con lo cual quedaba claro que efectivamente el hilo transmitía electricidad del cielo a la llave. Más tarde pudo incluso cargar una botella de Leyden, demostrando así que las nubes realmente estaban cargadas eléctricamente. Y desde ese momento la barra de Franklin (que conducía las descargas pacíficamente a tierra) empezó a extenderse sistemáticamente. El primer pararrayos fue construido, según las instrucciones de Franklin, por Johann Heinrich Winkler.
Obviamente, como toda innovación tecnológica, el pararrayos tuvo sus resistencias (¡recuerden la resistencia que hubo a usar microscopios!), que se centraron en argumentos del tipo: «Si el rayo es un castigo de Dios para los impíos, ¿cómo puede el hombre interferir en él?». Pero parece que no había impíos desempeñando funciones públicas en Filadelfia, al menos, porque para 1782 había ya 400 pararrayos protegiendo prácticamente todos los edificios públicos. La excepción era la embajada francesa, que ese mismo año fue alcanzada por un rayo que provocó la muerte de uno de sus funcionarios. Tras lo cual, como es lógico, se apresuraron a instalar la barra de Franklin.
A todo esto, uno de sus discípulos, Franz Aepinus (1724-1802), terminó para siempre con los remanentes de la teoría de los efluvios y abordó el meollo de la cuestión: la acción a distancia. Aepinus estableció que la acción de las fuerzas eléctricas se ejercía efectivamente a distancia a través del aire y aplicó sus teorías al fenómeno de la inducción, mediante el cual un cuerpo cargado próximo a uno conductor, pero sin contacto con él, se cargaba, él también, eléctricamente.
También buscó —y no encontró— la ley que gobernaba esas fuerzas eléctricas; ese honor le estaba reservado al químico Joseph Priestley —el mismo que ya vimos descubriendo el oxígeno—, que en 1767 sugirió que la fuerza eléctrica debía obedecer a una ley parecida a la de la gravitación. La hipótesis fue confirmada experimentalmente en 1785 por el físico francés Charles Auguste de Coulomb, y hoy la ley que rige la fuerza eléctrica lleva su nombre: las cargas eléctricas se atraen o rechazan con fuerzas inversamente proporcionales al cuadrado de la distancia que las separa.
Con la ley de conservación de la carga, la teoría del fluido único, la ley de Coulomb y la aceptación de la acción a distancia, a fines del siglo XVIII y principios del XIX el estudio de la electricidad había avanzado bastante, aunque no se tuviera aún —y no se tendría por mucho tiempo— una idea acabada sobre su naturaleza.
Pero, como ya había enseñado Newton, imperaba el «yo no formulo hipótesis». Se trataba de descripciones más o menos empíricas, que muchas veces producían aplicaciones sensacionales como el pararrayos.

§. La rana de Galvani y la pila de Volta
Usamos con cierta frecuencia la palabra «galvanizar», que se remonta a los primeros tiempos de las investigaciones en el campo de la electricidad. La leyenda cuenta que un día del año 1780 Luigi Galvani, profesor de medicina en la Universidad de Bolonia, estaba en su casa dando una clase a sus estudiantes, mientras su esposa preparaba en la cocina el manjar favorito del profesor: ranas. La signora Galvani, demasiado atenta a las explicaciones de su marido, dejó escapar el escalpelo, que cayó sobre el muslo de la rana, tocando la base de zinc al mismo tiempo. La rana —muerta, claro está— se agitó violentamente, como si quisiera saltar del plato.
La Signora gritó. El Professore, indignado por la interrupción, irrumpió en la cocina para ver qué pasaba. La Signora le contó la historia y, para probarla, dejó caer el escalpelo sobre la rana, que nuevamente saltó contrayendo sus músculos muertos. Allí mismo, en el medio de la cocina, Galvani proclamó: «He hecho un gran descubrimiento: ¡la electricidad animal, fuente primaria de la vida!». Es una leyenda, sí, probablemente falsa, pero la historia de la ciencia se alimenta también de la leyenda y de la sustancia de los mitos.
Unos años más tarde, Galvani, además de interminables peroratas y demostraciones públicas sobre «la electricidad animal», escribió un tratado con un indigerible nombre en latín donde exponía sus teorías. Según él los tejidos animales contenían una fuerza eléctrica innata (la famosa «electricidad animal») que alimentaba a los músculos y a los nervios y salía a la luz cuando éstos eran tocados por objetos de metal. Pensó también que esa «electricidad animal» era una especie de «espíritu vital» que animaba a los seres vivos y creyó haber encontrado la esencia de la vida. Pegaba bien con las teorías vitalistas en boga: finalmente, se había descubierto que la electricidad era la escurridiza «fuerza vital».
La electricidad animal y las ranas contracturadas de Galvani hicieron furor. No había salón donde no se hablara del tema y los aristócratas se precipitaban al laboratorio para ver a las ranas muertas contraerse bajo la acción de unas pinzas de metal. La palabra «galvanizar» nos recuerda aquellas aventuras y la electricidad como «chispa de la vida» se reflejó también en la literatura, como lo testimonia el Frankenstein, de Mary Shelley.
Los puntos de vista de Galvani y sus teorías sobre la electricidad animal fueron aceptados casi universalmente, con una importante excepción: Alessandro Volta, el notable profesor de física de la Universidad de Pavia. Volta sostenía que en el experimento de Galvani no había ningún tipo de electricidad animal ni nada que se le pareciera. Más aún: para Volta, las infelices ranas no jugaban ningún papel, salvo el de conductores de la electricidad, de una leve corriente eléctrica que se producía al entrar en contacto dos metales diferentes (como el cuchillo de hierro y el plato de zinc de la signora Galvani). Era mucho decir, y se desató una virulenta polémica.
Galvani murió en 1790 y recién diez años después Volta pudo demostrar de manera concluyente que, efectivamente, cuando dos metales diferentes entran en contacto se genera un flujo de corriente eléctrica. Recortó discos de diferentes metales, y los apiló unos sobre otros, separándolos por capas de fieltro embebidas en ácido: las diferencias de potencial generadas entre disco y disco se acumularon y la «pila» produjo un flujo eléctrico firme y constante.
Volta no sólo había demostrado tener razón en la polémica con Galvani, sino que había hecho mucho más: había construido la primera fuente permanente de electricidad (aunque, en realidad, se equivocaba cuando explicaba el modo de funcionamiento, puesto que la corriente eléctrica entre los dos metales no se debe al contacto sino al fenómeno de electrólisis —es decir, de separación de los elementos de un compuesto— del medio que los separa).
Gracias a ese descubrimiento (o invento, vaya uno a saber), Volta revolucionó completamente la investigación eléctrica: a partir de entonces, los investigadores disponían por primera vez de fuentes permanentes de corriente eléctrica. No es de sorprender, entonces, que la investigación eléctrica se intensificara. El siguiente gran salto, que habría de encaminar los estudios eléctricos hacia la concepción moderna y hacia la revolución eléctrica, iba a ser responsabilidad de un físico danés: Hans Cristian Oersted.

§. Oersted y Faraday
Aunque yo pudiera ser Shakespeare, pienso que igual preferiría seguir siendo Faraday.
ALDOUS HUXLEY
Muchos años más tarde, ya en la cumbre de su fama, Michael Faraday recordaría aquella remota tarde en que un cliente de la librería lo invitó a escuchar una conferencia de Humphry Davy (1778-1829). Según él mismo contó después, fue la conferencia de Davy la que lo decidió a dedicarse a la ciencia.
Pero la historia, como tantas otras, empieza antes y (¡otra vez!) con una leyenda. Y es así: un día cualquiera de 1819, el físico danés Hans Christian Oersted estaba dando clase en la Universidad de Kiel (ahora Alemania, entonces Dinamarca) y, durante un experimento, un alambre por el cual circulaba electricidad se deslizó de su mano y cayó sobre una brújula que estaba casualmente sobre la mesa. Al recoger el alambre vio que la aguja de la brújula se había desviado. Cortó la corriente, y la brújula volvió a su posición normal, apuntando hacia el Norte. Era evidente que la corriente eléctrica tenía algún tipo de efecto magnético que había hecho desviar la brújula.
Naturalmente, las cosas no fueron exactamente así: en realidad hacía muchos años que Oersted estaba experimentando —sin éxito— sobre los efectos magnéticos de la electricidad. Más aún: durante el siglo XVIII muchos físicos habían especulado sobre las conexiones entre el magnetismo y la electricidad, fenómenos que Gilbert había separado radicalmente en el siglo anterior. Sin embargo, algunas observaciones casuales habían mostrado que el rayo actúa sobre la brújula. Además, estaba el hecho de que la ley que regía las fuerzas eléctricas era idéntica a la que gobernaba los polos magnéticos y muchos pensaban que no podía tratarse de una casualidad y que debía haber alguna relación profunda entre ambos fenómenos. Oersted era uno de ellos. También seguían una de las grandes corrientes de la época, la Naturphilosophie (filosofía de la naturaleza), que, con indudables tintes del romanticismo, imaginaba al mundo como un todo más o menos orgánico, y postulaba la unidad de todas las fuerzas.
Pero siempre —o casi siempre— es preferible la leyenda. Apenas Oersted anunció el descubrimiento, se produjo un fuerte impacto entre los físicos: la vinculación entre electricidad y magnetismo tenía un atractivo poderoso. Nadie se imaginaba cuán poderoso, en realidad.
En seguida empezaron las pruebas y los experimentos. El inglés Sturgeon arrolló una espira alrededor de una barra de hierro corriente y vio que, mientras la corriente circulaba, la barra de hierro se convertía nada menos que en un imán.
Y así nació el electroimán, que abrió el camino del telégrafo y —más tarde— del teléfono. En Francia, Ampère —que daría su nombre a la unidad de corriente eléctrica— afinaba las observaciones de Oersted y estudiaba la atracción recíproca de dos corrientes eléctricas entre sí.
Pero faltaba todavía una conexión para que este primer ciclo de la investigación en electricidad se cerrara, y fue entonces cuando apareció Michael Faraday, escuchando la conferencia de Davy (quien, entre otras cosas, desentrañó el fenómeno de la electrólisis, que era la verdadera explicación del funcionamiento de la pila de Volta).
Faraday había nacido en 1791 cerca de Londres; su familia era muy modesta y su educación, como él mismo contó,
fue del tipo más corriente: los rudimentos de lectura, escritura y aritmética en una escuela diurna común. Las horas fuera de la escuela las pasaba en mi casa y en las calles.
Es decir, nada de estudios superiores. Pero desde muy joven empezó a trabajar en la casa de un librero y a adquirir cultura por su cuenta. Fue allí donde un cliente lo invitó a la conferencia de Davy. Faraday plantó la librería y se las arregló para que Davy lo tomara como asistente. Tenía entonces veintidós años y no podía haber encontrado un maestro mejor. Junto a Davy se empapó de las técnicas de laboratorio que, una vez que empezó a experimentar por su cuenta, rindieron excelentísimos frutos: desde un método para licuar gases o el descubrimiento del benceno hasta un mejoramiento de las leyes de la electrólisis de su maestro. En su estudio del magnetismo, introdujo la idea de líneas de fuerza y el fructífero concepto de campo magnético. Paso a paso, se iba aproximando a su descubrimiento capital.
Ya era un hecho constatado que la corriente eléctrica producía un campo magnético. Faraday invirtió el problema y, puesto que la electricidad producía magnetismo, se preguntó si no sería posible que el magnetismo generara electricidad.
Arrolló una espira alrededor de una barra de hierro, y la situó frente a una segunda espira. Al circular la corriente por la primera espira, esperaba que la barra, transformada en imán, indujera una corriente en la segunda espira.
Pero no pasaba nada. Es verdad que al encender la corriente en la primera espira se producía una corriente en la segunda, pero duraba sólo un instante y desaparecía. También al cortar la electricidad que imantaba la barra volvía a aparecer una breve corriente en la segunda espira. Pero sólo eso. Faraday no lograba producir una corriente continua en la segunda espira y tardó en dar con la clave del asunto.
Y la clave del asunto es que un campo magnético no produce ninguna corriente eléctrica. Para que se produzca una corriente eléctrica el campo magnético tiene que variar o moverse. Al prender o apagar la corriente, el campo magnético variaba y aparecían breves corrientes en la segunda espira. Mientras el campo magnético permanecía invariable, nada. Pero Faraday tardó en darse cuenta. Recién el 28 de octubre de 1831, haciendo rotar una espira en un campo magnético, logró producir una corriente eléctrica permanente. Había descubierto la inducción eléctrica (que nada tiene que ver con la inducción como método de conocimiento, de la cual hemos hablado tanto).
Fue un descubrimiento feliz. Por empezar, cerró el circuito: así como la electricidad induce magnetismo, el magnetismo induce electricidad. Pero además, en la inducción estaba implícita una manera directa y práctica de generar electricidad: hacer girar un conductor en un campo magnético. Llevaría aún cuarenta años implementarla.
Faraday está en la base del mundo moderno. Con él, la electricidad y el magnetismo, los dos campos que Gilbert había separado hacía ciento cincuenta años, volvían a juntarse y a mostrar su íntima conexión e interdependencia. Sólo faltaba que alguien tradujera esa conexión en el lenguaje de las matemáticas, en una síntesis genial. Faraday no había resuelto el problema de qué es la electricidad. Esa tarea quedaría para fines del siglo XIX, y la respuesta habría de ser, en verdad, muy sorprendente. Y vendría de la mano, otra vez, de Maxwell, el responsable de la resolución de los tres misterios: la luz, el calor y el electromagnetismo.

Capítulo 24
La forma del cielo y la filosofía natural

«El siglo XVIII aspiraba a la unidad. Para quien supiera abarcarlo con una sola mirada, el universo sería un hecho único y una gran verdad», escribía D’Alembert en el «Discurso Preliminar» de la Encyclopédie. Un hecho único, un mecanismo unificado, desde ya, gracias al racionalismo y a la clasificación, que culminaron en el ordenamiento del mundo natural gracias a la nomenclatura universal de Linneo, en la puesta en marcha de la química por Lavoisier, en la elaboración de una teoría de la electricidad.
Pero al mismo tiempo el siglo XVIII fue testigo de una separación fundamental: en primer lugar, la de la ciencia y la filosofía, pero, como consecuencia de ello, la de todas las disciplinas particulares. Si antes no se concebía una rama de la ciencia sino como una parte de un sistema filosófico general, ahora cada una se arrastraba solapadamente tratando de fortalecer su impulso interno hacia la autonomía. La masa de datos científicos cosechados por la ciencia experimental había sido tan grande que el iceberg gigantesco que tenía en su base a la metafísica, como postulaba Descartes, no podía sino partirse, aunque ninguno de los que pasaron a ocuparse de los múltiples fragmentos pudiera realmente dejar de dar un vistazo en lo profundo para averiguar qué había oculto bajo el agua, buscando un empujoncito metafísico-filosófico que justificara lo que estaba haciendo. Las leyes impersonales que habían sustituido a la Fe eran las que garantizaban la capacidad de flotar del iceberg, pero el secreto de las mismas permanecía enterrado.
Aunque el siglo XVIII hipostasió la razón hasta el punto de estar próximo a perderla, como leí en algún sitio, el espíritu continuaba siendo absolutamente optimista: todo se arreglaría, todo se solucionaría. Si algo no se resolvía, sólo era cuestión de esperar: la idea de progreso, que eclosionaría con toda su furia en el siglo siguiente, se fortalecía al fragmentarse el conocimiento en especialidades. Ya no se trataba de grandes sistemas globales que luchaban entre sí, sino que las posturas empezaban a plantearse dentro de las disciplinas: vitalistas contra mecanicistas, neptunistas contra plutonistas, partidarios del fluido eléctrico único contra los que creían en las dos electricidades, sustancialistas contra cinéticos acerca de la naturaleza de la luz y el calor, defensores y detractores del flogisto.
Hubo también un doble movimiento en relación con el papel del hombre, tanto en la naturaleza como en la sociedad: si bien por un lado el universo se había sometido a la razón humana y el hombre —el individuo— había empezado a concebirse como el actor central del mundo, la sociedad y la ciencia, al mismo tiempo la percepción de su importancia real en el maremágnum de la naturaleza se debilitaba o, mejor dicho, se adecuaba a la verdadera dimensión que tiene: poca. Pero esa poca importancia no resultaba aplastante ni abrumadora, porque tenía como contrapeso a las poderosas armas de la razón triunfante: estamos en pleno tránsito del barroco al neoclasicismo.
Mientras tanto, los barcos de esclavos seguían cruzando los mares, los habitantes originarios de América morían como moscas en el fondo de las minas, y los telares de Manchester imponían al mundo sus mercancías y una nueva forma de colonialismo.
Este doble sentimiento de omnipotencia por la racionalidad alcanzada y de inferioridad por la insignificancia de la posición del hombre en la totalidad del universo empezó, como siempre ocurre, por el cielo. Los mecanicistas de la época demostraron la omnipresencia de la ley de la gravitación en todos los rincones del sistema solar y, con el eficaz instrumento del análisis matemático, lograron hacer previsibles las más lejanas consecuencias de las leyes mecánicas conocidas. Por un momento, hacia 1780, su éxito podía dejar la impresión de que la astronomía, donde todo parecía haberse vuelto calculable, estaba terminada. Los grandes teóricos como Laplace y Lagrange elaboraron ad nauseam la mecánica celeste, afinando los elementos y técnicas matemáticas legados del siglo anterior, y desarrollando nuevos métodos cuando fue necesario, en un esfuerzo verdaderamente titánico. Pero aunque algunos resultados implicaban tranquilidad —Laplace probó la estabilidad del Sistema Solar, por ejemplo—, el gigantesco caudal teórico no agregó verdaderas novedades.
Era necesario, en ese punto, alejarse un tanto de la teoría y ponerse a mirar el cielo. Y así, el nuevo impulso vendría de la astronomía observacional.

§. William Herschel
Herschel nació en 1738 en Hannover, que entonces era un principado electoral del Sacro Imperio Romano Germánico y que más tarde se incorporaría a Alemania. Hijo de un músico sin recursos, llegó a Inglaterra a los 18 años de edad como oboísta de las guardias hannoverianas. Como no le gustaba el servicio de las armas, ni siquiera como músico, abandonó el regimiento y después de algunos años de penurias económicas ocupó el cargo de organista de la capilla Octagon de Bath, estación termal muy de moda entonces. En ese entonces, los baños termales eran una de las terapéuticas más en boga, y seguramente no eran ni mucho más ni mucho menos efectivas que ahora. Durante dieciséis años fue organista, y daba lecciones privadas para aumentar sus ingresos, hasta que se despertó su interés, primero por la óptica y luego por la astronomía, posiblemente a partir de un libro que divulgaba el sistema newtoniano del mundo.
Fue una suerte. Herschel, primero, compró un pequeño telescopio, pero pronto no le alcanzó y se puso a construir uno más con sus propias manos. En 1774 pudo por fin contemplar el cielo con un instrumento como la gente. Lo cual tampoco le alcanzó: por el contrario, se puso a construir telescopios cada vez más grandes, tallando y puliendo centenares de espejos, hasta llegar a tener aparatos verdaderamente gigantescos para la época. En 1789, mientras una de las más radicales revoluciones de la historia humana se gestaba del otro lado del Canal de la Mancha, estaba en poder de uno de 40 pies de distancia focal, que entonces era una enormidad. Un mes después de la toma de la Bastilla, Herschel se internaba por primera vez en el cielo nocturno con su gigante de 1,20 metro de apertura.
Pero no nos adelantemos. Mientras estaba en Bath, repartía su vida entre la música y la astronomía (disciplinas muy ligadas entre sí desde la Antigüedad, si recuerdan, aunque obviamente ya totalmente separadas por entonces), con la ayuda de su hermana Catherina Lucrecia (1750-1848), que funcionó como asistenta de investigación, secretaria y calculista. Hasta ahí, era un —digamos— simple astrónomo aficionado. Pero siete años después de empezar con su primer telescopio hizo un descubrimiento sensacional, que lo llevó a la fama y al conocimiento público.

§. Un nuevo planeta
Nuestro amigo exploraba de manera sistemática todo el cielo visible desde Inglaterra, y en el curso de esta exploración, el 13 de marzo de 1781, tropezó con un astro que no aparecía como puntual —como ocurre con las estrellas—, sino que tenía un disco discernible. La conclusión parecía servida: se trataba de un cometa, y así lo presentó seis semanas después en una memoria a la Royal Society: «Reporte de un cometa».
Sin embargo, una revisión y análisis de la órbita mostró que ésta no podía corresponder a la trayectoria de un cometa… ¿Qué era entonces? La conclusión no tardó en llegar: se trataba de un nuevo planeta del Sistema Solar, Urano.
El descubrimiento causó sensación. Hasta entonces ningún nuevo planeta se había agregado a la serie de los cinco conocidos desde la más remota Antigüedad (Mercurio, Venus, Marte, Júpiter, Saturno) y los merecidos honores se derramaron sobre él. Digamos, de paso, que Urano había sido visto varias veces y por diversos astrónomos, pero en todos los casos se lo había confundido con una estrella más entre las que lo circundaban. Herschel fue nombrado miembro de la Royal Society, la Universidad de Oxford le concedió el título de doctor, y el propio rey de Inglaterra lo recibió en audiencia privada, durante la cual William les mostró a él y a su corte las maravillas que se veían a través del telescopio y el astrónomo real tuvo la oportunidad de constatar, asombrado, que el instrumento casero utilizado por Herschel era indiscutiblemente mejor que el gran telescopio nacional instalado en el observatorio de Greenwich.
Semejante habilidad como constructor merecía algún tipo de reconocimiento: le dieron el cargo de «constructor de anteojos de la corte», uno de esos absurdos títulos que solían inventar las monarquías, con una pensión bastante amarreta, pero que se compensó con el hecho de que más tarde el rey habría de pagar las cuatro mil libras que costaría el gran telescopio de 40 pies del que ya les hablé, el más grande del mundo. De todos modos, con el descubrimiento de Urano a cuestas, se casó con la hija de un rico comerciante de London City, con lo cual quedó libre de cualquier preocupación material y pudo dedicarse por entero a la observación. Aunque en este caso la conexión causal fue, digamos, casi directa, no se puede generalizar mediante inducción y establecer como principio que el descubrimiento de un nuevo planeta es el camino más directo para casarse con una rica heredera.
Fue con este gran aparato que estableció su observatorio en Slough, al sur de Inglaterra, e hizo tan famosa la localidad que su presencia atraía las visitas y la curiosidad de todo el mundo. «Slough —se decía— es, de todo el globo terráqueo, el lugar en el que se realizó el mayor número de descubrimientos astronómicos». Es que el telescopio de Herschel fue, para su época, lo que el Hubble para la nuestra.
En cuanto el instrumento fue montado, enseguida atrapó nuevos objetos astronómicos del Sistema Solar: Mimas y Enceladus, dos nuevos satélites de Saturno, y Oberón y Titania, satélites de Urano.

§. Estrellas dobles
Pero Herschel no se limitó al Sistema Solar, sino que se enfrascó en la investigación de un fenómeno que parecía no tener explicación. Ya se sabía que muchas estrellas se desdoblaban ante el telescopio, pero se suponía que era un fenómeno debido al azar: las dos componentes estaban, por casualidad, en la misma línea visual (lo cual no era disparatado, desde ya), de modo que se trataba de un mero efecto de perspectiva. Pero Herschel encontró montones de estas estrellas —de hecho, hoy hemos podido comprobar que la mayoría de las estrellas pertenecen a sistemas dobles, triples y hasta quíntuples, como por ejemplo alfa del Centauro, la más próxima a la Tierra, que forma parte de un conjunto de cinco estrellas—, catalogó ochocientas y concluyó que:
El azar no puede explicar el frecuente fenómeno de las estrellas dobles.
Mediante mediciones ajustadísimas, comprobó que eran estrellas que giraban una alrededor de la otra, o mejor dicho alrededor de un común centro de gravedad:
Debemos admitir que estas estrellas no son solamente dobles en apariencia, sino que forman realmente sistemas binarios, cuyas componentes están íntimamente ligadas entre sí por atracción mutua.
En realidad, Herschel estaba tratando de medir la paralaje estelar, un tema pendiente desde los tiempos de Copérnico (y antes aún), en lo cual fracasó. Pero lo cierto es que se trataba de la primera y sensacional prueba de que las leyes de Newton se cumplían más allá del Sistema Solar: la Gran Ley de Gravitación mostraba su potencia realmente universal.
La cosa no terminó ahí. Ya Halley había observado que las «estrellas fijas» —cuatro por lo menos— no eran tan fijas, sino que tenían un movimiento propio; Herschel confirmó las mediciones de Halley pero, además, conjeturó, como ya lo habían hecho muchos otros, que el Sol no podía ser la excepción. Se trataba de una idea que había sido adelantada por varios astrónomos pero que sólo él consiguió probar y lo hizo, como suelen hacerse las comprobaciones geniales, mediante un sencillo procedimiento: la observación cuidadosa (y también milimétrica, desde ya) le mostró que los astros aparentemente se separaban en una dirección del cielo, mientras que en la dirección opuesta tendían a acercarse. Este comportamiento sólo podía ser reflejo del desplazamiento de nuestro propio Sistema Solar, del mismo modo que cuando caminamos en un bosque o entre una multitud los árboles o las personas en el sentido de nuestro movimiento parecen separarse, mientras que hacia atrás parecen compactarse.
Así, pudo anunciar en 1805 que el Sol y todo el Sistema Solar se dirigen hacia un punto situado en la constelación de Hércules (el llamado «ápex solar»). Y noten una cosa: en todo este razonamiento, desde Halley a Herschel, se ve que la idea de que el Sol es una estrella como las demás está completamente naturalizada.

§. La galaxia
Planetas, estrellas, satélites: el increíble panorama no detuvo a Herschel. El paso siguiente era averiguar la estructura general del universo.
Por supuesto, no fue el primero en plantearse el problema. A lo largo del siglo XVIII, Thomas Wright (1711-1786), Immanuel Kant (1724-1804) y Johann Heinrich Lambert (1728-1777) ya habían formulado hipótesis. Kant, en su Allgemeine Naturgeschichte, opinaba que el universo estelar, cuyo límite aparente constituye la Vía Láctea, consistía en un sistema achatado comprendido entre dos planos paralelos y relativamente próximos, del cual el Sol ocuparía más o menos el centro: un universo- isla. No era una idea arbitraria: basta observar el cielo nocturno (en lo posible lejos de las ciudades y otras fuentes de luz, pero entonces había muy poca contaminación luminosa) para ver que las estrellas parecen acumularse en una franja achatada (la Vía Láctea).
Wright expresó sus conjeturas en una original Theory or New Hypothesis of Universe (1750), llegando a conclusiones semejantes a las de Kant. Lambert, por su parte, sostenía en 1761 que cada estrella sería un Sol rodeado por planetas, constituyendo un sistema de primer orden; cada sol, al igual que el nuestro, pertenecería a un conjunto compuesto por un millón y medio de estrellas que circulan en torno de un centro común de gravedad y forman un sistema de segundo orden; a su vez, un gran número de estos conjuntos forman la Vía Láctea, sistema de tercer orden constituido por un disco de espesor relativamente pequeño. Y era posible que el conjunto de vías lácteas formara un sistema de cuarto orden. Mientras tanto, Wright tenía una extraña intuición, que les cuento en un recuadro.
Herschel también estaba preocupado por el tema:
El conocimiento de la construcción del cielo ha sido siempre el supremo objeto de mis estudios,
escribió en 1811.
Las especulaciones de Kant, Lambert o Wright eran razonables —muy razonables en realidad—, aunque su única base empírica era la observación, a simple vista, del hecho de que las estrellas se apiñaban en una franja estrecha.
Herschel trató de fundamentar esta hipótesis mediante una exploración más minuciosa del cielo, contando el número de estrellas que pasaban en un tiempo dado por el campo visual de su telescopio, y deduciendo estadísticamente la densidad estelar. El proyecto le llevó treinta años y, como obviamente, no pudo observar todo el cielo con su telescopio, que sólo abarcaba 1/830.000 de la bóveda celeste, tuvo que limitarse a un muestreo.
Pero el asunto es que llegó a resultados muy parecidos a los predichos por Kant y Lambert: la galaxia es una inmensa aglomeración heterogénea de estrellas, con la forma de un disco muy aplanado, con dos ejes desiguales. En 1818, Herschel admitió que sus medios no eran suficientes para dilucidar la proporción entre los dos ejes y vaticinó que la determinación del verdadero tamaño de la galaxia tendría que esperar a nuevas generaciones de astrónomos y telescopios más potentes, como efectivamente ocurrió.
Entre tanto, había observado un tipo de objetos que parecían bastante misteriosos, y que centrarían la discusión astronómica durante todo el siglo XIX. Y es que en la naturaleza de estos objetos estaba la clave de la arquitectura del universo.

§. Las nebulosas y la teoría del universo-isla
Estos objetos eran las nebulosas, grandes (o medianas) manchas blanquecinas y difusas. Ya se conocía un centenar de objetos de ese tipo: la nebulosa de Andrómeda (porque se ubica en esa constelación) había sido observada, a simple vista, por los astrónomos árabes; las nubes de Magallanes, como su nombre lo delata, habían sido vistas en el sur por el gran navegante; en 1610 se había descubierto la de Orión; en 1665, la de Sagitario; Halley en 1714 enumeró seis y, por último, el francés Messier (1730-1817) incluyó cien en su famoso catálogo. Herschel elevó el número a 2.300.
El problema es que no se tenía la menor idea de lo que eran. Nuestro protagonista consiguió resolver en estrellas algunas de ellas y generalizó un tanto apresuradamente, diciendo que todas las nebulosas eran aglomerados estelares, de modo tal que cualquiera podría descomponerse en estrellas si se tuvieran instrumentos de observación lo suficientemente poderosos. Pero si no podían descomponerse en estrellas objetos tan grandes, es que sus distancias debían ser descomunales, superando con creces los bordes de la Vía Láctea. Se trataba, entonces, de enjambres estelares semejantes a la Vía Láctea que flotaban en el espacio lejos, muy lejos de ella. Eran otras galaxias, otros universos-isla. Así, en 1785, Herschel creyó haber demostrado lo que Thomas Wright y el mismísimo Kant habían intuido: la multiplicidad de las galaxias, la inquietante pluralidad de los mundos.
No duraría demasiado. Después de un tiempo, cambió de postura: tras observar que algunas de ellas eran efectivamente masas de gas difuso, decidió que se trataba de objetos internos de la galaxia.
La discusión se arrastraría durante todo el siglo XIX y se resolvería recién en la segunda década del siglo XX.
Herschel murió en 1822, a los 84 años de edad, y dejó tras de sí un universo mucho más rico y completo que aquel con el que se había encontrado. Gracias a él, las estrellas dejaron de verse como cuerpos celestes de naturaleza enigmática para convertirse definitivamente en soles comparables con el astro central de nuestro sistema. Ninguna de ellas es fija; todas, incluso el Sol, se desplazan en el espacio galáctico. Miles son en realidad astros gemelos, sistemas giratorios cuyos movimientos obedecen a la férrea Ley de Newton. Además, muchas se reúnen en enormes cúmulos que forman nuevas unidades físicas. La distancia, aunque enorme, ya no es la misma para todas.
Más allá de las estrellas brillantes y cercanas se abren inmensos campos estelares con débil luminosidad aparente, cuyo conjunto, entremezclado con masas gaseosas, constituye el disco achatado de la galaxia, nuestro universo-isla.
Pero mientras Herschel retomaba con fuerza la idea observacional en astronomía, fiel al compromiso de 1758 que combinaba racionalismo y empirismo, y construía un mapa del cielo infinitamente más rico que el que existía hasta entonces, dejando igualmente muchos cables sueltos para que se agarraran de ellos las generaciones sucesivas, aquí, en la Tierra, se producía un sacudón político, social y conceptual, que también marcaría y determinaría los tiempos por venir y que era el resultado del larvado madurar del racionalismo a lo largo del siglo XVIII: la Revolución Francesa.

Wright y los agujeros negros
Todo campogravitatorio tiene lo que se llama una «velocidad de escape», que es lavelocidad mínima inicial que debe tener un móvil para no entrar en órbitaalrededor del astro que lo produce. Así, por ejemplo, si yo quisiera lanzarun cohete para que llegara hasta Marte, debería hacerlo con una velocidadinicial de 11,2 km/s, por segundo (40.320 km/h) o más; en caso contrario, obien caería a la Tierra por influjo de la acción gravitatoria, o bienquedaría orbitando como la Luna.
Pues bien:Wright, conociendola velocidad de la luz, y considerando, como lo hacíaNewton, que la luz es un chorro de corpúsculos (recordemos que estaba enplena vigencia la oposición entre la teoría ondulatoria y la corpuscular),calculó que si en la naturaleza existieran realmente cuerpos cuya densidad nofuera menor que la del Sol, y cuyos diámetros fueran más de 500 veces eldiámetro del Sol, la «velocidad de escape» sería mayor que la de la luz, demodo que ésta no podría zafar del campo gravitatorio y llegar hasta nosotros.Por lo tanto, el objeto nos resultaría invisible —un agujero negro (desde yaque Wright no usó esta denominación) —, aunque podríamos inferir suexistencia mediante cualesquiera cuerpos luminosos que estuvieran girando enórbitas en torno de ellos. De hecho, es así como los astrónomos deducenactualmente la existencia de los agujeros negros. Una idea extraña para elsiglo XVIII, aunque como ven muy sencilla. Suficientemente sencilla como paraque otro astrónomo, Laplace, diera también con ella.

§. Un sacudón político: la Revolución Francesa
Aunque no sea un hecho científico, la Revolución Francesa, por su intento de construcción de una sociedad racional basada en principios abstractos y geométricos, por su elevación de la razón a cuestión de Estado, es la perfecta culminación política de la línea racionalista francesa del siglo XVIII, además de ser un hito político mayor en toda la historia humana.
No empezó, como se suele creer, el 14 de julio de 1789 con la toma de la Bastilla, que se ha convertido en su símbolo emblemático. Fue antes: desde el 5 de mayo de ese año habían estado reunidos los Estados Generales, una antigua institución de origen medieval que congregaba a representantes de los tres estados —la nobleza, el clero y el estado llano (burguesía)— y cuyo objetivo era apoyar o mostrar la aquiescencia de la nación ante determinadas medidas del trono y, en general, aceptar el impuesto —todas, o casi todas las asambleas medievales tenían el objetivo de convalidar el impuesto—, según el viejo principio de que «no hay impuesto sin representación»
Las asambleas tendrían distintos derroteros históricos: mientras que los parlamentos ingleses, después de siglos de prueba y error (bien de acuerdo con el espíritu empirista inglés), se habían convertido en poderes permanentes, los Estados Generales franceses habían tendido a desvanecerse, y de hecho cada (rara) vez que eran convocados, y no hacían exactamente lo que la monarquía requería, se los disolvía por el simple expediente de descolgar las tapicerías de las salas de deliberación.
En este caso, las cosas serían distintas: los Estados Generales de 1789 habían sido precedidos por una intensa campaña política que inundó Francia de panfletos. Los principales reclamos eran una constitución, el impuesto consentido por el voto, carreras abiertas a los talentos, igualdad de derechos del estado llano, la periodicidad de la convocatoria. Además, el estado llano tendría doble representación.
El trastorno financiero que había forzado el llamado a los Estados Generales no era irremediable: no eran (como se suele creer) los gastos de la corte los principales culpables del descalabro económico; el déficit sólo se había hecho irremontable por la imposibilidad de imponer el impuesto a las clases ricas, nobleza y clero, y por el altísimo costo de sostener un ejército permanente… Nadie pensaba, ni siquiera soñaba, con la posibilidad remota de cuestionar a la monarquía, nadie podría haber adivinado lo que después pasaría.
La Asamblea no se reunió en París sino en Versalles, lugar que el rey consideraba más seguro. El día de la inauguración hubo un discurso vago del trono, en el que no se habló del voto por cabeza ni de la periodicidad; todos, sin embargo, se separaron al grito de « ¡Viva el Rey!».
Los distintos estados se mandaron embajadores; el estado llano invitó a los dos estados restantes (el clero y la nobleza) a unirse con él. Algunos diputados sueltos de los estados privilegiados respondieron: con ellos, el 17 de junio, el estado llano se proclamó Asamblea Nacional y decidió que, el día en que se disolviera, cesaría en toda Francia la percepción de impuestos que no hubieran sido votados por ella. Los diputados retomaban el viejo principio: no hay impuesto sin representación. Era una medida audaz, que marcaba el ritmo de los tiempos en curso.
Vistas las circunstancias, el 23 de junio Luis XVI quiso cerrar la Asamblea; el estado llano resistió, y el rey terminó por ceder. « ¿Quieren quedarse? Y bueno, foûtre, que se queden», se cuenta que dijo. Y a continuación «ordenó» la reunión de los tres órdenes. Pero el 11 de julio, un nuevo tour de force en la Corte impuso al partido de la reina, María Antonieta, duro e intransigente, y destituyó al ministro de Hacienda, Necker. Un día más tarde, la noticia llegó a París. El pueblo temía un golpe de Estado y la ciudad se llenó de rumores. El pan escaseaba. El 13 de julio, el pueblo saqueó las armerías, trató de forzar los arsenales, sacó del Palacio de los Inválidos veintiocho mil fusiles y cinco cañones y, habiéndose enterado de que los depósitos de pólvora habían sido trasladados a la Bastilla, empezó a concentrarse a su alrededor. Comenzaba la jornada del 14 de julio y la toma de la Bastilla mostró que la revolución iba en serio.
El 4 de agosto se abolieron los privilegios feudales y eclesiásticos y el 26 de ese mismo mes la Asamblea proclamó los derechos del hombre y el ciudadano
para todos los hombres, para todos los tiempos, para todas las naciones.
Era la más pura manera de enunciar, en forma de ley geométrica, un principio político, que respondía la búsqueda de unidad característica del siglo.
Increíblemente, el viejo orden se había derrumbado por completo en el curso de unos pocos meses, aunque no se vislumbrara en qué iba a consistir el nuevo.
El 14 de julio, en Versalles, el rey de Francia se dedicó a la caza durante todo el día; luego, fatigado, se fue a acostar. El 15 por la mañana el duque de Liancourt lo despertó y le relató los acontecimientos de París. « ¿Es una revuelta?», preguntó Luis XVI. «No, majestad —contestó el duque—, es una revolución.»

§. Una nueva manera de medir
Mientras la Revolución empezaba a desplegar su violenta dinámica, que culminaría en el Terror de Robespierre, se retomaba un viejo sueño de la Academia Francesa de Ciencias: basar los sistemas de medida en un estándar permanente.
En 1790, la Asamblea Constituyente (sucesora de la Asamblea Nacional) aprobó la propuesta de Talleyrand de que se estudiara un sistema de nuevas unidades de pesas y medidas que sirviera para todas las naciones. Muy a la francesa, se decidió adoptar como unidad de longitud una diezmillonésima parte de la distancia entre el Polo Norte y el Ecuador medida sobre el meridiano que cruza París (¡obviamente!): tal medida es el metro, con múltiplos y submúltiplos contados en el sistema decimal, del cual derivan también las unidades de área, volumen y peso. Los astrónomos Méchain y Delambre fueron los encargados de medir el extenso arco de meridiano entre Dunkerque y Barcelona, empresa científica larga y penosa que coincidió con los más turbulentos años de la Revolución: la Asamblea Constituyente dio paso a la Legislativa, y ésta a la Convención, con lo cual Francia se transformaba en república. Luis XVI y María Antonieta subieron al cadalso. Empezaba el Terror, que devoró, como Saturno, a sus propios hijos: cayó Danton y empezó la breve dictadura de Robespierre, que llegó a entronizar a la diosa Razón, y declarar un extraño culto del «Ser Supremo» como religión oficial de Francia.
Robespierre fue apresado el IX de Termidor del año III (27 de julio de 1794: recordemos que la Revolución, para marcar su carácter radicalmente novedoso, había impuesto un calendario propio, también decimal, que destronaba toda resonancia cristiana) y guillotinado un día después. El Directorio que lo sucedió, y más tarde el Consulado, prepararon el camino del Imperio.
En medio de todo este barullo político, las operaciones geodésicas, que habían sido iniciadas en 1792, sólo pudieron ser terminadas en 1798, superando las más imprevistas vicisitudes (Delambre acusado de realista, Méchain detenido en España como espía). No obstante, ya antes de esa fecha, el 7 de abril de 1795 (o el 18 Germinal del año III de la Revolución) se promulgó la ley que introdujo el sistema métrico. El nuevo orden necesitaba una nueva manera de medir el mundo y la imponía por decreto. «Para todos los hombres, para todos los tiempos, para todas las naciones».
Ulteriores perfeccionamientos de los instrumentos geodésicos revelaron que el metro patrón, obtenido con tan grandes sacrificios y conservado bajo la forma de una barra de platino en los Archives de Paris, no era sino una unidad convencional, en realidad separado por dos milésimas de milímetro de la magnitud que sirviera de base para su definición. Se fabricó una barra de platino e iridio, que fue depositada en la Oficina Internacional de Pesas y Medidas de Sevres, cerca de París. Sobre la barra se grabaron dos finísimas marcas: la distancia entre esas dos marcas definía el metro.
Este metro patrón sobrevivió a la República, al Imperio, y a la Restauración que se produjo cuando Napoleón fue definitivamente derrotado en Waterloo y ascendió al trono Luis XVIII. En verdad, el metro reinó indiscutido durante casi doscientos años.
Pero en 1983, en la Conferencia Internacional de Pesas y Medidas, en París, fue derrocado y redefinido como «la distancia recorrida por la luz en el vacío durante 1/299.792.458 de segundo». Así, la unidad de longitud queda subordinada a la unidad de tiempo, bajo la férrea vigilancia de una de las constantes universales: la velocidad de la luz en el vacío, que según la teoría de la relatividad de Einstein es la misma desde cualquier sistema de referencia posible en el universo.
Dista de ser una curiosidad. Las ansias de universalidad de quienes quisieron basar el sistema de medidas en las dimensiones de la Tierra (y, no lo olvidemos, en el meridiano de París) cedió al anhelo cósmico de una época que considera haber descifrado una de las claves maestras de la naturaleza, y a la que el estándar del siglo XVIII le parece arbitrario: el metro debe ser definido en función de algo verdaderamente universal, como lo es la velocidad de la luz en el vacío.
No por ello, sin embargo, el metro histórico deja de servir aun a sus finalidades, y justifica las célebres palabras de Napoleón que, no obstante haber sido hostil a la innovación, al referirse al libro de Delambre, La base du systeme métrique décimal de 1806, donde se resumen los trabajos de los dos grandes geodestas, manifestó: «Las conquistas serán olvidadas, pero el sistema métrico pasará a los siglos venideros».

§. La filosofía de la naturaleza
Mientras en Francia se producía la que fue probablemente la revolución política más importante de la historia, una revolución a todas luces racionalista o que pretendió mostrarse como la conclusión política de la filosofía racional, en Alemania se desarrollaba un sistema filosófico que se alejaba de la ciencia experimental, y que modificaba la concepción del racionalismo. Los fundadores de esta rama —los Naturphilosophen— se ilusionaron con alcanzar la meta de conseguir la unidad con la naturaleza mediante especulaciones derivadas de principios filosóficos y metafísicos generales, muy lejos del espíritu de la ciencia experimental que se estaba desarrollando tanto en Francia como en Inglaterra. Trataron, por ello, de fundamentar un esquema de tipo espiritual, con la pretensión de descubrir la estructura del mundo natural merced a una «intuición intelectual», y llegaron a ejercer una enorme influencia.
El filósofo por excelencia que la inspiró fue el poskantiano Friedrich Schelling (1775-1854), que formuló un principio de la
identidad del espíritu en nosotros y de la naturaleza fuera de nosotros.
Dado que, para él, «la naturaleza es espíritu visible y el espíritu naturaleza invisible», era necesario sumergirse en el propio espíritu para descubrir la verdadera estructura de la naturaleza, en la cual se distinguían tres estratos: en primer lugar, la materia, que da lugar a la actividad de tres fuerzas (atracción, repulsión y gravedad, síntesis de las dos primeras); en segundo lugar, la electricidad, el magnetismo y la actividad química, que tienen por nexo común a la luz; por último, la vida, que se manifiesta mediante la reproducción, la irritabilidad y la sensibilidad. En los tres estratos regía el principio de la polaridad: la atracción era contrabalanceada por la repulsión; el magnetismo positivo por el negativo; la electricidad de un signo por la de signo contrario; la acidez por la alcalinidad. Así se posibilitaba el equilibrio en el mundo natural.
Otro representante típico de este movimiento, y seguramente el más famoso, fue Johann Wolfgang Goethe (1749-1832), que prestigió, con su fama, la idea central de la Naturphilosophie: la unidad del conjunto de los seres vivos (en un gesto que recuerda a la Gran Cadena del Ser). Las categorías de reino, clase, orden, familia, género habían sido armadas por Dios según un plan general único, del cual las formas de los seres eran distintas modificaciones. Todos los animales eran vistos, así, meramente como encarnaciones del arquetipo animal único, del mismo modo que las plantas no eran sino variaciones de una protoplanta. Goethe creyó haber encontrado en el reino animal una prueba para su hipótesis al verificar que el cráneo humano poseía también el hueso intermaxilar que, si bien ya había sido visto por el propio Vesalio, se usaba hasta ese momento como criterio de separación de los hombres y los monos.
Obviamente, Goethe no era el único que pensaba así. Una teoría parecida fue formulada y desarrollada por el médico Lorenz Oken (1779-1851), profesor en Jena, que en el afán de encontrar analogías universales no vaciló en asimilar el reino animal en su integralidad a un único animal, cuyos distintos órganos corresponderían a diferentes especies. Por su parte, Christian Gottfried Nees von Esenbeck (1776-1858), profesor de botánica en Bonn, asimiló todo el mundo vegetal a una sola hoja.
Como podrán sospechar, la filosofía natural, en la que predominan analogías forzadas y desempeña un papel no desdeñable el misticismo del número, no aportó grandes cosas a la ciencia positiva, aunque sí tuvo algunas derivaciones curiosas.
Una de ellas, que vimos en el capítulo anterior, fue el descubrimiento de la relación entre electricidad y magnetismo por parte de Oersted, que estaba buscando una fuerza única, y que derivaría luego en la fructífera teoría de campos.
Otra derivación importante fue la que produjo en Francia, al ser pasada por el tamiz del racionalismo. Conozcamos a Geoffroy Saint-Hilaire.

§. Saint-Hilaire: los arquetipos
Etienne Geoffroy Saint-Hilaire (1772-1844) fue, sin lugar a dudas, uno de los naturalistas más notables de su época. Había estudiado mineralogía antes de dedicarse a la anatomía de los vertebrados, pero su vocación se decidió cuando a los 22 años fue nombrado profesor de zoología en el recientemente fundado Museo Nacional de Historia Natural, cuyas colecciones le suministraron abundante material para sus estudios comparados de morfología animal. Más tarde acompañó, junto al grupo de científicos, a Napoleón en su campaña a Egipto, donde estudió los animales del Nilo; también estuvo en España y su trabajo se interrumpió recién en 1840, cuando se quedó ciego.
Saint-Hilaire publicó centenares de monografías sobre montones de problemas de anatomía comparada, taxonomía, paleontología y teratología —el estudio anatómico de los monstruos, como cabras de dos cabezas y lindezas por el estilo—; fue sin duda el primero en emprender el estudio sistemático de las deformaciones monstruosas y el primero en advertir la riqueza de informaciones que esta nueva disciplina podía ofrecer a la anatomía comparada.
Pero su interés principal, y el que es importante para nosotros, fue suministrar pruebas empíricas de la doctrina de la unidad del plan estructural de los seres vivos (lo cual le valió el elogio del propio Goethe): mediante una afinada y cuidadosa descripción morfológica, Saint-Hilaire se proponía establecer correlaciones y correspondencias que permitieran reducir la diversidad aparente de formas a la realidad de un tipo único. Esto podía verificarse, por ejemplo, observando que los cuerpos del mono, de un hombre, de un elefante, de un pájaro y de un pez estaban formados por un cierto número de partes colocadas, unas con respecto de las otras, en idéntico orden.
La caja de resonancia del mono aullador que confiere a este animal una voz estridente no es sino un abultamiento del hueso hioides; la bolsa de las hembras de los mamíferos marsupiales es un profundo repliegue de la piel; la trompa del elefante, una prolongación excesiva de la nariz; el cuerno del rinoceronte, un cúmulo considerable de pelos, etcétera. Así, por variadas que parezcan las formas, se revelan como órganos comunes a todos.
La multiplicidad de las formas del reino orgánico era producto del crecimiento desigual o diferenciado de elementos estructuralmente iguales.
Le es suficiente a la naturaleza cambiar algunas de las proporciones de los órganos para ajustarlos a sus nuevas funciones o para extender o restringir sus aplicaciones.
Lo importante de todo esto es que la hipótesis de un arquetipo único implica un origen común, sugiere que las especies han sufrido transformaciones en el curso del pasado y conduce como por un tubo a una teoría de la evolución. De hecho, Saint-Hilaire adhirió a un transformismo radical y adoptó una variante de la teoría de la evolución que Lamarck había enunciado en 1809 y de la cual ya hablaremos.
Los animales que actualmente viven descienden, por una serie de ininterrumpidas generaciones, de animales perdidos del mundo antediluviano.
La verdad es que Geoffroy fue el creador de una amplia síntesis pero no siempre reconoció los alcances de sus hipótesis y, sobre todo, no fijó de manera demasiado sensata los límites de validez de sus deducciones. Extendiendo el valor de su plan morfológico a la totalidad del reino animal, llegó a comparar el esqueleto de un artrópodo con la columna vertebral de un vertebrado, no vacilando en sostener que el insecto vive dentro de su «columna vertebral», mientras que el mamífero vive alrededor de ella. Pasando luego de lo general a lo particular, trató de homologar cada elemento del cuerpo del insecto con un elemento del cuerpo del vertebrado. Tales conclusiones, unidas a sus convicciones transformistas, levantaron la oposición de Cuvier, cuyo sistema taxonómico y la creencia en la inmutabilidad de las especies se oponían a las concepciones de su antiguo amigo.

§. Cuvier
Lo vamos a llamar simplemente Cuvier por economía, ya que su nombre completo era Georges Leopold Chrétien Frédéric Dagobert, y fue nombrado barón de Cuvier (1769-1832) por Luis XVIII. Sus padres vivían en Montbéliard, ciudad que pertenecía entonces al Ducado de Wurttemberg, de manera que recibió su formación básica en Alemania. Como suele ocurrir —o se suele decir— fue un niño precoz, que a los trece años ya había estudiado muchos tomos de la Histoire naturelle de Buffon. Atraído por las ciencias naturales, al egresar del colegio desechó la posibilidad de desempeñar una función en la administración pública y prefirió el cargo de preceptor en una familia aristocrática de Normandía, con la cual permaneció seis años. Completó de forma autodidacta su formación científica, parte de la cual consistía en emprender, a orillas del Canal de la Mancha, el estudio de la fauna marina, disecando moluscos, estrellas de mar y otros animales, y dibujando cuanto veía con una precisión tal que, cuando sus dibujos cayeron en manos del naturalista y agrónomo abate Tessier, éste se los hizo llegar a Geoffroy Saint-Hilaire, que inmediatamente lo invitó a irse a París.
Venga usted para desempeñar entre nosotros el papel de un segundo Linneo, legislador de la Historia Natural
le escribió Saint-Hilaire. Ante semejante convocatoria, no podía negarse: en París se impuso rápidamente, fue nombrado profesor en el Collège de France y luego en el Museo.
La sagacidad de sus investigaciones en anatomía comparada, su capacidad de sintetizar y de sistematizar y, más aún, su casi legendaria habilidad para reconstruir, sobre la base de pocos fragmentos fósiles, esqueletos completos de los grandes mamíferos de la Era Terciaria le valieron una fama muy superior a la del propio Buffon, igualada en su época solamente por la de Linneo, y le dieron una autoridad tal que durante más de tres decenios dominó la biología francesa. Murió a los 63 años, víctima de la epidemia de cólera que en 1832 azotó Europa, y en particular la capital de Francia.
El punto central de su concepción biológica era de indudable factura aristotélica: consideraba a Aristóteles el mayor naturalista de todos los tiempos y, siguiendo su doctrina, aseguraba que el rasgo esencial de los seres vivos era la forma:
No es la sustancia vegetal o animal la que permite a la especie manifestarse, sino su forma. Probablemente no hay dos hombres o dos robles cuyas sustancias tengan sus componentes en la misma proporción. Además, estos componentes se transforman sin cesar, circulando más bien en el espacio que acostumbramos designar «forma». En pocos años, no quedará probablemente ni uno de los átomos que constituye actualmente nuestro cuerpo, tan sólo la forma persiste y se multiplica, trasmitida por la misteriosa virtud de la reproducción a una interminable serie de individuos.
En su magistral exposición de la anatomía comparada publicada entre 1800 y 1805 (Leçons d’anatomie comparée) intervenían tanto los elementos morfológicos como los fisiológicos, y se trataba al hombre en pie de igualdad con todas las demás especies: el sistema circulatorio de una sanguijuela no era un objeto de estudio menos importante que el sistema vascular humano.
El método comparativo con el que trabajaba podía ser eficiente si y sólo si se daba por presupuesta la vigencia de un principio general. Este principio era la célebre ley de la correlación de las partes:
Todo ser organizado constituye un conjunto, un sistema único y cerrado cuyas partes se corresponden mutuamente, cooperando en una actividad definida, unitaria y conjunta del cuerpo. Ninguna parte puede cambiar sin que cambien las demás; por consiguiente cada parte —tomada separadamente— determina todas las otras.
La estrecha interdependencia de las partes de la organización animal permitía, por ejemplo, determinar cómo debía ser en un pájaro la disposición de huesos como la clavícula y el esternón (que intervienen en el vuelo) a partir de las formas que presentaban sus plumas, e, inversamente, de la forma de tales huesos podían sacarse conclusiones acerca de la forma de las plumas. La influencia mutua que ejercían entre sí las funciones y los órganos permitía deducir relaciones con certeza matemática.
Así como la ecuación de una curva implica todas sus propiedades, y al tomar separadamente cada propiedad como base de una ecuación particular se reencontraría la ecuación original, de análoga manera el biólogo que poseyera racionalmente las leyes de la anatomía orgánica podría mediante las uñas, los omóplatos, los fémures y todos los demás huesos tomados separadamente reconstruir todo el animal.
La anatomía podía actuar del mismo modo que la mecánica celeste, que, anclada en el análisis matemático y en la ley de Newton (y con una confianza ilimitada en el determinismo), podía reconstruir toda la trayectoria de un astro a partir de algunas observaciones astronómicas. Así, guiado por su ley de correlación, Cuvier lograba, sobre la base de un reducido número de fragmentos —algunos dientes y trozos de huesos—, reconstruir el esqueleto completo de un animal. El éxito más impresionante lo obtuvo, como es de esperar, en el terreno de los fósiles, que constituían una prueba convincente de que la fauna del pasado había conocido especies de las cuales el reino animal del presente no ofrecía ya representantes. Cuenta Cuvier:
Me encontraba en la situación de un hombre que había recibido fragmentos mutilados e incompletos de algunos centenares de esqueletos: restos de veinte grupos distintos de animales. Era preciso que cada hueso encontrase su vecino con el cual estaba unido en el cuerpo del animal vivo. Tuve que efectuar, pues, casi una resurrección, sin disponer no obstante de la todopoderosa trompeta de la Providencia. Pero las inmutables leyes prescriptas a los organismos vivos la reemplazaban. Por orden de la anatomía comparada, cada hueso, e incluso cada fragmento de hueso, iban a ocupar su puesto. No encuentro palabras adecuadas para describir mi alegría al comprobar cómo las características previstas a partir de un fragmento emergen sucesivamente: los pies se encuadran a lo anunciado por los dientes, y los dientes concuerdan con lo anunciado por los pies. Los huesos de las piernas, del muslo, todos aquellos que debían formar las extremidades, se ensamblan perfectamente en la estructura que he imaginado con anticipación. En una palabra, cada una de las especies renace, por así decirlo, sobre la base de uno solo de sus elementos.
Mediante este mecanismo, Cuvier logró evocar el aspecto de muchas especies extinguidas, reconstituyendo los esqueletos completos de sus representantes desaparecidos: sólo por nombrar algunas, el Paleotherium magnuni, un paquidermo del tamaño del caballo y con pies provistos de tres dedos; el Anoplotherium commune, que se ubica entre los paquidermos y los rumiantes; el Pterodactylus, un dinosaurio volador, o el Megatherium, un perezoso del tamaño del rinoceronte, cuyo primer ejemplar había sido desenterrado en 1787 por el dominico Manuel Torres de las barrancas del río Luján (Argentina) y que después de reconstruirlo y dibujarlo, lo encajonó y envió a Madrid.
En su trabajo Recherches sur les ossements fossiles, de 1812, presentó el estudio de 168 especies de vertebrados fósiles, de las cuales 49 eran descriptas por primera vez. Con todos estos esfuerzos, Cuvier lograba unificar y sistematizar la paleontología, que hasta entonces no era más que una colección de hallazgos más o menos inconexos y con frecuencia mal interpretados, convirtiéndola en una ciencia propiamente dicha. Al mismo tiempo, en contra de muchos naturalistas de la época y sin ser geólogo, señalaba el papel complementario que incumbía a la paleontología y a la geología en la difícil tarea de establecer un esquema cronológico de la historia natural.
Obviamente, no se le escapó el hecho de que cuanto más antiguas eran las capas geológicas en las que se indagaba, tanto menos se parecían los fósiles a las formas actuales, lo cual podría haberlo llevado a abrazar las ideas transformistas que estaban cobrando fuerza y que defendía enfáticamente Saint-Hilaire. Sin embargo, permaneció atado a la doctrina de la fijeza de las especies, ya fuera por sus convicciones religiosas —era un protestante ortodoxo— o porque, como argumentaba, no se encontraban fósiles con características intermedias entre las de la fauna del pasado y de la fauna actual, de lo cual concluyó que los animales fósiles no habían dejado descendientes y que las especies del pasado eran tan inmutables como lo eran las del presente, idea en cierto modo razonable, aunque poco imaginativa.
Cuvier no estaba siendo arbitrario o, por lo menos, no del todo. Entre las dos teorías opuestas, daba preferencia a la que estimaba, con razón en su época, menos especulativa, menos cargada de elementos hipotéticos. Sin embargo, había un punto verdaderamente flojo en el fijismo: la extinción masiva de especies. ¿Cómo era posible que tantas especies hubieran desaparecido por completo desde el origen de los tiempos? Para explicarlo, Cuvier pergeñó su teoría de los cataclismos. La Tierra había sido sacudida en el pasado por tres catástrofes de escala planetaria (la última había sido nada menos que el Diluvio) que habían causado enormes estragos entre los seres vivos, aunque ninguna había llegado a destruirlos a todos: siempre había quedado alguna región que había logrado escapar del desastre y cuyos habitantes se habían encargado de repoblar el mundo. Pero tres catástrofes parecían poco para una extinción tan masiva. Hubo un discípulo que elevó el número a 27 y otros que llegaron a sostener que, tras algunos de los cataclismos, la nueva fauna y flora había sido creada nuevamente, desde cero, por Dios.
Los estudios de anatomía comparada y su éxito para interpretar restos fósiles condujeron a Cuvier a una clasificación natural de los animales: tomando el conjunto de la forma y las funciones de los órganos y eligiendo como criterios sistemáticos primordiales, por un lado, el cerebro y la médula espinal —que gobiernan las funciones animales— y, por el otro, los aparatos circulatorio y respiratorio —que dirigen la vida vegetativa— distinguió cuatro tipos:
  1. Vertebrados, con esqueleto axial y cavidad medular.
  2. Mollusca, con sistema nervioso compacto en masas separadas.
  3. Articulata, con sistema nervioso consistente en dos cuerdas ventrales; evidencian además la transición del aparato circulatorio vascular de los tipos anteriores hacia el sistema traqueal.
  4. Radiata, sin sistema nervioso ni circulatorio; efectúan las funciones animales y vegetativas en forma rudimentaria, y se caracterizan por una estructura con simetría radiada.
Cada uno de estos grandes tipos contaba con subdivisiones, de modo que se llegaba a categorías cada vez menores: clases, órdenes, géneros y especies. Lo interesante de todo esto es que los cuatro tipos, para Cuvier, poseían la misma realidad material que los propios organismos individuales que formaban parte de la clase; cada uno correspondía a un plan de la naturaleza, a un pensamiento único del creador, y por lo tanto entre esas cuatro formas estructurales no había transición posible que permitiera insinuar la idea de una escala evolutiva de los seres vivos.
Fueron estas convicciones las que motivaron, en 1830, la resonante controversia que sostuvo con quien había sido su maestro y amigo en París, Geoffroy Saint-Hilaire, y de la que hablaremos en el próximo capítulo, ya que la polémica, por debajo de los detalles sobre el parecido entre mamíferos y pulpos (en lo cual Cuvier tenía toda la razón), ponía en juego la idea biológica central del siglo XIX: la teoría de la evolución.

Parte V
En busca de la unidad

040.jpg

Contenido:
25. La teoría de la evolución
26. La república celular y la invasión microbiana
27. El triunfo de los átomos

Capítulo 25
La teoría de la evolución

La sorda, y luego abierta, lucha entre transformistas —como se llamaban los que creían que las especies podían variar— y partidarios de la fijeza de las especies se había arrastrado durante buena parte del siglo XVIII. La historia natural no tenía aún el Copérnico, ni el «Newton de la brizna de hierba», que Kant reclamaría en la Crítica del juicio.
Ya vimos que Linneo, el más exitoso de los tantos que intentaron poner orden en el caos de las clasificaciones, había logrado armar un sistema botánico gracias a sus propios viajes y a los ejemplares que sus discípulos le enviaban desde todo el mundo. Basándose en un rasgo específico, los órganos reproductivos de las plantas, había dividido el reino vegetal en 24 clases, a su vez divididas en órdenes, géneros y especies con nombres según el sistema binomial (que ya había sido propuesto, pero que Linneo generalizó). Todo esto tenía en sí mismo mucho sentido, pero más aún si, como el propio Linneo lo hacía, se pensaba que las especies habían sido creadas todas al principio del mundo por un acto divino, de modo tal que resultaba concebible proponer un catálogo completo de la vida sobre el planeta.
Si bien más tarde aflojó su posición ante la evidencia de que los agricultores creaban especies híbridas (que eran, por lo tanto, nuevas), lo cierto es que había algunos argumentos de peso contra el transformismo. Uno de ellos era (¿cuándo no?) de índole religiosa: el fijismo permitía pensar que la enorme variedad del mundo natural estaba desde el principio en la mente de Dios y que nada nuevo se producía por sí mismo. Admitir el transformismo, por el contrario, era aceptar que, nada menos que en el terreno de la vida, se producían novedades que no necesariamente estaban en la mente del Creador (aunque ya sabemos que finalmente la teología termina adaptándose a todo aquello que no logra detener).
Otro argumento, más interesante para nosotros, era de índole metodológica y científica: consistía, simplemente, en que no había evidencias contundentes que apoyaran el transformismo. Los fósiles demostraban que había especies que se habían extinguido, pero no que se hubieran transformado en especies nuevas. ¿Dónde estaban, si era así, los fósiles de las especies intermedias? Fue ése el argumento que utilizó Cuvier, que, como recordarán, rechazaba tajantemente la posibilidad de continuidad entre los cuatro «tipos» que había definido, que no eran sino formas eternas presentes en la mente de Dios.

§. La tradición transformista
Muchas veces es fácil rastrear las líneas de pensamiento tan atrás como se quiere: así, si uno se lo propone, la línea transformista (es decir, la evolucionista) puede remontarse a la Antigüedad, ya que el propio Anaximandro de Mileto (s. VII a.C.), aquel discípulo de Tales que imaginaba la Tierra como un cilindro, opinaba que la vida se había originado en el agua y, por lo tanto, los seres terrestres procedían de los animales del mar.
Es interesante establecer estas líneas de filiación, encontrar aparentes cadenas de pensamiento en la historia humana, pero hay que ser cuidadoso: todas ellas estaban basadas en una noción muy vaga (por no decir: nula) de «especie» y, por supuesto, no se sostenían sobre ninguna evidencia seria. Considerar que estas ideas son el comienzo del evolucionismo sería tan exagerado como decir que los inventores de animales mixtos como los centauros y pegasos fueron precursores de la ingeniería genética, o que lo fue la leyenda de Cadmo, según la cual la humanidad nació de los dientes de un león.
Sólo se pudo avanzar seriamente en el sendero evolucionista cuando la idea de especie quedó fijada, y eso ocurrió recién en el siglo XVII. Luego, la sugerencia de que esas especies pudieran variar representaba un paso audaz y exigía proponer algún mecanismo por el que semejante cosa podía llegar a ocurrir. Durante la Revolución Científica, Francis Bacon sostenía en su Nueva Atlántida que experiencias futuras con las especies lograrían dilucidar cómo éstas se habían engendrado y modificado y Leibniz sugirió también que las especies estaban sujetas a cambios.
En Francia, Benoît de Maillet, como buen neptunista que era —es decir, partidario de la teoría del océano en retirada—, ya había tratado de actualizar las ideas de Anaximandro, «haciendo descender» a las aves de los peces voladores, los leones de las focas y al hombre del tritón, compañero legendario de la sirena.
El transformismo del siglo XVIII ya es otra cosa: en pleno Iluminismo, Buffon sostenía una idea de universo en movimiento y cambio: aunque mantuvo los arquetipos fijos (moldes internos), creados por Dios, se las arreglaba para incluir variaciones que se podrían interpretar como modificación de especies. Aseguraba, por ejemplo, que muchas de las formas que se podían ver día a día eran «degeneraciones» de faunas anteriores, lo cual —se mire como se mire— lindaba más con el transformismo que con el fijismo.
El siglo XVIII empezó a preparar el terreno para que, en el siglo siguiente, Darwin resolviera la cuestión. Pero antes de hablar de Charles Darwin, uno de los más grandes científicos de toda la historia, tenemos que hablar de otro Darwin.

§. Erasmus Darwin
Porque nuestro Darwin, el protagonista indiscutible de este capítulo, no surgió ex nihilo sino todo lo contrario: su familia había tenido un vínculo casi íntimo con la biología y con el problema de la evolución. Seguramente Robert Darwin (1682-1754), el padre de Erasmus —y bisabuelo de Charles—, fue el primero en acercarse a una disciplina que todavía estaba tan en ciernes que ni siquiera tenía nombre cuando, en 1718, observó un fósil inusual incrustado en un bloque de piedra que se encontraba en el pueblo y, movido por la curiosidad, decidió estudiarlo: en realidad, hoy se sabe que era parte de un plesiosauro del período Jurásico. Lo cierto es que, gracias a él, el fósil fue presentado a la Royal Society y, como agradecimiento, se lo invitó a asistir el 18 de diciembre de aquel año a una reunión de esta sociedad, donde conoció al propio Newton, que entonces era su presidente.
Su hijo Erasmus, el abuelo de Darwin, se formó por lo tanto en un ambiente donde la curiosidad por el mundo natural era mayor que lo normal. Luego de recibirse como médico en 1755 y ya con cierto renombre como poeta, comenzó a publicar informes científicos sobre otros temas, entre los cuales sobresalía la preocupación por la posibilidad de construir máquinas de vapor y por entender el modo en que se forman las nubes. Se casó con Mary Howard, conocida como Polly, y la pareja tuvo tres hijos que llegaron a la edad adulta (Charles, Erasmus y Robert, el padre del gran Charles).
Mientras trabajaba como médico, Erasmus fue nombrado miembro de la Royal Society en 1761, se codeó con científicos de la talla de James Watt, Benjamin Franklin y Joseph Priestley, fue el primer inglés en aceptar las teorías de Lavoisier sobre el oxígeno, tradujo a Linneo, se interesó por las inversiones en canales, apoyó la creación de una fábrica siderúrgica… y, fundamentalmente, se hizo muy amigo de Josiah Wedgwood, un millonario fabricante de cerámicas, con cuya hija se casaría su propio hijo, Robert. Antes de que se casaran, Josiah falleció, dejándole como herencia a su hija el equivalente de dos millones de libras actuales. Se imaginarán por qué el hijo de este matrimonio, el mismísimo Charles Darwin, nunca tendría que preocuparse por cuestiones económicas.
Les conté que Erasmus Darwin era, entre otras cosas, poeta. Pero no era un poeta cualquiera: usaba los versos y las rimas para intentar atraer a la gente hacia los placeres de la botánica, en una obra que se basaba esencialmente en las teorías de Linneo. Y también se le animó a la prosa: en 1794, publicó el primer volumen de su Zoonomía, donde expuso su teoría sobre el transformismo, como entonces se llamaba a la evolución, que en verdad ocupaba apenas uno de los cuarenta capítulos.
Erasmus mostraba detalladamente la evidencia de que las especies habían sufrido cambios en el pasado y llamaba la atención especialmente sobre el modo en que dichos cambios se habían producido, tanto en plantas como en animales, por la intervención deliberada del ser humano —por ejemplo, al criar caballos de carrera más rápidos o desarrollar cultivos más productivos mediante procesos de selección artificial—, algo que sería de ayuda crucial para la teoría que más adelante formularía su nieto. Aseguraba que los descendientes heredaban las características transmitidas por sus padres, destacando, entre otros casos, el de «una camada de gatos con una garra de más en cada pata» y explicaba cómo determinadas características adquiridas les facilitaban a diferentes especies la obtención de alimento:
Algunos pájaros han adquirido una mayor dureza en los picos para partir nueces, como es el caso de los loros. Otros, como los gorriones, han desarrollado picos adaptados para cascar semillas más duras. Otros los tienen adaptados para vaciar semillas más blandas.
Pero además, Erasmus, que era un huttoniano (es decir, partidario de que los ciclos geológicos de la Tierra no daban «señales de principio ni atisbos de final»), llegó a la conclusión de que toda la vida existente en la Tierra podía provenir de una fuente común, tal como vimos que tiempo después lo haría Saint-Hilaire. Por implicación, esto incluiría a los seres humanos.
Si no era posible negar la existencia de Dios, al menos era sí posible limitar su papel: ya no se trataba de un demiurgo que incidía cada dos por tres sobre los procesos de la vida en la Tierra, sino que operaba como un primer motor que ponía en marcha las cosas y luego las dejaba que anduvieran siguiendo el curso trazado por la evolución natural. Una evolución de la que, vale aclarar, no se sabía nada de nada.
No se sabía, decía, aunque sí se conjeturaba: Erasmus pensaba que lo que producía cambios en los cuerpos de los animales vivos y de las plantas eran sus esfuerzos por conseguir algo que necesitaban (por ejemplo, alimento) o para escapar de los depredadores, casi del mismo modo en que un levantador de pesas incrementa su musculatura. Como luego lo haría Lamarck, el abuelo de Charles supuso que las características adquiridas pasarían luego a la descendencia del que las había adquirido, produciendo un cambio evolutivo: el hijo del levantador de pesas sería, por herencia, forzudo. Es bastante increíble que una teoría tan fácil de refutar empíricamente sobreviviera tanto, pero hasta entrado el siglo XX hubo gente que la defendió. Y es que tenía la enorme ventaja de encajar con el sentido común.
Erasmus continuó desarrollando sus teorías durante el resto de su vida y, en 1803, se publicó The Temple of Nature or the Origin of Society (El templo de la naturaleza o el origen de la sociedad), donde, ahora en verso, acometía nuevamente el tema de la evolución. Sus ideas fueron condenadas: estaban claramente fuera de lugar en una sociedad que se encontraba en guerra con la Francia napoleónica y ansiaba mucho más la estabilidad y la seguridad que la revolución y la evolución.
Erasmus ya había muerto en 1802, a los 70 años de edad. No obstante, quizá precisamente por la situación política existente, fue en la Francia napoleónica, como ya lo sabemos, donde se asumieron y desarrollaron, en algunos aspectos de manera más completa, teorías similares a las de Erasmus Darwin. Y fue justamente allí donde se desencadenó la polémica de la que les prometí que les hablaría en el capítulo anterior y al comienzo de éste, y que es conveniente retomar aquí.

§. La polémica de 1830 entre Cuvier y Saint-Hilaire
Cuenta el físico Frédéric Soret que cuando visitó a Goethe unos pocos días después de la revolución parisina de julio de 1830 (que había destronado al rey Carlos X y que habría de imponer a Luis Felipe, de la rama Borbón-Orleáns, ya no como rey de Francia por derecho divino sino como «rey de los franceses»), se produjo una conversación como la que sigue. No bien entró Soret al gabinete del gran escritor alemán, éste lo acometió:
GOETHE: — ¿Qué piensas de este gran evento? ¡El volcán ha erupcionado, todo está en llamas!
SORET: —Una historia terrible, pero… ¿podría haberse esperado, bajo circunstancias tan notables y con un ministro tal, otra cosa que no fuera la expulsión de la familia real?
GOETHE: —Parece que no nos estamos entendiendo, mi buen amigo… No estoy hablando de toda esa gente en las calles, para nada, sino de algo completamente diferente. Estoy hablando de la polémica, de la mayor importancia para la ciencia, entre Cuvier y Geoffroy Saint-Hilaire, que ha estallado en plena Academia.
Soret permaneció callado.
Lo que ocurre es que Goethe exageraba, pero no tanto. Las discusiones entre las dos grandes figuras de la anatomía comparada francesa, que se llevaron a cabo de manera pública a lo largo de dos meses en 1830 pero que se venían gestando durante toda la última década, fueron un verdadero acontecimiento que sacudió el mundo científico y que tuvo en vilo a miles de personas de la Europa ilustrada, poniendo sobre el tapete uno de los temas que habría de generar una de las más importantes revoluciones de la cosmovisión occidental de que se tenga memoria.
Saint-Hilaire había creado un gran sistema, es verdad, pero, como suele ocurrir, lo había extendido más allá de sus posibilidades, para hacerlo universalmente válido. Y algunas de las conclusiones que sacaba —como aquella que les conté acerca de la homología entre el esqueleto de los artrópodos y la columna vertebral de los vertebrados— junto a, obviamente, su transformismo radical, provocaron la oposición de su antiguo ayudante y amigo Cuvier, ahora convertido en rey —más bien dictador— de la biología francesa.
La tensión entre ambos sistemas estaba latente (el transformismo de Geoffroy era obviamente incompatible con la idea de Cuvier de que entre los cuatro grandes tipos no había ninguna forma de relación), pero la ruptura definitiva se produjo cuando Saint-Hilaire sometió con entusiasmo a la Academia de París el trabajo de dos jóvenes naturalistas Laurencet y Meyranx, que pretendían demostrar que la estructura anatómica de pulpos, calamares y sepias podía ser concebida como si el animal fuera un vertebrado doblado hacia atrás a la altura del ombligo, con la pelvis debajo de la nuca y los pies en la proximidad de la cabeza. De este modo, un pulpo, al desplazarse con sus tentáculos, ofrecería cierta semejanza con los movimientos de un acróbata que marchara simultáneamente con sus pies y con sus manos, doblados la cabeza y los hombros hacia atrás.
Era ir demasiado lejos, sobre todo para alguien que, como Cuvier, basaba su propio sistema en una separación tajante entre vertebrados y artrópodos. La situación lo merecía y la Academia, ni lenta ni perezosa, organizó una serie de debates públicos que se llevaron a cabo todos los lunes por la tarde. En discusiones que tomaban horas y en las que los argumentos se repetían hasta el hartazgo frente a un público masivo y ruidoso, el entonces pope de la biología francesa mostró, en primer lugar, que las analogías propuestas por los «apadrinados» de Saint-Hilaire eran claramente inventadas, pero luego amplió el campo y atacó la unidad del plan anatómico del reino animal, iniciando así una discusión de mucho mayor alcance, que merece indudablemente un capítulo aparte en la historia de las grandes polémicas científicas.
El interés despertado por las discusiones terminó por alcanzar a todos los países donde había científicos que meditaban sobre tales problemas. Parecía que habían vuelto los tiempos antiguos, en los que las discusiones filosóficas sacudían al mundo (como lo testimonia la anécdota de Goethe). Las posiciones de los científicos estaban divididas: los pensadores austeros, acostumbrados a la marcha severa de la ciencia antes que a su vuelo rápido, dieron la razón a Cuvier, mientras que los espíritus audaces adhirieron a Geoffroy.
Acaso por el prestigio con el que ya contaba, acaso por la meticulosidad con la que presentaba sus argumentos o por sus vastísimos conocimientos de anatomía, la polémica concluyó con una «victoria» de Cuvier, que logró poner en evidencia las exageraciones de Geoffroy y convencer al público en general de que era aconsejable rechazar su teoría del plan unitario de la naturaleza y la evolución de las especies a partir de un arquetipo. Lo cual demuestra que estos grandes torneos no siempre dan la razón al futuro, y sostiene el dicho de que «tener razón demasiado pronto es lo mismo que estar equivocado».

La noche de Galois
Aunque no tenga específicamente que vercon el tema que estamos tratando, aprovechemos que estamos en época pararetomar, brevemente, una historia que les prometí en el lejano capítulo sobreel Renacimiento y que nunca les conté. Cuando hablamos de las ecuacionesalgebraicas y sus resoluciones en el siglo XV, les había contado que sehabían resuelto todas hasta las de cuarto orden (es decir, con la incógnitaelevada a la cuarta potencia) y les dije que la de quinto orden tardaríamucho en encontrar su resolución y que estaría asociada con una historia de amory de muerte. Es el momento de contarla.
La ecuación de quinto orden (x5+ bx4 + cx3 + dx2 + ex+ f = 0) se resistía, y se resistió durante dos siglos por lo menos.Recién a principios del siglo XIX, primero Niels Henrik Abel (1802-1829) yluego Évariste Galois (1811-1832) —noten las edades— demostraron que eraimposible encontrar una fórmula que la resolviera: es lo que técnicamente seexpresa como que la ecuación de quinto grado, y cualquiera de grado mayor, nose puede resolver por radicales —es decir mediante una fórmula general—.
Lo que es extraordinario es el caminoque tomó Galois, deduciendo esta propiedad de la teoría de grupos, un tipo deestructuras que inventó o descubrió. La historia fue una combinación de geniomatemático, pasión política y duelo romántico: los descubrimientos losrealizó de adolescente; más tarde, tras la revolución de 1830 en Francia, quepara decepción de los manifestantes culminó con el entronizamiento de LuisFelipe de Orléans, Galois, ferviente republicano, fue perseguido y pasóvarios meses preso.
Nuestro personaje fue uno de los grandesmatemáticos de la historia. Cuando abandonó la cárcel por última vez se vioenvuelto en un lío de polleras que lo llevó, un mes después, a batirse en unduelo. La noche anterior a aquel día fatídico, escribió una carta exponiendotodas sus teorías matemáticas, que sirvieron de motor para un siglo dedesarrollo del álgebra, y que tardaron mucho en ser comprendidas porcompleto. La teoría de conjuntos, potenciada por la teoría de grupos, fue unade las grandes conquistas del siglo XIX, y surge de esa carta desesperada queGalois escribió la noche anterior al duelo a causa del cual moriría tres díasmás tarde.
Y tenía veinteaños.

Porque Cuvier, con su rígida adhesión a la fijeza de las especies y con sus multiplicables catástrofes —empeoradas por sus discípulos— pertenecía, en cierta forma, a las estribaciones del siglo XVIII, mientras que Geoffroy se estaba embarcando de lleno en el siglo XIX. Y lo hacía porque su idea del arquetipo parecía exigir una teoría de la evolución del tipo de la que Lamarck había propuesto veinte años antes, y que ya revisaremos.
Saint-Hilaire, con su transformismo a flor de piel, es entonces una buena puerta de entrada para la gigantesca aventura intelectual que significó el siglo XIX, no sólo para la biología sino para todos los campos de la ciencia.
Allá vamos.
El transformismo y su época
Hay que decir que el transformismo encajaba con los tiempos que corrían —el término mismo «evolución» ya había sido acuñado por Albrecht von Haller (1708-1777) para su teoría embriológica—: el imaginario europeo se estaba embarcando en la doctrina del progreso y las ideas de cambio —y aun de cambio rápido— comenzaban a prevalecer sobre las de permanencia, duración y eternidad. En 1776, Adam Smith publicó La riqueza de las naciones, una teoría dinámica del sistema capitalista naciente, y en 1798 apareció el Ensayo sobre la población de Malthus, que tanto inspiraría a Darwin. Por otro lado, la geología en expansión aportaba al transformismo el ingrediente esencial que le faltaba: tiempo.
Aunque nadie lo sabía aún, la doctrina de la fijeza de las especies había entrado en una fase terminal y, en ese sentido, las hipótesis catastrofistas fueron, ya de entrada, un anacronismo; las ideas transformistas, sin embargo, no dejaban de ser intuiciones oscuras, pasos a tientas, ensoñaciones manifiestas, casi cuestión de creencia y opinión.
Y así y todo, se percibía la necesidad de una reforma.
Linneo y Cuvier habían jugado para la biología el papel que Tycho Brahe había cumplido para la astronomía, al establecer un método de observación preciso, inspirado en el mecanicismo newtoniano. Hacía falta que alguien redondeara y reuniera en una teoría coherente todas esas intuiciones básicas del mismo modo en que Copérnico había reunido las ideas flotantes desde la Antigüedad sobre el heliocentrismo y les había conferido legalidad y estatus científico.
Y bueno. Una especie de Copérnico del transformismo (con todo el cuidado que hay que tener cuando se compara a alguien con Copérnico) fue Jean Baptiste de Lamarck (1744-1829), que fusionó todas aquellas ideas vagas en una teoría completa y transformó el transformismo en evolución.

§. Lamarck
Jean Baptiste Lamarck (1744-1829) desarrolló buena parte de su carrera de naturalista como botánico, pero en 1794 debió encargarse en París del estudio de los invertebrados en el Muséum d’Histoire Naturelle que la Revolución había montado sobre el antiguo Jardin du Roi. Allí construyó una clasificación que le dio un lugar prominente en la biología, palabra que, dicho sea de paso, él mismo inventó (al mismo tiempo que los médicos alemanes Treviranus y Burdach).
Transformista desde el vamos, Lamarck optó por el arquetipo cambiante que ya vimos que sostenía Erasmus Darwin: su versión de la evolución consideraba que en cada especie determinados animales podían ir cambiando sus características en su interacción con el medio ambiente y legar esos rasgos cambiados a su progenie. En 1809, en su Filosofía zoológica, afirmó que los seres vivos tendían a adaptarse mediante el abuso de algunas partes de su cuerpo y el descuido de otras, abuso y descuido que se transmitían a sus descendientes. Las partes inútiles se atrofiaban gradualmente, mientras las adaptativas se desarrollaban y así, mediante la transmisión hereditaria y la acumulación, lentamente las especies se iban modificando. Los primeros y primitivos seres vivientes se habían originado por generación espontánea a partir de una especie de caldo inicial y mediante ese mecanismo de adaptaciones, atrofias e hipertrofias, habían dado lugar a la enorme variedad biológica actual.
El ejemplo favorito de Lamarck era el de un animal recién descubierto por los europeos: la jirafa. Un antílope primitivo, sostenía Lamarck, aficionado a comer hojas de árbol, estiró su cuello hacia arriba con toda su fuerza para alcanzar el máximo de hojas posible y junto con su cuello también sus patas y su lengua. El estiramiento así producido se transmitió a sus hijos, que repitieron la operación, estirando patas, cuello y lengua más aún. De esta manera, de generación en generación, las proporciones de aquel olvidado antílope se fueron modificando, hasta devenir toda una jirafa. Los cambios se iban profundizando durante siglos y los sucesivos desarrollos iban mejorando las especies que mostraban, al final, la maravillosa adaptación que hoy vemos.
La hipótesis era atractiva, qué duda cabe, pero tenía un obstáculo insalvable: los caracteres adquiridos no se heredan. Por más que una jirafa estire su cuello, su prole no heredará el estiramiento, del mismo modo que, si se le corta la cola a un ratón, sus hijos no nacerán sin cola: la doctrina de los caracteres adquiridos no pasaba la prueba empírica (Lamarck y sus seguidores tampoco habían realizado demasiados estudios concretos que dieran cuenta de los mecanismos por los que los ambientes permiten este proceso de mejora de la especie, no examinaron fósiles y tampoco prestaron atención a la biogeografía). Aunque, intuitiva como era, podía explicar bastante bien la evolución de las especies.
Y era efectivamente una estocada contra la doctrina que, con mano de hierro, Cuvier defendía en Francia. Pero justamente la «dictadura» del fijismo «cuvieriano» (si se me permite un neologismo tan espantoso) impidió que la teoría de la evolución de Lamarck tuviera la suerte que merecía. Aunque hay que reconocer que, al fin y al cabo, Cuvier había hecho hincapié, para combatirla, en el punto que verdaderamente no funcionaba, que era el de la herencia de los caracteres adquiridos. Cuando Lamarck murió, a los noventa y cinco años, casi olvidado, en el elogio fúnebre Cuvier lo ensalzó como botánico y taxonomista, pero ni siquiera mencionó su teoría de la evolución. Lo cual, en verdad, era una cretinada.
La pionera teoría de Lamarck tuvo el ambiguo destino de tantas teorías que fueron pioneras: no alcanzó a imponerse pero sirvió de base —o de plataforma— a quienes, luego, descubrirían cuál era el verdadero mecanismo de la evolución.
El mismo año en que se publicaba la Filosofía Zoológica, como si fueran eslabones de una cadena de producción, nacía en Inglaterra Charles Darwin.
Darwin emprende un viaje alrededor del mundo
Podemos comprender, hasta cierto punto, por qué hay tanta belleza por toda la naturaleza, pues esto puede atribuirse, en gran parte, a la acción de la selección natural.
DARWIN, El origen de la especies
Charles Darwin (1809-1882) no estaba destinado a ser naturalista sino médico, como su padre y su abuelo Erasmus. A los 16 años fue a estudiar a Edimburgo donde, asqueado por las cirugías, duró sólo dos años, pero alcanzó a conocer a geólogos y biólogos. Ante su falta de capacidad médica, fue enviado a estudiar religión a Cambridge, donde también se vinculó con los círculos científicos.
Pero la vida del futuro héroe de la biología dio un vuelco cuando, en 1831, consiguió el puesto de naturalista de a bordo del Beagle, barco de Su Majestad Británica, que recorrería los mares del mundo. Retrospectivamente, se puede decir que fue el viaje más importante de la historia de la biología.
No fue un viaje corto, ni un viajecito de placer: la expedición duró cinco años. Entre los mareos que le provocaba el vaivén del barco y los intensos momentos que vivía en tierra firme, Darwin tuvo tiempo de leer los Principios de geología, de Lyell, donde el gran geólogo sostenía, como ustedes ya saben, el uniformitarianismo (esto es, la idea de que los cambios en la superficie terrestre son resultado de procesos geológicos en larguísimos períodos). Nuestro viajero, que había partido de Inglaterra convencido, por acción u omisión, de la fijeza de las especies, encontró especies muy próximas y ligeramente diferentes que parecían responder a presiones ambientales: en el archipiélago de las Galápagos pudo ver que entre los pájaros pinzones que habitaban las diferentes islas había diferencias en los picos que se debían a las necesidades alimentarias que les imponía el lugar. A pesar de su formación religiosa, Darwin ya no podía creer que Dios se hubiera tomado el trabajo de crear tantas especies tan parecidas de un mismo tipo de pájaros. ¿Para qué?
Cuando regresó, en 1836, ya tenía cierta reputación, ganada gracias a las cartas que enviaba regularmente a Inglaterra contando sus observaciones. Rápidamente se posicionó en el seno de la comunidad científica y se dedicó a escribir libros, folletos y su diario de viaje, que resumía sus experiencias en el Beagle. Mientras tanto, comenzó a juntar sus notas en busca de una respuesta al «problema de las especies». El viaje lo había llevado a creer cada vez menos en el fijismo y más en la posibilidad de que se produjeran cambios graduales por acción del medio ambiente.
También sabía, obviamente, de la selección artificial que los humanos hacen de plantas y animales, eligiendo y reproduciendo aquellos que mejor cumplen los objetivos de utilización. Habló extensamente con criadores que le explicaron cómo, mediante cruzas, conseguían acumular los rasgos más deseables en sus animales: velocidad en algunos caballos, fuerza en otros.
El hombre no puede crear variedades ni impedir su aparición; puede únicamente conservar y acumular aquellas que aparezcan.
Pero, ¿qué ocurría cuando no había intervención humana? Evidentemente la naturaleza debía resultar determinante a la hora de seleccionar algunos rasgos y no otros, aunque no podía hacer nada para que «apareciera» tal o cual rasgo. ¿Qué mecanismo jugaba en la naturaleza el papel del criador y se constituía en el motor del cambio? Ése era el asunto.
Esas cosas estaba pensando cuando, en 1838, cayó en sus manos el libro de Thomas Malthus llamado Ensayo sobre el principio de la población, en el cual exponía una teoría sobre la competencia por sobrevivir que, según él, se daba en la sociedad humana:
La población, si no se pone obstáculos a su crecimiento, aumenta en progresión geométrica, en tanto que los alimentos necesarios al hombre lo hacen en progresión aritmética.
Malthus sostenía que el único límite para el crecimiento de la población estaba dado por el medio ambiente y la cantidad de alimento disponible, que, al multiplicarse más lentamente que los humanos, los obligaría, tarde o temprano, a competir tenazmente para conseguir el sustento. Sólo algunos sobrevivirían. Este enunciado tan catastrófico como poco serio (ya que ninguna de las progresiones de Malthus puede ser atestiguada) ayudó a Darwin a dar con la clave del mecanismo evolutivo: la selección natural.
De cada especie y en cada generación nacen muchos más ejemplares de los que el medio ambiente puede sostener; solamente una fracción sobrevive a la lucha por la existencia y llega a poder reproducirse. Como nacen más individuos de los que pueden sobrevivir, y parte de éstos deben desaparecer, en cada caso hay una lucha por la existencia, ya sea entre individuos de la misma especie, con los de otra o con las condiciones de vida.
Ahora bien, cada camada presenta variaciones naturales: habrá ejemplares más y menos fuertes, con un color más y menos propicio al mimetismo, más y menos ágiles, con mayor o menor capacidad alimentaria o con mayor capacidad de huir de sus predadores.
Hay también muchas diferencias ligeras, como las que se observan en distintos descendientes de los mismos padres, y a las que llamaremos «diferencias individuales». Estas diferencias son de gran importancia, ya que aportan material sobre el cual actúa acumulativamente la selección natural, tal como el hombre acumula, en una dirección determinada, las diferencias individuales de las especies domésticas.
Y seguía:
Pero cada uno de estos cambios es tan pequeño, y su acumulación tarda tanto tiempo, que no alcanzamos a apreciarlo, y cuando observamos las transformaciones producidas a lo largo de los períodos geológicos sólo vemos que las formas orgánicas actuales son muy diferentes de las antiguas.
Aquellos con un carácter más adaptativo tendrán mejores posibilidades de llegar a reproducirse, y como el carácter no es adquirido sino natural, sí lo transmitirán a sus descendientes. En sucesivas generaciones, la selección actuará una y otra vez en favor de ese rasgo, que tenderá a hacerse predominante. Y así, estos caracteres diferenciados, cuando se acumulan, a través de las eras, terminan por dar lugar a una nueva especie. No es que el antílope de Lamarck estirara su cuello hasta convertirse en jirafa, es que, para continuar con el ejemplo, aquellos antílopes que debido a las variaciones naturales tenían el cuello un poco más largo podían alimentarse mejor, y tenían, en consecuencia, más chances de procrear una descendencia que, como se trataba de un rasgo natural, heredaba el cuello largo.
Debido a la lucha por la existencia, la más pequeña variación, si es de alguna manera favorable a los individuos de una especie, ayudará a la conservación de los mismos y será, en general, heredada por sus descendientes. Éstos, a su vez, tendrán mejores posibilidades de seguir con vida, pues de los muchos individuos de una especie que nacen, sólo un pequeño número puede sobrevivir.
La operación, repetida al compás de las generaciones, iría lentamente favoreciendo la reproducción de los que tuvieran cuellos más largos hasta dar, mucho después, una jirafa. No era la naturaleza presionando para que los individuos cambiaran ni los individuos esforzándose por adaptarse a la naturaleza (como proponía Lamarck) sino al revés: se producía alguna variación casual en algún individuo y, si tal variación respondía mejor a una presión ambiental, este individuo tendría más posibilidades de sobrevivir y, por lo tanto, de reproducirse.
Aquellas especies que no evolucionan al compás del medio ambiente, por su parte, tienen un triste horizonte por delante: la extinción.
Cuando una especie se extingue, no reaparece jamás, ni siquiera si vuelven las mismas condiciones de vida, ya que al perderse la especie madre las formas que pudieran desarrollarse por acumulación de pequeñas variedades presentarían, sin duda, algunas diferencias. Según la teoría de la selección natural, la extinción de formas viejas y la aparición de otras nuevas están estrechamente vinculadas. La antigua idea de que todos los seres que poblaban la tierra habían sido aniquilados por catástrofes sucesivas ha sido abandonada. Opinamos ahora que las especies y grupos de especies desaparecen gradualmente, unos tras otros, primero de un sitio, luego de otro y, por fin, del mundo.
Como Copérnico, Darwin tenía todos los datos básicos para exponer su teoría, pero no se atrevía a darlos a conocer y seguía dando vueltas. En 1842 finalmente publicó un boceto y en 1844 un ensayo más amplio que estaba pensado para publicación sólo si él moría. A fines de los cincuenta empezó a preparar un libro de varios volúmenes.
Pero tuvo que apurarse: en 1858 recibió un trabajo que delineaba un concepto similar al suyo de la selección natural, desarrollado por Alfred Russell Wallace (1823-1913). Wallace se ganaba la vida coleccionando animales raros, para lo que había viajado mucho; él también había recibido la influencia de las ideas de Lyell y Malthus y avanzaba hacia la idea de selección natural, aunque, como no se interesaba en la reproducción animal, no había utilizado como ejemplo la selección artificial y se había basado más bien en subespecies que en individuos de características particulares dentro de una misma especie. La cuestión es que en 1858 le escribió a Darwin, con quien ya había mantenido una nutrida correspondencia, preguntándole por su opinión acerca de la idea que estaba esbozando.
Darwin había trabajado en lo suyo por años y no estaba dispuesto a perder la prioridad de su gran teoría. Por recomendación del mismo Lyell, publicó al mismo tiempo que Wallace, su propio trabajo en una revista científica. Hay que decir que entre ellos no se generó una típica competencia académica por la prioridad, como las de Newton y Hooke o Newton y Leibniz, sino que resolvieron las cosas como caballeros.
Y finalmente, llegó el gran libro: el 24 de noviembre de 1859 salió a la venta la primera edición de El origen de las especies con todos los detalles de la teoría.
En el prólogo, Darwin reconocía que la motivación para publicar el libro había sido especialmente
el que Wallace ha llegado casi exactamente a las mismas conclusiones generales a que he llegado yo sobre el origen de las especies.
La primera edición de 1.250 ejemplares se agotó ese mismo día y lo mismo ocurrió con la segunda edición de 3.000. En realidad, se agotó porque los distribuidores hicieron fuertes compras y no porque el público se precipitara a adquirirlo, pero de todos modos no estaba nada mal para una obra científica en tiempos en que un bestseller llegaba a vender 30 o 40 mil ejemplares.
El origen de las especies es muy claro y honesto en cuanto a la fuerza de la teoría y las dudas del autor y es, en sí mismo, una gran obra de divulgación científica. Resulta interesante que Darwin no usara la palabra «evolución», sino otros términos como «descendencia con modificación» y «selección natural», que luego fueron resumidos con la palabra que utilizamos hoy. En 1889, después de la muerte de Darwin, Wallace publicaría un libro llamado Darwinismo en el que rendía honor a la gran labor de su colega y amigo.
El segundo libro de Darwin, El origen del hombre y la selección con relación al sexo, expandió la evolución para incluir cuestiones morales y psicológicas. Ya fuera por miedo, por cautela o por falta de convicción, en ninguna parte Darwin habló específicamente del hombre como descendiente de los monos o de los grandes simios, sino que le dejó ese campo a uno de sus más fervorosos apologistas, Thomas Huxley (1825-1895), el abuelo del escritor. Huxley llevó las conclusiones de la teoría de la evolución más lejos que el mismo Darwin y publicó, en 1863, su propio libro (La evidencia del lugar del hombre en la naturaleza), en el que aseguraba que
en cualquier grupo de órganos que se estudiara, las diferencias estructurales que separan al hombre del gorila y del chimpancé no son tan grandes como las que separan al gorila de los monos más simples.
Provocó, desde ya, el horror de la sociedad de la época. Esos dignos caballeros y damas victorianos que se consideraban el centro del mundo no aceptaban fácilmente estar emparentados con los monos.
Del mismo modo que Copérnico había descentrado a la Tierra del centro del universo, Darwin descentraba al hombre del centro de la biología y destruía la idea de su especificidad, presentándolo como el resultado de una fuerza ciega, la selección natural, que actuaba sin objetivos ni propósitos.
Había que ser cauto, no obstante, con la cuestión religiosa. Y Darwin ciertamente lo fue:
Hay magnificencia en esta concepción de que la vida, con sus variadas posibilidades, fue alentada originariamente por Dios en unas pocas formas o en una sola, y que, mientras la Tierra giraba según la ley de gravitación, desde un comienzo tan sencillo se propagaron y desarrollaron formas infinitas, cada vez más hermosas y deslumbrantes.
Pensada así, la selección natural no sólo no le restaba importancia y magnificencia a la tarea divina de la creación sino que, por el contrario, se las sumaba: si Dios podía lograr la maravillosa diversidad de la vida a partir de la conjunción de una sola forma original, un puñado de leyes físicas y, fundamentalmente, el tiempo (cosa que a Dios, por supuesto, le sobra)… ¿para qué esforzarse en vano diseñando tantas especies desde el principio? ¿No era más conmovedor pensar que en un arquetipo (como aquel en el que pensaba Saint-Hilaire) estaba contenida, en potencia, toda la vida que habría de venir?
Para la Iglesia Anglicana, por lo menos, la respuesta estaba clara: no. Cuando Thomas Huxley defendió frente al obispo de Oxford la teoría de la evolución y éste le preguntó si él descendía del mono por parte de madre o de padre, respondió con británica y darwiniana flema:
Preferiría descender del mono por ambas partes y no tener el minúsculo cerebro de quien formuló la pregunta.
Darwin murió en 1882 y fue enterrado con todos los honores en la Abadía de Westminster, cerca de la tumba de Newton.

§. La teoría de la evolución estaba incompleta
Aunque es mucho lo que permanece oscuro, no puedo abrigar la menor duda de que el punto de vista que hasta hace poco sostenía la mayoría de los naturalistas, y que yo mantuve anteriormente, a saber, que cada especie ha sido creada de manera independiente, es erróneo. Estoy convencido de que las especies no son inmutables, sino que las que pertenecen a lo que se llama el mismo género son descendientes directos de alguna otra especie generalmente extinguida, de la misma manera en que las variedades reconocidas de una especie cualquiera son descendientes de esta especie.
DARWIN
El origen de las especies tuvo un impacto comparable a los Principia de Newton (si es que algo se le puede comparar) y terminaría por convertirse en el eje de la biología. Pero la teoría de la evolución de 1859 tenía sus dificultades: ¿por qué es que hay especies tan definidas y faltan los numerosos pasos intermedios que deberían existir entre una y otras? ¿Es posible que haya rasgos que no representen ninguna ventaja adaptativa? ¿Cómo surgen los instintos en la evolución? ¿Por qué los descendientes de especies cruzadas son estériles? Darwin ensayó respuestas razonables y muchas veces provisorias, pero en realidad el gran problema es que no contaba con una teoría de la herencia que permitiera redondear las cosas y explicar cómo se difundían los caracteres seleccionados dentro de las poblaciones. Era una dificultad seria, pero allí no había nada que hacer.
Las leyes que gobiernan la herencia son desconocidas. Nadie puede decir por qué algunas características se heredan a veces y a veces no; por qué un individuo se parece en ocasiones a sus abuelos o a antepasados aún más remotos, ni por qué algunas peculiaridades se transmiten a los descendientes de ambos sexos y otras sólo a los de un sexo.
Si Darwin hubiera leído este libro, se habría enterado de que en esos mismos momentos, en medio del silencio de un monasterio austríaco, un monje llamado Gregor Mendel (1822-1884) publicaba buena parte de la solución a este problema. Pero prácticamente nadie lo leería (a Mendel, no este libro) hasta el siglo siguiente, cuando comenzara a desarrollarse la teoría genética.
La polémica que levantó el darwinismo fue tan intensa como la que derivó de la teoría heliocéntrica y todos los biólogos se sintieron obligados a tomar partido, pero los defectos trababan su victoria completa. A fines del siglo XIX y comienzos del XX, aunque ningún científico dudaba de que efectivamente había habido evolución de las especies, la teoría darwinista de la evolución por selección natural era tratada como una hipótesis más. Recién con el desarrollo de la teoría cromosómica que explica la herencia y los cambios y la genética en general, hacia los años 1930, se elaboró la gran síntesis neodarwiniana que dio al evolucionismo por selección natural una solidez absolutamente indiscutible.

§. Pero no para todos
El golpe propinado por Darwin al orgullo humano fue, si se quiere, más violento que el de Copérnico: le quitó el lugar de protagonista de la Creación, amo y señor de la naturaleza, para convertirlo en un accidente más en la historia de la biología. Era difícil de aceptar y no fue aceptado así nomás. En la década de 1920, en los Estados Unidos, una ley del estado de Tennessee prohibió enseñar la teoría de la evolución:
La teoría darwiniana será ilegal para todo profesor, en cualquiera de las universidades, colegios normales y otras escuelas públicas del Estado.
Tres estados más se adhirieron a la prohibición, y a raíz de ella se desarrolló un resonante juicio que atrajo la atención de todos los Estados Unidos y que fue bautizado como «El juicio del mono».
En 1925, un maestro de Tennessee, John Thomas Scopes, joven profesor de biología, decidió desafiar públicamente la prohibición y enseñó la teoría de la evolución en su escuela, lo cual le valió la cárcel y el sometimiento a juicio, tal como estaba previsto.
Lo defendió Clarence Darrow, un célebre abogado criminalista norteamericano. Como era imaginable, el juicio se convirtió en una discusión que fluctuaba entre la biología, la teología y la interpretación literal de la Biblia; a pesar de la habilidad del defensor, Scopes fue declarado culpable y multado con cien dólares. La historia fue llevada al teatro (y luego al cine) con el título Heredarás el viento
El asunto no terminó allí: a partir de los ochenta, corrientes religiosas fundamentalistas norteamericanas volvieron a insistir para que la evolución se enseñara como «una opción más» frente al relato bíblico. La última variante de estas posturas es la del «diseño inteligente», que acepta la evolución de los animales más grandes, pero que niega rotundamente la posibilidad de que los animales muy simples hayan evolucionado sin una «mente superior» que los diseñara.
La ciencia newtoniana, por cierto, no es fácil de aceptar para todo el mundo. Y los procesos culturales son lentos, lentísimos.

§. Una confusión sobre la supervivencia del más apto
Darwin era consciente de que el término «selección natural» que utilizaba para describir este proceso invitaba a la confusión, ya que «seleccionar» parece un acto volitivo, de la voluntad. Por eso, reconoció que no podía encontrar uno mejor pero se ocupó de aclarar posibles dudas:
Se ha dicho que yo hablo de la selección natural como de una potencia activa o una divinidad, pero ¿quién hace cargos a un autor que habla de la atracción de los planetas?
La selección natural no es una fuerza que actúe con propósito alguno, ni en determinada dirección;
no produce los cambios, como han entendido ciertos autores; sólo implica la conservación de las variaciones que aparecen y que resultan beneficiosas para los seres orgánicos en su adaptación a las condiciones de vida.
Asimismo, los rasgos seleccionados «positivamente» no están ligados a valores «positivos» trascendentales sino relativos: algo puede ser positivo en un determinado ambiente y negativo en otro. La velocidad, el tamaño, la vista o incluso la inteligencia pueden ser buenos, malos o neutros en un medio ambiente siempre cambiante, y sólo se manifiestan como tales a lo largo de millones de años. La selección natural sólo conserva los rasgos adaptativos, es una fuerza ciega y puramente material.
Por supuesto, la tentación de usarla en cuestiones sociales fue inmediata y así lo hizo la corriente del darwinismo social, que aplicó la lógica de la evolución a la sociedad humana, argumentando que las personas y los grupos están sujetos a las mismas leyes de selección natural que había descripto Charles Darwin. De esta manera, por ejemplo, la dominación de un pueblo por otro era entendida como un mero reflejo de una supremacía «natural» legitimada por la ciencia positiva.
Uno de los representantes más conocidos del darwinismo social fue Herbert Spencer (1820-1903), que fue el que en realidad acuñó el concepto de «supervivencia del más apto». Spencer pensó a la sociedad como un organismo vivo en el que eran válidas las leyes biológicas. Así, el individualismo y la competencia funcionaban como las claves para entender a una sociedad que tiende a mejorar inevitablemente, de la misma manera que las especies supuestamente mejoraban gracias a la evolución. La teoría spenceriana especulaba a partir de una definición del más apto muy alejada de la ciencia darwiniana y manejándose con períodos de tiempo que nada tienen que ver con la biología, pero era lógico que el capitalismo triunfante, todavía con grandes resabios de la Revolución Industrial, la utilizara para legitimar algunas de sus atrocidades.
La derivación más terrible del darwinismo social fue la eugenesia, inventada por el antropólogo británico Frances Galton (1822-1911) —primo de Darwin—, quien creó el término a partir del griego eugenes, que significa «dotado por la herencia de la cualidad de los nobles». La idea de Galton era que los rasgos mentales y físicos eran hereditarios y, por lo tanto, debería cruzarse a los mejores para generar una raza de seres superiores. Prácticas eugenésicas se produjeron durante la primera mitad del siglo XX en muchos países «insospechables», y las teorías y horrores raciales de los nazis están vinculados con ellas.

§. Balance
La teoría de la evolución integra finalmente a la biología dentro del universo de las disciplinas newtonianas y la selección natural se transforma en el principal mecanismo que describe la historia de la vida. El mundo orgánico, así, tiene una historia que puede ser descripta, analizada y contrastada.
Y aunque en ese sentido la teoría de Darwin es plenamente clásica, la selección natural, esa fuerza ciega sobre la que casi nada se puede decir y que sólo permite explicaciones ex post, no es completa ni enteramente newtoniana, ya que incluye el azar y una buena cuota de impredictibilidad. Ni siquiera es estrictamente una «ley» en el sentido newtoniano, sino una resultante de infinidad de procesos empíricos que no permiten hacer predicciones ni emitir juicios de valor.
En cierta forma, dentro de la teoría de la evolución estaban ya en germen algunos aspectos que luego eclosionarían y revolucionarían la ciencia de fines del siglo XIX y el siglo XX.

Interludio:
Milonga Darwiniana

Milonguita darwiniana
de los pies a la cabeza,
se sabe cuándo termina
pero nunca cuándo empieza.
En el barrio de Pompeya
muy cerca de donde están
las vías, hubo un malevo
apellidado Galván.
Como un rey en la milonga
y una luz con el facón
a Galván lo fascinaba
la ley de la evolución.
«¡Qué grande fue Charles Darwin!
— reflexionaba el malevo—,
se puede decir que él solo
fabricó el mundo de nuevo».
Y en medio de la milonga
mandaba parar la cosa
para mandarse un discurso
medio en verso y medio en prosa.
Le decía al malevaje:
«Escuchen esta teoría
que es el punto culminante
de toda la biología».
Si por ái se retobaba
la audiencia desconcertada,
los mantenía en un puño
clavandolés la mirada.
Decía: «Nunca sabemos si algo
está bien o está mal,
eso el tiempo lo decide
por selesión natural.
No se sabe cuáles son
los rasgos adaptativos,
a veces los más borregos
resultan ser los más vivos.
Escuchen si no esta historia:
los mató una suerte perra
a los grandes dinosaurios
que dominaron la tierra.
No pudieron adaptarse
a un planeta que cambiaba
ni mantener el calor
mientras el mundo se enfriaba.
Escuchen con atención
esto que les digo yo:
en el mundo y en Pompeya
quien no se adapta, sonó».
Explicaba con paciencia:
«En cada generación
no da abasto el medio ambiente
pa’ toda la población
y así empieza cada bicho
la lucha por la esistencia,
por la hembra, la comida
y por dejar descendencia.
Los que son más adaptados
reciben el mejor trato,
los otros se van derecho
para la quinta del ñato.
Los rasgos adaptativos
sufren acumulación,
que se hace más pronunciada
con cada generación.
Y a medida que varían
las cercustancias malevas
las especies van cambiando
y salen especies nuevas.
Las especies estinguidas
millones de años atrás
aunque hayan sido valientes
dejan güesos, nada más.
Y hay que andarse con mucho ojo
porque acá en el arrabal
¡es más fuerte que la yuta
la selesión natural!
El malevo de suburbio
que no sabe biología
podrá tener muchas minas
pero siempre anda en la vía.
No me gusta la inorancia
aquí hay que usar la cabeza.
Como dijo Charles Darwin,
«siempre por algo se empieza».
Y le digo al malevaje
que es importante estruirse
porque si no, cualquier día,
van a tener que estinguirse.
Malevo que da consejos
no es malevo, es un amigo,
escuchen lo que les digo
y estudien la evolución
para estar bien preparados
cuando llegue la estinción».
Milonguita darwiniana
con su corte y su quebrada,
enseguida se termina
y aquí no ha pasado nada.

Capítulo 26
La república celular y la invasión microbiana

Mientras en lo macro se desplegaba el hilo que conduciría a la teoría central de la biología —la teoría de la evolución—, por debajo se iba desenvolviendo un cable más fino, si se quiere, aunque con tantas idas y vueltas como aquél, hacia otra gran síntesis: la teoría celular. Aquí no se puede ignorar el peso que tuvieron los filósofos de la naturaleza, que, si no le prestaron demasiada atención al problema de la evolución, sí resultaron claves al insistir en la idea de que toda la materia viva debía estar organizada alrededor de alguna unidad fundamental.
De todos modos, hay que decirlo, no todas las unidades son lo mismo: es necesario dejar bien en claro qué se entiende por «unidad». Una cosa es pensar, como lo hacían los Naturphilosophen, en una unidad orgánica del mundo, permeada por fuerzas vitales, escurridizas e inaprehensibles, y otra muy distinta es pensar la unidad del mundo como la de un mecanismo regido por leyes impersonales, atento a los últimos resultados de la física y la química y sin aditamentos metafísicos. Fue este último el concepto de «unidad» que prevaleció, aunque arrastrando algunos resabios vitalistas y organicistas.
Así, la teoría celular tuvo un largo período de maduración, del mismo modo que su prima mayor, la teoría de la evolución.
Como ya les conté, la palabra «célula» había sido acuñada por Robert Hooke al ver, microscopio mediante, minúsculos agujeros o celdillas en una lámina de corcho. Las células, o la sombra de ellas, habían sido avistadas también por otros microscopistas como Malpighi o Grez.
Y era lógico: la fiebre del microscopio había abierto las puertas para una exploración sistemática y desesperada de todo lo que había al alcance de las manos. Lo que nadie podía ni siquiera soñar era que aquello que se dibujaba tras la lente pudiera ser el elemento único y básico de los seres vivos.
Si se piensa un poco, la teoría celular es puramente experimental. Las hipótesis evolutivas —tanto la de Lamarck, como la finalmente triunfante de Darwin— se basaban en toneladas de datos observacionales, pero fíjense que ni la presión del medio ambiente con la consecuencia de atrofia e hipertrofia de órganos, ni el principio de la selección natural y supervivencia del más adaptado eran observables ni se deducían directamente de los datos: eran principios teóricos generales extraídos de otras consideraciones generales: nacen más animales que los que pueden sobrevivir, y sólo permanecen los rasgos de aquellos que logran reproducirse.
Pero el desarrollo de la teoría celular puede asimilarse al de la visión y de los aparatos para ver —en este caso el microscopio—. Naturalmente, lo que se ve o se cree ver —especialmente cuando los instrumentos son toscos como eran los microscopios de los siglos XVII y XVIII— depende de ideas generales sobre lo que se puede ver, ideas que están presentes siempre, conscientemente o no, en la cabeza del investigador. La observación despojada de «ídolos» que pregonaba Bacon es rara, muy rara. Nadie se acerca a un fenómeno sin una idea previa o un preconcepto. Lo cual no significa que se pueda proyectar cualquier idea sobre el resultado de la observación. El volátil autor de estas páginas cree que existe un mundo objetivo que pone límites experimentales a cualquier exceso de la imaginación.
La exploración y el desarrollo de la teoría celular, entonces, se pareció conceptualmente más a la exploración del cielo —digamos, la que hizo Herschel—, dependiente de lo que permitían ver los telescopios de la época, que a las grandes generalizaciones mecánicas, físicas o químicas.

I. La teoría celular

§. Las fibras de Von Haller
Es probable, aunque no seguro —en realidad muy inseguro—, que los grandes microscopistas y los biólogos de los siglos XVII y XVIII se preguntaran si había algún tipo de unidad en los seres vivos a medida que veían más cosas con sus microscopios. Por poner sólo algunos ejemplos, en 1665, en su libro Tratado sobre el tejido que une las vísceras, la grasa y los conductos adiposos, Malpighi encontró en una muestra de sangre de puercoespín unos glóbulos que poseen una silueta de una forma particular y son rojizos; su aspecto general es el de una guirnalda de coral rojo.
En una comunicación enviada a la Royal Society en 1682, Leeuwenhoek contó que en una muestra de sangre de raya había podido distinguir unas partículas planas y ovaladas que flotan en un agua cristalina. Cuando se encuentran aisladas, estas partículas ovaladas carecen de color, pero cuando tres o cuatro de ellas se apilan, empiezan a mostrar un color rojo.
Ambos estaban viendo los glóbulos rojos, aunque obviamente no lo sabían. Y menos que menos podían intuir que esas partículas vistas al azar y que no aparecían en otras muestras animales tuvieran algún tipo de generalidad.
En 1672, en su libro Tratado sobre la naturaleza irritable del tejido, el médico inglés Francis Glisson propuso que los tejidos animales están formados por «unidades fundamentales e irritables», a las que llamó «fibras», y sugirió que eran ellas las que formaban a todos los seres vivos.
Cien años más tarde, Albrecht von Haller (1708-1777) —uno de los anatomistas más importantes de la segunda mitad del siglo XVIII (y acaso el más importante de todo el siglo), que exploró todos los rincones de su ciencia e hizo enormes contribuciones a la medicina, dejando una obra escrita de montones y montones de volúmenes— tomó la idea de Glisson, y su enfoque fue dominante durante todo el siglo del Iluminismo. Para él, la unidad de los seres vivientes y el elemento tectónico de la materia viva estaba dado por las fibras, que en el microscopio se revelaban como masas alargadas e inorganizadas y que, según pensaba, componían las partes sólidas, tanto de los vegetales como de los animales.
Lo estableció casi como un axioma —y esto no es una exageración—, como pueden ver por su famoso apotegma:
La fibra es, para el fisiólogo, lo que la línea para el geómetra.
Haller pensaba, además, que las fibras que se veían con el microscopio estaban formadas por microfibras más pequeñas aún, unidas por una sustancia pegajosa. Tras analizar distintos tejidos animales, llegó a la conclusión de que existían tres tipos de microfibras: las musculares, las nerviosas y las celulares (estas últimas, decía, eran las encargadas de sostener el cuerpo).
Había otras variantes, pese a la amplia aceptación de la fibra: por ejemplo, en 1781, el anatomista italiano Felice Fontana escribió:
Los primitivos cilindros retorcidos que descubrí en el tejido nervioso, los tendones y los músculos, son los más pequeños que he podido encontrar en todas las partes y órganos que conozco. Son mucho más pequeños que las más pequeñas vesículas rojas presentes en la sangre. Todos mis intentos por romperlos en cilindros de menor tamaño han fallado.
Y el filósofo de la naturaleza Ockem, en 1805, sostenía que todos los seres orgánicos son aglomeraciones de vesículas o «células mucosas».
Había para todos los gustos. Aunque en general la terminología era confusa (y suena muy confusa a nuestros oídos actuales). ¿Qué quería decir Von Haller cuando hablaba de «microfibras celulares»? La palabra célula se usaba, seguramente, con distintos significados, y muy probablemente los que hablaban de «células» querían decir cosas diferentes. Por ejemplo, es posible que Von Haller identificara las «microfibras celulares» con las «células» de Hooke sin que esto significara una aproximación a la célula moderna. Pero es interesante que la palabra se usara. Además, es muy probable que si veían células, o creían verlas, las consideraran como una de las tantas cosas que hay en el organismo, como los nervios, o las venas, o los órganos, pero no como el componente principal.
Toda esta confusión terminológica no debe extrañarnos: la precisión conceptual, en general, va a la zaga de la comprensión de los fenómenos.

§. Los tejidos de Bichat
En 1801, el famosísimo médico francés François Bichat (1771-1802) no hablaba de células, ni de fibras, ni de microtubos: consideraba que el elemento común a los órganos animales era el tejido. Bichat disecó esos órganos hasta obtener fragmentos que eran —o que le parecían— homogéneos, y los sometió a muy diversas manipulaciones (maceración, cocción, acción de los ácidos y de los álcalis), lo cual le permitió distinguir 21 tipos de tejidos, que eran —afirmaba— irreductibles. Los anatomistas debían limitarse a estudiarlos y clasificarlos, no había una realidad más allá.
Pero sí la había, y quizá Bichat la hubiera entrevisto si hubiera utilizado el microscopio en lugar de una lupa, cosa que no hacía porque consideraba que el nuevo aparato devolvía imágenes equívocas.
De todas maneras, en los primeros decenios del siglo XIX la mayor parte de los biólogos se repartían entre las fibras de Von Haller y los tejidos de Bichat.
La mayor parte, sí, aunque no todos: hubo algunos botánicos, como el alemán Conrad Sprengel o el francés Charles-François Mirbel, que volvieron a la carga con el término y la noción de «célula», pero ahora lo proponían como elemento estructural universal, que constituía hasta los vasos de las plantas (como lo comprobó en 1806 Rudolf Christian Treviranus).
Si tuviera que conjeturar por qué la teoría celular tardó tanto tiempo en alcanzar su culminación, diría que el gran problema fue el microscopio o, mejor dicho, la falta de él. No sólo Bichat no lo usó sino que la gran mayoría de los investigadores lo miraba de reojo, con una sólida desconfianza: uno de los más brillantes discípulos de Cuvier, Henri de Blainville (1777-1850), llegó a subrayar más de una vez que no tenía ningún papel que jugar en el análisis de la estructura de la materia viva:
El microscopio no enseña nada nuevo sobre la constitución anatómica del tejido celular.
E incluso prevenía contra las teorías erróneas a las que el microscopio fácilmente prestaba ayuda con sus falsas ilusiones.
El propio Auguste Comte, fundador de la filosofía positivista, condenó el uso de este instrumento de exploración tan «dudoso» y tronó contra los espíritus ambiciosos que procuraban desintegrar el irreducible tejido en «mónadas orgánicas». Es decir, en células. Comte no vacilaba en calificar de «mera metafísica» el concepto de la célula microscópica.
Era cierto que los microscopios de la época de Bichat eran todavía bastante primitivos, y no habían adelantado demasiado desde los tiempos de Hooke —aunque vale recordar todo lo que hizo él con un microscopio primitivo en el siglo XVII—, pero a mediados de siglo se produjo un gran perfeccionamiento que eliminó las aberraciones cromáticas y ópticas que contribuían a hacer difusas las imágenes y a que los investigadores vieran a través de ellos más lo que querían ver, o lo que sus prejuicios o ideas preconcebidas les hacían ver, que lo que realmente se veía.
Con microscopios como la gente, la teoría celular estaba ya lista para madurar, puesto que lo que faltaba era solamente mirar con atención. Pero mirar es difícil.

§. Schleiden y Schwann y la generalización de las células
Como mirar es difícil, la teoría celular estuvo lejos de imponerse de manera repentina: de la misma manera que todas las grandes teorías científicas, avanzó paso a paso. Y uno de esos pasos, fundamental por cierto, fue el que dieron el botánico Schleiden y el zoólogo Schwann.
Matthias Jacob Schleiden (1804-1881) fue quien, de hecho, rompió con las fibras de Van Hallen y los tejidos de Bichat. Después de haberse dedicado sin éxito a la jurisprudencia, trató de suicidarse y falló: como consecuencia de ese fallo, no sólo no repitió el intento sino que descubrió que su vocación eran las ciencias naturales (cosa por cierto no muy frecuente entre los suicidas fallidos) y se dedicó con energía a su estudio. En 1838 publicó un informe que hacía de la célula la base de la morfología vegetal y sostenía que todas las plantas, con el conjunto de sus órganos, no eran más que una aglomeración de células: la célula era la unidad básica viviente de la estructura vegetal y representaba la entidad fundamental a partir de la cual la planta se desarrollaba. Cada célula lleva una doble vida: una autónoma y primaria, que pertenece a la célula como unidad, y otra incidental y secundaria, como parte integral de una planta. Ambos procesos vitales son manifestaciones de una fuerza formadora o plasmadora que prevalece en toda la naturaleza, dando origen a los cristales inorgánicos, a las células orgánicas, y reuniendo a éstas en la estructura completa de los seres vivos.
La parte complementaria de la obra botánica de Schleiden estuvo a cargo, como no podía ser menos, de un zoólogo, que extendió la idea al mundo animal. Teodor Schwann (1810-1882) hizo de todo: entre otras tantas cosas mostró, adelantándose a Pasteur, que la fermentación y la putrefacción eran producidas por microorganismos, cosa a la que nadie prestó la más mínima atención en su momento. Pero la parte más importante de su obra fueron sus investigaciones sobre la estructura celular de los tejidos animales. A fines de 1838 comprobó que en la cuerda dorsal del renacuajo había células provistas de núcleos semejantes a las células vegetales descriptas por Schleiden (el núcleo había sido descubierto, o avistado, digamos, poco antes, en 1831, por Robert Brown). Observó lo mismo en el tejido embrionario del cerdo y en las hojas germinales del pollo; buscó células en los más diversos tejidos del organismo animal, oponiéndose a las tesis de Bichat de que los tejidos eran irreductibles —lo cual era «cierto» si se tiene en cuenta que, con una miserable lupa por instrumento como la que él usaba, los tejidos pueden parecer irreductibles— y generalizó el asunto mediante un enunciado general:
Por diferentes que sean los tejidos, existe un principio universal en su desarrollo, y este principio es la formación celular.
Así estableció que la célula era un elemento común a los reinos animal y vegetal, una de las grandes generalizaciones de la historia de la biología, que tuvo impacto inmediato y que se convirtió en el eje para la interpretación de todos los fenómenos biológicos (por lo menos en el nivel micro).
Es que reemplazar los 21 tejidos de Bichat por una única unidad fundamental abrió de pronto enormes posibilidades a la fisiología y a la patología, e incluso con el correr del tiempo aclaró algunos problemas que subsistían en torno de la fecundación —uno de los méritos de Schwann, de hecho, fue haber reconocido que el huevo es una célula, sea su tamaño microscópico o macroscópico—.
Sin embargo, la teoría no estaba para nada completa y varias incógnitas quedaban flotando en el aire: ¿Cómo se reproducían las células? ¿Y de dónde salían? Tanto Schleiden como Schwann pensaron que el proceso se parecía al de una cristalización en la cual quien cumplía el rol del líquido cristalizable era el «citoblastema», la masa semilíquida y sustancia fundamental de la célula. ¿Pero a partir de qué?, ¿de un material difuso? Y entonces, ¿cómo era que ese material difuso previo a la célula no constituía él mismo la buscada unidad? Aquí había un agujero teórico, sin duda.
El citoblastema, poco después, fue llamado «protoplasma» por obra y gracia del botánico Hugo von Mohl (1805-1872), que dio un paso adelante respecto de Schleiden y Schwann: se ocupó de describir con bastante fidelidad el desarrollo y evolución de la célula y sugirió que se reproducía por división (cosa que ya había sido observada por otros biólogos).
Pero igual no alcanzaba: quedaba pendiente el mecanismo de esa división. Los botánicos suponían que, antes de que ocurriera, el núcleo se disolvía en el protoplasma para reconstruirse más tarde en las células hijas. Recién en 1852, Robert Remak (1815-1865) pudo establecer que era en cierta forma justo al revés: el proceso se inicia con la partición del núcleo, y luego la del protoplasma.

§. La república celular de Virchow
El remate de la teoría celular se alcanzó con Rudolf Virchow (1821-1902), que concibió al organismo de un ser vivo como una república celular en la que cada célula es un ciudadano.
Así, la célula pasó de ser solamente el elemento estructural —o parte del elemento estructural, si nos atenemos a lo que dije sobre Schleiden y Schwann— a ser la última unidad vital de los seres vivos, el concepto capital de la biología: fibras y tejidos se retiraron y abandonaron el centro de la escena.
Todo animal aparece como una suma de unidades vivientes, cada una de las cuales lleva en sí misma las características completas de la vida.
Virchow no aceptó la teoría de la generación celular a partir de una masa amorfa —el citoblastema de Schwann— y estableció que donde nacía una célula tenía que haber habido antes otra célula, así como un animal no puede proceder sino de otro animal y una planta de otra planta. El principio del «omnis cellula ex cellula» («toda célula procede de otra célula») era un acorde biológico renovado del viejo principio filosófico del «nihil ex nihilo» («de la nada, nada sale»).
Con Virchow, la teoría celular parecía encontrar el grado más grande de generalidad. Y sin embargo, todavía faltaba un pequeño detalle para completarla: en 1857 se observaron células que carecían de membranas rígidas, que mostraron que la pared celular es en verdad un elemento accesorio, y que permitieron afirmar a Virchow que lo esencial de la célula es el protoplasma:
Una célula es una gota de protoplasma en cuyo seno existe un núcleo, y hay una esencial semejanza del protoplasma en los animales y los vegetales.
Aparentemente se había dado el paso final y ahora sí se podía decir que la teoría celular estaba completa: las investigaciones que siguieron no hicieron sino descubrir su complejísima estructura interna, tan compleja y maravillosa que ni Schleiden, ni Schwann ni Virchow podían imaginar. En las décadas de 1870 y 1880 se lograron nuevos desarrollos en el campo de la microscopía, se desarrollaron métodos para cortar las muestras en capas muy delgadas, sustancias que permitían preservarlas y formas de teñirlas para hacerlas más fácilmente visibles; se pudo saber que los poros de Hooke en el corcho eran espacios vacíos dejados por células muertas, que los «animálculos» de Leeuwenhoek eran organismos formados por una sola célula; que las células vegetales están rodeadas por una pared rígida que les confiere una forma característica y que no está presente en las células animales. En fin: que fibras, vesículas y glóbulos resultaban no ser más que diferentes manifestaciones de la unidad que constituía a todos los seres vivos, la célula, que a su vez conformaba los tejidos.
Hacia fines de siglo ya se habían identificado los cromosomas y se sospechaba que eran los portadores del material genético. El siglo XX, con sus microscopios electrónicos, permitió disecar la célula hasta sus últimos detalles, aumentados miles, luego decenas de miles y después millones de veces.
Si hubiera que resumir la teoría celular tal como la conocemos ahora, y sin entrar en los detalles, podría resumirse en los siguientes puntos:La teoría celular fue, entonces, una de las grandes teorías sintetizadoras del siglo XIX, un siglo que estuvo incansablemente en busca de la unidad en todos los ámbitos y, aunque de manera provisoria, la encontró.

II. Pasteur y la teoría de la infección microbiana

La destrucción de la materia orgánica muerta es una de las necesidades para la perpetuación de la vida. Es necesario que la fibrina de nuestros músculos, la albúmina de nuestra sangre, la gelatina de nuestros huesos, la urea de nuestras orinas, la materia leñosa de las plantas, el azúcar de los frutos, el almidón de las semillas… se transformen lentamente hasta alcanzar el estado de agua, amoníaco y anhídrido carbónico, de forma que estos principios elementales de la sustancias orgánicas complejas vuelvan a ser recogidos por las plantas, elaborados de nuevo, sirvan como alimento a nuevos seres vivos semejantes a los que le dieron vida y así continúen ad infinitum hasta el fin de los siglos.
LOUIS PASTEUR
Si, como veremos, Dalton completaría la obra de Lavoisier y pondría a la química en la senda cuantitativa al introducir los átomos y los pesos atómicos, fue Louis Pasteur quien estableció un nexo de hierro entre la química y la biología de lo minúsculo, nexo que permitía explicar la relación entre vida y materia como un flujo de continuo intercambio. Se trataba de una preocupación que flotaba en el ambiente: de hecho, si lo recuerdan, a mediados del siglo XVIII, el propio Stahl, con su teoría del flogisto, había intentado explicar este comercio constante entre lo vivo y lo químico. Hacía siglos que la vida y la muerte se cruzaban cotidianamente en las pestes que asolaban Europa y no había ninguna teoría convincente que las explicara (al menos desde el punto de vista científico). Era tiempo de empezar a hurgar de manera un poco más consecuente en las causas de las enfermedades: romper con la teoría de los humores o la generación espontánea, que funcionaban en el campo de la biología como las esferas aristotélicas lo habían hecho en el de la astronomía.
Además, como es evidente, un nuevo mundo de animales diminutos se había desplegado frente a la mirada de los hombres de ciencia gracias al trabajo de los microscopistas. Nadie podía imaginarse entonces el poder de aquellos «animálculos» ni el papel que juegan en el mundo cotidiano. El sentido común indicaba que era a lo más grande a lo que había que temer, como los terremotos, las bombas de los cañones o incluso la pinza del dentista, mientras que lo más pequeño, lo minúsculo, no podía representar ningún peligro. Pero ya se sabe: el sentido común suele ir para un lado, mientras que la realidad lo hace para el otro. Es lo que empezaban a sospechar quienes tenían los pies en una Tierra que no parecía moverse y que, sin embargo, lo hacía.

§. Inesperados fabricantes de cerveza
Ya nos encontramos con Louis Pasteur (1822-1895) cuando hablábamos de la generación espontánea. Era hijo de un curtidor y ya a los 23 años había resuelto un curioso problema sobre la estructura de los cristales de ácido tartárico y sus propiedades de desviar la luz hacia la izquierda o la derecha, lo cual le había dado cierta reputación. Pero sus primeros grandes trabajos, que le permitirían tener un gran impacto en la realidad cotidiana de la gente, estuvieron relacionados con la fermentación y la putrefacción. Ambos fenómenos eran objeto de una polémica entre quienes sostenían que eran procesos puramente químicos y los que los atribuían a microorganismos (además, por supuesto, de todos los que abogaban por una tercera posición). No eran pocos los que se dedicaban a este asunto; la fermentación era ya entonces un proceso muy utilizado en la industria (como la cervecera) y quien la comprendiera podría resolver muchos problemas prácticos.
El paradigma más o menos vigente, apoyado por figuras como el químico Joseph Gay Lussac (1778-1850) y sobre todo por su discípulo Justus von Liebig (1837-1850), sostenía que el aire activaba procesos químicos que producían la fermentación. Pero, en 1853, Charles Cagnard de Latour (1777-1859) postuló que en el aire existían gérmenes vivos responsables del fenómeno: a través del microscopio había observado pequeñas células que resultaban inmediatas candidatas para cumplir esa función. Sus hipótesis fueron recibidas con incredulidad, ya que en algunos tipos de fermentación no se encontraba nada parecido a los microorganismos que Cagnard había observado en la levadura.
Y justamente en 1857, investigando cómo eliminar procesos irregulares que aparecían durante la fermentación de la cerveza, Pasteur logró encontrar a los culpables, organismos aún más pequeños que la levadura, y comprobó que eran ellos los responsables del ácido láctico que aparecía en la cerveza, arruinando su sabor. En los años siguientes, acumuló pruebas a favor de la teoría microbiana, aclarando el papel de la levadura y aislando al microorganismo responsable de la producción de vinagre a partir del vino común. En 1861 encontró la relación entre la fermentación y los procesos metabólicos: la fermentación era la forma en la que la levadura obtenía energía del azúcar cuando no había presencia de aire. En la década del setenta comprendió que el mismo proceso podría aplicarse a las células vivas… Puede parecer una mera anécdota de la historia de la industria, pero en realidad lo que estaba diciendo era que la fermentación, más que un proceso químico, era un fenómeno de la vida.
Si las fermentaciones fueran enfermedades, se podría hablar de epidemias de fermentación.
Estaba avanzando hacia la idea de que en nuestro cuerpo ocurre más o menos lo mismo que se ensaya y observa en el laboratorio. La fermentación, la vida y la enfermedad eran tres fenómenos íntimamente ligados y él estaba dispuesto a demostrarlo.

§. Se ocupa de los gusanos de seda y los cura
En 1865, el gobierno francés le pidió ayuda para detectar la causa de una enfermedad del gusano de seda que estaba arruinando la producción en el sur de Francia. Pasteur no sabía nada del tema, pero confiaba enormemente en el método científico para detectar y eventualmente neutralizar la causa de la enfermedad. Incluso afirmaba que su desconocimiento jugaba en su favor, ya que le permitiría enfrentar el desafío sin prejuicios de ningún tipo.
Después de cuatro años de prueba y error, y de investigar pacientemente las enfermedades de los gusanos, pudo comprender mejor los mecanismos del contagio. Aunque la mayoría de sus numerosos críticos, especialmente médicos y veterinarios, había menospreciado la posibilidad de que el trabajo de laboratorio diera resultado en el campo de las enfermedades, Pasteur fue el primero en darse cuenta de que el mal de los gusanos de seda en realidad no era uno sino dos, causados por la presencia de diminutas esporas que dejan sus huevos en las plantas nuevas. Una vez aisladas ambas enfermedades pudo, por medio de una cuidadosa selección, permitir la procreación de aquellos gusanos que no portaban ninguna de ellas, cuidando también de que no se contagiaran nuevamente la enfermedad.
En marzo de 1869, probablemente consciente de su gesto demoledor hacia los críticos, Pasteur envió cuatro lotes de huevos de gusanos o «semillas» a la Comisión de Seda de Lyon, donde se habían expresado algunas reservas sobre su trabajo. Junto con los lotes explicaba lo que ocurriría con cada uno de ellos: el primero estaría sano y daría una buena cantidad de seda; el segundo sufriría de una de las enfermedades, la llamada pebrina; el tercero sufriría de la otra enfermedad, la «flaqueza», y el cuarto desarrollaría ambas enfermedades. Sus predicciones se cumplieron al pie de la letra y su reputación siguió creciendo.
Por si faltaba algo para aumentar su fama de ser capaz de sobreponerse a cualquier dificultad, una hemorragia cerebral lo había dejado casi paralizado del lado izquierdo. Pero en cuanto se repuso un poco publicó un libro que describía sus investigaciones, mientras los campos de gusanos de seda volvían a dar ganancias por primera vez en una década. Y como era de esperar, en poco tiempo su técnica de selección se utilizaba comúnmente en Austria e Italia.

§. Epidemias, contagio
Durante la epidemia de sífilis que se produjo en Francia en el siglo XVI, Girolamo Fracastoro (1478?-1553), el mismo que había tratado inútilmente de arreglar con 79 esferas el sistema de Aristóteles, sostuvo la primera hipótesis más o menos precisa sobre la existencia del contagio por medio de un agente vivo, que transmitía la enfermedad a través de objetos contaminados o incluso del aire.
La idea, a pesar de hacerse bastante evidente en las epidemias (y de que se tomaran medidas teniéndola en cuenta, dado que se aplicaba la cuarentena), chocaba en cierta forma con la idea de que la enfermedad provenía de adentro del cuerpo por un desequilibrio en los humores.
En tiempos de Pasteur, grandes médicos como Joseph Lister (1827-1912) o Ignaz Semmelweis (1818-1865) empezaban a introducir medidas antisépticas, aunque no supieran exactamente cuál era el origen de la enfermedad. El caso es particularmente interesante porque muchas veces es puesto como modelo de investigación científica.
El Hospital General de Viena era una de las instituciones más prestigiosas de Europa, pero tenía un punto negro: la atención de las parturientas, que alcanzaba altas cifras de mortalidad por la fiebre puerperal. El hospital tenía dos pabellones dedicados a la atención gratuita de partos de mujeres que carecían de dinero para pagarla (obreras, sirvientas, solteras, prostitutas y mendigas). En la sala 2, las parturientas eran atendidas bajo la dirección del doctor Bartsch, y los casos de mortalidad por fiebre puerperal eran muy bajos (del 2 al 2,7 por ciento). En tanto, en la sala 1, bajo la dirección del doctor Klein, la mortalidad era cinco veces mayor. Semmelweis, miembro del equipo médico de la Primera División de Maternidad del Hospital de la Escuela Superior de Medicina, se propuso descubrir qué variable era la que incidía en el curioso fenómeno.
Primero descartó la teoría de las influencias epidémicas, es decir, la atribución de la prevalencia de la enfermedad a los cambios atmosférico-cósmico-telúricos. Semmelweis sostenía, con sensatez, que si la frecuencia de muertes se debiese a tales «influencias epidémicas», no debería haber diferencias en la mortalidad entre los dos pabellones o salas.
Algunos médicos pensaban que el hacinamiento era la causa de la mayor mortandad en la sala 1. Semmelweis señaló que, en verdad, había un mayor hacinamiento en la sala 2, en parte como consecuencia del terror y la resistencia que oponían las mujeres que ingresaban al hospital para ser internadas en la sala 1, temible por el alto número de muertes.
Se preguntó si la posición física de las mujeres podía influir en el fenómeno: en la sala 1 las parturientas se mantenían acostadas de espaldas, mientras que en la sala 2 se las mantenía de lado. Semmelweis hizo atender a las mujeres de la sala 1 en la misma posición que en la sala 2: la tasa de muertes no bajó.
En 1846, una comisión designada para investigar este problema atribuyó el mayor índice de mortalidad al examen poco cuidadoso que se realizaba a las mujeres en el trabajo de parto. Semmelweis refutó la idea argumentando que el parto es un acto mucho más violento que el reconocimiento, y que en las dos salas se examinaba a las pacientes de la misma manera.
Probó hipótesis que podían parecer absurdas: en la sala 1, cuando un sacerdote acudía a dar los últimos auxilios a las moribundas, debía atravesar toda la sala, cosa que no ocurría en la sala 2, donde el acceso del sacerdote a las enfermas graves era directo. La aparición del sacerdote era anunciada por una campanilla y Semmelweis pensó que la presencia del sacerdote significaba la muerte para las parturientas y por lo tanto les producía tal terror que las hacía susceptibles a la fiebre puerperal. Solicitó al sacerdote evitar el uso de la campanilla y cambió su itinerario, sin que por ello la mortalidad disminuyera.
Finalmente, dio con la causa: en la sala número 2 las parturientas eran asistidas por comadronas o parteras, mientras que en la sala 1 lo hacían estudiantes que, antes de revisar a las pacientes, habían hecho disecciones de cadáveres, y concluyó que había algún «material cadavérico» responsable del contagio.
Puso a prueba la hipótesis y comprobó que estaba en lo cierto: apenas obligó a los estudiantes a lavarse las manos, la tasa de infección bajó inmediatamente a un 2 por ciento. Luego amplió sus cuidados de higiene al lavado del instrumental y comprobó estadísticamente, una vez más, la efectividad de su método.
Semmelweis sostuvo que, si su suposición era correcta, se podría prevenir la fiebre puerperal destruyendo químicamente la materia cadavérica en las manos de los médicos y los estudiantes. Dictó por tanto una orden que exigía a todos los estudiantes de medicina el lavado exhaustivo de manos con cal clorurada antes de efectuar el reconocimiento de las enfermas.
En apoyo a su hipótesis, Semmelweis hizo notar que la menor mortalidad en la sala 2 se debía a que las comadronas no practicaban autopsias.
La implantación de estas medidas disminuyó en forma inmediata la mortalidad en ambos pabellones hasta menos del 1 por ciento. La mortalidad por fiebre puerperal en el Hospital General de Viena alcanzó el punto más bajo en su historia: 0,23 por ciento.
A pesar de todo, las cosas no fueron fáciles. Cuando pidió a Klein, el jefe de la sala 1, que diera el ejemplo a los estudiantes con el lavado de sus manos, Klein se indignó (celos profesionales) y se negó. Semmelweis tuvo un violento enfrentamiento con él y fue despedido de la clínica, aunque luego de un tiempo lo readmitieron, pero sólo para enterarse de una terrible noticia: Kolletschka, que había sido su admirado maestro y protector, había muerto un día antes de su llegada a consecuencia de una herida que se había hecho durante la autopsia del cadáver de una mujer fallecida de fiebre puerperal, lo cual le hizo provocar un escándalo que alcanzó tal magnitud que fue destituido nuevamente.
El destino me ha elegido como misionero de la verdad en cuanto a las medidas que deben tomarse para combatir la plaga de la fiebre puerperal. Desde hace mucho tiempo he dejado de responder a los ataques de los que soy objeto sin cesar; el orden de las cosas ha de probar a mis rivales que yo tenía enteramente la razón, sin que sea necesario que participe en polémicas que en adelante no pueden servir para nada al progreso de la verdad,
escribió.
Recaló en el hospital de la ciudad de Pest (Hungría), donde introdujo reformas higiénicas que abatieron en forma considerable la muerte a causa de la fiebre puerperal, como lavar las sábanas, dar de alta a las enfermas a los nueve días de hospitalización y no a los cuarenta, como se acostumbraba.
Poco después, una epidemia de la enfermedad de la que ya era especialista se presentó en el hospital de la Universidad de Pest. Esta circunstancia permitió a Semmelweis reanudar su lucha y lo convenció de escribir su obra De la etiología, el concepto y la profilaxis de la fiebre puerperal. Para ello, reunió todas las notas que había acumulado y las analizó con una lógica verdaderamente aniquiladora. En el curso de su carrera médica había aplicado sus descubrimientos a 8.537 parturientas. Durante 11 años sólo 184 mujeres que estuvieron a su cargo fallecieron por fiebre puerperal. Esto representaba el 0,02 por ciento. Era imprescindible documentarlo en forma suficiente para convencer a las incrédulas sociedades médicas.
Pero no lo aceptaron ni lo comprendieron, y los ataques que le dirigieron fueron tales que empezó a perder su equilibrio mental. Escribió cartas y manifiestos en los que acusaba de asesinos a quienes se oponían a sus teorías.
Es célebre su «Carta abierta a los profesores de obstetricia», que comienza así:
¡Asesinos! Llamo así a todos los que trabajan sin tomar las medidas que propongo con el fin de combatir la fiebre puerperal. A ellos me dirijo y me declaro su enemigo, de la manera en que hay que hacerlo frente al autor de un crimen. No puedo menos que tratarlos de asesinos. Para atajar los males que deploramos en las clínicas para parturientas no hay que cerrar éstas, sino que es preciso arrojar de ellas a los tocólogos, que son los verdaderos portadores de las epidemias. ¡El crimen debe cesar! ¡Estoy velando para que el crimen cese!
Un grave ataque de esquizofrenia obligó a su familia a buscar ayuda médica y prácticamente lo recluyeron en su casa, con la idea de mandarlo luego a un asilo en Viena.
Pero Semmelweis se enteró, y un mal día salió sigilosamente de su casa, fue a la clínica de maternidad, agarró un bisturí con el que los estudiantes estaban haciendo la autopsia del cadáver de una mujer que había muerto de fiebre puerperal, se hizo un pequeño corte en el dedo y luego introdujo su mano en el vientre del cadáver. El 13 de agosto de 1865, después de unas pocas semanas, murió a causa de la misma enfermedad que había combatido.

§. Una alianza entre Jenner y las vacas derrota a la viruela
En 1854, cuando se produjo un repentino brote de cólera en la Broad Street de Londres que mató a 500 personas en un radio de 200 metros, un estudioso de la época llamado John Snow concluyó, y luego demostró, que el problema residía en que la fuente de agua que se utilizaba en el área estaba contaminada con materia orgánica proveniente de un enfermo de cólera. Eran pasos firmes, pero inciertos, porque faltaba el dato fundamental: saber cuál era exactamente el agente de transmisión.
El médico rural inglés Edward Jenner (1749-1823) comprobó el saber popular de que las ordeñadoras de vacas, que solían contraer la viruela vacuna (poco peligrosa para humanos), y que se transmitía de manera directa de las ubres al ordeñador, no desarrollaban nunca la variante humana, más peligrosa, de la enfermedad. A partir de 1778 empezó a reunir sus observaciones y el 14 de mayo de 1796 hizo la prueba decisiva: tomó fluido linfático de la mano de una lechera y lo inoculó en el brazo de James Phipps, un chico sano de ocho años, a quien dos semanas más tarde expuso al pus de la viruela humana. El chico no se enfermó; quedaba demostrado que la viruela vacuna inmunizaba contra la humana.
Era el primer caso de vacunación empíricamente comprobado, aunque Jenner había desarrollado su método sin tener idea del agente causal de la enfermedad, ni el mecanismo por el cual se producía la inmunización. La vacuna se extendió enormemente e incluso Jenner fue premiado por el Parlamento inglés, aunque los casos en los que la enfermedad sí se desarrollaba pese a la vacunación siguieron generando polémicas.
En realidad, la idea de inocularse material infectado para prevenir enfermedades ya se había practicado en China, India y Persia, donde se habían tomado muestras de casos poco virulentos y se habían colocado en lastimaduras de personas sanas que quedaban a salvo del contagio. La esposa de un embajador inglés en Constantinopla, a fines del siglo XVII, llevó la práctica a sus compatriotas, que comenzaron a utilizarla. De allí pasó a América, donde en 1721 un médico la utilizó en Boston para prevenir la viruela, estimulado por un terrateniente local que se había enterado de esta práctica por sus propios esclavos africanos. Se introducía el material infectado debajo de la piel del paciente, que si bien no siempre desarrollaba la enfermedad, podía contagiar a otros fácilmente, por lo que era común que varios amigos se inocularan al mismo tiempo para pasar juntos la cuarentena. A pesar de todo, había ocasiones en las que la enfermedad se desarrollaba lo suficiente como para matar al paciente, lo que, obviamente, generaba muchas resistencias a la práctica.
El éxito de Jenner terminó con esa práctica de la «variolización» (el contagio voluntario de formas leves de la enfermedad) sustituyéndola por la vacunación.
Era natural que se intentara aplicar la fórmula a otras enfermedades. A mediados del siglo XIX llegó a la Academia de Medicina Francesa la idea de inocular con sífilis a los jóvenes franceses para prevenir las regulares epidemias y se levantó una enorme polémica.
Y así fue que uno de los libros que trataba la propuesta llegó a las manos de Pasteur en 1878, quien inmediatamente se interesó en el tema, mientras se preguntaba por qué no había otros casos tan exitosos de vacunación como el de la viruela vacuna. En realidad, nadie sabía por qué la vacuna de Jenner inmunizaba.
Las vacas habían ayudado a Jenner. Ahora era el turno de las gallinas.

§. Las gallinas colaboran con Pasteur
Era un buen momento: desde fines de los setenta, Pasteur investigaba el cólera de las gallinas. Durante sus experimentos se topó con que un cultivo de bacilos que guardaba desde largo tiempo era incapaz de provocar la enfermedad en las gallinas en las que lo inoculaba. Probablemente molesto por el contratiempo, consiguió una nueva cepa virulenta y la introdujo en sus gallinas, algunas de las cuales habían recibido el bacilo fallido. Para su sorpresa, estas gallinas no desarrollaron la enfermedad, mientras que las otras sí lo hacían. ¡Pasteur comprendió que había encontrado otro caso en el que la vacunación funcionaba!
En la publicación sobre su descubrimiento utilizó la palabra «vacunación» como homenaje a Jenner y la definió como la capacidad de aumentar la resistencia de un ser vivo a un agente enemigo específico. Era un paso que servía para prevenir una enfermedad más, pero que también permitía ilusionarse con lo que podría hacerse con muchas otras. En los cuatro años siguientes aplicó la técnica con éxito a la prevención de otras enfermedades animales. Alcanzaba con atenuar al agente virulento por medio de calentamiento, el paso del tiempo o por medio de un pasaje intermedio por otros animales: en cada caso las enfermedades eran ligeramente diferentes y había que descubrir sus particularidades para debilitarlas exitosamente. Por otro lado, había que afinar bien los experimentos y reducir los fracasos al mínimo para evitar darles argumentos a quienes no creían en la vacunación, en su mayoría médicos.

§. Pasteur recibe ayuda de un gigante: Robert Koch
En 1876, Robert Koch (1843-1910) publicó una obra completa donde describía el bacilo que produce el carbunclo y unas esporas muy resistentes al calor que se desarrollan una vez que se dan las condiciones necesarias. Dos años más tarde explicaba en una nueva obra que los microorganismos no sólo producen enfermedades, sino que cada uno de ellos produce una enfermedad específica.
Pasteur, que durante sus propios estudios sobre el carbunclo no supo de la obra de Koch, avanzaba sobre el tema partiendo de los mismos principios que había establecido para demostrar que no era posible la generación espontánea. Sabiendo que ya se había observado que en la sangre de los animales muertos por el carbunclo se encontraba una suerte de bastoncitos rectos, se dedicó a aislarlos y reproducirlos en su laboratorio.
Diluyendo una gota de sangre en sucesivas muestras de orina esterilizada, pudo comprobar que la última muestra seguía produciendo la enfermedad tal como la primera, aunque ya no quedara nada de la sangre originaria, pero sí las bacterias, que evidentemente eran el «principio virulento» causante de la enfermedad. Era algo que no le había ocurrido con el cólera de las gallinas: ¿cuál podía ser la diferencia?
En uno de los tantos intentos dejó reposar el líquido en el que hacía sus cultivos: comprobó que el líquido de la superficie no producía la enfermedad, mientras que el del fondo sí lo hacía, y concluyó que las bacterias más peligrosas habían decantado hacia el fondo de los recipientes y, por lo tanto, la parte superior del líquido serviría como vacuna.
Y así estuvo en condiciones de dar un golpe maestro contra quienes aún se oponían a la vacunación: el 2 de junio de 1881 hizo una demostración pública frente a periodistas y diversas personalidades en la aldea de Pouilly le Fort, Francia. Allí inoculó 48 ovejas con el carbunclo que sabía que era virulento. Las 24 que previamente Pasteur y sus colaboradores habían vacunado no mostraron síntomas de la enfermedad, en tanto que las otras murieron en menos de dos días. Era una demostración acabada del origen microbiano de la enfermedad junto con la de Koch. Pero también era una prueba contundente sobre la vacunación.
En las dos décadas siguientes se descubriría la mayoría de las bacterias causantes de enfermedades (aunque no necesariamente las vacunas). El mismo Koch encontró el bacilo de la tuberculosis, una de las principales causas de muerte de la Europa de aquel entonces, aunque la vacuna debió esperar varias décadas.
Sin embargo, todavía faltaba dar el paso decisivo: experimentar las vacunas «de laboratorio» en seres humanos. Y le tocó a la rabia.

§. El turno de los perros
Pasteur comenzó a estudiar la rabia, según se cree, porque de chico había presenciado la muerte de varios de sus vecinos a causa de la mordida de un lobo rabioso. A pesar de sus avances y experimentos, se resistía a probar si los resultados también se verificaban en los seres humanos. Finalmente la realidad lo obligó: el 6 de julio de 1885 el niño de 9 años Joseph Meister llegó a su laboratorio acompañado del médico local y cubierto de mordeduras de un perro rabioso. Los médicos le dijeron a Pasteur que las posibilidades de que se desarrollara la enfermedad eran muy altas y se hicieron responsables de las consecuencias que pudiera tener el tratamiento (ya que Pasteur no era médico). Durante los días siguientes se le inocularon 13 versiones distintas del virus atenuado, cada una más virulenta que la anterior. El pequeño Joseph no tuvo ningún síntoma de rabia.
El éxito de la primera aplicación de la vacuna contra la rabia, un azote milenario, no sólo aseguró el triunfo de la teoría de la infección microbiana, sino que repercutió en todo el mundo hasta el punto de que se generó una campaña internacional para juntar fondos que permitieran crear un instituto especialmente dedicado a la rabia. Además, por supuesto, convirtió a Pasteur en una especie de héroe público mundial.
Por otra parte, con la masificación de la técnica se multiplicaron los errores y comenzaron a surgir médicos, como el mismo Robert Koch, que se negaban a vacunar a sus pacientes (lo que no impidió que el método se siguiera popularizando): tal vez los médicos no le perdonaban a un químico como Pasteur que se metiera en un campo que le era supuestamente ajeno, como la medicina.
Por otra parte, también es cierto que en aquel entonces nadie comprendía por qué funcionaba la vacunación para prevenir la enfermedad. ¿Qué era lo que ocurría? La respuesta llegaría recién hacia fines del siglo XIX, junto con el nacimiento de los estudios sobre inmunología: las células de nuestro cuerpo son reconocidas por nuestro sistema inmunológico; cuando aparece un elemento extraño, se desencadena una respuesta defensiva de este sistema que empieza a producir anticuerpos para neutralizar ese elemento. Al colocar elementos atenuados que no pueden producir la enfermedad, lo que se le está dando al cuerpo es la información necesaria para que se pueda defender en el futuro si llegara a ingresar al cuerpo un microbio capaz de producirla.
En 1878, el cirujano militar Sedillot inventó la palabra «microbio» para los gérmenes capaces de provocar enfermedades. Al poco tiempo se descubriría que no sólo las bacterias sino también los virus pueden producirlas.
Pasteur murió en 1895, cuando ya llevaba años tan debilitado que prácticamente no podía trabajar.

§. La teoría de la infección microbiana
Poco antes de morir, dio una conferencia a jóvenes estudiantes para la que tuvo que usar a su hijo como intermediario con el público. Allí sostuvo que la ciencia «traería la felicidad al mundo». Este católico devoto tenía también mucha fe en la ciencia como camino constante e irreversible hacia la verdad.
Su cuerpo yace en el Instituto Pasteur de París, en una pequeña capilla en cuyos mármoles se puede leer: «Fermentations, Générations dites espontanées, Etudes sur le vin…” y más nombres de los trabajos con los que fue develando los secretos de la vida.
Bastante tiempo después, durante la Segunda Guerra Mundial, cuando los nazis ocuparon París, el portero del instituto se suicidaría para no tener que guiar a los invasores a la tumba de Pasteur. Se llamaba Joseph Meister: era aquel mismo chico de nueve años en quien por primera vez en la historia de la humanidad se probó una vacuna fabricada en el laboratorio.

Capítulo 27
El triunfo de los átomos

La obra de Copérnico y Newton, la gran Revolución Científica, y los largos y complicados procesos que remataron en las teorías de Lavoisier y Darwin ayudaron a cercar vastos sectores de la informal y difícil naturaleza y del mundo, y a construir un edificio magnífico, presidido por la razón —no siempre presta— y corroborado por la empiria —no siempre dócil—. Pero cada conquista permitía, a la vez, problematizar nuevos territorios y plantear renovadas exigencias: una vez dominada la combustión y ordenada la química, libre de flogisto, apareció la vieja pregunta sobre la estructura de la materia; una vez comprendida la manera en que las especies cambiaban a lo largo de los eones, el darwinismo necesitaba desesperadamente entender los mecanismos de la herencia. Y continuamente aparecían nuevos interrogantes que ayudaban —o retrasaban, tanto da— el armado del rompecabezas.
Así, a lo largo del siglo XIX, la ciencia avanzó espectacularmente, pero, como siempre, a los tumbos, confundiendo lo verdadero con lo erróneo, ensayando explicaciones disparatadas hasta dar —por casualidad, por genialidad o por descarte— con la correcta (o con la que parecía correcta). Y tropezando una y otra vez con la misma piedra se construyó la cosmogonía actual que va desde las tortugas a las estrellas y de los átomos al universo entero.
El mundo es impiadoso con los que no tienen éxito y la ciencia no lo es menos. Cuando se reconstruye la manera en que creció y se expandió el conocimiento, se suele ignorar, por economía de la narración, los miles de esfuerzos vanos, las vidas perdidas detrás de una hipótesis equivocada, los espejismos, los errores, las tonterías y hasta los fraudes. Y sin embargo, nadie sabe a priori cuál es el error que ayudará a encontrar el camino correcto.
Uno piensa que si algunos científicos vieron más lejos es porque estaban subidos a hombros de gigantes. A veces es verdad, pero en la mayoría de los casos estuvieron subidos en los hombros de hombres y mujeres comunes y corrientes, igual que ellos, y que no tuvieron tanta suerte.
El siglo XIX, que muchos califican, un poco apresuradamente, como «el siglo de la ciencia», de alguna manera representa la culminación del programa newtoniano. Así como en biología se estableció una teoría central —la teoría de la evolución—, casi todos los fenómenos del mesomundo, es decir, el mundo a escala media —que es la nuestra— fueron más o menos dominados.
En esta pelea victoriosa, antes de que la crisis de fin de siglo pusiera todo en cuestión, la química, y luego la física, consiguieron descifrar el persistente misterio de la estructura de la materia, y el viejo asunto de los átomos, el desacuerdo esencial entre quienes creían y quienes negaban su existencia, se resolvió de manera definitiva.
Justamente porque era una cuestión casi tan antigua como la ciencia misma, creo que vale la pena repasarla y volver a su punto de partida con Demócrito. Ya lo conté en su momento, en los lejanos capítulos en que hablamos sobre la Antigüedad, pero permítanme una recapitulación, que muestra que las ideas científicas son siempre culturales, y que la evolución de la ciencia se desliza entre ellas, hacia adelante y hacia atrás, una y otra vez.
Recordemos, pues, al viejo Demócrito.

§. La primera teoría atómica
Sólo existen los átomos y el espacio vacío. Todo lo demás es opinión.
DEMÓCRITO DE ABDERA
Si bien Lavoisier completó su revolución en la química sin pronunciarse sobre la estructura profunda de la materia, una cuestión que consideraba de índole «metafísica» y, por ende, fuera del alcance y las obligaciones de una ciencia newtoniana, ya cinco siglos antes de Cristo (y más de veinte antes de Lavoisier) los filósofos griegos sí consideraban legítimo plantearse la pregunta y de hecho hasta ensayaron algunas respuestas. Dos respuestas distintas y opuestas, en realidad. Por un lado, estaba la de Leucipo y Demócrito, quienes sostuvieron que todo lo que existe está compuesto por «átomos», minúsculas partículas indivisibles, «sin partes» (eso es lo que significa precisamente «a-tomo» en griego; «a», sin y «tomo», parte). Ya recordaran cómo razonaba Demócrito: si un cuchillo penetra la materia es porque hay en ella vacíos, intersticios naturales por donde abre el cuchillo su camino separando a los átomos; si no existieran esos intersticios, el cuchillo jamás podría penetrar. Así, concluía, cada sustancia no es más que un conjunto de pequeñas partículas macizas, indivisibles y específicas de esa sustancia. Hay infinitos átomos que, gracias a sus formas complementarias, pueden combinarse dando todas las demás. Aunque invisibles, los percibimos por sus propiedades secundarias: por ejemplo, aquellas sustancias con átomos redondeados acarician la lengua (y tienen gusto agradable), mientras que las que están formadas por átomos rugosos resultan ácidas e irritantes.
Los átomos de Demócrito eran invisibles, pero para nada abstractos o teóricos, sino perfectamente reales. Y aunque no pudiera haber evidencia empírica sobre su existencia, para los atomistas eran una realidad contundente.
La otra respuesta fue la de Aristóteles, quien se opuso al atomismo de la escuela de Abdera y lo criticó ácidamente al sostener que la materia podía dividirse de manera indefinida. Y era coherente, porque Aristóteles, al negar en forma radical la posibilidad del vacío, no podía aceptar que entre átomo y átomo no hubiera nada. Además, argumentaba, si los átomos tenían volumen, por chico que fuera éste… ¿por qué no se iban a poder dividir? Bastaría con tener un instrumento suficientemente fino.
Pero el asunto es que como la controversia era imposible de resolver experimentalmente, ambas posiciones (o creencias) se mantuvieron en equilibrio a lo largo de los siglos. A pesar de la enorme autoridad de Aristóteles, un atomismo larvado empujaba a los alquimistas; Galileo, Newton y los hombres de la Revolución Científica —en Inglaterra especialmente— en general fueron atomistas, y los físicos del siglo XVIII, que se interesaron por los gases, tendían a pensarlos como conjuntos de partículas, imaginando que la presión sobre las paredes de una caja se debía al golpeteo simultáneo de grandes cantidades de átomos. Descartes y los cartesianos, por el contrario, sostuvieron la continuidad e infinita indivisibilidad de la materia, que identificaban con el espacio mismo.
Así las cosas, cuando en el año 1771 se publicó la primera edición de la Enciclopedia Británica, la palabra «átomo» se describía casi con la misma definición de Demócrito:
En filosofía ( sic ), una partícula de materia tan pequeña que no admite división. Los átomos son la minima naturae (los cuerpos más pequeños) y se conciben como los primeros principios de toda magnitud física.
Lo cual muestra que no se había avanzado nada y los átomos seguían siendo tan especulativos como siempre. Lavoisier, de hecho, escribió imprudentemente:
Respecto de esos simples e indivisibles átomos de los cuales toda la materia está compuesta, es muy probable que nunca sepamos nada sobre ellos.
Es decir, una especie de programa negativo, que hablaba de lo que nunca se podría hacer. Siempre es peligroso. Y en este caso, justamente, los átomos químicos estaban a punto de entrar en escena.

§. Un señor que confundía los colores
Tal vez no haya que culparlo demasiado a Lavoisier por no haber redondeado «del todo» su revolución; al fin y al cabo, la Revolución Francesa se encargó de cortarle la cabeza antes de que pudiera intentarlo. Bastante hizo, de todos modos, pero la tarea quedó en manos de John Dalton (1766-1844), que le dio rango constitucional y cuantitativo, a la vez que un contenido empírico, a la gran intuición de Demócrito sobre la estructura de la realidad.
Dalton nació en la pequeña localidad inglesa de Eaglesfield, pero en 1793 se trasladó a Manchester, donde habría de vivir el resto de su vida y donde regularmente presentó trabajos ante la Literary and Philosophical Society, que presidió a partir de 1817. El primero de ellos trataba «de la ceguera ante los colores», enfermedad que padecía y que desde entonces se llama daltonismo.
Más o menos desde 1800, nuestro amigo venía reflexionando sobre el hecho —bien conocido por los químicos— de que si un compuesto contenía dos elementos en la proporción de cuatro a uno, siempre iba a mantener esas proporciones y nunca 9 a 1, o 4 a 2. Esto es: no importaba qué cantidad de ese compuesto se tuviera, las proporciones siempre serían fijas. Y lo curioso es que, además, involucraban números enteros. Louis Joseph Proust (1754-1826) pudo demostrarlo pesando los compuestos cuidadosamente.
Dalton llegó entonces a la conclusión de que este fenómeno era una buena prueba de la existencia de los átomos de Demócrito, dado que se entiende fácilmente si se supone que cada elemento está formado por partículas indivisibles: si la partícula de un elemento pesa cuatro veces más que la partícula de otro y el compuesto se forma al unir una partícula de cada uno, las relaciones de peso serán justamente ésas (4:1) y ninguna otra. Para elaborar una teoría científica de los átomos, Dalton usó esta ley de las proporciones simples y también la ley de las proporciones múltiples, en las que un elemento se combina en dos proporciones definidas, como por ejemplo el carbono, que puede hacerlo con una parte de oxígeno, y da monóxido (CO) o dos y da dióxido de carbono (CO2).
Y así fue cómo en 1808 dio a conocer estas ideas en su Nuevo Sistema de Filosofía Química, basándose en un nutrido aporte de hechos experimentales y cuatro supuestos.Resumiendo: los átomos daltonianos son sólidos, indivisibles, incompresibles y completamente homogéneos —sin huecos en su interior—; son indestructibles y preservan su identidad en todas las reacciones químicas. Hay tantas clases de átomos como de elementos químicos, a cada elemento químico corresponde un tipo de átomo definido, y difieren ligeramente en peso. Precisamente, la característica que define a un átomo es su peso (peso atómico, para ser más precisos), el encargado de darle entidad experimental y de sacarlos del limbo especulativo.
Con estos supuestos, Dalton daba a los átomos entidad científica y experimental, ya que el peso atómico se podía medir y de paso permitía cuantificar completamente la química. Y ahí, justamente ahí, estaba el asunto.
Porque lo que hizo nuestro amigo fue calcular los pesos atómicos de los elementos definidos por Lavoisier (tomando como unidad el peso del hidrógeno) y sentar firmemente la nueva teoría, que fue aceptada por la mayoría de los químicos, sorprendentemente, con relativamente poca oposición. Con Dalton, la química se hizo atomista y, aunque las discusiones subsistieron, especialmente acerca de si los átomos eran «reales» o no, ya no habría marcha atrás: aunque los átomos aún no se podían ver, ahora por lo menos se podían pesar; y pasaban definitivamente, pues, del terreno de la filosofía al de la química.
Las pequeñas bolitas de Dalton, además, se combinaban en «átomos compuestos» (en terminología actual, moléculas), lo cual parecía resolver el problema de la estructura de la materia. Eran como los de Demócrito, macizos, y así habrían de perdurar; sólo hacia comienzos del siglo XX cada uno de los presupuestos de Dalton empezó a ser demolido por nuevos y asombrosos descubrimientos.
Si bien Dalton era cuáquero y sus principios no le permitían admitir ninguna forma de gloria, el éxito de la teoría atómica daltoniana crecía y su fama también; empezaron a lloverle honores de las sociedades científicas extranjeras y su entierro, en 1844, estuvo muy lejos de su deseada intimidad: se acercaron allí más de 40.000 personas.

§. La hipótesis de Prout
Los átomos de Dalton se impusieron, pero las dudas respecto de su existencia real se mantuvieron durante muchas décadas. Todo el mundo estaba convencido de que la teoría atómica era esencial y conveniente para calcular proporciones y compuestos, pero los átomos propiamente dichos no se podían ver ni tocar y, de hecho, se manejaban como entidades puramente abstractas o matemáticas (algo así como los meridianos y los paralelos: aunque la geografía no funciona sin ellos, nadie espera tropezar con un meridiano cuando viaja por la superficie de la Tierra). ¿Se trataba entonces de elementos teóricos o tenían existencia —y consistencia— física? La verdad es que nadie era capaz de contestar esa pregunta.
Aun en 1860 los átomos eran tomados con mucha precaución por los químicos, y no había, por cierto, ninguna prueba de su existencia real.
Pero además había otro asunto, un reparo de tipo metafísico y si se quiere hasta religioso. Dalton había supuesto que a cada uno de los elementos químicos —en esa época se conocían ya unos cuantos— le correspondía un átomo distinto, lo cual implicaba que el mundo estaba construido por lo menos con cincuenta bloques básicos elementales. Y esto ya resultaba increíble. ¿Cómo podía ser, argumentaban algunos, que Dios hubiera utilizado tantos bloques distintos para construir el mundo? Entre los detractores de la teoría estaba Humphry Davy, el hombre que puso en el camino de la ciencia a Faraday y que encima había encontrado, él mismo, más bloques, como el sodio, el potasio y el cloro. Era difícil de creer. La vieja obsesión por la simplicidad, la firme y enraizada creencia de que el fondo de la naturaleza es sencillo, la obsesiva convicción de que la arquitectura del mundo es elegante y simple reaparecía una vez más.
Es una creencia, por supuesto, porque no hay ninguna razón para suponer que el mundo en el fondo es simple. Podría perfectamente ser muy complicado, y hasta se puede decir que lo es. Este asunto de la simplicidad se había planteado en astronomía: el sistema astronómico griego, elaborado por Tolomeo, era extraordinariamente complejo, era infernalmente complicado y Copérnico lo reformó, entre otras cosas, por eso. Algo por el estilo pensaría el físico inglés William Prout en 1815, casi una década después de la formulación de Dalton.
Prout observó un fenómeno muy interesante: los pesos atómicos de casi todos los elementos se aproximaban mucho a números enteros y eso, pensaba, no podía ser porque sí ni por casualidad.
El hidrógeno es el más simple de los elementos y su peso atómico es 1. Los pesos son los pesos de los átomos, pero medidos en relación con el peso de un átomo de hidrógeno. Si se lo midiera en gramos, sería 0,000000000000000000000001 de gramo o poco menos que 10 a la menos 23 gramos.
El peso atómico del carbono es 12, es decir, que pesa como doce átomos de hidrógeno, y el peso atómico del nitrógeno es 14, es decir, equivalente a 14 átomos de hidrógeno. El oxígeno tiene un peso atómico de 16, el sodio 23 y así sucesivamente. Tenía que haber una explicación para semejante fenómeno.
A Prout se le ocurrió que, de alguna manera, todos los elementos eran conglomerados de átomos de hidrógeno. El peso atómico del carbono era 12 porque el átomo de carbono estaba formado por un paquete de 12 átomos de hidrógeno, y el peso atómico del oxígeno era 16 porque 16 átomos de hidrógeno formaban uno de oxígeno.
Vistas las cosas de esta manera, el hidrógeno se transformaba en una especie de sustancia primordial, el protohylo, que de alguna manera formaba todas las demás.
Debemos considerar que el «protohylo» de los griegos es, en realidad, el hidrógeno
decía Prout.
Así formulada, esta conjetura, que rescataba y al mismo tiempo proponía la vieja idea de la unidad profunda de la materia, que tuvo partidarios y acérrimos opositores —entre ellos, y notablemente, Mendeleev—, fue conocida como «la hipótesis de Prout». Y aunque nadie podía imaginárselo, es impresionante lo cerca que estaba de la verdadera pista.
De todos modos, la refutación (provisoria) no tardó en llegar cuando se empezaron a medir los pesos atómicos con mayor precisión y se encontró que no eran números enteros.

§. El enigma de los elementos
Todo lo que se puede decir del número y la naturaleza de los elementos está, en mi opinión, confinado a discusiones de tipo puramente metafísico.
LAVOISIER
La teoría atómica tuvo una inmediata aceptación, aunque los químicos, como ya les conté, siguieron discutiendo sobre la realidad» de los átomos: ¿eran objetos verdaderos, contantes y sonantes, o simples «ficciones útiles»? ¿Y las moléculas? ¿Existían o eran puramente teóricas? El congreso de Karlsruhe de 1860, al que acudieron los grandes químicos de Europa y en el que no se resolvió demasiado (excepto la distinción entre átomos y moléculas), marcó una época porque todos tomaron conciencia de estar trabajando en un terreno y con un programa común y porque fue el primer congreso científico internacional.
La existencia de átomos y moléculas no era por cierto la única incógnita: también era desconcertante la proliferación de los elementos: ¿Podía ser que el mundo se edificara a partir de cincuenta elementos químicos? ¿Cincuenta sustancias elementales? ¿No era demasiado? ¿No tenía que haber un orden subyacente? En busca de ese orden esquivo estaban los químicos.
Porque lo cierto es que a cada rato se descubrían nuevos elementos, lo cual planteaba inquietudes e interrogantes nuevos: ¿Cuántos elementos había exactamente? ¿Habría un límite o se irían multiplicando ad infinitum? ¿No había algo de arbitrario a la hora de definir un elemento, puesto que siempre era esperable que algo que había sido reconocido como elemento se subdividiera aún más (como pensaba el viejo Aristóteles)?
Además, se podía percibir que ciertos grupos contaban con propiedades similares, de modo que se imponía la necesidad de pensar en algún criterio que permitiera poner orden en el caos de la profusión elemental. Johan Dóbereiner, catedrático de química en la Universidad de Jena, percibió en 1829 que uno de los elementos recientemente descubiertos, el bromo, tenía ciertas propiedades y un peso atómico que lo situaban a mitad de camino entre el cloro y el yodo. Lo mismo ocurría, según se dio cuenta un tiempo después, con el estroncio (que estaba a mitad de camino entre el calcio y el bario) y con el selenio (que se posicionaba entre el azufre y el telurio). Llamó tríadas a los grupos, pero pensó que podía tratarse de una simple coincidencia y no elaboró ninguna explicación ulterior.
041.jpgRecién más de treinta años después hubo un nuevo intento de encontrar un patrón que ordenara todo. Alexandre Emile Béguyer de Chancourtois ideó en 1862 un ingenioso «tornillo telúrico», que, por más nombre de invento que tuviera, en realidad no era otra cosa que una conjetura que permitía organizar los elementos que presentaban entre sí similitudes físicas y químicas. Consistía, como ustedes pueden ver en la imagen siguiente, en un cilindro sobre el que había trazada una línea en espiral descendente, a lo largo de la cual se ubicaban los elementos a intervalos regulares, en función de su peso atómico. Cada dieciséis unidades de peso atómico, las propiedades de los elementos correspondientes tendían a exhibir llamativas similitudes con los que estaban por encima de ellos en el cilindro. El problema es que, a diferencia del volátil autor de estas páginas (que pretende que sus lectores entiendan lo que escribe), Chancourtois no se preocupó demasiado y su artículo fue publicado sin la ilustración del cilindro: fue, como pueden imaginar, virtualmente incomprensible.
Dos años más tarde, el científico inglés John Newlands (1837-1898), sin haber escuchado nada de lo que hacía su colega, elaboró su propio patrón: descubrió que si listaba los elementos en orden ascendente de pesos atómicos, en líneas verticales de siete, las propiedades de los elementos correspondientes a las líneas horizontales eran notablemente similares.
En otras palabras, el octavo elemento a partir de uno dado es una especie de repetición del primero, como la primera octava en una escala musical.
La llamada «ley de las octavas» tenía sus problemas, uno de los cuales (acaso el más importante) era que las propiedades de algunos elementos, en especial de los de peso atómico más elevado, no encajaban para nada. Cuando comunicó sus hallazgos a la Chemical Society de Londres, sus integrantes se limitaron a ridiculizarlo. En medio del jolgorio general, uno llegó incluso a preguntarle si había pensado en organizar los elementos por orden alfabético. Recién en 1887 su trabajo fue reconocido y la Royal Society lo condecoró con la Medalla Davy en 1887.
Era el turno de Mendeleev.

§. Mendeleev resuelve el problema
Dimitri Ivanovich Mendeleev (1834-1907) nació en Tobolsk, Siberia, el mismo año en que su padre se quedó ciego. Fue el menor de los catorce hijos que tuvo Maria Dimitrievna Kornilieva, quien debió hacerse cargo ella sola de la familia porque su marido, que era director de la escuela local, fue echado de su trabajo. Para mantener a sus hijos, Maria reabrió la fábrica de cristal de su abuelo, situada en una remota aldea, con tanta mala suerte que, en 1847, ardió hasta los cimientos. En 1849, cuando Dimitri Mendeleev tenía quince años y Maria ya era viuda, nuestro protagonista partió junto con una de sus hermanas y su madre hacia Moscú, un viaje de más de dos mil kilómetros, donde consiguió una plaza para estudiar matemáticas y ciencias naturales, además de una pequeña beca del gobierno, suficiente para sustentarse.
Mendeleev comenzó a trabajar en los laboratorios del instituto, donde pronto empezó a realizar experimentos originales y publicó algunos trabajos. En 1855 obtuvo la calificación de profesor, junto con la medalla de oro como mejor estudiante del año, y a la prematurísima edad de veintidós años fue nombrado privatdozent (profesor sin cargo ni salario, que dependía del dinero pagado por los estudiantes que asistían a su curso). En 1859, con una beca del gobierno para estudiar dos años en el extranjero, se mudó a París.
A su regreso a San Petersburgo obtuvo un puesto docente en el Instituto Técnico, pero pronto se dio cuenta de que no existía un solo libro de texto ruso sobre la química orgánica moderna. Entonces se sentó a escribir uno y completó quinientas páginas en sesenta días. Mendeleev empezaba a hacerse un nombre. Y de hecho, a los treinta y dos años, fue nombrado profesor de Química General en la Universidad de San Petersburgo, un puesto excepcionalmente prestigioso para una persona tan joven.
A comienzos de 1869, Mendeleev había completado el primer volumen de los dos que pensaba escribir para Los principios de la química. Allí, los elementos y sus compuestos eran organizados conjuntamente en grupos que exhibían propiedades similares, cada uno a continuación de los anteriores: el final del primer volumen, por ejemplo, cubría el grupo de los halógenos —cloro, bromo, yodo—. Cada miembro del grupo de los halógenos se combinaba con el sodio para producir sales que tenían propiedades muy similares (la más conocida de las cuales era, por supuesto, la sal de mesa, el cloruro de sodio). Los halógenos se combinaban también fácilmente con el potasio. Así pues, era natural que el segundo volumen comenzara por los grupos de metales alcalinos, al que pertenecía, justamente, el potasio. En cálculos de Mendeleev, éstos ocuparían los dos primeros capítulos.
La mañana del viernes 14 de febrero de 1869 estos dos capítulos estaban ya completos. Y entonces fue que se presentó el problema: no tenía ni la menor idea de cómo seguir. Si hasta entonces la vorágine de la escritura había impuesto un orden medio arbitrario, conseguido un poco a los tumbos, ahora era necesario descubrir algún principio subyacente que permitiera organizar los elementos. Tenía que haber una clave en alguna parte. Pero el tiempo apremiaba: tres días más tarde, Dimitri tenía programada una breve excursión para inspeccionar las granjas de un pequeño pueblo rural y aconsejar a una cooperativa acerca de los métodos convenientes para la producción de queso.
Fueron tres días de angustia: la solución no aparecía por ninguna parte. Porque por entonces, como cualquier químico de la época, pensaba que el patrón debía estar relacionado con los pesos atómicos de los elementos. Fue entonces que se le ocurrió una gran idea. En sus recorridos en tren, a falta de algo mejor que hacer, Mendeleev acostumbraba jugar solitarios. La inminente partida y el pensamiento obsesivo que lo tenía ocupado desde hacía días se unieron en su cabeza y se le ocurrió hacer de cuenta que cada elemento fuera una carta de la baraja, para lo cual empezó a escribir sus nombres en una serie de tarjetas en blanco, añadiendo sus pesos atómicos y sus propiedades químicas.
Estaba ahí, a un pasito de encontrarlo todo, y sin embargo no podía. Entonces se quedó dormido. Cuando despertó, había resuelto el problema.

§. Sueños
En un sueño, vi una tabla en la que todos los elementos encajaban en su lugar. Al despertar, tomé nota de todo en un papel.
MENDELEEV
La historia del sueño puede ser más mitológica que real, pero lo cierto es que ese día Dimitri descubrió que cuando se listaban los elementos por orden de pesos atómicos, sus propiedades se repetían en una serie de intervalos periódicos. Por este motivo, llamó a su descubrimiento tabla periódica de los elementos.
Su histórico trabajo fue publicado dos semanas después bajo el título «Una propuesta para un sistema de los elementos». Empezando por la parte superior de la columna de la izquierda, las columnas verticales listan los elementos en orden ascendente de pesos atómicos, mientras que las horizontales agrupan los elementos de acuerdo con propiedades similares.
A primera vista parecía haber una serie de problemas con su tabla. Para empezar, si todos los elementos se agrupaban horizontalmente en función de sus propiedades, algunos de los pesos atómicos no encajaban en el orden ascendente exacto. En tales casos, Mendeleev sugería que el peso del elemento en cuestión había sido mal calculado. Pero lo más audaz de todo fue que, donde no había un elemento que encajara en el patrón, dejaba un espacio vacío: algún día aparecería, en la naturaleza, el elemento destinado a ocupar ese sitio. Por poner sólo un ejemplo: en la novena fila horizontal predijo que debía haber un elemento aún no descubierto entre el aluminio y el uranio. Llamó a este elemento eka-aluminio, vaticinó cuáles serían sus propiedades y anunció que cuando fuera descubierto su peso atómico sería 68.
El sueño de Mendeleev necesitaba, para convertirse en realidad, que la empiria lo avalara: hacía falta que hiciera su aparición estelar (o mejor dicho, atómica) alguno de los elementos destinados a ocupar los huecos dejados ad hoc por el creador. Y así fue: a finales del verano de 1874, la Academia de las Ciencias de París recibió una trascendental carta del químico francés Paul Lecoq de Boisbaudran:
Hace dos noches, el 24 de agosto de 1875, entre las tres y las cuatro de la mañana he descubierto un elemento nuevo en una muestra de sulfuro de zinc procedente de la mina Pierrefitte, en los Pirineos.
El gallium (galio) tenía un peso atómico de 69, pertenecía al grupo del boro y estaba situado entre el aluminio y el uranio: el nuevo elemento respondía casi a la perfección a las propiedades que Mendeleev había predicho para el «eka-aluminio». Cinco años después, el químico alemán Clemens Winkler detectó la presencia de otro elemento —el germanio—, cuyo lugar había quedado hueco en la tabla a la espera de su hallazgo.
Los descubrimientos de estos nuevos elementos, predichos por Mendeleev, tuvieron un impacto similar al que tuvo el retorno del cometa Halley para la Ley de Gravitación: ya nadie podía dudar de la ley periódica. Con la tabla, quedaban posicionados los ladrillos de los que estaba construido el universo. Sufrirían algunos movimientos a lo largo del siglo XX, es cierto, pero la estructura se mantendría prácticamente incólume.

§. Aunque persistían ciertas incógnitas
Algunas cosas, sin embargo, no estaban contestadas, y tenían que ver con la también vieja historia de los cómo y los porqués. Mendeleev había mostrado cómo se ordenaban los elementos, es cierto, pero… ¿por qué ocurría eso? Era una pregunta que muchos podían tratar de «metafísica», sobre todo aquellos que se basaban en la vieja cantinela de que en ciencia no interesa el porqué, sostenida por el «no formulo hipótesis» newtoniano: desde esta perspectiva, las cosas son como la experiencia: la única guía certera muestra que son, el discurso de las cosas es el resultado de los experimentos, y punto. Así como los jueces hablan por sus fallos, la naturaleza sólo habla a través de los experimentos.
Pero lo que ocurre es que el discurso de las cosas no es un código, es un lenguaje y, en consecuencia, tiene su gramática, su sintaxis, incluso su retórica y su literatura. Y ahí hay mucha tela para cortar, ya que la pregunta por el porqué es equivalente a preguntarse si no habrá otra estructura, más profunda, que explique, por ejemplo en este caso, los motivos por los cuales la tabla periódica se ordena como se ordena.
La iniciativa por entender esta estructura profunda ya no corría por cuenta de los químicos sino que estaba, desde hacía tiempo, en manos de los físicos.

§. Los físicos juegan con los tubos de vacío
Y es que mientras los químicos se entretenían con la tabla periódica y discutían sobre la «realidad» de los átomos y las moléculas, los físicos estudiaban los efectos de la electricidad cuando se la hacía atravesar un tubo de vacío —o con un gas muy enrarecido—: en el electrodo positivo (ánodo) aparecía un resplandor verdoso y era lógico pensar que se debía a algún tipo de radiación que salía del cátodo (electrodo negativo). A esta emisión se la llamó, de manera no demasiado creativa, «radiación catódica».
Lo que no estaba para nada claro era la naturaleza de esos rayos catódicos, asunto sobre el que se armó una verdadera controversia: había quienes los consideraban ondas electromagnéticas como las que existían según las ecuaciones de Maxwell, que habían unificado definitivamente la electricidad y el magnetismo, y los que pensaban (como los físicos ingleses en general) que se trataba de partículas. Joseph John Thomson (1856-1940), en 1897, demostró categóricamente que se trataba de partículas, ya que eran desviadas por campos eléctricos y magnéticos de una manera que no cuadraba con las ondas electromagnéticas.
¿Pero de qué partículas podía tratarse? La verdad es que no había demasiadas alternativas. Puesto que eran atraídas hacia el electrodo positivo, era obvio que estaban cargadas negativamente. Thomson intuyó que se trataba de las partículas que transportaban la unidad de carga, algo así como los «átomos de la electricidad» meramente teóricos, por supuesto a los que el físico alemán Joseph Goldstein, que andaba más o menos en lo mismo, ya había llamado «electrones».
Pero había algo más. Cuando midió la masa de sus electrones, encontró que era extraordinaria, ridículamente pequeña: ¡Un electrón pesaba solamente un milésimo de un millonésimo de millonésimo de millonésimo de millonésimo de millonésimo de gramo! Y sobre todo, pesaba menos que un átomo de hidrógeno. ¡Menos que un átomo de hidrógeno, el más liviano y sencillo de los átomos! ¿Cómo podía ser? ¿Y de dónde salían esos electrones?
Y aquí es donde Thomson lanzó una hipótesis afortunada y audaz, muy audaz, una de esas hipótesis que hacen historia: que los electrones salían de adentro de los átomos.
Era una afirmación terrible: los átomos de Demócrito, los átomos de Dalton, macizos, indivisibles, compactos, fundamento último de la materia… ¡tenían partes, después de todo! ¡No eran indivisibles! ¡Tenían cosas adentro! Como dijo el propio Thomson, muy a la inglesa:
La suposición de que exista un estado de la materia más finamente dividido que el átomo es en cierto modo sorprendente.
No era «en cierto modo sorprendente»… Era increíble.

§. El asunto no terminaba ahí
En realidad, nadie se imaginaba todavía que lo pequeño encerraba un mundo. Pero así era: los experimentos demostraban que los electrones eran todos iguales, sin importar el material del cual salían, lo cual permitía sospechar que no sólo eran partes de algunos átomos, sino que eran partes de todos los átomos. Ya era una sorpresa y una novedad: si era así, la electricidad, que parecía hasta entonces un fenómeno particular y, si se quiere, lateral, estaba en verdad implicada en la esencia misma de la materia… ¡y buena parte de la naturaleza del mundo resultaba ser eléctrica!
Thomson elucubró un modelo del átomo que mantenía, en cierta forma, la idea del átomo macizo de Demócrito y Dalton, pero ya no era una esfera homogénea sino una extensión de materia más o menos tenue (y cargada positivamente) en la que los electrones estaban incrustados como las pasas de uva en un pan dulce, de tal manera que resultara eléctricamente neutro.
Es muy probable que Thomson, al diseñar su átomo, pensara que estaba dando la puntada final al problema de la estructura de la materia. Ni se imaginó que la cosa recién empezaba.
Porque el átomo de Thomson que no era muy lindo, dicho sea de paso no estaba destinado a durar. En 1896 llegó a su laboratorio un joven físico que se llamaba Ernest Rutherford (1871-1937). Nacido en Nueva Zelanda, había trabajado con sus padres, granjeros, en tareas campestres; cuando recibió la noticia de que había ganado una beca para la Universidad de Cambridge, estaba plantando papas en la granja familiar y dijo « ¡ésta es la última papa que planto en mi vida!». O por lo menos, eso es lo que cuenta la leyenda.
Rutherford trabajó un tiempo junto a Thomson, pero enseguida se orientó hacia la radiactividad, el nuevo campo abierto por Roentgen, Becquerel y Marie Curie, de los que pronto hablaremos, aunque no en este capítulo. En 1898 viajó a la Universidad McGill, en Montreal, Canadá, donde le fue muy bien: pronto comprobó que los elementos radiactivos emitían por lo menos dos clases de rayos diferentes: unos, que llamó alfa, cargados positivamente, y otros más penetrantes y cargados negativamente que llamó beta (más tarde se observaría una tercera radiación, la gamma). Las partículas alfa salían de los elementos radiactivos con una velocidad que las transformaba en proyectiles interesantes para estudiar los átomos: se las lanzaba a toda velocidad contra ellos y se veía luego cómo se comportaban.
Por ejemplo, para ver cómo estaban distribuidos los electrones en el pan dulce de Thomson, Rutherford probó, en 1908, lanzar partículas alfa contra una lámina de oro de sólo cinco diezmilésimas de milímetro de espesor (es decir, relativamente pocos átomos). Observó, con bastante sorpresa, que la mayoría de los proyectiles atravesaba la hoja de oro sin sufrir desviaciones, pero de tanto en tanto algunas partículas se desviaban en ángulos enormes y no faltaban aquellas que volvían para atrás, como si hubieran chocado con algún obstáculo sólido y pesado.
¿Por qué era una sorpresa? Porque Rutherford, como todos los físicos, tenía en la cabeza el modelo «budín inglés» de átomo que había propuesto Thomson, el de una esfera más o menos llena de materia tenue y cargada de electricidad positiva, donde estaban incrustados los electrones de carga negativa. El resultado del experimento, sin embargo, desmentía esa imagen; si algunas partículas eran desviadas tan violentamente, incluso en ángulos rectos, y aun mayores, en alguna parte del átomo tenía que haber algo duro y macizo: las partículas fuertemente desviadas eran aquellas que por casualidad rozaban esa región o chocaban con ella.
¿Qué podía ser? Un golpe de intuición feliz le permitió a Rutherford decidir que toda o casi toda la masa del átomo estaba concentrada en un espacio muy reducido en su centro, el núcleo, y era contra ese núcleo que habían chocado las partículas alfa. El átomo «lleno» de Thomson saltó hecho pedazos y así apareció el átomo «modelo Rutherford»: un centro (el núcleo) compuesto de partículas que Rutherford llamó «protones» (los primeros), a cuyo alrededor giraban los electrones, muy lejos, ya que si el núcleo fuera una pelota de tenis en medio de un estadio de fútbol, los electrones estarían en las tribunas.
Los protones del núcleo, mucho más pesados que los electrones y cargados positivamente, compensaban las cargas negativas de los electrones. El número de protones que tenía el núcleo, por su parte, determinaba de qué elemento era el átomo (un protón significa hidrógeno; dos, helio; tres, litio; cuatro, berilio, y así; el hierro tiene 26 y el oro 79 protones). Al fin y al cabo, Prout no andaba tan equivocado cuando sugirió que todos los átomos eran agregados de átomos de hidrógeno. Puesto que un protón era, efectivamente, un núcleo de hidrógeno, y puesto que todos los núcleos eran agregados de protones, es decir, de núcleos de hidrógeno, ¡resultaba que Prout había dado, casi, casi, en la tecla!
Era interesante, además, ese núcleo compuesto por protones. Puesto que el número de protones en el núcleo era la marca de identidad del elemento, se abría una inquietante posibilidad: bombardeando al nitrógeno, Rutherford comprobó que su carga de siete protones pasaba a nueve pero enseguida perdía un protón y se quedaba con ocho… ¡y por lo tanto se había convertido en oxígeno! ¡Se habían transmutado átomos! La cosa era tan extraordinaria que Rutherford y su discípulo Soddy vacilaron en anunciarla… la palabra «transmutación» tenía tan mala fama que tuvieron que hacer verdaderos malabarismos de lenguaje para dar a conocer el fenómeno al público y llevó algunos años que se aceptara del todo.
Además, había algo vertiginoso en el átomo de Rutherford: estaba constituido, casi en su totalidad (el 99,99999%), por espacio vacío. La materia, finalmente, estaba compuesta por trocitos de nada, duros núcleos rodeados por una lejanía de electrones: si les quitáramos el espacio vacío a los trillones de átomos de nuestro cuerpo, el resultado cabría holgadamente en la cabeza de un alfiler: todo lo que nos rodea, lo que somos y lo que hay es, casi íntegramente, espacio vacío.
Sin embargo, y a pesar de ese irremediable y terrible vacío, este modelo tenía un atractivo profundo, entroncado con uno de los más antiguos mitos humanos: la identidad entre micro y macrocosmos, que lo más pequeño se pareciera a lo más grande. Pensar que en el fondo de la materia se repetía una estructura parecida a la del sistema solar, con el núcleo en el lugar del Sol, los electrones como planetas y la atracción eléctrica en el papel de la gravedad, que el universo tuviera una sola impronta repetida en diferentes escalas, excitaba la imaginación. En verdad, era de un encanto irresistible: ¡en el reino de lo diminuto aparecía la misma estructura que en lo inmenso!
No es de extrañar que el átomo, concebido como un sistema solar en miniatura, tuviera un éxito fulminante y que su imagen perdure hasta hoy, como si fuera un logotipo de nuestra época.

§. Nada es perfecto
Sin embargo, el átomo de Rutherford, a pesar de su indudable encanto, tenía un gravísimo defecto: ocurre que, según las leyes del electromagnetismo establecidas por Maxwell, cuando una carga eléctrica gira, como los electrones alrededor del núcleo, emite ondas electromagnéticas y en consecuencia pierde energía, que pronto no le alcanza para mantenerse en órbita y cae irremisiblemente hacia el centro. El hermoso átomo de Rutherford no era estable: los electrones tenían que caer forzosamente hacia el núcleo y el átomo se derrumbaba sobre sí mismo. ¿Habría que abandonar la bella idea de un sistema solar en miniatura?
No. Ya estaba lista la mano —o mejor dicho la mente— salvadora. Niels Bohr (1885-1962), que había nacido en Copenhague, en 1911 se doctoró en física, se destacó en fútbol y ganó una beca que le permitió viajar a una de las mecas de la física del momento, Cambridge, para trabajar con J. J. Thomson, el descubridor del electrón. Parece que no se llevó muy bien con Thomson (las malas lenguas dicen que era muy autoritario, pero quizá valía la pena aguantarlo; al fin y al cabo siete de las personas que trabajaron con él ganaron el Premio Nobel), y pronto se orientó hacia Rutherford, cuyo átomo inestable se sostenía tenuemente en el vacío, con la amenaza de inmediata catástrofe.
Bohr actuó con rapidez y un poco alocadamente: siguiendo los pasos de Planck y Einstein, y con una increíble audacia, en 1913 elaboró una teoría del átomo completamente novedosa. Puesto que los electrones de Rutherford, mientras giraban, debían irradiar energía y caer al núcleo, decidió inventar un modelo en el que los electrones no irradian. Era mucho decir, pero no era todo. Bohr decidió también que los electrones no pueden girar en cualquier lugar, sino en ciertas órbitas absolutamente prefijadas, del mismo modo que los autos no pueden circular por cualquier lugar, sino por las calles que son mano. Así, sostuvo Bohr, hay una primera capa donde giran (circulan) los electrones menos energéticos, una segunda capa con órbitas más energéticas que la primera, pero menos que la tercera y así. Cada nivel corresponde a cierta cantidad fija de energía y no hay órbitas intermedias (así como entre dos calles contiguas no hay calles intermedias y un automóvil no puede seguir cualquier trayectoria). Los electrones no irradian mientras se mueven en sus órbitas; sólo lo hacen cuando saltan de una órbita más energética a una menos energética.
Es una situación parecida a la de los autos que giran alrededor de una plaza. A medida que la calle inmediatamente alrededor de la plaza se llena, los autos deben empezar a dar vueltas por las calles siguientes (que requieren mayor energía, mayor consumo de nafta, porque el trayecto es más largo); cuando ésas también se llenan, los autos-electrones deben ir una calle más allá, y así sucesivamente. Cuando se desocupa algún lugar en una calle más cercana al centro, inmediatamente el lugar es ocupado por un auto que gira más lejos, pero como para alcanzar la órbita más cercana al centro debe doblar, debe poner la luz de guiño y emitir (luz), es decir, perder energía.
Era una idea absolutamente radical, como si Bohr hubiera sostenido que hay «calles» en un lugar donde todos pensaban que sólo existía una enorme planicie asfaltada en la que los vehículos podían circular por donde se les antojaba. Pero con ella conseguía zanjar la dificultad del átomo de Rutherford y lo que es todavía mejor lograba explicar una buena cantidad de fenómenos empíricos.
Y otra cosa: el esquema de Bohr explicaba la estructura obsesiva y repetitiva de la Tabla Periódica. A medida que las capas se van llenando (la primera se llena con dos electrones, la segunda con ocho, la tercera también con ocho y así), como si sus calles se fueran embotellando, los electrones no tienen más remedio que circular por las calles más alejadas y ocupar las capas subsiguientes. Es el número de electrones en la última capa el que determina las propiedades químicas, ya que es la última capa la que interactúa con el resto de los átomos.
Al fin y al cabo, son los autos del último de los trayectos alrededor de la plaza los que interactúan con el resto del tránsito. El cobre, la plata y el oro, por ejemplo, tienen un solo electrón en la capa más externa y por eso sus propiedades son parecidas.
Era un paso peligroso. Es verdad que se conservaba la plácida imagen de un minúsculo sistema solar, pero a costa de violar las leyes clásicas de la física. Y era peligroso porque marcaba un límite entre macro y microcosmos: las leyes del electromagnetismo que claramente establecían que el electrón debía emitir no valían en el mundo del átomo de Bohr: allí el electrón no emitía mientras estaba en la órbita, sino sólo cuando saltaba de una a otra. No era fácil de digerir y las reacciones a la propuesta de Bohr fueron una mezcla de entusiasmo y escepticismo que a veces llegaba a la incredulidad. El mismo Rutherford, que seguía de cerca a su alumno, fue muy cauto. Pero el nuevo modelo ¡funcionaba en los experimentos! Y es que las cosas son así: la ciencia avanza con pasos de ciego, con audacia e irresponsabilidad, y a veces una propuesta temible es la base sobre la que pueden apoyarse los que vendrán después. El átomo de Bohr (o el de Rutherford salvado por Bohr), con su núcleo ocupado por protones, de carga positiva, y los electrones en órbitas fijas a su alrededor, fue un hallazgo feliz y permitió los modelos más complicados que vinieron después.
Naturalmente, ésta no era la idea que había tenido Dalton de sus átomos (ni Demócrito, desde ya). Ahora resultaba que los átomos no sólo eran divisibles, sino que tenían una complicada estructura interna. Pero con sólo dos partículas, el electrón y el protón, se explicaban todas las propiedades de la materia y la profusión de elementos de la Tabla Periódica.
Y sin embargo, todavía faltaba algo.
En ciencia, las cosas son así: siempre falta algo.

Parte VI
De los rayos X a la doble hélice
042.jpg

Contenido:
28. Los rayos X y la radiactividad
29. El anhelo de la conservación y la ley de leyes
30. El mapa y el territorio: las geometrías no euclidianas, el infinito y el éter
31. Einstein y la teoría de la relatividad
32. La teoría de la deriva continental y la estabilización de la geología
33. La genética
34. La medicina científica entre la anestesia y los trasplantes

Capítulo 28
Los rayos X y la radiactividad

La maquinaria científica del siglo XX se puso en marcha a fines del siglo XIX. Y los grandes motores que la alimentaron, o que por lo menos alimentaron el arranque, fueron los rayos X y la radiactividad.
Veamos cómo empezó todo.
Wilhelm Roentgen era un modesto profesor de la Universidad de Würzburgo, en Alemania, que el 8 de noviembre de 1895 estaba experimentando con descargas eléctricas en un tubo de vidrio donde se había hecho previamente el vacío. Más tarde se habría de recordar esa fecha como el comienzo de algo, como el inicio de una nueva era, como el arribo a un nuevo mundo, como el acontecimiento que marca un antes y un después, pero Roentgen no podía sospecharlo en el laboratorio a oscuras, donde se afanaba sobre los aparatos hasta que hizo pasar una corriente eléctrica a través del tubo, envuelto en un papel negro, y vio de pronto un pequeño resplandor en el otro extremo del laboratorio. A veces las cosas empiezan así. A veces las cosas ni siquiera empiezan: a veces amanece, a veces un pequeño indicio es el comienzo de un insospechado alud.
Vio una luz, un pequeño resplandor. Interrumpió la corriente, y el resplandor desapareció. Dejó pasar la corriente otra vez, y algo volvió a brillar en la oscuridad. Era una época en que los investigadores todavía se maravillaban ante los milagros de la electricidad y los tubos de descarga no eran una novedad: todos o casi todos los físicos estaban acostumbrados a trabajar con ellos. En realidad, era bastante sencillo: se evacuaba un tubo de vidrio que tuviera placas de metal adosadas a sus extremos y se conectaban ambas placas a una batería o una bobina de inducción —más o menos igual a la bobina que alimenta a las bujías en el motor de un auto— y cargado de esta manera eléctricamente, el interior del tubo cerrado empezaba a brillar.
Así era. El brillo emergía de la placa negativa (el cátodo) y se zambullía en la placa positiva (el ánodo). Dándole al ánodo una forma cilíndrica, y enfocándolo adecuadamente, los rayos catódicos —llamados así porque, justamente, partían del cátodo— se podían proyectar, y si el rayo tenía suficiente energía como para alcanzar la pared de vidrio, ésta se iluminaba con una elegante fluorescencia, de color verde si el tubo estaba hecho de vidrio cálcico inglés y de color azul si estaba construido en el más duro vidrio plúmbico alemán. Pero esta vez la luz que vio Roentgen no estaba en el otro extremo del tubo, donde debía estar, sino en el otro extremo del laboratorio. Así fue.
Aunque Roentgen no lo sabía (ni podía saberlo), esto ya había ocurrido otras veces. Poco tiempo antes, en 1894, el físico inglés Joseph John Thomson —el mismo que más tarde descubriría el electrón— vio también un resplandor a unos metros del tubo, pero no le prestó atención. Y el físico de Oxford Frederick Smith, cuando comprobó que las placas fotográficas que estaban cerca de un tubo de rayos catódicos se velaban, se limitó a decir a su asistente que las cambiara de lugar.
No es lo que hizo Roentgen, que se puso de inmediato a examinar la naturaleza de ese resplandor. Comprobó que venía de una lámina colocada sobre una mesa y cubierta con platino-cianuro de bario, un compuesto que fluorece fácilmente, es decir, que brilla apenas sus átomos son excitados. Dio vuelta la pantalla, para que la cara recubierta quedara de espaldas al tubo de vacío con el cual experimentaba: el resplandor no cejó. Alejó la lámina del tubo: el resplandor era el mismo. Interpuso su mano entre el tubo y la lámina, y entonces vio algo que nadie había visto antes: vio perfilarse la sombra borrosa de sus huesos. Un mundo nuevo empezaba.

§. Una novedad insólita
Muy entusiasmado, Roentgen se convenció de que indudablemente algo extraño salía del tubo, algo capaz de atravesar el papel oscuro que lo cubría y que, de alguna manera, excitaba los átomos del compuesto de bario. Algo para lo cual los objetos eran transparentes, incluyendo los tejidos de su propia mano. Por cierto que no imaginaba el alcance de lo que acababa de ver por vez primera.
En diciembre de 1895, publicó los resultados de sus experimentos: cuando un haz de rayos catódicos (que, como J. J. Thomson demostró poco después, era un chorro de electrones) choca con la pared de vidrio de un tubo de descarga, esta pared fluorece y emite una radiación de propiedades sorprendentes.
Muy sorprendentes, en verdad. La mayoría de los objetos parecían ser transparentes ante ella. Esta nueva radiación era tan penetrante que podía atravesar el aire, el vidrio, el papel y la madera: se propagaba en línea recta, no se desviaba por la acción de un campo eléctrico o magnético y electrizaba el aire.
Naturalmente, de todas estas propiedades, la que hizo a estos rayos inmediatamente famosos fue la capacidad de atravesar los tejidos blandos del cuerpo pero no los tejidos duros: cruzaban sin problemas la piel y los músculos, pero eran detenidos por los huesos, que aparecían delineados sobre una pantalla fluorescente o una placa fotográfica. Roentgen le pidió a su esposa que interpusiera una mano en el haz, y pudo fijar sobre una película fotográfica los huesos de esa mano, donde se distinguía claramente el anillo de matrimonio.
El impacto fue formidable: Roentgen recibió el primer Premio Nobel de Física, que se otorgó en 1901. En verdad, y en honor a la justicia, hay que decir que, según parece, la primera radiografía fue tomada antes de que se inventaran los rayos X, y completamente de casualidad. En 1890, Arthur W. Goodspeed, de la Universidad de Pennsylvania, mientras estaba fotografiando chispas eléctricas y descargas en tubos de vacío, vio dos discos negros en una de las placas, que no pudo explicar en su momento. Pero luego del anuncio de 1895, en febrero de 1896 repitió la exposición y, efectivamente, pudo comprobar que los dos discos se debían a la «sombra» en rayos X proyectada por un par de objetos circulares.
Obviamente que el descubrimiento «verdadero», por decirlo de alguna manera, le correspondía a Roentgen. Es por eso que el nombre «Rayos Roentgen» se imponía por sí solo. Pero, curiosamente, el que insistió para otorgarles otro nombre fue el propio Roentgen, que eligió un apodo extraño para una radiación extraña: rayos X. X, como la incógnita de una ecuación matemática. La X significaba que Roentgen no sabía en realidad qué eran. Supuso —y no andaba lejos de la verdad— que los rayos eran análogos a los rayos de luz, pero mucho más energéticos. En realidad, no tenía demasiada idea. Lo cierto es que no podía tenerla. Ni podía saber que su descubrimiento era el primer eslabón de una larguísima cadena que modificaría el curso de la historia humana.
El mismo Roentgen se preocupó de difundir el resultado de sus experimentos: el anuncio fue hecho el 28 de diciembre de 1895 y corrió como un reguero de pólvora. Hacia enero de 1896 se había creado una enorme conmoción en todo el mundo. El 20 de enero, en la reunión semanal de la Academia de Ciencias francesa, Henri Poincaré mostró las primeras fotografías con rayos X tomadas por Roentgen, y uno de los científicos presentes tuvo una idea que decidió poner en práctica de inmediato y corrió a su laboratorio. Se llamaba Henri Becquerel.
¿Habrá otras sustancias también fluorescentes capaces de producir rayos X?, se preguntaba Becquerel, sin siquiera sospechar que estaba a las puertas de un descubrimiento sensacional. « ¿Por qué no probar con un compuesto de uranio?, ¿por qué no el uranio?», pensaría un tiempo después Becquerel.

§. El gran descubrimiento: la radiactividad
El sol no brilla siempre en París. El 20 de enero de 1896, Henri Becquerel oyó hablar de los rayos X y se apuró. Hijo y nieto de físicos, Becquerel ocupaba la cátedra de Física del Museo de Historia Natural en París, y era un experto en fluorescencia. La reunión de la Academia de Ciencias en la que Henri Poincaré mostró radiografías y habló de los rayos X recién descubiertos por Roentgen le había dado una idea: tras escuchar que los nuevos rayos emergían de la zona fluorescente del tubo de descarga se le ocurrió probar con varias sustancias fluorescentes para ver si ellas también emitían rayos. Fue corriendo a su laboratorio e inició los experimentos, exponiendo diversos compuestos convenientemente envueltos a la luz solar sobre una placa fotográfica. La idea era simple: el sol estimularía la fluorescencia de las sustancias haciéndoles emitir rayos X, que a su vez impresionarían la placa.
Pero el sol no siempre brilla en París: durante diez días, Becquerel trabajó sin éxito, examinando diferentes compuestos, hasta que decidió probar con una sal de uranio no demasiado común y de nombre complicado: el sulfato doble de uranio y de potasio. La expuso al sol en el marco de su ventana, y esta vez sí encontró que la placa se había ennegrecido. Efectivamente, pensó Becquerel, tal vez el uranio emita rayos X. Y después, la casualidad se mezcló con el asunto, y el cielo se nubló.
Porque el sol no brilla siempre en París y, para desesperación de Becquerel, estuvo diez días sin aparecer, mientras las sales de uranio, convenientemente empaquetadas y sobre la placa fotográfica, dormían en un cajón.
Pero ocurrió que el primer día de marzo el sol volvió a salir y Becquerel decidió continuar con el experimento, sacó los paquetes del cajón y, primero, reveló la placa, esperando ver los débiles restos de la fluorescencia. Pero para su sorpresa no los vio: había una imagen nítida. Así, pues, la radiación que había impresionado la placa no provenía de la fluorescencia (ya que en la oscuridad de un cajón cerrado nada podía producirla) ni de los rayos X presuntamente derivados de aquélla. Ni nada parecido.
¿Y entonces? Entonces a Becquerel se le ocurrió que lo que había velado la placa era un nuevo tipo de radiación, algo nuevo, algo distinto, una radiación que no podía provenir sino del propio compuesto de uranio. Y así lo publicó en una nota aparecida el 2 de marzo de 1896 en las actas de la Academia de Ciencias.
Becquerel no se equivocaba: lo que había descubierto era efectivamente algo nuevo, algo completamente nuevo y radicalmente distinto de todo lo visto hasta entonces. Tan diferente que nada en adelante sería igual. Había echado el primer vistazo, había tenido el privilegio de intuir por primera vez un fenómeno que provenía del corazón mismo de la materia.
Un fenómeno que poco después Marie Curie llamó radiactividad.

§. Las andanzas de Marie Curie
La acción ocurre en un país oprimido y tenaz: Polonia, Irlanda, la República de Venecia, algún estado sudamericano o balcánico… Ha transcurrido, mejor dicho, porque aunque el volátil autor de estas páginas es contemporáneo (y aunque sus personajes en cierto sentido son eternos) la historia referida por él empezó al comenzar o promediar el siglo XIX. Digamos, para comodidad narrativa, Polonia, digamos 1815, cuando tras la caída de Napoleón se cernía la todopoderosa y temible figura del canciller austríaco Metternich y, desde Viena, una sombría oleada reaccionaria se abatía sobre Europa. Los restos del imperio napoleónico fueron repartidos y en particular Polonia fue descuartizada entre Austria, Rusia y Prusia. Hasta el levantamiento de 1830, el sector ruso gozó de un estatus especial, pero al ser aplastada la revolución, las «libertades polacas» se desvanecieron. La historia de Polonia seguiría signada por esas insurrecciones, a pesar de las cuales no volvió a existir como país independiente hasta finalizada la Primera Guerra Mundial.
Apenas cuatro años después de un nuevo intento de rebelión polaca en 1863, que implicó aún mayor represión por parte de los ocupantes rusos, nació Marie Sklodovska. Su familia pertenecía a la intelligentzia varsoviana: su padre era profesor de física y su madre directora de un colegio, y la vida de la familia estuvo marcada por las dificultades políticas, la estrechez económica y la desgracia: la madre de Marie murió de tuberculosis cuando ella era muy chica.
Pero a pesar de la penuria, Marie recibió de su padre las bases de una educación científica; desde muy joven se orientó hacia la química y la física. Cuenta la leyenda que, cuando quiso matricularse en la Universidad de Cracovia en aquellas materias, se le respondió amablemente que en esas disciplinas no había vacante, pero que podía intentar seguir estudios en «labores, cocina y economía doméstica». La anécdota puede no ser cierta pero refleja perfectamente el hecho cierto de que no tenía demasiadas posibilidades de recibir enseñanza superior en la Polonia sometida. Así, sus pensamientos se volvieron hacia el sueño de todos los polacos: Francia. Ya un hermano y una hermana mayores que ella se habían marchado a París en busca de una formación universitaria. En 1891 consiguió juntar el dinero necesario y emprendió el decisivo viaje.
En París llevó una vida dura. Se inscribió en La Sorbona y vivió con una frugalidad rayana en lo irresponsable: los desmayos provocados por la pésima alimentación e incluso el hambre requirieron la intervención de su hermana y su cuñado, ya recibidos de médicos. Pero se graduó con las mejores notas, lo cual era una hazaña para una mujer en aquellos no tan lejanos tiempos.
Sin embargo, no todo fue estudio: en 1894 conoció a un físico francés, que se había hecho ya un cierto nombre por el descubrimiento de la piezoelectricidad (la manera de producir un potencial eléctrico aplicando presión sobre ciertos cristales). El 26 de julio de 1895 se casaron. El físico en cuestión se llamaba Pierre Curie. Marie Sklodovska se transformó —para siempre— en Marie Curie.
Corrían los tiempos de la radiación y Marie buscaba un tema de tesis. Hacía muy poco que Roentgen había anunciado la existencia de los rayos X, y menos todavía que Becquerel había encontrado una radiación de naturaleza desconocida, emitida por las sales de uranio.
La radiación de Becquerel no era ni de lejos tan espectacular como la de Roentgen: no permitía obtener fotografías de los huesos, ni se perfilaba como una atracción de circo, donde ya algunos empezaban a bailar en esqueleto detrás de una pantalla iluminada con rayos X. No, nada de eso: la radiación de Becquerel era firme y persistentemente emitida por el uranio, un elemento sin demasiada tradición: ni despertaba demasiado interés, ni tenía demasiada utilidad, en el extremo de la Tabla Periódica de los Elementos Químicos. No había, por lo tanto, legiones de científicos persiguiéndola. Marie Curie decidió que ella sí investigaría las propiedades de los rayos de Becquerel. Seguramente era un buen tema de tesis: ¿por qué no?
En realidad, tanteaba en la oscuridad. Como Roentgen, en su laboratorio a oscuras, como Becquerel, exponiendo sus sales de uranio al sol, Marie ignoraba, pero ignoraba por completo, lo que habría de venir. Para decirlo al viejo estilo, estaban leyendo un nuevo capítulo del libro de la naturaleza, pero no lo sabían.
¿Cómo podían saberlo?
Así, Marie Curie empezó estudiando las propiedades de los rayos de uranio, pero en vez de detectarlos mediante el ennegrecimiento de placas fotográficas, como lo había hecho Becquerel, pensaba medir los rayos mediante la curiosa capacidad que tenían para descargar cuerpos cargados eléctricamente. Era como si los rayos se las arreglaran para transformar el aire que atravesaban de aislador a conductor y en ese efecto vio Marie Curie la posibilidad de calcular su intensidad. Para lograrlo, necesitaba medir corrientes sumamente débiles y para ese trabajo poseía un instrumento excelente: un electrómetro que había sido diseñado por su marido Pierre Curie y su cuñado Jacques.
Pero pronto se hizo la pregunta crucial: ¿sería el uranio la única sustancia capaz de emitir esos extraños e inexplicables rayos? Y al investigar la cuestión hete aquí que descubrió que el torio, el elemento 90 de la Tabla Periódica, emitía una radiación similar. Ya nadie podía decir que se trataba de una habilidad particular y exclusiva del uranio, sino de un fenómeno más general. ¿Cómo llamarlo? ¿Cómo llamar a esta propiedad de emitir una extraña e inexplicable radiación? Marie Curie eligió un nombre que tendría fortuna: radiactividad.
Y así comenzó una búsqueda sistemática para ver si había alguna otra sustancia que tuviera esta propiedad. A veces ensayó minerales puros, otras, minerales tal como llegaban de la mina, o compuestos puros. Pero nada: el uranio y el torio parecían ser únicos.
Con una sola excepción: la pechblenda. Es verdad que la pechblenda era un mineral de uranio, pero su emisión era mucho más intensa que la del uranio puro. ¿Cómo podía ser? Marie Curie pensó en la posibilidad de que la emisión se debiera a alguna otra sustancia —y no al uranio— escondida en la pechblenda.
Y como no podía ser ninguno de los elementos conocidos de la Tabla Periódica, tenía que ser un elemento nuevo, alguno de los candidatos a llenar los casilleros vacíos que aún quedaban, de acuerdo con la ordenación que había hecho el gran químico ruso Dimitri Mendeleev. Era cuestión de aislarlo, y en este punto Pierre Curie se sumó a los trabajos de su mujer, abandonando sus propias investigaciones. El camino parecía verdaderamente promisorio y no era cuestión de perdérselo.
Pero pensarlo era más fácil que hacerlo: separar la misteriosa y nueva sustancia radiactiva no era una tarea sencilla, por cierto. Los Curie gestionaron ante el gobierno austríaco el envío de rezagos de la mina de Joachimstahl. Tiempo después, el primer transporte de desechos radiactivos llegaba a la puertas del laboratorio de los Curie. Marie y Pierre tuvieron que moler, disolver, precipitar, filtrar, separar químicamente, volver a filtrar con sus propias manos, sin aparatos que los ayudaran, más de una tonelada de pechblenda. Finalmente, en julio de 1898, pudieron aislar una sustancia radiactiva, un nuevo elemento al que llamaron «polonio», en honor al país de origen de Marie. Era un avance en la tarea de completar la Tabla Periódica, pero no sería el último, porque aún sin el polonio la pechblenda tercamente seguía mostrando radiactividad. Cuando se separaba bario, un elemento ubicado en la mitad de la Tabla (y que muchos años más tarde jugaría un papel protagónico en otro gran descubrimiento) arrastraba radiactividad. Marie y Pierre Curie separaron y concentraron el material activo: era un nuevo elemento — ¡otro más!— novecientas veces más radiactivo que el uranio. Cuando en diciembre del mismo año de 1898 anunciaron sus trabajos, lo llamaron «radio». En 1903, Marie y Pierre Curie compartieron con Becquerel el Premio Nobel de Física.
El descubrimiento del polonio y el radio fue un gran triunfo de la física y la química experimentales. Las radiaciones de esos dos elementos, más la del torio, mostraron que la radiactividad era un terreno más vasto de lo que parecía al principio y una característica que compartían muchos elementos químicos: poco más tarde se agregaron el actinio (gracias al trabajo de André Louis Debierne) y el gas radiactivo radón. Debía ser, por lo tanto, alguna propiedad profunda de la materia, o por lo menos de parte de ella.
Pero además de todo, el polonio y el radio están asociados a la figura de Marie Sklodovska, Madame Curie o simplemente «Madame», como se llegó a llamarla cuando, poco tiempo más tarde, se transformó en la autoridad indiscutida de la ciencia francesa.
Y es lógico, dado que tiene todos los atributos del arquetipo heroico en la historia de la ciencia: originaria de un país oprimido, de una familia con dificultades económicas —debidas en gran parte a la opresión política—, con una enorme fuerza de voluntad que le permitió ser casi una autodidacta. Su vida en París, sus desmayos a causa del hambre, sus vestidos descuidados, la convirtieron con justicia en una heroína de novela. A lo cual contribuyó, naturalmente, el hecho de ser una mujer en un ambiente donde las mujeres se veían rara vez, salvo en el papel de consortes.
Lo cierto es que Madame Curie fue más que una científica, fue una verdadera institución, una leyenda, un mito en Francia y el mundo. Recibió dos veces el Premio Nobel, ya que en 1911 le otorgaron el de química. Además fue la primera mujer en acceder a la Academia Francesa de Ciencias. Incluso la muerte de Pierre, arrollado por un carro en las calles de París en 1906 —tras lo cual Marie ocupó su cátedra—, contribuyó a fortalecer el impacto de su historia. A medida que el radio y la radiactividad ganaban terreno tanto en las ciencias teóricas y experimentales como en la medicina, donde eran utilizados para combatir el cáncer —en lo que se llamó entonces «curieterapia»— ganó fama universal. Durante la Primera Guerra Mundial reformó las unidades que utilizaban la radiología —entonces bastante incipiente para atender a los heridos—, y montó laboratorios radiológicos móviles que conducía ella misma. Cuando en 1921 viajó a los Estados Unidos, fue aclamada por verdaderas multitudes y cuando murió en 1934, Francia y el mundo entero le rindieron homenaje. Además, fue la fundadora de una dinastía científica, ya que su hija Irene Curie también habría de ser una física renombrada.
Madame Curie es el arquetipo del científico que en una época importante resuelve un problema fundamental o inicia un camino. En aquellos años de radiación incipiente y radiactividad balbuceante, el polonio y el radio contribuyeron a establecer el nuevo fenómeno como uno de los temas centrales de la investigación científica. Los rayos X y la radiactividad eran fenómenos nuevos y espectaculares, muy apropiados para un cambio de siglo.
Y sin embargo, no eran más que el preámbulo de una aventura que sólo estaba empezando: la aventura de contestar una de las preguntas más viejas del mundo (¿de qué y cómo están hechas las cosas?), la aventura de comprender y descifrar la estructura de la materia.

§. Espectros
En 1895, el descubrimiento de los rayos X causó sensación. Los periódicos del mundo les dedicaron páginas y páginas y no es para asombrarse. Hoy, cualquiera de nosotros está acostumbrado a ver radiografías, pero, en el momento, los rayos X parecían capaces de acceder a lo invisible, de fotografiar un objeto encerrado dentro de una caja de madera y sobre todo, de ver, sin necesidad de bisturí, lo que nunca se había visto hasta entonces: el interior del cuerpo humano. Había algo mágico en esos rayos de Roentgen. Cuando en mayo de 1896 Edison hizo la primera exhibición pública de los rayos X en Nueva York, cientos o miles de personas hicieron cola para interponer sus manos o sus piernas en el haz de rayos y ver la sombra de sus huesos dibujarse en la pantalla fluorescente.
Aun en 1927, Thomas Mann, en La montaña mágica, muestra el impacto que producía la visión de una radiografía.
El Dr. Becher llevó luego su amabilidad hasta permitir que el pensionista contemplase su propia mano en la pantalla luminosa. Y Hans Castorp vio lo que ya debía haber esperado, pero que, en suma, no está hecho para ser visto por el hombre, y que nunca hubiera creído que pudiera ver: miró dentro de su propia tumba. Vio el futuro trabajo de la descomposición, lo vio prefigurado por la fuerza de la luz, vio la carne, en la que vivía, descompuesta, aniquilada, disuelta en una niebla inexistente. Y en medio de ella, el esqueleto, cincelado esmeradamente, de su mano derecha, en torno de cuyo anular la sortija, procedente de su abuelo, flotaba negra y fea: un objeto duro de esta Tierra con el que el hombre adorna su cuerpo, que está destinado a desaparecer, de modo que, una vez, libre, vaya hacia otra carne que pueda llevarlo un nuevo lapso de tiempo.
La estupefacción dio pie para toda clase de extravagancias e incluso volvieron los viejos sueños de los alquimistas medievales. Un granjero de Iowa, Estados Unidos, aseguró que había transmutado metales en oro irradiándolos con rayos X:
George Johnson, un joven granjero del condado de Jefferson, graduado del Columbia College, que ha estado experimentando con rayos X, piensa que ha hecho un descubrimiento que va a asombrar al mundo. Por medio de los rayos X fue capaz de transformar en tres horas de exposición una pieza de metal barato (cuyo valor era de 13 centavos) en una pieza de oro de 153 dólares. La pieza de metal ha sido comprobada y efectivamente es oro, informó un despacho el 20 de abril de 1896, y la noticia apareció el 6 de mayo del mismo año en el Electric Engineer de Nueva York. El «invento» no fue patentado, aunque en 1918 se dio una patente a un médico llamado Germán Pérez, que sostenía haber transformado mercurio en oro, y en 1924-25 la compañía Siemens Halske sacó cinco patentes de transformación de mercurio en oro mediante descargas eléctricas. Usaban descargas de 150 mil voltios y efectivamente obtenían pequeñas cantidades de oro en el mercurio. Pero desgraciadamente para ellos —y por suerte para la química—, lo que ocurría era que el mercurio estaba ya contaminado con residuos de oro.
Se patentaron máquinas de rayos X a cuerda, portátiles y máquinas accionadas por monedas. Alguien quiso utilizar los rayos X para curar el hábito de fumar o de beber (más o menos como se hace con el láser hoy en día) y no faltaron quienes pretendieron usarlos para modificar conductas antisociales: una buena dosis de rayos X dirigida al cerebro (dijeron) y el más feroz de los criminales se transformaría en un inocente corderito. Se escribieron poemas, se hicieron bromas y se especuló con inquietantes posibilidades: ¿no se podría acaso espiar la desnudez de las mujeres mediante un adecuado uso de rayos X?
En el verano de 1896, un estudiante de Columbia llamado Herbert Hawk hacía demostraciones de equipos en lugares públicos, enfocando los rayos sobre su cabeza, para que los espectadores se extasiaran contemplando su mandíbula en la pantalla. La Legislatura del estado de Nueva Jersey, Estados Unidos, debatió una ley que prohibía el uso de rayos X en los binoculares de teatro. (Dicho sea de paso, las legislaturas estaduales norteamericanas tienen una interesante tradición en inmiscuirse en cuestiones científicas: en 1897, en Indiana, las cámaras estuvieron a punto de aprobar una ley que fijaba el valor del número pi, y en la década del veinte, en Tennessee, se prohibió por ley la enseñanza de la teoría de la evolución de Darwin.) También en 1896, Snowden Ward, uno de los más prolíficos conferencistas sobre las maravillas de los rayos X, mostró a una audiencia de médicos, estudiantes y fotógrafos la radiografía de una mano de un chico con un doble pulgar, pero cuando se quiso repetir el experimento el doble pulgar no apareció por ninguna parte (lo que había pasado era que, durante la exposición, la mano se había movido un poco).
Los rayos X también parecieron la panacea médica: más allá de las radiografías, se pensó que podían servir (y se aplicaron) como «tratamiento» para múltiples enfermedades. Un texto de 1907 hace un listado de las dolencias que los rayos X podían aliviar: lupus, eczema, acné, psoriasis, lepra, tuberculosis, neuralgias, migrañas y epilepsia, además de diversos tipos de cáncer.
Sin embargo, desde muy temprano se empezó a observar que las largas sesiones en que los pacientes eran sometidos a irradiación X, a veces durante horas, generaban problemas, y problemas serios. No obstante, la furia radiológica siguió: hubo zapaterías que colocaron tubos de rayos X de tal modo que uno podía ver exactamente cómo calzaban los huesos del pie en el zapato que estaba comprando, y esta costumbre se mantuvo hasta los años cincuenta.
Como los elixires y remedios que «curaban» todas las enfermedades, verdaderamente los rayos X parecían mágicos. No es de extrañar que cosas muy parecidas ocurrieran con la radiactividad.

§. Los años locos
Porque aunque no tanto como con los rayos X, la gente también se enloqueció con la radiactividad. Una bailarina célebre pidió a Marie Curie que empapara con radio sus ropas vaporosas para hacerlas brillar e impresionar a su público. Los Curie se negaron—no tenían mucho radio para desperdiciar— pero se hicieron amigos de la artista.
No fue el único caso: la radiactividad desató una oleada de aplicaciones extravagantes. En 1919 se vendía una «crema activa» radiactiva, y los carteles anunciaban que «provoca una actividad particular de revitalización de los tejidos: la piel, colocada en situación de juventud eterna, se torna más fina y más blanca y las arrugas desaparecen». En 1933 se promocionó una crema de belleza a base de radio y torio; se decía que respondía a una fórmula de un tal Dr. Alfred Curie (que jamás existió), y se describía como una «revolución en el arte de embellecer el rostro». Digamos, de paso, que en las minas de uranio de Joachimstahl se tomaban «baños radiactivos», para los cuales se habían construido instalaciones especiales: los «pacientes» se sumergían en agua que contenía radio y respiraban el radón gas peligrosamente radiactivo que se desprendía del suelo. Aun hoy, en Europa existen estaciones termales que promocionan los mismos «saludables vahos» de radón.
También se intentó aplicar en medicina a tontas y a locas: los Laboratorios Pierre Koeheren de Estrasburgo inventaron una «compresa de radio» y sostenían que servía para curar migrañas, arteriosclerosis y apendicitis. El propio Pierre Curie pensó que la radiactividad podía ser útil para tratar afecciones de los ojos. En 1899 se informó que el radio estimulaba la retina y se especuló con que podía devolver la vista a los ciegos. Incluso se llegó a tomar «radiografías» de radio; al fin y al cabo, los rayos emitidos por el radio también eran capaces de atravesar los tejidos e impresionar una placa fotográfica. Éste es el comentario hecho en 1904 sobre una de estas «radiumgrafías» (tomadas tras una exposición de seis horas): «Mientras la permeación es considerable, los contrastes son pobres y otra desventaja es que lleva horas obtener una imagen». Hay un testimonio (hecho muchísimos años más tarde) sobre el tratamiento que se utilizaba para combatir el lupus, en 1914, en una clínica de Birmingham.
El doctor sostenía lo que parecía una pequeña piedra en el extremo de una caña de bambú, y con ella iba tocando muy cuidadosamente la piel. El médico estaba utilizando algo que sabía peligroso, pero de cuyos alcances no sabía nada. Unos pocos años más tarde, perdió ambas manos como resultado de la exposición a las radiaciones.
Como ocurrió con los rayos X, las terapias basadas en el radio se usaron con total desconocimiento e imprudencia. Los preparados de radio se consideraban la cura milagrosa prácticamente de cualquier enfermedad, desde la artritis al cáncer, desde la alta presión a la ceguera. Se fabricaron cinturones radiactivos para usar en cualquier parte del cuerpo: la «oreja de radio» (una ayuda para mejorar la audición) y dentífricos radiactivos, cremas para la cara y para las manos… En 1932, Frederick Gosfrey, un peluquero británico, propagandeaba un tónico radiactivo para el pelo. En Alemania se vendía chocolate tratado con radio como rejuvenecedor. Y aun en 1953, una compañía de Denver promovía un gel anticonceptivo radiactivo.
También se especuló con el efecto benéfico de las aguas radiactivas de Hot Springs, Arkansas, Estados Unidos. En 1952, un artículo de la revista Life sobre los «beneficios» del radón envió a miles de pacientes de artritis a respirar los peligrosos gases en el fondo de algunas minas.

§. Fotografiar lo invisible
Sea como fuere, los rayos X no fueron solamente una atracción de circo ni todas las primeras radiografías tuvieron el aire despreocupado y casual de una feria de diversiones. Los médicos se dieron cuenta desde el principio de que eran en realidad una formidable herramienta de diagnóstico, tal vez una de las más formidables que hubiera existido jamás. Una radiografía es exactamente una fotografía tomada con rayos X en vez de luz visible. La placa fotográfica, ubicada detrás del cuerpo, es impresionada según la cantidad de radiación recibida, y así se verá, como en el negativo de una fotografía cualquiera, negra en las zonas de tejidos blandos y blanca en la parte ocupada por los huesos, donde los rayos fueron detenidos. Y aunque para los profanos la única distinción observable a simple vista es entre hueso y tejidos blandos, las radiografías muestran toda una gradación de grises que permiten al ojo experimentado del radiólogo un diagnóstico de detalle. El 7 de febrero de 1896, John Cox, profesor de física en la Universidad McGill, de Montreal, Canadá, sometió a un joven paciente a una sesión de 45 minutos de Rayos X, de tal modo que los médicos pudieran localizar y extraer una bala alojada en una de sus piernas. Y no habían pasado dos meses desde el descubrimiento. La práctica de radiografiar se extendió rápidamente entre los médicos, que enviaban a sus pacientes a laboratorios especializados. Hacia fines de 1897, un laboratorio que se ocupaba del asunto ya había tomado más de 1.400 radiografías… y no habían transcurrido aún dos años desde el anuncio de Roentgen. En 1898, una unidad de rayos X acompañó al ejército británico al Sudán, donde Inglaterra intentó vencer a los derviches.
Además, los rayos X se usaron —o intentaron usarse al menos— para muchas otras aplicaciones curiosas. Por ejemplo, para encontrar monedas dentro de los envíos postales. La reina Amalia de Portugal radiografió a las damas de su corte para demostrar lo dañinos que eran los corsés ajustados. Un tal Dr. Braduc pretendió usar los rayos X para curar a alcohólicos y adictos al tabaco, otro tal M. Gaudoin puso en práctica un tratamiento de rayos X para depilación, y así.
Y más: en el número de julio de 1896 del Strand Magazine, Thurstan Holland, que había tomado radiografías de diamantes y que había encontrado un pájaro momificado sometiendo a los rayos X un objeto que le habían traído de Egipto, contaba la siguiente historia bajo el título «Aventuras de un hombre de Ciencia»:
Un hombre sospechoso de haber robado un diamante y habérselo tragado para ocultarlo fue traído a mi laboratorio: lo hice desvestir y luego, de alguna manera, me las arreglé para que se colocara en una posición tal que los rayos X pasaran a través de su cuerpo. Apagué la luz y saqué la cobertura de la cámara. El resultado fue una excelente placa mostrando el diamante justo debajo de la válvula ileocecal.
Pero el autor ignoraba que los diamantes falsos son opacos a los rayos X y los diamantes verdaderos no. O sea que el diamante robado, en realidad, era falso.
No faltaron los fraudes. Un joyero de Virginia, Estados Unidos, sostuvo que podía fotografiar lo invisible sin el uso de rayos X. El mismo Dr. Braduc, que usó los rayos X para que sus pacientes dejaran de beber o de fumar, pretendió haber tomado una radiografía del alma.
Lo cierto es que, salvo esas exageraciones, que no fueron las únicas ni las mayores, como se verá, la radiografía inauguró una nueva época en la medicina. Por más que las primeras radiografías fueran toscas, con poca resolución y requirieran mucho tiempo de exposición, los rayos X salvaron cientos de miles de vidas y propinaron a la medicina un impulso verdaderamente formidable. Como la anestesia, transformaron ramas enteras de la medicina y, muchos años más tarde, sus descendientes directos, como la tomografía computada y la tomografía de emisión de positrones, seguirían transformándolas.

§. La radiactividad y el tiempo
Las sustancias radiactivas «trabajan» emitiendo partículas o rayos: los núcleos de los átomos que las componen están constantemente degenerando y escupiendo partículas alfa, beta o rayos gamma hasta que alcanzan la estabilidad.
Uno de los problemas de la desintegración radiactiva estaba relacionado con el tiempo. Porque uno se podría preguntar lo siguiente, y hasta encontrar una paradoja de la naturaleza: los núcleos se desintegran radiactivamente para alcanzar configuraciones más estables y niveles de energía más bajos, desprendiéndose de partículas molestas.
Un núcleo de torio 230, por ejemplo, se saca de encima una partícula alfa, con lo cual se convierte —al perder dos protones y dos neutrones— en radio, que es un poco más estable aunque sigue siendo radiactivo. Ser más estable no es más que una aspiración legítima de cualquier núcleo bienpensante y no podemos reprocharle al torio ni a ningún otro núcleo que desee hacerlo. Pero, ¿por qué se toma tanto tiempo? ¿Por qué no se desintegra instantáneamente? ¿Por qué a una partícula alfa le puede llevar millones de años abandonar un núcleo que no la quiere y que no desea sino desprenderse de ella?
Y sin embargo, es así. En vez de sacarse de encima alfas, betas y otras yerbas de un saque, cada elemento radiactivo tiene su propia paciencia, su ritmo de desintegración, un tiempo característico que depende de él solamente y cuyas cifras se cocinan en el interior del núcleo, como si tuvieran un reloj y un programa interno. Hay núcleos que se desintegran en cuestión de horas y otros, como el del torio o el uranio, que tardan millones, o miles de millones de años.
Ese tiempo característico, que mide lo que a cada núcleo le «cuesta» desintegrarse —el precio temporal de su lucha por la estabilidad— se denomina «período de semidesintegración» o «vida media» como también es usual, debido a un abuso de traducción de las palabras half-life del inglés. Y el período de semi desintegración de un núcleo, que es característico de él, y sólo de él, es el tiempo en que una cierta cantidad de ese elemento tarda en reducirse a la mitad.
Por ejemplo, el período de semi desintegración del radio 226 es de 1.600 años. Pues bien: si tenemos diez gramos de radio, al cabo de 1.600 años tendremos cinco; después de otros 1.600 tendremos dos y medio y así sucesivamente. Lo mismo ocurriría si hubiéramos partido de una tonelada o de un miligramo. Cada mil seiscientos años, el radio existente en el universo se reduce a la mitad. Cada elemento radiactivo tiene un período característico, que puede ser muy variado: el del uranio 238 es de cuatro mil quinientos millones de años; el del plutonio 244, de 70 millones de años; el del cloro 36, de trescientos mil años; el del sodio 24, quince horas y el del hidrógeno 3 o tritio, de 12,3 días, entre otros.
Esta peculiar relación con el tiempo ha tendido una inesperada mano a la historia, la arqueología y la antropología, proporcionándoles un método notable y eficaz de datación de acontecimientos: puesto que cada material radiactivo tiene su ritmo propio de desintegración, en cierta medida sirve como reloj. Como en casi toda porción de la naturaleza hay isótopos radiactivos, si uno sabe qué cantidad de radio, digamos, había en una roca originariamente, midiendo la cantidad que hay ahora (es decir, la que no se desintegró) podemos calcular la edad de la roca. Los métodos de datación radiactivos permitieron establecer escalas de tiempo y medir edades que nunca, antes, se pensó que se podrían medir.

§. Peligros
Al mismo tiempo que se vio que los rayos X y el radio tenían un alto valor médico (y científico en general), se empezó a percibir que la sobreexposición podía ser peligrosa. En 1903 murió Clarence Dally, el ayudante de Edison, que había seguido trabajando sobre los rayos X, convirtiéndose en la primera víctima de la radiación. Ya en 1902 uno de los pioneros de la radio-protección, William Rollins, advirtió el peligro y aconsejó exponer una placa fotográfica a cada equipo por siete minutos y, si se velaba, aumentar la protección. En 1908, los miembros de la Sociedad Americana de Rayos Roentgen, durante su reunión anual, escucharon la lectura de una larga lista de personas que habían sido afectadas por el abuso de los rayos X y se enteraron de que las compañías de seguros de vida empezaban a considerar con cuidado las pólizas de los radiólogos.
Pero los radiólogos no se impresionaron demasiado. Habían adquirido la costumbre de «medir» la potencia del tubo de rayos X metiendo la mano en el haz de rayos; el tiempo que tardaba en enrojecerse la piel y el tamaño de la zona afectada les daba una idea de cómo funcionaba el equipo. Esta peligrosa práctica se aplicaba también en los lugares de fabricación de los aparatos, y no se interrumpió a raíz de las primeras advertencias; como suele suceder cuando aparece una herramienta poderosa, nadie estaba muy dispuesto a limitarse en su uso. Los rayos X eran demasiado útiles como para amarrocarlos. Además, los datos sobre efectos y posibles medidas de protección eran completamente imprecisos: no existía una guía adecuada para protegerse y nadie podía decir a ciencia cierta cuánta protección exactamente hacía falta. Muchos radiólogos se negaron incluso a blindar los tubos de rayos X, e incluso hubo quien trató de que se desterrara la palabra «quemaduras» para referirse a los daños de la radiación. ¿Razones? Podría ahuyentar a la gente y detener el progreso de una disciplina terriblemente promisoria. Al fin y al cabo, los rayos X estaban salvando miles de vidas.
Durante la Primera Guerra Mundial, cuando los rayos X mostraron toda su potencia y efectividad, las propias necesidades bélicas hicieron que no se tomaran medidas precautorias: además de trasladar los equipos, sobrecargarlos con blindajes parecía imposible, y probablemente muchos de los radiólogos de guerra hayan sufrido por eso.
Naturalmente, era cierto que los rayos X salvaban miles de vidas y ahorraban infinitos sufrimientos, pero el argumento no era incompatible con medidas adecuadas que permitieran salvar aún más vidas.
Algo parecido ocurría con la radiactividad. En abril de 1901, Becquerel les pidió prestado a los Curie un tubo que contenía radio, que llevó durante seis horas en un bolsillo. Luego descubrió que le había quemado la piel a través de la ropa, y producido una herida muy parecida a las quemaduras que causaba la sobreexposición a los rayos X. El propio Pierre Curie investigó el asunto exponiendo sus brazos a la radiación y comprobó que, efectivamente, el radio producía quemaduras.
Si bien ya se mostraba como una herramienta efectiva contra el cáncer, se abusaba de la radiactividad y se la usaba como terapia en el caso de un montón de sintomatologías y enfermedades contra las cuales poco y nada tenía que hacer. Y, como siempre, funcionó la negación: en 1916 la revista médica Radium sostenía que «el radio no tenía efecto tóxico alguno».

§. Una estabilización (precaria)
Pero el exceso de confianza adquirido durante la guerra producía cada vez más muertes entre los radiólogos y el personal auxiliar que trabajaba con ellos. En los años veinte se produjo el escándalo de las pintoras de relojes envenenadas con radio, que vale la pena contar.
El radio, como ya saben, tenía la atractiva capacidad de brillar en la oscuridad, lo cual sugería muchas aplicaciones comerciales. Una de ellas fue la de los relojes de la U. S. Radium Corporation, cuyos diales eran pintados a mano con una mezcla de radio 226 y sulfuro de zinc por un conjunto de pintoras. Las mujeres pintaban rápidamente, ya que cobraban por pieza, pero encontraban tiempo para bromear entre ellas y pintarse los dientes o las uñas para que brillaran cuando las luces se apagaran. Además, para lograr una precisión superior, afinaban los pinceles de pelo de camello con los labios.
Hacia 1924, nueve de las pintoras de relojes de la U. S. Radium Corporation habían muerto de diversas causas, que iban desde una úlcera en el estómago hasta necrosis de la mandíbula. Si bien una primera investigación absolvía a la empresa de toda culpa (ya que, según explicaba, el radio no era tóxico), un artículo publicado en el Journal of the American Dental Association revelaba que se había observado un caso de infección en la mandíbula causado por sustancias radiactivas usadas en la manufactura de relojes luminosos.
En mayo de 1925, un nuevo informe aseguraba que los casos eran causa de «envenenamiento por radio», un nuevo tipo de enfermedad.
La compañía, en tanto, había encargado su propia investigación a un equipo de la Universidad de Harvard. Cuando los investigadores llegaron a la planta decidieron sacar a las trabajadoras de la luminosa sala donde trabajaban y llevarlas a habitaciones en penumbras… ¡Las empleadas brillaban en la oscuridad! Una prueba hecha a 22 empleados reveló que ninguno tenía la cantidad normal de glóbulos rojos. En mayo de 1925, la autopsia de dos pintoras de relojes demostró altos niveles de radiactividad en huesos y órganos. Se demostró que la pintura que era tragada se acumulaba en diversos órganos, irradiando y dañando las células cercanas. Pero, sobre todo, se encontró por qué habían proliferado los tratamientos que hacían de la radiactividad una panacea: el envenenamiento radiactivo podía comenzar con una apariencia de buena salud, ya que, en efecto, la primera reacción del cuerpo es la sobreproducción de glóbulos rojos.
Con casos tan estremecedores a la vista, en la década del veinte empezaron a insinuarse las primeras medidas de protección. En 1920, la Sociedad Americana de Rayos X formó un comité a fin de recomendar medidas de protección, que se publicaron en 1922. A su vez, el Comité Británico para la Protección de los Rayos X y el Radio hizo públicas sus primeras recomendaciones en 1921: se especificó cuánta protección en plomo tenían que tener los tubos, el grueso de las paredes de los lugares donde se guardaba radio y el tamaño y el color (negro) en que debían pintarse los lugares donde se practicaba radiología (para que los rayos no se reflejaran).
Pero la «dosis de enrojecimiento», que era la dosis necesaria para que la piel se empezara a enrojecer —del mismo modo que ocurre cuando nos sobreexponemos al sol— y que durante mucho tiempo fue la medida más popular de los efectos de la radiación, era muy imprecisa y la gente, tanto los radiólogos como los auxiliares y los pacientes, seguía sufriendo los daños. En 1924, Arthur Mustcheller inició una investigación y concluyó que el cuerpo humano podía tolerar una exposición de 0,01 de «dosis de enrojecimiento» por mes. Esa «dosis de tolerancia», según Mustcheller, no producía daño a los «trabajadores de la radiación». Aunque impreciso —ya que la investigación no había sido ultra rigurosa— ya era un primer límite de seguridad, al que contribuyó con una cifra muy similar el sueco Rolf Sievert en 1925. Durante el Primer Congreso Internacional de Radiología de 1925, aunque no se tomaron medidas efectivas, se vio la necesidad de definir unidades. En el Congreso Internacional de Radiología de 1928 se adoptó el roentgen como unidad internacional de exposición a la radiación (que se definía como la cantidad de radiación necesaria para producir una determinada cantidad de iones en una determinada cantidad de aire). Sobre el radio, se recomendó que estuviera bien blindado, que se manejara sólo mediante pinzas y que se guardara en cajas de plomo, y se especificaron medidas de higiene en los lugares de trabajo, aunque no se incluían referencias a las «dosis de tolerancia». Se creó, sin embargo, el Comité Internacional de Protección de los Rayos X y el Radio (que ahora se llama ICRP: Comisión Internacional de Protección Radiológica).
En 1927 se calculó que una «dosis de enrojecimiento» era 600 roentgen. Recién en marzo de 1934, el Comité Internacional de Rayos X y Radio adoptó el límite de Mutscheller: 6 roentgen por mes, o 0,2 por día.
Mientras tanto, en el Massachusetts Institute of Technology se iniciaban estudios serios sobre el efecto de la radiación en animales y seres humanos. Hacia 1941, el MIT había estudiado 27 personas expuestas al radio y cuando el 26 de febrero se reunió un comité ad hoc que revisó los casos, encontró que aquellos que tenían menos de medio millonésimo de curie (una unidad que representaba la cantidad de radiación emitida por un gramo de radio en un segundo) en su cuerpo no habían sufrido daños, mientras que sí los habían padecido quienes albergaban en el cuerpo más de 1,2 millonésimo. El límite de 0,1 millonésimo de curie se usó como tope, y el de 3 millonésimo de millonésimo de curie por litro de aire como límite para el radón. En los Estados Unidos se estableció el límite de 0,1 roentgen por día para la radiación X y gamma.
Finalmente, se estaba llegando a la adopción de medidas que permitieran utilizar los beneficios de la radiación sin sufrir sus riesgos. Aunque la historia de la protección radiológica recién empezaba: en los años treinta se levantó en Hamburgo un monumento a los mártires de la radiación.
De modo que hacia los años treinta el estudio de las radiaciones se había estabilizado, ya se sabía más o menos bien qué cantidad era dañina y cuál inofensiva, y la protección radiológica salvaguardaba la vida y la integridad física de los radiólogos.
Poco más tarde, se cernió sobre el mundo la ominosa sombra de la bomba atómica lanzada sobre Hiroshima, que daría a todo uso de la radiactividad (incluso al más pacífico) un tinte indeleble de mito bélico.
Pero ésa es ya otra historia.

Capítulo 29
El anhelo de la conservación y la ley de leyes

El siglo XIX fue el de las grandes teorías abarcadoras: ya vimos algunas de ellas, como la teoría de la evolución, la teoría cinética del calor o la teoría atómica, que habría de convertirse en el espinazo de la química. La sensación que podía tener un científico de la época es que se estaba accediendo al sustrato que anida por debajo de lo real y se estaban encontrando sus leyes fundamentales.
Pero ya no se trataba de un sustrato al estilo platónico, un mundo ideal del cual el nuestro es una suerte de imagen terrenal, por proyección, sino de un sustrato geométrico e invariante, ontológicamente previo a los fenómenos particulares: un «espacio» donde los fenómenos existen en su forma pura y del cual se puede tener un atisbo, o bien por medio del laboratorio, que es una ventana abierta hacia él, o bien por medio de ese otro laboratorio abstracto, perfecto y mental que son las matemáticas —reino de la verdad y la certeza por excelencia—, de donde resulta el mundo real por acumulación, confusión y mezcla de fenómenos.
En realidad, la búsqueda de los invariantes, de aquello que permanece frente a los cambios contingentes o a los tristes ciclos de nacimiento, crecimiento y muerte, de lo que verdaderamente existe, de los andamios oscuros y palpitantes que sostienen el edificio de la realidad, había empezado cuando empezó la ciencia. Basta, para demostrarlo, recordar el agua de Tales, el ápeiron, el aire de los milesios, el Ser de Parménides, los átomos de Demócrito y Leucipo, el propio mundo de las ideas de Platón, o la muy generalizada y pitagórica creencia de que las matemáticas subtienden la estructura de lo real.
La Edad Media no tuvo demasiado problema con este asunto, ya que el sustrato era el Dios cristiano, una postura mantenida tanto por la fe como por la coacción visible o invisible de las fuerzas que dominaban la política (la Iglesia y el Imperio, entre otras).
Pero con la ciencia moderna, todo cambió.

§. La búsqueda de invariantes: Descartes y Leibniz
Porque apenas la ciencia se separó de la filosofía y de la religión, sin romper lanzas del todo, la búsqueda de invariantes abandonó lo metafísico y se volcó hacia lo físico y lo geométrico. Los invariantes de los Principia de Newton fueron el espacio absoluto, siempre igual e idéntico a sí mismo, y el tiempo matemático que fluía sobre todo el universo. Una distancia espacial era siempre una distancia espacial, y un intervalo de tiempo era siempre un intervalo de tiempo, se midiera desde donde se midiera. Y, naturalmente, las leyes del movimiento y la Ley de Gravitación.
Pero antes había habido una postulación de Descartes que consideraba que Dios había puesto una cierta cantidad de movimiento al crear el mundo, y que eso era lo que permanecía siempre constante. Definía esa cantidad como el producto de la masa por la velocidad, y aunque no se refería a la conservación en relación con algún fenómeno particular, como el del choque de las bolas de billar (que estudió y describió con poco tino), proponía que Dios había creado la materia y la había organizado dotándola de un monto invariable, constante y eterno de movimiento y reposo.
Las deducciones de Descartes se derivaban generalmente más de principios metafísicos que de otra cosa, y acaso eso explique la curiosidad de que, en pleno siglo XVII, distinguiera tajantemente el movimiento y el reposo; sobre todo si tenemos en cuenta que había leído cuidadosamente a Galileo, quien como recordarán había dejado bien en claro que el movimiento y el reposo no eran dos estados sustancialmente diferentes sino relativos al observador, de modo que lo que está en reposo para un observador puede estar en movimiento para otro (y viceversa).
Más allá de sus errores mecánicos, o a pesar de ellos o — ¿quién puede saberlo?— tal vez gracias a ellos, Descartes enunció el esbozo de lo que en física se llama una ley de conservación, es decir, la idea de que a través de cualquier cambio mecánico hay algo, una cantidad, que permanece invariable (en su caso, la cantidad de movimiento).
Otra de las grandes figuras de la física de aquellos tiempos, Christiaan Huygens, llegó a una conclusión diferente: aseguró que la cantidad de movimiento sólo se conservaba si se tomaban en cuenta las direcciones y sentido de las velocidades, lo cual tornaba todo demasiado complicado. Introdujo entonces otra cantidad:
La suma de los productos entre la masa y el cuadrado de la velocidad de cada cuerpo es la misma antes y después del choque.
Es decir: la masa por la velocidad al cuadrado antes del choque debía dar lo mismo que la masa por la velocidad al cuadrado después. Esa cantidad se conservaba y era un número, de modo que se podía prescindir del análisis de las direcciones y sentidos (es, ni más ni menos, el duplo de lo que hoy llamamos energía cinética, que no es exactamente m × v2 sino ½ m × v2).
El siguiente actor del drama de la conservación fue el gran filósofo y científico Gottfried Leibniz (1646-1716). Leibniz, como Descartes, razonaba a partir de posturas metafísicas generales, pero estaba un poco más atento a los progresos de la física moderna: al adoptar la relatividad del movimiento enunciada por Galileo, rechazaba la posibilidad de que el sustrato de lo real fuera algo relativo al observador (y justamente el movimiento lo era) pero continuaba sosteniendo que tenía que haber algo que verdaderamente existiera de manera absoluta. Ese algo, sustrato inconfundible de lo real, era la fuerza, inherente a la materia y que subsistía por fuera de todo movimiento.
Así, pues, llamó a la cantidad en cuestión fuerza viva y consideró que se trataba de un principio general de la física: el principio de conservación de las fuerzas vivas. La fuerza viva era la causa del movimiento, la capacidad de actuar, que permitía el pasaje de la metafísica a la naturaleza. Analizando cuidadosamente el fenómeno de la caída de los cuerpos, Leibniz sostuvo que la cantidad propuesta por Huygens se conservaba en todos los casos. Lo que permanece invariante en todo cambio mecánico es el producto entre la masa del cuerpo y el cuadrado de su velocidad.
La conservación de la cantidad de movimiento (o de la vis viva), según demostró D´Alembert, podía deducirse matemáticamente a partir de la ley de Newton. Así quedó establecido un principio general en la mecánica, fundamental para los físicos de una época en que, justamente, la mecánica era el centro de la física (y de toda reflexión sobre la naturaleza).
Se había conseguido un principio de conservación, pero… ¿qué pasaba fuera de la mecánica? Porque si bien era la estrella, como ya les dije, no era la única rama de la física, sino que estaba rodeada por muchas otras, por ejemplo la que estudiaba el calor o la que estudiaba la electricidad. Empezó a dibujarse entonces la idea de que la ley de conservación de la fuerza viva había que extenderla a otros terrenos. Y así llegamos al siglo XIX, cuyo recorrido dio paso, en cincuenta o sesenta años, hacia la conquista de una formulación verdaderamente universal de conservación, la ley de leyes: el principio de conservación de la energía.
Veamos cómo se llegó hasta allí.

§. La causa de Mayer
Julius Robert Mayer (1814-1878) estudió medicina en Tübingen, visitó París cuando lo expulsaron, durante un año, de la universidad, y se embarcó en un navío holandés rumbo a Java, como médico de a bordo. Allí observó un fenómeno interesante y que lo sorprendió: al sangrar (el fatídico sistema «terapéutico» de las sangrías, que se aplicaba sin ton ni son y que producía los consecuentes desastres), al sangrar, decía, a los tripulantes, el rojo de la sangre era más intenso que en Europa. Lo comprobó con su propio cuerpo también y consideró que era un fenómeno que valía la pena explicar, o por lo menos tratar de hacerlo. La observación fue fortuita, desde ya, pero lo importante era tener una mente alerta para pescarla. Recordemos esta anécdota, por más que parezca que no tiene nada que ver con el asunto de la conservación, porque ya la retomaremos más adelante.
Cuando volvió a Europa, publicó un trabajo, «Sobre la determinación cuantitativa y cualitativa de las fuerzas», que fue prolijamente ignorado. Después se orientó al estudio del calor y del movimiento. Pero en 1842 escribió un segundo artículo, «Observaciones sobre las fuerzas inorgánicas de la naturaleza», donde se planteaba dos interrogantes básicos: ¿qué entendemos por fuerza? y ¿cómo se relacionan las distintas fuerzas entre sí?
Y sobre todo: ¿qué ocurre cuando el movimiento no da lugar al movimiento? ¿Qué pasa cuando un cuerpo cae desde cierta altura y se detiene al chocar con la tierra? La pregunta era, en verdad, qué era lo que ocurría cuando se salía del mundo de la mecánica.
Aclaremos una cosa: Mayer llamaba «fuerza» a un concepto que no tenía del todo claro y que no se había generalizado, pero que ya había sido propuesto y tenía su nombre, aunque él no lo sabía. La palabra había sido lanzada por Thomas Young, el mismo del experimento de las dos ranuras que explicó el fenómeno de la difracción (no lo dije en su momento, pero vale la pena aclarar que Young era un verdadero espíritu universal, de aquellos que indagan en todos los terrenos posibles del saber). El caso es que Young había propuesto una palabrita fundamental en 1807 para referirse al trabajo potencial almacenado en las cosas, que rápidamente se aplicó a cualquier fenómeno en el que se operara una conversión en trabajo.
Decía Young:
La palabra «energía» puede ser aplicada con mayor propiedad al producto entre la masa o el peso de un cuerpo y el cuadrado del número que expresa su velocidad.
Es decir, Young proponía llamar «energía» —resaltemos el término, que veremos adquirir la más alta generalidad en ciencia (aún más que la fuerza de gravitación, lo cual es decir mucho) — a la cantidad que Leibniz llamaba «vis viva», que Mayer llamaba «fuerza» y a la que nosotros, como ya les dije, llamamos energía cinética.
Mayer estaba formulando un concepto que se convertiría en la piedra basal de la física del siglo XIX. Y, como ocurre a menudo en la ciencia, lo hacía tanteando, especulando, pensando sin tener totalmente en claro las cosas. Era, en este sentido, bastante transparente en sus escritos:
Sé de qué hablo cuando digo materia pero no cuando digo fuerza. Si de un objeto afirmo que es material, quiero decir que posee unas cualidades bien definidas, como el peso o la extensión. Pero la noción de fuerza conlleva la idea de algo desconocido, hipotético. Pues bien, yo, Julius Mayer, propongo aquí una definición: las fuerzas son causas. Y antes de que objeten que en el cambio semántico no gané nada, les descubro mis intenciones: quiero aplicar a las fuerzas el principio de igualdad entre causa y efecto (causa aequat effectum).
Mayer, en realidad, razonaba así: en el mundo, las causas tienen que ser iguales a los efectos. Las causas, a su vez, se definen mediante dos propiedades esenciales:
  1. En primer lugar, son indestructibles, no desaparecen (a lo sumo se vuelven efectos) y además pueden asumir diversas formas.
  2. En segundo lugar, son cuantitativamente indestructibles y cualitativamente convertibles.
Mayer proponía así una especie de ley de conservación de las causas, un enunciado que a nosotros, desde nuestra terminología actual, nos puede parecer un tanto desconcertante.
Pero no para él, que además aclaraba que había solamente dos tipos de «causas» (las fuerzas y la materia) y que nunca se convertían una en otra, de acuerdo con la experiencia (lo cual era una afirmación bastante audaz). De modo que la materia, cuando funcionaba como causa, tenía a la materia por efecto y la fuerza, como causa, tenía como efecto a la fuerza.
El primer enunciado no es otro que la ley de conservación de la materia de Lavoisier: «nada se pierde, todo se transforma», esto es, la cantidad de materia involucrada en cualquier transformación química o física permanece siempre constante. El segundo es el de Leibniz.
Si era claro que la fuerza, o la fuerza viva, se conservaba, por la ya razonada indestructibilidad de las causas en el terreno de la mecánica, quedaba legitimada la pregunta de la que partía Mayer para hacer toda esta especulación, que como recordarán consistía en saber qué ocurría con las causas cuando el movimiento no tenía como consecuencia más movimiento. Por ejemplo, cuando una pelota choca contra una pared y su movimiento cesa: ¿en qué se ha convertido la causa? Si las fuerzas son causas, y las causas, como sabemos, son indestructibles, no se pueden destruir: sólo podrán cambiar de forma.

§. La forma de las fuerzas
Pero entonces: ¿qué otra forma, a la que nos hemos acostumbrado, como nos acostumbramos al movimiento, es capaz de asumir la fuerza? Mayer observaba que, llegados a este punto, sólo la experiencia podía conducir a una conclusión. Y su experiencia determinante había ocurrido en altamar.
En uno de los momentos angustiantes de su travesía a las entonces Indias Holandesas, actualmente Indonesia, nuestro amigo tuvo una intuición: mientras el mar se agitaba en torno y se debatían angustiosamente los tres mástiles de su nave, pensó que las aguas agitadas debían ser más cálidas que las calmas. En el momento, aquélla no era más que una impresión pasajera, y acaso equivocada, pero en cuanto las aguas se calmaron hizo lo que todo buen científico hubiese hecho en su lugar: reprodujo la situación para verificar si su intuición había sido correcta. Llenó la mitad de una botella de agua y comenzó a sacudirla violentamente. Al cabo de unos minutos, pudo comprobar que había elevado la temperatura del agua en un grado, de doce a trece grados centígrados. ¿De dónde provenía ese calor que mediante la agitación podía ser llamado a la existencia en cuanto uno quisiera? No lo dudó: de las vibraciones mismas.
Como el Beagle a Darwin, la experiencia de a bordo le sirvió a Mayer para responder a la pregunta fundamental:
La otra forma que puede asumir la fuerza es el calor, y sin el reconocimiento de una conexión causal entre movimiento y calor es tan difícil explicar la producción de calor como dar cuenta del movimiento que desaparece.
(Lo cual explicaba, de paso —y acá cumplo con mi promesa de retomar el problema de las sangrías en el barco—, el fenómeno sobre el rojo brillante de la sangre que le había llamado la atención en un principio: el calor de los trópicos hacía que el cuerpo no necesitara «quemar» tanto oxígeno para mantener la temperatura; al quedar más oxígeno en sangre, se veía con ese particular color rojo.)
Mayer fue cauteloso al respecto:
No quiero establecer definitivamente que, en muchos casos, no se pueda hallar otro efecto del movimiento más que el calor, y que no se pueda encontrar otra causa para el calor producido más que el movimiento. No hablo en esos términos. Más bien prefiero suponer que el calor procede del movimiento. De otro modo deberíamos resignarnos a la observación de una causa sin efecto, y de un efecto sin una causa.
Y trató de establecer una conexión cuantitativa:
Si existe una ecuación que relaciona las fuerzas y el movimiento, por un lado, con el calor, por el otro, su solución exige que respondamos a la siguiente pregunta: ¿cuál es la cantidad de calor que corresponde a una dada cantidad de movimiento? Podríamos, por ejemplo, preguntarnos a qué altura debe ser elevado un peso dado para que el movimiento desarrollado en la caída sea equivalente a un aumento de temperatura de un grado centígrado de una cantidad de agua que pese lo mismo que el peso.
Para determinarlo, hizo una serie de experimentos, cuya conclusión fue que
elevar la temperatura de una determinada cantidad de agua de cero a un grado centígrado corresponde a una caída de un peso igual al del agua desde una altura de trescientos sesenta y cinco metros.
La intuición de Mayer había reconocido una conexión causal entre el calor y el movimiento, una conexión que —ya vimos hace algunos capítulos— había sido registrada por el extravagante, pintoresco y poco simpático conde Rumford. Las ideas de Mayer, primero, y las de James Joule después, rescataron del olvido sus curiosas y notables experiencias con cañones y caballos.
Pero la vida de Mayer se convirtió rápidamente en un abismo. En 1848, en rápida sucesión, murieron dos de sus hijos. Al año siguiente intentó suicidarse y fracasó: saltó desde la ventana de un tercer piso y se arruinó definitivamente las piernas. Dos años después fue internado en una institución mental. Imagínense lo cruel y siniestra que era una institución mental en ese entonces: hasta hacía relativamente poco, los locos eran exhibidos los domingos en las ferias de atracciones. Mayer sobrevivió, pero nunca se recuperó completamente. Desde entonces fue hasta tal punto ignorado que cuando el editor de la revista que había publicado sus trabajos por primera vez disertó públicamente sobre las ideas de Mayer, en 1858, se refirió a él como a un hombre muerto… ¡Y viviría todavía veinte años más!
Por suerte para Mayer, a partir de 1858, Hermann von Helmholtz (1821-1894), y Clausius (1822-1888) redescubrieron su obra y le retribuyeron la credibilidad que merecía. Mayer recobró su salud, o parte de ella, y fue premiado con la medalla Copley de la Royal Society en 1871, siete años antes de su muerte.

§. La fuerza de Joule
Por un camino distinto, un cierto industrial inglés llegó casi a las mismas conclusiones que Mayer: James Prescott Joule (1818-1889). A diferencia de la de su colega, su vida estuvo libre de complicaciones y desgraciados avatares: a los veintitrés años era ya un industrial establecido, que financiaba sus inquietudes científicas con las ganancias de una cervecería heredada de su padre que poseía cerca de Manchester y que se sentía fascinado por las máquinas eléctricas de su fábrica, en las que no dejaba de observar que en los hilos conductores, a medida que la corriente circulaba, se generaba calor. Resulta que el calor estaba directamente relacionado con la cantidad de combustible que la máquina consumía, lo cual lo llevó a iniciar un inmediato estudio de la cuestión.

043.jpg
Rueda de paletas de joule

Con la misma suposición de fondo que Mayer y Rumford (esto es, que de algún modo el calor y el trabajo mecánico eran dos aspectos de un mismo fenómeno, que se manifestaba, muy claramente, con el rozamiento), Joule inició sus investigaciones y llegó a la conclusión de que existía, en efecto, una relación invariable entre el trabajo y el calor. Otra vez como Mayer, supuso que si el calor podía traducirse en movimiento (y viceversa), su relación tenía que poder medirse cuantitativamente, por lo cual se concentró en establecer numéricamente esa equivalencia.
El más famoso de sus experimentos fue el de la rueda de paletas. Joule elevaba el peso mediante la manivela; el peso gradualmente descendía y hacía girar las paletas que, sumergidas en el agua, giraban. Al cabo de un cierto tiempo, el peso alcanzaba su punto más bajo y las paletas se detenían. Joule medía entonces el cambio de temperatura del agua. La explicación era sencilla: la fuerza viva del peso, como la llamaba Leibniz, o la fuerza, como la llamaba Mayer (o el propio Joule), se había convertido en calor mediante el rozamiento de las paletas contra el agua. Joule medía el cambio de temperatura y calculaba la cantidad de calor empleado, al tiempo que comprobaba que la cantidad de calor producida por el rozamiento de los cuerpos, sólidos o líquidos, era siempre proporcional a la cantidad de fuerza gastada.
La cantidad de calor necesaria para elevar la temperatura de una libra de agua en un grado Fahrenheit equivale al gasto de una fuerza mecánica que representa la caída de 50 kilos de una altura de un metro.
Establecida la relación entre calor y movimiento, en 1847 presentó sus ideas en la Asociación Británica para el Avance de las Ciencias, en Oxford. William Thomson, probablemente el más famoso científico inglés del momento (que más tarde se llamaría Lord Kelvin), asistió a aquella presentación y, tras algunas dudas, se convenció de las ideas de Joule.
Aquí hubo una pequeña disputa de prioridades. Mayer se enteró del trabajo de Joule y escribió a la Academia Francesa de Ciencias para dejar en claro que él había sido el primero que había tenido la idea de la equivalencia (en lo cual tenía perfecta razón). En cuanto su carta fue publicada, Joule reaccionó. Sabía que el prestigio científico de Thomson, que lo apoyaba a él, prevalecería ante cualquier academia.
Pero Thomson fue diplomático y obró con verdadera elegancia: le sugirió a Joule que admitiera la prioridad de Mayer sobre la idea del equivalente mecánico, pero que reclamara su propia prioridad sobre la verificación experimental.
Lo cierto es que Joule había terminado por establecer numéricamente la equivalencia entre el calor y el movimiento. Pero esa equivalencia, ¿no suponía la existencia de otras? En términos propios de Mayer: ¿no existirían nuevas formas equivalentes del calor y el movimiento a las que no nos habíamos acostumbrado todavía?

§. Helmholtz y, finalmente, la Gran Ley
Hermann Helmholtz nació en Potsdam, Alemania, en 1821. Hijo de un profesor mal pago de colegio secundario, que había servido en el ejército prusiano contra Napoleón, asistió a los cursos de filosofía y de literatura que impartía su padre. Le interesaba la física y quería estudiar en la universidad, pero la posición económica de la familia exigía de Hermann la obtención de una beca, y como el gobierno sólo sostenía económicamente a los estudiantes de medicina, no tuvo más remedio que iniciar el camino hacia la profesión de médico.
Así, estudió en Berlín, pero asistió paralelamente a otros cursos de la universidad, como los de química y fisiología. Incursionó en las matemáticas por cuenta propia, leyendo a Euclides obviamente y a Laplace, y llegó, de alguna manera, a las mismas conclusiones que Mayer y Joule.
En 1847 escribió un artículo («Sobre la conservación de la Fuerza») en el que estudiaba los principios matemáticos que subyacen al principio de conservación, donde mostraba que todo sistema mecánico está sometido a la ley de conservación de la fuerza
Pero iba un paso más allá y sostenía que esa fuerza podía ser de dos tipos: o bien fuerza viva, tal como la entendía Leibniz, o bien lo que él llamaba fuerza de tensión, entre la que se incluían todas las fuerzas conocidas (la fuerza de gravedad, la de atracción eléctrica, la elástica). A partir de allí, generalizaba a una ley de conservación de la fuerza y desarrollaba las consecuencias de esa hipótesis en los distintos campos de la física (el calor, la electricidad, el magnetismo, las reacciones químicas).
La constatación del alcance general de la ley debe ser vista, al parecer, como una de las tareas principales que ocupará a los físicos en el futuro inmediato.
En 1862 avanzó un poco más: en una conferencia en Karlsruhe, la misma ciudad que dos años antes había albergado el primer congreso internacional de química, sostuvo que en las últimas décadas el desarrollo científico había conducido al reconocimiento de una nueva ley universal, rectora de todos los fenómenos naturales, incluso —afirmaba con entusiasmo— los de los tiempos más remotos y los lugares más distantes.
La ley que enunció fue la que llamamos de conservación de la energía, y establece que la cantidad de energía que puede ponerse en acción en la naturaleza es inalterable, es decir, no puede aumentarse ni disminuirse. Como muestran los experimentos, allí donde se pierde una determinada cantidad de trabajo mecánico, se obtiene una cantidad equivalente de calor, o de fuerza química, por ejemplo, e inversamente, cuando se pierde calor, se gana una cantidad equivalente de fuerza química, o mecánica, y otra vez, cuando la fuerza química desaparece, aparece una cantidad equivalente de calor o trabajo. Es decir que en todos los intercambios entre diversas fuerzas naturales inorgánicas, la capacidad para realizar trabajo, la energía, desaparece bajo una forma para reaparecer bajo otra forma, exactamente en la misma cantidad. Pero en el proceso total esa energía no aumenta ni disminuye, sino que siempre permanece constante.
Así, la cantidad de energía del universo es inalterable: podrá alterar su forma, podrá variar su ubicación, pero su cantidad no cambiará. El universo posee, de una vez y para siempre, una reserva de energía que no puede ser modificada por ningún fenómeno, que no puede aumentar ni disminuir, que permanece inconmovible mientras, a su alrededor, todo se transforma.

§. Era la ley de leyes
La ley de conservación de la energía era un principio feliz: todo lo que hay habrá, y nunca perderemos nada. Se sucederán las generaciones, y las máquinas, se levantará el polvo de la tierra por la acción de las ruedas que producen rozamiento y calor y volverá a posarse, pero la cantidad de energía disponible para realizar trabajo y hacer funcionar el mundo siempre será la misma y estará ahí, ya sea almacenada en la materia (energía química), en el movimiento (energía cinética), en el campo gravitatorio (energía potencial), en la incipiente electricidad o en el calor, y cualquiera de estos tipos de energía se podría reciclar indefinidamente.
¡No podía existir un principio mayor de plenitud en una ciencia que se expandía aceleradamente, y que con instrumentos cada vez más finos, con matemáticas cada vez más precisas y una confianza cada vez más robustecida, se sentía capaz de escrutar todos los rincones hasta agitarlos!
El principio de conservación de la energía (o primer principio de la termodinámica, la palabra que Lord Kelvin acuñó en 1849 para designar el estudio del calor) y el mismo concepto de energía fueron las ideas unificadoras de la física en el siglo XIX, así como la Teoría de la Evolución y la Teoría Celular lo fueron en biología. Junto a la idea de conservación de la materia, que había enunciado Lavoisier, la conservación de la energía, que también se transforma sin perderse, pintaba un panorama del mundo: a la viejísima pregunta «¿qué es lo que hay?», que había sido respondida de maneras tan diversas a lo largo de la historia, la respuesta no era ni el agua, ni el Ser, ni los cuatro elementos, ni la fuerza vital, ni siquiera la sustancia divina (cuando Napoleón preguntó a Laplace por qué no había mencionado al Sumo Hacedor en su Mecánica Celeste, Laplace contestó: «No he tenido necesidad de esa hipótesis»): en el universo solamente hay materia y energía, y nada de ellas se pierde jamás.
Era un panorama tranquilizador: el mundo como mecanismo cedía a la imagen del mundo como un motor. La materia y todos los movimientos eran acompañados por un combustible, la energía, que no se consumía sino que se transformaba.
Entonces los científicos vieron el mundo que habían construido (o explicado) y constataron que era bueno. Aunque no por mucho tiempo.

§. Carnot sienta las bases
Porque pronto el segundo principio de la termodinámica iba a echar un balde de agua fría sobre el optimismo del primero.
No voy a contarles en detalle la conquista, si es que así puede llamársela, del segundo principio, porque se volvería todo demasiado técnico. Pero sí puede decirse que sus primeras formulaciones se remontan al libro Reflexions sur la puissance motive du feu (Reflexiones sobre la potencia motriz del fuego) que en 1824 publicó el joven Sadi Carnot (1796-1832), hijo del Gran Carnot, que había participado de manera decisiva en la Revolución Francesa (organizando y armando a los ejércitos de la república) y que luego se convertiría en ministro de Guerra de Napoleón Bonaparte.
En su libro, Carnot (hijo, obviamente) analizaba la eficiencia de las máquinas para convertir el calor en trabajo y demostraba que el trabajo se producía cuando el calor pasaba de una fuente con temperatura más alta a otra más baja, al tiempo que constataba que siempre el calor fluía de un objeto más caliente a otro más frío, y nunca al revés (lo cual es ya un enunciado primitivo del segundo principio).
Carnot murió de cólera a los 36 años de edad, y aunque sus cuadernos contenían más descubrimientos relacionados con esta teoría, en la época en que falleció aún no habían sido publicados y la mayoría fueron quemados, junto con sus efectos personales. Allí aparecían algunas cosas que luego proclamarían los trabajos de Mayer y Joule, lo cual muestra, de paso y una vez más, que las ideas científicas no sólo funcionan en la mente de un científico particularmente genial, sino que flotan en el «espíritu de la época».
El problema es que las Réflexions no tuvieron mucha influencia en sus tiempos: recién la tendrían sobre la generación de físicos que llevó a cabo la revolución de la termodinámica, especialmente William Thomson y Rudolf Clausius, de quienes tendremos que hablar a continuación.

§. William Thomson (Lord Kelvin) y las leyes de la termodinámica
William Thomson, que más tarde se llamaría lord Kelvin, pasó casi toda su vida en entornos universitarios. Su padre, James Thomson, era profesor de matemáticas en la Royal Academical Institution de Belfast hasta que se mudó a Glasgow, para ocupar un cargo allí. William asistió a clases universitarias desde los 10 años (¡desde los 10 años!) y escribió su primer trabajo a los 16. La vocación estaba clara: unos años más tarde, se trasladó a la Universidad de Cambridge y se licenció en 1845, habiendo obtenido ya varios premios por sus ensayos científicos y habiendo publicado una serie de trabajos en el Cambridge Mathematical Journal. Tras conseguir la licenciatura, trabajó durante algún tiempo en París, donde se familiarizó con la obra de Carnot. Luego retornó a Glasgow en 1846 (cuando tenía 22 años) y ocupó la cátedra de Filosofía Natural hasta que se jubiló, a los 75 años, en 1899. Y fíjense en esta curiosidad: después de jubilarse, se matriculó como estudiante de investigación para no perder la práctica, con lo que, además de haber sido el estudiante más joven que hubo en aquella universidad, llegó a ser también el más viejo. Falleció en Largs, a unos cincuenta kilómetros de Glasgow, el 17 de diciembre de 1907.
En realidad, su fama e importancia en Inglaterra se basaban especialmente en sus contribuciones a lo que ahora llamaríamos «ciencia aplicada»: fue responsable del éxito del primer cable telegráfico que funcionó a través del océano Atlántico, que constituyó un paso fundamental en la globalización de las comunicaciones (proceso que aún estamos viviendo hoy, con Internet, y que no sabemos hasta dónde llegará) e hizo una gran fortuna con patentes de distintos inventos, lo cual le valió el título de Sir en 1866, y el de lord Kelvin en 1892, nombre que tomó del río que atraviesa la Universidad de Glasgow.
La escala de temperatura absoluta o termodinámica se llama escala Kelvin en su honor: para no entrar en demasiados detalles engorrosos, digamos que si el calor es movimiento de las partículas, el cero absoluto, la temperatura mínima posible, se alcanza (en realidad no se puede alcanzar prácticamente) cuando todas las partículas están quietas y equivale a 273,15 grados centígrados bajo cero, o 0 grado Kelvin.
Pero quizá su contribución más importante fue la de organizar la termodinámica como una disciplina científica hecha y derecha en la segunda mitad del siglo XIX.
Y aquí entra a jugar Rudolf Clausius (1822-1888), que en Alemania estaba puliendo y desarrollando las teorías de Carnot. Lord Kelvin supo de los trabajos de Clausius a principios de la década de 1850, cuando ya estaba trabajando en una línea similar. Ambos llegaron, más o menos independientemente, a la segunda ley de la termodinámica, que dice, en una de sus formulaciones más brutales, que bajo ninguna, absolutamente ninguna circunstancia, el calor puede por sí mismo pasar de un objeto más frío a otro más caliente. Pero fundamentalmente establece que si se utiliza calor para producir trabajo y luego se quiere usar ese trabajo para recuperar el calor, no se podrá recuperarlo del todo. Esto es: hay algo que se ha transformado definitivamente en calor.
La energía, en el curso de sus transformaciones, se desgasta, y en todos los procesos una parte de ella se convierte irremisible e irreversiblemente en calor. Se desgasta mediante una cantidad que Clausius llamó «entropía» y que en cada proceso físico termodinámico, o en los procesos mecánicos mediante el rozamiento, aumenta. En el universo sólo son posibles los procesos en los que la entropía aumenta. Dicho de una manera más lúgubre, toda la energía se va convirtiendo lenta, sistemática y fatalmente en calor.
Si el primer principio de la termodinámica era una ley optimista, que garantizaba la eternidad del universo, el segundo principio era decididamente pesimista, ya que aseguraba que el constante aumento de la entropía conduciría inexorablemente a la muerte térmica del cosmos: como en cada proceso físico una parte de la energía se convierte en calor, tarde o temprano la totalidad de la energía sería calor, incapaz de producir trabajo mecánico alguno, y todo movimiento cesaría, todo se hundiría en una nada sin límites, en la que flotaría la materia disgregada. Una inmensa nada inmóvil e inerte donde, aunque por supuesto la cantidad de energía total sería idéntica, la entropía alcanzaría su máximo y ningún fenómeno podría producirse, porque en ningún caso la entropía podría disminuir.
El descubrimiento de la entropía resultaba tristísimo. No era nada agradable, en medio de una época de confianza y expansión, tomar conciencia de que cada fósforo que se enciende, cada movimiento, cada pensamiento (que genera calor a partir de los circuitos eléctricos cerebrales) aceleran la muerte térmica del universo; no era el mejor momento para saber con total certeza que todos los esfuerzos terminarían siendo mera radiación térmica, vulgar temperatura, miserable vacío caliente. La entropía marcaba una flecha del tiempo que señalaba la tumba, un reloj que contaba minuciosamente los segundos hasta disolverse él mismo en un calórico final. En un mundo donde se pensaba que todos los procesos eran reversibles, el segundo principio de la termodinámica aseguraba que el mundo evolucionaba en una sola dirección: la de la muerte térmica.
No podían funcionar eternamente los ciclos geológicos que había soñado Hutton, ni resultaba cierta su idea de que la Tierra era un enorme mecanismo, sin comienzo ni atisbo de final: en cada ciclo, la entropía forzosamente tenía que aumentar. Tampoco el Sol podría brillar por siempre, porque cualesquiera que fueran las formas en que producía su calor (por entonces desconocidas), no había forma ni mecanismo natural alguno que pudiera restituir ese calor perdido para que el Sol siguiera funcionando. Y así siguiendo.
Sin embargo, había una paradoja, algo que no encajaba del todo. El segundo principio venía a declarar que los procesos termodinámicos eran irreversibles, pero resulta que el calor era un proceso mecánico, originado en el movimiento de las moléculas. Y la mecánica, a diferencia de la termodinámica, sí es reversible (salvo por el detalle del rozamiento). Dado que los flujos de calor se daban siempre de una fuente más caliente a una más fría (el único proceso permitido), era posible pensar que si se invertía el movimiento de las moléculas se podría revertir el proceso. Porque… ¿cómo podía ser que un proceso reversible como el del movimiento de las moléculas pudiera dar origen a un proceso irreversible como el flujo de calor, que no era sino el resultado de ese movimiento?
El problema dejó perplejos a los físicos que estudiaban la termodinámica, incluyendo al propio Maxwell, que sembró la sospecha de que el segundo principio era de naturaleza estadística.
Veamos cómo es eso.

§. Boltzmann y la interpretación estadística de la entropía
Ludwig Boltzmann nació en 1844 en Viena, en 1867 se doctoró en Física, ocupó distintas cátedras y enseguida se destacó como una autoridad en mecánica estadística, dejando su nombre vinculado a figuras de la talla de Helmholtz y el mismísimo Maxwell, dios del electromagnetismo. Su fama crecía aceleradamente y tanto prometedores talentos como figuras importantes se acercaban para trabajar o polemizar con él.
Pero además de su enorme cantidad de trabajo en la mecánica estadística, Boltzmann le encontró una vuelta al segundo principio de la termodinámica o ley del aumento de la entropía, considerada como algo inexorable por la mayoría de sus contemporáneos (aunque algunos planteaban sus dudas).
Lo que hizo fue interpretar la entropía como la medida del desorden de un sistema. Cuanto más desordenado, más entropía: por poner un solo ejemplo, el hecho de que las moléculas se distribuyan al azar ocupando todo el ámbito donde el volátil autor de estas páginas escribe hace que el sistema sea más desordenado que si todas las moléculas que hay en ese mismo ámbito se apretujaran en un rincón. Del mismo modo, el calor es el estado de máximo desorden.
Boltzmann transformó la inexorabilidad en una alta probabilidad: según su interpretación, no es que el universo deba evolucionar fatalmente del orden al desorden, sino que, puesto que el número de estados desordenados es mucho, pero muchísimo mayor que el de ordenados, naturalmente se mueve de los estados menos probables a los más probables.
No hay, así, nada devastadoramente fatal en el aumento de la entropía: después de todo, la entropía podría disminuir, del mismo modo que ninguna ley impide que en la ruleta salga el número 5 un millón de millones de veces seguidas (si ocurriera no habría que cambiar una sola palabra en los libros de probabilidad) o que las moléculas de una habitación se ordenen espontáneamente (violando la ley del aumento de la entropía) y se acumulen en una de las esquinas, asfixiando de paso a quienes estén presentes. Entonces no es que fuera imposible que el calor se transmitiera de un cuerpo más frío a uno más caliente: era, en realidad, altísimamente improbable.
En cierta medida, Boltzmann les dio al mundo y a los fenómenos una remota, remotísima esperanza. Le quitó a la segunda ley su aura funeraria, su aureola de muerte (térmica) inconmensurable; abrió, si se quiere, una rendija por la que existe una lejanísima posibilidad de atisbar. Transformó la certeza absoluta del fin en un «optimismo» atado a bajísimas probabilidades.
Pero no se hagan ilusiones: la probabilidad de que un cuerpo frío se caliente espontáneamente, o de que una mancha de tinta disuelta en un vaso se concentre en un punto, o la de que un jarrón roto vuelva a recomponerse sólo es tan remota que no alcanzaría con que el universo durara cien mil millones de millones de millones de veces lo que va a durar como para que pudiera presenciarse un fenómeno así.
El 5 de octubre de 1906, Boltzmann se suicidó, ahorcándose en una playa italiana cerca de Trieste. En su lápida figura la fórmula S= k log W base de su interpretación un poco más optimista o mejor, un poco menos pesimista de la ley que ordena a la entropía aumentar.

§. Síntomas
Los dos principios de la termodinámica, junto a la Teoría de la Evolución, la teoría celular y otros desarrollos que ya vimos y seguiremos viendo, parecían alcanzar la plenitud de la ciencia. No en el sentido de que ya todo estuviera dominado, sino en el no menos fuerte de que se sabía el procedimiento a seguir para aquellas regiones no conquistadas aún. No se había explorado todo el territorio, pero el mapa estaba diseñado a grandes rasgos y se avanzaba con brújulas de precisión.
Sin embargo, había algunas señales de que las cosas no eran del todo así, aunque es lógico que nadie las viera en su momento y que sólo las percibamos ahora con la ventaja que da la perspectiva.
Así como la ley de conservación de la energía, la ley de leyes, era un gran triunfo clásico, el segundo principio no respondía (en especial en la lectura de Boltzmann) exactamente al canon newtoniano y determinista. No se trataba de una ley de conservación, por empezar, e incluía el concepto no newtoniano y no determinista de probabilidad.
Y algo por el estilo estaba incrustado en la Teoría de la Evolución. La selección natural era una fuerza impredecible, que no apuntaba a ningún lugar definido, que, como el aumento de la entropía, no era reversible, y cuyo funcionamiento se podía sospechar estaba ligado de alguna manera a las probabilidades y a la forma azarosa en que los rasgos adaptativos se distribuían entre las poblaciones. Eran señales tenues, síntomas, pero no eran los únicos. Ya tendremos tiempo de analizarlos con detalle.

Interludio:
Cómo se fabricó el fin del mundo

De las nueve jerarquías celestiales que en el siglo VI describió Dionisio Areopagita (que más tarde sería conocido como el seudo-Dionisio) —en orden descendente: serafines, querubines, tronos, dominaciones, virtudes y potencias, principados, arcángeles y ángeles propiamente dichos—, eran los tronos y las dominaciones los que se encargaban de fabricar con exquisito cuidado las leyes de la naturaleza.
Que eran elevadas a la asamblea conjunta de serafines y querubines para que les dieran su aprobación, y cada éxito se festejaba con estallidos de alabanzas, himnos, danzas, cánticos espirituales y bailes de los que raramente estaba ausente el champagne. Cuando la asamblea seráfica aprobó finalmente, después de muchos retoques, idas y vueltas, la ley de inercia, los nueve coros se corrieron una francachela tan larga que pareció agotar la Eternidad, al mismo tiempo que las partículas abandonaron su movimiento caótico e impredecible, irregular y sin finalidad alguna (porque de repente estaban acá, de repente allá y nadie entendía nada) y comenzaron a moverse en línea recta y con velocidad absolutamente uniforme.
Y cuando algunos eones más tarde (¿quién cuenta los períodos de la eternidad?) las dominaciones tallaron la ley de gravitación, que los tronos corrigieron mínimamente sustituyendo la cuarta potencia de la distancia por la segunda, y ésta apareció en el Boletín Oficial del Empíreo, las partículas se atrajeron gravitatoriamente y muchas empezaron a moverse unas alrededor de las otras: tanto los tronos como las dominaciones se sintieron felices ante un mundo que funcionaba como un perfecto mecanismo, se dedicaron a completar la obra afilando la mecánica de sólidos, de fluidos y de gases (el agua bajó por las laderas y el humo se elevó mientras se expandía con precisión) y decidieron, emborrachadas por el éxito, relegar a los principados y arcángeles a ocuparse de la termodinámica, siempre más fastidiosa y menos limpia (o por lo menos así les parecía).
Pero tanto los principados como los arcángeles se tomaron la tarea muy en serio y abordaron el problema con decisión. Usando todos los recursos (incluso la fuerza física y mental) aislaron la idea de energía y discutieron qué hacer con ella durante interminables reuniones, pero cuando la tuvieron lista, el mundo se llenó de pronto de luz y de calor: los átomos, que no habían hecho hasta entonces más que obedecer las leyes frías de la mecánica, se desviaron de sus trayectorias, chocaron entre sí y empezaron a formar grupos lechosos que inmediatamente se contrajeron bajo la acción de la gravedad, y en cuyos centros se produjeron fusiones nucleares que empezaron a irradiar nueva luz y calor al espacio, mientras se organizaban las galaxias espirales y empezaban a rotar lentamente como ruedas arrancadas de algún fuego de artificio.
Y al contemplar tanta belleza (el cosmos negro, vacío, frío y mecánico, de pronto bullente de calor y luz gracias al invento de la energía), los principados y arcángeles decidieron en un solo instante que nada de eso debía perderse y que aquello debía permanecer por siempre, aunque sólo fuera para asegurar tan maravilloso espectáculo, y así fue como diseñaron la «ley de leyes»: el principio de conservación de la energía, que aseguraría que por toda la eternidad la energía existente en el mundo sería siempre la misma.
La ley de leyes despertó la envidia y el malestar de tronos y dominaciones, que protestaron porque argüían que interfería con su bello mundo mecánico, pidieron que no fuera aprobada y sostuvieron que, evidentemente, los coros inferiores no tenían la menor idea de cómo se fabricaba un mundo.
Sin embargo, a los serafines les encantó, y el Gran Plenario del Noveno Coro, con todo el poder que le daba ser la más alta instancia del Paraíso, sancionó la Gran Ley: inmediatamente las grandes estrellas estallaron en supernovas multicolores y el gas se reagrupó para dar nuevas generaciones estelares, alrededor de las cuales se agruparon cuerpos opacos; el mundo entero adquirió una dinámica circular y en todos los puntos apropiados se encendieron focos de calor y de luz.
Tronos y dominaciones se escandalizaron ante tanto desorden y exigieron que se pusiera un límite, problema que los serafines, temerosos de una sublevación, remitieron a los principados y arcángeles, que después de pensarlo un poco, y temerosos de que la protesta pusiera en peligro su Gran Ley, crearon una nueva entidad que medía el desorden: la llamaron entropía y establecieron que la entropía, es decir el desorden, sería, como la energía, siempre el mismo (entropía = constante): lo llamaron Segundo Principio y lo despacharon hacia los coros superiores.
Pero no contaban con la decisión con que tronos y dominaciones querían arruinarles el pastel, para lo cual acudieron a la más baja de las jerarquías, los ángeles, que no siempre respetan el orden jerárquico, que están en todas partes, que son juguetones y traviesos y que se pusieron muy contentos con la posibilidad de hacerles una jugarreta a los arcángeles (que muchas veces son severos con ellos). Varios angelitos interceptaron el mensaje y transformaron el segundo principio en: «la entropía (el desorden) aumenta inexorablemente», que así llegó, endosado por los tronos y las dominaciones, hasta querubines y serafines que la aprobaron sin más, creyendo que era un mero trámite, y que les proporcionaría el placer de presenciar nuevos fuegos de artificio.
Y el mundo, tan preciosamente construido, empezó a morir: paulatinamente el desorden lo invadía todo sin que hubiera vuelta atrás; algunas estrellas se apagaban sin dar origen a estrellas nuevas; todas las formas de energía se transformaban lentamente en calor, y la materia misma empezaba a desgastarse y a fraccionarse en radiación que se perdía en el espacio y no regresaba más.
Cuando los serafines lo advirtieron, ya era demasiado tarde: el segundo principio había sido promulgado y no podía darse marcha atrás sin enojar al Altísimo. Así, el mundo quedó sentenciado a ser alguna vez totalmente negro y vacío, sin movimiento ni luz, sin que una chispa agitara los océanos de oscuridad.
Los tronos y las dominaciones festejaron su triunfo. Los principados y los arcángeles no se repusieron nunca de su aflicción, y por eso rara vez se los ve. Y en cuanto a los ángeles que habían montado la operación, ni se percataron del problema, porque ya se sabe que a los ángeles el mundo les importa muy poco, y en todo caso podrán seguir jugando y divirtiéndose después de que el universo se haya precipitado hacia la nada.

Capítulo 30
El mapa y el territorio: las geometrías no euclidianas, el infinito y el éter

A ustedes puede sonarles conocido el título de este capítulo por dos motivos: o bien porque leyeron la preciosa novela de Michel Houllebecq, o bien porque ya lo leyeron aquí, unas páginas más atrás, cuando el volátil autor de estas páginas intentaba (acaso infructuosamente) organizar de alguna manera la enorme diversidad del pensamiento científico del siglo XIX.
Les decía allí que la ciencia de este siglo se sentía segura de sí misma y que, gracias a las grandes teorías generales y a los nuevos principios, creía contar con un mapa bien delineado y una brújula precisa con los que avanzar sobre territorios que —se sabía— restaban inexplorados.
Pero resulta que el mapa no estaba tan bien delineado y la brújula no era tan precisa como lo fueron demostrando poco a poco algunas de esas grandes teorías que, si bien fueron y siguen siendo de alguna manera el modelo y la culminación del pensamiento científico occidental, introdujeron pequeñas cuñas en el enorme edificio que había legado el siglo XVIII al introducir elementos probabilísticos que no encajaban del todo en el ideal de ciencia newtoniana y determinista.
Entre estos síntomas que ponían en duda la precisión del mapa y la afinación de la brújula apareció uno verdaderamente gravísimo. Verdaderamente gravísimo, digo, porque apuntaba ni más ni menos que al cuestionamiento de la sólida y establecida concepción del espacio, ese lugar absoluto y feliz que había sido fijado en el siglo XVII, inmóvil, eternamente igual a sí mismo, previo a todos los fenómenos que ocurrían en él y que las matemáticas y la geometría describían en forma exhaustiva. De repente, ya no era tan claro qué forma tenía.
Y todo, todo, porque había algo en los axiomas del viejo Euclides que no cerraba. ¿Recuerdan el quinto postulado? Repasemos un poco.

I. Las geometrías no euclidianas

§. Recordando a Euclides
Cuando hablamos, hace ya mucho, de la Escuela de Alejandría y de Euclides, les contaba que se había hecho cargo del desastre pitagórico (el descubrimiento de la irracionalidad de la raíz cuadrada de 2) y se había puesto a edificar las matemáticas de forma exclusivamente geométrica en sus Elementos, en los que construía toda la geometría en una obra tan amplia y definitiva que puede equipararse a los Principia de Newton, o El origen de las especies de Darwin, y que fue, después de la Biblia, el libro más editado.
También les decía que Euclides tomaba uno de los grandes caminos de la filosofía griega, se apartaba de cualquier corriente empirista, se ubicaba en el «puro pensar» de los pitagóricos y, en la tradición de Parménides de Elea, enfrentaba el dilema que se había dejado sin resolver: si se construía un sistema basado en el pensar, también era necesario resolver el problema de por dónde había que empezar. Euclides lo resolvió, como recordarán, imponiendo algunos principios que daba por verdaderos sin discutirlos: los axiomas o los postulados, de los cuales debía poder deducirse todo enunciado de la geometría, aun el más intrincado. De paso sea dicho, Euclides dejaba un asuntillo sin resolver o resuelto de una manera poco convincente: el de la arbitrariedad en la elección de los postulados, que se justificaba afirmando que se trataba de verdades «autoevidentes», cosas de las que no se podía dudar, y que no necesitaban demostración. Los postulados eran claros, simples, contundentes y eso —se suponía— alcanzaba para que fueran legítimos. Repasemos brevemente algunos de ellos:
1. Que por cualquier punto se pueda trazar una recta que pase por otro punto cualquiera.
2. Que toda recta limitada pueda prolongarse indefinidamente en la misma dirección.
3. Que con un centro dado y un radio dado se pueda trazar un círculo.
4. Que todos los ángulos rectos sean iguales entre sí.
Hasta aquí, todo parece en orden. Pero presten atención al siguiente:
5 Que si una recta, al cortar a otras dos, forma los ángulos internos de un mismo lado menores que dos rectos, esas dos rectas prolongadas indefinidamente se cortan del lado en que están los ángulos menores que dos rectos.
Los primeros cuatro son sencillos y no presentan mayores dificultades. Pero el quinto postulado… daba mucha tela para cortar.

§. El misterio del quinto postulado
El quinto postulado era molesto. No tanto porque hubiera alguna duda sobre su verdad sino a causa de su enunciado: imagino que ustedes, amables lectores del libro, habrán tenido que examinarlo detenidamente para comprender qué es lo que está diciendo. Y seguramente recién cuando vieron el dibujo se les aclaró el panorama. Lo cual es lógico, porque tal y como fue enunciado, el postulado es demasiado complicado: parece artificioso y carece de la sencillez de los otros. El propio Euclides había tomado buena nota de este asunto y, siempre que pudo, evitó recurrir a él. De hecho, el quinto postulado y su artificiosa textura se convirtieron en un dolor de cabeza permanente… durante dos mil años, hasta tal punto que ¡en 1759! D’Alembert llamó al problema «el escándalo de los elementos de la geometría».
044.jpgYa desde la Antigüedad se habían hecho intentos por reemplazarlo por algún enunciado que pareciera más evidente y sencillo. Hubo muchas propuestas, pero la que se impuso y es más famosa hoy en día fue la de John Plavfair (1748-1813), quien recién en 1795 aseguró que el postulado euclidiano podía simplificarse muchísimo si se lo reemplazaba por uno que dijera que por un punto exterior a una recta pasa una sola paralela. De ahí que el quinto postulado sea conocido como «el postulado de las paralelas», como lo llamaremos en adelante.
Hubo un segundo tipo de abordaje, que consistió en intentar demostrar el quinto postulado deduciéndolo de los otros, de tal manera que dejara de ser cuestionable. Entre los que emprendieron este camino, el esfuerzo más importante, por lo menos cronológicamente, fue hecho por Gerolamo Saccheri (1667-1733), un sacerdote jesuita y profesor de la Universidad de Pavía. Lo que pretendió hacer fue negar el axioma de las paralelas y mostrar que se llegaba a una contradicción (lo que nosotros llamamos una demostración por el absurdo). Negar que por un punto exterior a una recta pasa una sola y única paralela es suponer que, o bien no pasa ninguna, o bien pasan muchas.
Saccheri empezó suponiendo que no había ninguna paralela y, trabajando con este presupuesto, llegó a la tan ansiada contradicción. Luego probó con la segunda posibilidad. Aceptó que por el dichoso punto pasa más de una paralela y logró demostrar muchos teoremas, hasta que llegó a una propiedad tan extraña que la consideró una contradicción: concluyó así que el quinto postulado estaba demostrado, y tituló su libro, por si a alguien le quedara alguna duda, Euclides ab omni naevo vindicatus (Euclides exonerado de toda culpa, 1733). El problema parecía terminado… solamente parecía.
Poco después de Saccheri, Johann Heinrich Lambert (1728-1777) abordó el asunto. En su libro (escrito en 1766 y publicado en 1786) Teoría de las rectas paralelas, Lambert, como Saccheri, consideró las dos posibles opciones. También como Saccheri, encontró que suponer que no pasa ninguna paralela conduce a una contradicción.
Sin embargo, cuando analizó la otra hipótesis (que pasan muchas) llegó a resultados muy extraños, por ejemplo, que los ángulos interiores de un triángulo suman menos que 180 grados. Resultados extrañísimos, por cierto, pero que no constituían ninguna contradicción lógica.
¿Y entonces? Y entonces ocurrió algo fundamental, porque Lambert avizoró el hecho de que cualquier colección de hipótesis que no condujera a contradicciones ofrecería una posible geometría, que sería una estructura lógica válida, aun cuando pudiera tener poco que ver con el espacio físico real y a priori verdadero. Era un paso conceptual tremendo, abismal, y Lambert dudó frente al precipicio.
Pero quien no vaciló en absoluto fue Gauss, a quien suele considerarse —si bien el asunto es discutible— el princeps mathematicorum, el más grande matemático del siglo XIX. Hasta el año 1799 Gauss trató, como tantos otros, de demostrar el dichoso postulado, hasta que se convenció de que era imposible:
He hecho ya algunos progresos en mi trabajo. Sin embargo, el camino que he elegido no conduce en absoluto a la meta que buscamos (la deducción del axioma de las paralelas). Más bien parece obligarme a dudar de la verdad de la geometría misma,
escribía a su amigo, el matemático Wolfgang Bolyai.
«Dudar de la geometría misma» era mucho decir, pero todo parecía indicar que podía existir una geometría perfectamente coherente en la que el postulado no se cumpliera. A partir de 1813 trabajó en esa dirección, aunque le parecía una idea tan audaz que, como le decía a otro amigo en una carta, probablemente jamás publicaría sus hallazgos sobre el particular, pues tenía miedo al ridículo o, como él decía, temía el clamor de los beocios (en una referencia a la tribu griega cuya torpeza los griegos ilustrados consideraban proverbial).
El miedo era razonable, porque lo cierto es que el mundo intelectual en general (y en especial la rama de los matemáticos y los físicos) estaba dominado por la convicción de que la geometría euclídea era la única posible. Y publicar semejante cosa, con un prestigio ya bien ganado y asentado, era un riesgo que Gauss no estaba dispuesto a correr.
Pero bien acorde con un siglo que empezaba a poner todo en cuestión, el asunto estaba a punto de llegar a un desenlace.

§. Lobachevski y Bolyai: las geometrías no euclidianas
Desenlace que se desencadenó gracias a los trabajos del matemático ruso Nicolai Ivanovich Lobachevski (1793-1856) y el húngaro Johann Bolyai (1802-1860), hijo del Wolfgang Bolyai al que le escribía Gauss. A partir de 1825, uno y otro, separadamente, desarrollaron sus propias ideas sobre la geometría y construyeron una geometría no euclidiana (lo cual hasta ese momento hubiese parecido una contradicción en los términos) partiendo de que por un punto exterior a una recta pasan infinitas paralelas.
Bolyai escribía:
He realizado descubrimientos tan maravillosos que estoy completamente asombrado.
En efecto, la nueva geometría tenía propiedades muy extrañas, pero en absoluto contradictorias. Recuerden el ejemplo que les ofrecí antes: la suma de los ángulos interiores de un triángulo, en esta geometría, es menor que 180 grados, y la diferencia depende del área (cuanto más grande el triángulo, menor la diferencia). La nueva geometría resultaba tanto más estremecedora en tanto crecía poco a poco la sospecha de que podía aplicarse al espacio físico de manera tan precisa como la euclídea. Hasta entonces, el espacio físico en que trabajaban los científicos y vivían todos los hombres era el descripto por la geometría euclidiana: así lo había construido Newton, y así lo había sancionado el gran filósofo Kant. Se trataba de la geometría necesaria de la empiria.
Pero tanto Gauss como Lobachevski estaban convencidos de que esta nueva geometría que iban esbozando podía ser aplicable y era utilizable para describir las propiedades del espacio físico tan precisamente como la euclídea, ya que, pensaban, era poco científico garantizar la verdad física de la geometría euclídea basándose en consideraciones a priori.
Así, hacia 1830 no sólo había una geometría no euclídea (aunque aceptada por pocos), sino que su aplicabilidad al espacio físico era considerada al menos como posible. El asunto no era menor, ya que todo el edificio de la física estaba construido sobre la presunción de que la geometría euclídea era la geometría necesaria del espacio físico: si de repente, digamos, resultaba que los ángulos interiores de un triángulo medían menos que 180 grados, era necesario revisar todo lo que se apoyara en ese supuesto.
El problema de cuál era la geometría que mejor se acomodaba al espacio físico, suscitado primeramente por la obra de Gauss, estimuló la creación de una nueva geometría que dio al mundo matemático motivos frescos para creer que el espacio físico podía muy bien ser no euclidiano. Su inventor (¿o debería decir «descubridor»?) fue Georg Bernhard Riemann (1826-1866), discípulo de Gauss y posteriormente profesor de matemáticas en Gotinga. En la geometría de Riemann no sólo no pasa ninguna paralela por un punto exterior a una recta, sino que ni siquiera existen rectas paralelas. Lo cual parece rarísimo, aunque no lo es: para visualizarla, se la puede pensar como si las rectas fueran los meridianos terrestres, que al cortarse en los polos no conocen el paralelismo.
De repente toda la construcción de la mecánica newtoniana, que se había basado en la idea de un espacio euclídeo absoluto, mostraba la hilacha. En su conferencia en la Facultad de Filosofía de Gotinga de 1868, titulada «Sobre las hipótesis que se encuentran en los fundamentos de la geometría», Riemann reconsideraba el problema general de la estructura del espacio. Y lo hacía —esto es lo interesante— desde una perspectiva empírica: ya no alcanzaba con que la geometría contara con una lógica interna implacable, sino que la pregunta, ahora, era por las condiciones que se le presuponían al propio concepto de espacio antes de que se determinara mediante la experiencia cualquier propiedad que pudiera presentarse en el mundo físico. Era toda una novedad: las verdades autoevidentes de Euclides podían depender de la experiencia.
En verdad, y acá me veo obligado a hacer una digresión, es algo injusto decir que Euclides no hubiera considerado esta posibilidad. A pesar de oponerse decididamente al empirismo, el propio concepto de «auto evidencia» es una suerte de concesión. ¿Por qué sería autoevidente e indiscutible que, por ejemplo, «toda recta limitada pueda prolongarse indefinidamente en la misma dirección», salvo por el hecho de que, efectivamente, parecía que en la práctica era así? (Y digo «parecía» porque en la práctica no existen ni las rectas ni los segmentos abstractos de Euclides.) Resulta, entonces, que lo que Riemann estaba diciendo era que los axiomas de Euclides no eran las festejadas verdades autoevidentes, sino que eran simples verdades empíricas.
De este modo, la cuestión misma del espacio, de su naturaleza y su geometría, tambaleaba. El mapa que se había diseñado, que parecía tan perfecto y había conducido a creer en un progreso indefinido y sin obstáculos en la carrera del conocimiento, empezaba a generar algunas sospechas: ¿tenía que ser un mapa euclídeo? ¿O a lo mejor convenía explorar el territorio con un mapa no euclídeo, a pesar de sus extrañas y antiintuitivas propiedades? Si éste era el caso, el terreno era pantanoso. Porque si cualquier geometría lógica (es decir, que no presentara contradicciones internas) podía ser aplicada al espacio físico con éxito, resultaba que este espacio físico en realidad no era otra cosa que un espacio lógico con tantas posibilidades de ser representado como geometrías no contradictorias pudieran postularse. Definitivamente, ya no era el espacio en el que los científicos seguros del siglo XIX se manejaban.
Y el siglo XX se encargaría de demostrar que efectivamente era así, y aún más, que la geometría real del espacio no es precisamente la euclídea. Pero ya llegaremos allí.

II. El triunfo del infinito

La enorme sofisticación del postulado de las paralelas se debía en parte al recelo de Euclides (y de los matemáticos griegos en general) ante el concepto de infinito: las paralelas son rectas que no se cortan ni siquiera en el infinito, un lugar no definible, donde nadie sabía lo que pasaba realmente. Así, el postulado de las paralelas estaba relacionado con el concepto de infinito, que no había sido resuelto jamás por los matemáticos griegos: Euclides, de hecho, seguía a Aristóteles, que aceptaba el infinito como una cantidad que crecía sin límites (es decir, un infinito potencial) pero negaba la posibilidad del infinito real (o actual), es decir, del infinito existente aquí y ahora.
La respuesta aristotélica o euclidiana es la primera que se le ocurre a quien trata de responder acerca de la definición del infinito desde el sentido común, o, lo que es lo mismo, desde la intuición directa. Uno suele imaginarse una cantidad muy grande. Pero las cantidades muy grandes, como, digamos, el número de granos de arena de todas las playas de la tierra (del que, como recordarán, se ocupó Arquímedes en su momento en su Arenario) están lejísimos de ser infinitas, tan lejos como lo están las estrellas que vemos en el cielo, felizmente. Y digo felizmente porque si el número de granos de arena de una playa fuera infinito, su peso también lo sería y, en consecuencia, el de la Tierra también. La cantidad de átomos en el universo, que asciende a la friolera de
1.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000.000. 000.000.000.000.000
, es tan poco infinita que da lástima. En realidad, semejante cifra no está más cerca del infinito que colegas más modestas como 2, 15 o 2089, lo cual es rarísimo, y explica por qué la dificultad para concebir el infinito, salvo como algo potencial, se arrastraba desde la Antigüedad.

§. El cálculo infinitesimal
Más allá de los devaneos medievales y teológicos sobre si la potencia de Dios era o no infinita, en los siglos XVI y XVII el infinito matemático, que es el que nos interesa a nosotros, había tenido un imprevisto y fructífero renacimiento. Varios matemáticos habían empezado a considerar que, por ejemplo, un cuadrado podía pensarse como un conjunto infinito de segmentos infinitamente delgados, o un volumen como una pila de infinitas rebanadas, cada una de ellas también infinitamente delgadas, y habían utilizado esa aproximación para calcular áreas y volúmenes. Newton y Leibniz, por su parte, al inventar el cálculo infinitesimal, habían utilizado cantidades «infinitamente pequeñas» y operado con ellas, sus cocientes y sus desarrollos.
Como es un poco técnico explicar qué es exactamente el cálculo infinitesimal, lo hago muy pero muy esquemáticamente. Analicemos por ejemplo el concepto de velocidad instantánea. Cuando la aguja del velocímetro marca, digamos, 60 kilómetros por hora, damos por sentado que mide la velocidad del auto en ese instante, sin pensar en la dificultad del concepto. Porque… ¿qué es un instante? Un intervalo de duración cero. ¿Y cuánto recorre el auto en un intervalo que dura cero? Obviamente 0 kilómetro. Pero si la velocidad en un instante es el cociente del espacio por el tiempo, llegaríamos al absurdo de que es 0/0, lo cual no tiene ningún sentido.
Es aquí donde irrumpe el cálculo infinitesimal para proponer otra manera: lo hace con intervalos de tiempo y de espacio infinitamente pequeños, que se dividen y se «hacen cero» (o, como ellos decían, se «desvanecen»); de esa manera evitaban el 0/0 y llegaban a un valor, la velocidad instantánea.
En términos generales, el cálculo infinitesimal, la más grande invención matemática desde la Antigüedad hasta hoy, consiste en operar con estas cantidades infinitamente pequeñas, ya sea en las magnitudes físicas o en las funciones.
El cálculo infinitesimal, si bien tuvo inmediatas aplicaciones debido a su inmensa utilidad —y se siguió utilizando pese a no estar suficientemente bien fundamentado—, recibió críticas desde el punto de vista filosófico, notablemente por parte del obispo Berkeley (1685-1753), quien preguntaba qué clase de entidades eran ésas, infinitamente pequeñas y que se «desvanecían». No le encontraba sentido alguno. Y la verdad es que no le faltaba razón, puesto que no había una buena respuesta para estas cuestiones en ese momento.
Pero finalmente, en el siglo XIX, se consiguió forjar un aparato formal que trataba estas cuestiones con rigor y más o menos explicaba qué significaban las cantidades que se «desvanecían». De modo que el problema de lo infinitamente pequeño parecía resuelto, y el análisis matemático, rigurosamente justificado. Sin embargo, el tema del infinito no hacía sino empezar. Faltaba enfrentarse con las cantidades infinitamente grandes, y ésa fue la tarea de Georg Cantor (1845-1918).

§. Cantor y los infinitos
Para encontrarnos con conjuntos que ningún número pueda contar debemos recurrir al mundo de los objetos matemáticos. Pero no necesitamos adentrarnos demasiado: ahí nomás, en el zaguán, tenemos a los números naturales (1, 2, 3, 4, 5,...), que obviamente son infinitos, terriblemente infinitos. Y cuando uno se enfrenta con conjuntos infinitos, enseguida encuentra que funcionan de manera peculiar, para decirlo suavemente. Si no, miren el famoso ejemplo del hotel de Hilbert.
Para mostrar la dificultad de concebir el infinito, el gran matemático David Hilbert ponía como ejemplo un hotel de infinitas habitaciones y un viajero que llega durante una noche de tormenta y ve en la puerta el cartel que dice COMPLETO. En un hotel finito, la temible palabra sumiría a nuestro viajero en la desesperación (el hotel de Hilbert queda a cientos de kilómetros de cualquier otro lugar civilizado, en medio de un páramo, rodeado de ciénagas espantosas repletas de cocodrilos). Pero en este caso nuestro viajero pide tranquilamente un cuarto. El conserje no se inmuta (en realidad ni siquiera se sorprende). Levanta el teléfono y da una orden general: que el ocupante de la habitación uno se mude a la habitación dos, el de la habitación dos a la habitación tres, el de la tres, a la cuatro, y así sucesivamente. Mediante esta sencilla operación, la habitación uno queda vacía, lista para el nuevo huésped, todos los ocupantes del hotel tienen, como antes, una habitación, y el hotel seguirá, también como antes, completo.
Ahora supongamos que en vez de llegar un solo viajero llegaran infinitos. El conserje, esta vez, indicaría al ocupante de la habitación uno que se mudara a la dos, al de la dos, a la cuatro, al de la tres, a la seis, y otra vez lograría acomodar a la multitud recién venida en las habitaciones impares, que quedarían todas vacías. Y si el dueño del hotel decidiera clausurar la mitad de las habitaciones, no por eso la cantidad de cuartos cambiaría. Sería la misma y tan infinita como antes. El particular comportamiento del Hotel de Hilbert es apenas una pequeña anomalía que se presenta al manejarse con el infinito. Hay más. Digamos de paso que el hotel de Hilbert es una fantasía matemática que no podría tener realidad física, ya que, si el universo es finito, no cabría en él, y si no lo es, como en el caso de los granos de arena, tendría una masa y un volumen infinitos, que producirían trastornos en cualquier tipo de universo con el que nos manejemos.
Pero volvamos a Cantor, quien empezaba a pensar las cosas desde el punto de vista de la teoría de conjuntos. Y fue justamente trabajando con conjuntos que se dio cuenta de algo muy raro. Dos conjuntos son iguales si se pueden poner en relación uno a uno sus elementos. Cuando uno se pregunta, por ejemplo, si hay más números naturales o más números pares, conjuntos infinitos ambos, la primera tentación es decir que hay más naturales que pares, ya que solamente algunos de los naturales son pares. Cantor demostró que la respuesta intuitiva, como tantas otras veces, no era correcta. Para determinarlo, no había más que poner en correspondencia los dos conjuntos:

1 → 2

2 → 4

3 → 6

y así siguiendo.
Como es evidente, siempre habrá un número a la derecha que se puede poner en correspondencia con uno de la izquierda, y además, tanto en la columna de la derecha como en la de la izquierda están todos los elementos del conjunto. Dicho de otra manera, los números naturales y los números pares pueden ponerse en correspondencia uno a uno, lo cual significa afirmó Cantor que, aunque sean infinitos, hay exactamente la misma cantidad, a la que llamó aleph (la primera letra del alfabeto hebreo) sub cero0). Había inventado el primer número transfinito. א0 mide la cantidad de números naturales, la cantidad de números pares, y la de múltiplos de cualquier número. También sirve para describir el conjunto de los números enteros negativos e incluso el de las fracciones. Esto quiere decir, nada más y nada menos, que hay tantos números naturales como números pares, como fracciones y como habitaciones en el hotel de Hilbert. La misma cantidad. Todos ellos son conjuntos numerables, como se llaman aquellos medidos por א0, el menor y más hogareño de los infinitos. Es interesante saber que ya Galileo había notado este peculiar comportamiento de los conjuntos infinitos y había notado también que, simplificando un poco, hay la misma cantidad de números naturales que de pares, con el mismo razonamiento que usaría Cantor dos siglos después.
Pero la cosa fue más allá: ese raro comportamiento fue sólo la primera sorpresa de las muchas y muy razonables que Cantor tenía para sacar de la galera. La siguiente, aún más extraña que la anterior, fue que los infinitos no son todos iguales.
En efecto, Cantor demostró que la cantidad de números irracionales, o la cantidad de puntos de una recta, es mayor que aleph cero, es decir que hay más números irracionales que números naturales, enteros o fraccionarios. El número transfinito que los mide es más grande que aleph cero: familiarmente se lo llama c , la potencia del continuo. Los puntos de una recta, las rectas de un plano, los números irracionales, tienen la potencia del continuo. En el recuadro de la página siguiente les demuestro por qué los números irracionales son más que los naturales y los pares.
De modo que si al hotel de Hilbert, que tiene aleph cero habitaciones, llegaran c viajeros, no habría manera de ubicarlos, aunque el hotel estuviera vacío: las habitaciones no alcanzarían. Esta distribución jerárquica de los infinitos, que tanto (y tan comprensiblemente) sorprendió a los colegas de Cantor, no termina con c. Existen más infinitos, cada vez más grandes, que excitan la fantasía y el misterio.
De cualquier manera, los números transfinitos de Cantor y las operaciones que éste mostró que se podían hacer con ellos no convencieron a todo el mundo.
Aunque Hilbert llegó a decir que Cantor había mostrado «un paraíso del que nadie nos expulsará», matemáticos tan importantes como Kronecker consideraron que toda la aritmética transfinita no era más que una simple locura.

Medir los infinitos
Los númerosirracionales son aquellos que no pueden expresarse como un cociente de dosnúmeros enteros y que tienen infinitas cifras decimales (no periódicas). Porejemplo, la raíz de dos es 1,414213562373… y así siguiendo, o pi es 3,14159…,etcétera (ya se conocen varios millones de cifras decimales de pi, que nopongo aquí por obvias razones). Pero lo cierto es que tanto pi como la raízde dos, dos números de la más grande importancia para la historia delpensamiento científico, tienen infinitas cifras decimales.
Ahora supongamosque efectivamente tenemos una lista que pone en correspondencia a los númerosnaturales con los irracionales. Sería algo de este tipo (por comodidadtomamos los números irracionales comprendidos entre 0 y 1, es decir, queempiezan con 0 y tienen infinitas cifras decimales):

1 → 0, 34526578568987409865389….

2 → 0,453432349067685648738883….

3 → 0, 8423212154789076895674….

Y así siguiendo.
Es fácil mostrarque la lista de la derecha no es exhaustiva, es decir, si yo puedo exhibirpor lo menos un número irracional que no está en la lista que estoypostulando, entonces quedaría demostrado que la lista de la derecha no escompleta y, por ende, que el infinito que la representa es más grande. Yefectivamente yo puedo concebir ese número. Pensemos en un número irracionalcuya primera cifra sea diferente de la primera cifra decimal del primero dela lista (o sea, diferente de 3), cuya segunda cifra sea diferente de la delsegundo (5), cuya tercera cifra sea diferente de la del tercero (2) y asísucesivamente. Es evidente que ese número no está entre los númerosirracionales que yo emparejé con los naturales. Porque si digo que está en laposición, por ejemplo, 1.000.000, estaría mintiendo flagrantemente, porque lacifra número un millón será distinta. Y esto pasa con cualquier posición en laque pruebe.
De manera quequeda demostrado que la lista de la derecha no abarca a todos losirracionales; algunos quedan afuera, y por lo tanto su cardinal, el númerotransfinito que lo describe, es mayor que aleph 0, lo cual significa que…¡hay infinitos más grandes que otros!

Lo cierto es que era un verdadero sacudón: así como las geometrías no euclidianas habían puesto en cuestión el espacio cómodo y euclidiano en el que se pensaba toda la física de la época, la teoría de los conjuntos infinitos contribuiría a desatar una crisis en la teoría de conjuntos que pondría en jaque a las matemáticas de principios del siglo XX y que se conoce como «la crisis de los fundamentos». Parecía que no sólo la geometría podía estar equivocada sino, lo que era mucho más grave, todo el basamento de las matemáticas.

III. El éter

Eran épocas de conmoción. El siglo XIX parecía haber construido un edificio de conocimiento gigantesco sobre el que sólo faltaba seguir agregando pisos (acaso indefinidamente), pero cuyas bases, se creía, estaban tan sólidamente establecidas que nada podría hacerlas tambalear. Y de repente aparecían nuevas geometrías e insospechados infinitos, que, por más abstractos que fueran, hacían pensar que la estructura podía no ser tan firme. Para colmo, de un momento a otro, el longevísimo éter —esa sustancia empírica, metafísica e inasible que se arrastraba desde los tiempos de los griegos, que se aferraba con uñas y dientes a la existencia, que llenaba uniformemente el espacio y que se encargaba de sostener un edificio cuyas rajaduras ya se tornaban visibles— empezó a dar muestras de inexistencia.

§. Biografía del éter
Ya hemos hablado de esto antes, pero vale la pena repasarlo para entender el grado de importancia que tuvo la cuestión del éter. Cuando Aristóteles acuñó por dos milenios este feo asuntillo de los cuatro elementos (tierra, agua, aire y fuego), que había tomado de Empédocles, inventó un quinto elemento, una quintaesencia para los cielos, libres de corrupción, sujetos a regularidades eternas, y donde el cambio estaba prohibido. Como podrán adivinar, se trataba del éter, que formaba las esferas y los planetas y aseguraba la perfección del espacio supralunar.
Recordemos que para Aristóteles, discípulo de Platón a pesar de las enormes diferencias que separan sus filosofías, había dos mundos ontológicamente diferentes, gobernados por leyes diferentes y formados por sustancias diferentes: el sublunar, corrupto y cambiante, y el supralunar, de la órbita de la Luna para afuera, perfecto y eterno, donde el cambio no era posible. El hecho es que, como componente exclusivo del mundo supralunar, desde su nacimiento el éter no fue de este mundo: formaba las esferas, pero más allá de cualquier alcance. La palabra griega «aether» significaba originariamente el cielo azul, o el aire de las alturas, supuestamente más puro y distinto del aire más bajo, al nivel de tierra. Los romanos importaron la palabra, y Lucrecio (siglo I a.C.), en su De rerum natura habla del
innubilus aether divum numen sedesque quietae.
(el éter sin nubes que cubre y protege a la divinidad y sus lugares de paz)
El éter aristotélico persistió durante la Edad Media como una pieza de la cosmogonía, como aquello que ocupaba los espacios vacíos, como una sustancia metafísica y teológica no muy implicada con las cosas prácticas, modestamente fuera de alcance de los mortales —lo cual, dicho sea de paso, no era un gran inconveniente en una época poco inclinada hacia la experiencia, y más propensa al sueño y la imaginería—.
Pero cuando Descartes decidió reconstruir el conocimiento sobre bases firmes, le dio al éter un papel muy distinto. Puede parecer raro, porque uno diría que en el universo rígidamente mecanicista de Descartes, el éter (incoloro, inodoro, insípido y casi puramente metafísico), en principio no parecía un personaje adecuado. Pero como Descartes no aceptaba la existencia del vacío, ya que para él la materia era inseparable de la extensión (el espacio), su universo era un plenum, y como era un plenum algo tenía que ocupar todos los huecos en los que no hubiera nada. El candidato a ocupar ese lugar, naturalmente, fue el éter, que Descartes describió como «materia sutil», infinitamente divisible y sin límites en extensión.
El éter cartesiano era diferente del aristotélico; no se limitaba a llenar, como una mera presencia ontológica que tranquilizaba conciencias con horror al vacío. Nada de eso: el éter era activo, estaba por todas partes y transportaba las fuerzas magnética y gravitatoria (ya que, recordemos, Descartes tampoco aceptaba la acción a distancia). La fuerza no podía transmitirse sino por la presión o el impacto, esto es, sólo por contacto, de modo que el éter cartesiano era el encargado de formar los torbellinos o vórtices que funcionaban como vehículos de las acciones a distancia, fueran cuales fueren. En el sistema de Descartes, era la fuerza activa más potente del universo, aunque desde ya era imposible saber de qué estaba hecho o qué clase de cosa era.
Cuando Newton tomó las riendas del mundo, construyendo su sistema pavoroso, basado en la acción a distancia y las fuerzas que se propagan a través del vacío, el éter pudo haber sufrido un sacudón. Pero no fue así. El mismo Newton aceptaba el éter (naturalmente, un éter de naturaleza corpuscular) y le atribuía la propiedad de conducir el calor, e incluso llegó a especular con que la fuerza de gravitación se debía a presiones del éter sobre los cuerpos, o deformaciones del éter, aunque finalmente optó por atenerse a su máxima: «yo no formulo hipótesis».
En realidad, el problema, como tantas veces, era la luz. Newton concebía la luz como un flujo de corpúsculos a los cuales se les podían aplicar las leyes de la mecánica, entre ellas, la de gravitación universal. Pero tanto su rival Hooke como Huygens sostenían que los fenómenos luminosos se explicaban mucho mejor partiendo de la hipótesis de que la luz no está formada por corpúsculos, sino que consiste en ondas, pequeñas vibraciones.
¿Vibraciones de qué? Porque cuando la luz se propaga en el vacío… ¿qué es lo que vibra? El vacío no es nada, y la nada no puede vibrar. El éter se deslizó por la ranura luminosa para que la teoría ondulatoria pudiera vivir y hubiera algo que vibrara transportando la luz.
Ya no era un éter activo, como el que proponía Descartes, ni tenía las propiedades mecánicas que lo llevaban a formar torbellinos y generar los movimientos; tampoco formaba los cuerpos celestiales de Aristóteles. Ahora era puramente pasivo: no ofrecía ninguna resistencia al movimiento de los cuerpos que lo atravesaban (o que él atravesaba).
El éter ya era de por sí bastante inverosímil, pero a medida que la teoría ondulatoria de la luz se afianzaba, fue adquiriendo características estrafalarias. Los trabajos de Young y de Fresnel mostraron que las vibraciones luminosas eran perpendiculares a la dirección de propagación. Y para que esto pudiera ocurrir, el éter tenía que ofrecer algún tipo de resistencia a la deformación. Pero si esto ocurría, resultaba que el éter se comportaba como un sólido elástico, lo cual generaba un inconveniente nada pequeño: ¿cómo hacían los inmensos planetas en el cielo para atravesar enormes distancias de un sólido elástico? Este asunto de los planetas era un engorro, pero se solucionó con cierta facilidad: G. G. Stokes, en 1845 —y noten el año— sugirió que el éter se comportaba como un sólido para las vibraciones muy rápidas como las de la luz, pero como un fluido para movimientos muy lentos como los de los planetas, y describió sus propiedades mediante un conjunto de espeluznantes ecuaciones.
La hipótesis del éter se reforzó cuando el físico escocés James Clerk Maxwell, entre los años 1864 y 1873, unificó los conceptos de electricidad y magnetismo mostrando que eran aspectos de un único fenómeno, el electromagnetismo, y mediante un puñado de leyes muy simples logró explicarlo por completo y predecir la existencia de ondas electromagnéticas (entre ellas la luz). ¿Cuál era el soporte material de esas ondas? El éter, por supuesto.
Las cosas pasaban a mayores. En tiempos en que ya se manejaba la tabla de Mendeleev y se estaba ante las puertas de la radiactividad era muy difícil aceptar una sustancia con una naturaleza química tan indeterminada. ¿De qué estaba hecho, en efecto, el éter? Parecía una sustancia puramente metafísica, por más extravagante que eso suene. Pero incluso si se hubiese aceptado que lo fuera: ¿de qué manera una sustancia puramente metafísica podía comportarse como un sólido elástico o como un fluido? El éter era químicamente molesto, completamente anacrónico.
Y además —y esto sería determinante— estaba en reposo absoluto en el propio espacio en reposo absoluto. Y si el éter estaba en reposo absoluto, el movimiento absoluto debía existir también. Porque si el éter en reposo absoluto llenaba todo el universo, la Tierra, al moverse a través de él, debía recibir una corriente de éter (de la misma manera que un avión en movimiento recibe una corriente de aire en contra de su movimiento). Y esa corriente tenía que poder ser medida.
Es lo que se propuso el físico norteamericano Abraham Michelson.

§. El experimento de Michelson-Morley
En el fondo, la idea de Michelson era sencilla. Puesto que el éter estacionario era una cosa material y rodeaba la tierra como un océano, ésta, al moverse en él, debía recibir una corriente de éter en contra. Así, si se enviaba un rayo de luz en la dirección contraria a la corriente de éter y un rayo de luz en dirección perpendicular a la corriente, el rayo en dirección contraria a la corriente debía mostrar un pequeño retraso respecto del otro, del mismo modo que la corriente de un río retrasa el movimiento de un bote, pero no influye en quien lo cruza a nado perpendicularmente.
En vista de ello, Michelson ideó el siguiente experimento: enviaría un rayo de luz en una distancia definida y otro en una distancia igual pero en ángulo recto a la dirección del primero. Ambos rayos se reflejarían en un espejo y volverían en seguida a su punto de partida común. El viento de éter tenía que producir un retraso en uno de los dos rayos.
El experimento tenía que estar preparado para detectar diferencias mínimas, y para no ser afectado por las condiciones externas (vibraciones del edificio, por ejemplo) pero esa exigencia no lo arredró, y diseñó un ingenioso aparato llamado interferómetro. Trazó los planos de una máquina que fue construida por un fabricante de Berlín, y con ese nuevo instrumento realizó el experimento. O los experimentos, mejor dicho.
El primero se realizó en el laboratorio de Helmholtz, en el Instituto Físico de Berlín. El instrumento fue colocado sobre un basamento de piedra, pero las vibraciones del tránsito por la noche causaban alteraciones. Michelson, en vista de ello, fue al Observatorio Astrofísico en Potsdam, en abril de 1881, para realizar otra tentativa. Allí, el instrumento extraordinariamente sensible dio resultados, aunque las pisadas en la calle a una manzana del sótano del observatorio dificultaron grandemente la medición.
La cosa es que los experimentos de Michelson no detectaron retardo alguno en la transmisión de la luz en ningún sentido: los rayos volvían en el mismo instante. Dio cuenta de sus averiguaciones en el número de agosto de 1881 del American Journal of Science bajo el título «The relative motion of the earth and the luminiferous ether» («El movimiento relativo de la Tierra y el éter lumínico»).
Desde ya, no todos se convencieron y lo que siguió fue la crítica más habitual para cualquier experimento que contradiga las creencias arraigadas: que estaba mal hecho. Así, por ejemplo, sir Oliver Lodge, una figura prominente en los círculos científicos ingleses, se negó a aceptar la conclusión experimental de Michelson, y siguió definiendo al éter como
una sustancia continua que llena todo el espacio, que puede vibrar luz, que puede ser transformado en electricidad positiva y negativa, que en torbellinos constituye materia y que transmite por continuidad y no por impacto todas las acciones y reacciones de que es capaz la materia.
Digamos, de paso, que el propio Michelson tampoco estaba demasiado convencido del asunto. De modo que decidió seguir probando. En 1866 conoció a Edward W. Morley, del Western Reserve College, y juntos proyectaron otra serie de experimentos, que fue generalmente conocida con el nombre de «experimento Michelson-Morley». En 1887, todo el voluminoso aparato (muy mejorado) fue montado en una pesada losa de piedra que flotaba en mercurio para evitar errores debidos a vibraciones, presiones y tensiones. Otra vez no apareció retraso alguno en ese ir y volver de la luz.
Los resultados eran claros: no había ningún éter estacionario. Michelson informó, sin embargo, que los resultados de su experimento
podían ser explicados por la suposición de que la Tierra arrastra al éter casi a su misma velocidad, de manera que la velocidad relativa entre el éter y la superficie de la Tierra es cero o sumamente reducida.
Pero además de esta posibilidad, existía otra. Aunque era extraña, extrañísima, tanto que era difícil creerla.

§. La solución de Fitzgerald-Lorentz
Aun de existir un éter, el resultado obtenido por Michelson y Morley podía explicarse. Es más, en 1895, dos matemáticos y físicos, George F. Fitzgerald, del Trinity Collage de Dublín, y Hendrik A. Lorentz, de Leyden, ofrecieron una explicación, aunque, como les dije, muy extraña. Basados en ciertas propiedades del campo eléctrico, partieron de la base de que la longitud de un objeto cambia con el movimiento. Una varilla disminuye su longitud, para un observador externo en reposo, si se mueve a través del espacio siguiendo la dirección de su longitud, y la disminución —es decir, la diferencia en la longitud de la vara cuando está inmóvil y cuando se mueve a gran velocidad— depende de esa velocidad.
Es verdad que el efecto no se siente a velocidades bajas, aunque existe, pero empieza a hacerse perceptible cuando las velocidades crecen mucho, y se aproximan a la de la luz. Los cálculos matemáticos demostraban que una velocidad de 480 kilómetros por hora causaría una reducción de sólo un billonésimo de uno por ciento, disminución que, naturalmente, nuestros instrumentos no podrían registrar. Pero cuando usaban una velocidad teórica de 145.000 kilómetros por segundo, la disminución llegaba a un trece por ciento. Al ser aumentada esta velocidad, también aumentaba ese porcentaje, hasta que finalmente, según sus cálculos, cuando la velocidad llegaba a los 300.000 kilómetros por segundo (la velocidad de la luz), el porcentaje de la reducción llegaba a un ciento por ciento. En otras palabras, a esta velocidad la vara desaparecía como consecuencia de una reducción total.
Esta nueva idea podía explicar con un grado suficiente de plausibilidad el resultado aparentemente negativo de los experimentos de Michelson-Morley, porque no habían tenido en cuenta la reducción del brazo del interferómetro durante las mediciones. El efecto de esta reducción era justo lo suficiente para contrarrestar el retardo de la luz por el éter: las conclusiones de Michelson habían ignorado totalmente el fenómeno expresado en la teoría de la contracción de Lorentz-Fitzgerald.
Era un planteo desconcertante para cualquiera acostumbrado a pensar en términos de la física tal como se conocía hasta entonces y, como era de esperar, alteró a los físicos tradicionalistas, que lo consideraron completamente fantástico. Algunos de ellos, incluso, evocaron la observación del físico norteamericano Josiah Willard Gibss, que había hecho fundamentales aportes al desarrollo de la termodinámica:
Un matemático puede decir lo que se le ocurra, pero el físico debe estar por lo menos parcialmente cuerdo.
La explicación de Lorentz-Fitzgerald, a pesar de su audacia y de su eficacia para salvar los resultados aparentemente negativos de los experimentos en la derivación del éter de Michelson, seguía basándose en las leyes de la física clásica tradicional. Y aunque hizo vacilar a los hombres de ciencia, no los derribó por completo. Al fin y al cabo, las leyes clásicas del movimiento de Newton seguían rigiendo.
Pero faltaban algunas sorpresas. De las ecuaciones de Fitzgerald-Lorentz se deducía también que el tiempo variaba con la velocidad: cuanto mayor fuera la velocidad a la que se movía un objeto, más lentamente transcurría el tiempo para un observador externo. A lo cual se agregó la masa, cuya variación con la velocidad fue confirmada por Walter Kauffman a partir de 1901. Todo se transformaba a medida que la velocidad aumentaba: parecían violarse de a poco los principios de la gran construcción de la física clásica.
Y, de hecho, se produjo un verdadero impasse en el mundo de la física, que era incapaz de explicar los insólitos resultados salvo recurriendo a hipótesis que lindaban con la fantasía. Así, el «fracaso» del experimento de Michelson-Morley abriría un nuevo capítulo, no sólo en la física, lo cual ya sería mucho decir, sino en la propia concepción que tenemos del universo.

Interludio:
La biblioteca de Babel y el infinito

El universo (que otros llaman la Biblioteca) se compone de un número indefinido, y tal vez infinito, de galerías hexagonales con vastos pozos de ventilación en el medio, cercados por barandas bajísimas.
JORGE LUIS BORGES, «La Biblioteca de Babel»
Los hombres siempre acostumbraron a jugar con los grandes números: en una de sus piezas maestras, Borges imagina al Universo como una vasta biblioteca de hexágonos regulares que se extienden sin límite en todas direcciones: a cada uno de los muros de cada hexágono corresponden cinco anaqueles; cada anaquel encierra treinta y dos libros de formato uniforme; cada libro es de cuatrocientas diez páginas; cada página de cuarenta renglones; cada renglón, de ochenta letras de color negro, donde prolijamente se alinean veinticinco símbolos ortográficos, sin orden ni significado alguno. El universo físico es una penosa selección de posibilidades: la Biblioteca de Borges, por el contrario, es total y sus anaqueles registran todos los libros posibles que pueden construirse combinando los veinticinco símbolos ortográficos: número, aunque vastísimo, no infinito.
En efecto, el número no es infinito, en efecto es vastísimo. Borges intenta inducir (y lo logra) en el lector la zozobra de la totalidad. Pero ¿a cuánto asciende la totalidad? O mejor dicho: ¿cuántos libros hay en la Biblioteca de Babel? La piadosa aritmética permite que el cálculo sea simple. Elementales multiplicaciones nos indican que en cada libro hay un millón trescientos doce mil espacios. Un sencillo razonamiento permite inferir cuántos libros diferentes pueden construirse en esas condiciones. Puesto que en el primer espacio puede figurar cualquiera de los veinticinco signos que menciona el autor, sólo para el primer lugar hay ya veinticinco posibilidades distintas. Pero esas veinticinco posibilidades se multiplican por veinticinco al llegar al segundo espacio, ya que allí también puede aparecer cualquiera de los signos ortográficos (debe recordar el lector que los libros no necesitan tener sentido, basta que sean posibles). Esas 625 (25 x 25) posibilidades que brindan los dos primeros lugares se bifurcan nuevamente en el tercero, y en el cuarto, hasta llegar al último espacio del último renglón de la última página; para saber cuántas posibilidades hay en total tengo entonces que multiplicar 25 por sí mismo un millón trescientas doce mil veces: el número que describe el resultado no tiene nombre propio en ningún idioma: es un uno seguido de 1.836.800 ceros. Un hombre dotado de la suficiente paciencia podría llegar a escribirlo, pero ningún hombre (probablemente) puede imaginarlo. Para abarcar la malévola inmensidad de esa cifra es necesario recurrir al más antiguo y perverso de los trucos: la comparación.
El número de átomos que existen en el universo se puede representar generosamente por un uno seguido de cien ceros: la cantidad, al lado del número de volúmenes de la Biblioteca, es francamente ridícula: si en cada átomo del universo se colocara un libro, no habríamos ubicado ni siquiera un milésimo por ciento del total de los libros.
Sin embargo, el hecho de que los átomos sean tan claramente insuficientes no debería descorazonar a nadie, ya que el Universo real, que nuestros radiotelescopios exploran hasta una distancia de diez mil millones de años luz, no sólo no está lleno de átomos, sino que es casi en su totalidad espacio vacío. ¿Cabrá la Biblioteca en semejante inmensidad?
Aunque el autor no da mayores precisiones métricas, señala que cada uno de los volúmenes es de tamaño normal: tomando como guía la edición de las Obras completas de Borges, podemos conjeturar que las dimensiones de cada libro son 22 cm de alto por 13 cm de ancho y 2 centímetros de espesor: 572 escasos centímetros cúbicos. Si prescindiendo de los anaqueles (que ocupan un molesto espacio en la vana pretensión del orden) juntáramos todos los libros en una masa compacta, la esfera así formada tendría un radio, expresado en años luz, de un uno seguido de 7.203 ceros. La Biblioteca de Babel no cabe en el Universo: si lo llenáramos con los libros, sin dejar resquicio alguno, nuevamente no habríamos hecho sino empezar. Los diez mil millones de años luz de distancia (un uno seguido de tan sólo diez ceros) que nos separan de los quásares más lejanos nuevamente quedan reducidos a la insignificancia.
Y otra cosa más: la densidad del universo (el número de átomos por centímetro cúbico) según las todavía imprecisas estimaciones actuales anda muy cerca del valor crítico, que determinaría si el universo seguirá su expansión indefinidamente o se contraerá finalmente sobre sí mismo. La densidad de la Biblioteca de Babel es muchísimo más alta, y produciría el colapso gravitatorio del cosmos. Es decir: si el universo fuera en realidad la Biblioteca, el universo no existiría, o tal vez dado que nuestros conocimientos sobre los primeros instantes son todavía difusos, nunca podría haber existido. Sin embargo, Borges fue un creador de universos, y su Biblioteca brilla allí, ya eterna, verdadera, incesante. Señalando la angustia de no poder imaginar la totalidad.

Capítulo 31
Einstein y la Teoría de la Relatividad

Si mi teoría resulta cierta, los alemanes dirán que soy un alemán y los franceses que soy un alemán que debió huir de su patria; si mi teoría resulta falsa, los franceses dirán que soy un alemán y los alemanes dirán que soy un judío.
ALBERT EINSTEIN
Después de un largo y a veces arduo camino que nos condujo a través de las especulaciones de Platón, los trabajos de Tolomeo, la revolución de Copérnico, la relatividad de Galileo, la síntesis de Newton, el derrumbe del éter y las geometrías no euclidianas, llegamos, finalmente, a la figura de Albert Einstein, el creador de algunas de las teorías más importantes de la historia de la física: teorías que, sin lugar a dudas, marcaron el rumbo del pensamiento en el siglo XX y que, hasta hoy, se mantienen incontestadas, guiando el rumbo de miles de científicos de todo el mundo.
Sería bueno empezar a hablar directamente de él (tiene méritos de sobra), pero no entenderíamos nada si no volviéramos un poco sobre nuestros pasos. Ahí vamos.

§. La crisis del fin del siglo XIX
Cuando todavía faltaban tres décadas para entrar en el siglo XX, el impresionante edificio de la ciencia newtoniana alcanzó una nueva culminación: en 1864 James Maxwell exhibió una formidable síntesis. De un saque y con un puñado de ecuaciones, resumió dos siglos y medio de experimentación y logró explicar todos, pero todos, los fenómenos eléctricos y magnéticos conocidos hasta entonces, mostrando, de paso, que electricidad y magnetismo no eran sino dos caras de una misma moneda. Fue una hazaña grandiosa, a la manera de Newton; de pronto, una región entera de la física y del conocimiento se estructuraba matemáticamente, como había previsto y querido Galileo.
Claro que tuvo sus colofones increíbles, porque hete aquí que operando con las ecuaciones y combinándolas, Maxwell obtuvo una ecuación idéntica a la que describía el desplazamiento de las ondas. Fiel y leal a la idea de que el libro de la naturaleza está escrito con caracteres matemáticos (y que, además, traduce a la naturaleza real), concluyó que si en el electromagnetismo aparecía la ecuación de las ondas, entonces tenían que existir ondas electromagnéticas. Fue una predicción genial: nueve años después de su muerte en 1888, Heinrich Hertz (1857-1894) logró emitir una señal y recibirla pocos metros más allá dentro de su laboratorio. Era la primera transmisión humana de una onda electromagnética en la historia. Ya estaban allí en germen la radio, la televisión y las señales enviadas por las naves que exploran los límites del Sistema Solar.
Maxwell tuvo una segunda intuición igualmente genial: sugirió que la luz también era una onda electromagnética, esto es, campos eléctricos y magnéticos que vibraban y se perseguían en el éter, esa sustancia invisible, inodora, insípida, perfectamente porosa, totalmente elástica cuando hacía falta y por completo rígida si era necesario, y que, casi como artículo de fe, llenaba uniformemente el universo desde los tiempos de Aristóteles.
El electromagnetismo abría una interesante posibilidad. La física tradicional (de Aristóteles) establecía una distinción decisiva entre el movimiento y el reposo: lo que se movía, se movía, y lo que estaba quieto, estaba quieto. El movimiento era algo absoluto. Galileo rechazó esa afirmación: el movimiento no es algo absoluto que hacen los móviles, sino que es simplemente una relación entre ellos: lo que está en reposo para alguien, se está moviendo para otro observador, y por lo tanto es indistinguible del reposo: si viajamos en un barco, por ejemplo, los objetos del barco nos parecerán en reposo. Ni qué hablar en un avión, aunque Galileo no podía saberlo.
El principio de relatividad de Galileo, piedra de toque de la ciencia moderna y perfectamente establecido desde el siglo XVII, base también de los Principia de Newton, dejaba bien en claro que el movimiento rectilíneo y uniforme era siempre relativo y que ningún experimento mecánico permitía detectarlo: nada de lo que ocurre dentro de un avión lanzado a velocidad crucero demuestra que se está moviendo.
Newton aceptaba el principio, desde ya, y relegaba el concepto de «reposo absoluto» para el espacio en su conjunto. El «espacio mismo», signifique esto lo que signifique, estaba en «reposo absoluto», aunque advertía que ningún experimento mecánico detecta el movimiento rectilíneo y uniforme respecto de ese espacio absoluto inmóvil (las ecuaciones newtonianas no distinguen entre reposo y movimiento rectilíneo y uniforme). No había manera de demostrar, por caso, el movimiento de la Tierra mediante un experimento mecánico, del mismo modo que es imposible demostrar, dentro de un avión, que se está moviendo. La mecánica era taxativa.
Pero las ecuaciones de Maxwell también eran taxativas. Ellas sí distinguían entre reposo y movimiento y predecían que el comportamiento de un rayo de luz debía ser diferente según el sistema (sea que estuviera en reposo o en movimiento). Esto es: después de todo, había una manera de medir el movimiento absoluto de la Tierra a través del espacio absoluto. Ningún experimento mecánico podía detectarlo, pero un experimento electromagnético sí tenía que poder hacerlo.
Justamente es eso lo que se habían propuesto, como recordarán, Michelson y Morley, que trabajaban con la hipótesis de que la Tierra, al atravesar el éter, producía una corriente de ese mismo éter en contra, que sería capaz de retrasar un rayo de luz. Aunque, como ya vimos, no les dio ningún resultado: no se detectó ningún arrastre de éter. Los rayos se reflejaron y volvieron juntos. Y aunque Michelson repitió el experimento una y otra vez, el rayo de luz no parecía conmoverse ni siquiera mínimamente por el hecho de que hubiera una corriente de éter en contra.
La situación era grave, ya que se había producido un choque evidente entre la empiria y la teoría, entre el electromagnetismo, que predecía un arrastre de éter, y la experimentación, que no lo encontraba. Uno de esos choques que se arreglan con emparches que no convencen demasiado a nadie, mientras crecen el malestar y el desasosiego. La física entraba en un atolladero y en una zona de inestabilidad.
El experimento de Michelson y Morley, además de poner en entredicho una teoría maravillosa como el electromagnetismo, causó sorpresa, una enorme sorpresa. Y para percibir la magnitud, vale la pena intentar la analogía, tan distante de la metáfora, que alimenta a la poesía o a la narración, que estructura la vida humana y la historia. La analogía tiene contactos —tenues y distinguidos— con la alegoría (esa derivación dudosa del arte) y el panfleto (ese producto tantas veces necesario de la literatura).
Un automóvil se detiene a cargar nafta en una estación de servicio y en un día perfectamente calmo; ni una brizna de hierba se conmueve, ni una brisa turba el enorme océano de aire en reposo que rodea al pacífico mundo de los viajeros, que por la radio escuchan, aquietados, un coral del infinito e inagotable Juan Sebastián Bach. Terminada la faena, el auto arranca y alcanza la nada prudente velocidad de ciento cincuenta kilómetros por hora en la autopista.
Naturalmente, dentro del automóvil, no habrá experimento mecánico alguno que demuestre el movimiento una vez que se alcance una velocidad estable y los objetos de adentro del automóvil permanecen (para los viajeros) en absoluto reposo; el libro sobre las rodillas, la moneda que se tira al aire y se recoge, mientras atraviesan el océano de aire en reposo que los rodea.
Pero todos saben que apenas intenten un experimento electromagnético, esto es, un experimento que se desarrolle en el aire que se desplaza a ciento cincuenta kilómetros por hora hacia atrás —y que en la analogía hace las veces de campo electromagnético—, podrán darse cuenta de que el coche está en movimiento: basta sacar una mano por la ventanilla y comprobar cómo el viento la golpea.
Pero hete aquí que al sacar la mano por la ventanilla en ese mundo electromagnético, no se siente ninguna corriente de aire: el aire está tan en reposo como cuando el auto se encontraba detenido en la estación de servicio. Y si se abren las ventanillas, no habrá corriente alguna que haga volar los papeles del interior, o que modifique las cosas, o que haga que el sonido se propague en el aire dentro del coche de una manera diferente. Y lo mismo ocurre con todos los autos que circulan por la autopista: sin importar la velocidad a la que se muevan, o que estén detenidos al costado, quien saque una mano por la ventanilla o la abra encontrará que el aire externo está en reposo.
Para Michelson y Morley y el electromagnetismo de entonces, la Tierra era el automóvil que recorría a toda velocidad un mar de éter en reposo, y cuando los dos físicos sacaron la mano con sus aparatos, encontraron que el éter estaba tan en reposo como si la Tierra estuviera quieta, por lo cual era incapaz de modificar el comportamiento de un rayo de luz.
Nadie debía inquietarse porque se encontrara el asunto extraño, incomprensible y desconcertante: efectivamente, parecía urgente encontrar alguna solución. En este sentido, ya les conté la propuesta de Lorentz y Fitzgerald, quienes imaginaron que, con el movimiento, las distancias se contraen y los tiempos se dilatan. Aceptando esas extrañas propiedades del tiempo y el espacio y haciendo los cálculos apropiados, se entendía por qué el experimento de Michelson-Morley no había revelado ningún retraso en el rayo de luz, ya que los dos experimentadores norteamericanos no habían tenido en cuenta la contracción de los brazos de su aparato en la dirección del movimiento.
Pero la explicación tenía un punto flojo: ¿por qué se van a contraer los cuerpos con el movimiento? ¡Si no hay ninguna razón para que lo hagan! En realidad, era una solución de compromiso, una transacción ad hoc, que dejaba a salvo el éter, el electromagnetismo, el rayo de luz que no se retrasaba y la predicción de que se retrasaría. Arreglaba las cosas, pero al costo de un dolor de cabeza. Por primera vez se habían tocado el espacio y el tiempo, esos dioses que reinaban desde la época de Newton, y que parecían intocables. Era un poco chapucero, pero el daño estaba hecho.
A fines del siglo XIX, Occidente en general se aproximaba lenta pero firmemente a una seria crisis, no solamente en la física sino también en el nivel político y cultural: la paz armada y la competencia capitalista entre las potencias europeas desembocarían en la guerra del 14 y el ascenso del socialismo y el movimiento obrero en las revoluciones rusas; la pintura se desprendía de la forma, enfilaba hacia el cubismo y, más allá, la abstracción; la música ensayaba disonancias; la literatura iniciaba el camino que la apartaría del naturalismo y desembocaría en el fluir de la conciencia de Proust, Woolf y Joyce; las matemáticas sufrían los rigores de la teoría de conjuntos, que sacudirían la filosofía y que rematarían en el Círculo de Viena y en el positivismo lógico.
La física, que en el siglo XIX se jactaba de poder explicar todo lo existente, por su parte, estaba en un brete bastante serio. Ya contamos los problemas que había traído el electromagnetismo de Maxwell, el conflicto del éter y el desastre de la experiencia de Michelson y Morley. Pero no era el único frente de tormenta: hacia fines del siglo XIX se había profundizado la investigación en el terreno del átomo; primero los rayos X y luego la radiactividad ofrecían avalanchas de datos sin una teoría comprensiva. En el año 1900, Max Planck había propuesto una explicación del fenómeno de la radiación del cuerpo negro (un problema heredado del siglo XIX) que contenía una hipótesis novedosa y sobre todo herética (cuyos alcances el mismo Planck estaba lejos de imaginar). Planck suponía que la energía era emitida de manera discreta, en «paquetes», o «cuantos» de energía, es decir, rompiendo el baluarte de la continuidad que ostentaba hasta entonces el concepto de energía. Eso, en 1900.
En 1903 ingresó en la oficina de patentes de Berna como perito de tercera clase un muchacho de 24 años y de nombre Albert Einstein (1879-1955). Había nacido en Ulm y tenía dos años cuando Michelson iniciaba su seguidilla de experimentos sobre el éter y la luz. Estaba terminando su doctorado en Física y se dedicaba a reflexionar sobre las cuestiones que preocupaban a los físicos de aquel entonces: el éter, el movimiento absoluto, las propuestas de Planck, el movimiento browniano. No había sido, hasta el momento, un estudiante especialmente destacado, pero sin embargo fue, al decir de sus jefes, un buen empleado, que en los intersticios del trabajo se dedicó a pensar en la física del momento. Así son las cosas.
Desde la cómoda perspectiva que da el tiempo, parecería que se preparaba para el año 1905, crucial en la historia de la ciencia del siglo XX.

§. El año milagroso de 1905
Ese annus mirabilis, Einstein publicó cinco trabajos en los Annalen der Physik. El primero, recibido por la revista el 18 de marzo de 1905, tomaba la teoría recientemente formulada por Planck sobre los cuantos de energía y la extendía a la luz. Sobre ese trabajo descansa toda la mecánica cuántica y toda la física atómica de la primera mitad del siglo XX, de la cual ya nos ocuparemos, y fue este trabajo el que le valió el Premio Nobel que habría de recibir en 1921.
El segundo (fines de abril) se llamaba «Una nueva determinación sobre las dimensiones moleculares» y era su disertación doctoral sobre la determinación de la cantidad de moléculas de azúcar en un cierto volumen de agua y el tamaño de las moléculas.
El tercero (principios de mayo) enfrentaba problemas que eran una herencia del siglo XIX: el movimiento browniano. Einstein lo cerraba de una vez por todas y predecía, entre otras cosas, que el movimiento errático de las partículas suspendidas en el agua se debía al golpeteo de miles de moléculas (de agua) y debía poder observarse en un microscopio. Para muchos fue este trabajo el que convenció a todo el mundo de la existencia efectiva de átomos y moléculas, un tema que se discutía desde los tiempos de Dalton.

Neptuno: la posibilidad de un planeta
La postulación de un planeta paraexplicar una anomalía en las mediciones astronómicas había tenido un célebrey exitoso antecedente. Recordarán que en 1781 William Herschel, telescopiomediante, descubrió el planeta Urano. El problema es que ya en las primerasdécadas del siglo XIX estaba claro que algo raro pasaba con este nuevoprotagonista de la novela astronómica: en 1832 George Biddell Airy se dirigióa la British Association for the Advancement of Science (BAAS) para admitirque no parecía haber ninguna órbita elíptica que pudiera predecir o describirlos movimientos efectivamente visibles del nuevo planeta.
Por ese entonces, la astronomía ya habíaalcanzado una precisión bastante aceptable y se había convertido en unaciencia focalizada en el Sistema Solar, cuya principal tarea era fijar lascoordenadas de los cuerpos celestes basándose en la Gran Ley que,supuestamente, lo explicaba todo: la gravitación universal de Newton.Estábamos en esos momentos que, recordando un poco expresiones anteriores,podemos llamar de «exploración del territorio»: con el mapa trazado, setrataba de sistematizar los conocimientos de áreas específicas, conocimientosque resultaban en cierta medida predecibles y esperables. Y de repenteaparecía un planeta cuyo vagabundeo resultaba, por lo menos para los datosconocidos en el momento, inexplicable.
Era desesperante: la astronomía era laCiencia de las ciencias, pero algo no encajaba. Para solucionar elinconveniente hubo dos hipótesis: una, que la ley de gravitación actuaba demanera rara a la enorme distancia a la que quedaba Urano; la otra, que debíahaber algo todavía no observado que, atrayendo a Urano con la exacta relacióndescubierta por Newton, modificaba su órbita.
Fue con esta segunda hipótesis con laque trabajó Jean Joseph Leverrier (1811-1877). Instigado por el director delObservatorio de París, comenzó a examinar la influencia mutua de los planetasen sus órbitas y logró trazar un mapa impresionante del sistema solar con susrespectivos movimientos, lo cual ya le habría valido fama universal.
Pero en verdad es más famoso porque, ensu minucioso estudio, corroboró que la órbita de Urano no era como la que sedesprendía del conjunto de las ecuaciones de Kepler-Newton. Sin desplomarsefrente a la abrumadora empiria, que le tiende trampas incluso al más atento,Leverrier supuso que había un planeta aún no descubierto que era elresponsable de la atracción que desviaba a Urano de su órbita y presentó, enjunio de 1846, un trabajo en el que predecía su posición exacta. Tres mesesdespués, Johann Galle (1812-1910) examinó esa porción de los cielos yencontró el planeta de Leverrier.
Al mismo tiempo, pero independientementede Leverrier, John Couch Adams realizó los mismos cálculos, y también detectóteóricamente la presencia de Neptuno, aunque con mayor error que Leverrier.De todos modos, el nombre de Adams también se asocia al descubrimiento deNeptuno.

El cuarto (fin de junio) abordaba el problema planteado por el experimento de Michelson y Morley, aunque sus autores no eran citados para nada en el trabajo, y tenía un título en apariencia abstruso: «Sobre la electrodinámica de los cuerpos en movimiento». En la historia y la ciencia quedaría con un nombre mucho más sonoro y elocuente: Teoría de la Relatividad.
En su trabajo, Einstein enfrentaba los problemas del movimiento absoluto, el electromagnetismo y sus derivados con una solución original y una visión del mundo radicalmente distinta de la que había reinado hasta entonces.
Del quinto nos ocuparemos un poco más adelante.

§. La Teoría de la Relatividad Especial
Durante esos años de preparación, Einstein había reflexionado cuidadosamente sobre los conceptos corrientes de espacio y tiempo y había llegado a la conclusión de que era necesario revisarlos.
Pero reformar las ideas sobre el espacio y el tiempo era iniciar una revolución conceptual (de la misma manera que revisar las ideas de espacio y tiempo medievales había llevado a la construcción de la ciencia moderna). El espacio físico y el tiempo matemático newtonianos presuponían que existían intervalos espaciales, lapsos temporales, masas y energías idénticos para todos los observadores («objetivos», si se quiere): existía un reloj que daba la hora universal; un segundo era un segundo y un metro era un metro, en cualquier lugar y momento del universo. El espacio, por su parte, estaba uniformemente lleno de éter inmóvil, en reposo absoluto, y dentro del espacio sucedían los fenómenos.
Espacio, tiempo, masa y energía por un lado, previos a los fenómenos, que eran independientes de ellos: era éste el escenario epistemológico y metafísico que había permitido construir el magnífico edificio de la física y dar cuenta de todos los eventos conocidos (aunque no de la falta de «arrastre de éter» en el experimento de Michelson y Morley). Tampoco, en realidad, de un desconcertante comportamiento del planeta Mercurio: su perihelio —el punto de su órbita más cercano al Sol— se desplazaba 42 segundos de arco por siglo, un desplazamiento que no surgía de las ecuaciones de Newton. Durante un tiempo se especuló con la existencia de un planeta entre Mercurio y el Sol al que incluso se puso nombre, Vulcano, que, con su gravitación, era el responsable del movimiento del perihelio. Pero a diferencia de Neptuno (del que les hablo en el recuadro anterior) nunca se lo encontró. De cualquier manera, eran fenómenos laterales.
Einstein barre este plácido y hasta cierto punto seguro paisaje tan bien establecido y al que dos siglos de funcionamiento no habían logrado desgastar. Rompe con la idea de un tiempo único y un espacio único: no hay un reloj idéntico para todos los observadores, que serán incapaces de ponerse de acuerdo sobre la marcha de los relojes, las duraciones de tiempo y las distancias: cada observador tendrá su reloj y su regla de medir y no valen más unas que otras. El espacio y el tiempo empiezan a estar atados a los fenómenos y a depender de ellos.
Veamos las cosas con algunos ejemplos.
Imaginemos un tren que se mueve con movimiento rectilíneo y uniforme, una persona adentro de ese tren y un jefe de estación que observa, obviamente desde la estación, lo que ocurre allí. Imaginemos ahora, también, que todavía no se ha inventado el sistema de apertura automática de puertas y que, por lo tanto, la tarea del hombre que está parado en uno de los vagones, exactamente en el medio, es enviar dos rayos de luz (uno a su derecha y uno a su izquierda) para que los reciban unos detectores que hay en las puertas delantera y trasera y se abran.

045.jpg

Miren, en la imagen, lo que ocurre a la izquierda: el hombre parado en el medio arroja dos haces de luz, que viajan a 300 mil kilómetros por segundo, de manera simultánea. De modo que las puertas, para él, abren exactamente al mismo tiempo: la distancia que recorre la luz, que fue liberada en el mismo instante hacia la derecha y hacia la izquierda, es la misma y, como la velocidad es la misma también, tarda el mismo tiempo. Si el vagón midiera 600 mil kilómetros de largo, diríamos que tanto la puerta de adelante como la puerta de atrás se abren al pasar un segundo de que nuestro hombre mande sus señales.
Ahora bien: ¿es esto lo mismo que percibe el jefe de estación? Por más raro que suene, no. Como la velocidad de la luz es absoluta (o sea, es la misma para él que para el pasajero) y no se ve afectada por el movimiento del tren, lo que ve nuestro nuevo observador es que la puerta trasera se mueve hacia el pulso de luz, mientras que la delantera se aleja de él. Miren ahora la misma figura, pero a la derecha: para él, entonces, la puerta trasera se abre antes que la puerta delantera, porque la distancia que recorre la luz para llegar allí es menor. Esto quiere decir que la apertura de las puertas, que es simultánea para el pasajero, no lo es para el jefe de estación. Lo cual muestra que algo raro pasa con el tiempo…
Porque supongamos, ahora, que el jefe de estación le plantea un desafío al pasajero. Le pide que, sin reloj, mida la duración exacta de un segundo. Imaginemos que el vagón mide, desde donde se envía el pulso de luz hasta el techo, 150 mil kilómetros. Al pasajero se le ocurre una idea fenomenal: pone un espejo arriba y envía un haz de luz hacia allí, de modo que tarda exactamente un segundo en subir y bajar (recuerden: como el tren está en movimiento rectilíneo y uniforme, para quien está adentro es exactamente lo mismo que si estuviera en reposo). Hasta acá todo está bien: si no hay errores de medición —y demos por sentado que no los hay— el pasajero ha medido efectivamente un segundo.
Y sin embargo, para el jefe de estación la luz recorre un camino más largo, como pueden ver en la siguiente imagen y, por ende, tardará más en subir y bajar. Lo cual significa que el segundo del pasajero, medido por el jefe de estación, es más largo. Esto significa que el flujo del tiempo se modifica con el movimiento.

046.jpg

¿Quién tiene razón? En realidad, los dos. Simplemente ocurre que los intervalos de tiempo no son absolutos y se modifican con el movimiento.
Sólo habrán de coincidir en una cosa los observadores: el valor de la velocidad de la luz en el vacío, idéntico para todos.
La luz se propaga siempre en el espacio vacío con una velocidad que es independiente del cuerpo emisor.
La luz siempre viaja a la misma velocidad en el vacío y así la miden todos los observadores, independientemente de sus diferentes sistemas de referencia inerciales (en movimiento relativo y uniforme). Era mucho decir, sobre todo si se lleva la cosa a la empiria: si alguien va corriendo a 200 mil km/s al lado de un rayo de luz que se mueve a 300 mil km/s, no lo ve moverse a 100 mil (como ocurriría en un marco newtoniano), sino a 300 mil. Y en el improbable caso de que alguien pudiera correr a la misma velocidad de la luz, no la vería quieta, sino moviéndose ¡también a 300 mil km/s!
Pero el principio de constancia de la velocidad de la luz implica abandonar la idea de un tiempo único. Basándose en la constancia de la velocidad de la luz, Einstein demuestra la relatividad del tiempo, del espacio, de la masa y de la simultaneidad.

§. El principio de relatividad
Decía Einstein:
Los infructuosos intentos de detectar un movimiento respecto del éter lumínico llevan a la conjetura de que ni los fenómenos de la mecánica ni los de la electrodinámica (el electromagnetismo) tienen propiedades que correspondan al concepto de reposo absoluto. Elevaremos esta conjetura (cuyo contenido será denominado en adelante «el principio de relatividad») al estatus de un postulado.
Es decir, ningún experimento, ni mecánico, ni electromagnético, ni óptico (ni de ningún tipo) permite distinguir entre el reposo y el movimiento (rectilíneo y uniforme). Einstein incorpora así el electromagnetismo al principio de Galileo. Las leyes de la física (y no sólo las de la mecánica) son idénticas y tienen la misma formulación en todos los sistemas de referencia. Lo cual vale para las ecuaciones de Maxwell y para toda otra ley. Por eso el experimento de Michelson y Morley no había detectado ningún viento de éter, ni retraso en los rayos de luz: el principio de relatividad lo prohibía.
En cierta forma, la Teoría de la Relatividad establece que los movimientos son relativos, pero las leyes (y la velocidad de la luz en el vacío) son absolutas. Es casi una teoría del absoluto más que una teoría de lo relativo. Lo que ocurre es que el postulado de invariancia de la velocidad de la luz transforma en relativas otras magnitudes: los intervalos de tiempo, los intervalos espaciales y la masa. El espacio y el tiempo se mezclan en un continuo espaciotemporal de cuatro dimensiones, en el que el valor de metros y segundos depende de los sistemas de referencia.
Piénsese en la obra de demolición de este muchacho: ha destruido el espacio y el tiempo absolutos de Newton, ha extendido los principios de la relatividad a todos los fenómenos y ha establecido —eso sí— la velocidad de la luz como absoluta e idéntica para todos los observadores y como la velocidad tope a la que se puede mover cualquier objeto material o que transporte información.

§. Equivalencia de la masa y la energía
Y no conforme con todo eso, en septiembre de ese mismo año Einstein presentó un nuevo trabajo (el quinto de esa gloriosa seguidilla de las que les hablé al principio) donde abordaba el problema de la materia y la energía en el marco de la relatividad. « ¿La inercia de un cuerpo depende de su contenido de energía?», se preguntaba. Del mismo modo que el espacio y el tiempo se combinan en un continuo espacio-tiempo, lo que percibimos como materia o como energía son distintos aspectos de un mismo fenómeno, de un continuo de materia y energía, y su equivalencia está dada por la famosa fórmula:

e = mc2

Cuando estalla una bomba atómica, parte de la masa de los átomos de uranio que se fisionan se transforma en energía, en la muchísima energía que se esconde en un poquito de materia: si un kilo de masa (aproximadamente un litro de agua) se transformara por completo en energía, alcanzaría para mantener encendidas diez bombitas de cien vatios durante un millón de años.
Así, la teoría especial de la relatividad modifica la ontología del mundo newtoniano que presentaba un escenario: el tiempo absoluto y matemático fluyendo sobre el espacio absolutamente inmóvil y dentro de ese escenario, la materia y la energía, como fenómenos diferenciados. Para la Teoría de la Relatividad, la masa no es sino una forma más de la energía. Einstein destruyó el espacio y el tiempo absolutos y también la separación entre materia y energía. La revolución relativista es una revolución ontológica, ya que cambia la clase de objetos que existen en el mundo y que son pasibles de reflexión científica. Era un nuevo sacudón, probablemente sólo comparable al que había producido Newton 200 años antes.
¿Y el éter?
Eso, ¿y el éter? Su sentencia de muerte fue pronunciada tajantemente por Albert Einstein en «Sobre la electrodinámica de los cuerpos en movimiento»:
La introducción de un éter lumínico se mostrará superflua, puesto que la idea que se va a introducir aquí no requiere de un espacio en reposo absoluto dotado de propiedades especiales.
Después de haber trabajado esforzadamente durante dos mil años, llenando el espacio y manteniéndose inmóvil (en reposo absoluto), siendo soporte de todo aquello que se desconocía, el éter fue relegado al desván de las sustancias que nunca existieron.

§. Apologías y rechazos
Salvo por un puñado de físicos, la Teoría de la Relatividad no fue aceptada de inmediato. Era demasiado audaz, demasiado imaginativa, rompía demasiado con conceptos bien establecidos, en especial con la sacralidad del tiempo y el espacio, esas intuiciones puras del entendimiento que Newton había elevado al más alto sitial: el espacio inmóvil como marco general y escenario global dentro del cual suceden los fenómenos, y donde una distancia siempre es la misma distancia. Por otro lado, en ese espacio transcurría también un tiempo absoluto, matemático y universal; tanto el espacio como el tiempo eran entidades independientes de los fenómenos y resultaba inconcebible que las cosas fueran de otra manera.
Es ahí donde la Teoría de la Relatividad introduce una ruptura metafísica: según Einstein, el espacio y el tiempo se amalgaman en algo distinto, el «espacio-tiempo», que depende de los observadores: dos sucesos que son simultáneos para uno de ellos pueden no serlo para el otro, y lo mismo ocurre con las duraciones y longitudes: un segundo no necesariamente dura lo mismo para dos observadores diferentes. El reloj que da la hora para todo el universo ha dejado de existir. Situación que se agudizará en 1915 con la Teoría General de la Relatividad (básicamente una teoría de la gravitación), donde la geometría misma del espacio-tiempo depende de la estructura de los fenómenos, en especial de la distribución de la masa y la energía, capaz de curvar el espacio y hacer que el tiempo modifique su transcurrir.
El lugar del absoluto, a partir de 1905, retrocede una vez más (como lo venía haciendo desde los tiempos de Copérnico) y se refugia en dos recovecos. Uno, la velocidad de la luz, que a diferencia de los segundos y los metros es exactamente la misma para todos los observadores, y el otro, las leyes de la naturaleza, que también tienen exactamente la misma forma para todos los observadores.
Pero la Relatividad Especial de 1905 no tenía correlato experimental posible (ya que los efectos relativistas sólo son medibles a velocidades muy altas), y no pasaba de ser una apuesta teórica, aunque hoy en día la dilatación temporal ya se ha medido y comprobado experimentalmente en laboratorios y ciclotrones, y se utiliza para que los GPS actúen con precisión.

§. La relatividad se vuelve general
La Teoría de la Gravitación Universal de Newton tenía un único inconveniente: la acción a distancia. La fuerza de gravedad actuaba de manera instantánea, atravesando el vacío. Emanaba del Sol, de la Tierra o de cualquier objeto, y aferraba los cuerpos sin intermediarios. ¿Cómo era posible? Los cartesianos no podían aceptar tal cosa y Leibniz se quejó de que en la construcción de una ciencia mecánica se introdujera lo que él llamaba contrabando metafísico. La Relatividad Especial, por su parte, estaba restringida a los movimientos rectilíneos y uniformes. Pero a partir de su publicación, Einstein se dedicó a trabajar para extender el principio de relatividad a todos los movimientos (acelerados, rotatorios) y a los campos gravitatorios.
La gravitación era todo un problema para la Relatividad Especial, ya que la imposición de la velocidad de la luz como velocidad tope chocaba con la idea de la gravitación newtoniana que actuaba de manera instantánea (es decir, con velocidad infinita), en una flagrante violación del principio de relatividad.
Einstein necesitó diez años de tentativas y fracasos. Recién en 1916 publicó la Teoría de la Relatividad General, bastante más compleja que la Teoría Especial, que extiende el principio de relatividad a todos los sistemas de referencia.
Y en la que, además, se formula una nueva teoría de la gravitación.
Si la gravitación newtoniana era una fuerza que emanaba de los cuerpos y se propagaba instantáneamente, la gravitación que surge de la Teoría General es una deformación del espacio y el tiempo por efecto de las masas: el Sol, por ejemplo, curva y modifica el espacio y el tiempo a su alrededor, de la misma forma que una piedra situada en el centro curvaría un mantel sostenido sólo desde las puntas, haciendo que todo objeto caiga hacia la hondonada central como si fuera atraído por una fuerza que emanara de ella.
Si, de repente, apareciera una masa de la nada, en la teoría newtoniana también aparecería una fuerza de gravedad que instantáneamente llegaría hasta los confines del universo; según la Teoría General, al surgir una masa se altera la geometría del espacio-tiempo, se modifican las distancias y los intervalos de tiempo alrededor de esa masa y las modificaciones se expanden con la velocidad de la luz.
Las masas alteran el espacio y el transcurrir del tiempo: los segundos se vuelven más largos en presencia de un campo gravitatorio; un reloj en la superficie del Sol marcha más despacio que en la Tierra, y, en el borde de un agujero negro, se detendría.
Otra vez era mucho decir. Y, para colmo, todo esto todavía tenía que ser comprobado.

§. Nuevamente, un eclipse
Tal como había ocurrido con Newton y el cometa Halley, fue un fenómeno celeste el que terminó por darle la razón a Einstein. Hacia 1916, ambas Teorías de la Relatividad (tanto la general como la especial) eran «teoría pura», no proponían ningún experimento que pudiera comprobar empíricamente lo que estaban diciendo, más allá de que solucionaran los problemas derivados del experimento de Michelson-Morley y, de paso, el del perihelio de Mercurio. Al fin y al cabo, los efectos relativistas sólo se perciben a velocidades muy próximas a la de la luz, que, como ya dijimos, en aquella época era imposible de alcanzar experimentalmente. Un coche que corre a doscientos kilómetros por hora se «contrae» menos de una milmillonésima de milímetro. Para que la longitud de un cuerpo se reduzca a la mitad, debe moverse a nada menos que… ¡262 mil kilómetros por segundo!
Pero había una posibilidad: puesto que las masas modifican la curvatura del espacio-tiempo, y el espacio se curva alrededor del Sol, la luz debe seguir trayectorias curvilíneas.
El rayo de luz de una estrella que pasa junto al Sol sufre una desviación de 0,83 segundo de arco, y la distancia angular de la estrella respecto del Sol debe estar aumentada en esta cantidad. Puesto que las estrellas fijas en regiones del cielo próximas al Sol son visibles durante los eclipses totales de Sol, esta consecuencia de la teoría puede compararse con lo observado en la experiencia.
Con esa sentencia, la Teoría General hacía una predicción importante: si las masas modifican el espacio y el tiempo, las rectas que pasan cerca de grandes masas tienen que curvarse y los objetos deberían verse desplazados.
Es lo que tendría que ocurrir con la luz proveniente de estrellas cercanas al Sol, pero el fenómeno no se podía observar bien justamente porque el resplandor solar lo impedía. Sólo se podría hacer la experiencia durante un eclipse. Y así fue: se aprovechó el eclipse total del 29 de mayo de 1919 en el que dos expediciones británicas fotografiaron las estrellas próximas al Sol desde una isla al oeste de África y desde Brasil.
El 6 de noviembre, en Londres, se anunció que las observaciones confirmaban la predicción de Einstein. Al día siguiente, el Times de esa ciudad publicó en primera plana: «Revolución en la ciencia. Nueva teoría del universo. Las ideas de Newton destronadas». El 10 de noviembre se publicaron titulares en The New York Times: «La luz se curva. Triunfa la teoría de Einstein». De la noche a la mañana, Einstein se convirtió en una celebridad mundial.
Pero hay algo más: las dos teorías, la especial y la general, le permitieron a Einstein imaginar un modelo global del universo. En contraposición al cosmos newtoniano infinito y abierto, imaginó un universo finito y cerrado sobre sí mismo. Finalmente, la cosa no resultó ser así, pero fue la primera reformulación a fondo desde la revolución científica del siglo XVII.
Y todo había empezado en 1905. Verdaderamente, se trató de un año milagroso. Como un mago, Einstein sacó de la galera al siglo XX.

§. El significado de la relatividad. ¿Fue un cambio de paradigma?
El estudio y la resolución de las ecuaciones de la Relatividad General muy pronto mostraron que daban cuenta del misterioso movimiento del perihelio de Mercurio, que se convertía así en una prueba más. Desde entonces, las confirmaciones han sido múltiples: el alargamiento de los intervalos de tiempo y el aumento de las masas se han verificado en experimentos diversos; la equivalencia de la masa y la energía, en las bombas atómicas y las centrales nucleares; el desvío de la luz por galaxias, en el curioso fenómeno de las «lentes gravitatorias», y en el más familiar GPS.
La introducción de la relatividad también permitió establecer mejores modelos del átomo; la concepción relativista del mundo hizo pie en el fondo de la física (y de la filosofía).
Sea como fuere, la Teoría de la Relatividad, a pesar de no concordar con la mecánica newtoniana, no implica una ruptura tan grande como a veces suele creerse: se puede perfectamente entender como un refinamiento, como si Einstein le hubiera sacado un decimal más a la realidad.
De hecho, para velocidades bajas (típicas del mundo corriente, y aun de los viajes a la Luna) no son necesarias las correcciones relativistas, que sólo aparecen cuando las velocidades se aproximan a la de la luz (como ocurre en los grandes aceleradores de partículas, por ejemplo). Con Newton, se puede llegar a la Luna sin problemas.
Einstein fue, probablemente, el científico más importante del siglo XX y se convirtió prácticamente en el arquetipo del científico y del genio. La Teoría de la Relatividad es mucho más que una teoría: es una verdadera cosmovisión. El mundo de la física sintió el impacto: era la época de los grandes descubrimientos y la revolución relativista complementaba la otra revolución que recién empezaba: el descubrimiento del microcosmos atómico y nuclear.
La obra de Einstein está en la base misma de la física y de la ideología de nuestro tiempo. Fue la fórmula de Einstein sobre la equivalencia de la masa y la energía la que inspiró a Lise Meitner (1878-1968) para descifrar el misterio de la fisión del uranio. Fue el efecto fotoeléctrico descripto por Einstein en 1905 el que puso en marcha las ruedas de la mecánica cuántica. Y fue la Teoría de la Relatividad General la que explicó la forma global del universo y permitió descubrir y en muchos casos prever fenómenos como la fuga de las galaxias, la expansión del universo, las lentes gravitatorias y los agujeros negros.
Y todo esto ocurría en las agitadas primeras dos décadas del agitado siglo XX. En una Europa en pie de guerra, que habría de vivir los horrores del nazismo (que, por su condición de judío, obligaron a Einstein a emigrar a Estados Unidos), el estalinismo y de las bombas atómicas, Einstein no se limitó a producir su revolución física (lo cual, dicho sea de paso, no habría sido poca cosa), sino que reflexionó e intervino sobre los problemas más acuciantes de la época.

§. Una vuelta de tuerca sobre el vacío
La célebre fórmula de Einstein (E = mc2) introdujo una vuelta más a la vieja historia del vacío. Recuerden que durante siglos predominó la teoría del horror vacui, que más castizamente puede enunciarse como «la naturaleza le tiene horror al vacío», puntualmente creída durante dos mil años. Los «horrorvacuistas» argüían que la naturaleza se encargaba de impedir que hubiera resquicios desprovistos de algo que los llenara: el vacío era absolutamente imposible. Así lo creyó Aristóteles, así lo creyó la Edad Media, y así pensaba, cartesianamente, Descartes, que identificaba materia y extensión y concluía que por lo tanto no se podía concebir espacio sin materia que lo ocupara.
Ya sabemos que la imposibilidad del vacío no sobrevivió al Renacimiento. El barómetro de Torricelli mostró claramente que podía haber vacío y de a poco la aceptación de su existencia fue ganando terreno. Lo cierto es que el nuevo estatus ontológico del vacío encajaba perfectamente dentro de la atmósfera intelectual del siglo XVII, dentro del nuevo universo que estaba en ciernes y que alcanzaría su culminación en los Principia de Newton: un espacio geométrico que existía per se, hubiera materia para llenarlo o no. El horror al vacío fue prolijamente relegado al museo de antigüedades, y hoy ya nadie cree semejante cosa. La imagen actual que se tiene del universo es exactamente la opuesta a la del «espacio lleno» de Aristóteles y los físicos del plenum: hoy sabemos que el universo es, casi en su totalidad, espacio vacío.
Pero vacío de materia, no de radiación o energía. Y como a partir de la Teoría de la Relatividad sabemos que materia y energía son equivalentes, la pregunta por la existencia del vacío adquiere una nueva luz. ¿Podrá existir espacio vacío tanto de materia como de energía? Veamos.
Tomemos una caja y saquemos toda la materia. ¿Quedará completamente vacía? No, porque la atraviesan ondas electromagnéticas, que poseen energía. Supongamos que blindamos nuestra caja contra toda forma de radiación. ¿Ahora quedará vacía? No, porque todavía están los campos gravitatorios, que actúan dentro de la caja y que también tienen energía. Y no hay blindaje posible contra los campos gravitatorios que, al tener energía, tienen por lo tanto materia.
Estas objeciones relativistas a la existencia del vacío absoluto se combinan con otras provenientes de la mecánica cuántica, y aun de otras curiosidades clásicas como el efecto Casimir. Naturalmente, nada de esto implica una restauración del apolillado «horror al vacío». Indica, sí, que la idea de «vacío absoluto» fue afectada por el gran huracán que modificó todas las ideas que se tenían sobre el espacio, el tiempo y la materia.
¿Por qué iba a salvarse el vacío?

§. Balance
La actividad científica de Einstein fue escasa luego de la formulación de la Teoría de la Relatividad General. Se podría decir que, en realidad, eran tiempos de intensa agitación bélica, donde se estaba definiendo el mapa y el futuro del mundo. Lo cierto es que, a partir de la Relatividad General, Einstein había tomado, en el campo de la física, un camino sin salida: la teoría del campo unificado que pretendía, justamente, unificar la mecánica, la gravitación y el electromagnetismo. Aunque en ese momento podía parecer razonable, más tarde se probó que no lo era, en especial porque se descubrieron otras dos fuerzas de la naturaleza (la nuclear fuerte y la débil).
Otro de los puntos que destacan la labor de Einstein post-Relatividad General fue su polémica con Bohr sobre la mecánica cuántica y el principio de incertidumbre, de la cual tendremos que ocuparnos en alguno de los próximos capítulos. Einstein nunca creyó del todo en esas postulaciones e ideó experimentos mentales que, una y otra vez, eran refutados por Bohr desde lo que se llamó la «interpretación de Copenhague» de la mecánica cuántica. Esta última prescindía de la naturaleza de los fenómenos cuánticos y ponía el acento en el éxito del modelo explicativo (que, verdaderamente, describía los fenómenos atómicos a la perfección). De esa discusión se desprende la famosa frase einsteniana de que «Dios no juega a los dados» y la sugerencia de Bohr: «Einstein: deja de decirle a Dios lo que debe hacer (con sus dados)».
En el campo político, Einstein siguió proclamando su pacifismo en medio de la Guerra Fría. Se ha vuelto ya célebre su premonitoria frase: «No sé con qué se peleará la Tercera Guerra Mundial, pero sé que la cuarta se hará con palos y piedras». Entre otras cosas, también rechazó el ofrecimiento que se le hizo de ser Presidente del recién fundado Estado de Israel.
La salud de Einstein se fue deteriorando hacia el año 1950. Murió pacíficamente el 18 de abril de 1955, en Princeton, New Jersey, Estados Unidos.

Interludio:
Milonga relativista

Milonga relativista,
milonguita pasajera.
Que se compone en Almagro
y se canta en Balvanera.
Hubo un malevo en Retiro
que sin fuerza ni jactancia
chamuyaba al malevaje
pa’ combatir su inorancia,
y esplicaba los conceptos
del tiempo y de la distancia.
«Si ustedes quieren saber
qué pasa en nuestra ciudá
hace falta la teoría
de la relatividá.
Todo es relativo a todo,
como lo sabe el más bruto,
el tiempo, el facón y el tango
están muy relacionados
con el espacio asoluto.
El tiempo que todos piensan
que es uniforme y perfecto,
que es lo igual por eselencia,
que anda siempre al mismo paso
y con la misma paciencia,
transcurre distinto en cada
sistema de referencia».
«¿Y el éter?», preguntó alguien.
«No hay éter», le contestó.
«Lo creían los antiguos
pero el éter se acabó.
Con la relatividá
uno entiende el universo
y todo queda muy claro
sin dar vueltas y sin verso.
Las estrellas, las galaxias,
la materia y la energía
se someten al poder
de esa eselente teoría.
Las lentes gravitatorias
sin Einstein no esistirían.
Y sin esas grandes lentes,
los que no ven bien, ¿qué harían?
Es una cosa profunda
y esencial para el malevo:
ese hombre con su mente
construyó el mundo de nuevo.
Él esplicó el universo
desde Almagro hasta Pompeya.
Estudien esa teoría,
nada funciona sin ella».
Milonga relativista,
milonguita pasajera.
Que se compone en invierno
y se olvida en primavera.

Capítulo 32
La teoría de la deriva continental y la estabilización de la geología

Si bien aún quedan muchas cosas por contar en el terreno de la física, cuyos desarrollos en el siglo XX fueron verdaderamente impresionantes, vamos a abandonar este campo por un momento para ser testigos del desarrollo de la geología a lo largo del siglo XIX, y de su estabilización en el siglo XX gracias al descubrimiento de la tectónica de placas. El camino que tuvo que transitar hasta llegar a una síntesis general, como corresponde a la geología, fue ríspido. Para seguirlo, tendremos que volver sobre nuestros pasos y retomar propuestas y teorías a las que ya nos hemos referido en otros momentos, pero que son necesarias para poder seguir el hilo del pensamiento geológico en los siglos XIX y XX.

§. Repasemos un poco
Ya lo sabemos: los hombres de la Revolución Científica se esforzaron por comprender la superficie de la Tierra, se preguntaron sobre la naturaleza de los fósiles y el origen de las montañas y también investigaron y reflexionaron sobre los fenómenos y procesos naturales que afectan a la Tierra, como los terremotos, los volcanes o la erosión. Pero el aparato bíblico seguía imponiendo un marco rígido del que resultaba difícil zafar, y dentro de ese aparato aparecía como gran protagonista el famoso Diluvio, que llevó a algunos a postular la gran teoría del océano en retirada, según la cual la Tierra había estado cubierta por un gran océano que iba dejando al descubierto la tierra firme a medida que retrocedía.
Como la teoría tenía algunos puntos débiles, uno de los cuales era que no podía explicar el origen de los volcanes, se desarrolló rápidamente la otra línea de pensamiento de la que hablamos, el plutonismo, que sostenía que el centro de la Tierra continuaba estando muy caliente y que la tierra firme no era otra cosa que roca fundida que se había abierto paso desde el mundo subterráneo y luego se había enfriado y endurecido. Para los plutonistas, no era el agua sino los volcanes y el fuego interior los que constituían la gran fuerza que mantenía las cosas en marcha. Todo esto traía aparejado una evolución en el manejo de las escalas de tiempo: la Tierra, según diversos cálculos hechos por naturalistas de la época, era muchísimo, pero muchísimo más antigua de lo que se había creído hasta entonces. El uniformismo de Lyell, que se oponía a las teorías catastrofistas y sugería que hacían falta períodos inmensos de tiempo para que el planeta hubiera llegado a ser lo que era, fue fundamental para proveer el marco en el que podría desarrollarse una teoría tan revolucionaria como la de la evolución de Charles Darwin.
Era necesario, ya para aquel entonces, proponer alguna teoría verosímil sobre el origen. Empezó entonces a circular una idea según la cual la Tierra había sido un trozo desprendido del Sol que se había ido enfriando lentamente. La teoría del enfriamiento parecía explicar muchas cosas, y en 1828 aparecieron pruebas: un especialista en botánica fósil, Adolphe Brongniart (1801-1876), mostró que en el período terciario (es el que va desde 65 a 1,8 millón de años atrás) había habido un clima mucho más benigno. Las grandes cantidades de carbón acumuladas que databan de entonces eran, para él, la evidencia de que allí, en zonas actualmente desérticas o frías, había existido una vegetación exuberante que luego se había depositado y carbonizado. El «clima benigno» significaba calor, por lo cual el hallazgo de Brongniart, según lo interpretaban algunos, apuntalaba la teoría del enfriamiento progresivo de la Tierra. (Dicho sea de paso, y aunque no tenga mucho que ver específicamente con el tema, Brongniart hizo una observación casi profética sobre la Tierra originaria: dedujo que la atmósfera tenía que haber estado cargada de dióxido de carbono —CO2— y las primeras plantas lo habían descompuesto tomando el carbono y liberando el oxígeno; era ese oxígeno liberado por las plantas el que permitió que proliferara la vida animal. Casi como —se supo después— realmente ocurrió.)
De a poco, la idea de que la Tierra había nacido como un cuerpo muy caliente y se estaba enfriando se impuso lentamente como la línea principal de pensamiento en la geología. Parecía obvio que debajo de la superficie había por lo menos una capa a muy alta temperatura: la prueba eran las erupciones en forma de lava ardiente que emanaban de las bocas de los volcanes.
Sin embargo, la teoría tenía sus inconvenientes. Uno de ellos era que distintos geólogos calculaban que, aunque el centro de la Tierra estuviera muy caliente, la cantidad de calor que llegaría a la superficie sería insignificante. En este sentido, representaba una seria objeción para quienes pensaban, como Brongniart, que el clima externo estaba relacionado en forma directa con la temperatura interna del planeta.
Seguramente por eso, porque cuando la ciencia deja de explicar ciertas cosas es la propia ciencia la que tiene que salir a buscar nuevos caminos, surgió una línea de pensamiento alternativa que negó el hecho de que la temperatura estuviera bajando desde el origen: quienes adscribieron a esta nueva teoría consideraron que efectivamente había habido una variación climática a lo largo de la historia del planeta, pero esa variación no se podía describir como un enfriamiento constante. Por el contrario, lo que había habido era una alternancia de períodos cálidos y períodos muy fríos. Estos últimos tienen un nombre famoso y una vital importancia para el desarrollo de las ciencias geológicas: las glaciaciones.

§. Las glaciaciones confirman lo que se suponía
El asunto era el siguiente: en el norte de Europa y de América del Norte parecía haber señales claras de que el paisaje había sido «tallado» por glaciares gigantescos, que habían arrastrado grandes capas de piedritas, piedras y rocas gigantescas (de varias toneladas) que provenían de otras regiones cercanas, y que no podían haber sido transportadas sino por fenómenos de proporciones realmente grandes. A la vez, había marcas relativamente claras, paralelas a la dirección de avance, dejadas en las rocas a causa de la fricción. Era un tema polémico y muchos grandes científicos de la época dudaban de la evidencia al respecto.
Pero había un elemento de prueba central: hay una diferencia bastante neta entre un valle cavado por el agua (que tiene una forma de «V» más pronunciada), y el que cava un glaciar, que es más redondeado en su base, con forma de U.
Fuera como fuere, suponer la existencia de glaciaciones, periódicas o no, exigía que se explicara qué era lo que las causaba, lo cual resultaba mucho más complicado de lo que se creía. A diferencia de tantas teorías, que andan por el mundo en la búsqueda de una buena comprobación empírica que las valide, las glaciaciones acumulaban evidencia tras evidencia y, sin embargo, su justificación continuaba siendo enigmática. Y lo sería por un buen rato: las explicaciones plausibles sobre sus causas tendrían que esperar hasta bastante entrado el siglo XX.

§. La teoría de la Tierra que se contrae
Si la teoría de las glaciaciones entraba en un impasse, la historia de la Tierra que se enfriaba seguía adelante y tenía todas las apariencias de triunfar. Había algunas pruebas que parecían indiscutibles: por ejemplo, Von Buch, discípulo de Werner, encontró evidencias de que en el centro de Francia había existido una intensa actividad volcánica en tiempos inmemoriales y creía que esto había ocurrido repetidamente a lo largo de la historia planetaria. El gran naturalista Alexander von Humboldt (1769-1859), cuya influencia permeó todo el siglo XIX (bueno, casi todo el siglo), también concluyó que la actividad volcánica había tenido una responsabilidad fundamental en la aparición de las montañas y notó que las zonas aledañas a los volcanes habían sufrido una presión ascendente que las había elevado. En un trabajo de 1829, Léonce Elie de Beaumont (1798-1874) sostenía que en tanto cualquier objeto que se enfría pierde volumen, la Tierra, al sufrir ese proceso, había formado una corteza que se quebraba y plegaba a medida que la temperatura seguía bajando; de esta manera se formaban las montañas y demás variaciones en la superficie. Uno de sus seguidores explicaba el fenómeno con una metáfora: la Tierra era como una manzana que, al secarse, va produciendo pliegues en su cáscara.
Otros pensaban en un proceso distinto. Eduard Suess (1831-1914), por ejemplo, estudiando los Alpes europeos, llegó a la nada novedosa conclusión de que efectivamente la Tierra se enfriaba y, junto con la temperatura, bajaba el ritmo de los cambios geológicos. Pero al mismo tiempo —y esto era novedoso— propuso que más comunes que los plegamientos eran las superposiciones de una «cáscara terrestre» que se había quebrado, fenómeno que había sido más o menos repentino. De acuerdo con otros geólogos, sugirió en 1861 que los continentes actuales habían sido, originariamente, uno solo (al que llamó «Gondwana»), que se había partido por el constante enfriamiento del planeta.
La idea servía perfectamente a los biólogos, que ya habían observado que existían muchas especies comunes en los distintos continentes, coincidencia muy difícil de justificar: ¿cómo podía explicarse que esos animales «universales» hubieran llegado a rincones tan alejados entre sí como Oceanía, África y América?
El continente único de Suess resolvía la cuestión con cierta elegancia, pero generaba sus serios problemas: había que dar un buen motivo, para empezar, de por qué el continente originario se había partido en pedazos. Y aunque todavía no hubiera una respuesta sensata, el nombre «Gondwana» quedó —larvadamente, mientras se desarrollaba la teoría unificadora— y aún ahora, ciento cincuenta años más tarde, sigue siendo el que utilizamos para referirnos a la masa de Tierra que luego dio origen a los continentes del Hemisferio Sur y que se había separado antes de Pangea, un supercontinente aún más grande.
Por ahí apareció otro dato: que el material del que están hechos los continentes es más liviano que el del fondo de los océanos. Fue por ello que Clarence Dutton (1841-1912) presentó un modelo en el que los continentes se movían como balsas livianas respecto de las rocas fundidas más densas que estaban bajo la superficie.
Vale decir que la teoría que indicaba que la Tierra se enfría estaba equivocada, pero no del todo: es verdad que la temperatura de la masa planetaria baja muy lentamente, pero no es cierto que eso pueda provocar una condensación suficiente como para justificar la existencia de montañas y otras formas de relieve.
En realidad, la idea coincidía con el estado de cosas del momento: si efectivamente la Tierra había empezado como un cuerpo muy caliente, no había mecanismo conocido que pudiera mantener ese calor. El propio lord Kelvin, esa especie de dios de la termodinámica que conocimos al hablar de ella, creía que el calor solar tenía que estar disminuyendo, ya que ninguna estrella podía durar más de 20 o 40 millones de años (lo cual, obviamente limitaba la antigüedad posible del planeta). Esos períodos, que en otros casos se elevaban hasta los cien millones de años, eran en cierto modo escasos para justificar la teoría de la evolución. Aun a los geólogos les resultaban cortos para acomodar sus observaciones sobre los lentos procesos de sedimentación.
Había un choque entre las escalas de tiempo que proponía la termodinámica y las que necesitaba la geología y aun la biología. Las escalas se unificarían al descubrirse, a fines del siglo XIX, la radiactividad, una fuente de energía inmensamente poderosa y durable.
Así, la geología avanzaba desordenadamente. Aquí y allá aparecían nuevos modelos, nuevas pruebas y nuevas explicaciones, pero faltaba una teoría unificadora, capaz de organizar a la geología dentro de un marco firme, como una rama de la ciencia estabilizada. Faltaba, en fin, aquello que define al pensamiento en general y al pensamiento científico en particular: la síntesis.

§. Hacia la síntesis
El siglo XX marcó el fin de la exploración del planeta por parte de los europeos, que detallaron cada rincón y levantaron mapas con los últimos detalles: el noruego Roald Amundsen visitó en 1904 las profundidades del Polo Norte y, en 1911, fue el primer hombre en pisar el Polo Sur. En 1953, Tenzig Norgay haría cumbre en el Monte Everest, el más alto del mundo. Incluso el lecho marino fue investigado hasta en sus profundidades más inaccesibles, en buena medida como un recurso de guerra para poder detectar mejor los submarinos enemigos.
A su vez, la perforación de un túnel a través de los Alpes, el Simplón, a principios del siglo XX, para comunicar Suiza e Italia (un túnel que aún se utiliza, y que en su momento fue un emprendimiento gigantesco, que parecía alcanzar los límites de la potencia humana —y en cierto modo lo hacía—) brindó una posibilidad ideal para conocer el corazón de una montaña, y se pudo observar directamente que la teoría de las capas de corteza terrestre que se amontonaban por presión lateral, como ocurriría si la Tierra se contrajera, no era cierta, sino que más bien se habían corrido o superpuesto unas sobre otras.
Por otra parte, se comprobó que la densidad de la corteza terrestre no es la misma en todas partes, sino que el material más liviano es el que forma los continentes (constituidos sobre todo por silicatos de aluminio), mientras que el más pesado es el que se junta en el lecho marino, formado por silicatos de magnesio. Los continentes, efectivamente, y como lo había propuesto Dutton en el siglo XIX, eran como balsas livianas apoyadas en un líquido más denso.
Al mismo tiempo, Arthur Holmes (1890-1965) avanzaba en la medición de la edad de la Tierra, que extendió primero a 1.600 millones de años y luego a la cifra que hoy manejamos: 4.500 millones.
Uno puede pensar que en el siglo XX la velocidad de los descubrimientos científicos y el tiempo mismo de la ciencia se aceleraron, y en verdad así lo parece, aunque esa aceleración puede ser un efecto de perspectiva: siempre parece que nuestra propia época progresa o transcurre más rápido que las anteriores.
Lo cierto es que las teorías se afinaban: los geólogos acordaron que se habían producido cuatro glaciaciones separadas por períodos más cálidos, aunque las causas de esas glaciaciones seguían siendo desconocidas. Algunos, como Milutin Milankovitch (1879-1958), trataban de explicarlas por medio de fenómenos astronómicos, mediante un modelo matemático acerca de la forma en la que el calor solar afecta la temperatura de la atmósfera. Las mediciones de Milankovitch no siempre encajaban bien en los períodos de las glaciaciones y no fueron pocos los que descartaron su hipótesis. Köppen (1846-1940), en cambio, la desarrolló más y publicó un libro sobre el tema.
A Köppen lo ayudaba su yerno, el también meteorólogo Alfred Wegener (1880-1930), quien por entonces era un poco conocido pionero en el uso de globos aerostáticos para estudiar el clima. Pero pronto revolucionaría, con inspiración y errores, toda la geología.

§. Wegener
Wegener nació en Berlín el 1° de noviembre de 1880 y estudió en las universidades de Heidelberg, Innsbruck y Berlín, consiguiendo su doctorado en astronomía en esta última en 1905. Después entró en el Observatorio Aeronáutico Prusiano, en Tegel, donde trabajó durante cierto tiempo junto con su hermano Kart, con quien emprendió un vuelo en globo que duró 52 horas y media, un tiempo récord entonces, para probar ciertos instrumentos. Luego fue el meteorólogo de una expedición danesa hacia el interior de Groenlandia y más tarde se incorporó a la Universidad de Marburgo como profesor de meteorología y astronomía. Publicó un libro de texto de meteorología en 1911, pero para entonces ya estaba desarrollando sus teorías sobre la deriva continental, que se editaron por primera vez en 1912, en un par de informes basados en conferencias que había dado en Frankfurt del Main y en Marburgo en enero de aquel año.
En 1913, contrajo matrimonio con Else Koppen, pero su vida académica fue perturbada por el estallido de la Primera Guerra Mundial, y Wegener fue reclutado como teniente en la reserva. Fue herido dos veces en el frente occidental, a consecuencia de lo cual lo declararon inútil para el servicio activo y lo trasladaron al servicio meteorológico del ejército.
Durante el período de convalecencia de sus heridas, redactó la primera versión de su famoso libro El origen de los continentes y de los océanos, que dicho sea de paso —o no tan de paso— produjo un impacto insignificante, en gran parte porque se publicó en 1915, en medio de la guerra, y las cosas no andaban como para pensar en continentes que se movían: había cosas más urgentes, como invadir países y enfrentar ejércitos en una interminable estrategia de trincheras.
Cuando terminó la guerra, Wegener fue profesor de meteorología en la recién fundada Universidad de Hamburgo y se hizo conocer como un meteorólogo destacado, aunque no por eso abandonó la teoría geológica, y publicó versiones sucesivas y aumentadas de su libro. A partir de 1924, fue profesor de meteorología de la Universidad de Graz, en Austria, y en ese mismo año publicó, junto con Wladimir Köppen, un trabajo que intentaba explicar la evolución y el desarrollo del clima pasado basándose en la hipótesis de la deriva continental.
Su muerte fue trágica. A los 49 años, en 1930, Wegener dirigió una expedición a Groenlandia con el objetivo de encontrar pruebas que apoyaran la hipótesis de la deriva, pero la expedición se vio en apuros y en el campamento escasearon las provisiones. El 1° de noviembre de 1930 (el día en que cumplía 50 años) Wegener se dirigió en compañía de un esquimal hacia la base principal situada en la costa, pero nunca llegó. Durante la primavera siguiente, su cuerpo fue hallado en el casquete glaciar, en la ruta que enlazaba los dos campamentos, cuidadosamente envuelto en su saco de dormir y con los esquíes plantados hacia arriba marcando el lugar; de su compañero nunca se volvió a saber nada.

§. A la deriva
Hablemos, ahora sí, de la teoría propiamente dicha. En 1912, Wegener retomó la idea de que los continentes alguna vez habían estado comprimidos en un solo proto continente al que llamó Pangea («todas las tierras»), que subsistió al menos hasta el período carbonífero, hace alrededor de 300 millones de años. Le parecía probable que un poco después, o a lo sumo en el Jurásico (hace unos 180 millones de años), comenzara a romperse y separarse hasta generar los continentes actuales.
Los continentes, a su vez, se habían «movido» hasta el lugar que ocupan ahora y, en principio, seguían moviéndose. Wegener partía del hecho desconcertante —ya advertido tanto por los geólogos, como por los geógrafos y los mismos escolares— de que la costa oeste de África encastra perfectamente con la brasileña y el Caribe, como si fueran las piezas de un rompecabezas, y lo mismo pasa en el Pacífico y América del Norte, por un lado, y Madagascar e India, por el otro. Esta complementación se hace aún más obvia cuando, en lugar de comparar las costas, se comparan las partes sumergidas.

047.jpg

Había muchas más evidencias: una de ellas, como ya les conté, era el asunto de que los fósiles que se encontraban en cada una de las «piezas» de este rompecabezas coincidían, indicando que habían estado pobladas por una fauna y una flora similares. Obviamente estos organismos nunca podrían haber cruzado los océanos tal como los conocemos hoy, y la teoría de un supercontinente parecía a Wegener más plausible que los «puentes terrestres» que postulaban algunos geólogos para explicar la «coincidencia» (puentes que, dicho sea de paso, nadie sabía adónde habían ido a parar).
Además, había evidencias de una glaciación en el período Pérmico, hace unos 260 millones de años, en lugares actualmente tan alejados y con climas tan distintos como Australia, África, India y Sudamérica. Semejante coincidencia sólo podía explicarse si entonces hubieran estado todos en la misma región del planeta y hubieran compartido el mismo clima.
Y, por si todo esto fuera poco, la hipótesis de la deriva también proveía una explicación interesante para la formación de las montañas: si los continentes se movían hasta encontrar un límite que les ofreciera resistencia, su superficie se plegaría formando cordilleras, de la misma manera que lo hace un mantel que se desliza sobre una superficie y encuentra un obstáculo. La Sierra Nevada sobre el Océano Pacífico en América del Norte y los Andes en el Sur se citaban como ejemplo. Wegener también sugirió que la India se había desplazado hacia el norte, hacia el interior del continente asiático, formando así los Himalayas, en tiempos muy recientes (en tiempos geológicos muy recientes, claro), a juzgar por su enorme altura.

§. Pero había un problema
La hipótesis de la deriva continental tuvo poco éxito y en general no fue muy bien recibida por la comunidad geológica. Y la verdad es que, por más explicativa que resultara, tenía una falla grande: Wegener era incapaz de proponer un mecanismo que justificara la deriva y la forma en que los continentes podían vencer la enorme fricción que implicaba arrastrarse sobre el lecho marítimo.
En realidad, no es que fuera incapaz de proponer un mecanismo cualquiera: era incapaz de proponer un mecanismo convincente. Porque lo cierto es que ensayó dos hipótesis ad hoc que «justificaban» el movimiento. Una era que la Luna ejercía una atracción que desplazaba las masas continentales hacia el Oeste. Cuando se calculó esa fuerza, arrojó una cifra ridícula en comparación con la que hacía falta. La otra era que la rotación terrestre producía una fuerza centrífuga que alejaba a los continentes del Ecuador. La comunidad científica la rechazó principalmente debido a que las fuerzas generadas por la rotación terrestre tampoco alcanzaban ni lejanamente para justificar el desplazamiento.
Así, aunque la teoría de la deriva continental podía dar cuenta de muchas cosas, le faltaba lo fundamental, es decir, explicar cómo podía ser que los continentes anduvieran a la deriva, en un momento en que en la geología prevalecía una visión estática sobre el interior de la Tierra. Porque si bien muchos de los argumentos parecían contundentes, había demasiadas cosas que quedaban en la oscuridad. Wegener, de hecho, aseguraba que en realidad a su teoría le faltaba un «Newton», lo cual seguramente era una exageración.
Pero así, sin Newtons a la vista, la cosa no andaba.

§. Aparece una posibilidad: las placas tectónicas
Sin embargo, en 1929, más o menos en la época en la que Wegener dejaba de ser tenido en cuenta y un año antes de su muerte, Arthur Holmes, el mismo que había medido con precisión la edad del planeta mediante la radiactividad, comenzó a trabajar con una hipótesis diferente que dio a conocer en 1944. Ese año, publicó un libro que se convirtió en un clásico de la disciplina (Principios de geología física), en el que incluyó un capítulo sobre la hipótesis de que los continentes andaban a la deriva flotando por el planeta sobre un mar de roca fundida, el manto, que era más denso, pesado y en constante ebullición.
Dentro del manto, las zonas más profundas y calientes ascendían en forma de corrientes de lava elevándose desde lo profundo, hasta enfriarse y volver a caer, formando verdaderos chorros de roca ardiendo que suben y luego bajan. El proceso de enfriamiento y calentamiento, repetido en muchas ocasiones, daba como resultado una corriente suficientemente fuerte como para mover los continentes.
Holmes sugirió que esta convección térmica funcionaba como una especie de cinta transportadora: la presión ascendente podía romper un continente y hacer que sus partes se movieran en direcciones opuestas.
Tenía sentido, pero había dos inconvenientes. Por un lado, casi del mismo modo en que Aristóteles creía en un espacio supralunar inconmovible y ajeno al cambio, todavía los geólogos creían firmemente en un interior de la Tierra estable y quieto; por el otro, la convección térmica era incomprobable en esa época y, por lo tanto, no llegaba ni a la categoría de hipótesis.
Para hacerlo, necesitaría del desarrollo de una nueva disciplina, o subdisciplina, o campo de estudios, o como se quiera llamarla. Es un lugar común en la historia de la ciencia: una teoría parece estancarse y, por más que acude a todos los medios que tiene a su alcance, no logra salir adelante. Y lo que ocurre es que las herramientas que tiene a mano, tanto teóricas como observacionales, muchas veces no son suficientes, y posiblemente necesite de unos cuantos años para que aparezcan nuevas herramientas y se demuestren competentes para resolver las incógnitas (o, eventualmente, la falsedad) de la teoría. Herramientas que, dicho sea de paso, no necesariamente están concebidas para afrontar los problemas que la teoría en cuestión había dejado sin solucionar. Por ejemplo, el desarrollo de la teoría celular, como vimos en su momento, se debió en gran parte al progreso de los microscopios. Pero este progreso no era un resultado del desarrollo de la biología sino de la óptica. Lo cuento porque muchas veces se dice que una teoría «inventa» sin mayores fundamentos las herramientas que necesita, para asegurarse su éxito, pero si bien a veces puede llegar a ser cierto, ejemplos como el del microscopio, en el que las herramientas fueron inventadas desde otra teoría, lo desmienten.
Lo que ocurrió es que, después de la Segunda Guerra Mundial, se intensificó el estudio del lecho oceánico y del magnetismo remanente que el campo magnético de la Tierra dejaba en las rocas (lo cual, de paso sea dicho, no era para nada desinteresado: las potencias buscaban desesperadamente desarrollar técnicas que permitieran detectar submarinos y minas magnéticas).
Pero lo que se vio en esa exploración terminaría siendo fundamental para la teoría de la deriva continental: escarbando en las montañas, se verificó que pequeños fragmentos con carga magnética habían «acomodado» sus polos dentro de las rocas en formación de acuerdo con la distribución de los polos magnéticos terrestres en la época (los polos magnéticos no son fijos, sino que derivan y en ciertos casos se invierten: el polo norte pasa a ser sur y viceversa). Calculando de qué época era esa roca se podía calcular también dónde se había ubicado el norte magnético de ese entonces. También ocurría que grandes superficies de rocas del mismo período, pero en continentes distintos, señalaban nortes magnéticos diferentes, lo que permitía suponer que los continentes se habían movido.
Por un lado, entonces, se pudo observar que los patrones magnéticos impresos en las rocas, efectivamente, se disponían de un modo tal que apoyaban la hipótesis de la deriva (por ejemplo, los estudios paleo magnéticos de los años cincuenta en la India coincidieron con la idea de Wegener de que ese subcontinente había chocado con Asia). Pero, además, la detección de rasgos como fisuras oceánicas sugería que la convección —el movimiento ascendente de la roca caliente en el manto— efectivamente podía estar funcionando.
Semejantes descubrimientos (y otros) llevaron a Harry Hess (1906-1969) y a Robert Dietz (1914-1995) a publicar la hipótesis basada en las corrientes de convección del manto, conocida como sea floor spreading, algo así como «dispersión del lecho marítimo». Era básicamente lo mismo que había propuesto Holmes más o menos treinta años antes, pero ahora había mucha más evidencia a favor.
En 1967, Dan McKenzie (n. 1942) utilizó por primera vez el término «placas» en un artículo de la revista Nature para describir esos bloques macizos que «flotaban» sobre el manto. Ésa fue la partida de nacimiento que le faltaba a la criatura que poco a poco comenzó a ser aceptada en el mundo científico.

048.jpg
Las placas tectónicas

Como pueden ver en la imagen, las «placas» son sólo un puñado: algunas cargan con continentes o fragmentos de continentes sobre ellas, otras, con trozos de corteza submarina y otras, con las dos cosas. La placa sudamericana, por ejemplo, está constituida por el continente sudamericano y por parte del océano Atlántico. Es más: el lecho marino, e incluso los continentes que Wegener pensaba que eran una especie de unidades mínimas, en realidad no tienen casi relevancia en términos geológicos. Lo importante son las placas, que a su vez se conectan entre sí de maneras distintas.
El funcionamiento de este modelo, en la actualidad, está fuertemente establecido y comprobado, y es relativamente simple. La corteza está dividida en un puñado de placas, que pueden tener tanto continentes visibles en la superficie como lechos marítimos y que se tocan unas con otras. Las placas flotan sobre el «manto», la capa de roca fundida que cuando sale por los volcanes se llama magma o lava. Dentro del manto se producen corrientes de roca que arrastran las placas de la corteza hasta que chocan y comienzan a superponerse como explicaba Wegener. La que queda abajo se calienta, funde y mezcla con el manto. Mientras, en el fondo de los océanos surgen nuevos trozos de manto enfriado, es decir, de roca. ¿Por qué surge roca nueva? Cuando una placa se desplaza, se aleja de otra y se produce una fisura. Por ahí aflora el manto en forma de magma y se va formando nuevacorteza. Así se explican océanos y montañas. El océano Atlántico se formó durante los últimos millones de años porque las placas de América y África se separan unos cuatro centímetros por año (los inmigrantes europeos que llegaron a Latinoamérica hace un siglo tuvieron que recorrer cuatro metros menos de los que serían necesarios hoy). Y Wegener tenía razón: el Himalaya, la cadena montañosa más alta del mundo, es consecuencia del choque de la placa indoaustraliana que empuja contra la placa euroasiática. Lo mismo ocurre con la cordillera de los Andes, consecuencia del choque entre las placas de Sudamérica y la llamada placa de Nazca.

§. La estructura de la Tierra
Así, la tectónica de placas redondeó la descripción del planeta y permitió dar respuesta a muchos y viejos enigmas: los terremotos, por ejemplo. La nueva teoría explicaba que las placas se desplazan lentamente; al chocar, juntan presión y, cuando ésta se hace demasiado intensa, se produce un ajuste repentino que se traduce en una sacudida. Lo mismo puede decirse de las explosiones volcánicas, que estallan por la enorme presión generada en las colisiones subterráneas. Las últimas explosiones del Etna se debieron a que Italia está en el borde de la placa africana, que empuja contra Europa haciendo subir los Alpes y estallar el volcán.
También se ha elaborado una razonable descripción de cómo es la Tierra por dentro. Hoy se sabe que la corteza terrestre sobre la que vivimos y sobre la que se apoyan los océanos es delgada: tiene de 5 a 70 kilómetros promedio, según se la mida en el lecho marino o en una región montañosa. Es muy poco si se la compara con los 6.300 kilómetros de radio del planeta: en proporción, es menos que la cáscara de una naranja respecto de toda la naranja.

049.jpg
La estructura de la tierra

Debajo de esta corteza insignificante se encuentra el manto, que llega hasta los 2.800 kilómetros de profundidad y que está formado por rocas en distintos estados de fusión: las rocas del manto fundidas o semi fundidas fluyen lentamente y gigantescas corrientes de roca más caliente que su entorno suben desde las profundidades hasta la corteza, chocan con ella y se desplazan hacia los costados con la fuerza de un monstruo imparable.
Debajo mismo del manto está el núcleo terrestre, que soporta el peso de todo el planeta y que tiene también unos 3.500 kilómetros de radio, aproximadamente el tamaño de Marte. Está formado de hierro, un poco de níquel y pequeñas proporciones de otros elementos (oxígeno, azufre y potasio). La parte externa del núcleo es líquida (fluida) y su parte interna sólida. En cuanto a su temperatura: en la frontera entre manto y núcleo hay unos 3.300 grados. Dentro del núcleo, entre el límite líquido y sólido, llega a unos 6.600 grados, más que en la superficie del Sol. La conexión más directa que existe entre el manto y la superficie terrestre, además de los movimientos que producen los terremotos, son los volcanes, que funcionan básicamente como caños conectados con el interior de la Tierra. Cuando el magma sale por el cráter y entra en contacto con la atmósfera, empieza el desastre: los gases se liberan y las rocas fundidas salpican y arrasan todo lo que está a su alcance. Incluidas ciudades enteras.

§. Un planeta con su historia
Pero eso no era todo. Una vez armada la tectónica de placas, con sus supercontinentes que se rompen, sus continentes que navegan y sus acuciantes cordilleras alzándose, sus volcanes mensajeros del desastre y con la avalancha de datos, mediciones, exploraciones, dataciones y otros «ones» cada vez más precisos, se pudo reconstruir la historia de ese planeta que llamamos Tierra: el Sistema Solar nació hace cuatro mil quinientos millones de años, como una esfera de polvo estelar que rotaba alrededor del Sol recién nacido, que empezaba a transformar su enorme peso en gigantescas temperaturas en su centro y, con ellas, a fusionar el hidrógeno para dar luz y calor.
Los pedazos de polvo chocando una y otra vez se pegotearon hasta formar piedras y fragmentos más grandes que siguieron creciendo hasta ser primero planetoides y luego planetas. Podemos soñar la primera imagen de la Tierra: una enorme esfera de hierro y níquel envuelta por un manto de roca en estado de fusión. En pocos millones de años más, en la parte superior del manto se formó una especie de costra que flotaba sobre la roca fundida, mientras el planeta entero era bombardeado por meteoritos.
Quinientos millones de años después, la lluvia de meteoritos cesó. La Tierra tenía ya un manto y un núcleo, mientras la costra se fundía, volvía a subir y se enfriaba, reciclándose una y otra vez, acumulando materiales más pesados; había ya parches continentales más grandes y empezó a formarse la corteza oceánica.
Mientras tanto, el agua lanzada como vapor por los volcanes elementales del principio y traída por los meteoritos del bombardeo llenaba los huecos; para la época del fin de la lluvia de meteoritos, parece, había ya océanos en este mundo primitivo y desolado, en cuya atmósfera faltaba por completo el oxígeno, que empezó a acumularse cuando apareció la vida en el mar, hace tres mil quinientos millones de años.
Los primeros continentes eran pequeños y crecían despacio, pero mil quinientos millones de años más tarde aparecieron los continentes verdaderamente grandes, hasta que fueron suficientemente pesados para partirse e iniciar el ciclo geológico de las placas tectónicas, agrupándose y rompiéndose una y otra vez.
Dos mil millones de años más tarde, el Homo sapiens evolucionó en uno de los continentes resultantes de la última fractura: África. Nada, apenas un suspiro en la inmutabilidad y serenidad de la roca.

Interludio:
Canción de cuna del volcán (glosa)

Nana, niño, nana,
del volcán enorme
arrojando lava.
Cenizas oscuras
por doquier brotaban
cubriendo los campos
como fina grava
que mata al ganado
y quema las plantas.
Nana, niño, nana,
del volcán enorme
arrojando lava.
Duérmete, clavel,
que el volcán se comienza a encender.
Duérmete, rosal,
que el volcán ya comienza a estallar.
El cráter muy fino,
la cumbre astillada,
el túnel enorme
donde sube el magma.
Lanzaban ceniza
¡ay, cómo lanzaban!
La sombra corría
más fuerte que el agua.
Duérmete, clavel,
que el volcán se comienza a encender.
Duérmete, rosal,
que el volcán ya comienza a estallar.
Allá en lo profundo
se funden placas
y forman burbujas
de roca incendiada
que suben cruzando
la corteza blanda.
Duérmete, clavel,
que el volcán se comienza a encender.
Duérmete, rosal,
que el volcán ya comienza a estallar.
Nube cenicienta,
residuos de magma.
¡No vengas, no entres,
cierra la ventana!
¡No cubra la nube
tu colcha de Holanda!
El niño se duerme.
El niño descansa.
Duérmete, clavel,
que el volcán ya comienza a ceder.
Duérmete, rosal,
que el volcán ya se empieza a apagar.

Capítulo 33
La genética

Las leyes que gobiernan la herencia son desconocidas. Nadie puede decir por qué algunas características se heredan a veces sí y a veces no; por qué un individuo se parece en ocasiones a sus abuelos o a antepasados aún más remotos, ni por qué algunas peculiaridades se transmiten a los descendientes de ambos sexos y otras sólo a los de un sexo.
DARWIN
En el campo de las ciencias biológicas, el siglo XIX había sido testigo de una gran revolución. La gran teoría de la evolución de Darwin se había convertido finalmente, con mucho esfuerzo, en el eje de toda la biología, gracias a una ley sencilla pero apabullantemente sintética que daba cuenta de la multiplicidad de la naturaleza: la selección natural. Era una ley impresionante, por cierto, pero tenía un delicadísimo problema. Recuerden que la selección natural actuaba sobre las variaciones naturales que aparecían en cada generación de una especie, conservando las «buenas» (las adaptativas) y descartando las «malas» (las menos adaptativas), en una acción que se arrastraba lentamente a lo largo de las eras. Pero ocurría que nadie —con una sola excepción— tenía la menor idea de cómo funcionaban los mecanismos de la herencia.
Darwin, por ejemplo, creía que los caracteres de un individuo eran una especie de mezcla o promedio de los de sus progenitores, lo cual no dejaba de plantear un problema: ¿qué pasaba cuando emergía un rasgo adaptativo, pero el poseedor de ese rasgo se apareaba con individuos que no lo poseían? ¿Los rasgos nuevos no terminarían diluyéndose en el promedio general? Para salvar este inconveniente (que no era el único), los evolucionistas abandonaron en parte la idea de la selección natural actuando sobre individuos y pensaron en poblaciones portadoras del nuevo rasgo que se apareaban entre sí, perpetuándolo. Pero la solución era más bien oscura, porque era difícil admitir que aparecieran de la nada poblaciones enteras con un rasgo nuevo.
La falta de una teoría sobre la herencia constituía sin duda el flanco débil de la concepción darwiniana. Al no poder explicar el origen de la diversidad de rasgos que permitía la acción de la selección natural, ni la manera en que esos rasgos, una vez seleccionados, se mantenían sin perderse a través de las generaciones, nuestro buen amigo se vio obligado a emparchar una y otra vez la teoría de la evolución, introduciendo incluso dudosos elementos lamarckianos.
Y sin embargo, mientras Darwin se enfrentaba infructuosamente con el problema, la solución empezaba a gestarse en un monasterio austríaco, donde un contemporáneo suyo estaba a punto de dar con las reglas básicas del mecanismo de la herencia de las características físicas.
El tema, en realidad, y como siempre, era muy antiguo.

§. Breve historia del asunto
Porque obviamente, desde siempre, se supo que los hijos se parecen a los padres, a los abuelos, a los tíos o incluso a parientes más lejanos. Pero la humanidad vivió durante muchos siglos —durante la mayoría de su historia, en realidad— sin comprender los mecanismos de la herencia, a pesar de que usaba algunos conocimientos intuitivos de manera práctica. Por poner sólo un ejemplo, hace más o menos 7 mil años, en el período conocido como Neolítico, los hombres comenzaron a domesticar animales, a cultivar plantas y a efectuar cruzas eligiendo los ejemplares que resultaban más beneficiosos para obtener mejoras en la descendencia. No quiero decir con esto que nuestros ancestros neolíticos estuvieran al tanto de la genética, desde ya, pero lo que está claro es que al menos operaban de manera básica con ella, sin tener ni la menor idea (por lo menos, desde el punto de vista científico) de lo que estaban haciendo.
Durante mucho tiempo nadie se preguntó cómo funcionaba el mecanismo. Y cuando se empezó a reflexionar de manera más o menos sistemática sobre el asunto (es decir, cuando surgió la ciencia) se pensó que la clave de todo el asunto debería residir en la «semilla».
Se trata de una viejísima metáfora: el viejo Hipócrates sostenía que las diversas partes del cuerpo producían unas partículas específicas, o «semillas», que se transmitían a la descendencia en el momento de la concepción haciendo que ciertas partes de la progenie se asemejaran a esas mismas partes de los padres.
Aristóteles, por su parte, negó que el semen proviniera de todas las partes del cuerpo: de hecho, los hijos muchas veces se parecen más a sus abuelos, o sus bisabuelos, que a sus padres. Si era así: ¿de qué manera estos parientes lejanos podrían haber contribuido con las «semillas» de la carne y de la sangre que eran transmitidas de los padres a los hijos? Para resolver este enigma, postuló que el semen del macho estaba formado por ingredientes mezclados en forma imperfecta, algunos de los cuales habían sido heredados de generaciones pasadas. El semen se producía en el cuerpo masculino a partir de la sangre, y era un vehículo adecuado para transportar el pneuma, aquel omnipresente principio vital encargado de iniciar el desarrollo fetal gracias a un calor que estimulaba el crecimiento, del mismo modo que el Sol estimula el crecimiento de las plantas. Por su parte, la materia del cuerpo era aportada en forma exclusiva por el fluido menstrual de la mujer. El macho, en todas las especies, aportaba el principio vital o alma; la hembra cooperaba con la materia, además de hospedar al niño en su vientre y darle alimento. En la fecundación, el semen masculino se mezclaba con el fluido menstrual, que para él era el «semen femenino». En esa mezcla, el principio masculino le daba forma a la sustancia amorfa femenina, a partir de la cual se desarrollaba la progenie.
Galeno se diferenció de Aristóteles al intentar explicar por qué los hijos se parecen tanto a su madre y ancestros maternos como al padre y ascendientes paternos. Para él, ambos progenitores aportaban forma y materia al mismo tiempo, y ambos eran capaces de contribuir al desarrollo del embrión, lo que se conoció como «teoría de las dos semillas». Semillas que, dicho sea de paso, no tenían la misma jerarquía: dado que las mujeres eran más «frías» que los hombres y, por ello, más pequeñas, recubiertas con menos pelo, y con órganos reproductivos internos, su aporte era más débil; en los hombres, el calor interior hacía que los órganos reproductivos fueran externos y su semilla más poderosa.
Bastante después se planteó la oposición entre epigénesis y preformación, de la que ya hemos hablado en su momento, que se extendió a lo largo de varios siglos. Recuerden: la disputa era sobre si el individuo que iba a nacer ya estaba preformado en el semen masculino (o en el óvulo femenino) o si en verdad surgía de un tejido indiferenciado.
Los preformacionistas pensaban que el semen o los ovarios femeninos albergaban un hombre muy pequeño con todos sus órganos, y éste sólo necesitaba crecer en tamaño, lo cual, en los humanos, tenía lugar durante los nueve meses de embarazo. Se creía que sucedía lo mismo con todos los demás seres vivos; es más, estaban convencidos de que todos los organismos, los pasados, los presentes y los futuros, existían desde el primer acto creador y estaban a la espera de ser activados mediante la fecundación.
William Harvey, el descubridor de la circulación de la sangre, fue el representante más destacado del epigenetismo, la doctrina que negaba que el organismo estuviera preformado y recuperaba las ideas de Hipócrates y de Galeno de que todas las partes del cuerpo contribuían al desarrollo del futuro ser. Lo que sostenía esta teoría es que el embrión se formaba a partir de una mezcla más o menos homogénea de sustancias materna y paterna; a lo largo del desarrollo, esa materia se iba diferenciando progresivamente y los distintos órganos iban tomando forma. Harvey identificó al huevo como el rudimento de la vida («ex ovo omnia», «todo viene del huevo») y explicó la reproducción sexual en términos similares a lo que sucede en los animales ovíparos, como las aves y los reptiles. Pero no pudo responder la pregunta sobre el origen último del huevo en los organismos vivíparos, es decir, los que se desarrollan en el vientre materno (lo cual es bastante lógico: el descubrimiento de los ovocitos en los ovarios sería realizado dos siglos después, en 1827, por el biólogo alemán Karl Ernst von Baer).
En el siglo XVIII, la teoría preformacionista tenía una buena cantidad de adeptos, pero no tardarían en aparecer voces de discordancia. En 1745, el físico y astrónomo francés Pierre Louis Moreau de Maupertius (1698-1759), a través de su libro Venus Physique, se propuso desbaratar la hipótesis de la preformación y afirmó que, en la herencia, el padre y la madre realizan un aporte equivalente, determinado por el más ciego azar. El conde de Buffon, por su parte, postuló la existencia de lo que denominó «moléculas orgánicas», unidades primitivas que darían lugar a todos los seres vivos uniéndose a lo largo del desarrollo del embrión y que, a manera de un molde, mantenían las características de cada especie a través de las generaciones.
El siglo XIX heredó este panorama en el que nada estaba muy claro y en el que las dos hipótesis convivían. El mismísimo Darwin, que para completar su teoría de la evolución necesitaba una explicación coherente acerca del mecanismo mediante el cual las características de una generación pasan a la siguiente, postuló una hipótesis propia heredera de las ideas de Hipócrates, Galeno y Harvey. Efectuó la primera presentación de su conjetura en 1868 (casi diez años después de la publicación de El origen de las especies), en el capítulo final de un libro sobre la variación en animales y plantas bajo la domesticación. A su teoría le dio el nombre de «pangénesis», término que, en virtud del prefijo griego «pan», indicaba que todas las células del cuerpo contribuían a la herencia a través de unas partículas que bautizó como «gémulas», que eran capaces de sufrir y cambiar al compás del medio ambiente, y que se almacenarían en los óvulos o en los espermatozoides. Esta hipótesis proponía que cada órgano y estructura del cuerpo producía gémulas, que llegaban a los gametos a través de la sangre.
Lo cierto es que todos tanteaban en un terreno resbaladizo y oscuro, y Darwin seguía sin una buena explicación para aclarar el mecanismo de la herencia.

§. Las arvejas dan la clave
Si Darwin hubiera leído este libro, se habría enterado de que en esos mismos momentos, mientras él especulaba con inexistentes gémulas, un monje llamado Gregor Mendel (1822-1884), en medio del silencio de un monasterio austríaco, publicaba buena parte de la solución a este problema. Pero prácticamente nadie lo leería hasta el siglo siguiente, cuando comenzara a desarrollarse la teoría genética propiamente dicha.
Así eran las cosas y así son muchas veces: aislado de todos los científicos de su época, un clérigo desconocido elaboraba las respuestas que necesitaba Darwin y que, dicho sea de paso, no dependían del desarrollo de grandes tecnologías (si se excluye la compleja y mal repartida tecnología de la paciencia).
Mendel nació en un pequeño pueblo llamado Heinzendorf, en la región de Moravia, que en aquellos tiempos pertenecía al Imperio Austro-húngaro (y hoy forma parte de la República Checa). Dado que sus padres eran campesinos pobres, la idea de realizar estudios universitarios parecía ciertamente utópica, hasta que vino la ayuda en la forma de unos dinerillos que le prestó su hermana menor y que le permitieron asistir durante dos años al Instituto Filosófico de la ciudad de Olmütz (actualmente Olomouc, República Checa). La vida no era fácil allí para un estudiante sin recursos, por lo cual optó por la única salida viable para alguien que en aquella época buscara una educación pero no tuviera el dinero para solventarla: con el nombre de Gregor, entró como fraile en un convento agustino en la ciudad checa de Brno (entonces Brünn), en el centro del Imperio Austro-húngaro.
Dado que, a diferencia de otras órdenes, los agustinos daban mucha importancia a la enseñanza y a la investigación, Gregor pudo estudiar todas las disciplinas que lo entusiasmaban y —lo más importante para nuestra historia— tuvo libre acceso al invernadero. Allí realizaría, entre 1854 y 1862, sus famosos experimentos sobre la reproducción y la herencia, cuyos resultados presentó tres años después en las reuniones de la Sociedad de Historia Natural de Brünn.
En 1866 los publicó en las actas de la Sociedad con el título de «Experimentos sobre hibridación de plantas», y ciertamente hubieran generado una revolución impresionante en el campo de la biología. Sin embargo, la publicación fue ignorada por completo. Sólo se captaría su relevancia en la primavera de 1900, treinta y cinco años después de la publicación, y dieciséis años luego de su muerte.
Nada de lo que vio Mendel hubiera sido posible sin la ayuda de las generosas arvejas (o guisantes), plantas útiles para el experimento, ya que son fáciles de cultivar y se hacen adultas en una estación. Tienen además la particularidad de ser autopolinizantes, es decir, contienen todo lo necesario para su autorreproducción, sin necesidad de interactuar con otras.
Algo le llamaba la atención a nuestro monje en la homogeneidad entre sus arvejas, porque comenzó a experimentar abriendo las flores antes de que se desarrollaran del todo para quitarles el polen propio e intercambiarlo con el de otra flor seleccionada para sus experimentos. De esta manera forzaba su cruzamiento.
La historia es que reunió 34 cepas de arvejas de toda Europa y afinó sus selecciones por medio de cruces forzados hasta obtener líneas o variedades puras, es decir, que durante generaciones venían dando una característica particular sin variaciones: altas, bajas, verdes, amarillas, gruesas, delgadas. Centrémonos en el color. Gregor, gracias a sus entrecruzamientos, había llegado a tener dos cepas de características puras: unas eran completamente verdes y daban siempre arvejas verdes; otras eran completamente amarillas y daban siempre arvejas amarillas. En uno de sus experimentos cruciales, mezcló plantas de semillas que habían sido exclusivamente amarillas con otras similares, pero verdes. El resultado fue una generación (llamémosla G1) de plantas totalmente amarillas. Pero cuando mezcló las plantas de esta nueva generación entre sí, observó con sorpresa que en la segunda generación (G2) aparecían plantas con flores verdes en una proporción de 1 a 3. Obviamente, el carácter «verde» había permanecido oculto y latente en la generación amarilla (G1).
La paciencia de Mendel era realmente monástica: después de generaciones de experimentación obtuvo una muestra de 8.023 plantas que dieron una proporción de 6.022 amarillas y 2.001 verdes, y después de realizar muchas observaciones más, sacó algunas conclusiones, que van a resultar más claras si miran las siguientes figuras:

050.jpg

Mendel había llegado a este secreto de la naturaleza sólo por la estadística: sin microscopios, ni conocimientos de una ciencia genética que simplemente no existía. En los años siguientes extendió sus experimentos a otros fenotipos (rasgos observables), como plantas con semillas redondas o arrugadas, y elaboró toda una serie de «Leyes descubiertas por los guisantes».
Pero aunque el descubrimiento era extraordinario, nadie parecía notarlo. Para colmo se frustró en sus siguientes experimentos, en los que sus teorías no pudieron avanzar. Había enviado su artículo a muchos naturalistas importantes, pero sólo obtuvo respuesta de Karl Naegeli (1817-1891), un famoso botánico de la época, que se mostraba escéptico y no podía entender cómo un híbrido Aa transmitía el carácter A y perdía el recesivo, ya que defendía la idea de la herencia por mezcla, por completo contraria a los resultados de Mendel. Naegeli le recomendó experimentar con otra planta llamada «diente de león». Por desgracia, Mendel no encontró rastros de sus leyes al experimentar con estas plantas que, como se descubrió años más tarde, se reproducen sin fertilización ni entrecruzamiento de distintos ejemplares, con lo cual cada descendiente es un clon de la planta madre. Además, en 1868 fue elegido abad de su monasterio y quedó absorbido por las tareas administrativas. Murió en enero de 1884, a los 63 años, dos años después que Darwin, quien nunca supo de sus trabajos.
Poco después de su muerte, en el patio del monasterio, en el lugar que había ocupado el invernadero, se hizo una hoguera con todos sus papeles personales y científicos. Es posible que el nuevo abad, por pura competencia con su predecesor, quisiera eliminar todo recuerdo de su antecesor, unos papeles en los que nadie parecía estar interesado.

Las tres leyes
Las conclusiones de Mendel dieron lugar a lo que se conoce como leyes de la herencia, principios que funcionan demanera general en todas las especies.
La primera ley, de la «uniformidad de loshíbridos de la primera generación», afirma que cuando se cruzan dosindividuos de dos variedades puras de la misma especie, que difieren en elaspecto que presenta un mismo carácter (por ejemplo, semillas amarillasversus verdes), los descendientes serán iguales entre sí e iguales a uno delos progenitores, el que aporta el factor dominante (semillas amarillas).
La segunda ley es la de la «segregaciónde los caracteres» y demuestra que los factores hereditarios constituyenunidades independientes, que pasan de una generación a otra sin sufriralteración alguna. Si se cruzan entre sí los descendientes de la primerageneración (a partir de dos líneas puras), el carácter recesivo transmitidopor uno de los progenitores (semilla verde), que no se manifestaba, se haceevidente en una cuarta parte, y el dominante en las tres cuartas partes delos descendientes.
La tercera ley, de la «independencia delos caracteres», afirma — simplificando muchísimo— que cada carácter sehereda en forma independiente de los demás.
Las tres leyes de Mendel permitenexplicar y predecir cómo serán los rasgos físicos (fenotipo) de un nuevoindividuo. Ahora bien, sólo la segunda y la tercera se refieren a cómo setransmiten los caracteres a la descendencia. La primera, en cambio, no trataacerca de la transmisión, sino de la expresión de los caracteres.
Suele afirmarse que, si Darwin hubieraconocido el informe de Mendel, habría podido pensar en un mecanismo para laselección natural y su teoría habría quedado mejor respaldada frente a losadversarios. Sin embargo, quienes se oponían a esas ideas estaban menospreocupados por el mecanismo de la selección natural que por el hecho mismode que esa selección hubiera acontecido: la teoría darwiniana atacaba lascreencias más básicas acerca del lugar del hombre en el universo y del papelde cualquier dios en la creación.

§. Una sustancia cualquiera
Para que en algún momento se llegara a la formidable síntesis que fue la genética, primero fue necesaria otra síntesis de la que ya hablamos hace algunos capítulos: la teoría celular, mediante la cual la biología alcanzó su tan ansiada unidad fundamental.
Gracias a la formulación de la célula como unidad de la vida (es decir, gracias a un concepto teórico) y al mejoramiento de los microscopios (es decir, gracias a un progreso observacional), comenzaron a verse cosas que nunca antes se habían visto o, si se habían visto, nunca se habían podido interpretar. En 1869, Johann Friedrich Miescher (1844-1895), que no sólo era suizo sino también químico y trabajaba en un hospital de Tubinga, al sudoeste de Alemania, al que llegaban heridos de la Guerra de Crimea, empezó a estudiar la secreción que se juntaba en los vendajes. Rompió con enzimas digestivas la membrana celular de los glóbulos blancos en el pus de las heridas y encontró una sustancia que contenía fósforo y nitrógeno, hecha de moléculas en apariencia muy grandes y que se encontraban en el interior del núcleo de los glóbulos blancos. La llamó «nucleína» y, como una década más tarde se comprobó que tenía propiedades ácidas, se la redesignó como «ácido nucleico». O mejor dicho, «ácidos nucleicos», porque había de dos tipos: uno que contenía el azúcar ribosa y el otro el azúcar desoxirribosa. Y por lo tanto, se llamaron ácido ribonucleico (ARN) y ácido desoxirribonucleico (ADN). Miescher no abandonó sus ácidos y en 1889 aisló por primera vez el ADN del esperma de un salmón. Eran moléculas grandes, pesadas, gomosas, molestas e incluso poco simpáticas, con una indescifrable estructura y que, en principio, no servían para nada. ¿A quién podían interesarle dos aciduchos que parecían estar ahí sin ningún motivo?
Había, sin embargo, algo que resultaba curioso: la cantidad de ADN en los espermatozoides era la mitad del que había en las células normales. Cosa rara, es cierto, pero nada más para una época que todavía no estaba lista para interpretar la importancia del hecho.
En 1880, un biólogo alemán llamado Walter Flemming (1843-1905), trabajando con las células, utilizó tintura roja y vio que se adhería a unas tiritas que aparecían en el núcleo y a las que, justamente por su capacidad de recibir el color, llamó «cromatina» (por chromo, color en griego). Y que jugaban, en apariencia, algún papel importante en el proceso de la división celular: la cromatina, observó, se agrupaba en forma de filamentos que emigraban a ambos lados de la célula mientras ésta se estrechaba por el medio y se dividía en dos —eso al menos era lo que se veía en el microscopio—. Ocho años más tarde, el biólogo alemán Wilhelm von Waldeyer (1836-1921) llamó a los filamentos «cromosomas» y enseguida se pudo comprobar que cada especie tenía un número fijo y específico de esa especie (por ejemplo, el hombre tiene 23 pares, es decir, 46 cromosomas). Pero además — ¡oh sorpresa!— resultaba que en las células germinales había exactamente la mitad. A principios del siglo XX, el rompecabezas se estaba armando. Pero, por el momento, todo permanecía en el estrecho ámbito de lo puramente observacional.

§. Resucitan las leyes de Mendel
Los cada vez más detallados estudios empíricos sobre las células confluyeron con la resurrección de las investigaciones de Mendel por parte de tres hombres al mismo tiempo, para trazar el sinuoso camino de la genética.
En los últimos años del siglo XIX, un botánico holandés llamado Hugo de Vries (1848-1935) llevaba cerca de veinte años cruzando un tipo especial de flores y separando a aquellas que presentaban alguna particularidad llamativa. Después de algunas generaciones, estas últimas habían sufrido lo que él llamó «mutaciones» y resultaban imposibles de cruzar con las originarias. Era lo que había imaginado Darwin, aunque sin poder demostrarlo experimentalmente.
Sus conclusiones se publicaron sobre el final del siglo en un libro que cayó en manos de Karl Correns (1864-1933), quien había comenzado a experimentar con arvejas y había llegado a conclusiones similares a las de Mendel. Al revisar los archivos de su maestro Karl Naegeli, cuyo papel en esta historia les conté un poco más arriba, se topó con la correspondencia que Mendel le había enviado, y cuando leyó la obra de De Vries rápidamente encontró una similitud… una enorme similitud con los resultados de nuestro monje, a tal punto que acusó a De Vries de plagio.
El susodicho tuvo que «aceptar» que había leído a Mendel poco antes de publicar su libro y que no lo había citado porque «no se había dado cuenta», aunque aseguró que había llegado a las conclusiones por sí mismo. Haya sido como haya sido, en las siguientes publicaciones reconoció explícitamente la primacía del abad.
El tercer hombre fue el botánico austríaco Erich von Tschermak (1871-1962). También él realizó experimentos con arvejas y también él llegó a las mismas conclusiones que su compatriota había registrado unas décadas antes. Mientras escribía los resultados de sus experimentos, Tschermak encontró una referencia al trabajo de Mendel que lo llevó a buscar la obra y rápidamente descubrió que el abad no sólo había llegado a los mismos resultados que él, sino que lo había superado. En 1900, los tres investigadores publicaron una suerte de reivindicación de la obra del monje.
Las leyes de Mendel experimentaron una verdadera resurrección. Pero, así y todo, seguían sin dar ninguna respuesta (y ni siquiera una pista) acerca de la naturaleza de lo que Mendel había llamado «factores hereditarios». El principio organizador ya estaba; ahora el asunto era avanzar para describir esos paquetitos de información que hacían que una arveja fuera verde o amarilla, que un pájaro tuviera el pico de tal o cual forma o que un chico fuera rubio o morocho, y no hubiera siempre una regresión al promedio, como temía Darwin.
Todo apuntaba a los cromosomas: al fin y al cabo, como los factores hereditarios, aparecían de a pares. En 1902, el estadounidense Walter Sutton (1877-1916), cuando aún era un estudiante, escribió un par de trabajos que daban la demostración más temprana de cómo es que los cromosomas funcionan dividiéndose y volviéndose a juntar en un individuo nuevo y sugirió que este mecanismo podía dar cuenta de las leyes mendelianas. Pero había una objeción casi de sentido común: los cromosomas eran muy pocos (23 pares, como recordarán), y, si verdaderamente transportaban los factores hereditarios de los rasgos, tenían que estar sobrecargadísimos.
«Factores hereditarios»: la terminología empezaba a resultar pesada. El 31 de julio de 1906, durante la 3ª Conferencia de Hibridación y Reproducción de Plantas, se aceptó la palabra «genética» (de la palabra griega genos, que significa, entre otras cosas, «generación») como nombre para el estudio de los fenómenos de la herencia y la variación y, en 1909, Wilhelm Johannsen (1857-1927), un fisiólogo vegetal, decidió que los factores hereditarios deberían recibir un nuevo nombre y los llamó «genes».

§. Aparecen candidatos firmes
Todos corrían la carrera en busca de esos «genes» hasta entonces invisibles. Y la cosa transcurría con cierta vertiginosidad. Hacia el año 1908, Thomas Morgan (1866-1945) instauró un nuevo método de experimentación con moscas del vinagre, como se conoce habitualmente a la Drosophila melanogaster, bicho que tiene la ventaja (para los investigadores, por supuesto, no para ellas) de hacer todo su ciclo vital —desarrollo, reproducción y muerte— en dos semanas. Era una gran mejora cronológica frente a las arvejas, con las cuales conseguir una nueva generación llevaba meses.
Morgan estaba seguro, como tantos otros, de que los cromosomas tenían mucho que ver con las leyes de la herencia, pero era obvio que no podían ser ellos mismos los factores hereditarios, sino que, en todo caso, debían transportar gigantescos paquetes de esos factores. A esos segmentos de los cromosomas que efectivamente estaban encargados de almacenar la información hereditaria los llamó, siguiendo la terminología de Johannsen, genes.
Herman Müller (1890-1967), biólogo estadounidense, se dedicaba mientras tanto a preguntarse cómo es que si sólo se heredan rasgos paternos y maternos, cada tanto pueden aparecer mutaciones que no tienen antecedentes en la especie. En 1923, tras numerosos experimentos en los que irradiaba los cromosomas con rayos X, concluyó que las mutaciones que se observan habitualmente son producto de una alteración aleatoria en los genes, cuyas consecuencias no se pueden pronosticar (al menos hasta ese momento).
Por otra parte, entre 1926 y 1930, James Sumner (1887-1955) y John Northrop (1891-1987) explicaron que todas las enzimas responden a las leyes de la química y que no son otra cosa que proteínas que permiten la producción de otras proteínas con distintas funciones para la vida.
Las proteínas, una suerte de comodín biológico, eran consideradas por todo el mundo como las mejores candidatas para ser los genes, los mensajeros de la herencia. Frederick Griffith (1881-1941) llegó a esa conclusión al intentar aislar el principio gracias al cual la información de las células puede intercambiarse, y lo cierto es que si en ese momento hubiera habido una elección, las proteínas hubieran ganado por goleada.
Y entonces vino un alumno de Griffith, el canadiense Oswald Avery (1877-1955), y mandó a parar. Con la intención de probar, como lo habían hecho Sumner y Northrop con las enzimas, que los genes no eran más que proteínas, hizo el experimento decisivo: en 1944 aisló extractos de células y comenzó a separar proteínas, lípidos, ácidos nucleicos y otros a fin de ver cuál era el principio fundamental que permitía seguir reproduciéndose a la bacteria que estudiaba. Trabajaba con neumococos, los causantes de la neumonía. Y aquí viene el asunto, porque había dos cepas: una era suave, rodeada por una cápsula protectora; la otra, rugosa, sin cápsula. Por alguna razón, las bacterias rugosas no podían sintetizar la cápsula. Avery le agregó a la cepa rugosa un extracto de la suave; instantáneamente las rugosas empezaban a fabricar la cápsula. Obviamente, el extracto transportaba las instrucciones para fabricarla, es decir, conducía la información genética que le indicaba a la célula rugosa cómo encapsularse. Ahí tenían que estar las ansiadas proteínas que, supuestamente, acarreaban la información…
Era un momento vital para el desarrollo de la teoría biológica, uno de esos momentos destinados a marcar un antes y un después en el ámbito científico, y es lógico que Avery se pusiera a buscar con afán y ansiedad dentro de ese extracto que daba la pauta para fabricar la cápsula. El problema es que, por más que hurgó… ¡no había allí ninguna proteína! Había, eso sí, ácidos nucleicos. La conclusión estaba a la vista: no eran las proteínas sino las viejas y queridas moléculas de Miescher, el ARN y el ADN, esas inútiles, los vehículos de la información hereditaria.
Empezaba una nueva época.

§. El asalto final: la doble hélice
Sabiendo que el secreto de la herencia se encerraba en el ARN y el ADN, en 1953 el estadounidense James Watson (n. 1928) y el británico Francis Crick (1916-2004) que llegarían a ser dos de los científicos más reconocidos del siglo XX, se prepararon para el asalto final: detectar la estructura del ADN.
El modelo que finalmente fabricaron indicaba una estructura en espiral de dos tiras; cada tira es una larga cadena de fosfatos de los cuales cuelgan azúcares y bases: cada par azúcar-base es un nucleótido. Hay sólo cuatro nucleótidos diferentes, según la base que contengan (el azúcar es siempre el mismo). Las dos tiras de la doble hélice, por su parte, están unidas por hidrógenos. Cuando llega el momento de la reproducción, ambas tiras se separan y cada una fabrica una réplica de sí misma.
Watson y Crick creyeron que las tiras principales estaban separadas y que cada una servía como molde para la formación de otras moléculas. Este proceso complejo de copiado explicaba la replicación de los genes y, eventualmente, de todo el cromosoma.
Las cadenas de ADN tienen la forma de una escalera enroscada. Si tomáramos todas las cadenas que se encuentran en una sola célula humana y las uniéramos, obtendríamos un cordón de cerca de dos metros de largo y de 20 mil millonésimas de centímetros de ancho.
Los laterales están hechos de grupos de azúcar y fosfato alternados. Los «escalones» están formados por nucleótidos (bases nitrogenadas) de Adenina, Guanina, Citosina o Timina, a las que, para facilitar, se llama A, G, C y T. Por sus características químicas, la A sólo se puede unir con la T y la G con la C, lo cual no deja tantas opciones de combinaciones.
Toda la información hereditaria, que especifica las características de un individuo, está contenida en los genes y los genes no son sino trozos de ácido desoxirribonucleico (ADN). Lo impresionante es que con apenas cuatro nucleótidos, como si fueran las letras de un alfabeto mínimo, se escriben todas las instrucciones necesarias para la materia viviente, desde los virus a los elefantes, en secuencias como ATGTGAGGGGG, que especifican la forma en que cada célula fabrica proteínas.
La longitud de los genes es variable, según la especie y la función: puede ir de unos pocos cientos a varios miles de nucleótidos seguidos, que se aprietan en mucho menos que una milésima de milímetro. Una señal (una cierta combinación de nucleótidos) en la hebra indica que el gen comienza; una segunda señal anuncia que empieza el mensaje genético (es decir, la sucesión de nucleótidos relevante para la fabricación de una determinada proteína), hasta que una tercera señal anuncia el fin del mensaje. Una última señal informa a quien corresponda que allí termina el gen.
Puede parecer increíble, pero en esas secuencias está la información que permite que se forme un ojo en toda su complejidad, que se produzcan jugos gástricos o que indica la forma en que una neurona debe contactarse con otras para, por ejemplo, leer estas líneas. Es un recetario para crear proteínas que se combinan en una complejidad pasmosa. Es mucha información y cada célula la tiene absolutamente toda porque, de hecho, nuestro cuerpo entero proviene de una sola célula, formada por la unión de un óvulo y un espermatozoide que sufrió millones de divisiones celulares.
El trabajo de Watson y Crick no fue un final sino un comienzo: con el tiempo se fue revelando la gran cuestión pendiente, que consistía en determinar de qué manera el orden de las unidades que componen el ADN (recuerden: ATCG) podía especificar la secuencia de aminoácidos en una proteína. El mecanismo hallado asombra por lo maravilloso. Dicho de manera simplísima: el ADN o, mejor, una parte del ADN correspondiente a uno o varios genes, se copia en una molécula de ácido ribonucleico (ARN), que se llama ARN mensajero. Este ARN mensajero sale del núcleo y es llevado a los ribosomas, unos pequeños orgánulos que se encuentran en el citoplasma de la célula, donde es «leído», y se ensamblan los aminoácidos que formarán las proteínas.

§. Reproducción y evolución: la teoría sintética
Recién con el desarrollo de la teoría cromosómica, que explica la herencia y la genética en general, se elaboró en la década del treinta la gran síntesis neodarwiniana que dio al evolucionismo por selección natural una solidez absolutamente indiscutible.
La fundación de la genética echó una nueva luz sobre el darwinismo: si los caracteres pasan de generación en generación mediante unidades de herencia discretas, como los genes, el punto oscuro de la teoría de Darwin quedaba aclarado. Los genes sufren cada tanto leves cambios al azar (mutaciones), que implican pequeñas modificaciones de los rasgos que transportan. Cuando se produce la mezcla de portadores de caracteres «buenos» y «malos» (con todas las salvedades del caso: recuerden que no hay caracteres buenos o malos de manera absoluta, sino que dependen siempre del contexto), éstos no se mezclan en la descendencia, sino que aparecen puros en el nuevo individuo. La selección natural desecha a los portadores de genes con modificaciones «malas» y conserva a los que tienen genes «buenos», expandiendo, de esta manera, estos últimos genes, que sí se reproducen. Así, con la guía aportada por la genética —y no sin duro trabajo—, entre 1930 y 1940 se elaboró la Teoría Sintética (o síntesis neodarwiniana), que nuevamente dio una explicación acabada de la evolución natural mediante los mecanismos mendelianos de la herencia y que uno de sus notorios constructores, Theodosius Dobzhansky (1900-1975), resumió así: «Evolución es un cambio en la composición genética de las poblaciones». Con la nueva síntesis, otra vez pareció que el problema de la evolución estaba terminado y que los problemas restantes serían solucionados por la nueva genética de poblaciones.

Intervalo siniestro:
El caso Lysenko

Al compás del acordeón
canto en honor del gran Lysenko.
Gracias a sus enseñanzas
sembramos y recogemos el trigo
y hemos echado al mal tiempo de los campos
trabajando duro en ellos.
Todo miembro de las granjas colectivas
está orgulloso del gran Lysenko
que enseña a todo el país
cómo cultivar un jardín.
Hay una fiesta en la naturaleza
que cruza todo el país
y hará fructificar
la vida de la Unión Soviética.
Al compás del acordeón
canto en honor del gran Lysenko.
«El canto del koljós», letra de A.
SALNIKOVA, música de K.
MASALITAINOVA, canción de los
tiempos de Stalin en honor de Lysenko
Ésta es una historia trágica. De la misma manera que el juicio a Galileo en el siglo XVII, el «caso Lysenko» muestra en el XX las nefastas y explosivas consecuencias de la mezcla entre ciencia, política e intolerancia. En febrero de 1935, en plena época estalinista, y durante el Segundo Congreso Soviético de Granjas Colectivas de la URSS, un tal Trófim Denisovich Lysenko habló y denunció a los genetistas que trabajaban científicamente y con rigor mendeliano diciendo que eran «enemigos del pueblo». El mismísimo Stalin, que estaba presente, interrumpió el discurso y gritó: « ¡Bravo, camarada Lysenko, bravo!». Fue suficiente. A partir de ese momento, Lysenko inició un ascenso meteórico que le permitió transformarse durante treinta años en el dictador de la biología soviética. Y un dictador nada blando, por cierto.
¿Quién era Lysenko? Un biólogo del montón, que en los años veinte se había interesado por la adaptación de ciertas variedades de plantas a climas rigurosos. En diversos artículos aseguró haber obtenido fabulosos rendimientos por hectárea, y reclamó que se extendieran sus «nuevos métodos» al conjunto de la agricultura, ante el escepticismo de los biólogos soviéticos, que cuestionaban el rigor de su metodología, la veracidad de sus cifras, o la temeraria afirmación de que un experimento a escala reducida pudiera generalizarse a un territorio tan vasto y complejo como el de la URSS. Otros, simplemente, lo ignoraban.
Pero Lysenko, entre tanto, no se quedó con el resultado de sus «experimentos». Entre 1931 y 1934 elaboró una «teoría» de la herencia que negaba todos los principios de la genética mendeliana. Según Lysenko, los genes no existían y la transmisión hereditaria era una propiedad general interna de la materia viva, que no necesita de ningún mecanismo especial. La intención era clara: volver a la ya refutada teoría lamarckiana según la cual los caracteres adquiridos por adaptación al medio ambiente pueden ser transmitidos a la descendencia.
La ciencia soviética reaccionó, y con una catarata de trabajos refutó las tesis de Lysenko. Lo cual no hubiera sido más que una mera polémica entre tantas, si se recuerda que en aquellos años la genética, aunque ya bien establecida, no tenía aún el formidable aparato de la biología molecular para respaldarla. Pero en el medio se impuso el apoyo explícito de Stalin a las «innovaciones» de don Lysenko, y una simple controversia académica se convirtió en una sangrienta tragedia.
En 1937, una revista dirigida por Lysenko acusó con nombre y apellido a muchos genetistas de bujarinistas y trotskistas (Bujarin acababa de ser ejecutado poco antes). En febrero de 1938, Lysenko fue nombrado presidente de la Academia Nacional de Ciencias Agrícolas. Su poder creció ininterrumpidamente con el apoyo explícito de Stalin, que era su ardiente partidario, a pesar de los fracasos que la aplicación de las tesis lysenkianas producía una y otra vez en la agricultura y que eran sistemáticamente atribuidos a saboteadores, con la consiguiente ola de denuncias y arrestos.
Buena parte de la plana mayor de la biología soviética fue eliminada: N. V. Agol, acusado de trotskista, fue ejecutado; Levitt fue arrestado también y murió pronto en prisión. Nikolai Ivanovich Vavilov, uno de los botánicos más eminentes de su tiempo, fue enviado a la cárcel en 1940 y condenado a muerte. Aunque la sentencia fue pospuesta, Vavilov murió en 1943 en la prisión de Saratov.
En 1948, un decreto del Ministerio de Educación ordenaba la abolición de todos los cursos sobre genética mendeliana, la eliminación de todos los proyectos de investigación que tuvieran esa orientación, la erradicación de los libros que la apoyaran y la reorganización de todos los departamentos de ciencias biológicas de las universidades, destituyendo a los biólogos mendelianos y reemplazándolos por lysenkistas (y esto ocurría sólo cinco años antes de que Watson y Crick descifraran la estructura del ADN).
Desde 1948 hasta 1964, Lysenko reinó soberano en la biología y la agricultura soviéticas (ya que, tras la muerte de Stalin, Krushov también le prestó su apoyo, para desesperación de su hijo, Serguei Nikítich Krushov, que era científico aeronáutico y no dejaba de decirle a su padre que el lysenkismo era un disparate sin ninguna base racional). La investigación y el desarrollo en una de las ramas más dinámicas de la ciencia contemporánea lentamente fue deslizándose al marasmo y finalmente se detuvo, con sus lógicas consecuencias en la agricultura: en 1963, por primera vez en su historia, la Unión Soviética debió importar granos para alimentar a su población.
El desastre agrícola que el lysenkismo produjo en la Unión Soviética no fue para nada ajeno a la caída de Krushov, el 14 de octubre de 1964. El retraso científico en un área central como la biotecnología fue tal que la entonces Unión Soviética nunca pudo recuperar el tiempo perdido.

§. El proyecto genoma humano
Pero volvamos a hablar de cosas felices. El desarrollo de la genética fue espectacular, y en el año 1990 nació el ambicioso Proyecto Genoma Humano (PGH), un programa internacional originariamente dirigido por James Watson, destinado a determinar la secuencia completa de pares de bases químicas que componen el ADN humano, es decir, cartografiar la totalidad de nuestra información genética.
Inicialmente, se trató de un emprendimiento público, que se desarrollaba en centros públicos de investigación y universidades, pero a partir de 1995 entraron en carrera empresas privadas como Celera Genomics, creada en 1998 por el biólogo estadounidense Craig Venter, que ocultándose detrás de la intención de poner en marcha un nuevo método de secuenciamiento, mucho más rápido, reveló finalmente su intención de patentar genes (lo cual desató una verdadera batalla económica y ética entre quienes sostenían que la información tenía que ser de acceso público y los empresarios, que abogaban por un acceso restringido y estaban decididos a recuperar el tiempo y el dinero invertidos).
Finalmente, con el acuerdo de ambos grupos, en junio de 2000 se dio a conocer un borrador inicial del genoma. Un año más tarde, también ambos grupos publicaron informes en las revistas Nature y Science, donde revelaban la secuencia del genoma y finalmente, en abril de 2003, el NHGRI (National Human Genome Research Institute) y el Departamento de Energía de los Estados Unidos anunciaron oficialmente la terminación exitosa del PGH. En un artículo publicado en Nature el 24 de abril de 2003, justo cuando se cumplían cincuenta años de la comunicación de la estructura del ADN realizada por Watson y Crick, presentaron lo que denominaron «una visión para el futuro de la investigación sobre el genotipo». Venter, por su parte, debió admitir que la información fuera ofrecida al dominio público. De hecho, los datos de la secuencia generados por el PGH fueron depositados en bases de datos públicos y puestos a disposición de los científicos de todo el mundo, sin restricciones en cuanto a su uso o redistribución.
El secuenciamiento del genoma generó algunas sorpresas: si bien se creía que estábamos conformados por alrededor de 100 mil genes, resultó que no poseemos más que unos 30 mil, un valor no muy lejano de los que poseen algunos gusanos. Por otra parte, la evidencia mostró que la especie Homo sapiens, según las evidencias arqueológicas y genéticas, tuvo un único origen en África y de allí se dispersó a otras regiones del planeta. Quedó demostrado, al mismo tiempo, que los genes que determinan ciertas características pueden ser muy diferentes entre dos personas cuyos rasgos externos hacen que sean considerados de la misma raza: dos individuos que pertenecen a distintas razas pueden presentar más similitud genética en ciertas características que dos personas que pertenecen a la misma. Lo cual, felizmente, transformó en obsoleto el concepto de raza.
El secuenciamiento del ADN planteó, obviamente, nuevos desafíos. Uno de ellos, por ejemplo, fue el del denominado «ADN basura». En un principio, se puso en evidencia que sólo el 1,2 por ciento del ADN total está constituido por genes, es decir, por secuencias que contienen claves para la fabricación de proteínas; el resto no es más que una sucesión de «letras» en apariencia sin sentido, que, según se pensaba, no servía para nada. Era un dato algo incómodo, pero la investigación científica parecía confirmarlo: una buena parte del ADN, esa molécula central para la vida, era absolutamente inútil. Sin embargo, un informe de 2012 realizado por un proyecto internacional que involucra a más de 400 científicos (ENCODE) reveló que un porcentaje importante de ese conjunto aparentemente inútil (al menos el 80 por ciento) cumple un papel central a la hora de determinar el comportamiento de las células, los órganos y otros tejidos: funcionan como una suerte de «interruptores» que activan o desactivan a los genes y cuyo mal funcionamiento puede ser responsable de enfermedades conocidas.
En fin: como ocurrió en su momento con la microbiología de Pasteur y Koch, la genética despertó (y sigue despertando) expectativas desmesuradas sobre la futura cura de enfermedades hasta entonces (y hasta ahora) rebeldes, como el cáncer u otras. Muchas de esas ilusiones ya se revelaron como lo que eran (justamente, ilusiones) y se vio que no guardaban relación con lo que efectivamente podía lograrse en su momento. Si aún hoy mantenemos las esperanzas de que la genética sea un puntal de la medicina, que en cierto sentido lo es, todavía habrá que esperar e incorporar otros conocimientos y técnicas, muchas de ellas novedosas e inimaginables por ahora.

Capítulo 34
La medicina científica entre la anestesia y los trasplantes

A lo largo de este libro hemos seguido la dudosa evolución de la medicina y sus balbuceos desde los remotos tiempos de Hipócrates de Cos. Ya entonces, les decía que recién en el siglo XIX logró, finalmente, constituirse como una disciplina verdaderamente científica (en lugar de un conjunto de prácticas sueltas, unidas por vacilantes, y a veces fantásticas, teorías generales) y empezar el impresionante crecimiento que la llevó a alcanzar la potencia que tiene ahora.
Naturalmente, esto pudo producirse al concretarse una unión de hierro con la química, que también por entonces adquiría su mayoría de edad. Pero no solamente: hubo otras vertientes que contribuyeron a encaminar y estabilizar el ámbito de la medicina. Acaso una de las más importantes de todas haya sido la teoría celular, formulada en su forma acabada por Rudolf Virchow, quien en 1858 aseguró:
No importa cuántas vueltas le demos, al final siempre regresaremos a la célula. Si la patología sólo es la fisiología con obstáculos y la vida enferma no es otra cosa que la vida sana interferida por toda clase de influencias externas e internas, entonces la patología también debe referirse finalmente a la célula.

En contra de otras tradiciones que postulaban que el sitio de la enfermedad eran los distintos órganos internos o incluso los tejidos, Virchow se remontaba un paso más hacia el mundo de lo pequeño. La enfermedad actúa sobre las células: era el comienzo de la patología celular.
Entre la idea de la patología celular, que establecía una alianza con la biología, y el pacto de hierro que la medicina había sellado con la química, las cosas estaban bastante encaminadas. Y no tenemos más remedio que volver al centro del asunto, que es la teoría microbiana.

§. La teoría microbiana de la enfermedad (revisitada)
Fíjense que de todos los conceptos de enfermedad postulados a lo largo de la historia, seguramente el más inverosímil e increíble es el que la concibe como resultado de la acción nociva de agentes biológicos, en su mayoría invisibles.
Y sin embargo, la idea era antigua: Tucídides (ca. 460 a.C.) la insinúa en su Historia de las guerras del Peloponeso, y a partir de entonces circula por muchos otros autores. En el siglo XVI, Fracastoro había señalado que el contagio de algunas enfermedades se debía a ciertas semillas. Pero la primera demostración directa de un agente biológico en una enfermedad humana la hizo Giovanni Cosmo Bonomo (ca. 1687), cuando describió con su microscopio al parásito de la sarna, el ácaro Sarcoptes scabieii, y con toda claridad le atribuyó la causa de la enfermedad; sin embargo, su trabajo fue olvidado.
La primera prueba experimental de un agente biológico como causa de una enfermedad epidémica la proporcionó Agostino Bassi(1773-1856), quien debido a problemas con su vista (que lo acompañaron toda su vida y le impidieron el uso del microscopio) había renunciado a su profesión de abogado y se había retirado a su granja en Mairago. Allí, su interés científico lo llevó a estudiar una enfermedad que presentaban los gusanos de seda: el calcinaccio o mal del segno, por culpa del cual la larva se cubría de un polvo blanco y moría. Bassi invirtió veinticinco años en el estudio sistemático de este asunto y exploró la hipótesis de que la causa fuera un «germen externo que entra desde fuera y crece» hasta que, finalmente, identificó al agente causal como un hongo parásito. Entonces publicó sus observaciones, consignó la naturaleza infecciosa de la enfermedad y dio las instrucciones completas para curar a los cultivos de gusanos afectados mediante sustancias químicas que también él descubrió. Sin ninguna prueba empírica, pero con bastante intuición, Bassi generalizó el asunto y pensó que podía servir para comprender el funcionamiento de enfermedades humanas como el sarampión, la peste bubónica, la sífilis, el cólera o la rabia.
Pero el gran teórico de la enfermedad microbiana, si se quiere más que el mismísimo Pasteur, fue Robert Koch, a quien nos hemos referido en el capítulo 26, y seguro que no con el detalle que merece su verdadero papel. Si bien a Koch se lo conoce principalmente como el descubridor del agente causal de la tuberculosis, el Mycobacterium tuberculosis, no fue ésa su contribución principal a la teoría infecciosa de la enfermedad. Lo fundamental fueron sus trabajos previos acerca del ántrax y las enfermedades infecciosas traumáticas, que realizó cuando era médico de pueblo en Wollstein. Koch pudo aislar los agentes causales microbianos de seis infecciones diferentes y señaló:
La frecuente demostración de microorganismos en las enfermedades infecciosas traumáticas hace probable su naturaleza parasitaria. Sin embargo, la prueba sólo será definitiva cuando demostremos la presencia de un tipo determinado de microorganismo parásito en todos los casos de una enfermedad dada y cuando además podamos demostrar que la presencia de estos organismos posee número y distribución tales que permiten explicar todos los síntomas de la enfermedad.
La medicina se enrolaba así en el camino causal: una vez sabidas las causas verdaderas de la enfermedad (pero esta vez no adivinadas, o derivadas de una teoría más o menos fantástica —como la de los humores— sino basadas en la prueba experimental), el camino se despejaba, y quedaba establecido de inmediato el objetivo central del tratamiento: la eliminación del parásito.
Luego, Koch estableció los procedimientos (identificación, aislamiento y demostración de patogenicidad) que todavía sirven en las investigaciones sobre la etiología de las enfermedades infecciosas, en lo que se conoce como los postulados de Koch-Henle (por su maestro Henle). Al mismo tiempo, se definía un programa de acción, desarrollo e investigación que la medicina seguiría —y luego extendería a enfermedades no infecciosas— que consiste en encontrar sustancias capaces de eliminar al microbio sin afectar al ser humano. (Naturalmente, llegó el momento en que se demostró que no era cierto que todas las enfermedades eran causadas por microorganismos.)
Todo esto, si se quiere, forma parte del crecimiento de la medicina en su vertiente teórica. Pero antes de seguir quiero hablarles de otra cosa, que no surgió de la teoría pero que hace directamente a la otra vertiente médica (el arte de curar) y que fue uno de los pasos más gigantescos que la medicina dio en toda la historia humana, sin el cual no habría medicina moderna.

§. La anestesia
La cosa venía desde hacía tiempo. Los antiguos egipcios habían logrado la insensibilidad temporal aplicando presión sobre la arteria carótida en el cuello, deteniendo de esa manera la circulación de la sangre en la cabeza. Los chinos habían usado un anestésico llamado polvo Ma Fat, una especie de hachís que descubrieron en el siglo II. El jugo de la mandrágora y otras plantas fue empleado durante siglos para aliviar el dolor. Los indios sudamericanos masticaban hojas de coca y cal y escupían en la herida mientras operaban.
Paracelso, aquel médico-astrólogo suizo, extravagante y pendenciero, introdujo el láudano en el siglo XVI; en 1805, Sertürner dio un paso adelante y extrajo la morfina (un gran calmante) del opio crudo. Algunos «médicos» de París, Edimburgo y Calcuta incluso usaron el hipnotismo para producir efectos anestésicos temporales, y se dice que el cirujano francés Dupuytren solía insultar deliberadamente a las damas para que éstas se desmayaran antes de una operación. Sin embargo, la solución vendría de un lugar inesperado.
En 1842, William Thomas Green Morton, hijo de un agricultor y almacenero acomodado de Massachusetts, EE.UU., presentó el resultado de sus esforzados trabajos de investigación: una placa dental económica. Era un mecánico hábil, que ya había inventado un soldador para fijar dientes postizos a placas dentales, podía hacer puentes dentales e incluso alguna primitiva cirugía plástica. La verdad es que su nueva placa era un verdadero adelanto, y el público estaba dispuesto a acogerla con entusiasmo. Pero existía un grave obstáculo…
Para que su placa se ajustara cómodamente al paladar, era necesario extraer las raíces de los dientes viejos, e incluso dientes sanos. Lo cual, como es obvio, dolía mucho (cualquiera a quien le hayan sacado una muela con anestesia y haya soportado los dolores posteriores con potentísimos analgésicos puede imaginarse fácilmente el mismo procedimiento pero sin ningún paliativo). De poder hallar alguna manera de evitar el dolor durante la extracción, lo cual parecía imposible, los dientes artificiales que estaba fabricando en gran escala podrían venderse por millares y ganaría una fortuna.
No era el único que buscaba un antídoto contra el dolor: otro joven dentista norteamericano, Horace Wells, estaba buscando el método de producir una anestesia temporal para sus trabajos dentales.
Y, así son las cosas en la historia, en diciembre de 1844 Wells leyó un aviso en el Courant de Hartford anunciando una demostración de un artista ambulante, Gardner Q. Colton, quien prometía mostrar los efectos de un «gas hilarante» que se administraría «solamente a caballeros sumamente respetables para que el espectáculo sea refinado».
El gas hilarante no era nuevo, en realidad, sino que había sido descubierto por Joseph Priestley en 1772, antes aún que el oxígeno. Veintitrés años después, Humphry Davy, uno de los fundadores de la electroquímica, lo inhaló para aliviar el dolor que le causaban sus encías inflamadas y observó su poder anestésico.
Como el óxido nitroso en su amplia operación parece capaz de eliminar el dolor físico, es probable que pueda ser usado ventajosamente en operaciones quirúrgicas en que no tenga lugar una gran efusión de sangre
escribió.
Pero tuvo poca repercusión entre los médicos. En cambio, sí la tuvo entre los artistas profesionales, que viajaron por el mundo haciendo demostraciones, a una de las cuales, como les estaba diciendo, asistió Horace Wells junto a su esposa luego de leer el aviso en el diario. El espectáculo, en el que vio administrar el gas a varios voluntarios que perdieron todo sentido del dolor, le hizo pensar a Wells que el famoso gas hilarante podía funcionar como anestésico para sus operaciones dentales. Después de terminado el show, convenció a Colton de que se lo administrara a él mismo y se hizo extraer un diente sin sentir ningún dolor. Se convenció de tal manera de que ésa era la sustancia que andaba buscando que logró concertar una demostración pública ante la Facultad Médica y los estudiantes de Harvard. Pero algo marchó mal durante la demostración: uno de sus pacientes falleció mientras se hallaba bajo la influencia del anestésico. Obviamente, el auditorio no quedó convencido de su eficacia y Wells abandonó la odontología y se dedicó a una serie de negocios fracasados durante los dos años siguientes, viajando por el estado de Connecticut y vendiendo diferentes artículos hogareños.
En 1847, se mudó a París. Pero no le duró mucho: al volver a Estados Unidos, se volvió adicto al cloroformo (cuyos efectos nocivos no se conocían en absoluto) y un día, delirando, les arrojó ácido sulfúrico a dos mujeres en plena calle. Fue a parar, como es obvio, a la cárcel neoyorquina de Tombs, donde no tardó en darse cuenta de lo que había hecho y se suicidó cortándose una arteria de la pierna con una navaja de afeitar, no sin antes inhalar una dosis analgésica de cloroformo para paliar el dolor.
Entretanto, Morton, que había estado asociado a Wells durante un breve período y lo había ayudado en la infortunada demostración de Boston, empezó a buscar algún otro agente. ¿No serviría el éter? Este líquido incoloro y volátil era conocido desde hacía varios siglos. Valerius Cordus había descripto, en 1540, la manera de fabricarlo tratando el alcohol de maíz con ácido sulfúrico. Tanto Cordus como Paracelso conocían sus propiedades anestésicas y su facultad de sumir temporalmente en la inconsciencia a ciertos animales. El mismísimo Michael Faraday había estudiado el líquido al punto que en 1818 había publicado un artículo sobre sus propiedades en el Journal of Science and Arts. Unos años más tarde, el doctor John D. Goldman, un norteamericano, también realizó experimentos y llamó la atención sobre sus efectos anestésicos. Pero los médicos seguían sin hacer caso.
Morton decidió probar personalmente las propiedades del éter. En su casa de campo de West Needham lo aplicó primero a varios insectos, gusanos, peces, gallinas y a su perro. Dio resultado. Decidió entonces probar sus efectos en sí mismo. Se sentó en un sillón, echó éter en un pañuelo y, con el reloj en la mano, aplicó el pañuelo húmedo a su nariz y su boca. No tardó en perder el conocimiento, y necesitó siete minutos para recuperarlo. Era lo suficiente para extraer no un diente sino tres, se dijo. Morton pidió a uno de sus amigos que le extrajera uno de sus dientes sanos mientras se hallaba bajo la influencia del éter. Nuevamente dio resultado: Morton no sufrió ningún dolor.
Esa misma tarde, un hombre llamado Eben Frost llegó a su consultorio sufriendo terriblemente a causa de una muela infectada y pidió a Morton que lo hipnotizara antes de extraérsela para no sufrir un dolor horrible. Morton le dijo que tenía un nuevo producto químico que lo dormiría, y Frost consintió en que Morton realizara la extracción empleando ese nuevo método. Por la noche, el 30 de septiembre de 1846, Morton extrajo un «bicúspide firmemente arraigado» sin que el paciente sufriera dolor alguno.
Recordemos esa fecha, el 30 de septiembre de 1846, porque ese día nació la anestesia.
Morton hizo que Frost firmara una declaración atestiguando lo que había pasado. Al otro día el Daily Journal, de Boston, publicó un anuncio sobre el acontecimiento:
Anoche fue sacada una muela a un hombre sin que éste experimentara ningún dolor. Fue sumido en una especie de sueño mediante la inhalación de un preparado cuyos efectos duraron aproximadamente un minuto, justo lo suficiente para extraer una muela.
Con el paso del tiempo, la práctica de Morton empezó a mejorar. Como no estaba satisfecho con el método de inhalación, diseñó un artefacto más eficiente, que consistía en un globo de vidrio que llevaba un tubo en un lado y en el otro un agujero que se tapaba con un corcho. Se le ocurrió entonces que podía extender los beneficios del éter a todo el campo de la cirugía, multiplicando así su negocio de manera exponencial. Si lograba que algún cirujano eminente de Boston lo probara, el mundo dolorido y Morton resultarían igualmente beneficiados.
En el Hospital General de Massachusetts, halló a dos hombres dispuestos a hacer la prueba. El doctor John C. Warren, el cirujano más famoso de Nueva Inglaterra y profesor de Cirugía de la Escuela de Medicina de Harvard, consintió en realizar una operación en el anfiteatro quirúrgico del Hospital General de Massachusetts en la mañana del viernes 16 de octubre de 1846. El paciente, Gilbert Abbott, un impresor de veinte años, fue llevado al anfiteatro. Tenía un tumor vascular bajo la mandíbula, que debía ser extirpado. Morton se acercó al paciente y sacó el corcho del inhalador de vidrio. Abbott puso el tubo en su boca, y tres minutos más tarde estaba dormido.
Warren, que tenía cerca de setenta años, trabajó rápida y hábilmente con el bisturí, y el tumor fue extraído. El paciente seguía respirando pesadamente, y tardó cinco minutos en salir de su estupor. Warren le preguntó si había sentido dolor. La respuesta fue que no, que solamente había sentido un ligero arañazo. Volviéndose al doctor Henry J. Bigelow y a los demás médicos allí reunidos, y dirigiéndose también a los estudiantes que se hallaban en sus bancos, el doctor Warren exclamó:
Señores, esto no es un cuento.
Un mes después de la prueba histórica de Boston, Bigelow publicó un artículo en el Boston Medical and Surgical Journal anunciando el gran acontecimiento a todo el mundo médico. El famoso periódico médico de Inglaterra, The Lancet, anunció:
El descubrimiento del doctor Morton indudablemente ocupará un lugar prominente entre los dones de los conocimientos y descubrimientos del hombre.
La cirugía, de golpe, cambió: los cirujanos podían atreverse a realizar operaciones que parecían imposibles antes de la anestesia del éter. Los experimentos en animales recibieron también un nuevo impulso. Antes de concluir el año 1846, los cirujanos de Londres y París estaban empleando la anestesia del éter y en enero del año siguiente, Alemania y Austria pudieron disponer de esa nueva «arma de la medicina».
Entre los que aplicaron el método estaba el doctor James Young Simpson, jefe de las salas de maternidad de la Enfermería de Edimburgo, quien si bien sabía que el éter era mejor que nada, fue impulsado, por una serie de efectos desagradables, a buscar un anestésico que lo sustituyera. Y probó con el cloroformo, que también tenía su historia. En realidad, había sido producido por primera vez por Samuel Guthrie, un cirujano militar norteamericano, a fines de 1830, cuando trató el cloruro de calcio con alcohol de maíz. Publicó sus resultados dos años más tarde, mientras otros dos químicos (Soubeiran en Francia y Liebig en Alemania) llegaban de manera independiente al mismo producto químico aproximadamente en la misma fecha. En su artículo original, Guthrie demostró que no ignoraba el uso posible de este nuevo producto químico:
En los últimos seis meses un gran número de personas ha bebido la solución de éter calórico —llamado posteriormente «cloroformo» por Dumas— en mi laboratorio, no en gran cantidad, pero frecuentemente, hasta el punto de embriagarse… para descubrir su probable valor como medicina.
La cuestión es que Simpson, que no estaba del todo contento con el éter, ensayó los efectos del cloroformo en conejos y otros animales pequeños. Cuando los resultados parecieron satisfactorios, él y dos de sus amigos inhalaron personalmente los vapores del líquido y se convencieron de que era un anestésico seguro y eficaz. En noviembre de 1847, por primera vez, empleó el cloroformo como anestésico durante un parto, mientras los teólogos escoceses se escandalizaban porque resultaba contrario a la voluntad de Dios «es decir, al mandato bíblico de sufrir».
La refutación de Simpson fue inteligente: recurrió a la Biblia y eligió el vigésimo primer versículo del segundo capítulo del Libro del Génesis, confrontando a los teólogos con el relato de la extracción de la costilla de Adán de la cual fue hecha Eva. Simpson señaló que Dios había hecho que Adán quedara profundamente dormido antes de realizar la «cirugía», lo cual demostraba que al Señor, cuando le tocaba oficiar de cirujano, no se oponía a que fuera suprimido el dolor. La disputa terminó en abril de 1853, cuando la Reina Victoria dio a luz a su séptimo hijo, el príncipe Leopoldo, bajo la acción del cloroformo.

§. La controversia del éter
Al mismo tiempo que el éter, el óxido nitroso y el cloroformo empezaban a aliviar los dolores de la humanidad y a salvar vidas, se desarrollaba una violenta controversia sobre la prioridad del descubrimiento y los derechos de patente del éter: la llamada «controversia del éter». Más o menos fue así: mientras Morton estaba dedicado a su negocio odontológico, siguió algunos cursos en la Escuela de Medicina del Colegio de Harvard, donde conoció al doctor Charles Thomas Jackson (1805-1880), en cuya casa vivió durante algún tiempo mientras estuvo en Boston. Jackson poseía su propio laboratorio de química, se dedicó a trabajos geológicos y realizó numerosos inventos. Cuando Morton le contó el fracaso del óxido nitroso como anestésico, Jackson mencionó que podía probar el éter y le ofreció una cierta cantidad. Morton escuchó atentamente todos los informes relacionados con los usos y propiedades de esa sustancia, pero se resistió a entrar en cualquier sociedad o acuerdo con Jackson, quien tenía una reputación poco envidiable (solía, se dice, arrogarse la prioridad de muchos descubrimientos que anunciaban sus colegas).
Morton indicó que una demostración pública del empleo del éter como anestésico en cirugía tendría un éxito inmediato, y Jackson le sugirió que se pusiera en contacto con el doctor Warren, del Hospital General de Massachusetts. Pero antes de dar este paso, le recomendó que patentara su éter bajo algún nombre comercial. Morton solicitó una patente para su Letheon (en honor a las aguas mitológicas del Leteo, que hacían olvidar todos los recuerdos dolorosos) en su nombre y el de Jackson, acordando darle a este último el diez por ciento de las ganancias que se obtuvieran con el empleo del éter y su inhalador. Jackson aceptó el arreglo, pero más tarde, temiendo un posible fracaso de la demostración pública, pidió el pago de 500 dólares al contado por el «consejo dado» a Morton, renunciando a todo otro derecho.
Después de haber declarado públicamente el doctor Warren al mundo entero que la anestesia del éter no era una fábula, Morton continuó manteniendo en secreto la naturaleza del líquido que estaba empleando. Pero el 12 de noviembre, a menos de un mes de la histórica prueba, le fue concedida la patente Nº 4818. Morton divulgó el secreto a Warren y a Bigelow, quienes anunciaron la gran nueva en el Medical and Surgical Journal, de Boston. Esta noticia debía ser despachada en un vapor que zarpaba para Europa el 19 de diciembre. Jackson, entre tanto, envió una carta por el mismo buque a un amigo, Elie de Beaumont, miembro de la Academia de Ciencias francesa, pidiéndole que reclamara la prioridad del descubrimiento de la anestesia del éter en su nombre sin perder tiempo.
Jackson, evidentemente, estaba decidido a no dejar escapar de sus manos esa mina de oro. El 2 de marzo de 1847, en una reunión de la Academia de Boston, afirmó ser el único descubridor de la nueva anestesia, sin siquiera mencionar el nombre de Morton. Nuestro viejo conocido Horace Wells decidió también sacar su parte de las ganancias. Morton le había escrito pidiéndole que lo ayudara a acelerar la obtención de la patente del éter en Nueva York. En lugar de hacerlo, Wells reclamó para sí la prioridad del descubrimiento el 7 de diciembre de 1846 en el Courant de Hartford.
Morton, en tanto, proyectaba una campaña mundial de ventas para su anestesia. Para empezar, dio al gobierno norteamericano inhaladores a precio de costo para el ejército y la armada y se ofreció a enseñar gratuitamente el uso de la anestesia del éter. El ejército y la armada efectivamente la emplearon durante la guerra de México (en la cual los EE.UU. se apropiaron de la mitad del territorio mexicano de aquel entonces), pero Morton no recibió compensación alguna del gobierno. Y de hecho, jamás consiguió que el descubrimiento le diera ganancias. Cirujanos, dentistas y hospitales del mundo entero emplearon su anestesia sin pagar ningún tipo de derechos.
Su situación financiera empeoró rápidamente. En 1849 solicitó al Congreso una recompensa monetaria en lugar de los derechos que no le habían sido pagados, y el senador Stephen A. Douglas habló en su favor. Gran Bretaña había recompensado a Jenner con 25.000 libras por su descubrimiento de la vacuna contra la viruela; ¿por qué no debía Estados Unidos hacer lo mismo con sus hijos? Tal vez hubiera recibido Morton el dinero de no haber sido por el reclamo de Jackson, quien aseguraba hipócritamente que había rechazado la patente porque no quería beneficiarse con los sufrimientos de la humanidad y calificaba a Morton de «charlatán e individuo vil».
El suicidio de Horace Wells en esos días no hizo más que aumentar las dificultades de Morton. La viuda pidió al Congreso que reconociera las reclamaciones de su difunto esposo, y el senador Truman Smith empleó esa reclamación como un argumento más contra la concesión de una suma en favor de Morton. El asunto estuvo a punto de convertirse en un escándalo público.
Y llegó hasta Europa: en 1850, la Academia de Ciencia francesa dispuso que el Premio Montyon, de 5.000 francos, fuera dividido igualmente entre los dos «benefactores de la humanidad», Morton y Jackson. Al rechazar Morton indignado su parte del premio, se acuñó una medalla de oro en su honor. En Inglaterra se recolectaron 50.000 dólares para el dentista norteamericano, pero cuando los amigos de Jackson lo supieron provocaron tal tumulto que el dinero fue devuelto a los donantes. Otras naciones europeas dividieron sus simpatías. Morton recibió condecoraciones de Rusia, Suecia y Prusia, mientras Italia y Turquía honraban a Jackson.
Ocho años después de haber dado Morton la anestesia de éter al mundo, el Congreso norteamericano seguía debatiendo aún si debía prestarle ayuda. Mientras tanto, la Universidad de Harvard le otorgó un grado honorario y el Hospital General de Massachusetts le regaló una copa de plata que contenía 1.000 dólares en efectivo. Pero Jackson seguía combatiendo a su rival con todas las armas a su alcance: por entonces se enteró de que un médico rural de Georgia parecía haber utilizado la anestesia de éter cuatro años antes de la demostración pública de Morton. En Athens, Georgia, a donde se dirigió especialmente (lo cual demuestra la saña del personaje), confirmó que Crawford W. Long había sido el primero en realizar una operación quirúrgica bajo la anestesia del éter.
La historia había sido así: Long había prestado servicios como interno en una sala de cirugía durante dieciocho meses y había empezado a pensar en la anestesia, como todos, contemplando a un artista ambulante hacer demostraciones del efecto del gas hilarante. En verdad, más que en la anestesia pensaba en la diversión: el éter poseía propiedades embriagadoras y los jóvenes solían reunirse y divertirse inhalándolo. Pero un día Long observó que varios jóvenes que se habían lastimado durante esas sesiones etéreas (por llamar de una manera elegante a lo que eran, en realidad, orgías hechas y derechas) no daban señales de sentir dolor. Probó entonces personalmente y verificó lo que sospechaba: el éter podía usarse para operar. Por eso, cuando su amigo James M. Venable le contó sobre los tumores que tenía en la nuca, Long vio la posibilidad única de operarlo anestesiándolo con éter. Venable aceptó.
El 30 de marzo de 1842, Long echó éter en una toalla, la colocó sobre la nariz de su amigo y esperó a que se durmiera, empezando a cortar el tumor. Cuando le pareció que su paciente comenzaba a salir de su sueño, echó otras gotas del líquido en la toalla y continuó la operación hasta que le extirpó uno de los tumores. Venable recuperó el conocimiento y Long se dio cuenta de que había realizado la primera operación con anestesia en la historia de la humanidad.
Pero ni el uno ni el otro se dirigió a los periódicos o la oficina de patentes. Long, que entonces tenía veintiséis años, ni siquiera notificó a ninguna sociedad médica acerca del trascendental suceso. Quería repetir el experimento. En junio del mismo año, empleando obviamente su nuevo método, Long extirpó el segundo tumor del cuello de Venable y al mes siguiente amputó un pie. En los cuatro años siguientes, realizó ocho intervenciones quirúrgicas de importancia secundaria, usando éter en ellas.
El problema es que Long consideraba con cierto escepticismo la posibilidad de una aplicación más amplia de la anestesia de éter, y no se tomó el trabajo de dar cuenta de sus operaciones hasta diciembre de 1849, más de siete años después de haberlo usado por primera vez (y cuando ya la controversia estaba en su punto álgido).
Long se había abstenido, hasta entonces, de participar de la polémica. Pero en 1853, escribió en el Southern Medical and Surgical Journal
Sé que he demorado demasiado tiempo la publicación para recibir honor alguno por la prioridad del descubrimiento, pero habiendo sido persuadido por mis amigos de que presentara mis derechos ante la profesión, prefiero que su exactitud sea plenamente investigada por la Sociedad Médica. Si la Sociedad dijera que mi reclamación, aunque bien fundada, ha prescripto por no haber sido presentada antes, contestaré alegremente: «Así sea».

Aparecía un nuevo actor, y Morton ya estaba cansado:
Mi sistema nervioso parece estar tan destrozado que cualquier sorpresa o ruido repentino me produce un choque.
Pero la disputa por la patente continuó durante dieciséis años. Jackson triunfó al final, y la patente de Morton fue anulada oficialmente el 1º de diciembre de 1862. Entretanto, había estallado la Guerra Civil. Morton ofreció voluntariamente sus servicios al Norte y administró éter a centenares de heridos yanquis. Los ejércitos del sur también usaron esta anestesia.
Pero ni los horrores de la guerra pudieron hacer olvidar a Morton su lucha personal. En 1868 apareció en una revista un artículo que mantenía los derechos de Jackson. Morton lo leyó mientras se encontraba en Nueva York y es de pensar que no pudo soportarlo: sufrió un ataque y murió poco después en el Hospital de St. Luke, dejando en la indigencia a su esposa y cinco hijos. A Jackson no le fue mejor. Su mente cedió bajo esa larga tensión y debió ser confinado en un manicomio, en donde falleció en 1890.
En fin: dediqué todos estos extensos párrafos a la anestesia y su historia (y a la sórdida disputa sobre su paternidad) porque creo que pocas cosas fueron tan impresionantemente útiles para aliviar el sufrimiento, cosa que pienso cada vez que me siento en el sillón del dentista. Pero la anestesia no se limitó a eso sino que permitió una exploración del cuerpo humano inconcebible hasta entonces. Resolvió miles de problemas, y no sólo en el campo de la cirugía.
Wells se suicidó en un ataque de locura, Morton murió de un ataque, Jackson terminó en un manicomio: fueron tristes finales para estos benefactores de la humanidad.

§. Lister y la antisepsia
Después del gigantesco, monstruoso paso adelante que significó la anestesia, la antisepsia se llevó la siguiente corona de laureles. El éxito se debió, en gran parte, a los trabajos del inglés Joseph Lister (1827-1912). Terminados sus estudios en Londres, se trasladó a Edimburgo, ciudad donde permaneció siete años y llevó a cabo la mayor parte de su obra. Lister partió de una observación básica: las fracturas expuestas siempre supuraban, mientras que aquellas en las que la piel estaba intacta se mantenían libres de pus. Combinando sus observaciones con las de Pasteur, y asumiendo que la teoría microbiana era aplicable a la putrefacción de los tejidos vivos en las heridas, supuso que la fuente primordial de la infección residía en los microorganismos existentes en el aire, aunque no se le escapó que los microbios podían ser transportados por los instrumentos quirúrgicos.
Para eliminar los microorganismos, Lister comenzó por buscar una sustancia «antiséptica», es decir, que disminuyera las posibilidades de una infección. Ensayó con cloruro de zinc, luego con sulfitos y finalmente, en 1865, se detuvo en el ácido fénico (que ya había sido recomendado, por el químico francés François Jules Lemaire). Lister comenzó a limpiar las heridas con pulverizaciones de ácido fénico, protegiéndolas luego con varias capas impregnadas unas con ácido fénico, otras con parafina. El éxito fue extraordinario: en los tres primeros años, de acuerdo con las propias estadísticas hospitalarias, logró disminuir drásticamente la mortalidad. En 1867 publicó los resultados de sus tratamientos de fracturas expuestas y de abscesos en dos artículos, el segundo de los cuales («Sobre los principios antisépticos en la práctica de la cirugía») puede ser considerado como el texto fundante de la antisepsia. Curiosamente, tuvo poca repercusión en Inglaterra, aunque se difundió rápidamente en Europa: el primero de los «listerianos» franceses —Just Lucas-Championnière (1843-1913)— dio un paso más al reconocer la importancia de la esterilización de los instrumentos mediante el vapor, mientras que el alemán Ernst von Bergmann (1836- 1907) introdujo los procedimientos asépticos que luego se volvieron clásicos.
Recordemos aquí que tanto Lister como Bergmann tuvieron un incomprendido y gran precursor en la figura del ginecólogo húngaro Ignaz Semmelweis, cuya vida trágica les conté en el capítulo 26.

§. En busca de las balas mágicas
Después de este recorrido quirúrgico, fundamental para entender en qué andaban las cosas en el siglo XIX, volvamos al programa principal de la medicina, que se estableció al tiempo que triunfaba la teoría de la enfermedad microbiana. Cuando en 1905 se identificó la bacteria que produce la sífilis, el modelo microbiano se afianzó y generalizó y, como sucede muchas veces, la teoría extendió su imperialismo. La idea fundamental era que todas las enfermedades eran producidas por un agente biológico y el programa, como ya les dije, consistía en encontrar compuestos químicos capaces de exterminar al agente causal sin producir «daños colaterales» en el paciente. Esos compuestos químicos eran escurridizos y tardaron mucho en ser descubiertos.
Aunque, a decir verdad, el naturalista irlandés John Tyndall ya se había topado con uno de ellos mucho antes de que se descubrieran y se empezaran a usar los antibióticos propiamente dichos. En 1875, estudiando la distribución de las bacterias en el aire, había observado que en la superficie de algunos caldos que utilizaba para sus experimentos flotaban mohos del grupo Penicillium. En un artículo que publicó un año después, escribió que
en todos los casos en que el moho era denso, las bacterias morían o se volvían inactivas o caían al fondo como sedimento.
Era —por lo visto— un moho que mataba las bacterias, ni más ni menos. Pero de la misma manera que los que veían aire deflogisticado donde en verdad había oxígeno, Tyndall había encontrado la «bala mágica» (como la llamaría muchos años después el gran médico alemán Paul Ehrlich) antes de tiempo: aún no estaba fraguada del todo la teoría de la infección microbiana y Tyndall apenas le prestó atención a lo que observó.
Cuando el propio Ehrlich comenzó a estudiar el asunto, la historia era diferente, a tal punto que dedicó su vida a esta tarea. Su método era clara y puramente empírico: probaba en animales sustancia tras sustancia y medía los resultados, en general —y naturalmente— sin éxito. Hasta que en determinado momento, después de probar y probar, encontró una sustancia (la 606) que tuvo resultados inmediatos en conejos infectados con la bacteria de la sífilis, y fue muy promisoria en humanos, aunque generaba efectos secundarios desalentadores (algunos pacientes quedaron permanentemente sordos, otros desarrollaron gangrena). Era el comienzo de todo, pero solamente el comienzo.

§. Los antibióticos
La gloria quedó para Alexander Fleming(1881-1955), un escocés que había estudiado medicina en el hospital St. Mary’s de Londres y se dedicaba desde su graduación, en 1908, a la bacteriología, las vacunas y la microbiología de las heridas de guerra y su tratamiento. La historia es que en 1928, en la víspera de sus vacaciones, Fleming sembró unos cultivos bacterianos en varias placas de vidrio para que se desarrollaran durante su ausencia. Era una operación de rutina, pero dos semanas después, cuando regresó, encontró que las placas se habían contaminado, algunas de ellas con mohos del grupo Penicillium (el mismo que había encontrado Tyndall más de sesenta años antes). Que se hubieran llenado de moho no era nada demasiado extraño, pero había otra cosa que sí lo era: alrededor de ese moho no había crecido ninguna colonia de bacterias. Fleming había encontrado —o reencontrado, para ser más precisos— la bala mágica.
No se dio cuenta inmediatamente, pero después de varios experimentos llegó a la conclusión de que el moho fabricaba una sustancia que combatía las colonias de bacterias: la llamó penicilina y no tardó en probarla con éxito en pacientes que tenían infecciones oculares.
Así y todo, Fleming no vio los alcances reales de lo que había encontrado, y, si bien publicó un par de artículos sobre el tema, la penicilina cayó en el olvido. Aunque por poco tiempo. En 1932, un discípulo de Ehrlich, Gehrard Domagk, descubrió lo que su maestro había buscado toda su vida: el protonsil, un colorante que la industria textil había descartado, tenía evidentes propiedades antibacterianas. Domagk observó que, en efecto, la inyección intravenosa curaba a los ratones infectados con bacterias. Entonces decidió inyectárselo a su hija, que ya era considerada un caso perdido por una infección que ningún médico había podido controlar. La inyección la curó por completo.
El protonsil reavivó la esperanza de encontrar sustancias que atacaran las bacterias de manera efectiva. Poco después, Ernst Chain (1906-1979), un químico que había escapado de la dictadura nazi, consiguió fondos de la Fundación Rockefeller y armó un grupo que logró determinar la estructura química de la penicilina, la purificó en forma de cristales y demostró que su toxicidad en los animales de laboratorio era bajísima. El experimento con el que comprobó esto último es lo que se conoce como un «experimento crucial»: infectaron a ocho ratones con dosis mortales de bacterias y a cuatro de ellos les aplicaron, además, una dosis de penicilina. Los ratones que recibieron el antibiótico sobrevivieron; los otro cuatro murieron.
Los resultados fueron publicados en el número del 24 de agosto de 1940 de The Lancet, nuevamente. Era el anuncio público de la «bala mágica», que, al ser probada en humanos, dio resultados espectaculares. Cinco años más tarde, la penicilina ya había salvado miles de vidas.

§. La inmunología
El origen de la inmunología se identifica con el de las vacunas, debidas a Jenner, y con el del primer método general para producirlas, desarrollado por Pasteur. Pero ni Jenner ni Pasteur tenían la menor idea acerca de qué era lo que ocurría en el organismo cuando se hacía resistente a una enfermedad infecciosa. El primero que pudo decir algo al respecto fue Elie Metchnikoff (1845-1916), biólogo originario de Rusia que realizó la mayor parte de su carrera en el Instituto Pasteur de París.
Él mismo cuenta que en 1883, mientras su familia disfrutaba de un espectáculo de monos amaestrados en el circo, se había quedado observando en el microscopio la actividad de unas células móviles de una larva de estrella de mar. De repente, se le vino una idea a la mente: pensó que, tal vez, células similares podrían funcionar para proteger al organismo contra invasores dañinos.
Pensé que, si mi suposición era correcta, una astilla clavada en la larva de la estrella de mar pronto debería rodearse de células móviles, tal como se observa en la vecindad de una astilla en el dedo. Tan pronto como lo pensé lo hice. En el pequeño jardín de nuestra casa tomé varias espinas de un rosal y las introduje por debajo de la cubierta de algunas bellas larvas de estrellas de mar, transparentes como el agua. Muy nervioso, no dormí durante la noche, esperando los resultados de mi experimento. En la mañana siguiente, muy temprano, encontré con alegría que había sido todo un éxito. Este experimento fue la base de la teoría fagocítica, a la que dediqué los siguientes 25 años de mi vida.
Metchnikoff discutió sus hallazgos con Virchow —el gran responsable del triunfo de la teoría celular—, cuando éste visitó Mesina meses después, y, estimulado por el gran patólogo alemán, publicó su famoso artículo «Una enfermedad producida por levaduras en Daphnia: una contribución a la teoría de la lucha de los fagocitos en contra de los patógenos» (1884), donde presentaba con claridad su teoría y explicaba el proceso de fagocitosis (es decir, aquel por el cual algunas células «atrapan» partículas sólidas y las desintegran en su interior):
Ha surgido que la reacción inflamatoria es la expresión de una función muy primitiva del reino animal basada en el aparato nutritivo de animales unicelulares y de metazoarios inferiores (esponjas). Por lo tanto, debe esperarse que tales consideraciones lleven a iluminar los oscuros fenómenos de la inmunidad y la vacunación, por analogía con el estudio del proceso de la digestión celular,
decía allí.
La teoría de Metchnikoff era sólida y tenía un buen sustento material, pero pronto apareció otra escuela que iba a contender por la supremacía del mecanismo fundamental de la inmunidad: a la teoría celular o de la fagocitosis se opuso la teoría humoral —un pésimo nombre, digamos de paso, ya que remitía a concepciones perimidas hacía tiempo— o de los anticuerpos, de Emil Behring (1854-1917) (quien en 1896 ingresó a la nobleza y desde entonces añadió «von» a su apellido). La disputa fue histórica, pero como a veces ocurre en esta clase de disputas, Behring admiraba mucho a Pasteur y era gran amigo y compadre de Metchnikoff; además, resultó que los dos bandos tenían razón y que tanto las células como los anticuerpos (que no son células sino proteínas) participan en la inmunidad. (De hecho, Behring recibió el Premio Nobel en 1901 y Metchnikoff lo compartió con Ehrlich en 1908.)
La naturaleza química y la estructura molecular de los anticuerpos se establecieron en la segunda mitad del siglo XX, junto con los mecanismos genéticos que controlan su especificidad. Uno de los avances más importantes en la inmunología fue el descubrimiento de la participación de los linfocitos (glóbulos blancos), realizado por James L. Gowans (n. 1924) y sus colaboradores, aunque antes ya se había identificado a la célula plasmática como la responsable de la síntesis de los anticuerpos.
El conocimiento a fondo del sistema inmunológico condujo a la posibilidad del trasplante de órganos. En 1967, el cirujano sudafricano Christian Barnard llevó a cabo el primer trasplante mundial de corazón en el paciente Louis Washkansky. En este caso, el paciente falleció a los 18 días por complicación pulmonar, pero ahora los trasplantes se practican con gran éxito desde hace varios años. La operación pionera de Barnard fue el inicio de muchas otras, entre las que se pueden mencionar los trasplantes cardiopulmonares en bloque, los trasplantes de riñón, de médula ósea…

§. La imposibilidad de resumir
Narrar la historia de algo en la segunda mitad del siglo XX, y sobre todo la de la ciencia, es prácticamente imposible. Sería una empresa sin sentido intentar resumir aquí la avalancha de descubrimientos y éxitos médicos del siglo XX, muchos provenientes de los terrenos de la química. Un buen ejemplo son las vitaminas: desde la introducción del término en 1912, por parte del bioquímico polaco Casimir Funk, se ha aislado una gran variedad de estos compuestos y se han definido sus funciones nutricionales. Pero la bioquímica, que ya es capaz de escudriñar y modificar moléculas, ha sido esencial, también, para determinar la función de las hormonas, para aislar y estudiar las proteínas (lo cual condujo al descubrimiento del ADN) y para desarrollar fármacos específicos para diferentes enfermedades.
A la mejora en el tratamiento y diagnóstico se agregaron aparatos cada vez más y más sofisticados: el electroencefalograma, el electrocardiograma, los rayos X; más cerca de nuestro presente, la tomografía computada (que consiste en una serie de radiografías que permiten reconstrucciones en tres dimensiones), la tomografía mediante emisión de positrones (partículas exactamente iguales al electrón, pero de signo contrario), la resonancia magnético-nuclear, el microscopio electrónico, los materiales radiactivos para destruir células dañadas, los marcadores radiactivos para poder seguir las evoluciones fisiológicas dentro del cuerpo… Nadie los ha contado, pero es probable que hoy existan más de mil exámenes y pruebas de laboratorio útiles para el diagnóstico y el tratamiento de la mayoría de los enfermos, con las que ni Hipócrates, ni Boerhaave, ni Harvey, soñaron en sus respectivos tiempos para auxiliar a sus pacientes.
Y al mismo tiempo, creció y se impuso la medicina como bien social, y el acceso a la salud de todos como un mandato que, en la actualidad, se cumpla o no, es aceptado por todos los países y figura entre los derechos del hombre fijados por las Naciones Unidas. Como resultado de ello, se crearon las organizaciones mundiales de la salud: en 1945 se fundó la World Medical Association, que engloba a más de cincuenta asociaciones médicas nacionales, y en 1948 nació la Organización Mundial de la Salud (OMS), autoridad que coordina los problemas y proyectos sanitarios de carácter internacional.
De esta manera la medicina, que había vagado sin brújula durante la mayor parte de su larga historia, por fin se estabilizó. Y todo había comenzado, si se quiere, más de dos mil años atrás, con aquellas viejas especulaciones griegas sobre el equilibrio y desequilibrio de los humores.

Parte VII
Persiguiendo el origen: el camino a la partícula divina

051.jpg

Contenido:
35. La mecánica cuántica
36. La fisión nuclear y la bomba atómica
37. El núcleo atómico y el modelo estándar
38. En busca del origen
39. La estructura del universo y la teoría del Big Bang
40. La «Máquina de Dios»

Capítulo 35
La mecánica cuántica

Muy pronto, la realidad cedió en más de un punto.
J. L. BORGES, «Tlon, Uqbar, Orbis Tertius»
Todo empezó de la manera más inocente, con la luz y la radiación. En las últimas décadas del siglo XIX, la teoría ondulatoria de la luz había triunfado contundentemente sobre la teoría corpuscular, lo cual significaba que se concebía la luz como una radiación electromagnética, tal y como había predicho Maxwell y como había demostrado experimentalmente Hertz en 1888. Una vez establecidas las dos partes que componían el mundo, la materia y la radiación, la cuestión era averiguar cómo interactuaban entre ellas.
No se notaba, a simple vista, que tal relación pudiera traer demasiadas complicaciones. Pero lo cierto es que desató una revolución tan grande en la física que todos los conceptos tuvieron que ser revisados —más aún que con la teoría de la relatividad— y se convirtieron en un cuerpo de doctrina completísimo y tremendamente eficaz: la mecánica cuántica. Es un camino ríspido y complejo, porque la mecánica cuántica lo es. Seamos pacientes, entonces, y sigamos con cuidado y atención los pasos de su construcción.

§. El hilo se corta por lo más grueso
Todo empezó, les decía, de la manera más inocente. A principios del siglo XX, y ya repuestos (o a medias repuestos, a decir verdad) del shock del descubrimiento de que el átomo era algo compuesto y que había partículas incluso más chicas, los físicos creían tener un mapa más o menos completo gracias al cual sabían aproximadamente bien qué debían hacer. Al menos, lo hacían bajo el amparo de una ávida y segura concepción: los objetos materiales, como los átomos, o los recién llegados y ya aceptados electrones, tenían que ser descriptos como partículas, pero la radiación electromagnética, incluida la luz, había que entenderla en forma de ondas. De lo que se trataba, ahora, era de comprender de qué manera interactuaba la radiación con la materia, una tarea, si se quiere, de rutina: parecía seguro que por ahí iban las cosas que permitirían construir una imagen armoniosa que unificara la física. Pero debemos retroceder un poco para entender la dimensión de la revolución conceptual que se desató cuando se indagó a fondo en estos temas. Para empezar, hay que decir que todo cuerpo emite radiaciones electromagnéticas. El espectro electromagnético, que pueden ver en la imagen siguiente, clasifica las diversas radiaciones de acuerdo con su frecuencia (es decir, el número de repeticiones por unidad de tiempo) y su longitud de onda (inversamente proporcional a la frecuencia). Así, por ejemplo, un cuerpo que emite con mucha frecuencia y longitud de onda corta lo hará en ultravioleta o, aún más, emitirá rayos gamma.

052.jpg

La forma de estudiar cómo interaccionan materia y radiación consiste en observar un objeto caliente, ya que éste irradia mucha energía electromagnética. Cuanto más caliente está, más energía irradia, cada vez con longitudes de onda más cortas (lo que es lo mismo que decir: con frecuencias más altas). Así, por ejemplo, un cuerpo demasiado frío para irradiar luz visible puede emitir radiación infrarroja de baja frecuencia, inaprehensible para el ojo humano, pero perfectamente detectable por los aparatos.
El recurso estándar que se utilizaba para medir la radiación en ese momento era el llamado «cuerpo negro», un objeto teórico, perfecto absorbente o emisor de radiación (es decir, que absorbe toda la radiación que le llega). Además de ser un excelente objeto teórico, es fácil construir un cuerpo negro más o menos riguroso en el laboratorio: basta tomar una esfera hueca, o un tubo con los extremos cerrados, y practicar un pequeño agujero en su superficie. Cualquier radiación, como la luz, que penetre por ese agujero, quedará atrapada en el interior, rebotando en las paredes hasta ser absorbida; es muy improbable que pueda salir a través del hueco debido a ese rebote o, si sale, lo hará en una fracción mínima. Por lo tanto, el cuerpo la absorbe y ese agujero es un cuerpo negro.
Y es entonces cuando se produjo un chispazo entre lo que se medía experimentalmente y la teoría clásica. La cuestión es así: las leyes del electromagnetismo clásico preveían que un cuerpo negro ideal, cuando estaba en equilibrio térmico, debía emitir energía en todos los rangos de frecuencia (desde las ondas más largas a las más cortas) pero siguiendo una proporcionalidad muy específica: a mayor frecuencia, mayor energía emitida. Lo cual suponía que en el rango más elevado del espectro (es decir, aquel con frecuencias más altas y longitudes de onda más cortas: el ultravioleta, dado que los rayos gamma aún no se conocían) la emisión de energía debía ser enorme, infinita, en realidad.
Y resulta que la curva de emisión del cuerpo negro no encajaba para nada con lo que se esperaba. Esa energía infinita que predecía la teoría, y que obviamente no podía ser, fue llamada «catástrofe del ultravioleta», y atrajo la atención de un buen número de físicos durante la última década del siglo XIX. Uno de ellos fue Max Planck (1858-1947), un científico a todas luces clásico que quería explicar la catástrofe del ultravioleta mediante las leyes de la termodinámica, en las cuales se había mostrado especialmente interesado.
Por entonces, se conocían dos ecuaciones que, unidas, o mejor dicho, pegadas, o enganchadas, proporcionaban una pasable descripción del comportamiento del cuerpo negro: una que daba buenos resultados para grandes longitudes de onda, y otra que se ajustaba bastante a las observaciones efectuadas a baja longitud de onda. Pero lo cierto es que era un pastiche, y nadie podía creer que no existiera una única ley que describiera el comportamiento de un cuerpo que, en el fondo, era un dispositivo sencillo y estilizado.
Planck tenía enfrente al cuerpo negro y un puñado de leyes en las que no confiaba del todo, tal fue la cuestión.
Se venía ocupando de él desde 1895 y hasta 1900 publicó varios artículos, muy interesantes, sí, pero que no resolvían el problema. Ensayaba vueltas de tuerca diferentes, pero siempre se quedaba a mitad de camino: parecía ser que, o bien había que aceptar la discrepancia entre la teoría y la empiria, o bien había que arreglárselas con la ensalada de las dos leyes.
Pero en 1900 Planck cambió de estrategia y dio un salto al vacío. Como muchas veces pasa en la historia de la ciencia, una vez agotados los recursos razonables se prueba con uno que a primera vista no lo es y esto no siempre se produce como resultado de consideraciones científicas frías, serenas y lógicas, sino como un medio extremo en el que se mezclan el azar, la intuición y la buena o mala suerte.
Así fue: ahí lo tenemos a Planck, decidido a probar con una solución inverosímil: ni más ni menos que suponer, contra toda la teoría clásica de la física y todo lo que se sabía sobre la naturaleza de la energía, que ésta no era emitida ni absorbida en forma continua, sino en pequeños «paquetes», o cuantos, tal como si se tratara de partículas. Era un disparate, cosa que él mismo pensaba a medias, pero resulta que con esa suposición en apariencia disparatada consiguió una fórmula matemática simple que proporcionaba la forma completa de la curva y que concordaba perfectamente con las observaciones de la radiación emitida por el cuerpo negro. Aunque, por supuesto, nadie —ni él— entendía cuál podía ser el soporte físico de semejante hipótesis.
Una vez que hizo conocer su fórmula en una reunión de la Sociedad de Física de Berlín en octubre de 1900, Planck intentó encontrar una interpretación física para su ley (esencialmente matemática) haciendo varias hipótesis para ver cuál encajaba mejor con las ecuaciones. Finalmente, tuvo que aceptar una que no le resultaba muy grata: imaginar a los emisores de radiación como pequeños —pequeñísimos— osciladores, que emitían energías que se expresaban por la fórmula

e = hν

donde ν es la frecuencia y h es una constante que desde entonces se conoce como la Constante de Planck. La fórmula es una de las más importantes de toda la historia de la física, comparable a la einsteiniana (y unos años posterior):

e = mc2

Lo que decía, de manera increíblemente sintética, era justamente que la radiación no puede ser emitida ni absorbida de manera continua, sino sólo en «paquetes» cuya energía depende de la frecuencia de la radiación.
Planck había logrado mostrar que si se trataba de manera discreta aquello que todo un siglo había pensado como continuo, las cosas encajaban. La energía era discreta, se comportaba como si fuera una partícula. Era increíble, tan increíble que el propio Planck, en una catarata de artículos posteriores, siguió tratando de encontrar una explicación clásica, mientras muchos de los físicos que conocieron su trabajo continuaban considerándolo simplemente un truco matemático, un artificio para salir del paso, tan provisorio, si se quiere, como el pegoteo con que se trabajaba anteriormente. En 1931, en una carta a Robert William Wood, Planck recordaba su trabajo de 1900:
Puedo caracterizar el procedimiento entero como un acto de desesperación… Tenía que encontrarse una interpretación teórica a cualquier precio, por alto que éste fuera.
Del mismo modo que los representantes de los Estados Generales franceses que se resistieron a la orden de desalojo del rey en 1789 no sabían qué era lo que estaban desatando, la fórmula de Planck, tímida por cierto, aplicable solamente a casi teóricos osciladores del cuerpo negro, era el comienzo de una profunda revolución y ponía de manifiesto una limitación a la física clásica.
No importaba el alcance exacto de tal limitación: el hecho de que existieran fenómenos que no podían ser explicados únicamente con las ideas clásicas era suficiente para anunciar la proximidad de una crisis y una nueva era en la historia de la física.
Ya no habría marcha atrás. El primer paso estaba dado; el segundo paso de la saga estaría asociado al nombre de Einstein y al fenómeno conocido como efecto fotoeléctrico.

§. El turno de Einstein y el efecto fotoeléctrico
Cuando hablamos de Einstein, hace un par de capítulos, nos detuvimos en el «año milagroso» de 1905 y en algunas de sus grandes contribuciones. Una era la relatividad especial; la segunda, el movimiento browniano, y la tercera, el efecto fotoeléctrico. No es disparatado considerar que esta última es tan importante como la mismísima relatividad, ya que puso en marcha la mecánica cuántica, pasando por encima de los escrúpulos de los físicos de la época. Einstein fue el primero en tomar en serio las implicaciones físicas del trabajo de Planck y en tratarlas como algo más que las consecuencias de un truco matemático al aplicarlas a otroproblema, de carácter bastante misterioso, que se arrastraba desde el siglo anterior. Resulta que dos físicos, Phillip Lenard (1862-1947) y J. J. Thomson (el descubridor del electrón) habían conseguido demostrar, en los últimos años del siglo XIX y trabajando independientemente, que si se iluminaba la superficie de un metal situado en el vacío, la luz «arrancaba» electrones. Pero había una cosa sorprendente. Era obvio que, si se aumentaba la intensidad de la luz, cada centímetro cuadrado de superficie metálica recibiría una cantidad mayor de energía, y también parecía obvio que si un electrón recibía más energía, debía ser expulsado del metal con mayor velocidad.
Pero resulta que la empiria no repara en obviedades: de nuevo, tozudamente, decía que aquello que resultaba lo más esperable no era lo que verdaderamente ocurría. Por más variaciones que se hicieran en la intensidad, la velocidad de salida de los electrones no se alteraba.
Al acercar el foco luminoso al metal, aumentaba el número de electrones liberados pero cada uno de éstos emergía con la misma velocidad con que lo hacían los expulsados por un haz de luz más débil (o más fuerte) del mismo color. Si, en cambio, se utilizaban haces de luz de frecuencia más alta (ultravioleta, por ejemplo, en lugar de luz azul o roja), los electrones avanzaban más rápidamente. El asunto era inexplicable desde la mecánica clásica. Aunque no lo era tanto si se utilizaban los resultados de Planck y se consideraban sus ecuaciones como base. Pero nadie se atrevía a dar este importante y peligroso paso…
Excepto Einstein.
Lo que hizo fue aplicar la ecuación de Planck y afirmar que, así como la radiación electromagnética se transmitía en «paquetes», la luz no es una onda continua, como los científicos habían creído durante cien años, sino que está integrada por cuantos —que después se llamarían fotones—. Con esta asunción simple se explicaba todo. Al afirmar que la luz estaba compuesta por fotones, Einstein estaba diciendo que toda la luz de una determinada frecuencia (v), es decir, de un color particular del espectro electromagnético, consiste en fotones de la misma energía E. Cada vez que uno de estos fotones golpea a un electrón, le proporciona la misma cantidad de energía y, por tanto, la misma velocidad. Mayor intensidad de luz significa simplemente que hay más cuantos de luz (fotones) de la misma energía; sin embargo, si hay cambio del color de la luz, la frecuencia varía y, por ello, se altera la energía transportada por cada fotón. En consecuencia, ese fotón le transmite más energía al electrón, que parte con mayor velocidad.
La teoría de los fotones no fue aceptada de inmediato, y aunque los experimentos con el efecto fotoeléctrico concordaban con la propuesta de Einstein, pasaron más de diez años hasta que el físico experimental norteamericano Robert Millikan —que logró una determinación ajustadísima del valor de la constante de Planck, que midió muy precisamente la carga del electrón en un célebre experimento y que, cosa curiosa, había sido un tenaz opositor a la postulación einsteiniana— mostró experimentalmente que la teoría del efecto fotoeléctrico era correcta.
Mientras tanto, Einstein amplió sus ideas cuánticas sobre la radiación en los años que siguieron y mostró que la estructura cuántica de la luz es una consecuencia inevitable de la ecuación de Planck. Ante una comunidad científica poco receptiva, el físico más importante del siglo sostuvo que la mejor forma de entender la luz podría consistir en una fusión de las teorías ondulatoria y corpuscular que habían competido entre sí desde el siglo XVII. A pesar de que en 1917 Einstein ya estaba convencido de la realidad de lo que hoy se llaman fotones, recién en 1923 quedó completamente demostrada su existencia. El efecto fotoeléctrico, digamos de paso, se convirtió en una pieza central de la tecnología moderna: el funcionamiento de las células fotoeléctricas se basa en él, así que cada vez que veamos cómo se abren automáticamente las puertas de un ascensor, estamos recibiendo un ramalazo del trabajo de Einstein.
Pero ahora retrocedamos unos años, hasta 1912. Discúlpenme por estas idas y vueltas: la historia de la ciencia es tan desordenada como la historia humana y muchas veces la cronología es, para la narración, más un obstáculo que una herramienta. Revisitemos un tema que hemos tocado ya y que constituyó un espaldarazo más para la teoría cuántica.

§. El átomo de Bohr, nuevamente
Ya hablamos en su momento sobre la manera en que Bohr resolvió las dificultades del modelo de Rutherford del átomo, que lo presentaba como un sistema solar en miniatura, con un núcleo en el centro y bandas de electrones girando alrededor como los planetas alrededor del Sol. Y vimos cuál era la dificultad. Al girar, siguiendo las leyes de Maxwell, los electrones debían perder energía, con lo cual se suponía que debían caer hacia el centro, cosa que obviamente no ocurría: la materia no se suicidaba. Vimos también cómo Bohr solucionó el problema: afirmó que los electrones alrededor del núcleo de un átomo se mantenían en la misma órbita porque no podían radiar energía continuamente (como exigía la teoría clásica), sino que sólo podían emitir o absorber un cuanto completo de energía —un fotón— y eso únicamente en determinadas órbitas. Por otra parte, las mismas órbitas estaban cuantificadas, y no todas estaban permitidas. Mientras el electrón se movía en estas órbitas no irradiaba, y sólo lo hacía cuando saltaba de una órbita a otra, absorbiendo o emitiendo un fotón. El modelo de Bohr utilizaba explícitamente el modelo de los cuantos de Planck, y con eso había logrado no sólo una solución teórica al inestable átomo de Rutherford sino varias predicciones en relación con la energía radiada por un átomo de hidrógeno, que coincidían puntualmente con los resultados del laboratorio.
Era una ruptura completa con las ideas clásicas, pero resolvía las dificultades muy elegantemente. Así, Bohr introdujo la idea de cuantificación en un modelo concreto, como era el átomo de hidrógeno, aunque sus posturas, desde ya, no convencieron a todo el mundo. El propio Rutherford dudaba y recomendaba moderación.
El problema, en verdad, es que aún no había una verdadera teoría cuántica y los físicos avanzaban a tientas, mezclando conceptos nuevos y viejos para lograr que las cosas funcionaran. Durante una década, la empiria tomó la ventaja, aunque la teoría esperaba ahí, agazapada.
Pero entonces estalló la Primera Guerra Mundial, y la investigación teórica, como suele suceder en las guerras, que destruyen el libre flujo de las ideas, se detuvo.

§. Impasse: el azar
Mientras mantenemos en mente a las potencias europeas destrozándose en el campo de batalla, produciendo una de las masacres más espantosas de la historia, nosotros retrocederemos aún más, a los primeros años del siglo XX, cuando Rutherford y su colega Frederick Soddy estaban investigando la naturaleza de la radiactividad. Recuerden que fue allí donde apareció una nueva e intrigante propiedad del átomo, o más bien de su núcleo: la desintegración radiactiva, ya sea en partículas alfa o beta (todavía no se conocía la radiación gamma), que se producía en cada átomo individual, y no parecía verse afectada por ninguna influencia exterior. Se calentaran los átomos o se enfriaran, se les colocara en vacío o en un depósito de agua, el proceso de la desintegración radiactiva continuaba imperturbable.
Lo cual no era particularmente alarmante. Lo que sí resultaba novedoso era que no parecía existir forma alguna de predecir exactamente cuándo un átomo particular de la sustancia radiactiva se desintegraría, emitiendo una partícula alfa o una partícula beta.
Ni Rutherford ni Soddy comprendían la causa por la cual un átomo se desintegra en un momento dado y otro no, y empezaron a tratar el fenómeno estadísticamente. Y ahí, los experimentos demostraban que cuando el número de átomos radiactivos estudiado era grande, una cierta proporción se desintegraba siempre en un cierto tiempo. Recuerden que para cada elemento radiactivo existe un tiempo característico, llamado «vida media», durante el cual se desintegra exactamente la mitad de los átomos de la muestra. Ya hemos dicho esto: el radio, por ejemplo, tiene una semivida de 1.600 años; el carbono 14 tiene una semivida de un poco menos de 6.000 años (lo cual resulta útil para las dataciones arqueológicas) y el potasio radiactivo se desintegra con semivida de 1.300 millones de años.
Era una solución práctica, pero no dejaba satisfechos a los científicos que, aunque muchas veces no lo admitan, no sólo están interesados por «modelos» o explicaciones empíricas, sino por conocer la verdadera naturaleza de las cosas. En efecto, el misterio de lo que pasaba con cada átomo individual persistía tenazmente. Era, como luego lo demostraría Einstein, un problema similar al que se desprendía del modelo atómico de Bohr, que estipulaba que un electrón saltaba de una órbita prefijada a otra pero no decía nada acerca de cuándo lo hacía (y mucho menos, como se verá, qué es lo que hacía cuando estaba «en tránsito»). Rutherford, Soddy y el mismísimo Einstein pensaban que algún día alguien descubriría exactamente el mecanismo de la desintegración de un átomo individualizado y con ello se lograría explicar el asunto.
Y es aquí donde se produce una bifurcación entre las ideas clásicas y las cuánticas o, digámoslo de otra manera, entre la manera clásica de pensar el mundo y la manera cuántica de pensar el mundo.
En el mundo clásico todo tiene su causa. Y no me refiero sólo al mundo de la física clásica, sino a aquel inaugurado por la primera formulación de la ciencia hecha por nuestro viejísimo amigo Tales de Mileto: uno busca la causa, y la causa de la causa, y se remonta por la cadena causal hasta donde quiera, o hasta una causa primera, si es que la hay, o si uno cree que la hay. Pero un átomo radiactivo se desintegra en un momento dado, sin que aparentemente haya una razón para que esto ocurra. Tiene una probabilidad de hacerlo en cada momento, y en algún momento lo hace. Y punto.
Un fenómeno como éste desafía una de las más arraigadas concepciones de la ciencia: el determinismo. ¿Qué es esto? Sintéticamente, un modo de concebir la realidad de manera tal que nada está librado al azar: si hay cosas que no podemos prever o explicar no se debe a que sean naturalmente impredecibles o inexplicables sino a alguna deficiencia nuestra (falta de información, o falta de instrumentos adecuados, o falta de atención). Lo decía Pierre Simon Laplace (1749-1827):
Podemos mirar el estado presente del universo como el efecto del pasado y la causa de su futuro. Se podría concebir un intelecto que en cualquier momento dado conociera todas las fuerzas que animan la naturaleza y las posiciones de los seres que la componen; si este intelecto fuera lo suficientemente vasto como para someter los datos a análisis, podría condensar en una simple fórmula el movimiento de los grandes cuerpos del universo y del átomo más ligero; para tal intelecto nada podría ser incierto y el futuro, así como el pasado, estarían frente a sus ojos.
El azar al que nos referimos habitualmente, desde esta perspectiva, es sólo producto de nuestra falta de información: la bolilla de la ruleta gira y cae en un número «al azar», pero si un demonio, al estilo del de Descartes, o una súper súper computadora como la Multivac de Asimov, pudiera reunir todos los datos sobre la trayectoria de la bolita —sus choques con las ranuras de la ruleta, la velocidad con la que corre, la magnitud del rozamiento— podría pronosticar exactamente en qué lugar caería. Si coloco un alfiler en punta en una mesa en perfecto equilibrio y no hay una razón para que caiga para un lado o para el otro (razón que, insisto, nosotros podemos desconocer pero no pasar por alto), éste se quedará donde está por los siglos de los siglos. El universo actúa siempre y cuando haya una buena razón para que haga esto o aquello; si no, no hace nada y permanece donde está.
Pero resulta que en el mundo cuántico no es así: esta causalidad directa, determinista, que aún hoy a nosotros nos parece algo bastante intuitivo, desaparece tan pronto como nos fijemos en la desintegración radiactiva y en las transiciones de los electrones en el átomo.
En cierto modo era fatal que esto ocurriera, aunque estaba implícito en la teoría del cuerpo negro de Planck: para llegar a su fórmula, el físico alemán se había inspirado en Boltzmann (las ideas nunca surgen de la nada) y su interpretación estadística de la entropía, de la cual hablamos en el capítulo respectivo. La entropía, vimos entonces, era para él un fenómeno probabilístico. No era una «cosa» que crecía, sino que expresaba la tendencia del universo a ubicarse en los estados más probables, que son los más desordenados.
A través de ese hueco que abrían Planck, Einstein, Rutherford y Bohr, una nueva forma de azar, un azar ontológico, se deslizaba en el mundo. El asunto era saber si lo hacía para quedarse. Al principio, la mayoría de los físicos pensaban que no, pero en seguida fueron desbordados por nuevos y aún más extraños descubrimientos.

§. De Broglie: partículas y ondas
Ya les conté que los fotones pasaron a formar parte del lenguaje científico ordinario después de 1927, pero no hemos dicho que fue en ocasión del quinto Congreso Solvay, bajo el título «Electrones y fotones». Lo curioso era que al mismo tiempo que los fotones hacían revivir la vieja teoría corpuscular de la luz, era también evidente su naturaleza ondulatoria. Como afirmó Einstein:
resultaban entonces dos teorías de la luz, ambas indispensables… sin ninguna relación lógica.
La idea genial, que vendría a resolver las cosas —o a complicarlas, vaya uno a saber— provino de un físico francés, Louis de Broglie (1892-1987), descendiente de una familia de nobles cuyas actuaciones en la historia francesa se remontaban a dos siglos o más. A Louis de Broglie se le ocurrió un planteamiento muy simple, como muchos de los planteamientos geniales. Si la ondulatoria luz, como era evidente, se «disfrazaba» de partícula, ¿por qué un electrón no podría «disfrazarse» de onda?
De Broglie desarrolló matemáticamente esta posibilidad en su tesis doctoral, describiendo cómo se deberían comportar las ondas de materia y sugiriendo formas en las que podrían ser observadas. Al mismo tiempo, aclaraba que él no sostenía que el electrón podía estudiarse como una partícula o una onda, sino que era una partícula y una onda (significare esto lo que significare).
Sostenía que el fracaso de los experimentos para poner de manifiesto, de una vez por todas, si la luz es onda o partícula se debía a que ambos tipos de comportamiento van unidos, hasta el punto de que para medir la propiedad corpuscular que representa la velocidad hay que conocer la propiedad ondulatoria llamada frecuencia. Y lo mismo ocurría con los electrones, que por entonces eran considerados como partículas típicas —excepto por el curioso modo de ocupar los distintos niveles de energía dentro de los átomos— y que se convertían, gracias a De Broglie, en algo dual: partículas, sí, pero también ondas.
El jurado que estudió la tesis de De Broglie apreció las matemáticas que exhibía pero no creyó ni por un momento que la propuesta de una onda asociada a una partícula como el electrón tuviera algún sentido real: lo estimaron como un simple truco matemático, tal como había ocurrido en su momento con la ecuación de Planck. De Broglie no estuvo de acuerdo y cuando uno de los examinadores le preguntó si se podría diseñar algún experimento para detectar las ondas de materia, él contestó que sería posible efectuar las observaciones requeridas difractando un haz de electrones mediante un cristal, del mismo modo que se difracta una onda de luz a través de un grupo de ranuras (no sabía que ya en 1914 dos físicos norteamericanos, Clinton Davisson y su colega Charles Kunsman, habían detectado este curioso comportamiento al utilizar haces de electrones para el estudio de cristales, aunque lo interpretaron de otra manera).
De Broglie trató de persuadir a experimentalistas para llevar a cabo la prueba de la hipótesis de la onda del electrón; mientras tanto, su director de tesis envió una copia del trabajo a Einstein, quien se lo tomó muy en serio, y en vez de considerarlo un artificio matemático pensó que las ondas de materia debían ser reales:
Creo que representa más que una mera analogía,
aseguró.
Y le pasó las noticias a Max Born, de Gottingen, donde el director del Departamento de Física Experimental, James Franck, comentó que los experimentos de Davisson ya habían establecido la existencia del efecto esperado. De todos modos, los experimentalistas no se dejaron influir por esta reinterpretación de sus resultados y los devaneos de un teórico que no era más que un primerizo estudiante de veintiún años. Incluso en 1925, a pesar de haberse demostrado experimentalmente, la teoría de las ondas de materia no pasaba de ser un concepto vago.
Sólo cuando Erwin Schrödinger realizó una nueva teoría de la estructura atómica que incorporaba y ampliaba la idea de De Broglie, los experimentalistas consideraron urgente comprobar la hipótesis de la onda del electrón mediante la realización de experimentos de difracción.

§. Schrödinger
Cuando se tomó conciencia de que no sólo los fotones y los electrones sino todas las partículas y todas las ondas son, de hecho, una mezcla de onda y partícula, puede decirse que se consumó la ruptura con la física clásica.
En nuestro mundo ordinario, la componente corpuscular domina de manera total en el cóctel onda-partícula. Si se trata, por ejemplo, de una piedra o de un auto, el efecto ondulatorio está, pero es completamente insignificante, lo cual se debe al pequeñísimo valor de la constante de Planck, del mismo modo que los efectos relativistas están, pero son insignificantes debido al altísimo valor de la constante c, la velocidad de la luz. En el mundo de lo muy pequeño, donde los aspectos corpusculares y los ondulatorios de la realidad física son igualmente significativos, las cosas se comportan de un modo radicalmente distinto del de la experiencia cotidiana, y —lo que es peor— de la física clásica.
Sir Arthur Eddington lo resumió en 1929:
No pueden elaborarse concepciones familiares sobre el electrón, afirmó, y el átomo es algo desconocido que hace no sabemos qué.
Era necesario desterrar la asociación instintiva de los átomos con esferas duras y de electrones con diminutas partículas.
A finales de 1925, cuando la teoría de las ondas de electrones de De Broglie ya había aparecido en escena pero no se habían realizado los experimentos definitivos que probarían la naturaleza ondulatoria del electrón, se produjo un nuevo paso adelante: el de una teoría matemática que daba cuenta de los fenómenos cuánticos basándose en la teoría ondulatoria.
Fue en uno de los trabajos de Einstein, publicado en febrero de 1925, donde Erwin Schrödinger (1887-1961) leyó los comentarios sobre la idea de De Broglie. Las opiniones de Einstein tenían un peso específico gigantesco, y fueron suficientes para que nuestro personaje se dedicara a investigar cuáles podían ser los caminos que se abrían si se tomaba a De Broglie literalmente.
Schrödinger trató de restaurar la comprensión sencilla de las ideas físicas mediante la descripción de la física cuántica en términos de ondas, entidades familiares en el mundo físico, y luchó hasta su muerte contra los nuevos conceptos de indeterminación y transición instantánea de electrones de un estado a otro.
De Broglie había indicado el camino con su idea de que las ondas de electrones en órbita alrededor de un núcleo atómico habían de ajustarse a un número entero de longitudes de onda en cada órbita, por lo que existían órbitas intermedias prohibidas. Schrödinger amplió las matemáticas sobre ondas para calcular los niveles de energía permitidos en tal situación, y consiguió un buen acuerdo con las observaciones. Las ecuaciones en la variante de Schrödinger sobre la teoría cuántica pertenecen a la misma familia que describen ondas reales en el mundo ordinario: ondas sobre la superficie del océano, o las ondas que transmiten ruidos a través de la atmósfera. El mundo de los físicos recibió esta aportación con entusiasmo, precisamente por resultar tan familiar.
Algunos habrán pensado que las cosas todavía podían encarrilarse.
Pero no. Todavía faltaba un experimento fundamental.

§. El experimento de la doble ranura
¿Se acuerdan del experimento de Young, de 1801, con el que se quiso verificar si la luz era una onda o una partícula? Imagínense una pantalla con dos pequeños agujeros en ella. A un lado de esta pantalla hay otra que lleva incorporada un detector. Una fuente lanza fotones, o electrones —digamos, electrones— contra la pared que tiene los dos agujeros. La pregunta es: ¿qué sucede cuando los objetos pasan a través de los agujeros y llegan hasta la pantalla? Es decir, ¿qué figura consiguen que forme el detector?
El resultado es sorprendente, por cierto. Si se tapa una de las dos rendijas, los electrones se comportan estrictamente como partículas, y caen en el sitio que corresponde en el detector, como se ve en la figura 1.

053.jpg
Figura 1

Ahora fíjense lo que pasa con una onda: la onda pasa por las dos rendijas, se bifurca y forma dos ondas diferentes, que se superponen por momentos. En donde las ondas están superpuestas, la pantalla detectora mostrará mayor intensidad: el patrón que se obtiene es como el que se ve en la figura 3.
Ahora bien, ¿qué pasa si arrojo un haz de electrones a través de las dos rendijas abiertas? Si considero que se trata de partículas, lo más lógico sería pensar que cada electrón individual pasa a través de un agujero o del otro, con lo cual se formaría un patrón similar al de la figura 1 pero con dos líneas en lugar de una sola, tal como se puede ver en la figura 2.

054.jpg
Figura 2

Y sin embargo, no. Cada electrón pareciera atravesar ambas rendijas como una onda, y produce sobre la pantalla figuras de interferencia, como si fuera una onda (es decir, como se ve en la figura 3). ¿Pero cómo «sabe» el electrón si está abierta una sola rendija o las dos mientras se aproxima a la pared para decidir cómo comportarse? Es un verdadero misterio.

055.jpg
Figura 3

Además, supongamos que el electrón está viajando hacia las dos rendijas abiertas —se supone que como una onda— y entonces decidimos observarlo mientras las atraviesa. En ese caso, el electrón instantáneamente colapsa hacia una partícula, como si «supiera» que lo queremos observar. Y es más, colapsa si decidimos observarlo después de que haya partido, por lo cual volveríamos a obtener la figura 2.
¿Qué conclusión se puede sacar de esto? ¿Se trata de la dualidad onda-corpúsculo con la que se ha aprendido a convivir? Si es una onda, no sorprende encontrar que se difracte y produzca una figura de interferencia. Millares de electrones inciden sobre los agujeros, y se puede predecir sobre una base estadística dónde llegarán, empleando esta interpretación de la onda. Pero, ¿qué le sucede a cada electrón individual? Acá viene una de las grandes revoluciones conceptuales de la mecánica cuántica.

§. La interpretación de Copenhague
En todas las ficciones, cada vez que un hombre se enfrenta con diversas alternativas, opta por una y elimina las otras, en la del casi inextricable Ts’ui Pen, opta —simultáneamente— por todas. Crea, así, diversos porvenires, diversos tiempos, que también proliferan y se bifurcan.
J. L. BORGES, «El jardín de senderos que se bifurcan»
Un electrón individual, o un fotón, cuando incide sobre un agujero de la pared, obedece en cada caso a las leyes estadísticas previstas, lo cual sólo puede ocurrir si «sabe» si el otro agujero está abierto o cerrado. Se puede tratar de «despistar» al electrón disparando más o abriendo repentinamente uno de los agujeros, mientras el electrón está ya en tránsito, por el aparato. No importa; la figura en la pantalla es siempre la «correcta» atendiendo al estado de los agujeros en el instante en que el electrón llega a la primera pared.
Se puede, también, tratar de ver por cuál de los agujeros pasa el electrón. Cuando el experimento correspondiente se realiza, el resultado es todavía más extraño: los electrones se comportan como las partículas corrientes del mundo ordinario. Siempre se detecta un electrón pasando por uno u otro de los agujeros, pero nunca por los dos a la vez. Los electrones resulta que no sólo «saben» si los dos agujeros están abiertos o no, sino también si están siendo observados o no, y ajustan su comportamiento en consonancia. No existe un ejemplo más claro de interacción entre el observador y el experimento. Cuando se intenta observar la onda dispersa del electrón, ésta se colapsa en una partícula definida, pero si no se la observa mantiene su carácter ondulatorio. Salvo que alguien lo observe, la naturaleza misma «ignora» por qué agujero pasa el electrón.
Así pues, por lo que parece, el aparato, los electrones y el observador son partes integrantes del experimento. No se puede afirmar que un electrón pasa por uno de los agujeros si no se están observando los agujeros ante el paso de los electrones. Un electrón sale del disparador y llega al detector, y parece que posee información del montaje experimental completo, incluyendo al observador.
Esto es lo que se conoce como «interpretación de Copenhague», que fue encabezada por Niels Bohr. En la física clásica, cualquier sistema de partículas se comporta de manera determinista independientemente de que esté siendo observado o no; en la cuántica, el observador interactúa de tal manera con el sistema que casi no puede ser considerado un mero observador. Su actividad observante modifica el sistema que quiere estudiar: si elige medir con precisión la posición, fuerza a una partícula a presentar mayor incertidumbre en su velocidad y viceversa. Si elige algún experimento para medir propiedades ondulatorias se eliminan peculiaridades corpusculares, y no hay experiencia posible capaz de poner en juego ambas naturalezas. Las partículas cuánticas, a diferencia de las clásicas, no tienen una posición y velocidad precisas en el espacio-tiempo.
En realidad, es difícil de creer, pero la mecánica cuántica es una teoría de una firmeza que parece indestructible, es coherente con todos los experimentos, y ha permitido el desarrollo de tecnologías muy poderosas, como los láseres, los microscopios electrónicos (que utilizan ondas de electrones en lugar de ondas de luz y que son mucho más potentes que los ópticos), la generación de energía nuclear, los circuitos integrados que a su vez permiten las grandes computadoras… y la lista sigue.
Hubo de pasar mucho tiempo para que estas ideas se desarrollaran y para que su significado fuera captado. Hoy, las características de la interpretación de Copenhague se pueden explicar y entender más fácilmente en términos de lo que pasa cuando se efectúa una observación experimental. En primer lugar, se ha de aceptar que el mero hecho de observar una cosa la cambia y que el observador forma parte del experimento, es decir, no hay un mecanismo que funcione independientemente de que se lo observe o no. En segundo lugar, toda la información la constituyen los resultados de los experimentos. Se puede observar un átomo y ver un electrón en el estado de energía A, después volver a observar y ver un electrón en el estado de energía B. Se supone que el electrón saltó de A a B, quizás a causa de la observación. De hecho, no se puede asegurar siquiera que se trate del mismo electrón y no se puede hacer ninguna hipótesis sobre lo que ocurría cuando no se observaba. Lo que se puede deducir de los experimentos, o de las ecuaciones de la teoría cuántica, es la probabilidad de que si al observar el sistema se obtiene el resultado A, otra observación posterior proporciona el resultado B. Nada se puede afirmar sobre lo que pasa cuando no se observa, ni de cómo pasa el sistema de A a B, si es que pasa. Los saltos cuánticos son simplemente una interpretación subjetiva de por qué se obtienen dos resultados diferentes para el mismo experimento, y es una falsa interpretación. A veces las cosas se observan en el estado A, a veces en el B, y la cuestión de qué hay en medio o de cómo pasan de un estado a otro carece completamente de sentido.
Lo extraño de la inusual interpretación de Copenhague del mundo cuántico es que es el acto de observar al sistema físico el que lo obliga a seleccionar una de sus opciones. Nada es real salvo que sea observado, y cesa de ser real en cuanto se detiene la observación.
Vivimos en un mundo donde las partículas sólo parecen reales cuando se las observa, y donde incluso propiedades como la velocidad y la posición son únicamente artilugios de las observaciones.
En cierto modo, me hace acordar a la interpretación de Wittenberg de la astronomía copernicana, que consideraba también los resultados independientemente de la existencia de epiciclos o no, desde un punto de vista instrumentalista. Naturalmente, la astronomía de Copérnico no tenía presupuestos tan estrafalarios como que una partícula «sabe» qué pasa con las rendijas, pero quizás el movimiento de la Tierra a muchos les resultara igual de alucinante.

§. El principio de incertidumbre
El futuro puede predecirse a partir del pasado. Si conociéramos la velocidad y posición de todas las partículas del universo, podríamos predecir el futuro con total exactitud.
LAPLACE (otra vez)
Aunque pueda sonar un tanto omnipotente, la afirmación de Laplace, de hace menos de 200 años, reflejaba muy bien el espíritu que presidió el desarrollo y cenit de la ciencia clásica durante el siglo XIX y principios del XX: si se tuvieran a disposición todos los datos del presente, se podría predecir perfectamente el futuro. Naturalmente, nadie pensaba que se podían tener de manera efectiva esos datos, pero era tan sólo una cuestión de imposibilidad práctica. En teoría, era posible: el futuro estaba exactamente determinado por el presente, mediante la acción de las leyes físicas. El mundo, en suma, era predictible por la ciencia. Este credo determinista, del que ya hemos hablado, sufrió un duro revés con la mecánica cuántica.
Más o menos al mismo tiempo que Schrödinger desarrollaba su modelo ondulatorio, Heisenberg encontraba una formulación alternativa (que luego se mostró que era equivalente), una de cuyas consecuencias más inquietantes (y más espectaculares) es, justamente, el principio de incertidumbre, que enunció en 1927. Laplace sostenía que se podría predecir el futuro del universo si se pudieran conocer la posición y velocidad de todas las partículas del universo… El principio de incertidumbre, precisamente, afirma que esto es imposible. Pero no imposible como el sentido común sabe que es imposible (es decir, técnicamente imposible) sino ontológicamente imposible. Es más: ni siquiera se pueden conocer exactamente la posición y velocidad de una partícula aislada. Se puede medir con exactitud la posición de un electrón. También se puede medir con exactitud la velocidad de ese electrón. Lo que no se puede hacer es medir ambas, posición y velocidad, simultáneamente y con absoluta precisión. Cuanto más precisamente se mida la velocidad, más incertidumbre habrá en cuanto a la posición, y cuanto más exactamente se mida la posición, más indeterminada quedará la velocidad.
Es como si no se pudieran saber a la vez el teléfono y la dirección de una persona, como si en la agenda donde están anotados, el número de teléfono se tornara más borroso a medida que se clarifica la dirección y, a la inversa, a medida que se vuelve más fácil leer el número de teléfono, la dirección fuera borrándose. Y en el caso extremo en que el teléfono quedara absolutamente claro, el lugar correspondiente a la dirección quedaría en blanco.
El propio Heisenberg trató de explicar este curioso rasgo de la naturaleza de manera más o menos intuitiva: si uno quiere determinar la posición de un electrón, debe iluminarlo para ver dónde está, pero, para la escala del electrón, los fotones de luz son suficientemente energéticos como para alterar su velocidad. Recíprocamente, si uno quiere averiguar la velocidad, debe abstenerse de iluminarlo, y entonces no sabrá dónde se encuentra. O una magnitud, o la otra. O las dos, pero no demasiado precisamente.
El ejemplo de Heisenberg, no obstante su valor intuitivo, puede sugerir que el problema de la medición simultánea de magnitudes como la velocidad y la posición (o la energía y el tiempo) puede deberse a un problema relacionado con la medición. Nada de eso. La incertidumbre cuántica parece ser un rasgo fundamental de la naturaleza: no es que sea imposible medir simultáneamente velocidad y posición de una partícula atómica o subatómica, sino que hablar de la velocidad y la posición simultáneas de una partícula carece de sentido. Volviendo al ejemplo de la dirección y el teléfono, lo que el principio de incertidumbre afirma es que el señor X no puede tener al mismo tiempo dirección y teléfono definidos: o bien lo llamamos a un teléfono celular cuya posición es totalmente imprecisa, o bien lo llamamos a un teléfono de línea, que sabemos dónde está, pero que no nos da ninguna garantía de encontrarlo.
Naturalmente, estos fenómenos no se observan en el mundo macroscópico, debido a su incidencia infinitesimal, pero de todas maneras plantean preguntas (por ahora sin respuesta) sobre la estructura de la realidad.

§. Paradojas y posibilidades
No es sorprendente que muchos físicos de prestigio, incluyendo a Einstein, hayan dedicado décadas enteras a tratar de encontrar vías alternativas a esta interpretación de la mecánica cuántica. Pero sus intentos han fallado todos, y cada nuevo fracaso en la búsqueda de acabar con la interpretación de Copenhague no ha hecho sino reforzar su base.
Ya dijimos que, para los físicos de Copenhague, las imprecisiones, probabilidades e incertidumbres de la mecánica cuántica no son una limitación de la física, o la señal de que la mecánica cuántica es una teoría incompleta, sino que la naturaleza es así: un electrón es una superposición de probabilidades de estar aquí o allá, tal y como la mecánica cuántica lo describe. Pensar en un electrón en tal lugar no tiene sentido (a menos que lo observemos, en cuyo caso la función de onda «colapsa» hacia una posición fija, todos los estados se condensan y el electrón aparece tan campante ocupando una determinada posición).
La primera paradoja famosa postulada para poner en entredicho esta postura fue planteada por el mismísimo Schrödinger, quien en 1935 propuso un curioso experimento mental que quedó en el folklore como «la paradoja del gato de Schrödinger». Y es así.
Imaginemos una caja completamente cerrada que contiene un gato vivo y una pequeña cantidad de material radiactivo. Imaginemos también que dentro de la caja hay un dispositivo diabólico (pero perfectamente posible) por el cual cuando una partícula es emitida por alguno de los átomos radiactivos, se pone en funcionamiento un detector que a su vez suelta un martillo que rompe una ampolla de vidrio llena de un gas venenoso, efectivo e instantáneo. O sea, apenas un átomo se desintegra, el gato muere. Para la mecánica cuántica, no hay manera de saber en qué momento un átomo se va a desintegrar: todo se reduce a probabilidades. Solamente mirando podemos saber si el átomo se ha desintegrado o no, y mientras la caja esté cerrada, los átomos en cuestión son una mezcla de dos estados (se desintegró-no se desintegró). Entonces, razonaba Schrödinger, puesto que no tiene sentido preguntarse si el material radiactivo se desintegró o no hasta que abramos la caja y miremos, tampoco tiene sentido preguntarse si el gato está vivo o no hasta ese mismo momento. Simplemente —siguiendo la interpretación de Copenhague— el gato está en una mezcla de dos estados, «vivo» y «no vivo», y pensar que está vivo o que está muerto no tiene sentido.
Obviamente, la intención de Schrödinger fue amplificar la incertidumbre cuántica hasta llevarla a términos cotidianos (¿quién puede imaginarse a un gato como una mezcla de gato vivo y gato muerto?) de tal manera que chocara aún a los teóricos de Copenhague. Naturalmente, a éstos no les chocó, aunque hasta ahora no hay respuestas enteramente satisfactorias a la paradoja, que Einstein celebró efusivamente.
(Dicho sea de paso, no es raro que Schrödinger haya elegido a un gato, animal que tiene mucho de misterioso y extraño. El gato de Schrödinger, con su mezcla de estados, es primo directo del gato de Cheshire de Lewis Carroll en Alicia en el País de las Maravillas, capaz de esfumarse por partes y dejar su sonrisa flotando.)
La segunda paradoja corrió por cuenta de Einstein, quien durante los años treinta y cuarenta mantuvo una pertinaz y divertida discusión con Niels Bohr sobre este mismo punto. Para Einstein, el electrón tenía que tener una velocidad y una posición determinadas: si la teoría se las negaba, era una muestra de la debilidad de la teoría; para Bohr, la teoría era firme como una roca, y en todo caso la debilidad era de la naturaleza, o de nuestro concepto de la realidad. Einstein proponía experimentos (teóricos) que permitieran medir velocidad y posición de un electrón en forma simultánea (para mostrar que se violaba el Principio de Incertidumbre), experimentos que Bohr refutaba graciosamente. Uno de los más sonados quedó en la literatura como la paradoja EPR (por Einstein, Podolsky y Rosen, que lo sugirieron en 1935).
Simplificando las cosas hasta el escándalo, la idea era la siguiente: supongamos, decían Einstein, Podolsky y Rosen, que dos partículas, A y B, parten en direcciones contrarias, de tal manera que a partir de una de ellas uno pueda deducir la situación de la otra. Entonces, uno podría perfectamente medir la posición de A, y la velocidad de B. A partir de la velocidad de B, se deduce la de A, con lo cual sabríamos exactamente ambas magnitudes de A, en contra del Principio de Incertidumbre. Bohr no se inmutó y aseguró que, al medirse la posición de la partícula A, la velocidad de la partícula B se alteraría, como si «supiera» que a su compañera la estaban midiendo. En este punto, la cosa desembocó en un callejón sin salida, porque el experimento era entonces impracticable.
Pero en los años setenta el físico británico John Bell inició un camino teórico que permitió a Alain Aspect en 1982 llevar a cabo un experimento que zanjó la discusión. En vez de electrones, posiciones y velocidades, se usaron fotones y direcciones de polarización, pero el sentido del experimento fue el mismo. Y tanto los trabajos de Aspect de 1982 como las repeticiones ulteriores le dieron la razón a Niels Bohr y refutaron a Einstein.
La polémica sobre la mecánica cuántica sigue. No es para sorprenderse. En ella está comprometida nuestra concepción del mundo y de lo que entendemos por «realidad». El universo es, tal vez, un lugar aún más misterioso de lo que solemos imaginar.

Intermezzo matemático:
La crisis de los fundamentos

La denominada «crisis de los fundamentos», fiel al espíritu epocal, contribuyó a desarmar una imagen construida a partir de la Revolución Científica según la cual la Ciencia (así, con mayúscula) progresaba en un camino ilimitado hacia la Verdad (también así, con mayúscula), camino que no presentaba más obstáculos serios que el enorme tiempo que llevaba recorrerlo.

§. Paradojas
La palabra «paradoja» viene de la palabra latina «paradoxus», a su vez descendiente directa del griego «parasofos», y en los tres idiomas significa «conocimiento que choca con el sentido común». Por alguna razón las paradojas tienen algo encantador: el atractivo que despierta la posibilidad de los viajes en el tiempo, por ejemplo, aumenta con la paradoja que los impide: ¿qué ocurre si yo viajo al pasado y asesino a mis ancestros, impidiendo mi propio nacimiento? Este dilema (irresoluble), muestra que viajar al pasado es imposible, pero que es posible la trilogía Volver al Futuro, de Zemeckis y Spielberg, que es mucho mejor y es objeto de devoción por parte del volátil autor de estas páginas.
Cuando Einstein enunció la Teoría de la Relatividad Restringida, en 1905, dio pie para muchos juegos paradojales, especialmente con el tiempo, que desvelaron a los científicos. Por ejemplo, la paradoja de los gemelos: según la teoría de la relatividad (restringida), uno ve que sobre un cohete en movimiento el tiempo transcurre más lentamente. Entonces, imaginemos a dos hermanos gemelos, uno de los cuales se embarca en un cohete para emprender un largo viaje espacial. El hermano que permanece en tierra ve que el reloj del viajero va más despacio que el suyo (porque el tiempo en la nave corre más despacio), que su hermano estelar envejece más lentamente que él y, por lo tanto, lo ve más joven que él.
Pero a su vez el hermano que viaja en el cohete (siempre según la Teoría de la Relatividad Restringida) supone que en realidad él está quieto, que es la Tierra la que se mueve (con su hermano sobre ella). Y en consecuencia, el reloj de su hermano terrestre va más despacio y su hermano es más joven. O sea: cada uno ve al otro más joven. ¿Qué pasa cuando el viajero regresa y se produce el reencuentro? No puede ser que cada hermano sea más joven que el otro. La solución no es nada sencilla y requiere recursos de la Relatividad General que exceden por completo a este libro.
La mecánica cuántica, como ustedes ya saben, no dejó de agregar su cuota en este mundo contrario al sentido común (el gato de Schrödinger es el mejor ejemplo).
Éstas son paradojas planteadas por la física, pero una de las más famosas no viene de allí sino del campo de la lógica: se trata de la del «catálogo de catálogos» propuesta por el gran filósofo, matemático y lógico inglés Bertrand Russell (1872-1970).
Síganme con atención.
Como todos sabemos, hay catálogos de libros que se incluyen a sí mismos como un libro más; hay otros, en cambio, que no. Incluirse a sí mismo o no es una decisión que en cada caso toma el editor, basado en sus preferencias personales.
Pero imaginemos, propuso Bertrand Russell, que queremos hacer un Super catálogo donde figuren todos los catálogos que no se incluyen a sí mismos y solamente ellos.
A primera vista parece fácil. Pero no es así. Porque… ¿qué hacemos con el propio Super catálogo? ¿Lo incluimos o no lo incluimos? ¿Lo ponemos o no lo ponemos? Y, no. Porque si lo incluimos en el índice, el Super catálogo se convierte en un catálogo de libros que se contiene a sí mismo, y por ende, no debe figurar. Entonces, no lo ponemos.
Pero si no lo ponemos, nuestro Super catálogo es un catálogo que no se contiene a sí mismo y entonces sí debe figurar.
O sea que no hay manera de resolver el problema. Russell planteó esta paradoja en términos de la Teoría de Conjuntos y en 1902 se la envió al matemático alemán Gottlieb Frege (1848-1925).
Frege acababa de terminar el segundo volumen de un ambicioso intento de construcción de una estructura matemática coherente y completa desde el punto de vista lógico. El libro se estaba imprimiendo (salió en 1903) cuando recibió la carta de Russell. Frege comprobó que su sistema no podía resolverla, y tuvo que añadir, al final del volumen, un párrafo en el que admitía que el fundamento de su razonamiento había fallado y que, por lo tanto, el libro era inútil. Fue una verdadera catástrofe intelectual, que demostró lo que nadie podía concebir: los fundamentos de las matemáticas eran dudosos. Y si los fundamentos de la matemática están mal… ¿cómo podemos estar seguros de que la física está bien? Y si la física es dudosa…, no lo será también la medicina, que le debe tanto Los matemáticos se lanzaron entonces a tratar de encontrar un sistema de axiomas que pudiera fundamentar las matemáticas. Y, notablemente, en 1931, un lógico llamado Gödel mostró que no se puede… bueno, no exactamente, sino que el intento tiene muchos bemoles.

§. El teorema de Gödel
Cada hombre está eternamente obligado, en el curso de su breve vida, a elegir entre la esperanza infatigable y la prudente falta de esperanza, entre las delicias del caos y las de la estabilidad.
Memorias de Adriano, MARGUERITE YOURCENAR
Desde muy antiguo se consideró a la matemática, y con bastante justicia, como la reina de las ciencias. Este precepto, cuando Galileo en el siglo XVII proclamó que «el libro de la naturaleza está escrito con caracteres matemáticos», confirió a la corona los atributos del derecho divino. Y hasta cierto punto los de una monarquía absoluta. Si las matemáticas nunca parafrasearon a Luis XIV diciendo «la ciencia soy yo» fue tan sólo porque son incapaces de hablar, y tal vez por falsa modestia. Lo cierto es que, a partir del triunfo de la mecánica newtoniana, las matemáticas se convirtieron en la aspiración común de todas las disciplinas científicas: matematizar una ciencia garantizaba su verdad. Es preciso reconocer, de paso, y a despecho de cualquier aspiración republicana, que este sistema de gobierno dio resultados espectaculares: la reducción de las ciencias a fórmulas y su manipulación produjeron la acumulación de conocimientos más formidable que recuerde la memoria humana.
Ese papel central de la matemática deriva de su método: la obtención de resultados mediante la deducción puramente lógica a partir de un puñado de axiomas elementales que se aceptan como verdaderos. De hecho, ésta fue la metodología que utilizó Euclides en sus célebres Elementos, que conocimos en el lejano capítulo sobre la Escuela de Alejandría —aunque, como ven, todo vuelve—, que se usaron sin mayores variantes hasta hace ciento cincuenta años y que permanecen, sin demasiadas transformaciones, en los textos de geometría que se utilizan aún hoy en la escuela secundaria.
Es verdad que durante el siglo pasado la supuesta verdad absoluta de los axiomas de la geometría euclidiana recibió un duro golpe: partiendo de axiomas diferentes de los de Euclides, Lobachevski y Riemann construyeron geometrías perfectamente coherentes, aunque distintas de la euclidiana, y de alguna manera la búsqueda de la verdad fue sustituida por el afán de coherencia y no contradicción.
Pero hacia finales de siglo XIX, el triunfo del método axiomático era completo: las investigaciones de la lógica matemática se dirigían con especial énfasis a buscar una formalización y axiomatización de toda la matemática.
La idea se inscribía perfectamente en la muy finisecular concepción del progreso: una vez encontrados los axiomas adecuados, todas las verdades podrían ser deducidas a partir de ellos, mediante la lógica y la paciencia. Cuando en 1900 el gran matemático David Hilbert presentó un programa enunciando la lista de problemas matemáticos pendientes (apenas un puñado), hizo un alarde de confianza: resolverlos era sólo cuestión de tiempo. La potencia de las matemáticas parecía infinita, y siguió pareciendo infinita hasta 1931.
Porque en ese año, en efecto, el matemático y lógico Kurt Gödel dio a conocer un teorema que se transformó en un clásico de la lógica matemática. En él se demuestra que no todas las verdades matemáticas pueden ser alcanzadas. Más sencillamente: que en cualquier sistema que contenga la aritmética, existe por lo menos una fórmula, que, aun siendo verdadera, no podrá jamás ser demostrada. No importa cuál sea el conjunto de axiomas que se use: siempre habrá algo que, si bien es verdadero, no se puede demostrar.
Es decir: en el seno mismo de las matemáticas hay cosas no alcanzables, lugares a donde la paciente deducción no llegará jamás. Naturalmente, este curioso resultado no afecta para nada la utilización de las matemáticas por el resto de los científicos, ni al papel central que ésta juega en todo el sistema de las ciencias. Pero de alguna manera limita su omnipotencia. Desde la Revolución Francesa en adelante, y como bien lo pudo comprobar Luis XVI, ya se sabe que las monarquías absolutas no son del todo seguras, y si bien no es cierto que las matemáticas hayan perdido su cetro, puede decirse que su largo y glorioso reinado, desde el teorema de Gödel en adelante, adquirió los contornos de una monarquía constitucional.

Capítulo 36
La fisión nuclear y la bomba atómica

Es concebible que en manos criminales el radio pueda llegar a ser muy peligroso y uno puede preguntarse si es conveniente para el hombre revelar los secretos naturales, si está preparado para beneficiarse con ellos o si este conocimiento irá en detrimento suyo. El ejemplo de los descubrimientos de Nobel es característico: los explosivos de gran poder han permitido que el hombre llevara a cabo trabajos admirables. Son también un medio terrible de destrucción en manos de los grandes criminales que llevan a los pueblos a la guerra. Me cuento entre aquellos que creen, lo mismo que Nobel, que la humanidad obtendrá más bien que mal de los nuevos descubrimientos.
Discurso de PIERRE CURIE al recibir el Premio Nobel de Física, compartido con MARÍA CURIE y HENRI BECQUEREL
En el año 1938, la física Lise Meitner (1878-1968), que desde 1917 dirigía el Departamento de Física Radiactiva del Instituto Káiser Wilhelm, estaba trabajando junto a Otto Hahn (1879-1968) con los núcleos atómicos. La idea era fabricar un elemento transuránico.
¿Y qué era un elemento «transuránico»?
Pues esto: la Tabla Periódica llegaba hasta el uranio, el elemento 92. Lise y Otto lanzaban neutrones contra el núcleo de uranio, con la esperanza de que uno de ellos fuera absorbido por el transformado en protón, y diera el elemento 93, el primer transuránico, que iría más allá del límite que imponía la tabla periódica. Pero no lo conseguían.
Por cierto, en ese año de 1938 había otras cosas de que preocuparse. Desde 1933, Hitler y sus secuaces del partido nazi gobernaban Alemania con una política caracterizada por drásticas medidas antisemitas y de persecución racial, que además de conducir a una de las masacres más terribles de la historia provocó el razonable éxodo de científicos judíos. Niels Bohr —a quien ya hemos visto elaborando un modelo del átomo de hidrógeno en 1912— recorría las universidades alemanas tratando de ayudar a sus colegas en problemas, buscándoles empleo en otros lugares de Europa y en los Estados Unidos.
Lise Meitner pertenecía a una familia protestante pero uno de sus abuelos era judío, razón suficiente para caer dentro de la brutalidad de las leyes nazis (que expulsaban a los judíos de cualquier puesto de la administración y, a fortiori, de las universidades). Hasta el 38, Meitner, que era de nacionalidad austríaca, había estado más o menos protegida. Pero cuando Hitler invadió Austria y la anexó al Tercer Reich, Meitner se convirtió de facto en ciudadana alemana y automáticamente estuvo en peligro: el 17 de julio de 1938, partió hacia Holanda, desde donde viajaría a Suecia.
Justo a tiempo. El 9 de noviembre se producía en Alemania la famosa Kristallnacht («Noche de los cristales») en que se destruyeron y saquearon los negocios pertenecientes a judíos, se quemaron todas las sinagogas y se deportaron veinte mil judíos a campos de concentración.
Mientras Lise Meitner se refugiaba en Suecia, Otto Hahn seguía investigando en la pista de los transuránicos. Pero los transuránicos no aparecían por más que se bombardeara el núcleo de uranio, aunque sí aparecían otros elementos más livianos, como el bario. ¿Cómo podía haber bario, cuyo núcleo es aproximadamente la mitad del núcleo de uranio, entre los restos del uranio bombardeado? ¿Cómo podía ser? Era como si el núcleo de uranio se hubiera partido en dos, pero Hahn no podía creer en semejante cosa.
Tal vez usted pueda sugerir alguna explicación fantástica. Comprendemos perfectamente que el uranio no puede, de ninguna manera, quebrarse y dar bario, así que ¿por qué no trata de pensar en alguna otra posibilidad?
le escribió a Meitner.
Meitner contestó inmediatamente:
Sus resultados son realmente asombrosos. ¡Un proceso que conduce al bario! Por el momento, la hipótesis de una ruptura del núcleo de uranio me parece difícil de aceptar, pero en física nuclear hemos recibido ya tantas sorpresas, que en ningún caso, ante una situación extraña, podemos decir, sin dudar «es imposible».
Y se fue a pasar las Navidades en Kungalv, en el sur de Suecia, a casa de una familia que la había invitado. Allí se le unió su sobrino, el físico Otto Frisch, que a la sazón vivía en Dinamarca, donde se había refugiado de los nazis.
Tía y sobrino caminaron, pasearon y esquiaron pero inevitablemente la conversación recayó sobre los sorprendentes experimentos de Berlín.
Parecía imposible. Era impensable «cortar» el núcleo, si se piensa en la cantidad de ligazones nucleares que había que romper,
contó más tarde Frisch, quien, aunque estaba intrigado por el asunto, estaba más urgido por esquiar. Pero Lise era implacable y, finalmente, tía y sobrino se sentaron sobre unos troncos. Meitner sacó un papel y un lápiz e hizo algunos dibujos en los que sugería la manera en que el núcleo podía dividirse, elongándose lo suficiente y luego dividiéndose en dos partes, dos pequeños núcleos de relativamente poco tamaño (en este caso, bario —el elemento 56— y criptón —el elemento 36—) que se separarían a gran velocidad, debido a la energía liberada: 200 millones de electrón-volt. (El electrón-volt es una medida de energía, una medida muy chica, que se usa a nivel atómico y nuclear. Aún doscientos millones de electrón-volt no son demasiado para el mundo en que nos movemos cotidianamente, pero para un solo átomo son una barbaridad.)
¿De dónde podría salir semejante cantidad de energía? ¿De dónde podían venir nada menos que doscientos millones de electrón-volt? Lise Meitner había asistido a conferencias de Einstein en 1909, en las que éste había expuesto la fórmula de equivalencia entre masa y energía (E = mc2) y ese día —era el 24 de diciembre de 1938— las recordaba perfectamente bien.
También estaba al tanto de que —contó Frisch— al partirse el núcleo de uranio, los dos núcleos resultantes no pesaban exactamente lo mismo que el núcleo original, sino un poquito menos. Y poniendo ese poquito menos en la fórmula de Einstein, le daba justo 200 millones de electrón-volt. Todo encajaba.
Esa masa que faltaba se había liberado en forma de energía. Hasta tal punto encajaba, que, aunque ninguno de los dos lo sabía, en ese momento, y en aquel apartado rincón de Suecia, comenzaba la era nuclear.

§. La fisión del uranio
Meitner no estaba del todo segura, por lo cual no comunicó sus conclusiones a Hahn y regresó a Estocolmo. Frisch, en cambio, volvió a Copenhague y fue corriendo a contarle las novedades a Bohr, quien «inmediatamente y en todo se puso de acuerdo con nosotros», según le escribió a Meitner ese mismo día. Meitner y Frisch escribieron un trabajo sobre el tema consultándose por teléfono (¡por los teléfonos de entonces!). Frisch lo redactó en borrador el 6 de enero y se lo mostró a Bohr, que le pidió el trabajo en limpio. El tiempo volaba. Frisch alcanzó a pasar sólo dos páginas del trabajo y se las alcanzó a Bohr en la estación desde donde salía el tren que lo llevaría al puerto para embarcarse hacia los Estados Unidos. Bohr prometió no decir una palabra durante el viaje, para preservar la prioridad de Meitner y Frisch, que dedicó los días siguientes a preparar los experimentos e inició las mediciones el 13 de enero. El 23 de enero apareció el primer artículo en Nature
¿Qué nombre ponerle a un fenómeno tan insólito? Frisch fue a ver a William Arnold, un biólogo amigo, y le preguntó: « ¿Cómo se llama, en biología, el proceso por el cual una célula se divide en dos?».
Y Arnold le contestó: «fisión».
§. La noticia se extiende
Bohr había prometido no comentar los resultados, pero durante el viaje en barco no se pudo contener y habló de la fisión con León Rosenfeld (1904-1974), el gran teórico belga, que también viajaba. A su vez, cuando el lunes 16 de enero de 1939 desembarcaron en los Estados Unidos, Rosenfeld contó la historia, que inmediatamente se esparció como un reguero de pólvora: ¡el núcleo de uranio se partía liberando cantidades enormes de energía! ¡Era el descubrimiento del siglo! Enseguida llegó a los periódicos: primero el Washington Post, luego el New York Times y enseguida el San Francisco Chronicle.
La fisión del uranio abría una posibilidad inquietante. Si un átomo de uranio, al partirse bajo el impacto de un neutrón, liberaba, además, neutrones adicionales, esos neutrones podían, a la vez, partir nuevos núcleos, generando lo que se llama una reacción en cadena.
En marzo, desde el otro lado del Atlántico, llegaron noticias: en París, Frédéric Joliot, Hans von Halban y Lew Kowarski informaron que, efectivamente, al fisionarse el uranio, además de los productos de fisión ya conocidos, se emitían neutrones, Entonces, en principio la reacción en cadena era posible.
Pero hasta no tenerla, no se tendría nada.

056.jpg
La fisión del uranio

§. El uranio y la energía
El microcosmos no se anda con vueltas y cuando entrega energía, lo hace en serio: al partirse un átomo se liberan las fuerzas que soportan al universo, esas que mantienen los núcleos pegados sin que se desparramen y nos permiten existir. La fisión de un núcleo de uranio 235 libera 200 millones de eV (0,00000000004 joule), que a escala macroscópica no parece mucho —y, de hecho, no lo es—: la fisión de un solo átomo de uranio conseguiría mover un kilogramo de masa apenas una millonésima de millonésima de metro. A nadie le conviene guardar un átomo de uranio en la heladera para que su fisión lo ayude en las tareas cotidianas.
Pero si la energía liberada por la fisión de un átomo es poca, también es cierto que los átomos son muchos, o mejor dicho, que en un pequeño volumen caben muchos átomos: 235 gramos de uranio contienen seiscientos mil millones de billones (6 x 1023) de átomos. Si todos ellos se fisionaran, liberarían energía suficiente como para levantar un millón de toneladas a diez mil metros de altura. Y eso ya es como para tener en cuenta: la fisión nuclear es, en relación con la masa involucrada, uno de los procesos más energéticos del universo.
¿De dónde sale esa energía? Como les decía antes, es la que estaba acumulada en el núcleo para mantenerlo amarrado. Son fuerzas poderosas. Después de producida la fisión, después de haberse partido el núcleo de uranio, las masas sumadas de los subproductos resultantes (el bario, el criptón y los tres neutrones viajeros) es ligeramente menor que la masa original que albergaba el núcleo recién fisionado. Esa pequeña diferencia de masa da cuenta de la energía liberada, siguiendo la fórmula de Einstein.
Otra posibilidad era el plutonio, que, según se había calculado, también se fisionaba. Pero el plutonio tiene un pequeño inconveniente: no existe en la naturaleza y, si existió alguna vez, ya se desintegró. Si uno quiere plutonio, no puede ir y servirse: tiene que fabricarlo: era uno de los famosos «transuránicos»: el elemento 94. Entre noviembre de 1939 y marzo de 1940, Ernest Lawrence (1901-1958), con su ciclotrón de California, lo consiguió y pudo fabricar por primera vez elementos inexistentes en la naturaleza. Y bien, ahí estaba el plutonio, listo para ser explorado.
Lo cierto es que, cuando se descubrió la fisión, los físicos pensaron de inmediato que el átomo no sólo sería un terreno a explorar para satisfacer la eterna curiosidad del hombre sino que también podía convertirse en un inmenso surtidor de energía. El destino del mundo no se jugaba en los campos de batalla o en las cortes de la política, sino —como ocurría desde la revolución científica— en los laboratorios. Y los laboratorios decían —aseguraban, creían— que el núcleo atómico proporcionaría cantidades ilimitadas de energía, toda la energía necesaria para hacer marchar al mundo.
Lo cual permitió imaginar otra cosa: si esa energía se liberaba de pronto y de manera descontrolada, tendría un enorme potencial destructivo. Sería una bomba atómica. Tanto los ingleses como los norteamericanos se dieron cuenta que, de hecho, una bomba era mucho más fácil de fabricar que un reactor: para obtener energía que pueda utilizarse hay que controlar la reacción, mientras que para obtener una explosión, basta con dejar que las cosas corran y se descontrolen solas.

§. La guerra
El 1º de septiembre de 1939, unos minutos antes de las cinco de la mañana, el ejército alemán cruzó la frontera polaca y desencadenó la Segunda Guerra Mundial.
No voy a extenderme sobre los horrores del nazismo, probablemente el régimen más repulsivo que se haya concebido nunca y cuya más íntima característica fue la persecución letal a los judíos: medidas antisemitas se sucedieron a medidas antisemitas y la represión racial y política estuvieron a la orden del día. Enseguida se instalaron los primeros campos de concentración para los adversarios del régimen y las «razas inferiores».
Tras la invasión a Polonia, Francia e Inglaterra declararon la guerra a Alemania.
Pero los polacos podían hacer poco frente al millón y medio de soldados alemanes, que avanzaron rápidamente hacia Varsovia y la dominaron en septiembre. En pocos días más se completó la ocupación. En el Este, los rusos hicieron su parte invadiendo la Polonia oriental, cuyo territorio les había sido garantizado gracias al famoso (y deleznable) pacto de no agresión de la Unión Soviética con Alemania, conocido como Pacto Ribbentrop-Mólotov por los nombres de los ministros que lo firmaron.
Hubo un impasse invernal, mientras en Polonia reinaba el terror: la intelligentzia polaca era masacrada, los judíos eran perseguidos y muertos y se empezaba a enviarlos a los campos de concentración. Polonia había de ser la sede de muchos de ellos, entre ellos acaso el más famoso de todos: Auschwitz, del cual dio buena cuenta Primo Levi en su magnífica (y tremenda) Trilogía de Auschwitz.
En abril se reanudó la ofensiva alemana con la ocupación de Noruega y Dinamarca. En mayo cayeron Holanda y Bélgica. Francia estaba en la mira. Los alemanes, entrando desde Bélgica, sortearon las defensas francesas. El 9 de junio de 1940 llegaron al Sena, y el 14 de junio entraron en París.
¡París en manos de Hitler! Hubo una conmoción mundial.
La rendición de Francia dejó a Inglaterra absolutamente sola. Mientras tanto, Rumania, Bulgaria y Hungría se convirtieron en satélites nazis y enseguida las tropas alemanas invadieron Yugoslavia y Grecia. Decididos a liquidar el último foco de resistencia, el 20 de mayo tropas aerotransportadas se lanzaron sobre Creta.
A fines de mayo del 41, excepto Suecia y Suiza, que eran neutrales, y naturalmente Inglaterra, Europa occidental se había convertido en un inmenso y temible lago nazi. De los países neutrales del sur, la España de Franco y el Portugal de Salazar eran regímenes fascistas. Berlín se había transformado en el centro de un vasto imperio europeo, e Inglaterra se sostenía tan sólo debido a su fuerza aérea y a su privilegio insular. Parecía que nada podía parar a Alemania.
Entonces, los objetivos militares alemanes se volvieron hacia el Este. El 22 de junio de 1941, uno de los ejércitos más grandes que jamás se hubiera reunido en la Historia —tres millones de hombres, siete mil piezas de artillería y dos mil quinientos aviones— empezó la invasión de la Unión Soviética. Las defensas rusas se derrumbaron y en agosto los nazis alcanzaron las bocas del Dnieper en el Mar Negro. El 2 de diciembre de 1941 algunas avanzadas alemanas penetraron en los suburbios de Moscú. Pero allí mismo empezó la reacción soviética, que cortó la ofensiva alemana. Para marzo, el Ejército Rojo había recuperado casi 250 kilómetros.
Como una rueda que cae por la ladera de la montaña y nadie puede parar, la guerra se globalizaba: el 7 de diciembre de 1941, los japoneses atacaron por sorpresa y destruyeron parte de la Flota del Pacífico en la enorme base norteamericana de Pearl Harbor. Los Estados Unidos respondieron declarando la guerra al Japón y automáticamente, y en cumplimiento de la alianza germano-nipona, Hitler declaró la guerra a los Estados Unidos. Ahora, el conflicto era total: desde Oriente a Occidente, el planeta entero estaba involucrado. En el verano del 42, las tropas alemanas sortearon Moscú y cruzaron el Donetz. Esta vez, el objetivo era una ciudad llamada Stalingrado.
Mientras tanto, en Chicago, y en el máximo secreto, bajo las gradas de la tribuna del campo de deportes de la universidad, se estaba construyendo un reactor nuclear, que estuvo listo para ser probado el 2 de diciembre y fue un perfecto éxito. No había sido —ni había pretendido ser— un gran negocio: la potencia alcanzada había sido sólo medio watt (y había costado un millón de dólares). En el Pacífico se desarrollaba la batalla de Guadalcanal, la mayor avanzada realizada hasta el momento sobre el Imperio de Japón, y el Departamento de Estado norteamericano informaba que dos millones de judíos habían perecido en Europa y que cinco millones más estaban bajo inmediata amenaza. Todo se sabía.

§. La carrera por la bomba
Si se lo piensa fríamente, había buenas razones para temer que los alemanes fabricaran una bomba atómica, razones tanto históricas como científicas. En realidad, los físicos de Alemania y los del campo aliado eran más o menos lo mismo: habían participado juntos de los años dorados, habían integrado los mismos equipos, eran discípulos unos de otros (como Heisenberg de Bohr). Idéntica formación, idéntica información: ¿Por qué no habrían de planear y proyectar las mismas cosas? ¿Por qué no habían de pensar en una bomba, si era una idea que prácticamente a todo el mundo se le había ocurrido apenas se descubrió la fisión?
Efectivamente, en septiembre de 1939 la Oficina de Guerra alemana había convocado a una conferencia en Berlín, a la que asistió la primera plana de la física nuclear, donde se analizó el estado de la cuestión, se examinaron las probabilidades de fabricar un arma basada en la fisión. En una segunda conferencia, desarrollada en septiembre, se delineó un Plan Preparatorio para explotar las consecuencias de la fisión nuclear. La dirección de la investigación teórica estaría a cargo de Heisenberg, el mismo que había enunciado el principio de incertidumbre que vimos en un capítulo anterior.
No tiene nada de sorprendente que algunos de los físicos no alemanes se asustaran. Mientras Alemania avanzaba sobre Europa sembrando el terror y la destrucción, también avanzaba en el camino de la bomba. Al comenzar la guerra, los físicos alemanes estaban muy a la par de sus colegas británicos y norteamericanos.

§. El proyecto Manhattan
En el verano de 1939, los físicos Leo Szilard y Eugene Wigner se habían entrevistado con Einstein y le habían pedido que le escribiera una carta al presidente norteamericano Franklin Delano Roosevelt para informarle que esta nueva forma de energía se podía utilizar para fabricar bombas y advertirle sobre el peligro de que esas bombas quedaran en poder de Alemania. La carta, sintetizada, decía lo siguiente:
El trabajo reciente hecho por E. Fermi y L. Szilard me conduce a creer que el elemento uranio puede transformarse en una nueva e importante fuente de energía en el futuro próximo. Este nuevo fenómeno podría conducir a la construcción de bombas y es concebible —aunque más incierto— que puedan fabricarse bombas extremadamente poderosas de un nuevo tipo. Una sola bomba de esta clase, llevada por un barco ( sic ) y detonada en un puerto, podría perfectamente destruir el puerto entero junto con parte del territorio circundante. Sin embargo, esas bombas podrían ser muy pesadas para transportar por aire. Tengo entendido que Alemania ha suspendido la venta de uranio de las minas checoslovacas que ha ocupado. Esta acción probablemente debe ser entendida en el sentido de que el hijo del viceministro de Relaciones Exteriores alemán, Von Weizacker, fue asignado al instituto Káiser Guillermo en Berlín, donde algunos de los trabajos norteamericanos sobre el uranio están siendo reproducidos.
La carta se entregó a Roosevelt el 11 de octubre de 1939 (ya había estallado la guerra), pero la decisión definitiva fue tomada por Roosevelt recién el 9 de octubre de 1941: ese día resolvió usar la enorme masa de recursos que hacía falta para construir la bomba atómica. Era muy oportuno: un mes y medio más tarde, el 7 de diciembre, los japoneses bombardeaban Pearl Harbor y los Estados Unidos entraban en la guerra. (Dicho sea de paso, ésta no fue la única intervención de Einstein en el problema nuclear; más tarde, el 7 de marzo de 1940, enviaría otra más para insistir sobre la necesidad de contar con una bomba nuclear y, aun después, una tercera para pedir que la bomba, que ya había sido construida, no se arrojara sobre Hiroshima).
Como es natural, la guerra aceleró todo. El Proyecto Manhattan (llamado así por una oficina, precisamente en Manhattan, donde se tomaron las primeras decisiones fundamentales) fue una vasta y compleja organización, que involucró alrededor de 150 mil personas, costó unos dos mil millones de dólares de la época (muchísimo más que dos mil millones de ahora), construyó una verdadera «ciudad atómica» en Los Álamos (Nuevo México), y estaba decidida a fabricar, en tres años, «el arma más poderosa que jamás existió».
Naturalmente, los militares se reservaron la conducción global, que recayó en el general Leslie Richard Groves, un especialista en ingeniería militar que había dirigido la construcción del Pentágono. La dirección científica estuvo a cargo de Robert Oppenheimer, un científico que representaba el prototipo del científico contemporáneo con un abanico muy amplio de intereses y a quien nada humano le era ajeno (y que, de paso sea dicho, había sido un visionario en un terreno completamente distinto: el de la astrofísica, donde predijo la existencia de estrellas de neutrones y agujeros negros).
La vida en Los Álamos no era fácil: los científicos estaban bajo la nada simpática vigilancia militar y vivían dentro de un cerco de alambre de púas, con correspondencia censurada, teléfonos cortados y en un absurdo régimen de «compartimentalización», según el cual el que trabajaba en un sector tenía prohibido hablar de sus tareas con quien trabajaba en otro. La vida en medio del desierto debe haber sido penosa para gente acostumbrada a ciudades como Roma, Berlín, Londres o Nueva York.
Y además estaba la paranoia de Groves, en parte debido a un antisemitismo larval que latía en él. Sospechaba no sólo de los enemigos germánicos sino de los aliados y colaboradores ingleses y de todos los científicos de ascendencia europea —en especial si eran de origen judío—que trabajaban en el proyecto. Naturalmente, también sobrevivía una cierta animadversión hacia los rusos —también aliados, por otra parte.
Y mientras Groves tomaba medidas obsesivas y hasta ridículas, se transmitían secretos a los rusos en sus propias narices. Klaus Fuchs, uno de los científicos del proyecto, les pasaba a los soviéticos toda la información que necesitaban saber a través de mecanismos realmente ingenuos: salía en su automóvil llevando un sobre con la información secretísima, se encontraba con su contacto en una calle de Santa Fe, próxima a Los Álamos, y le daba el sobre. Así, ayudó a los rusos a ganar alrededor de dieciocho meses en su propio camino hacia la bomba atómica. Al fin y al cabo, no hizo más que lo que Niels Bohr y otros habían propuesto: compartir el conocimiento nuclear con la Unión Soviética.
Los científicos fueron incapaces de convencer al gobierno norteamericano que la fabricación de la bomba atómica no era algo que se pudiera mantener oculto mucho tiempo, y de que, tarde o temprano, los rusos fabricarían la propia. El gesto de buena voluntad de los Estados Unidos al compartir el know how nuclear, o parte de éste, podría haber ahorrado una buena dosis de Guerra Fría.

§. De nuevo en Stalingrado
Stalingrado, que los rusos defienden desde hace tres meses, sigue sin caer en manos de los alemanes.
Diario de Ana Frank, lunes 9 de noviembre de 1942
—Cuando llegó al campo [de Auschwitz], ¿por qué eligió no morir?
—La verdad es que todos nosotros queríamos morir. No teníamos la fe de una pronta liberación, ni de que la batalla sería proseguida por otros. Nosotros no teníamos esperanzas.
— ¿Cuándo cambió esto?
—Con las noticias de Stalingrado. Cuando nos enteramos de que los nazis habían sido derrotados en una batalla, pensamos que podían ser derrotados en otras batallas.
Reportaje a CHARLES PAPIERNIK, sobreviviente de Auschwitz, por CLAUDIO URIARTE, Página/12, 22 de enero de 1995
Dejamos a los alemanes, dominadores de casi toda la Europa occidental, evitando Moscú y dirigiéndose hacia Stalingrado. La guerra se acercaba así a su punto de quiebre: el ejército alemán, que estaba hasta entonces invicto, fue derrotado en la más sangrienta batalla de la historia de la humanidad, que se cobró, según se estima, entre tres y cuatro millones de vidas.
Luego de seis meses de una lucha tenaz y encarnizada, el 31 de enero de 1943 el teniente Von Paulus, completamente cercado por el ejército soviético, desobedeció las órdenes de Hitler y se rindió con 91 mil soldados hambrientos. Desde ese momento en adelante, los nazis no harían más que retroceder.
Unos meses antes, en el norte de África, el general inglés Montgomery había resuelto esperar al ejército alemán comandado por Erwin Rommel cerca de una estación de ferrocarril llamada «El Alamein», donde le había infligido una terrible derrota el 25 de octubre de 1942. El norte de África estaba perdido para los alemanes.
Y para colmo, ya desde principios de 1942 la aviación inglesa y sus aliados norteamericanos habían empezado el bombardeo sistemático del «Reich» alemán, y los raides penetraban cada vez más profundamente en el territorio enemigo con la intención de destruir la industria de guerra nazi.
En 1944, las misiones empezaron a bombardear Berlín. Era el comienzo del fin: Alemania había perdido la guerra.

§. La derrota alemana
Negra leche del alba te bebemos de noche
te bebemos a mediodía la muerte es un maestro venido de Alemania
te bebemos en la tarde y la mañana bebemos y bebemos
la muerte es un maestro venido de Alemania sus ojos son azules
te hiere con una bala de plomo con precisión te hiere
un hombre habita en la casa tus cabellos de oro Margarete
azuza contra nosotros sus mastines nos sepulta en el aire
juega con las serpientes y sueña la muerte es un maestro venido de Alemania.
PAUL CELAN, Todesfuge
«Hoy, Día D», ha dicho la BBC al mediodía, y con razón: «Éste es “el día”». ¡El desembarco ha comenzado! Transmisión inglesa en alemán, holandés, francés. Transmisión inglesa en alemán a las once: discurso del comandante en jefe, el general Dwight Eisenhower. A mediodía, en inglés: la lucha dura empezará ahora, pero después de ella, la victoria. El año 1944 es el año de la victoria completa. ¡Buena suerte!
Diario de Ana Frank, martes, 6 de junio de 1944
Efectivamente, el 6 de junio de 1944 los aliados occidentales comenzaron la invasión de Europa. Bajo el comando general de Dwight Eisenhower, cientos de miles de hombres desembarcaron en las costas francesas de Normandía, mientras los aviones dejaban caer miles de paracaidistas detrás de las filas alemanas. Era el esperado «Día D». A las nueve de la mañana, las defensas alemanas habían sido quebradas y la cabeza de playa se había consolidado. «Transmisión de la BBC: once mil aviones dejan constantemente caer tropas en paracaídas detrás de las líneas», escribe Ana Frank, «cuatro mil navíos, más pequeñas embarcaciones, aseguran el servicio constante de transporte de tropas y de material entre Cherburgo y Le Havre. Las operaciones de las tropas inglesas y norteamericanas han comenzado. Discursos de Gerbrandy, del primer ministro de Bélgica, del rey Haakon de Noruega, de De Gaulle para Francia, sin olvidar el de Churchill». Más y más tropas desembarcaban en Normandía y la aviación seguía bombardeando el imperio nazi —cada vez más chico—. El 25 de agosto de 1944 era liberada París. Siguió el sur de Francia y el valle del Ródano. Muy pronto las posiciones alemanas colapsaron en el norte de Francia y, el 29 de agosto, los aliados entraban en Bruselas.
También se progresaba desde el Sur. Desde septiembre del 43, las tropas aliadas cruzaron el estrecho de Messina, pusieron su pie en Europa continental y empezaron a avanzar hacia el norte por la península italiana.
Desde el Este, el Ejército Rojo, en junio del 44, alcanzó las orillas del Vístula. El 31 de junio del 44 llegaron a Varsovia y se detuvieron por seis meses, dejando tranquila y siniestramente que los alemanes destruyeran la insurrección polaca.
Alemania, felizmente, se derrumbaba: los aviones aliados bombardeaban Berlín, las fábricas de aviones y las refinerías de petróleo alemanas. A principios de 1945, el sistema de transportes del Tercer Reich ya estaba paralizado. En enero del 45 cayó Varsovia en poder de los rusos, que en pocos días más hicieron pie en Alemania. Los aliados se acercaban por el oeste también: en la noche del 22-23 de marzo cruzaron el Rin y, en abril, el Elba, mientras los soviéticos llegaban a los suburbios de Berlín en ruinas.
El 30 de abril, Hitler se suicidó en su búnker, mientras las tropas soviéticas estaban apenas a un kilómetro de distancia. Su sucesor Doenitz (luego juzgado y ejecutado en los juicios de Nüremberg) firmó la rendición incondicional de Alemania en la medianoche del 8 de mayo de 1945. La Segunda Guerra Mundial —o por lo menos su parte europea— había terminado.
La guerra provocada por Hitler fue probablemente la más destructiva de la historia: en 1945, cincuenta países se habían unido a los aliados y movilizaron sesenta millones de personas, de los cuales por lo menos diez millones murieron, aunque las cifras de China y URSS son vagas. Nueve países se habían unido al Eje y movilizado treinta millones de hombres, de los cuales por lo menos seis millones murieron. El total de los explosivos que se usaron fue de seis millones de toneladas de TNT. Las bajas civiles debido al hambre, enfermedades, bombardeos y campos de exterminio, fueron aun mayores; el mundo entero se vio envuelto en una vasta maquinaria de conflicto. Las atrocidades cometidas por los nazis establecieron un antes y un después en la historia de la barbarie humana, bien nutrida por cierto.
Quedaba Japón y la guerra en el Lejano Oriente. Los norteamericanos avanzaban de isla en isla a costa de grandes pérdidas humanas. Por el otro lado, los ejércitos soviéticos, liberados del frente alemán, se preparaban para la invasión de Manchuria, ocupada por los japoneses.
Lo cierto es que, a esa altura, Japón ya estaba derrotado. Los bombardeos habían dañado completamente su capacidad de guerra y sus ejércitos cedían. Lo cual no significa que las cosas fueran fáciles; el alto mando japonés no aceptaba los términos de rendición incondicional exigidos por los aliados. La derrota final era segura, pero la invasión y ocupación de Japón iban a ser sangrientas y costosas.

§. Más brillante que mil soles
Yo soy el Tiempo que creciendo avanza y arrebata todo.
Yo soy la Muerte que estremece los mundos.
BHAGAVAD-GITA
Volvamos, entonces, a lo nuestro. En julio de 1945 —la guerra en Europa ya había terminado— la bomba atómica estaba lista para ser probada y la fecha del ensayo fue fijada para el 16 de ese mes.
Los científicos estaban tan seguros sobre la bomba de uranio que no la probaron, pero sí la de plutonio y su delicado mecanismo de detonación. La prueba se llamaría «Trinity», nombre tomado de un soneto de John Donne, cuya poesía religiosa Oppenheimer andaba leyendo por esos días.
En mitad del desierto, trescientos cincuenta kilómetros al sur de Los Álamos, en un lugar muy apropiadamente llamado «Jornada del Muerto» desde los tiempos de los españoles —lleno de escorpiones, víboras de cascabel y tarántulas—, se montó una torre de acero sobre una base de hormigón. A treinta metros de altura, había una plataforma donde se instaló el artefacto de plutonio.
A quince kilómetros, en cada dirección, se pusieron puestos de observación para aquellos que tendrían el raro privilegio de presenciar el experimento en mayor escala de la historia humana.
A las dos de la mañana, todos los participantes estaban en su lugar, en el campo base. A las 5:29 el artefacto estalló:
El general Thomas Farrell, una de las figuras fuertes del proyecto Manhattan, pensó:
Todo el lugar se iluminó con una luz impresionante, de una intensidad mucho mayor que el mediodía… treinta segundos después de la explosión, la presión del aire que nos empujó a los unos contra los otros nos hizo pensar que habíamos desatado fuerzas solamente reservadas al Todopoderoso.
El físico Hans Bethe, que había descifrado el funcionamiento de las estrellas, pensó:
Parecía como un gigantesco flash de magnesio que se mantuviera por uno o dos minutos, aunque fueron en realidad uno o dos segundos.
Emilio Segrè, que había descubierto el tecnecio, y ayudado a completar la Tabla Periódica, pensó:
Lo más impresionante fue la brillante luz. Yo estaba anonadado por el espectáculo. El cielo entero se inundó de una luz brillante…Por un momento creí que la explosión podía incendiar la atmósfera entera y terminar con el planeta, aunque sabía positivamente que no era posible.
Isidor Isaac Rabi, que había estudiado como nadie el momento magnético de los átomos, pensó:
Había nacido algo nuevo, una nueva forma de control, una nueva forma de conocimiento que el hombre había adquirido sobre la naturaleza.
Y era cierto: los átomos, que Demócrito se imaginó como esferas compactas y que Newton quiso — y no pudo— someter a las leyes de la gravitación, los átomos teóricos de Dalton, los átomos llenos de Thomson con electrones incrustados, los átomos vacíos que Rutherford imaginó como sistemas solares en miniatura, el átomo que Bohr disciplinó y sometió a las leyes cuánticas, el átomo radiante de María Curie, el átomo que Heisenberg redujo a la incertidumbre, el que Fermi bombardeó sin piedad y Lise Meitner y Otto Hahn lograron partir en dos, el átomo cuyo secreto descubrieron Meitner y Frisch, los átomos estrujados, investigados, perseguidos, adivinados, anhelados, teorizados por legiones de científicos a lo largo de cincuenta años de esfuerzo intelectual, en apenas millonésimos de segundo se partieron y liberaron la energía almacenada en doce millones de millones de millones de millones de núcleos de plutonio, produciendo una pavorosa explosión equivalente a veinte mil toneladas de TNT, el explosivo más poderoso hasta el momento.
El estallido —que fue cuatro veces mayor que lo esperado— indicaba, en efecto, el comienzo de algo nuevo: las fuerzas del microcosmos —las más duras e intensas del universo— irrumpieron en el mundo en el desierto de Nuevo México. La guerra estaba ganada, pero el mundo ya no volvería a ser el mismo.
Tal vez fue lo que pensó Oppenheimer cuando, tras el estallido, recordó un pasaje del Bhagavad-Gita, el libro sagrado del hinduismo.
Si una luz más brillante que mil soles irrumpiera de pronto en los cielos sería parecida al esplendor del Altísimo.

§. Hiroshima
Era temprano, la mañana parecía quieta, cálida y bella.
Del diario de MICHICHIKO HACHIYA, médico del hospital de Comunicaciones de Hiroshima
En la primavera de 1945, un grupo especial dentro del proyecto Manhattan se dedicó a elegir un blanco para el primer empleo de la bomba atómica: las ciudades posibles fueron Hiroshima, Kokura, Nigata, Nagasaki y Kyoto, la ciudad japonesa de los templos. Finalmente, Kyoto se tachó de la lista, pero las otras fueron cuidadosamente mantenidas aparte de los bombardeos. Se entiende: el lanzamiento de la bomba atómica, la prueba de la nueva arma, cínicamente debía hacerse sobre una ciudad intacta.
El 30 de junio de 1945 los habitantes de Hiroshima eran poco más de doscientos cuarenta y cinco mil. Alemania ya se había rendido, y Japón —la única de las potencias fascistas aún en guerra— era forzado a retirarse de los territorios ocupados; los aliados habían recuperado las Filipinas y se combatía tenazmente en Okinawa. La aviación japonesa estaba destruida y la economía del Japón, en ruinas. Muchas ciudades japonesas, como Tokio, habían sido terriblemente bombardeadas. Pero sobre Hiroshima no había caído bomba alguna, o tan pocas que parecían haber sido arrojadas por error.
El gobierno japonés inició un discreto movimiento para que el gobierno ruso actuara como mediador ante los aliados y pidiera la paz. El partido militarista, por su parte, presionaba al Emperador Hirohito para que siguiera la lucha.
Minutos antes de las tres de la mañana del 6 de agosto de 1945, el Enola Gay, bombardero B-29 de la Fuerza Aérea norteamericana despegó de la base situada en Tinian, en las islas Marianas. Estaba ligeramente sobrepasado en peso: a bordo llevaba a «Little Boy», una de las tres bombas atómicas fabricadas por los Estados Unidos. Era un artefacto de más de cuatro toneladas de peso —el avión estaba tan sobrecargado que a duras penas pudo levantar vuelo—, tres metros y medio de largo y unos setenta y cinco centímetros de diámetro, que había sido transportada desde los Estados Unidos a Tinian por partes, en un acorazado pesado y varios aviones.
A las 8:40, el Enola Gay se acercó a Hiroshima, volando a unos cinco mil metros de altura. Ningún avión japonés trató de interceptarlo ni recibió fuego antiaéreo. Poco después de las nueve, el Enola Gay dejó caer la bomba e inmediatamente se alejó para escapar del fuerte impacto convectivo de la explosión. Cuarenta y tres segundos más tarde, la bomba atómica explotó, a seiscientos metros de altura sobre el hospital Shima, con una potencia equivalente a 12.500 toneladas de TNT.
Yo me había levantado de una silla para hablar por teléfono. La casa quedó llena de un fuego amarillo y el fuego se volvió después azul, y el azul se hizo rojo hasta que la ciudad tan clara y sin nubes esa mañana, se hundió de pronto en una noche sucia
contó el señor Michiyoshi Nakushina, que era un comerciante de sake en 1945.
Cuando miré hacia el cielo vi un estallido de luz blanca y el verde de las plantas, envuelto en esa luz, las hacía parecer hojas secas,
recordó una chica que tenía 5 años aquel 6 de agosto.
Acompañando a ese estallido de luz, hubo un estallido de calor: la temperatura en las inmediaciones de la explosión se elevó de tal manera que una enorme lengua de fuego envolvió a la ciudad. Los pájaros, los insectos y las personas situadas cerca del epicentro de la explosión se carbonizaron en el acto.
En sólo un instante, la ciudad entera se convirtió en un montón de ruinas. A los treinta minutos de la explosión se inició el incendio con una tormenta de fuego que alcanzó una velocidad de dieciocho metros por segundo en dos o tres horas. Entre las once de la mañana y las tres de la tarde, un violento torbellino avanzó desde el centro de la ciudad hacia la parte norte. En un radio de dos kilómetros de la explosión todo había quedado destruido por el estallido y en un radio de trece kilómetros, todo lo existente fue arrasado por la tormenta de fuego. Entre las nueve de la mañana y las cuatro de la tarde empezó a caer una lúgubre lluvia negra con materiales radiactivos.
El número de víctimas fue aterrador. Fueron afectadas directamente 350 mil personas, entre la población estable y la transitoria, entre la que había muchos coreanos llevados para el trabajo obligatorio en Japón. Para el 31 de diciembre habían muerto 140 mil personas, ya fuera a causa de la radiación o de la onda de calor (de tres a cuatro mil grados en el centro de la explosión y 570 grados a un kilómetro de distancia).
Los que fueron lesionados por las radiaciones sufrieron depresión de la médula ósea, falta de glóbulos blancos, desprendimiento de cabellos, náuseas, vómitos, aunque los testimonios son confusos, ya que los moribundos muchas veces no estaban en condiciones de describir sus síntomas.
La situación empeoró aún más porque la mayoría de los establecimientos hospitalarios estaban cerca del centro de la ciudad y fueron arrasados por el estallido. Mucha gente pereció en el caos generado, y en las filas de gente que huía del avance de las lenguas de fuego buscando desesperadamente refugio en el agua. De 76 mil edificios que había en Hiroshima, setenta mil fueron dañados, de los cuales 48 mil por completo.
No hay estimaciones exactas de la cantidad de muertes, dado que muchas se produjeron después, debido a efectos secundarios de la radiación, aunque a los cinco años las muertes debidas a los efectos secundarios de la bomba podían estimarse en doscientas mil. Cerca del epicentro, en algunas paredes que se conservaron en pie, quedaron registradas las sombras de las personas que fueron evaporadas por el calor.
El gobierno japonés no reaccionó inmediatamente: la destrucción de Hiroshima había sido tan completa que las noticias tardaron un día entero en llegar al Palacio Imperial y al Alto Mando. Nuevamente se reanudó la lucha de facciones: mientras el Emperador quería la rendición, el partido militar no se tomaba muy en serio la nueva arma y proponía una resistencia prolongada. El 9 de agosto, «Fat Man», una segunda bomba atómica (esta vez de plutonio) estalló sobre Nagasaki matando a setenta mil personas.
Ante lo cual, el emperador Hirohito tomó su decisión independientemente de los comandos militares, y a través de Suiza, hizo una oferta de paz aceptando los términos de la declaración de Postdam: esto es, rendición incondicional. Ahora sí, la guerra había terminado. Detrás quedaban las ruinas humeantes del desastre, los campos de concentración, las cámaras de gas, las ciudades en ruinas, los pueblos desarticulados, las economías europeas destruidas, las masacres de Manchuria.
E Hiroshima.
En el desierto de Nuevo México, la explosión de «Trinity» y el hongo nuclear de malvada belleza podía considerarse un triunfo del intelecto humano: «física grandiosa», como había dicho Fermi alguna vez. La destrucción de Hiroshima y las personas quemadas y vagabundeando aterrorizadas con su piel a cuestas eran ya otra cosa muy distinta.

§. Kokura
Nadie recuerda el nombre de Kokura.
Kokura está en el noroeste de la prefectura de Fukuoko
en la isla de Kyushu.
¿Pero quién conoce el nombre de Kokura?
En 1933 se construyó un arsenal, y desde entonces
la ciudad se volvió un punto estratégico.
Y nadie oyó hablar de Kokura.
La gente de Kokura siguió viviendo como hizo siempre,
y los días amanecieron y terminaron, como siempre.
Y el tiempo pasó y la gente nació y murió, como fue siempre.
Y en 1963 Kokura y cinco ciudades cercanas se fundieron
en una nueva ciudad que se llamó Kitakyushu.
Y el nombre de Kokura dejó de figurar en los mapas
Kitakyushu es ahora un gran centro de comercio
con más de un millón de habitantes.
Y nadie hablará más de Kokura.
Nadie habla de Kokura, nadie
la recuerda, y sin embargo
la segunda bomba atómica
la que hizo estallar en pedazos Nagasaki
esa misma
no estaba destinada a Nagasaki
sino a Kokura.
El avión se llamaba
¿cómo se llamaba el avión?
Bock’s Car, eso es,
está bien que lo recuerden,
y a bordo
instalaron la bomba de plutonio
y alzó vuelo
tres días después de Hiroshima
alzó vuelo, alzó vuelo, poco antes
de las cuatro de la mañana de un amanecer de Tinian
navegando hacia el Sol
alzó vuelo, alzó vuelo
hacia Kokura.
Y voló.
Y voló.
Y voló.
Entre las ocho y las nueve menos diez
dio vueltas sobre Yakoshima
esperando a sus escoltas
uno de los cuales no llegó
y sin él
sin esperarlo
siguió vuelo hacia Kokura.
Y voló.
Y voló.
Y voló.
¿Cómo sería ese día? No lo sé.
¿Qué destino tenía en el almanaque del tiempo?
¿Quién decidió que sobre Kokura hubiera nubes bajas?
Y voló.
Y voló.
Y voló.
El avión llegó a las diez menos diez.
Y voló y voló, en círculo, esperando
que el cielo se despejara.
Ese día los habitantes de Kokura
habrán mirado el cielo, y dicho, «¡qué día gris
sobre el fondo gris de la guerra!».
Algunos habrán dicho: «aquellas nubes
no nos dan tregua
¿no podrían mostrarnos un poco el Sol
sobre el fondo gris de la guerra?».
Y por encima de esas nubes
un avión, ¿cómo se llamaba?, el Bock’s Car
con una bomba atómica ya lista
volaba
y volaba
y volaba
dando vueltas y vueltas en círculo, esperando
que las nubes se abrieran.
¿Cuántos habitantes de Kokura habrán mirado al cielo
deseando que el cielo se despejara,
como lo esperaba el piloto?
Pero nada, la meteorología inclemente
no dio tregua, y para tristeza
de los habitantes de Kokura
el tiempo no mejoró
y como no había esperanzas ni noticias de un cielo despejado
el avión dejó de dar vueltas en círculos
y voló
y voló
y voló
hacia Nagasaki.
Los habitantes de Kokura vivieron porque ese día estaba nublado.

Interludio:
Larga historia de la bomba

Un segundo después del origen del universo se formaron los primeros núcleos de hidrógeno y de helio; trescientos mil años más tarde esos núcleos capturaron electrones, se ensambló la materia en gran escala y nacieron los átomos en medio de un enorme estallido de radiación. Eran átomos simples, modestos átomos de hidrógeno y de helio, que se condensaron en grandes nubes. Y las grandes nubes se contrajeron bajo la acción de la gravedad, hasta que la presión y la temperatura en su centro fue tan grande que los átomos de hidrógeno comenzaron a fundirse, a apretarse en núcleos más pesados y más grandes y a emitir grandes cantidades de luz y calor: se estaban encendiendo las primeras estrellas.
Pacientemente, las estrellas ataron en sus hornos nucleares núcleos complejos, almacenando en ellos grandes cantidades de energía, anudando protones y neutrones en paquetes de carbono, calcio, oxígeno, hierro, y luego, cuando se agotó el combustible nuclear, estallaron dispersando por el espacio los nuevos elementos. El universo trabajó pacientemente para construir los elementos y llenar los casilleros de la Tabla Periódica; penosamente nacieron el oxígeno y el nitrógeno, el bario y el cadmio, la plata y el hierro, el oro y el aluminio, el torio y el uranio. Algunos eran estables, otros se desintegraban rápidamente y duraban menos que las estrellas; el plutonio apareció, se extinguió y desapareció de la naturaleza; pero ésta implacablemente trabajaba, combinando ahora los átomos en complejas moléculas, capaces de reproducirse y evolucionar por lo menos sobre un cuerpo opaco que giraba alrededor de una estrella cualquiera. Y esas moléculas complejas, tras cuatro mil millones de años de evolución, reconstruyeron el plutonio, lo encerraron en un dispositivo no más grande que una naranja y se dedicaron a observar qué ocurría cuando los núcleos, anudados pacientemente a través de los eones, se liberaran de repente en una reacción descontrolada.

Capítulo 37
El núcleo atómico y el modelo estándar

Uno de los terrenos en los que el siglo XX indagó con enormes resultados fue el del átomo, aquella unidad constitutiva de todas las cosas donde se escondían (y probablemente se siguen escondiendo) los secretos mejor guardados del universo. El descubrimiento del electrón, a fines del siglo XIX, había llevado a la conclusión evidente de que los átomos no eran, como se creía, partículas indivisibles sino estructuras compuestas, lo cual diseñó todo un programa de investigación.
Resultaba obvio que los electrones no podían ser los únicos componentes de los átomos, cualquiera fuera la estructura de éstos, por una razón muy sencilla. O dos, mejor dicho: por un lado, los átomos son eléctricamente neutros y, por lo tanto, en algún lugar tenía que haber una carga positiva que neutralizara la carga negativa de los electrones; por el otro, la masa total de los átomos es mucho más grande que la de los electrones. En algún lugar tenían que estar la carga y la masa que faltaban.
Thomson resolvió este inconveniente con su modelo del plum pudding (según el cual los electrones estaban incrustados en una esfera de carga positiva), y pareció que se tenía la clave de la estructura de la materia.
Pero resulta que, como ya vimos, los átomos radiactivos emitían partículas alfa a gran velocidad. Y, como también vimos, Rutherford usó esas partículas para bombardear una lámina de metal y vio, contra todo pronóstico, que la mayoría atravesaba la lámina sin desviarse, mientras que algunas se desviaban mucho, como si hubieran chocado contra algo muy grande y pesado: concluyó entonces que, al revés de lo sugerido en el modelo de Thomson, la masa y la carga positiva del átomo no estaban distribuidas sino concentradas en el centro del átomo. Y concentradas en un espacio muy pequeño, al que llamó núcleo. Así se elaboró el modelo del átomo como un sistema solar en miniatura. Un núcleo en el centro y los electrones girando alrededor.
Lo cual explicaba por qué se repetían las propiedades de los elementos en la Tabla Periódica. Los electrones se mueven en órbitas alrededor del núcleo y esas órbitas tienen la capacidad de alojar un cierto número de electrones, nada más. Cuando una capa se llena, los electrones se van a la siguiente.
Las propiedades químicas de un átomo dependen exclusivamente de la última capa. El litio, el sodio y el potasio tienen un único electrón en la última capa, y por eso sus propiedades se parecen. También se parecen los que tienen dos en la última capa, como el magnesio y el calcio, y los que tienen tres, como el aluminio y el galio. A medida que las capas se van llenando, se empieza con la siguiente, y es por eso que las propiedades se repiten.
Electrones y núcleo: otra vez los físicos pensaron que habían alcanzado la llave que abría el secreto de la materia.

§. Los protones
Pero volvamos al asunto del núcleo. Fíjense que se planteaba de nuevo la misma pregunta de siempre: ¿qué era el núcleo? ¿Se trataba de una esfera de materia cargada positivamente, o era a su vez algo compuesto de cosas aún más pequeñas? Las dos respuestas eran razonables, pero sólo la segunda era cierta. En 1919, el propio Rutherford demostró que el núcleo estaba compuesto de partículas que llamó «protones» (lo cual significa «los primeros»). Los protones que definió Rutherford tenían una carga eléctrica exactamente igual a la del electrón, aunque de signo opuesto: son los encargados de equilibrar las cargas electrónicas de modo tal que el átomo sea efectivamente neutro. Si hay siete protones, hay siete electrones. La diferencia es que los primeros son muchísimo más grandes (1.836 veces, para ser precisos) que los últimos.
A su vez, son los protones los que le dan identidad a los elementos: un átomo de hidrógeno, el más simple de todos los átomos, tiene en su núcleo un único protón alrededor del cual se mueve un único electrón. Un protón y un núcleo de hidrógeno son exactamente la misma cosa. Pero si se agrega otro protón, ya no tenemos un núcleo de hidrógeno, sino de helio. Y si hay tres ya estamos ante el litio; cuatro, berilio; seis, carbono. Si el oro no es lo mismo que el hierro, es porque el hierro tiene veintiséis protones en su núcleo y el oro setenta y nueve. Si uno tiene un átomo de hierro y le agrega 53 protones, tiene uno de oro. Eso es todo.
Así, cada elemento de la Tabla Periódica tiene un número de protones que lo identifica, que se llama «número atómico» y es lo mismo que el nombre. Uno puede decir «elemento 1» o hidrógeno, «elemento 26» o hierro. Normalmente, el número atómico se escribe abajo a la izquierda del nombre del elemento: 1H, 26Fe. El número atómico (es decir, el número de protones) es el documento de identidad del elemento. Ahora fíjense que si uno puede (y se puede) agregarle protones al núcleo de un elemento y obtener otro… está realizando una transmutación, ¡el sueño delirante de los alquimistas!
Además, observen también que si los núcleos son agregados de protones y cada protón es un núcleo de hidrógeno, Prout no andaba tan equivocado cuando en 1815 supuso que todos los átomos eran agregados de átomos de hidrógeno.
Hay un pequeño problema, sin embargo. Los protones, que están apelotonados en el núcleo, tienen todos cargas eléctricas positivas, razón suficiente para que pensemos que se deberían rechazar los unos a los otros. ¿Por qué, entonces, no se desparraman? La razón es que están unidos por una fuerza mucho más poderosa que el rechazo eléctrico. Pero para entrar en este tema tenemos que hablar, antes, de la segunda gran partícula del núcleo atómico.

§. Algo llamado neutrón
Rutherford, que de joven había cosechado papas, conocía a la perfección el antiguo consejo de no dormirse sobre los protones, consejo útil si los hay. Y no se durmió.
Hacia junio de 1920, cuando pronunció su conferencia ante la Royal Society de Londres, Rutherford ya era uno de los héroes de la física. La disertación, sin embargo, no la dedicó a su aclamado modelo del átomo sino que comenzó hablando de la transmutación del átomo de hidrógeno, luego hizo una recapitulación sobre el estado de la física en el momento, y después, y sin previo aviso, se puso a divagar sobre la estructura del núcleo atómico. Imaginó un núcleo neutro, un núcleo de hidrógeno sin carga eléctrica. Una especie de asociación entre un protón y un electrón pegados que anularan mutuamente sus cargas y compusieran una especie de sistema de carga cero, un átomo neutro. No le parecía para nada imposible la existencia de un objeto semejante.
Este átomo tendría novedosas propiedades: su campo eléctrico sería cero, y por lo tanto se movería con mucha comodidad por dentro de la materia. Podría meterse directamente dentro de la estructura de otros átomos y sería una herramienta ideal para explorar la materia,
dijo.
Nadie entendió muy bien por qué razón Rutherford había empezado a fantasear con probabilidades tan exóticas sin que viniera demasiado a cuento.
Pero entre los asistentes a la conferencia estaba James Chadwick, un joven físico que colaboraba con Rutherford y que se tomó en serio las divagaciones de su maestro. Pensó que Rutherford estaba postulando una partícula neutra, una nueva partícula que bien podría llamarse «neutrón».
Durante mucho tiempo, Chadwick se dedicó a perseguir al neutrón sin ningún resultado. Pero en el otoño de 1930, el físico alemán W. Bothe, ayudado por un joven investigador, H. Becker, observó que el berilio (el cuarto elemento de la Tabla Periódica), al ser bombardeado por una fuente radiactiva, emitía una radiación muy penetrante que supuso que era radiación gamma, uno de los productos de la desintegración radiactiva. Pero esta radiación gamma era demasiado penetrante, mucho más que cualquier radiación gamma conocida hasta entonces.
Chadwick se enteró de estos resultados, y se enteró también de lo que ocurrió poco más de un año después, en París. Allí, en diciembre de 1931, Irene Curie —la hija de la gran Marie Curie— y su esposo Frédéric Joliot repitieron los experimentos de Berlín, y el 18 de enero de 1932 publicaron en las actas de la Academia de Ciencias un resultado sorprendente: la radiación del berilio era tan potente que podía arrancar protones a sustancias como la parafina, el agua y el celofán.
Cuando Chadwick leyó estos resultados en el Cavendish Laboratory de Cambridge corrió a mostrárselos a Rutherford, quien exclamó que no los creía «en absoluto», y le pidió que verificara las mediciones de los Joliot-Curie. El discípulo tampoco creía en esas mediciones: le parecía imposible que la radiación gamma fuera capaz de arrancar partículas tan pesadas como el protón. Para arrancar protones, hacían falta partículas más o menos como ellos, pero capaces de penetrar sin demasiado problema en los núcleos… tal como había sugerido Rutherford en aquella lejana conferencia, más de diez años antes.
En otras palabras, Chadwick pensaba que en la misteriosa radiación del berilio no había ningún rayo gamma, sino las anheladas y hasta ahora ausentes «partículas neutras». Con esa hipótesis, dedicó diez fatigosos días a refinar las mediciones. El fin de semana del 13 y 14 de febrero, creyó haber obtenido su meta. El miércoles 17 de febrero de 1932 envió a la revista un informe con el título: «Sobre la posible existencia del neutrón».
Finalmente, lo había encontrado.
La verdad es que era imposible creer que el núcleo atómico estaba compuesto solamente de protones. Como ya vimos, un átomo de hidrógeno tiene en su núcleo un único protón, cuya carga eléctrica es neutralizada por un electrón. Sin embargo, el núcleo de helio, el elemento que sigue al hidrógeno en la Tabla Periódica, y que tiene dos cargas positivas en su núcleo (es decir, dos protones), no pesa el doble del núcleo de hidrógeno, sino el cuádruple. Lo cual sugiere que ahí hay algo más.

El núcleo de helio

Y efectivamente, en el núcleo de helio, además de los dos protones de rigor, hay dos neutrones: aquellas partículas que imaginó Rutherford en su conferencia de 1920, y que Chadwick encontró en 1932.
Los neutrones son muy parecidos a los protones, aunque su masa es ligeramente mayor. Un protón equivale a 1836,1 electrones. En cambio, un neutrón equivale a 1838,6 electrones. Es una diferencia mínima, pero, en fin, son más grandes.
Aunque, naturalmente, la diferencia principal entre protones y neutrones es que el protón está eléctricamente cargado y los neutrones no. Al no tener carga, son excelentes proyectiles para bombardear el núcleo. Si se bombardea un núcleo con protones, va a sufrir el rechazo de las cargas eléctricas positivas. Pero con los neutrones no existe ese problema y, por eso, pueden penetrar profundamente en la materia. De hecho, son los responsables de los procesos de fisión nuclear, y los que se utilizan para bombardear núcleos, transmutarlos y volverlos radiactivos.
A diferencia de los protones, si se agregan neutrones a un núcleo, el elemento no cambia. Si era carbono, sigue siendo carbono. Sin embargo, el núcleo no es el mismo, ya que el número de partículas ha variado. Dos núcleos con el mismo número de protones pero diferente número de neutrones son isótopos (se llaman isótopos —que significa «el mismo lugar», porque efectivamente ocupan el mismo lugar en la Tabla Periódica, ya que el elemento no cambia—). Casi todos los elementos naturales existen en diferentes formas isotópicas (es decir, en variedades de acuerdo a la cantidad de neutrones). Por ejemplo, un núcleo de hidrógeno tiene un solo protón en su núcleo. Si además del protón hay un neutrón, sigue siendo hidrógeno, por supuesto, pero en la variante llamada deuterio. Si tiene dos neutrones, se llama tritio.

Núcleo de hidrógeno, núcleo de deuterio, núcleo de tritio

Sigue siendo hidrógeno, claro está; el deuterio y el tritio son sólo variantes o isótopos. Por eso, junto al nombre del elemento, se ponen dos números: uno es el número de protones (el número atómico) y el otro es el «número másico», que se marca como superíndice a la izquierda del elemento, y que indica la suma de protones y neutrones. Así, 2⁴He indica que se trata de helio, con dos protones (número atómico 2). Pero el cuatro informa que en ese núcleo hay cuatro partículas (cuatro nucleones) —«nucleones» es la palabra que se utiliza para referirse a los integrantes del núcleo, sin discriminar si son protones o neutrones— en total. Es decir, que además de los protones, hay dos neutrones. 23592U nos dice que el uranio, de número atómico 92 (con 92 protones por lo tanto), tiene 235 partículas en total. Es decir, 235-92 =143 neutrones. El 23892U es otro isótopo o variante del uranio, esta vez con 146 neutrones.
Los neutrones juegan un papel central en la estabilidad del núcleo atómico. Sin los neutrones, probablemente en el mundo no habría nada más que hidrógeno. Para comprender esto, hablemos primero de las cuatro fuerzas que existen en el mundo.

§. Las cuatro fuerzas
Cuatro hijuelos hubo el rey, cuatro hijuelos, que no más.
Romance popular español
Que la compleja arquitectura del universo esté basada solamente en cuatro fuerzas, que se encargan de mantener en pie y en funcionamiento todo lo existente, es sin duda asombroso. Y recién en los últimos ochenta años el esquema quedó completo. Primero, la fuerza gravitacional, la fuerza que nos adosa a la Tierra y nos dota de peso, la que mantiene a los planetas en sus órbitas y agrupa a las galaxias en grandes cúmulos. Su universalidad es verdaderamente espeluznante: todos los cuerpos ejercen atracción gravitatoria sobre todos los otros cuerpos, sin excepción. Es la amalgama cósmica que mantiene unido al universo, es bella y armoniosa. Y así y todo, es la más débil de todas las fuerzas. Es triste, pero es verdad.
La gravitación parece muy pobre cuando se la compara con la fuerza electromagnética: ésta es un billón de billones de billones de veces más poderosa. Aunque lo que gana en fuerza, lo pierde en universalidad, ya que solamente actúa allí donde hay cargas eléctricas o campos magnéticos. Es la que hace que dos cuerpos con cargas de distinto signo se atraigan y que dos cuerpos con carga de igual signo se rechacen, es la que mueve las limaduras de hierro hacia el imán, la que mantiene a los electrones ligados al núcleo atómico, la responsable de que los átomos se combinen formando moléculas, y que las moléculas se enlacen entre sí. Pero estas dos fuerzas, solas, no bastarían. En el núcleo de los átomos conviven partículas con cargas de igual signo sin que la fuerza electromagnética que les ordena rechazarse las haga salir disparando unas de otras. Si esto ocurre así, es porque una tercera fuerza, más poderosa aún que la electromagnética, brilla en el fondo de la materia y es capaz de vencer el rechazo eléctrico. Es la fuerza nuclear fuerte, cien veces más intensa que la electromagnética, y que ata a los protones y a los neutrones del núcleo atómico entre sí, y que dentro de los neutrones y protones amarra a los quarks las partículas fundamentalísimas que los forman, a las cuales ya nos referiremos. Aunque de corto alcance, e imperceptible fuera del núcleo, gracias a ella éste no se desparrama en un delirio electromagnético. Allí donde haya que juntar dos cargas de igual signo, la fuerza nuclear fuerte es altamente recomendable. Es la más poderosa de las cuatro fuerzas y la que garantiza la estabilidad de la materia.
Y, en fin, hay una cuarta fuerza: la fuerza nuclear débil, que no provoca atracciones ni rechazos, sino que actúa en determinados procesos radiactivos, como la radiación beta (en que los núcleos expulsan electrones a gran velocidad), o hacen a veces estallar un neutrón en un protón, un electrón y un neutrino. Es una fuerza mucho más débil que la nuclear fuerte o que la electromagnética (aunque más potente que la gravitatoria), y, de las cuatro, probablemente la de menor estatus.
Y punto. La fuerza gravitatoria, la electromagnética, la nuclear fuerte y la nuclear débil bastan para explicar todos los fenómenos de la física. Es una realidad bastante simple, sin duda, pero los físicos sueñan con encontrar una superfuerza única que lo explique todo, una Gran Fuerza Unificada de la cual las cuatro existentes sean aspectos parciales. Y aunque esa meta parece estar lejos todavía, algo se ha avanzado en el camino: en 1967 Steven Weinberg y Abdus Salam consiguieron unificar la fuerza electromagnética y la nuclear débil en una sola: la fuerza electrodébil. Fue un enorme paso adelante en la persecución de una teoría unificada.

§. El núcleo atómico
El vacío, aquella Nada que horrorizaba a la escuela eleática, que para Parménides era el paradigma de lo que «No Es» y que, según Aristóteles —y Descartes— no podía existir, constituye, sin embargo, la forma predominante de existencia en este oscuro agujero que llamamos universo.
No es sólo el vacío de los espacios interestelares, con sus raros átomos flotando en inmensas colmenas de oscuridad donde aparecen de a ratos burbujas del gas de galaxias que da la apariencia al cosmos.
Nada de eso. En lo más íntimo, en el centro mismo de la materia, allí donde uno debería confiar en encontrar lo sólido, el sostén de Lo Que Es, no hay más que espacio vacío. El átomo es sólo un miserable paquete de «casi nada»: prácticamente toda su masa se concentra en el núcleo, y el volumen del núcleo es insignificante en relación al átomo total. Si el núcleo tuviera el tamaño de una nuez colocada en el centro de una cancha de fútbol, los electrones de la primera órbita andarían por las tribunas. Y en el medio, nada. Aunque el núcleo contiene casi toda la materia del átomo, su volumen es un centésimo de millonésimo de millonésimo (0,00000000000001) del volumen total del átomo; apenas una esferita de un diezmilésimo de millonésimo de millonésimo de milímetro de radio.
Pero así como su volumen es mínimo, la densidad del núcleo es impresionante: cien millones de millones de veces la densidad del agua. Una taza de café compactamente llena de núcleos atómicos pesaría mil millones de toneladas.
El átomo coloca a cualquiera frente al vértigo del vacío, eco lejano de aquel horror vacui que tanto daño produjo en su momento: si concentráramos los núcleos de toda la materia de la Tierra en una esfera compacta, no tendría más de cincuenta metros de radio. Si lo hiciéramos con el Sol, obtendríamos un astro de pocos kilómetros de radio (como ocurre, por otra parte, en las estrellas de neutrones). En realidad, si la naturaleza tuviera horror al vacío, como se creyó durante siglos, la naturaleza no podría existir. Parecería más bien que a la naturaleza le encanta el vacío, ya que lo desparrama tan alegre y generosamente que da vértigo.
En fin: el núcleo está compuesto de protones y neutrones. Los protones, para darle identidad. Los neutrones, para aportar fuerza nuclear sin rechazo eléctrico. Los protones se rechazan eléctricamente, aunque se atraen con la fuerza fuerte, que actúa sólo a muy corta distancia. Es como si uno quisiera aproximar dos imanes de igual polo, cada uno de los cuales estuviera embadurnado con un pegamento de buena calidad. Los imanes se rechazarían, sí, pero si uno consiguiera que se tocaran, quedarían pegados, porque la fuerza del pegamento neutraliza el rechazo magnético. Cuando un núcleo es grande y hay muchos protones, la cosa se pone brava, porque el rechazo electromagnético es muy grande y amenaza con hacer un desastre. Y entonces, para eso están los neutrones. Los neutrones agregan fuerza fuerte —agregan pegamento— y refuerzan la cohesión del núcleo al tiempo que, como son neutros, no agregan rechazo eléctrico.
Los protones dan identidad al núcleo, le dan un número atómico y le dan su carga (oportunamente neutralizada por los lejanos electrones). Los neutrones colaboran con la estabilidad, evitando que estalle por efecto de la repulsión electromagnética entre las cargas de igual signo (positivo) de los protones. Además, un neutrón se puede convertir en un protón y viceversa. Si uno agarra un protón, y le agrega un electrón, se transmuta en un neutrón. Si un neutrón emite un electrón (y un neutrino), se transforma en un protón.
El núcleo atómico es todo un mundo, un mundo dinámico donde todo es movimiento y cambio y donde rigen, como en una cárcel, una fábrica o un paraíso, leyes propias. Pero no todos los núcleos son posibles —o mejor dicho, estables—. No cualquier amalgama de protones y neutrones se mantendrá firme. No se pueden juntar treinta protones sin ningún neutrón, o cuatrocientos neutrones y sólo dos protones. Como las especies, no todos los núcleos pueden sobrevivir en la lucha por la existencia. Pero aquí no rige la ley del más apto, sino las estrictas exigencias de la física: para cada número de protones, hay un número óptimo de neutrones que permite que el núcleo esté en el nivel de energía más bajo posible.
Todo, en el mundo, «trata» de alcanzar el nivel de energía más bajo posible y de desprenderse de la energía que le sobra. Una piedra en lo alto de una montaña «trata» de caer y de perder energía potencial. O, si se quiere un ejemplo más prosaico, un chico, cuando está muy excitado, se mueve y molesta a sus padres hasta que agota su energía, se cansa y se duerme. Y como la ley es la ley —y en la naturaleza no hay coimas ni corrupción que permitan esquivarla— cuando un núcleo tiene exceso de neutrones o de protones, no sobrevive. Eso (y no otra cosa) es el fenómeno al que llamamos radiactividad.

§. Un repaso: la radiactividad
Les voy a contar una leyenda guaraní que acabo de inventar: cuando todos los hombres (y las mujeres también) estuvieron formados, se presentaron ante Guandeí, el dios responsable de esos asuntos y le dijeron: «Fíjate que nos hicieron de manera apresurada, y así algunos tienen muchos brazos y otros ninguno, y algunos tienen dos cabezas y otros marchan con los ojos pelados, y sobran por aquí los ojos, y por allá faltan orejas. ¿No podrías hacer algo más equitativo?». El dios contestó: «No. Ya terminó el momento de la creación y nada puede remediarse». Y los hombres dijeron: «¿Y entonces, que haremos?» Y el dios pensó un poco y contestó: «Inventaré algo para que todo quede en su lugar, y desaparezcan los brazos y las piernas de más, y el mundo esté un poco más ordenado».
E inventó la guerra. Y en las guerras que se sucedieron, se cortaron los brazos y las piernas que sobraban y lentamente las cosas volvieron a la normalidad, si es que eso se puede llamar normalidad.
Algo parecido ocurrió con los núcleos atómicos, pero de manera menos expeditiva, ya que la burocracia del universo, aunque menos personal, es más compleja. Poco después del Big Bang —la explosión que dio origen al Universo— empezaron a formarse los núcleos: hidrógeno, helio y núcleos livianos; luego, apenas se encendieron las primeras estrellas, en su interior se cocinaron los núcleos más pesados. Pero en aquellos tiempos primarios el Universo tenía poca experiencia y los núcleos se formaron casi de cualquier manera, juntando protones y neutrones a la fuerza. Algunos núcleos quedaron con neutrones de más, a otros les faltaron neutrones, los de más allá quedaron con más energía de la que pueden soportar y en su interior las partículas empezaron a agitarse y moverse. Otros núcleos, en fin, tuvieron la suerte de tener la configuración óptima que las leyes de la naturaleza permiten.
Lo cierto es que, inmediatamente, los núcleos inestables —los mal formados— inventaron un mecanismo de corrección: la radiactividad. Del mismo modo que todos los hombres aspiran a la felicidad, todos los núcleos aspiran a la estabilidad y entonces se liberan de las partículas excedentes hasta alcanzar una configuración óptima —y estable—. Y lo hacen desintegrándose. Para conseguir la estabilidad, un núcleo tiene varios caminos. Uno de ellos es emitir una partícula alfa, compuesta de dos protones y dos neutrones (que es un núcleo de helio, dicho sea de paso), con lo cual se liberó de cuatro partículas. Al dejar ir dos protones, el átomo cambia su posición en la Tabla Periódica, descendiendo dos lugares. Con una partícula alfa menos, el núcleo es más estable.
También puede ser que emita una partícula beta, que no es otra cosa que un electrón. Al emitir un electrón, el núcleo se libera de una carga negativa, un neutrón se convierte en protón, y al acceder a esa posición más estable, asciende un lugar en la Tabla Periódica, porque adquiere un protón extra.
O puede emitir rayos gamma, que son simplemente radiación de muy corta longitud de onda: con la emisión gamma, el núcleo simplemente pierde energía y alcanza niveles de energía más bajos y, por lo tanto, más estables. La radiactividad es así: una partícula alfa y se baja dos lugares en la Tabla Periódica, una partícula beta y se sube un escalón, un haz de rayos gamma y uno se queda donde estaba.
Sin embargo, este mecanismo de corrección que el Universo encontró para remediar los errores iniciales cometidos en materia nuclear no es sencillo. Porque cuando un núcleo se desprende de una partícula alfa, pierde dos neutrones y dos protones. Cuando se desprende de una partícula beta, un neutrón se vuelve protón, con lo cual pierde un neutrón y gana un protón. En cualquiera de los dos casos, al modificarse el número de protones, se transforma en un núcleo distinto.

La vida exagerada de un núcleo de uranio
Sigan elitinerario, nada fácil, de un núcleo de uranio 238. Primero, emite unapartícula alfa, pierde dos protones, y por lo tanto desciende dos lugares enla Tabla Periódica y se vuelve torio, el elemento 90. Pero aún así, siguesiendo inestable, por lo cual emite una partícula beta, sube un peldaño en laTabla y se transforma en protactinio. Luego emite otra partícula beta, ¡yvuelve a ser uranio! Pero no el mismo que el original, sino una variante, un isótopo.Naturalmente, no se queda quieto: emite una alfa, baja dos lugares, y heteaquí que se transforma nuevo en torio. Nueva alfa y es radio. Alfa otra vez yes radón, en la casilla 86. Y ya va barranca abajo, como le ocurre acualquiera que emita muchas partículas alfa. Otra alfa y será polonio, en ellugar 84. Ni corto ni perezoso, nueva alfa y se transforma en plomo, pero unavariante inestable del plomo, y en un último estertor emite una partículabeta, trepa un escalón y se convierte en bismuto. Una beta más, nuevo escalónhacia arriba y vuelve ser polonio, y tras una alfa alcanzará el anheladoplomo 206, un núcleo realmente estable. Todas estas idas y vueltas valieronal fin la pena y, feliz, se entregará a las delicias de la estabilidad: allí,como plomo, se quedará para siempre.
Ya lo dice elrefrán: uranio eres y en plomo serás tornado.

Pero este nuevo núcleo puede ser inestable también, con lo cual se reinicia el proceso: nueva desintegración, nuevo núcleo y así sucesivamente. Así aparecen verdaderas familias radiactivas que, como las de la mafia, tienen una impresionante coherencia interna, pero también sus idas y vueltas. Una familia radiactiva es algo digno de verse.

§. Materia y energía
A esta altura de nuestro conocimiento, podemos pensar que en el universo hay solamente dos cosas: materia y energía. Tenemos una idea de lo que es la materia: el brillo del oro, la contundencia del hierro, el carbono que invisible late en el petróleo, el papel y nuestros cuerpos. El mundo de la materia es nuestro mundo: vemos una montaña, vemos el agua, vemos el vapor que se escapa de la ducha, sentimos al aire refrescar la piel. Las estrellas y los árboles, los protones y los pájaros, los electrones y las vísceras son claramente materia. Pero sólo tenemos una idea vaga de lo que es la energía.
El mundo se mueve, cambia, choca, chisporrotea. Y lo que permite que las cosas del mundo se transformen es la energía, que es más difícil y elusiva que la materia. La energía es la capacidad de producir transformaciones: desplazar materia, transformar agua en vapor, subir una roca hasta lo alto de una montaña, mantener encendida una lámpara eléctrica, quemar un leño, caminar.
La historia del hombre es la historia de su relación con la energía y la forma de dominarla. La primera forma primaria de utilización de la energía fue el control del fuego. El siglo XVIII presenció la domesticación del vapor, capaz de mover telares y pistones: el resultado fue la revolución industrial. En el siglo XIX, el motor de explosión produjo la revolución de los transportes. La utilización masiva de la energía eléctrica cambió la vida de la humanidad.
La energía, como la materia, se transforma. En una lámpara eléctrica, la energía eléctrica se transforma en energía luminosa. En las turbinas hidroeléctricas que generaron esa electricidad, la energía cinética del agua que caía por la catarata se transformó en la energía mecánica del movimiento de las turbinas, y esa energía mecánica a su vez se transformó en energía eléctrica. Cuando hierve una pava de agua, la energía calórica entregada por la llama se transforma en energía cinética —de movimiento— de las moléculas del líquido, que se mueven cada vez más rápido y escapan en forma de vapor. El mundo es un escenario donde permanentemente las formas de energía se intercambian. Así como los científicos del siglo XVII pensaban el mundo como un enorme mecanismo que se da cuerda a sí mismo, los físicos del siglo XIX, una vez asentada la idea de energía como concepto estructurante de la física, se imaginaban al mundo como un motor con la energía en el papel del combustible (aunque a diferencia del combustible, la energía no se gasta, sino que se transforma —y si nos ponemos estrictos, el combustible de, digamos, un auto, tampoco se gasta, sino que se transforma en otras cosas—).
A finales del siglo XIX, los científicos estaban muy seguros de saber qué era la energía y de conocer una de sus leyes fundamentales: la primera ley de la termodinámica, que establece que la cantidad de energía presente en el universo es constante, es siempre la misma.
Pero la radiactividad los desconcertó. Las emisiones radiactivas liberaban una cantidad enorme de energía, que obviamente no podía venir de la nada. ¿De dónde salía? Ningún proceso conocido era capaz de producir tanto.
Y es que, en realidad, los científicos no sabían todo sobre la energía. Así se los demostró la Teoría de la Relatividad, en la que Einstein —además de los malabarismos con el espacio y el tiempo— sustituyó la visión dual de materia y energía por una concepción unitaria en que ambas son aspectos diferentes de una misma cosa. Recuerden: decir «materia» y decir «energía» es equivalente, y la estricta medida de la equivalencia está dada por la fórmula E = mc2. Para la Teoría de la Relatividad, la masa no es sino una forma más de la energía.
Pero la fórmula E = mc2 dice más que eso: la presencia del término «c» —la velocidad de la luz, unos 300.000 kilómetros por segundo, para colmo elevada al cuadrado— significa que en realidad cantidades muy modestas de masa equivalen a cantidades muy grandes de energía. Con el equivalente en energía de solamente una tonelada de materia podríamos satisfacer el consumo energético anual del país que más energía devora en el mundo: los Estados Unidos.
La verdad es que la fórmula de equivalencia entre la masa y la energía fue una sorpresa fenomenal. Pero, así y todo, el mundo de las partículas todavía iba a deparar bastantes sorpresas más: si los físicos pensaban que con el protón, el neutrón y el electrón habían llegado a descifrar la estructura de la materia, estaban equivocados.
Una de las grandes sorpresas fue la antimateria.

Las unidades en que se mide la energía
La unidad que se usa habitualmente es eljoule –como homenaje a James Prescott Joule, uno de los descubridores de la leyde conservación de la energía—. Como el kilo, el metro y el segundo, un joulees solamente una unidad: es la energía que cuesta aplicar una fuerza de unkilo a lo largo de diez centímetros, o la que se necesita para que un cuerpode un kilo que está quieto, alcance, en un segundo, una velocidad de un metropor segundo.
Es poco, realmente: encender un fósforoimplica una energía de cuatro mil joule; caminar durante una hora requiere 1millón de joule. Una tonelada de TNT que explota involucra cuatrocientosmillones. La bomba de Hiroshima, ochenta millones de millones; la erupción deun volcán, un millón de billones.
Una bombita de cien watt, prendidadurante una hora, consume cien joule. Una copa de leche nos entrega 159calorías, equivalentes a 670 mil joule. La bomba de Hiroshima liberó unaenergía equivalente a 12 mil millones de copas de leche.
Un átomo de uranio que se parte liberasolamente una cienmilésima de una millonésima parte de un joule. Parece muypoco, pero en un gramo de uranio hay muchísimos átomos. Un hombre jovennecesita unas 3.000 calorías por día, que el cuerpo transforma en movimientoy calor.


§. ¿Qué es esa cosa llamada «antimateria»?
Para saber un poco qué es esa cosa curiosa llamada «antimateria», tenemos que hablar de Paul Dirac (1902-1984). Nació en Inglaterra, donde estudió ingeniería eléctrica con una fuerte formación matemática y física, y pronto se encaminó a Cambridge, la gloriosa Meca de la física donde reinaba Su Majestad Rutherford.
En Cambridge, Dirac colaboró en la edificación de la mecánica cuántica (cuyas líneas maestras trazaban Heisenberg y Schrödinger) y en 1927 encontró una ecuación que describía el comportamiento del electrón pero respetando los principios de la Teoría de la Relatividad.
La ecuación de Dirac pareció milagrosa a los físicos, en gran parte porque predecía un montón de resultados experimentales, pero también porque había sido una deducción a partir de los primeros principios, a la manera de Newton. Pero el fruto más espectacular de la ecuación «milagrosa» todavía estaba por venir.
Y es que enseguida Dirac se dio cuenta de que la ecuación milagrosa no tenía una sino dos soluciones posibles, del mismo modo que una raíz cuadrada tiene dos resultados posibles (la raíz cuadrada de cuatro, por ejemplo, tiene como soluciones a 2 y a –2). Uno de los resultados correspondía a una partícula de carga negativa y otro a una de carga positiva. Con la partícula de carga negativa no había ningún problema, ya que era el electrón. Pero… ¿y la otra solución? ¿A qué partícula podía corresponder?
«Al protón», pensó Dirac. Corría el año 1930 y se conocían solamente dos partículas elementales: el electrón —de carga negativa— y el protón, de carga positiva. Era natural que Dirac pensara lo que pensó.
Pero la verdad es que había algo malo: el protón no encajaba del todo como contrapartida del electrón, aunque más no fuera por la enorme superioridad de su masa. Que el protón, tan diferente en realidad del electrón, fuera su contrapartida positiva hería la delicada debilidad que los físicos (y acaso la naturaleza) tienen por la simetría. Si no era el protón, hacía falta una partícula de carga positiva, pero más parecida al electrón: en 1931 Dirac dio marcha atrás con su propuesta protónica y sugirió que esa solución extraña correspondía a una partícula exactamente igual al electrón en todo, salvo en un «detalle»: su carga, que sería positiva. Una especie de «antielectrón».
Era una predicción teórica, una conjetura, y nada más. Pero a veces las conjeturas parecen tener vida propia: en septiembre de 1932 Carl D. Anderson, un joven físico experimental del Instituto de Física de California, envió a la revista Science un artículo donde contaba que, estudiando los rayos cósmicos, había encontrado «una partícula cargada positivamente y con una masa comparable a la del electrón». Increíblemente, era el «antielectrón» imaginado teóricamente por Dirac, al que le fue concedido el no demasiado original nombre de «positrón». Su descubridor fue el primer hombre que vio «antimateria», que de manera sutil había hecho su aparición en un mundo muy seguro de su materialidad.
Después, naturalmente, la antimateria arreció. En 1955 se vio por primera vez el antiprotón y, casi inmediatamente, el antineutrón. En los grandes aceleradores se logró producir átomos de anti hidrógeno: un antielectrón girando alrededor de un antiprotón. En realidad, hoy en día todas las partículas tienen su correspondiente antipartícula. Una partícula sin antipartícula perdería instantáneamente toda consideración social, sería expulsada de los círculos selectos, las asociaciones y los clubes de partículas.
¿Pero qué quiere decir «antipartícula»? ¿Por qué el electrón y el positrón, el protón y el antiprotón, el neutrón y el antineutrón son «anti», cada uno del otro, en vez de tratarse sencillamente de dos pacíficas partículas diferentes?
¿Por qué esa oposición irremediable? La respuesta es triste pero verdadera: ante todo, las partículas y sus respectivas antipartículas son idénticas, salvo en su carga eléctrica, cuando la hay. Y también difieren en algo que llama «spin», y que gruesamente —muy gruesamente— puede interpretarse como la capacidad de rotar sobre sí misma. Y esta diferencia dista de ser superficial: una danza y una contradanza pueden sucederse sin inconvenientes; en El Arte de la Fuga, el infinito Johann Sebastian Bach nos muestra extrañas composiciones en espejo (fugas y contrafugas) y el conjunto es maravilloso. Pero entre la materia y la antimateria no puede haber ninguna clase de componendas. Cuando una partícula y una antipartícula entran en contacto, ¡adiós! Sencillamente se aniquilan: desaparece toda materialidad y se volatilizan en un torrente de radiación gamma.
Es posible también el proceso inverso: en cualquier laboratorio de medicina nuclear un rayo gamma emitido por el cobalto 60 choca, de repente, con un átomo de plomo. Y entonces la energía del rayo gamma se materializa en un electrón y un antielectrón.
De modo que la antimateria existe, sí, y aunque las antipartículas son altamente evanescentes (en muy poco tiempo chocan contra la materia y se aniquilan), prestan una notable contribución a la medicina, por ejemplo con la Tomografía de Emisión de Positrones.
Y si la materia y la antimateria no se aniquilan en gran escala, destruyendo el universo, es solamente porque hay muy poca antimateria. Sólo por eso. Y si hay poca antimateria es porque ya hubo una aniquilación a escala cósmica: fue en los tempranos momentos del universo, en los cuales un ligero exceso de la materia sobre la antimateria nos salvó (o mejor dicho: nos permitió) la vida.

§. Un personaje extraño: el neutrino
Ésta es una historia que se parece a la de Dirac y el positrón. La desintegración radiactiva, en especial la desintegración beta, tenía un serio problema: al final del proceso había siempre un poco menos de energía que al principio, de modo que el balance energético no se equilibraba. Una cierta cantidad de energía se esfumaba por completo, violando el sacrosanto principio de conservación. ¿Qué ocurría con la energía faltante? Algo había que hacer al respecto, y fue entonces cuando apareció en escena Wolfang Pauli, otro de los héroes de la «época de oro» de la física, ese período entre 1900 y 1940 en el cual se logró —o se creyó que se logró— desentrañar la estructura del átomo.
Pauli había nacido en Viena en 1900, estudiado con el gran físico Sommerfeld en Münich y, en 1925, había anunciado su Principio de Exclusión, que permitía explicar ya no cómo sino por qué los electrones de un átomo se distribuyen en capas superpuestas y producen las propiedades químicas de los elementos de la Tabla Periódica y que en otro relato merecería un capítulo entero, pero que por su dificultad lo saltearé. Lo cierto es que es uno de los basamentos en los que se apoya la física nuclear y atómica.
Pero no es ésa la causa por la que entra en escena aquí sino, como sospecharán, por haber contribuido a disipar el misterio de la energía desaparecida durante la emisión beta. En 1931, Pauli sugirió que durante la desintegración beta se emitía otra partícula, sin carga y tal vez sin masa. La energía de esa partícula —dijo Pauli— era justamente la que estaba «faltando». Lo pongo entre comillas porque en realidad no faltaba: se utilizaba para emitir una partícula a la que se llamó «neutrino», que significa «pequeña cosa neutra».
El neutrino, así planteado, no era más que una construcción teórica de propiedades realmente sorprendentes: un neutrino puede atravesar la Tierra de lado a lado con la misma facilidad con que un rayo de luz atraviesa un vidrio. La interacción de los neutrinos con la materia ordinaria es mínima, casi ridícula: mientras yo escribo esto (y ustedes lo leen) estamos siendo atravesados por cientos de miles de millones de neutrinos, que siguen su camino tan campantes sin prestarnos la más mínima atención.
Una partícula tan escurridiza, obviamente, es casi imposible de detectar. Pero en 1956 se intentó un experimento que resultó exitoso: se trató de pescar neutrinos en lo profundo de una mina de Dakota del Sur, Estados Unidos, esperando que algunos de esos cientos de miles de millones de ellos interactuaran con el material contenido en tanques dispuestos con ese fin. Por supuesto, se utilizaron instrumentos ultrasensibles y las nuevas partículas fueron, efectivamente, detectadas: los instrumentos midieron la incidencia de algunos neutrinos, confirmando así de manera experimental la predicción de Pauli.
En contra de lo que se pensó al principio, el neutrino tiene masa, y, es más, hay tipos de neutrinos.
Dicho sea de paso, Pauli no era tan afortunado con todas sus predicciones. En 1933, el día siguiente del incendio del Reichstag que proyectó a Hitler al poder absoluto, hubo una reunión en Gotinga. Varios físicos, entre los cuales se encontraba Edward Teller (que más tarde sería el cerebro de la bomba de hidrógeno norteamericana) discutieron la situación política de Alemania. Pauli declaró enfáticamente que la idea de una dictadura en Alemania era un disparate: «He visto una dictadura en Rusia; en Alemania simplemente no puede suceder».

§. Ensaladas de partículas
La verdad es que cuando los neutrones entraron en escena pareció que hasta ahí se llegaba y que el problema de la estructura de la materia había encontrado una solución permanente: estaba hecha de átomos, a su vez formados por neutrones, protones, electrones. Y punto. No era la idea de Dalton o Demócrito, para quienes los átomos eran las partículas verdaderamente elementales, pero era así. Si se lo pensaba bien, era incluso mejor: en lugar de muchas clases de átomos, había sólo tres partículas verdaderamente elementales que, en sus múltiples combinaciones, formaban todo lo que había. Demócrito hubiese estado contentísimo.
Pero la naturaleza no respeta las decisiones humanas, ni siquiera las de alguien tan grande y genial como Demócrito: en la misma década del treinta, el análisis de la materia, los bombardeos con partículas, el uso de los inmensos aceleradores y demás yerbas fueron ampliando cada vez más el menú de las partículas elementales, hasta formar una verdadera e insoportable selva: piones, kaones (en tres versiones: positivos, negativos y neutros), muones, partículas tau, tres tipos de neutrinos y una larguísima lista (cada uno con su antipartícula, además).
El panorama empezaba a complicarse de tal modo que crecieron los suspiros por un orden subyacente. Al fin y al cabo, pensaban los físicos de partículas, la naturaleza nunca es tan complicada (lo cual, desde ya, es una creencia, pero una creencia que al fin y al cabo sostiene buena parte del impulso científico y que hasta ahora ha dado resultado). Como cuenta el físico León Lederman: «En los 30, a quien descubría una nueva partícula elemental se le daba el Premio Nobel. En los 50, se lo maldecía».

§. Los quarks
Three quarks for Muster Mark!
Sure he has not got much of a bark
And sure any he has it’s all beside the mark.
JAMES JOYCE, Finnegans Wake
Y así fue como en los años sesenta, Murray Gell-Mann (n. 1929) y George Zweig (n. 1937) presentaron una propuesta: la existencia de entidades aun más fundamentales y todavía más chicas que los neutrones y los protones, a los que Gell-Mann llamo quarks (en honor a una frase irónica de James Joyce en Finnegans Wake). Había en la naturaleza—según ellos—, tres tipos de quarks, a los que se les pusieron extraños nombres: los quarks «up» (arriba), los quark «down» (abajo) y los quark «strange» (extraño). Las combinaciones entre ellos daban cuenta de todas las partículas conocidas hasta el momento: dos quarks up y uno down formaban un protón; dos down y uno up, un neutrón; los mesones y piones se formaban con dos quarks.

057.jpg
Un protón y un neutrón con sus tres respectivos quarks

El electrón y su no muy numerosa familia (en la cual se cuentan los muones, la partícula tau y unos tipos específicos de neutrinos), en cambio, eran los únicos que no estaban compuestos por quarks y que parecían verdaderamente elementales.
Gell-Mann, como siempre, se cuidó de aclarar que sus quarks eran entidades meramente especulativas, objetos matemáticos, pero (también como siempre, o como casi siempre) en 1968, los físicos del gran Acelerador Lineal de Stanford, bombardeando protones (una operación a escala aún más reducida del famoso experimento de Rutherford), comprobaron que dentro del protón había, efectivamente, tres partículas más pequeñas. La rueda no se detuvo allí, y fueron apareciendo nuevos e insospechados quarks: hoy se conocen seis (y sus respectivos antiquarks, claro está).
La verdad es que se había recorrido un largo camino desde aquellos primitivos átomos de tierra, agua, aire y fuego de Empédocles que se unían simplemente por «amor» y «discordia».

§. El modelo estándar
La experiencia de todo un siglo y los quarks de Gell-Mann permitieron construir lo que hoy se llama el «modelo estándar», que refleja lo más profundo que se llegó a conocer sobre la estructura de la materia.
Y es así: la materia observable, una molécula de agua, un fragmento de ADN o un caballo, está formada básicamente por átomos que miden un diezmillonésimo de milímetro de diámetro. A su vez, los átomos están formados por electrones que giran muy lejos de un núcleo central, de diámetro diez mil veces más chico, de un cienmilésimo de millonésimo de milímetro. Pero el núcleo está formado por protones y neutrones diez veces más diminutos (menos de un millonésimo de millonésimo de milímetro). Y esos protones y neutrones a su vez están formados por partículas más de cien mil veces más pequeñas: los quarks, de menos de un cienmilésimo de millonésimo de millonésimo de milímetro de diámetro.
Los seis tipos distintos de quarks, combinados de a tres o de a dos, pueden dar una variedad enorme de otras partículas intermedias, como los mesones y los piones.
Por otro lado están los leptones, que no están formados por quarks: el electrón, el muón (una especie de electrón más pesado), la partícula tau, y tres clases de neutrinos, que aparentemente sí son elementales.
Pero con esto no alcanza: hay que agregar las partículas que transportan las cuatro fuerzas que mantienen a los trocitos de materia unidos y sin las cuales quarks y leptones flotarían sueltos por el universo y nunca podría llegarse a estructuras más complejas como un protón, un átomo, una molécula, este libro o su lector.
La interacción fuerte, la débil, el electromagnetismo y la gravitación funcionan, hasta donde se sabe, a través de partículas, aunque una de ellas, la que transportaría la fuerza de gravedad (el graviton) aun no pudo ser detectada a pesar de los tremendos esfuerzos por hacerlo.
El modelo estándar podría parecer simple (o mejor dicho, ordenado). Claro, siempre y cuando no hubiera nada más. Pero extrañamente, en un mundo que parece amar la simplicidad, aparecen de manera constante y fugaz otras partículas huidizas, aunque la gran mayoría tiene una estabilidad tan endeble que si logran crearse espontáneamente no sobreviven en los laboratorios más que unas pocas fracciones de segundos (en el mejor de los casos).
En apariencia, hasta aquí se llegó y es lo último que se puede encontrar en el interior de la materia. Así y todo, para que el modelo estándar cerrara de manera definitiva (como si tal cosa fuera posible en el campo de la ciencia) faltaba algo: la famosa partícula divina.

Las tres generaciones de la Materia

(Fermiones)

058.jpg
Tabla de partículas elementales

Interludio: Dios y Pauli

Pauli era conocido y admirado por su increíble capacidad para encontrar errores en los trabajos y las teorías de los demás (y aun en los suyos propios). Pauli murió en 1958 e Isaac Asimov contaba la siguiente historia. Apenas producida su muerte, Dios le dispensó un trato especial y lo recibió en persona.
—Supongo —le dijo Dios— que después de una vida dedicada a la física, a la que ha ayudado tanto, igual le quedarán muchas dudas.
—Así es —contestó Pauli—, me he pasado tanto tiempo controlando a mis colegas para que no cometan ningún error que hay cosas que no tuve tiempo de averiguar.
—Bueno, dígame —pidió Dios.
—Por ejemplo, una cosa que siempre me perturbó fue la cuestión del protón y el electrón, que como usted sabrá perfectamente son dos de las partículas que componen el átomo.
—Lo sé, lo sé —asintió Dios—. Los protones están en el núcleo junto a los neutrones y los electrones giran alrededor. ¿No es un lindo modelo? Me llevó horas diseñarlo.
—Es lindo —admitió Pauli—, sin duda alguna, aunque para mí hay un error. Hay algo que me perturba. El protón y el electrón tienen la misma carga (positiva en un caso, negativa en el otro). Pero la masa del protón es 1.826 veces la del electrón. ¿Por qué hay una relación tan absurda entre las masas, un número tan desagradable, si la carga, sacando el signo, es la misma? En todos los trabajos sobre el tema encontré errores.
—Ah —dijo Dios sonriendo—. Aquí tiene, explicado en términos rigurosos, con ecuaciones y cálculos, la verdadera razón de la relación entre la masa del protón y la del electrón. —Y le alargó un fajo de papeles.
Pauli se precipitó sobre las hojas, las miró y rápidamente revisó la primera página, la comparó con la cuarta, controló la última y le devolvió el fajo a Dios.
—Aquí también hay errores —suspiró.

Capítulo 38
En busca del origen

Vamos a abandonar por un rato los protones, neutrones, quarks, neutrinos y el núcleo del átomo, para centrarnos en un tema del que quería hablarles antes de que esta historia termine: la exploración del pasado humano y las investigaciones alrededor del origen del hombre, que obviamente están conectadas entre sí.
El siglo XIX rompió de una vez por todas con la cronología bíblica que remontaba la edad de la Tierra al 4004 antes de nuestra era, lo cual ya no daba para mucho en un siglo (el XIX) que se creía con la suficiente potencia intelectual como para rebasar todos los límites: ya vimos cómo los astrónomos expandían el universo conocido; los geólogos, los horizontes de nuestro planeta; el darwinismo, los confines de la biología; los físicos y los químicos, el corazón de la materia. El cocktail era explosivo y no podía sino, más temprano que tarde, estallar (aunque, créase o no, la cronología bíblica subsistió para muchos hasta avanzado el siglo XX).
El descubrimiento del pasado deparó muchas sorpresas: por un lado, hizo retroceder la historia conocida, englobando a los tiempos míticos; por el otro desenterró (literalmente) todo un inmenso período de la experiencia humana —que ocupa nada menos que el 99 por ciento de su historia— y, en última instancia, fue mucho más allá, rastreando los orígenes biológicos de nuestra especie.
Desde que la burguesía irrumpió, allá por el Renacimiento, iniciando el proceso que hoy llamamos globalización —y que no es otra cosa que la unificación del mundo, por la fuerza o la persuasión, bajo la cultura y la tecnología occidentales— los ojos habían estado puestos en el futuro.
Sin embargo, una serie de acontecimientos y descubrimientos obligó, en el siglo XIX y luego en el XX, a volver esos mismos ojos al pasado, donde se escondían riquezas enormes que nos permitirían comprender mejor quiénes somos y de dónde venimos. Curiosamente, empezó a abrirse paso la idea de que nuestro futuro estaba atado al pasado, que lo que seríamos tenía que ver con lo que fuimos, que somos criaturas no sólo culturales sino biológicas, y que todos esos aspectos están relacionados. Muchas disciplinas convergerían en la empresa. El pasado era una de las piezas faltantes del rompecabezas. Pieza que la arqueología, una ciencia de la que poco y nada hemos hablado hasta ahora, se encargaría de proveer.

§. La arqueología y el azar
Cuando Howard Carter (1874-1939) inició sus excavaciones en Egipto sabía perfectamente lo que estaba buscando: la tumba de Tutankamón, un insignificante faraón egipcio que sucedió a la revuelta contra el gran Amenofis IV y su visionaria revolución religiosa monoteísta del año 1347 a. de C (que se tradujo también en un movimiento pictórico naturalista).
Pero no siempre es así, y de hecho podría decirse que la arqueología le debe mucho (mucho más de lo que quisiera, seguro) a la casualidad. Mary Leakey, una conocida arqueóloga inglesa casada con un arqueólogo y madre de otro, dijo una vez: «En esta ciencia, uno nunca sabe qué es lo que va a buscar ni lo que va a encontrar». Así es la historia: el primer «arqueólogo», un campesino italiano que en 1709 se puso a cavar un pozo en su granja del sur de Italia, sabía perfectamente lo que estaba buscando (agua), pero en su lugar encontró algo que hubiera llamado la atención de cualquiera: una ciudad.
En realidad, estoy exagerando un poco. Lo que encontró fueron fragmentos de una escultura de mármol, pero un príncipe italiano —Italia no era un país por aquel entonces, sino un amontonamiento de regiones— oyó hablar del hallazgo, compró la zona y contrató trabajadores para que ensancharan el pozo vertical ya cavado y luego iniciaran un túnel horizontal. A medida que avanzaban, encontraron diversas esculturas representando mujeres: el túnel había ido a desembocar, de purísima casualidad, directamente en el teatro de la ciudad de Herculano, sepultada más de 1.600 años atrás, junto con Pompeya, por una erupción del Vesubio.
Las noticias sobre las ciudades enterradas se difundieron rápidamente, al punto que el rey italiano Carlo III mandó llamar a un ingeniero español para que excavara y extrajera cada uno de los tesoros con el un tanto egomaníaco objeto de integrar su museo privado. Apenas es necesario decir que el resultado fue un desastre para las ruinas, igual que lo fueron las excavaciones llevadas a cabo casi un siglo más tarde por los franceses durante las guerras napoleónicas que asolaron Italia. Frescos y estatuas fueron sacados de sus sitios, y se dejaron al aire edificios que, lentamente, empezaron a arruinarse. Recién en 1861 el rey de Italia, Víctor Manuel II, emprendió excavaciones con criterio moderno y conservacionista.
Así y todo, el «método arqueológico» de excavar pozos de agua inaugurado por aquel ignoto campesino italiano siguió dando frutos hasta bien entrado el siglo XX: en 1974, en la república Popular China, un grupo de campesinos cavaba pozos de agua cerca del mausoleo de Qin Shihuangdi (que en el año 221 antes de Cristo se proclamó primer emperador de la China unificada y que, dicho sea de paso, fue el constructor de la Gran Muralla) cuando encontraron varias figuras de terracota de tamaño natural que representaban guerreros. Fue la señal para que los arqueólogos profesionales se lanzaran sobre el asunto, que terminó dando sus jugosos frutos: se encontraron seis mil estatuas de soldados (en tamaño natural), seis carrozas, y mil cuatrocientas estatuas de jinetes, todo ello en terracota. Más tarde aparecieron setenta y tres figuras de soldados-guardianes de los comandantes de las carrozas. Cada uno de estos soldados tenía un rostro distinto (lo cual sugiere que fueron modelados sobre personas reales) y con rasgos correspondientes a las diferentes nacionalidades que poblaban el Celeste Imperio, sugiriendo la variedad de elementos que conformaban el ejército imperial.
En realidad no sólo los pozos de agua dieron una mano a la arqueología: cuatro años después del múltiple descubrimiento en China, en México D. F., unos obreros que trataban de abrir un pasadizo para tender cables de electricidad encontraron un enorme disco de piedra con figuras grabadas, y reconocieron en ellas imágenes de la diosa azteca de la Luna. En un santiamén llegaron los arqueólogos (siempre atentos a estos llamados de emergencia) y el tendido eléctrico quedó olvidado. Justificadamente, por cierto: durante cuatro siglos, Tenochtitlán, la ciudad capital del imperio azteca, había estado enterrada debajo de la ciudad de México y ahora aparecían, gracias al capricho del azar, las ruinas del templo de Huitzilopochtli (dios azteca de la guerra).

§. El descubrimiento de Troya
Los desentierros de Pompeya, de Herculano, de Tenochtitlán, fueron empresas que indagaron en los tiempos históricos, ya bastante bien conocidos por la literatura de la época. El siguiente paso en la búsqueda del pasado consistió en ir en pos de los tiempos míticos.
Vale, para ello, una aclaración. La arqueología es hoy una ciencia perfectamente reglamentada y las expediciones que cada tanto desentierran los restos de una cultura pasada, que andan tras las huellas de poblaciones de la Edad de Piedra, o que intentan reconstruir el tipo de agricultura practicada por determinados pueblos, están sujetas a una rigurosa disciplina. El terreno que se explora es medido al milímetro, la tierra se tamiza, y los arqueólogos actúan como si sus ojos fueran lupas capaces de captar hasta el más mínimo detalle.
Sin embargo, no fue ése el método que adoptó Heinrich Schliemann (1822-1890), quien practicó una arqueología que si bien fue ingenua, brutal y destructiva, abrió nuevos horizontes para la investigación. Schliemann fue un arqueólogo aficionado en una época en que no abundaban —o mejor dicho casi no existían— los arqueólogos profesionales y la historia de su vida tiene aires de aventura. Fue un perfecto modelo del self-made man: hijo de un padre pobre y borracho, incapaz de darle educación, consiguió entrar como aprendiz de empleado de comercio con un sueldo de pocas monedas y por las noches estudiaba lenguas. A los veinte años dominaba siete idiomas, a los veinticinco ya era un avezado comerciante, a los treinta era rico, a los cuarenta y cinco era millonario y decidió poner en práctica el proyecto que lo había perseguido siempre: encontrar las ruinas de la ciudad de Troya, escenario de la Ilíada y punto de partida de la Odisea.
Aunque algunos osados habían explorado las costas de Turquía en busca de las ruinas de la ciudad perdida, la posición oficial de la época consideraba los relatos homéricos como leyendas sin valor histórico comprobable. En efecto, no había ningún indicio concreto que permitiera deducir que la ciudad de Troya había existido alguna vez, o que la guerra de Troya hubiera tenido lugar. En la Antigüedad, por el contrario, se tomaba a los poemas homéricos como historia pura: los romanos llegaron a fundar incluso una ciudad, «Nueva Ilión», cerca de la colina de Hissarlik —actual Turquía— , supuesto emplazamiento de la supuesta ciudad. No era un gesto menor, dado que los romanos se consideraban descendientes de Eneas, ese príncipe troyano que logró huir de la ciudad en llamas, como cuenta Virgilio en el Canto II de la Eneida.
Contra toda evidencia, y con la fe de los fanáticos, Schliemann creía en la verdad literal de los poemas de Homero, e Ilíada en mano recorrió todos los sitios «probables», hasta decidirse por la tradicional colina de Hissarlik.
En 1870 inició la excavación: fue el primer intento arqueológico de tal envergadura (tanto por sus objetivos como por su magnitud). Al cabo de tres temporadas, y tras extraer cientos de miles de metros cúbicos de tierra, mostró al mundo asombrado que dentro de la dichosa colina se escondían no una sino siete ciudades superpuestas, cada una de ellas construida sobre las ruinas de la otra. Parece ser que eran épocas en que la completa destrucción de ciudades era un deporte mucho más asiduamente practicado que hoy en día (aunque no fue completamente abandonado, por cierto y por desgracia).
En uno de los estratos, Schliemann encontró una sustancial acumulación de objetos de oro y en 1873, sin vacilar, proclamó que había descubierto el «Tesoro de Príamo» (rey de Troya en la Ilíada y padre del héroe troyano Héctor, a quien mata Aquiles) y decidió que los restos de la tercera ciudad, contando desde la más antigua, correspondían a la Troya de Homero. En realidad, se equivocó: la ciudad homérica corresponde, según se cree hoy, al sexto estrato, contando desde abajo. La ciudad que Schliemann confundió con Troya debió ser por lo menos mil años más antigua.
Los descubrimientos de Schliemann en Hissarlik, junto a los que posteriormente llevó a cabo en Micenas, transformaron la imagen que los historiadores tenían de la evolución histórica de Grecia. Se solía fijar el punto de partida de la cronología en la Primera Olimpíada, en el año 776 antes de Cristo, aproximadamente. A partir de Schliemann, la historia griega retrocedió dos mil años de un solo saque.
Así, los hallazgos de un arqueólogo aficionado proporcionaron a la ciencia naciente un poderoso impulso, que rebotó en descubrimientos también espectaculares: en 1900, Sir Arthur Evans desenterró el palacio de Cnossos, en Creta, sede de una cultura (minoica) que dominó el mar Egeo mil quinientos años antes de la Era Clásica. En 1922, Carter, a quien ya nos hemos referido, encontró en Egipto la tumba intacta del faraón Tutankamón. Pero ninguna de estas hazañas puede, probablemente, compararse a la que realizó Schliemann, al rescatar aquella ciudad que inspiró la Ilíada y la Odisea, los dos pilares de la literatura y la cultura europeas.
La epopeya de Schliemann tuvo la particularidad de ser seguida por la prensa mundial, que mediante el telégrafo informaba día a día los descubrimientos y los fracasos. Pero los periodistas, siempre ansiosos, no están hechos para los tiempos de la arqueología: cuando en Tirinto, península del Peloponeso, las excavaciones avanzaban a paso de arqueólogo (lenta y cuidadosamente), el corresponsal del New York Times anunció que a Heinrich se le había acabado la suerte. Suerte que, en realidad, recién había comenzado: pocos días después se produjo el más espectacular de sus hallazgos, los restos de un palacio que rivalizaba con los hallados en Troya o Micenas. Así pues, Schliemann desenterró la edad mítica y la incluyó en la epopeya humana.
Y mientras la prensa transmitía los vistosos descubrimientos de Schliemann, había otro proceso, algo más silencioso, en marcha: el descubrimiento de la prehistoria.

§. El descubrimiento de la prehistoria
Junto con las plantas, animales y minerales que los pioneros, exploradores y naturalistas traían a Europa a partir del siglo XVI, llegaban también objetos producidos por la mano del hombre que iban a parar directamente a las «vitrinas de curiosidades», convirtiéndose en piezas de mobiliario habituales en los hogares de los ricos y los poderosos a partir del Renacimiento. Así nacieron las grandes colecciones de palacios y monasterios: las de los Uffizi y Pitti de Florencia, el Louvre de París, El Escorial cerca de Madrid y otras en las capitales ducales como Dresde.
Pero en el siglo XVIII apareció en Europa otro tipo de colección: el museo público, que exigía nuevas maneras de clasificar. Hasta entonces, la atención estaba concentrada en los objetos considerados bellos, como antiguos cetros y estatuillas de oro o algún instrumento científico raro. No serían esos objetos sino los más comunes y prosaicos los que abrirían los ojos a la prehistoria, aquel período previo a la escritura que, como ahora sabemos, representa el 99 por ciento de la historia humana.
Por una serie de circunstancias, el papel crucial lo jugó no un científico sino un hombre de negocios danés, Christian Jürgensen Thomsen (1788-1865). Había sido educado en el mundo de los negocios, pero casualmente conoció a la familia de un coleccionista que había estado destinado en París durante la Revolución Francesa y había llevado de vuelta a su país varias colecciones compradas a la —con muchísima razón— asustada nobleza. Esas piezas, junto a otras que fue agregando, fueron el punto de partida de una importante colección de todo tipo de objetos que de una manera u otra había que clasificar para exhibir en un museo público.
Thomsen puso manos a la obra sin nada que le sirviera de guía y ordenó los objetos guiándose por el sentido común y agrupándolos según el material del que estaban hechos. Luego los subdividió según su uso, ya fuera como armas, herramientas, recipientes para alimentos, u objetos religiosos.
Cuando abrió el museo al público, en 1819, los visitantes vieron los objetos repartidos en tres vitrinas. La primera contenía objetos de piedra; la segunda, de bronce y la tercera, de hierro. Este ejercicio de clasificación y ordenamiento llevó a Thomsen a sospechar que los objetos hechos con los mismos materiales podían ser restos de la misma era. Su perspectiva de aficionado decía que los objetos de piedra podían ser más antiguos que los de bronce, y que éstos a su vez debían ser más antiguos que los de hierro.
Thomsen no tenía la suficiente formación académica. Así y todo, dio a luz finalmente un libro Ledetraad til nordisk Oldkyndighed (Guía de las antigüedades escandinavas) en el que difundió por toda Europa su división entre edades (de piedra, de bronce, de hierro). La adaptación del esquema de las tres edades a todo el pasado humano de Europa no fue tarea fácil, pero fue el primer intento serio de ordenar la prehistoria, además de que orientó a los arqueólogos en la busca ya no de grandes palacios sino de objetos insignificantes y cotidianos, para lo cual era necesario revolver, como ellos mismos decían, «en los montones de basura del pasado». Así, se descubrió que la prehistoria visible sólo era la punta de un iceberg gigantesco que, más tarde, habría de dividirse en subperíodos. Y todo arrancó de aquellas tres vitrinas.

§. El hombre de Neandertal
El descubrimiento de la prehistoria pronto se vería eclipsado por nuevos hallazgos que harían retroceder la experiencia humana mucho más atrás.
Durante el verano de 1856, una cuadrilla de obreros estaba trabajando en una cantera, a orillas del río Dussel, en un lugar donde el río atraviesa un valle angosto (el valle del Neander, o Neandertal— de tal valle—, que tiene la rara particularidad de ser la traducción griega del nombre Neumann —hombre nuevo—). A unos veinte metros de altura sobre el río había unas pequeñas cuevas; los obreros volaron una y, al excavar los restos, encontraron unos huesos que tiraron entre los escombros.

059.jpg
El Hombre de Neandertal. Esqueleto y reconstrucción

El dueño de la cantera pensó que debía tratarse de los restos de un oso y entregó los pocos huesos recuperados a un profesor de ciencias naturales de la localidad, quien comprendió enseguida que se trataba de los restos de un hombre arcaico jamás visto. Probablemente se tratara de un sobreviviente del Diluvio Universal, pensó el hombre (¡en 1856!), y se los llevó al gran anatomista Hermann Schaafhausen, de la Universidad de Bonn, que también confirmó que se trataba sin duda de los restos de un hombre arcaico. La opinión fue muy controvertida, puesto que hubo quienes atribuyeron las diferencias en el esqueleto a deformaciones debidas al raquitismo, golpes y artrosis, y no faltó quien dijera, basándose en quién sabe qué evidencias, que se trataba de un cosaco que, herido en una batalla contra Napoleón, se había arrastrado hasta la cueva: las piernas arqueadas daban cuenta de toda una vida pasada a caballo. Nada menos que Rudolf Virchow, que había fundado la «república celular» (¿se acuerdan?) dijo que se trataba de un idiota patológico, que debía haber recibido muchos golpes a lo largo de su vida.
En realidad, para ese entonces ya había habido un par de hallazgos por el estilo (uno en Lieja en 1829, otro en 1848 en Gibraltar) pero no se les había prestado demasiada atención. Ahora, con toda la atención que se merecía, hacía su entrada triunfal el hombre de Neandertal, especie que habitó el mundo hasta hace unos 28 mil años atrás y que, incluso, convivió y hasta tuvo descendencia con individuos de la especie Homo sapiens. Los neandertales despertaron la curiosidad de todos los estudiosos del pasado humano, porque durante mucho tiempo fueron la única otra especie humana que se conocía, pero a pesar de que se descubrirían otras especies humanas fósiles, los neandertales siguen siendo los más estudiados, y los que más controversias generan.
Sólo faltaban tres años para que Darwin publicara El origen de las especies, que ordenaría conocimientos hasta entonces dispersos y colocaría la historia del hombre en conexión con el resto de la biología, permitiendo explicar hallazgos tan sorprendentes.

§. El origen de las especies y el origen del hombre
Si bien ya había habido algunos antecedentes (el enciclopedista romano Caius Plinius Secundus había llamado a los grandes monos de África «hombres con cara de animal»; Linneo había reunido a los hombres y a los simios en un mismo grupo taxonómico, y Lamarck había insinuado la idea de un parentesco entre ambos), con la obra de Darwin los alcances del problema cambiaron fundamentalmente. El nexo del hombre con el resto del reino animal ya no era forzado sino que resultaba perfectamente lógico, puesto que se lo entendía como la consecuencia de un proceso y principio general: la evolución por selección natural. Con una osadía abrumadora, la obra de Darwin hizo ingresar al hombre en el mundo zoológico, al sugerir que no había nada que indicara que no estaba sujeto a las leyes de la evolución.
Darwin, no obstante, fue prudente y esquivó como pudo un tema tan sensible, diciendo apenas que su teoría «arrojaría un día luz sobre el origen y la historia del hombre». Y punto. Pero otros investigadores (como Charles Lyell —el gran geólogo, partidario del uniformitarianismo, que había ayudado a plantear el escenario para que Darwin desplegara su teoría— y Thomas Huxley —uno de los grandes defensores públicos de la teoría de la evolución, al punto que se lo llamaba «el bulldog de Darwin»—) fueron más allá.
Lyell reunió pacientemente pruebas en favor de la elevada edad del género humano, comprobada por los hallazgos del francés Jacques Boucher de Perthes, uno de los primeros arqueólogos modernos, que había encontrado pedernales y otros instrumentos del hombre prehistórico en sedimentos pliocénicos (de unos 3 millones de años de antigüedad).
Y si recuerdan, fue justamente Huxley quien tuvo el famoso debate con el obispo Willberforce, quien le preguntó si descendía del mono por parte de padre o de madre, a lo cual contestó que prefería descender del mono por parte de ambos antes de tener el cerebro atrofiado de su interlocutor. Su obra más importante, Evidence of Man’s Place in Nature (1863), fue una verdadera trinchera en la historia del darwinismo. En ella, mediante cuidadosos razonamientos basados en la anatomía y la embriología, Huxley defendía la teoría de la evolución aunque reconocía, en contra de quien la había postulado, la posibilidad de que en el desarrollo de la vida se hubieran producido variaciones repentinas. La verdad es que las pruebas estaban al alcance de cualquiera, y eso era lo que Huxley quería mostrar: en su estructura, los esqueletos del hombre y el gorila resultaban extraordinariamente similares; al mismo tiempo, los cerebros de los simios más desarrollados tenían menos diferencias con los cerebros humanos que las que podían presentar con un mono inferior (un lemúrido, por ejemplo). Y por si fuera poco, ahí estaba el famoso cráneo del «hombre de Neandertal», que reforzaba la convicción acerca del estrecho parentesco de nuestra especie con la de los primates.
Frente a este panorama, Darwin se vio en la obligación moral de decir algo al respecto. En 1871, de hecho, publicó un grueso volumen (The Descent of Man and Selection in relation to sex) en el que encaraba el problema de una manera (¿cómo decirlo?) más políticamente correcta, al menos, para los estándares de lo políticamente correcto en la sociedad victoriana: insistía menos en el parentesco con los monos e intentaba posicionar a la especie humana dentro de la clase, más general, de los mamíferos. Utilizando la extraordinaria herramienta de la anatomía comparada, la misma de la que se había valido Huxley, Darwin señalaba el insoslayable paralelismo entre el cuerpo del hombre y el del resto de los mamíferos: para cada órgano humano había un órgano equivalente en la estructura de estos últimos. Y las evidencias no se agotaban en la anatomía, como quedaba claro por el hecho de que el resto de los mamíferos y el hombre se mostraban vulnerables a enfermedades y parásitos en común.
Así y todo, no era fácil aceptar que el hombre formara parte de una cadena tan prosaica y terrenal. ¿No era evidente, acaso, que las cualidades morales e intelectuales eran absolutamente privativas de nuestra especie? ¿Se podía aceptar la existencia, en los animales, de algo parecido a la abstracción, la imaginación, la generalización? ¿Eran capaces de percibir la belleza? Darwin postulaba que, contra lo que el sentido común indicaba, todas estas facultades no eran específicamente humanas sino que aparecían, en forma rudimentaria, en algunos animales, para lo cual se valía de ejemplos que él mismo había vivido y que más o menos cualquiera podía identificar: la fidelidad de los perros, el uso de herramientas por parte de los simios, la obediencia de los elefantes, la ayuda que ciertas aves le prestaban a sus compañeras incapaces de valerse por sí mismas. La conclusión estaba al alcance de la vista: el ser humano —producto, como todos, de la selección natural— tenía diferencias marcadas con los animales, pero estas diferencias eran tan sólo de grado y no de esencia.
Si el hombre no hubiese sido su propio clasificador, no se le habría ocurrido crear para sí mismo un reino especial,
aseguraba.
El hombre, que por los siglos de los siglos había sido considerado el punto culminante de la creación, el eslabón infaltable y definitivo de la Gran Cadena del Ser, pasaba a ser uno más en la impersonal cadena evolutiva, gobernada por la también impersonal selección natural. Una vez derribado de su pedestal, era necesario trazar una genealogía del hombre. Y Darwin lo intentó, admitiendo que el antepasado de los humanos pertenecía al grupo de los antropoides. En este sentido, escribió:
Debemos reconocer, a lo que creo, que el ser humano, con sus nobles cualidades, con la consideración que siente por lo más desdichado, con la benevolencia que demuestra no sólo para sus semejantes y simpatía para con los seres vivientes más humildes, con su divina inteligencia que le permitió descubrir los movimientos y la constitución del sistema solar, debemos reconocer que con todas estas sublimes facultades el hombre lleva en su estructura somática el sello indeleble de su humilde origen.

§. Y mientras tanto…
Los hallazgos fósiles se multiplicaron: en 1891 Eugène Dubois encontró al hombre de Java (Homo erectus, de casi 2 millones de años de antigüedad) y, entre 1921 y 1937, al hombre de Pekín (de entre 500 mil y 200 mil años de antigüedad). Poco a poco, la idea de que el hombre era mucho más ancestral de lo que se creía, iba acumulando evidencias y la paleoantropología empezaba a constituirse en una ciencia independiente. Por si fuera poco, en gran Bretaña apareció un esqueleto, anterior al de Java y al de Neandertal, que enardeció a los paleoantropólogos británicos y pareció aportar evidencias incontrastables.
La historia fue la siguiente: en 1912, un abogado y arqueólogo aficionado llamado Charles Dawson se presentó ante Arthur Smith Woodward, director del Departamento de Geología del Museo Británico, y le mostró fragmentos fósiles de un cráneo desenterrado en una cantera de arcilla en Piltdown, Sussex (Inglaterra). Los huesos, desgastados y coloreados, parecían proceder de arcillas muy antiguas, aunque la forma del cráneo era bastante moderna.
Muy excitado, Smith Woodward acompañó a Dawson a Piltdown y allí, junto al padre Teilhard de Chardin (que había ido a Inglaterra para estudiar en el colegio jesuita de Hastings), se puso a revolver los escombros: tanto buscar tuvo su recompensa y un buen día apareció una mandíbula inferior. Estaba también coloreada. Pero así como el cráneo de Piltdown era sorprendentemente humano, la mandíbula se parecía demasiado a la de un mono (aunque tenía dos molares desgastados de una manera que nunca aparece en los monos y sí en los humanos). Lamentablemente, faltaban las partes que podían establecer sin ningún tipo de dudas la pertenencia o no al cráneo.
El cráneo muy humano y la mandíbula muy simiesca formaban una extraña conjunción. En 1912, Smith Woodward y Dawson expusieron públicamente sus hallazgos ante la Sociedad Geológica de Londres. No todo el mundo les creyó, pero la opinión general les fue favorable. Y si algo faltaba para convencer a los incrédulos, se produjo otra serie de descubrimientos: en 1913 el padre Teilhard encontró un diente canino que, otra vez, aunque de apariencia simiesca, estaba desgastado muy humanamente. Y para aventar cualquier duda, en 1915 Dawson mostró una mezcla semejante de cráneo humano y mandíbula de mono hallada en una excavación cercana a Piltdown. Así fue como el Hombre de Piltdown adquirió carta de ciudadanía, se le asignó un nombre científico que honraba a su descubridor (Eoanthropus dawsoni), se le atribuyó una antigüedad de 800 mil años, y se llegó a considerar, con sorpresa, que el Homo sapiens descendía de él.
Sin embargo, una buena cantidad de antropólogos mantuvo sus dudas: los años, mientras tanto, pasaron, y con el paso de los años las técnicas de datación mejoraron. Hasta que en 1953 se sometieron los restos a una prueba crucial. Los huesos que permanecen enterrados mucho tiempo gradualmente acumulan flúor. W. E. Le Gros y J. E. Weiner, de Oxford, examinaron los fósiles de Piltdown y descubrieron que no contenían suficiente flúor: el cráneo —se reveló finalmente— era realmente un fósil, pero de apenas 50 mil años, como se encuentran a carradas en muchas partes. La mandíbula, en cambio, era lisa y llanamente de orangután. Cráneo y mandíbula habían sido enterrados en el siglo XX. En suma, era una perfecta farsa científica.
Ulteriores exámenes mostraron que los huesos habían sido teñidos recientemente, y que los dientes habían sido limados con cuidado para darles aspecto humano. Todo había sido meticulosamente preparado para engañar a la comunidad científica, cosa que se logró acabadamente.
¿Pero quién lo había hecho? ¿Dawson (el más sospechoso), para acceder a la fama? ¿Smith Woodward (que parecía insospechable)? ¿Teilhard de Chardin, que gastó una broma de estudiante? ¿Los tres, de común acuerdo? El armado de los huesos exigía una mano profesional: ¿hubo un «cuarto hombre» en complicidad con los tres o sin ella? Los paleontólogos aficionados a las historias policiales barajaron acusaciones, pero la verdad de la milanesa es que el autor del fraude de Piltdown quedó en el misterio, a pesar de la abundancia de sospechosos.

§. El cuarto hombre: posdata a Piltdown
El 23 de mayo de 1996, la revista Nature relataba la solución del misterio de Piltdown. Resultó que en 1978 apareció un baúl que había permanecido cincuenta años guardado en los desvanes del Museo de Historia Natural de Londres. Su contenido fue cuidadosamente catalogado por Andrew Currant, del Departamento de Paleontología del museo; y hete aquí que el baúl contenía trozos de huesos y dientes tallados y teñidos exactamente igual que la colección de Piltdown. No era necesario ser Sherlock Holmes para sospechar del dueño del baúl. Tampoco era necesario ser Sherlock Holmes para deducir que las iniciales que figuraban en el baúl eran las de su dueño, Martin Hinton, conservador de zoología del Museo entre 1912 y 1945. Lo extraño del asunto es que el baúl, después, se extravió. Y también que recién en 1990 Currant habló del asunto con Brian Gardiner del Kings College londinense, paleontólogo interesado desde hacía años en el caso Piltdown.
Martin Hinton era un experto en geología de la era glacial y reunía perfectamente las características necesarias para cometer el fraude. Las pruebas eran cantadas: los huesos contenidos en el baúl de Hinton contenían hierro y manganeso en las mismas proporciones que se habían usado para «tratar» los huesos de Piltdown. Y además había rastros de cromo, que bajo la forma de ácido crómico se había usado para desgastar la superficie del hueso. Incluso había un móvil: Hinton mantenía una desavenencia con el director del museo. Todas las piezas encajaban y así, finalmente, resultó que no había sido Dawson, ni Woodward, ni Teilhard de Chardin, ni los tres de común acuerdo.
Y, sin embargo, no todos los «especialistas» en el caso Piltdown comparten esta certeza de la culpabilidad de Hinton: hay quienes sugieren que, por lo menos, hubo complicidad de Dawson, o que tal vez Dawson falsificó y Hinton lo descubrió y no dijo nada. Quienes así opinan y quieren alargar el caso Piltdown saben perfectamente que las soluciones rara vez están a la altura de los misterios.

§. Las huellas de Laetoli
No quiero cansarlos con la enorme lista de descubrimientos que llevó a construir la todavía incompleta genealogía del hombre, que se complejiza más a medida que se van desenterrando piezas que completan el registro fósil. Pero sí quisiera hablarles de uno de los hallazgos más impresionantes de esta historia: el de las huellas de Laetoli.
En el verano de 1978, en Laetoli, una localidad en el sur de Tanzania, un grupo de investigadores encontró una serie de huellas dejadas sobre las cenizas volcánicas hace más de tres millones y medio de años, por dos o quizás tres homínidos.

060.jpg
Huellas de Laetoli

Las huellas se habían conservado gracias al trabajo silencioso y permanente de la casualidad: aquellos homínidos caminaban sobre un manto de cenizas —procedentes de la erupción de un volcán, el Sadimán, un poco más al Este— que se había impregnado de agua de lluvia durante un día, al final de la estación seca. Si hubiera habido hierba alta, las cenizas no hubieran podido posarse de manera tan uniforme; la hierba había sido comida, de hecho, por diversos animales (cuyas huellas también se encontraron).
Pero… ¿Quiénes eran estos dos o tres individuos? Las dos filas de pasos muestran claramente huellas distintas: más grandes y más pesadas las de la derecha, más pequeñas y ligeras las de la izquierda, lo cual permite pensar que las primeras pertenecían a un macho y las segundas a una hembra. El rastro se extiende a lo largo de unos cincuenta metros, y son dos filas paralelas distanciadas sólo veinticinco centímetros.
Las huellas podrían indicar o bien que iban muy pegados (de la mano, prácticamente) o bien que los homínidos pasaron por allí en momentos distintos: de hecho, la primera fila (la de la derecha) está bordeada de salpicaduras, como si hubiera sido dejada sobre un terreno más fangoso, mientras que la segunda (la de la izquierda) aparece más definida, como si hubiera sido hecha sobre un terreno un poco más endurecido.
Pero además, como ya lo dije, hay quien ve una tercera fila de pasos, contenida exactamente en el interior de la primera, como si alguien hubiera vuelto a pasar por las huellas de quien lo precedía. Se ha hecho otra interesante observación acerca de las huellas de la izquierda: se tiene la impresión, al observarlas, de que el homínido se hubiera detenido en un momento dado y girado hacia la izquierda.
La longitud del paso era de unos 38 centímetros, y la altura de estos homínidos ha sido calculada entre 120 y 140 centímetros (ligeramente inferior a la de los pigmeos actuales). Lo más impresionante es que, gracias a la «fotogrametría» (que consiste en cartografiar los distintos niveles, como se hace para los mapas geográficos que describen las distintas cotas de una montaña o de un valle), se pudo confirmar que el modo de caminar de los hombres de Laetoli era absolutamente semejante al nuestro: con los mismos puntos de apoyo (el talón y la cabeza del primer metatarso), con el arco de la planta elevado y el pulgar alineado, no oponible.
En suma, se trataba de una huella ya de tipo humano, a pesar de que ciertamente existían diferencias en la estructura ósea. Lo cual significaba ni más ni menos que hace 3,7 millones de años la posición erecta estaba ya perfectamente adquirida.
¿Pero quiénes eran estos homínidos?

§. Lucy en el África con diamantes
Cuando el escritor norteamericano Alexander Haley emprendió la búsqueda más tarde reflejada en la serie televisiva y el libro Raíces de sus orígenes africanos, apuntaba en la dirección correcta, y en más de un sentido, puesto que, según indica cada vez con mayor firmeza la investigación moderna, no sólo la familia de Haley sino toda la especie humana desciende de antepasados que corretearon por el este de África.

061.jpg
Lucy

El cómo y el cuándo de la evolución del hombre fue objeto de múltiples controversias y el árbol evolutivo fue corregido muchas veces, pero a medida que las ramas se afinan, las raíces parecen hundirse cada vez más firmemente en el suelo africano.
El gran descubrimiento que apuntaló esta hipótesis se produjo en 1977, cuando un equipo de investigadores dirigido por el estadounidense Donald Johanson exhumó en el desierto de Etiopía un esqueleto del sexo femenino que fue llamado gentilmente «Lucy». Se trataba de una dama homínida (prehumana) de la especie Australopitecus afarensis y de tres a cuatro millones de años de edad; fósiles similares encontrados más tarde mostraron que fueron justamente estos Australopitecus los que dejaron las huellas de Laetoli. La evidencia que surge de técnicas de filiación genéticas ayudó a reconstruir y precisar los pasos con que la línea evolutiva de los primates emprendió el largo camino que la llevaría hasta los ejemplares modernos y lo cierto es que, según se cree, la cuna del hombre está situada en África, en algún lugar entre Etiopía y Tanzania.

062.jpg
El valle del Rift

Relatada por la paleontología actual, la historia fue más o menos así: hace siete u ocho millones de años, se formó el macizo montañoso a lo largo del valle del Rift, una enorme fractura de tres mil kilómetros que barre el África oriental de Norte a Sur, provocando un consiguiente caos y transformación climática: en particular, las selvas del oeste africano se transformaron en sabanas y los grandes simios, aislados a causa de la recién estrenada cadena montañosa, con tenacidad y disciplina darwiniana empezaron a evolucionar adaptándose al nuevo medio ambiente, adoptando costumbres de sabana. Una de ellas fue la postura bípeda, primera característica de los homínidos, muy útil para la supervivencia en tanto permite una mejor vigilancia en el espacio abierto.
En tres o cuatro millones de años habían conseguido alcanzar el estatus de Australopitecus—el pueblo de Lucy—, mientras sus parientes, los grandes simios del otro lado de la cadena del Rift, sin semejantes problemas de adaptación, evolucionaban con modestia hacia los chimpancés y los gorilas actuales.
Todavía faltaba un millón de años para que naciera Lucy, pero ya empezaban a definirse las características de la población a la que perteneció: menos de un metro veinte de altura, andar en dos pies, grandes mandíbulas, cerebro pequeño. A partir de entonces, la película se aceleró. Hace tres millones de años, el pueblo de Lucy divergió en dos líneas: una de ellas se quedó en Australopitecus, una rama sin salida, que vivió y se extinguió en África.
El otro ramal tuvo mejor suerte: en sólo medio millón de años evolucionó hasta dar el Homo habilis, capaz de fabricar grandes cantidades de herramientas de piedra. Un millón de años después, el Homo habilis, que habitó lo que hoy son Etiopía, Kenya, Tanzania y Sudáfrica, dio paso al Homo erectus, que caminaba ya en posición erguida como la nuestra: en 1985 se desenterró el esqueleto de un chico de once años — el «muchacho de Turkana»—, que vivió y murió hace un millón seiscientos mil años. Para esa época, o quizás un poco antes, el Homo erectus ya había tomado la decisión de emigrar. Con su nueva posición erguida, que le permitía ver más y más lejos, quiso visitar y conocer nuevas tierras.
Así, aún nostálgico de sus praderas africanas, estableció campamentos fuera de África: hace un millón de años, ya había poblaciones de Homo erectus en Europa, Asia e Indonesia (se han detectado restos fósiles en Georgia de un millón ochocientos mil años de antigüedad, aunque la datación aún se discute).
Hasta aquí estaba todo más o menos claro. Pero, como siempre ocurre en la historia del pensamiento, pronto surgió un nuevo problema: ¿fueron esos Homo erectus migratorios los que evolucionaron en distintos sitios hasta dar el hombre moderno, o, en realidad, el hombre moderno surgió en un solo lugar y luego se esparció, barriendo a su paso con cuanto homínido u Homo erectus encontró?

§. El Arca de Noé y el Candelabro
Las opiniones en este punto no coinciden. Según la «hipótesis del candelabro» (elaborada por Franz Weidenrech en los cuarenta) el Homo erectus se distribuyó en Eurasia y evolucionó por su cuenta, en distintos lugares y de distintas maneras hasta dar el hombre moderno (precisamente como las ramas de un candelabro). Es muy probable, de hecho, que las distintas poblaciones de Homo erectus evolucionaran en distintas partes y dieran los primeros ejemplares de Homo sapiens —una de estas variedades fue nuestro conocido hombre de Neandertal, que vivía en cavernas y conocía el fuego, y tenía una cultura sofisticada, además de una inteligencia —medida en capacidad craneal— semejante a la nuestra. Los neandertales son nuestros primos más cercanos.

063.jpg
Árbol genealógico de los homínidos

Por el contrario, la hipótesis del «Arca de Noé» supone que el hombre moderno evolucionó a partir de una sola población que luego se propagó. Ésta es la opinión más difundida entre los científicos y hoy se acepta en general que descendemos de una única rama de Homo sapiens que hace doscientos mil años se originó en África y luego emigró al resto de los continentes.
El hombre actual, el Homo sapiens, no desciende del hombre de Neandertal (que se extinguió hace treinta mil años), ni de las diversas variantes de Homo distribuidas por Eurasia. Para buscar sus orígenes, como en el caso del autor de Raíces, hay que regresar al África.
Allí, en algún momento situado entre doscientos y cien mil años atrás, el Homo sapiens sapiens se abrió al fin paso a través de la maraña prehistórica, a partir de una única población de Homo sapiens local, y se preparó para iniciar la conquista del planeta. Hace cuarenta mil años, el hombre africano ponía por primera vez su pie en Europa y colonizaba Asia y Australia; hace doce mil años (aunque la cifra es discutible y hay quienes la remontan a treinta y tres mil) se instalaba en América. Según parece, no fue una conquista con desplazamientos forzosos y exterminios (como suelen ser las conquistas): hoy se acepta que, por el contrario, hubo mucho intercambio entre las distintas poblaciones. El Homo sapiens, como dije en su momento, convivió con los neandertales en Medio Oriente durante miles de años, en los cuales no puede dejar de haber habido intercambios de todo tipo. De hecho, hasta tenemos genes neandertales: de esos intercambios (no sólo con los neandertales sino con las otras especies o subespecies) se formó el pool genético del hombre moderno.
Somos una sola especie que navega hacia el futuro, y cada día nos conecta con toda nuestra historia, que se inició en la noche de los tiempos. No sabemos del todo de dónde venían los homínidos que dejaron las huellas de Laetoli, pero sabemos bien hacia dónde se dirigían: aunque no de manera lineal, hacia hoy.

§. El tiempo, un acompañante escurridizo
La cosmología, la geología y la teoría de la evolución nos han acostumbrado a períodos de tiempo larguísimos: quince a veinte mil millones de años desde el comienzo del universo, cinco mil millones de años desde el nacimiento del Sol, centenares de millones de años para la evolución de las especies o sesenta y cinco millones de años desde que se extinguieron los dinosaurios. Aun una cifra tan modesta como el millón de años que abarca la historia del hombre hace palidecer a cualquier lapso al que estemos acostumbrados en la vida cotidiana, y logra que el debate sobre si la duración de un mandato presidencial debe ser de seis o de cuatro años parezca ridículo. Lo cierto es que esos períodos de tiempo de seis cifras o más muchas veces resultan abstractos y difíciles de palpar intuitivamente. Por eso, es un divertido ejercicio alterar las escalas temporales hasta términos cotidianos y tratar de imaginar con esos límites la evolución de la vida. Así, podemos comprimir los cuatro mil millones de años de historia de la Tierra en el familiar período de trescientos sesenta y cinco días y ver cómo se desarrolla el proceso de evolución de las especies en esa escala, en la que un mes representa trescientos treinta millones de años, un día once millones, y un milenio se reduce a apenas ocho segundos.
Fijemos, pues, la formación de nuestro planeta a la cero hora del primero de enero. Durante la mayor parte del año que hemos adoptado como marco sólo habrá formas esquemáticas de vida, apenas moléculas capaces de duplicarse, aunque en abril ya encontramos bacterias y en junio probablemente organismos unicelulares. Recién a principios de octubre aparecen los organismos multicelulares, y hay que esperar un mes y algunos días más para los primeros vertebrados. El veinte de noviembre ya encontramos peces en los mares primitivos. Alrededor del primero de diciembre se produce un gran salto en la evolución: algunos peces abandonan el mar, y empiezan la colonización de la tierra firme. Aquellos esforzados pioneros, sometidos a las poderosas fuerzas de la selección natural, cambian y se transforman en animales enteramente nuevos, los reptiles, que hacia el diez de diciembre inician su epopeya, dando origen a muchas líneas evolutivas: lagartos y serpientes, tortugas, cocodrilos, dinosaurios y pájaros, y una novedosa línea de productos biológicos que tiene especial interés para nosotros. Hacia el 14 de diciembre, los mamíferos entran en acción. Al principio, poca, ya que por un largo período de veinte días el mundo es de los dinosaurios, que son la forma prevalente hasta que, por causas todavía oscuras, se extinguen para la Navidad: el veinticinco de diciembre los dinosaurios abandonan la escena y los mamíferos heredan la Tierra.
Ahora todo se acelera: los mamíferos crecen y se diversifican. El veintiocho de diciembre aparecen los monos y antropoides. Pero hay que esperar hasta las tres de la tarde del treinta y uno de diciembre (¡el último día del año!) para que el tronco principal de los primates se bifurque por última vez y la rama evolutiva del hombre se perfile con cierta claridad.
A las cinco de esa tarde decisiva, los primeros homínidos alumbran en el horizonte y empiezan sus correrías por el norte de África; a las ocho menos veinte hace su entrada el Homo habilis, capaz de fabricar herramientas de piedra, y dos horas después el Homo erectus. A las once y media de la noche de ese 31 de diciembre, ya tenemos al Homo sapiens, pero sólo a las doce menos cuarto aparece el hombre completamente moderno que, desde el norte de África, empieza a expandirse por el mundo. El resto es historia: a las 11:58 de la noche se pintan las cuevas de Altamira; a las 11:59:23 se construyen las pirámides de Egipto; a las 11:59:40 se funda Roma, a las 11:59:52, Guillermo el Conquistador invade Inglaterra y derrota a Haroldo en la batalla de Hastings; cuando faltan sólo tres segundos y medio para la medianoche, Colón se embarca en el Puerto de Palos.
A las 11:59:59 y cuatro décimas de segundo estalla la Primera Guerra Mundial. A las doce de la noche del 31 de diciembre, Neil Armstrong pone su pie sobre la Luna. Es el 20 de julio de 1969.

Interludio:
Éxodo

Porque un día salimos del África, tanteando,
la piel desconocida del planeta.
Buscábamos el mar, para embarcarnos,
el aire, para volar sobre las nubes,
la tierra para arar, la mies, el fruto,
las máquinas, el fuego. La escritura,
y el cable que transporta las palabras.
Y un día nos despedimos en un sitio.
Aquí o allá fue, en cualquier milenio.
¿Qué se hizo
de aquel amigo, de aquella tribu emparentada,
que tomó hacia el sur en un cruce de caminos,
y de quienes nunca más se supo nada?
¿Qué fue de mis primos que esa tarde
decidieron quedarse en la caverna
cuando todos partimos a otras tierras
con más sol, más hierro, o mejor vino?
¿Qué se hizo de aquel grupo de familias,
que cruzaron el río y no volvieron nunca?
¿Y esa gente,
que fabricó una canoa y se alejó por el mar?
Hoy regresamos al África, poblada
de hermanos que una vez se despidieron
por un siglo, un milenio, y no volvieron.
Anhelante,
cada palabra, cada letra que pelea
por vivir reconstruye aquella aldea,
donde aún late tu nombre
en cada instante.

Capítulo 39
La estructura del universo y la teoría del Big Bang

Nos estamos acercando al final y, como al principio, nos volvemos hacia el cielo y su estructura, que fue el primer lugar adonde los hombres dirigieron su curiosidad ayudados con los toscos elementos que tenían (cuando no a simple vista), y lograron conseguir, aun en esas condiciones, resultados asombrosos. Pero ahora, la Big Science (la ciencia a gran escala) y la explosión de prodigiosos aparatos nos permiten echar una mirada y tratar de comprender la estructura a gran escala del universo, alcanzando horizontes que ni Hiparco, ni Tolomeo, ni el gran Copérnico, ni Tycho, ni Kepler soñaron en sus divagaciones y anhelos más fantasiosos.
Y me parece que para esa excursión a los confines del espacio y el tiempo, nada mejor que empezar por nuestra estrella, el Sol, y su esforzada vida.

I. La estructura del universo

§. El Sol
Arpa soy, salterio soy
donde vive el universo.
Vengo del Sol y al Sol voy.
Soy el amor, soy el verso.
JOSÉ MARTÍ
El sol no puede hacer huelga ni tomar vacaciones y sin embargo sus condiciones de trabajo son penosas: no cobra sueldo aunque produzca con pasmosa eficiencia y sólo le cabe esperar una muerte segura como premio a sus esfuerzos. Por empezar, se ocupa de atraer a los planetas y mantener al sistema solar en funcionamiento. Esta menuda faena gravitatoria es relativamente fácil (al fin y al cabo todos los cuerpos del universo la cumplen) si se la compara con la titánica tarea de brillar. Atraer, el sol atrae de taquito. Brillar, son palabras mayores. Y aunque cueste rendirse a la evidencia, hay que reconocer que el Sol está lejos de pertenecer al sector servicios; muy por el contrario, trabaja en uno de los sectores básicos de la economía estelar: la producción de energía, de la cual, como una especie de aristocracia parásita, nosotros y todos los seres de la Tierra vivimos y nos desarrollamos (cuando nos dejan).
A primera vista, la estructura del Sol no parece gran cosa: no es sino una enorme esfera de gas de 1.400.000 kilómetros de diámetro, compuesta casi exclusivamente por los dos materiales más simples del mundo: hidrógeno (73,5 %) y helio (24,8%). Apenas un 3%, y aun menos, queda para el resto de los elementos, en especial el carbono y el oxígeno.
Pero ese paisaje en apariencia sencillo encubre el desarrollo de un drama. Bajo la acción de su propio peso, que las arrastra hacia el centro, las capas exteriores comprimen a las interiores, y esta compresión de las capas interiores produce en el centro del astro una escalada de presión y temperatura que alcanza valores de pesadilla (los modestos 6.000 grados de la superficie solar remontan hasta veinte millones de grados o más en el núcleo): en semejante ambiente, nadie puede razonablemente pretender que la materia mantenga su compostura. Los núcleos atómicos, de hecho, se aplastan unos contra otros y se desencadenan reacciones nucleares: dos núcleos de hidrógeno se funden para formar uno de helio.
El detalle pintoresco es que la masa final (la del núcleo de helio) es ligeramente inferior a la suma de las masas (de hidrógeno) empleadas para formarla. La masa que falta se evaporó en forma de energía, según la célebre formula einsteiniana (e = mc2).
Cada segundo, el Sol cocina seiscientos treinta millones de toneladas de hidrógeno transformándolas en helio. De esa enorme suma, cada segundo, también, cuatro millones seiscientas mil toneladas desaparecen para proveer la energía solar.
Fusionar hidrógeno para fabricar helio (el mismo proceso que, en pequeño, el hombre ha conseguido reproducir en la bomba de hidrógeno, que es una especie de sol en miniatura) convierte al Sol en un horno nuclear a escala cósmica. Mal que nos pese, ése es el secreto del Sol y ésas son las condiciones de su vida.
Ahora bien… ¿Hasta cuándo puede durar tamaño despilfarro? Porque el hidrógeno es la materia prima que ha sostenido a la estrella desde su nacimiento, hace cinco mil millones de años, pero la provisión de hidrógeno, si bien muy grande, no puede ser eterna.
Y no lo es: dentro de unos cinco mil millones de años llegará el momento fatal en que todo el hidrógeno se habrá consumido en cenizas de helio, y el Sol se quedará sin combustible. Ese día comenzará la muerte de este esforzado integrante del proletariado estelar, al que sólo por desconocimiento de los procesos nucleares se confirió durante siglos el atributo de la inmortalidad y los oropeles de la monarquía. Primero se expandirá (hasta convertirse en una Gigante Roja que se extenderá hasta alcanzar más o menos la órbita de Marte), luego tendrá un breve chispazo de vida, cuando las temperaturas permitan que arda el helio, transformándose en carbono, y, luego, la gravitación retomará su tarea: el Sol se contraerá hasta convertirse en una enana blanca, o quizás en una estrella de neutrones. Pero no veremos al astro rey caer de su trono: la Tierra, como Mercurio y Venus, se habrá evaporado hace mucho. Podría ser peor. La muerte del Sol será lenta y continua; no habrá, según se sabe hasta ahora, ni novas ni supernovas ni malos comportamientos que supongan un brusco Apocalipsis. Sólo un lento, caliente y largo momento final.

§. Muerte y transfiguración de las estrellas
Cuentan que un astrofísico estaba contando estas cosas en una conferencia, y cuando habló de la muerte del Sol una viejita muy viejita que estaba entre el público, empezó a gritar « ¡ay, no!, ¡ay no!». Y se desmayó. Cuando consiguieron reanimarla, el conferencista le aclaró: «Señora, esto ocurrirá dentro de cinco mil millones de años. Cinco mil millones de años, ¿me entiende?».
La viejita suspiró aliviada. «Ah…. Menos mal. Yo había entendido mil millones de años».
El Sol es una máquina —o un motor, como prefieran ustedes—, y el resto de las estrellas son máquinas o motores más o menos parecidos cuyo funcionamiento y evolución dependen de su masa. Como en el Sol, el combustible de fondo es ni más ni menos que la energía gravitatoria, el mero peso, que trata de comprimir el centro y cuyo resultado son millones de grados de temperatura, suficientes para fundir el hidrógeno en helio, proceso que irradia calor y luz suficientes como para contener la presión gravitatoria. Y como el sol, se formaron a partir de grandes nubes de gas y polvo que se contrajeron por efecto de la gravedad.
Si es cierto que la vida de una estrella de cine es una lucha constante contra los periodistas que la acosan y está plagada de escándalos, divorcios y reconciliaciones, la vida de una estrella de verdad es una lucha no menos permanente, esta vez contra la gravitación, que pretende aplastarla contra su centro. Las capas exteriores de una estrella presionan sobre las interiores, que a su vez empujan a las que tienen la desgracia de encontrarse todavía más cerca del centro, y entre todas, tratan de que el astro se derrumbe sobre sí mismo y quede reducido, si esto fuera posible, a un mero punto. Si el destino de una estrella de cine depende de su suerte (y en cierta medida —no mucha— de su talento), el destino de una estrella de verdad depende de su masa, es decir, de la cantidad de materia que contenga. Es ésta la que decidirá si ha de terminar su carrera con una gigantesca explosión o se enfriará pacíficamente hasta ser olvidada, entre otras alternativas no menos interesantes.
Cuando el hidrógeno se acaba y los procesos nucleares ya no pueden sostenerla, la fuerza gravitatoria recupera la iniciativa y mientras las capas más exteriores la abandonan y se expanden, la estrella comienza inexorablemente a contraerse y elevar aún más su temperatura hasta que el helio empieza a fusionarse en elementos más pesados. Aquí es donde entra a jugar la masa, porque es justamente el peso de la estrella sobre su centro el que determina las temperaturas que se podrán alcanzar y lo que ha de ocurrir a continuación. Si la estrella es pequeña (si tiene una masa menor que ocho masas solares —el obvio caso del Sol—), se enfriará pacíficamente hasta convertirse en una enana blanca, una estrella pequeña y olvidable; si se trata de una estrella masiva, los sucesos se precipitan y estallará una supernova.
Al terminarse el hidrógeno, la radiación liberada hacia afuera disminuye y la presión gravitatoria, ni lenta ni perezosa, empieza a predominar, haciendo que el núcleo de la estrella se contraiga. Hasta aquí, sabemos todo: se fusiona el helio, que forma carbono; se fusiona luego el carbono, que da neón, oxígeno y silicio. Pero cada vez la energía liberada es menor y, por lo tanto, es menor la fuerza con la que se contrarresta la presión de la masa estelar. El último acto del drama nuclear empieza cuando se fusiona el silicio para dar núcleos de hierro, lo cual sólo puede ocurrir en estrellas muy masivas (más de diez masas solares). Y ése es ya el final, porque el hierro es muy estable, y ya no puede fundirse a su vez en elementos más pesados. La estrella no puede ir más allá, y las campanas empiezan a doblar por ella.
La fusión del silicio en hierro es muy rápida: en un día ya tenemos un núcleo de hierro perfectamente formado. Pero como en el núcleo de hierro ya no se produce energía como para detener a la enorme masa de la estrella, toda la materia se precipita hacia el centro, comprimiéndolo hasta densidades equiparables a las de un núcleo atómico: en este punto insoportable, la estrella hace un último intento por resistir y por un micro instante el proceso se detiene, produciendo ondas de sonido que viajan a través del material de la estrella, se alcanzan unas a otras y se acumulan a una cierta distancia del centro, que se denomina «punto sónico», mientras el núcleo desarrolla sus últimas defensas: la materia ofrece una fugaz resistencia, cede, se comprime más allá de sus posibilidades, y luego rebota (como un pedazo de goma que uno comprime y luego vuelve a su posición inicial): este ida y vuelta del núcleo ultra comprimido agrega nuevas ondas que se suman al «punto sónico», y, ahora sí, todas ellas se empaquetan en el fenómeno que se conoce como «onda de choque»: una violenta discontinuidad en la presión, que se propaga a través de la estrella hacia afuera, a una velocidad de cincuenta mil kilómetros por segundo, arrancando materia y provocando una pavorosa explosión que la puede hacer brillar como una galaxia entera: una supernova. El noventa por ciento del material que compone la estrella vuela por el espacio, y en el centro queda una pequeña estrella de neutrones contrayéndose o bien un agujero negro.
Todo el proceso, desde el comienzo del colapso, duró alrededor de un milésimo de segundo
Las estrellas de neutrones son un amontonamiento de neutrones —de ahí su nombre—y muy chicas (tienen un radio de unas pocas decenas de kilómetros) pero terriblemente comprimidas y en rapidísima rotación: en esos diez o veinte kilómetros de radio se condensan masas de hasta dos veces la masa solar, de modo que una cucharada de materia neutrónica pesaría miles de millones de kilos. Y estas estrellas tienen campos magnéticos particularmente intensos que generan un chorro de emisión en los polos magnéticos: al rotar la estrella, quedamos bañados periódicamente en ese chorro electromagnético, de la misma manera que un barco recibe periódicamente los impulsos luminosos de un faro que gira. Por eso se los llama púlsares.
Los púlsares, dicho sea de paso, tienen una curiosa historia: desde ya, fueron descubiertos antes que las estrellas de neutrones: en febrero de 1968, y en casi todas partes, la prensa publicó que un grupo de astrónomos había recibido señales de radio procedentes de una civilización extraterrestre; en la Argentina, un periódico tituló en primera página: «NOS LLAMAN».
La verdad de la milanesa era que en la revista inglesa Nature (una de las revistas científicas más prestigiosas del mundo) había salido un artículo donde un grupo de astrónomos de Cambridge informaba haber recibido señales de radio, a intervalos regulares, y con muy alta frecuencia (varias veces por segundo), y que hasta cierto punto habían jugado con la idea de señales inteligentes, pero muy pronto la desecharon.
Aunque el sensacionalismo de la noticia se disipó rápidamente, el misterio de los «púlsares», como se dio en llamarlos, subsistió por un tiempo. La enorme frecuencia de las pulsaciones, que podía alcanzar centenares de pulsos por segundo, indicaba que las fuentes eran objetos muy pequeños, de no más de treinta kilómetros de radio, en algunos casos. ¿Qué podían ser? Unos meses más tarde, dos jóvenes astrónomos, examinando minuciosamente las estrellas en la zona de la Nebulosa del Cangrejo (resto de la supernova observada por los chinos en el año 1054), donde latía un púlsar a razón de treinta veces por segundo, finalmente lograron que el primer púlsar (del puñado conocido hasta entonces, y que sólo se habían manifestado en ondas de radio) se hiciera visible. Era una estrella de neutrones en rapidísima rotación.
No todo es muerte, sin embargo, en una supernova: también hay transfiguración. La materia lanzada al espacio servirá para formar nuevas estrellas. Los átomos de carbono que forman nuestros cuerpos se cocinaron alguna vez en alguna estrella primitiva y fueron reciclados por una supernova. En cierto sentido, las supernovas son una central de distribución de materiales y constituyen, así, una palanca clave de la evolución y la ecología del universo. Somos lo que somos porque alguna vez una supernova arrojó al espacio los átomos que nos constituyen, y, aunque sólo sea por eso, nos deberían resultar simpáticas.

§. Lentes gravitacionales
Con el triunfo de la Teoría General de la Relatividad la imagen del universo cambió: ya estaba abierto el camino hacia el Big Bang y los agujeros negros, y también hacia las lentes gravitacionales.
Una lente óptica no es más que un vidrio capaz de desviar los rayos de luz. Cuando una lupa amplifica un objeto (por ejemplo, una cucaracha), el vidrio, por sus propiedades y su forma, separa los rayos provenientes del dignísimo insecto de tal manera que lo vemos más grande. Una lente gravitacional hace parecidas piruetas luminosas, sólo que a escala cósmica y sin intervención de cucarachas ni vidrios: son objetos estelares los que participan del proceso, y el motivo por el cual la luz cambia de rumbo es la gravitación de algún astro, o conjunto de astros masivos (galaxia, grupo de galaxias) situados entre el objeto a observar y nosotros.

064.jpg
Lente gravitacional

Aunque previstas teóricamente desde los años treinta, las lentes gravitacionales, sin embargo, se hicieron esperar: la primera fue descubierta, y casi por casualidad, el 29 de marzo de 1979, por D. Wars y R. Croswell en Inglaterra y R. Weimar en los Estados Unidos. Estos caballeros estaban tratando de ubicar ópticamente (mediante telescopio) el origen de una emisión electromagnética detectada por los radares (la radiofuente 0957+561). No había más que dos candidatos: dos quásares (objetos muy alejados, puntuales y brillantes), ambos de igual luminosidad y características casi idénticas, separados apenas por 6 segundos de arco. ¿Por cuál decidirse?
Venía casi servida una audaz y salomónica conclusión: ni un quásar ni el otro. En realidad, ambas imágenes correspondían a un mismo quásar. Algún objeto masivo, ubicado entre el quásar emisor y nosotros como un gigantesco vidrio estelar, separaba en dos el rayo puntual emitido por el quásar mostrando al telescopio óptico dos quásares donde había sólo uno, de la misma manera que una piedra colocada apropiadamente separa en dos el hilo de agua que cae por la ladera de una montaña, haciendo creer a un observador que hay dos fuentes de agua en vez de una. Ulteriores observaciones confirmaron la hipótesis: una galaxia elíptica poco brillante era la responsable del fenómeno. Interpuesta en la trayectoria de la luz emitida por el quásar, su enorme poder gravitatorio curvaba el rayo obligándolo a dividirse para contornearla, de tal manera que los investigadores recibían dos rayos distintos y, en consecuencia, veían dos imágenes de un objeto único. Es decir, una verdadera lente.
Después de esta primera aparición, se descubrieron varias lentes gravitacionales más, objetos estelares verdaderamente extraños. Aunque no tanto como los agujeros negros.

§. Agujeros negros
Como vemos, la astronomía contemporánea pobló el pacífico universo de nuestros antepasados con una fauna exótica: frente a las estrellas que explotan y brillan como una galaxia entera, ¿a qué se reducen los fuegos infernales que ardían más allá de la esfera de estrellas fijas? A un inocente pasatiempo. El sereno universo que turbaba a Kant, los sometidos cielos que creyó dominar Laplace, el transparente universo construido por Newton, e incluso el cosmos tranquilo y estacionario que imaginó Einstein, ¿dónde están ahora? La astronomía nos enfrenta a un universo vivaz, en ebullición, signado por el movimiento, la violencia y el cambio.
Sin embargo, ni los quásares, ni las supernovas, ni las lentes gravitatorias, ni el nacimiento y el colapso de las estrellas, ni las galaxias en colisión producen la punzante inquietud que se experimenta ante algunos recientes integrantes del zoológico estelar: los agujeros negros, cuya terrible presencia es uno de los tantos subproductos de la Teoría de la Relatividad General. Según ésta, recordemos, la materia actúa sobre el espacio-tiempo circundante y lo modifica. Un reloj colocado en el Sol marcaría los segundos más lentamente que uno terrestre, y, aquí mismo, el tiempo transcurre más despacio y se envejece más lentamente en una planta baja que en un piso diez, donde el campo gravitatorio terrestre es más débil, aunque este efecto es imperceptible y difícilmente pueda influir en el mercado inmobiliario.
Lo cierto es que imperceptible o no, como una potente tenaza, la materia curva el espacio y el tiempo. Y cuanto más fuerte es el campo gravitatorio, más se curva el espacio-tiempo, hasta que, en presencia de una concentración de materia suficientemente grande —y, por lo tanto, de un campo gravitatorio suficientemente intenso— estos fenómenos se exasperan: el espacio-tiempo se cierra sobre sí mismo, formando un borde u horizonte. Lo que permanece dentro de ese horizonte es un agujero negro. Nada, en adelante, podrá escapar de él, ni siquiera la luz: de ahí, justamente, su nombre. Ningún pulso luminoso saldrá jamás de ellos, pero no porque haya una barrera que impida el paso sino porque el espacio mismo se ha cerrado bajo la poderosa garra de la gravitación. Es como si alguna fuerza torciera una casa y colocara la puerta de adelante en exacta correspondencia con la puerta de atrás. Nadie saldría de la casa aunque recorriera interminablemente los corredores, sencillamente porque no existen caminos de salida.
Se sospecha la existencia de agujeros negros gravitantes en algunos sistemas de estrellas binarias y una teoría corriente sobre los quásares ubica agujeros negros en el centro de las galaxias masivas (la nuestra entre otras). Del mismo modo, la teoría predice que el destino final de muchas estrellas (aunque no del sol) es, una vez que se agote el combustible nuclear y que colapsen bajo la acción de su propio peso, transformarse en agujeros negros y encerrarse para siempre detrás del horizonte que nada atraviesa dos veces.
La verdad es que los agujeros negros están cerca del límite, constituyen una de las últimas barreras de la física, la cosmología, y, quizás, de la naturaleza misma. Algunas teorías suponen que en el centro de ellos existen singularidades donde el espacio y el tiempo, sencilla y fríamente, terminan. Para graficar esa terrible sensación, sólo se me ocurre inventar una balada medieval escocesa que cuenta las desventuras del Tañe de Candor, después de su derrota ante el Tañe de Mowberry, en las alturas de Hingford Hills:
y lanzando destellos de furor y miedo
huyó perseguido por la implacable jauría
hasta hundirse en el centro de la ciénaga
donde un inmenso agujero negro
lo arrastró hasta el fondo mismo
de los infiernos.
Pero de los infiernos se vuelve: Dante, al menos, lo hizo. De los agujeros negros, no.

§. Galaxias a escala cósmica
Durante la mayor parte de la historia de la humanidad se pensó que la Tierra era única. Cuando Copérnico la desalojó del centro de mundo y colocó al Sol en su lugar, a pesar de todo lo que esto significó, el paisaje a gran escala del universo no se alteró demasiado: el sistema solar copernicano constituía un cosmos (relativamente) pequeño, que terminaba en la esfera de las estrellas fijas, que se imaginaban más o menos como piedrecitas adheridas a ella. Pero el Sol gozó poco tiempo del privilegio de la unicidad: inmediatamente se comprendió que las estrellas también son soles, o mejor, que el Sol es una estrella entre tantas otras estrellas.
Sin embargo, la observación a simple vista del cielo nocturno muestra que las estrellas, lejos de distribuirse uniformemente, se concentran en una estrecha franja: la Vía Láctea, donde hay cientos de miles de ellas, dejando al resto del cielo casi despoblado. La astronomía de los siglos XVIII y XIX imaginó que la Vía Láctea era todo el universo, una mera y apretada concentración de estrellas sola, abandonada (y láctea) en la infinitud del espacio vacío. Kant definió a la Vía Láctea como un «universo-isla» y adelantó la idea de que podía haber otros; faltaría un tiempo para que se la denominara «galaxia» y se descubriera que contiene entre cien y doscientos mil millones de estrellas. La Galaxia se convirtió entonces en un buen candidato para ser la estructura única y central del universo.

065.jpg
La Vía Láctea

Pero a lo largo de la historia, reiteradamente la unicidad demostró no ser buen negocio. En el cielo no sólo hay estrellas, del mismo modo que en el campo no sólo hay espinas. El telescopio mostraba también nubes difusas, de naturaleza misteriosa, que se supusieron concentraciones de gas o polvo interestelar y que, guardando fidelidad a su aspecto, se llamaron nebulosas.
En 1845, el astrónomo William Parsons, lanzó una hipótesis audaz: sugirió que lejos de ser nubes de gas pertenecientes a la Vía Láctea, quedaban por el contrario muy lejos de ella, y eran nada menos que otras Vías Lácteas, otros universos-islas, en todo similares al nuestro. La hipótesis de Parsons tuvo pocos seguidores y aun en 1920 se discutía la ubicación de las nebulosas. ¿Dentro o fuera de la galaxia? Tal era la cuestión.
No duró mucho. En 1924, Edwin Hubble zanjó de una vez por todas el asunto, al mostrar que una de las nebulosas más notables, Andrómeda, quedaba sin duda posible fuera y muy lejos de la Vía Láctea. La intuición de Parsons resultó certera: Andrómeda es efectivamente una galaxia, tan galaxia como la Vía Láctea. Una vez descubierta la naturaleza de las nebulosas (no de todas, ya que algunas sí son efectivamente nubes de gas y polvo), nuestra galaxia perdió todo privilegio, y pasó a ser una entre tantas, en un universo superpoblado. Galaxias de distintas formas y tamaños: elípticas, espirales, pero todas con sus miles o cientos de miles de millones de estrellas. Las galaxias resultaron ser tan numerosas como los granos de arena de una playa o las palabras huecas de un discurso político.

066.jpg

Pero ocurre que las galaxias, de la misma manera que las estrellas, no están distribuidas de manera más o menos regular. Hay regiones totalmente desgalaxiadas, y regiones donde las galaxias se agrupan gravitatoriamente. A estas agrupaciones se las conoce como cúmulos. La Vía Láctea, Andrómeda, la del Triángulo y otras treinta galaxias más pequeñas conforman lo que se conoce como el Grupo Local, el nuestro.
Y encima de todo, allí no termina la cosa. Nuestro Grupo Local pertenece a una estructura más grande llamada Cúmulo de Virgo, formada por unas dos mil galaxias. Y los cúmulos galácticos, a su vez, se agrupan en supercúmulos: el Cúmulo de Virgo y otros son modestos integrantes de Supercúmulos de decenas o cientos de miles de galaxias. El Supercúmulo de Virgo, por su parte, también tiene vocación viajera. A la nada despreciable velocidad de novecientos kilómetros por segundo, se dirige (de la misma manera que el supercúmulo vecino, el de Hydra Centauro) hacia una concentración de masa todavía más grande: el Gran Atractor, una fabulosa megalópolis de decenas de miles de galaxias, situada a unos ciento cincuenta millones de años luz de nosotros.
Estrellas, galaxias, cúmulos, supercúmulos, galaxias que emigran de un cúmulo a otro, supercúmulos absorbidos por el Gran Atractor… es una enormidad que aplasta. Resulta curioso: la idea de «universo» es suficientemente general como para transformarse en una experiencia estética, casi en un estado de ánimo. La idea de «sesenta galaxias» viajando juntas en nuestro Grupo Local, tiene algo concreto y contundente que perturba la imaginación. El viejo universo pre copernicano, y aun el copernicano —rodeado y protegido por la esfera de las estrellas fijas—, puede resultar ingenuo, pero sin duda era hogareño y seguro. El Cúmulo Local es frío, vasto, destemplado y asusta. Kant decía que eran dos las cosas que más lo impresionaban: la conciencia moral en lo más íntimo de sí y el cielo estrellado en lo más alto. Pero Kant no podía siquiera imaginar la danza de las galaxias en ese cielo relativamente simple del siglo XVIII.

§. Esa oscura materia del deseo
En El Principito, Saint Exupéry escribió que lo esencial es invisible a los ojos, frase que tuvo inmediatas derivaciones cosmológicas. Ya en los años treinta, el astrónomo suizo-norteamericano Fritz Zwicky observaba tímidamente que la masa total del cumulo galáctico Coma no alcanzaba para mantener, gravitación mediante, a las galaxias agrupadas sin que se dispersaran por todas partes: con la cantidad de materia que se veía, el cúmulo no podía sostenerse y debería haberse deshecho mucho tiempo atrás. Unas décadas más tarde, cuidadosas mediciones de la velocidad de rotación de las galaxias mostraron que éstas exhibían una cohesión que la gravitación producida por su masa no justificaba. Dicho de otra forma: la materia que contiene una galaxia no alcanza para explicar la fuerza gravitacional que esa misma galaxia exhibe. ¿De dónde sale la fuerza gravitacional que falta? Dado que la fuerza gravitacional es directamente proporcional a la masa, no había demasiadas alternativas: tenía que haber más masa, más materia, escondida en algún lugar. Esa materia que no se ve pero que tiene que estar para que se cumplan las leyes de la física fue llamada «materia oscura». Los cosmólogos sienten una especial predilección por ella, y algunos sostienen que conforma, en realidad el noventa por ciento de la materia existente en el cosmos.
Por impresionante que parezca el hecho de que la mayor parte del universo sea invisible, la materia oscura, en realidad, no significa una gran sorpresa: todas las hipótesis sobre el origen del universo, a partir de la teoría estándar del Big Bang (la gran explosión), afirmaron que la cantidad de materia que ven nuestros instrumentos es poca. La constatación experimental de este hecho (que hay más materia de la que se ve) a partir de mediciones recientes representa una importante victoria de la teoría, y una prueba más de que Saint Exupéry, en general, tenía razón.
Materia oscura, bien. Invisible, por ahora, perfecto. ¿Pero de qué puede estar formada? Hay diversas posibilidades. Ciertas extrañas e impalpables partículas de sonoros nombres, como los fotinos, los WIMPS y los gravitinos, presentan sus candidaturas. Pero esas partículas hasta ahora nunca fueron observadas y su existencia es puramente teórica. O sea: se sabe que existe, pero no se sabe qué es. Tampoco se sabe muy bien cómo está distribuida. Hoy por hoy, la mayor parte de la materia que forma nuestro universo está encerrada entre dos gigantescos signos de pregunta.

§. Cantar del Alma que se eleva en pos de la Materia Oscura (glosa)
Una noche de locura
con el ansia científica inflamada
busqué materia oscura
dispersa o agrupada
por muy pocos instrumentos detectada.
En silencio, buscaba
esa materia que nadie comprendía
y en pos de ella viajaba
sin otra luz ni guía
que una vaga observación y una teoría.
Aquélla me guiaba
más cierta que la luz del mediodía
y con fe yo esperaba
que según se preveía
la materia oscura al fin se mostraría.
¡Oh dichosa aventura!
¡Extender por el espacio la mirada
buscar materia oscura
con ansias inflamadas
y más tarde volver, sin hallar nada!

II La teoría del big bang y el origen del universo

§. Primero fue el espacio y el tiempo
Quinientos años antes de nuestra era, el grande y querido Tales de Mileto sostuvo que el mundo se había originado en el agua; veinticinco siglos más tarde, Edwin Hubble —el mismo en honor a quien se nombró el que fuera hasta hace poco el telescopio más grande del mundo— escudriñaba el cielo, focalizándose en lo que se llamaban «nebulosas», manchas blancas y difusas sobre cuya naturaleza, como les conté, se discutía. Había quienes decían que se trataba de objetos de la Vía Láctea y había quienes sostenían que en realidad estaban fuera de ella y eran enjambres de estrellas idénticos a la Vía Láctea y que el universo estaba poblado por muchísimos agrupamientos similares.
Pero no había manera de zanjar la discusión, hasta que Hubble emprendió su trabajo titánico y logró demostrar que, efectivamente, las nebulosas eran otras galaxias tremendamente alejadas de la nuestra y que contenían también cientos de miles de millones de estrellas agrupadas por la gravitación.
Pero no fue todo lo que vio.
Había una cosa rara con la luz de esas galaxias lejanas: aparecía enrojecida, «corrida hacia el rojo», como dicen los astrónomos. Ahora bien, el corrimiento al rojo es el equivalente, en la luz, al corrimiento a los graves de un sonido cuando la fuente se aleja de nosotros; Hubble adelantó entonces la increíble y sorprendente idea de que todas las galaxias se alejan de nuestro planeta a una velocidad proporcional a la distancia que nos separa de ellas. Las más lejanas que podían observarse en su época retrocedían a la respetable velocidad de 40.000 kilómetros por segundo, pero, a medida que los instrumentos se perfeccionaron y se alcanzaron regiones aún más distantes en el espacio profundo, pudieron verse galaxias que escapaban a 100.000 kilómetros por segundo y más. ¡Un tercio de la velocidad de la luz! Si bien a primera vista podría haber puesto un poco paranoico a más de uno esa ansiedad de la materia del Universo por alejarse de la Tierra, en realidad lo que demostraba esta observación era algo mucho más grandioso y extraño: que el Universo entero estaba en expansión y que cada observador, en cualquiera de las galaxias, vería que las demás se alejan de él.
Ya es clásica la imagen de un globo, con manchas en su superficie, que se infla. Si uno se parara sobre cualquiera de esas manchas, vería que el resto de ellas se aleja y que lo hace más rápido cuanto más lejos está. No es que cada galaxia en particular esté retrocediendo desde nuestro punto de vista, sino que el universo en su conjunto, el mismo que Tolomeo creyó limitado y finito, el que Newton imaginó como infinito y eterno, el que Einstein describió como finito, cerrado, ilimitado y estático, ese cosmos, después de haber sufrido tantos avatares, como un inmenso globo tridimensional, crece y se expande, arrastrando en su expansión a los objetos que lo conforman.
El descubrimiento de la expansión del universo fue como un fogonazo: se convirtió en el eje, en el concepto que organizó, en adelante, toda la cosmología y la impregnó de historia. El universo, aquel paisaje que pacientemente se descubría —y describía— aquel «lugar de todos los lugares», donde ocurrían los sucesos astronómicos, aquel escenario que cobijaba el transcurrir de la materia, se transformó en un objeto palpitante y en continuo cambio, en permanente modificación, en algo casi vivo, que tenía un pasado y que debía, a cada momento, responder por él.
El problema de lo que el universo era quedó ligado de manera indisoluble a lo que el universo había sido… y a la manera en que había empezado, porque en el universo en expansión no es posible la eternidad. Algo era evidente: las galaxias no pudieron estar alejándose unas de otras desde siempre. A medida que se retrocediera en el tiempo, deberían haber estado más y más próximas. La expansión tuvo que haber empezado alguna vez. Había que explorar hacia atrás, y allí, en el principio, sólo se avizoraba una gran masa caliente y densa que concentraba toda la materia y energía.
En 1927, el sacerdote y astrónomo belga Georges Lemaître (1894-1966) elaboró una teoría del origen del Universo, al que imaginó en el principio como una esfera del tamaño de treinta veces nuestro Sol en la que estaba concentrado todo, a la que llamó «huevo cósmico». Según Lemaître, al explotar este gigantesco huevo, el Universo empezó a llenarse de materia y a transformarse en lo que es hoy.
En la década del cuarenta, Georges Gamow (1904-1968) elaboró una teoría más refinada y demostró cómo es que las interacciones nucleares que tenían lugar en el universo primitivo podrían haber convertido el hidrógeno en helio, lo que explicaba las proporciones de estos elementos en estrellas muy viejas. Gamow publicó su idea en un artículo de 1948, donde se predecía que debía poder percibirse aún radiación de las etapas más tempranas y calientes del Universo, del momento en que la luz en forma de fotones pudo propagarse libremente después de la gran explosión: una radiación que debía haberse enfriado desde entonces y que debería tener ahora unos 5 grados Kelvin (o sea 268 grados centígrados bajo cero).
Naturalmente, se trataba de una hipótesis altamente especulativa y respaldada por poca evidencia empírica, hasta el punto de que el nombre con que se la conoce («Big Bang», o «Gran explosión») fue puesto con sorna por uno de sus más serios opositores, el astrónomo inglés Fred Hoyle (1915-2001).
Pero ocurrió que en 1964 Arno Penzias y Robert Wilson, dos científicos de los laboratorios Bell, mientras trataban de calibrar una antena, descubrieron un «ruido» en la franja de microondas, de 3 grados K, que provenía de todas las direcciones y que no variaba ni de día ni de noche, ni con el transcurrir del año. Era ni más ni menos que la radiación predicha por Gamow, el grito del universo temprano.
La detección de la radiación de Gamow dio a la teoría del Big Bang un nuevo impulso, y, desde entonces, la evidencia se acumuló hasta el punto de que es hoy una teoría firmemente asentada entre los cosmólogos.

067.jpg
La radiación cósmica de fondo. Una «foto» del universo cuando tenía apenas 380 mil años de existencia.

§. El Big Bang
Así se pudo elaborar una teoría completa, o casi. Porque aunque el momento preciso del Big Bang, el «tiempo cero», se escurre todavía de las manos de físicos y astrónomos, la actual teoría cosmológica ha llegado bastante cerca, hasta el momento en que el Universo tenía sólo un billonésimo de trillonésimo de trillonésimo de segundo de edad. Era entonces más pequeño que un núcleo atómico, tenía una temperatura de un trillón de trillón de grados y las fuerzas que hoy manejan el universo (a nivel intraatómico y entre átomos) también estaban mezcladas en una superfuerza. La hazaña no es pequeña y tampoco lo es haber descripto con bastante coherencia lo que ocurrió desde entonces hasta hoy, mientras el Universo se expandía y enfriaba.
La gravitación fue la primera en separarse de esa fuerza única. La fuerza nuclear fuerte fue la segunda y acto seguido el Universo emprendió una etapa de expansión ultrarrápida —conocida como «etapa inflacionaria»— de la cual emergió con el tamaño de una naranja y como una sopa de quarks, leptones, fotones y sus respectivas antipartículas. Entonces fue el turno de la fuerza débil, y enseguida de la electromagnética, con lo cual las cuatro fuerzas de la naturaleza adquirieron su identidad actual.
Mientras tanto, partículas y antipartículas se aniquilaron en gran escala transformándose en luz; un minúsculo predominio de las primeras sobre las segundas garantizó el triunfo de la materia sobre la antimateria. Los quarks se unieron formando protones y neutrones, el Universo alcanzó el tamaño de una pelota de fútbol: pero todavía no tenía un segundo de edad.
Era tan denso que la luz no podía atravesarlo a través de la maraña de electrones y partículas que lo llenaban y lo tornaban opaco. Cuando el reloj indicó que ya habían pasado tres minutos desde el origen, este universo-bebé, que ya llegaba a apenas el millón de grados, emprendió una infancia de cien mil años, durante la cual se formaron los primeros núcleos de helio y se generó la radiación de fondo. Los átomos deberían esperar aún a que la temperatura bajara lo suficiente como para que los núcleos pudieran captar y retener electrones. Sólo entonces la luz empezó a encontrar el paso libre y en adelante el cosmos fue transparente y oscuro. Apenas cien millones de años más tarde, todo estaba bañado en un gas difuso de átomos de hidrógeno y helio; aquí y allá el gas se condensaba en grandes nubes bajo la acción gravitatoria, en cuyo interior y llegado el momento, se encenderían las primeras y primitivas estrellas.
Las primeras estrellas duraron poco, apenas unos cientos de millones de años. Eran grandes, pesadas y explotaron como gigantescas supernovas que lanzaron toda la materia al espacio. Esa materia formó nuevas nebulosas que empezaron a contraerse por efecto de la gravitación. Hace cinco mil millones de años, una de esas estrellas se encendió y alrededor de ella una nube de polvo se concentró en planetas; el tercero de ellos formó una corteza y océanos, y allí las moléculas, después de mucha prueba y error, inventaron una estructura capaz de replicarse, transportando información genética (que tres mil millones de años más tarde Georg Mendel, un monje paciente, lograría decodificar) e iniciaron el ciclo de la selección natural. Luego se recubrieron de una membrana y formaron una célula que evolucionó hasta dar criaturas capaces de mirar a las estrellas y remontar la historia hasta adivinar los primeros instantes del universo.

§. Cosmogonía
Todas las culturas tuvieron su cosmogonía, desde las primitivas tortugas que sostenían al mundo a la lucha de Tiamat, la serpiente esencial, y Marduk, el dios babilonio del orden y la armonía; dioses desdibujados y tristes que fabricaban un mundo porque no tenían otra cosa que hacer. Pero el universo de hoy es muy complejo para dejarlo en manos de dioses que se confundirían y serían incapaces de lidiar con neutrones y neutrinos, con galaxias y con estrellas, con esas máquinas maravillosas que transforman gravedad en la luz y el calor que irradian, dioses que sólo podían pensar en términos de bien y mal, de luz y oscuridad, incapaces de imaginar siquiera los delicados mecanismos de la vida y el sistema sutil por el que se transmite la herencia; dioses sin el ingenio de Mendel o la tenacidad de Pasteur o la visión abarcadora de Darwin, dioses temerosos, sin la audacia de Copérnico (si hubiera sido por los dioses, habrían dejado a la Tierra en el centro del mundo por siempre).
La teoría del Big Bang es hoy nuestra cosmogonía, provisoria, como todo aquello que la razón descubre; una teoría que pretende dar cuenta de todo lo que existe, todo lo que fue y lo que será, y que intenta describir cómo llegó a ser: el universo desaforado y múltiple, poblado por cien mil millones de galaxias cada una con cien mil millones de estrellas, que se esparcen como filamentos asombrosos.
En cierto modo, es la culminación del gigantesco rompecabezas que comenzó a armarse desde que Copérnico movió a la Tierra desde el centro del universo y los hombres de la Revolución Científica descifraron los mecanismos básicos del mundo; que creció con Lavoisier y la larga epopeya que arrancó con Dalton y se adentró en los secretos de la materia, que invadió la biología cuando Darwin logró describir la saga de la vida a través de las épocas y Pasteur y Mendel inclinaron su mirada inteligente sobre sus minúsculos mecanismos; que se redondeó cuando Einstein barrió con las ideas de espacio y tiempo absolutos y estableció el fundamento de una nueva cosmología y la tectónica de placas ligó la historia y el presente de nuestro planeta a la historia del cosmos.
La teoría del Big Bang nos cuenta cómo, de casi un punto de temperaturas infernales se llegó hasta un universo helado: su temperatura es hoy de 270°C bajo cero. Y, además, vacío, ya que casi no hay materia, y de la que hay, cerca de tres cuartos son hidrógeno, casi todo el otro cuarto es helio y sólo el 1% queda para los demás elementos, entre ellos los que forman al hombre.
Dentro de las galaxias funcionan esas máquinas que son las estrellas, en cuyo interior se fabrican los elementos más pesados como el carbono y el oxígeno, que con la muerte de las estrellas serán devueltos al espacio. Sin las enormes dosis de energía del centro de las estrellas sería imposible que se formaran átomos más complejos como el oxígeno o el carbono, para no hablar del uranio (que sólo se forma en las explosiones de estrellas).
Una de estas cien mil millones de galaxias es la nuestra, la Vía Láctea que vemos cruzando el cielo en las noches oscuras, y el Sol es una de las cien mil millones de estrellas que la forman, muy lejos del centro, en un brazo espiralado.
Y a su alrededor giran los planetas; en la delgada costra de uno de ellos vivimos nosotros, en un mundo en el que somos absolutamente minoritarios frente a los insectos o a las bacterias. Somos una especie reciente, de apenas tres millones de años de antigüedad, que mira asombrada intentando comprender ese universo.
Y la teoría también nos dice cómo seguirá todo, mientras el universo se expande y se expande y se enfría. Hace poco se descubrió que la expansión se acelera más y más. Nadie sabe a qué se debe este fenómeno, pero en muchos casos se lo atribuye a la acción de la energía oscura, concepto elusivo si los hay, y del que nadie puede dar una explicación cabal, ni demostrar su existencia.
Dentro de tres mil millones de años, Andrómeda y la Vía Láctea chocarán, fundiéndose en una supergalaxia.
Dentro de cinco mil millones de años, el Sol habrá agotado su combustible y en su último suspiro, destruirá a los planetas más cercanos a él, como Mercurio, Venus y la Tierra, y se transformará primero en una esfera del tamaño de nuestro planeta, una enana negra de carbono y oxígeno.
Y mientras tanto, el universo se seguirá expandiendo y se irá haciendo menos denso; dentro de un millón de millones de años, los cúmulos galácticos que están cerca se van a fusionar entre sí, y las supergalaxias que resulten se alejarán ya unas de otras sin remedio.
Pero al mismo tiempo se irán agotando las reservas de hidrógeno de todo el universo y ya no se podrán crear nuevas estrellas; habrá un momento en que muera la última estrella que existe, y por lo tanto las supergalaxias no serán más que cementerios estelares sin brillo.
Y el universo continuará su expansión.
Sólo los agujeros negros, esos extraños objetos nacidos de la relatividad general, permanecerán ligeramente activos, pero también ellos se agotarán alguna vez.
Y el universo se seguirá expandiendo hasta que no queden siquiera agujeros negros.
Y quede solamente la nada y la radiación, cada vez más fría y más tenue, que se aproximará, sin saberlo, y sin alcanzarlo nunca, al cero absoluto.
Y el universo se seguirá expandiendo y expandiendo sin fin.
Y será sólo pura inmensidad en expansión.
Que se expande y se expande.
Y se expande.
Y se expande.

Interludio:
Milonga del Big Bang

Hubo en la calle Brasil
llegando a Constitución,
un hombre llamado Arteaga
muy hábil con el facón.
Supo el arte del puntazo
en el momento oportuno
y el sábado, en la milonga,
bailaba como ninguno.
No le importaba la gloria
ni el filo de los espejos
ni le importaban los cuentos
que entretienen a los viejos.
El hombre se dedicaba
a estudiar cosmología
que era ciencia de malevo
y más, asigún decía.
Paraba todas las tardes
en el boliche de Armando
empinaba una ginebra
y andaba siempre esplicando.
Y le hablaba al malevaje
para darle educación:
«Ha empezau nuestro universo
con una gran esplosión».
«La saben llamar Big Bang
(que es esplosión en inglés)
ustedes me aprenden eso
antes de que cuente diez».
Se le asombró el rengo Panno,
nacido en La Paternal:
«yo creiba que el universo
había sido siempre igual».
Y Arteaga le contestó:
«me va a perdonar, hermano,
si le digo con respeto
que usté es precopernicano».
«Yo soy nacido en el diez», dijo uno
«y no lo tengo sabido,
si aquí la cosa explotó
tuvo que hacer mucho ruido
y alguno la hubiera oído».
Contestó Arteaga: «los oigo
y no creo lo que escucho
estas cosas que les cuento
ocurrieron hace mucho.
No se hagan los sobradores
ni me hablen con aspavientos
el Big Bang tuvo lugar
antes del mil novecientos».
Y otro dijo desde atrás
con un movimiento de hombros
«si aquí hubo alguna esplosión,
¿en dónde están los escombros?»
Dijo Arteaga: «ustedes sí
que son unos inorantes
estas cosas en Uropa
se saben de mucho antes.
¿Se piensan que el universo
es sólo Costitución?
¿No saben que está Pompeya,
y después la inundación?»
Y explicó con gran paciencia
«a toda velocidá
se nos fugan las galasias,
lo mismo que hacen ustedes
cuando la yuta hace razzias.
Y es cosa muy simple ver
cómo las cosas apuntan:
si las galasias se fugan
es que antes estaban juntas.
Entonces, basta pasar
la película hacia atrás
pa’ ver un mundo tan lleno
que ya no da para más.
Y estaban ya arrejuntados
en ese instante inicial
el tango de meta y ponga
y el farol de mi arrabal
la callecita empedrada
las muchachas de mi flor
y un malevaje que mezcla
el odio con el amor.
Y un universo repleto,
¿cómo no quieren que esplote?
¡si estaban más apretados
que multitud en un bote!
Así nació el universo
y así nació el arrabal,
le dio ritmo de milonga
la espansión universal.
Quiero que ustedes comprendan
las verdades de la ciencia
combinando al mismo tiempo
la teoría y la esperiencia
Saben que a mí me gusta
convencer por persuasión
pero si alguien se retoba
siempre me queda el facón».
Y en los cien barrios porteños
se decía, con razón,
que solamente dos ciencias
había en Constitución
la ciencia que estudia el cosmos
y la ciencia del facón.
La milonga del Big Bang
se canta con devoción
allá en la calle Brasil
llegando a Constitución.

Capítulo 40
La «Máquina de Dios»

Y finalmente llegamos a la estación final de nuestro largo recorrido, una gran conversación en la que fuimos deteniéndonos en diferentes lugares, distintos hitos que marcaron el pensamiento científico y cuyos hilos tratamos de seguir, a veces con más y a veces con menos éxito, desde Tales hasta hoy. Los caminos no son lineales, por supuesto, pero por más que se deformen, se bifurquen y hasta se corten, siempre terminan aportando algo al desarrollo del conocimiento: los científicos que fracasan, aunque muchas veces permanezcan en la oscuridad y sean olvidados, le dejan una herencia fundamental a las siguientes generaciones, mostrándoles los caminos que no hay que seguir.
A lo largo de nuestro viaje pudimos ver cómo cada generación, en la búsqueda de respuestas (razonables o no, verdaderas o no), abre nuevas preguntas que muchas veces permanecen latentes por siglos: así, por ejemplo, Euclides, al responder a la pregunta de cómo (o por dónde) empezar a razonar, deja un flanco abierto que se abrirá aún más dos mil años más tarde con las geometrías no euclidianas de Lobachevski y Riemann; Tales, al postular la empiria como la fuente imprescindible para el conocimiento, deja la puerta abierta a su cuestionamiento, y Parménides, al negar radicalmente esa empiria, muestra claramente —y sin quererlo, desde ya— que sin ella la totalidad de la ciencia se paraliza, como quedará clarísimo después de la Revolución Científica.
También fueron apareciendo diversos juegos de oposiciones que muchas veces duraron largos siglos: los atomistas contra los que sostenían que la materia era infinitamente divisible, los partidarios y los adversarios de la existencia del vacío, los que defendían la idea de una electricidad única y los que se inclinaban por creer que había dos, los defensores de lo continuo y los de lo discreto, los que creían en la finitud del universo y los que optaban por la infinitud, los inductivistas y los racionalistas. Se trata de controversias larguísimas que, en su devenir, conformaron el grandioso espectáculo del desarrollo del conocimiento racional del universo.
En ese largo trayecto que transitamos juntos no hubo más remedio que dejar afuera algunos de los últimos adelantos, como por ejemplo la informática, que cambió y continúa cambiando de maneras insospechadas nuestra vida cotidiana; la utilización de las células madre en medicina, o las neurociencias, que avanzaron espectacularmente en las últimas décadas: el cocktail actual de nuevos descubrimientos, con el bombardeo cada vez más vertiginoso de resultados, no permite encontrar los hilos del pensamiento ni adivinar cuáles son reales avances y cuáles son el simple resultado del estado de ánimo científico o de la moda. Basta, para justificar mi cautela respecto de los nuevos adelantos, recordar las múltiples veces en la historia de la ciencia en que los problemas parecieron resueltos cuando en realidad no se hacía sino empezar (y muchas veces, errando) el camino.
Así y todo, me parece que es necesario mencionar algunos de los grandes problemas actuales de la ciencia, por más que el panorama no esté demasiado claro. Uno de ellos es, sin lugar a dudas, el famoso cambio climático: el aumento de unos pocos grados de la temperatura promedio del planeta, que proviene del efecto invernadero (esto es, del lanzamiento a la atmósfera de combustibles fósiles), amenaza con un cambio global que, según dicen algunos, puede llegar a acarrear trastornos de todo tipo (subida del nivel del mar, cambio de régimen de lluvias, vientos y fenómenos meteorológicos en general) y modificar el panorama geo-climático del planeta con importantes consecuencias culturales, económicas y demográficas.
No está claro, en verdad, qué cosa es el cambio climático: hay quienes piensan que es antropogénico (es decir, que se debe a motivos relacionados con el accionar del hombre) y hay quienes lo atribuyen a factores astronómicos, como modificaciones de algunos parámetros de la órbita de la Tierra alrededor del Sol que se dan cíclicamente. La discusión no es ociosa: si el problema es antropogénico, se puede contrarrestar más directamente que si es astronómico… aunque esto está por verse, a juzgar por la falta de cumplimiento de la mayoría de los países de los protocolos firmados para reducir las emisiones.
Así como no hablé del cambio climático, tampoco lo hice en su momento de la ciencia humboldtiana (por Alexander von Humboldt, 1769-1859), que en lugar de buscar un sustrato matemático de la realidad —como quería Platón— o la ligazón punto a punto entre los fenómenos experimentales —como pretendía Aristóteles— ensayó ya entonces la descripción de sistemas integrales en los que grandes conjuntos de datos están interrelacionados de una manera dinámica (el clima, la geografía, la fitogeografía) y muchos otros que derivarían en una ciencia de sistemas (y no ya de hechos) y desembocarían en los que hoy llamamos sistemas complejos (aunque la palabra tiene cierto contenido técnico y no significa simplemente difícil o complicado), en cierto modo siguiendo la tradición de Francis Bacon: listas de resultados y tablas, pero anudando esas tablas con nexos causales o correlaciones.
Pero hasta aquí llegó el lamento. Aprovechemos el espacio que queda para cumplir con la promesa que hicimos al principio: ésta iba a ser una historia de las ideas científicas desde Tales de Mileto hasta la Máquina de Dios. Tales de Mileto fue el protagonista del primer capítulo. Y de la Máquina de Dios, justamente, nos toca hablar ahora.

§. El modelo estándar, de nuevo
Pero para eso, y aunque ya hayamos hablado de él, tenemos que hacer un breve repaso del modelo estándar. En parte porque acaso quedó un poco confuso cuando hablamos de él hace algunos capítulos, pero más todavía porque es vital para comprender por qué se puso tanta energía y esfuerzo para encontrar al escurridizo Bosón de Higgs, una partícula que, mientras se escriben las últimas líneas de nuestro relato, sigue siendo estudiada en el mayor experimento de la historia de la humanidad.
El modelo estándar de partículas es, más que un modelo, una teoría que identifica a todas las partículas materiales que componen el universo y explica los modos en que interaccionan. De acuerdo a éste, las partículas verdaderamente elementales (en el sentido de que no pueden ser divididas ulteriormente) son:Al mismo tiempo, hay cuatro fuerzas (la electromagnética, la gravitatoria, la nuclear fuerte y la nuclear débil) que actúan por mediación de otras partículas que las transportan. Esto es complicado de entender, pero simplificando un poco podemos decir, a modo de ejemplo, que en el caso de la fuerza electromagnética el fotón es la partícula encargada de interaccionar con la materia para transmitirla: dos cargas que se atraen o rechazan intercambian fotones y la fuerza será más o menos intensa de acuerdo a la interacción de las partículas. Cuando dos partículas cargadas se atraen, intercambian fotones, del mismo modo que dos personas que intercambiaran una pelotita de golf parecerían unidas. A las partículas fundamentales que vimos al principio (los quarks —con sus múltiples variaciones— y los leptones) tenemos que sumarles, entonces, otras partículas:
Fotón: transporta la fuerza electromagnética
Partículas W y Z: transportan la fuerza débil
Gluones: Transportan la fuerza fuerte
Y podríamos incluir al gravitón, que transportaría la fuerza gravitatoria, pero aún no fue detectado.
Por supuesto, cada una de ellas cuenta con su respectiva antipartícula.
Parece demasiado, ¿no? Y encima, hay un problema fundamental: el modelo no cierra. Por empezar, no incluye a la gravitación y a las interacciones gravitatorias, que se resisten a someterse a los rigores de la mecánica cuántica; por otro lado, no explica de dónde sacan las partículas su masa, por qué el electrón es casi dos mil veces menos masivo que el protón o el fotón carece completamente de masa.
Para resolver este inconveniente (un inconveniente un poco más puntual, en realidad, pero no importa), en 1964 el físico británico Peter Higgs sugirió que el universo entero está inmerso en un campo (el campo, precisamente, de Higgs), que es el que confiere masa a las partículas. La partícula cuántica que lo representa, aquella que interacciona con el resto de las partículas, es ni más ni menos que el bosón de Higgs.
El Modelo Estándar propone entonces, además de las partículas y de las fuerzas, la existencia de un campo que se encarga de darle a cada partícula su masa de acuerdo a cómo interaccione con él. A simple vista parece difícil de entender, pero no lo es tanto. Piénsenlo así: si la masa es la medida de cuán difícil resulta acelerar un objeto (es decir, de cuán difícil le resulta moverse), que A tenga el doble de masa que B quiere decir que hay que hacer el doble de fuerza para acelerar a A que para acelerar a B. Imagínense que entran un vendedor de diarios y un vendedor de helados a un salón lleno de niños. Es evidente que el vendedor de diarios pasará sin pena ni gloria, interaccionando mínimamente con los chicos. En cambio, el vendedor de helados tendrá enormes dificultades para abrirse paso entre la multitud. Si aceptamos la idea de que la masa es la resistencia que ofrece un cuerpo al movimiento, se puede pensar que el heladero es más masivo que el vendedor de diarios (por más que pesen exactamente lo mismo).
En el campo de la física de partículas, el salón funcionaría como el campo de Higgs y cada uno de los niños como el bosón, la partícula que tiene asociada. Es como si el campo de Higgs fuera una especie de viscosidad que impregna el espacio-tiempo y que «frena» con diferente intensidad a las partículas elementales, otorgándoles un efecto equivalente a lo que nosotros medimos como masa. Si nosotros observáramos el fenómeno desde afuera, diríamos que el heladero (protón) es más masivo que el canillita (electrón) simplemente porque interacciona de manera más intensa con los niños (bosones de Higgs) en el salón (campo de Higgs).
De allí la importancia fundamental para la física actual del bosón de Higgs: si se lo encontrara, podría «cerrar» el Modelo Estándar (que lista la totalidad de las partículas elementales que existen, exceptuando a las relacionadas con la gravitación) y, si no, obligaría a replantear varios de sus postulados.
Esta importancia capital es la razón por la cual se estudia con tanto énfasis el elusivo bosón en el Gran Colisionador de Hadrones del CERN (Centre National pour la Recherche Scientifique), el mayor experimento científico de la historia de la humanidad, no sólo por el tamaño y la inversión requerida sino por las ambiciones: cerrar de manera «definitiva» (y lo pongo entre comillas porque, como ya sabemos, nada en la ciencia es definitivo) el modelo estándar de partículas, que explica en detalle cómo está constituido el universo. Lo que se realiza allí es «sencillo»: se hacen colisionar haces de protones a una velocidad cercana a la de la luz produciendo a escalas subatómicas energías altísimas, imposibles de obtener de otra manera.
Para lograr que partículas diminutas como son los protones colisionen a esas velocidades fue necesario diseñar un túnel de 27 kilómetros de circunferencia, en cuya construcción trabajaron más de 2.000 físicos de 34 países y que costó, para ponerlo en funcionamiento, la friolera de 40 mil millones de euros (además de los 765 millones que necesita para funcionar cada año).
Pero la inversión, aparentemente, vale la pena: además de haber proporcionado (y seguir proporcionando) información relevante sobre el hipotético y escurridizo bosón de Higgs, se espera que el supercolisionador ayude a entender, al recrear las condiciones que tenía el universo menos de una milmillonésima de segundo después del Big Bang, qué es esa «cosa» que llamamos «masa», que esclarezca al menos en parte qué es la materia oscura y que proporcione alguna evidencia empírica a la por ahora puramente teórica teoría de cuerdas.

§. El elusivo bosón
La verdad es que el bosón se hizo esperar, y no era para menos: según los cálculos, la masa del Higgs tenía que ser por lo menos unas 120 veces la del protón y, por lo tanto, hacía falta muchísima energía para crearlo y, después, poder observarlo.
Porque de acuerdo a lo que planteaba la teoría, el bosón de Higgs se tenía que desintegrar en otras partículas antes de recorrer siquiera una distancia equivalente al diámetro de un protón. Para probar que existía (o que no) se buscaban, precisamente, los productos de esa desintegración. El tema es que dado el carácter cuántico de estos fenómenos, la mayoría de los productos eran generados por otros mecanismos más convencionales, y es por eso que para minimizar los márgenes de error resultaba necesario recolectar y analizar una enorme cantidad de datos que dieran certera cuenta de la dichosa y escurridiza partícula: pescar el bosón era como escuchar un susurro en medio de un multitudinario festival de rock desde diez kilómetros de distancia. Distinguirlo, separándolo del ruido de fondo, no es por cierto fácil, y sería aconsejable que el avisado lector no trate de hacerlo en su casa como pasatiempo del domingo.
Y así y todo, los datos acumulados desde que comenzó el experimento permitieron ir poniendo poco a poco límites más estrictos a la posible masa del posible bosón de Higgs. Según el equipo de 3.000 físicos conocido como Colaboración Atlas, debía estar en 125 billones de electronvoltios (un electronvolt es la unidad de energía que representa la energía cinética que adquiere un electrón cuando es acelerado por una diferencia de potencial de 1 voltio), es decir, 125 veces más que la de un protón y 500 mil veces la de un electrón. Y efectivamente el 4 de julio de 2012 se hizo un anuncio: en el CMS y el Atlas (dos de los detectores de partículas presentes en el Supercolisionador) había aparecido una masa «consistente con la masa del bosón».
La cuestión no está cerrada y aún se sigue investigando si esa partícula es efectivamente el bosón de Higgs o alguna otra partícula no predicha por la teoría. Sea como fuere, el solo hecho de que haya aparecido una «masa consistente» con la predicción resulta impresionante.
Como Neptuno gracias a los cálculos de Le Verrier, como los elementos que vinieron a completar de a poco la tabla periódica de Mendeleev, el bosón parece irrumpir con toda su vacilante empiria en el mundo de las partículas elementales para darle la razón a una predicción teórica formulada por Peter Higgs hace medio siglo y demostrar, una vez más, el alcance de la mayor herramienta que tiene el ser humano, la que desde Tales de Mileto hasta el Supercolisionador de hadrones hizo posible el desarrollo de esta historia.

Finale

Hace cuatrocientos mil años se encendieron las hogueras del hombre de Pekín, aunque es muy probable que el dominio del fuego haya sido muy anterior y se remonte hasta un millón de años atrás. Es impresionante pensar en los cambios que el fuego pudo traer a los pocos grupos o manadas de homínidos que vagabundearían por los continentes. El fuego garantizaba el calor, la posibilidad de cocinar la comida, la defensa, la luz y la cerámica. Nadie puede hoy reconstruir mental y apropiadamente aquellos mundos despoblados y salvajes, y es muy difícil incluso imaginarse una noche desde nuestras ciudades iluminadas al punto que oscurecen las estrellas, una noche en la que el fogón se convirtió en el punto de reunión y de referencia. No es extraño que el fuego haya penetrado en las mitologías. Prometeo arrebató el fuego a los dioses y los dioses lo castigaron horriblemente. Porque con el fuego los hombres no tenían ya nada que temer. La adoración del fuego persiste aún hoy, en el fuego olímpico, en las llamas votivas o perennes que arden en los altares y los monumentos.
Y fue ese fuego, multiplicado en antorchas, el que alumbró el camino del hombre a través de la larga noche prehistórica.
Hace diez mil años se inventó la agricultura. Y con la agricultura nació el poblado, luego la ciudad, donde florecieron el razonamiento y el pensamiento abstracto. Y el cerebro trató de entender el funcionamiento del mundo prescindiendo de los dioses, dar cuenta de la empiria, de lo que se veía, con teorías naturales. También hubo quienes negaron a la empiria toda validez, y propusieron el razonamiento sólo como camino, y quienes, como los pitagóricos, descubrieron las matemáticas abstractas y pensaron en un universo fantasioso y dinámico.
Y a medida que las teorías crecían y se complejizaban, los griegos llegaron a explicar el funcionamiento de los cielos y a predecir los eclipses, quitándoles esa potestad a los dioses. Y la cerámica y la metalurgia dieron los primeros pasos trémulos de la química, y establecieron un primer «modelo estándar» de elementos (agua, aire, tierra, fuego), que los atomistas condensaron en pequeñas partículas indivisibles. Mientras, los astrónomos pudieron construir una cosmología completa, que sin embargo describía un universo pequeño, donde el Sol presidía el centro y que se extendía hasta la esfera de las estrellas fijas, más o menos donde está la órbita de Urano. Y ésta es la historia del hombre y de la ciencia, y de la necesidad de comprender y explicar.
Pero era poco, y se contaron las estrellas, y se estrujaron los imanes, y se consiguió bajar el rayo de su trono áureo, como potestad de Zeus, y someter la electricidad a los cables. Y se indagó el pasado y se supo que la Tierra era antigua, muy antigua, más antigua que los más antiguos dioses que se pudieran imaginar, y se empezaron a rastrear sus orígenes y la forma en que se formaron los mares y montañas y a sospechar cómo la vida nació y evolucionó. Y ésta es la historia del hombre y de la ciencia y de la necesidad de comprender y explicar.
Y luego resultó que los mecanismos del cielo resultaban demasiado complicados, y un científico y filósofo genial movió a la Tierra de su lugar central, mientras sus sucesores explicaban los misterios del movimiento, la inercia y la caída, y otro enunciaba una ley de leyes que describía todos los movimientos del universo. Y ésta es la historia del hombre y de la ciencia y de la necesidad de comprender y explicar.
Se expandieron las fronteras del universo, y se observaron las últimas galaxias, y se indagó en la profundidad de los átomos donde ahora mismo se continúa investigando la partícula divina. Y ésta es la historia del hombre y de la ciencia y de la necesidad de comprender y explicar.
Y es el resultado del momento en que se enciende el fuego del razonamiento, mediante el golpe inteligente de dos piedras de sílex.

Bibliografía

Hacer una lista exhaustiva de todos los textos que fueron consultados y utilizados para escribir este libro sería una tarea interminable y, en buena medida, inútil. Preferimos, en lugar de eso, citar cincuenta obras que consideramos fundamentales de y sobre la historia de la ciencia, para que el lector curioso, que pretenda indagar un poco más sobre algún tema en particular, pueda hacerlo con confianza.

Agradecimientos

A Hugo Soriani.
A Esteban Magnani, Mariano Ribas, Máximo Rudelli, Martín Cagliani, Raúl Alzogaray: por compartir textos e ideas con nosotros.
A Paula Pérez Alonso.
Y, como siempre, a Roxana Barone.

F I N