Las flechas del tiempo - Richard Morris

Las flechas del tiempo

Richard Morris

Capítulo I
¿Qué es el tiempo?

Hay preguntas que pueden parecer tan insulsas como para no concederles demasiada atención, pero también suelen ser precisamente ésas las más desconcertantes cuando uno se detiene a analizarlas. En general, las cosas no son tan sencillas como parecen, y, de golpe percibimos la complejidad que ocultaban, turbándonos entonces esa misma pregunta, aparentemente sin importancia.

Dentro de esa categoría se inscribe el interrogante: ¿Qué es el tiempo? Todos sabemos lo que es el tiempo. Es lo que mide el reloj. Así de sencillo. Pero si lo analizamos más detenidamente, descubriremos que éste es un tema complicado, que esa pregunta la forman, en realidad, muchas más relacionadas con ella. Por ejemplo, ¿qué es eso que llamamos «el paso del tiempo»? ¿Avanza siempre el tiempo a la misma velocidad? ¿Fluye como un río, o es el momento al que llamamos «ahora» el que pasa del presente al futuro? ¿Cabe imaginar que se pueda parar el tiempo o invertir su paso? ¿Tuvo el tiempo un principio? De tenerlo, ¿cómo se produjo? ¿Tendrá un final? ¿Qué ocurría antes de que se creara el Universo? ¿Es el tiempo tan sólo una sucesión de acontecimientos, o posee algún tipo de realidad independiente? ¿Qué es exactamente eso que mide el reloj?

Hace unos 1.600 años, san Agustín hizo una observación muy justa a este respecto. Preguntó: « ¿Qué es, pues, el tiempo? Si nadie me lo pregunta, sé lo que es, pero si se lo quiero explicar a quién me lo pregunta, entonces, no lo sé.» Por supuesto, no se puede tomar tan insólita declaración al pie de la letra. Cuando un filósofo dice no conocer la contestación a una pregunta, generalmente se ha de esperar que a esa profesión de ignorancia le siga un análisis exhaustivo. En eso, san Agustín no fue ninguna excepción. Después de hacer semejante afirmación, desarrolló ampliamente el tema, concluyendo al final que el tiempo era algo que residía en el alma.

No pretendo estudiar en detalle el análisis que san Agustín hace del tiempo ni tampoco voy a extenderme sobre la opinión de otros filósofos que han intentado abordar este tema. Me interesa más considerar bajo un punto de vista científico la cuestión de lo que es el tiempo, pues considero que se debe conocer lo que la ciencia puede desvelar sobre el mismo antes de determinar cuáles son los planteamientos filosóficos que se le han de aplicar. De enfocar el tema de cualquier otra manera, el esfuerzo intelectual será improductivo. Así, sería inútil filosofar sobre el origen de los tiempos ignorando lo que la física y la cosmología dicen al respecto.

Desde el inicio de la revolución científica del siglo XVI, la ciencia ha ido apropiándose de muchos de los temas tradicionalmente pertenecientes a la filosofía. Así es como, para los griegos de la época clásica, era una actividad filosófica la de indagar la naturaleza del mundo físico. Platón trató extensamente de cosmología en su diálogo Timeo, mientras que Aristóteles escribió sobre los fenómenos naturales en obras como Física y Meteorología. Incluso en el siglo XVIII, el filósofo alemán Emmanuel Kant especuló sobre la naturaleza del espacio. Hoy día, todas estas cosas son objeto de estudio de las ciencias: la física, la química y la cosmología.

Aunque los filósofos todavía sigan tratando de algunos asuntos relacionados con el tiempo, la ciencia, está haciendo suyo el tema de lo que es el tiempo. En el ámbito de la física, el desarrollo de disciplinas como la mecánica, la termodinámica y la electrodinámica ha permitido plantear importantes preguntas y obtener al menos una respuesta provisional. En el campo de la cosmología, la teoría del «big bang» sobre el origen del Universo ha abierto el campo a las especulaciones científicas en torno a cómo se inició el tiempo. También es evidente que las teorías de Einstein sobre la relatividad han dado paso a los experimentos y a los análisis teóricos directamente relacionados con la naturaleza del espacio y del tiempo.

El siglo XX ha sido una época de grandes descubrimientos de la física. Por eso estuve a punto de empezar por tratar algunos de los avances que se situaron poco después de 1900, como, en particular, la teoría de la relatividad de Einstein, propuesta en 1905. Sin embargo, concluí que no era esa la mejor forma. Después de todo, no partieron de Einstein las ideas modernas sobre el tiempo. Por el contrario, fueron evolucionando lentamente, a través de los siglos, y es más fácil comprender el porqué de la visión actual que tenemos del tiempo conociendo primero la forma en que las ideas fueron progresando, y los diversos caminos que siguieron quienes reflexionaron sobre ello.

Existen diferencias relevantes entre el tema del tiempo y temas científicos como el de la relatividad, o la teoría de las partículas subatómicas. La relatividad se descubrió durante el primer decenio de nuestro siglo. Todavía es más reciente el descubrimiento de que los átomos no son los constituyentes básicos de la materia, ya que están hechos de partículas aún más pequeñas. Por otra parte, el tiempo es un asunto sobre el que la humanidad viene meditando desde hace milenios, quizá desde el mismo comienzo de la civilización.

Durante siglos, se ha producido una interacción continua entre la visión filosófica, las tendencias sociales y las ideas científicas sobre el tiempo. Por consiguiente, comprenderemos mejor el concepto moderno de tiempo viendo el cómo y el porqué de dichas interacciones.

En épocas pasadas, la noción del tiempo ha sido, en general, totalmente diferente de lo que es hoy. No sólo los filósofos y los eruditos comprendían el tiempo de diferente manera a como lo vemos nosotros, sino que debía responder a lo que el sentido común dictara respecto a lo que era la realidad. Pero lo que se consideraba de «sentido común» hace unos dos mil años poca relación tiene con lo que se considera de «sentido común» hoy día. Por ejemplo, la mayor parte de las civilizaciones antiguas no compartían nuestra visión del tiempo, como un continuo lineal que se prolonga en un futuro indefinido. Los pueblos antiguos creían que el tiempo era de carácter cíclico, o sea, que los acontecimientos históricos seguían unos esquemas cíclicos, reflejándose dichos esquemas en la propia naturaleza del tiempo.

En una civilización tras otra, nos encontramos con mitos que anuncian la destrucción final del mundo, tras lo cual habrá una nueva creación que dará origen a un nuevo ciclo. Según estos mitos, el mundo experimentará unos esquemas de acontecimientos condenados a repetirse indefinidamente. Algunos de estos ciclos eran francamente complejos. Así, en la antigua Grecia, se creía que el tiempo seguía un proceso llamado el Gran Año. El destino del mundo era ser destruido por el hielo durante el Gran Invierno, y por el fuego durante el Gran Verano. Después de cada cataclismo, se crearía un nuevo mundo, y la humanidad volvería a progresar atravesando las edades del oro, de la plata, del bronce y del hierro.

Algunos, como los seguidores del filósofo Pitágoras, los estoicos, y parte de los filósofos neoplatónicos creían en la doctrina del eterno retorno. Pensaban que los seres humanos estaban destinados a volver a nacer en ciclos futuros, y que los mismos acontecimientos (o similares) se reproducirían una y otra vez. Algunos creían que habría otra Atenas, otro Sócrates, y otra condena a beber la cicuta. Naturalmente, no todos aceptaban esas ideas. Pero incluso Aristóteles, que rechazó la doctrina del eterno retorno, creía que la historia seguía unos esquemas cíclicos, y que, en cierto sentido, se podía considerar el tiempo circular.

En cuanto a nosotros, consideramos generalmente el tiempo como algo que se prolonga en línea recta hacia el pasado y el futuro. No creemos que el tiempo sea circular, ni que vuelva a producirse otra época como la de la Grecia clásica, y tampoco que Sócrates (o alguien similar a él) vaya a nacer de nuevo. Sí es verdad que permanecen rastros de la idea de ciclo en nuestro pensamiento. Por ejemplo, hay quien percibe ciclos en la historia, o quien defiende teorías cíclicas en la Bolsa. Pero, en conjunto, tenemos tendencia a considerar el tiempo como una continuidad. Esa forma de pensar la hemos heredado del cristianismo. Los primeros autores cristianos recalcaron la importancia de unos hechos históricos que nunca volverían a repetirse. Para ellos, la historia no evolucionaba por ciclos, sino que la Creación se había producido en un momento determinado del tiempo. Cristo sólo murió en la cruz una vez, y sólo una vez también resucitó de entre los muertos. Finalmente, en algún momento del futuro, se cumplirían los propósitos de Dios, y pondría fin al mundo de una manera definitiva.

El concepto lineal del tiempo ha obrado un profundo efecto sobre el pensamiento occidental. Sin él, sería difícil concebir la idea de progreso, o hablar de evolución cósmica o biológica. Después de todo, sería imposible realizar progreso alguno si los mismos esquemas hubieran de repetirse una y otra vez. Además, de existir una evolución, debería ser de un tipo que se repitiera indefinidamente. Y un cosmos que se repita a sí mismo es fundamentalmente diferente del que se haya creado en un momento determinado del tiempo, y vaya evolucionando hasta alcanzar su estado actual.

El paso de una visión cíclica a una visión lineal del tiempo no es el único cambio profundo que ha ocurrido. Por ejemplo, hoy día pensamos en el tiempo como una cantidad abstracta que puede dividirse en horas, minutos y segundos. Pero no es así como se vio durante la mayor parte de la historia. Hasta el final de la época medieval, el tiempo se expresaba en los ciclos de la naturaleza y de la vida diaria. Si se dividía el día en horas, dichas horas no eran todas de la misma longitud. Había doce horas de luz de día y doce horas de oscuridad. De esta forma, las horas del día y de la noche variaban de longitud durante el año, igualándose sólo durante los equinoccios de primavera y otoño. Tampoco, por supuesto, importaba mucho la duración de las horas, ya que la unidad de trabajo no era la hora, sino el día. El trabajo se empezaba con el alba y se concluía a la caída del sol. Sólo los monjes de los monasterios necesitaban saber la hora del día, para dedicarse a sus oraciones.

Pero cuando se generalizaron los relojes durante el siglo XIV, tomó consistencia el paso del tiempo. Gradualmente, se llegó a captar éste de una forma que hubiera sido inconcebible en épocas anteriores. Fue entonces cuando se dividieron las horas en minutos y segundos, y cuando los trabajadores de las ciudades empezaron a iniciar e interrumpir la labor a horas determinadas. El tiempo se iba transformando lentamente en una cantidad abstracta con existencia propia.

La recién descubierta posibilidad de pensar en el tiempo como algo abstracto fue uno de los factores que precipitó la revolución científica del siglo XVI. Se puede decir que la física moderna nace con los estudios de Galileo sobre el movimiento, pero éste no hubiera podido hacer sus descubrimientos en ese campo de no haberse dado cuenta de que el tiempo constituía una herramienta para analizar el movimiento de los cuerpos físicos. No es exagerado afirmar que fue Galileo quien descubrió que el tiempo era una cantidad física.

Galileo elaboró, el primero, las leyes que rigen el movimiento de los cuerpos en caída libre, tras comprender que la aceleración de esos cuerpos tenía que ver con el tiempo, y que su velocidad se incrementaba por igual durante cada segundo de su caída. Éste fue ciertamente un descubrimiento importante. Sus antecesores, en general, no se habían preocupado mucho de la función del tiempo, y se inclinaban a pensar que la velocidad de un objeto al caer debía ser constante, o que la velocidad era proporcional a la distancia recorrida, no al tiempo.

En el capítulo 3 analizaremos con más detenimiento los descubrimientos de Galileo. De momento, basta con señalar que su hallazgo de que el tiempo era una herramienta útil para analizar el mundo físico abrió una vía que la ciencia aún sigue. No existe prácticamente ningún campo de la física que no esté relacionado con el tiempo. Así, los físicos hablan de los miles de millones de años que tomó la evolución del Universo, y de las diminutas fracciones de segundo que representa la vida de las partículas sub nucleares inestables. El cálculo infinitesimal, la herramienta matemática que se utiliza en todos los campos de la física, se inventó en un principio para que los sabios dispusieran de un modo de estudiar la evolución física de los sistemas en el tiempo.

En los capítulos siguientes, me adentraré en la evolución del concepto que se ha ido teniendo del tiempo. No se hubiera llegado a la ciencia moderna de no haberse producido esos cambios de enfoque. Realmente, la ciencia se desarrolló en la cultura occidental, y fue sólo ésta la que contempló la idea de un tiempo abstracto, lineal.

A medida que los sabios iban intentando comprender la naturaleza del tiempo, iban surgiendo tantas incógnitas como respuestas hallaban. Cuanto más han sabido del tiempo, más difícil se ha vuelto el tema. Por ejemplo, los físicos han descubierto cuatro diferentes «flechas» que pueden usarse para definir la dirección del tiempo. Pero nadie sabe con seguridad de qué forma las diferentes flechas del tiempo están relacionadas una con otra, y tampoco cómo enfocar esa quinta flecha que es la percepción psicológica del tiempo. Se ha descubierto que, en ciertas circunstancias, se puede especular sobre el retroceso del tiempo o sobre objetos que viajaran hacia atrás en el tiempo. Los físicos se han encontrado con que el tiempo que han experimentado observadores diferentes no siempre pueden sincronizarlo entre sí. Y, sin embargo existe un tiempo cósmico que caracteriza al conjunto del Universo. Los científicos disponen de pruebas que demuestran la existencia de una interacción subatómica rara y única que actúa de forma diferente a cualquier otra con respecto al tiempo. Ignoran, no obstante, la importancia que puede tener este hecho, si la tiene. Finalmente, han especulado sobre el principio del tiempo, concluyendo que, en realidad, no sabe nadie si se trata de un fenómeno lineal que tuvo un inicio, o si resultará, al final, que es de carácter cíclico.

Con esto, no. pretendo insinuar que no se sabe lo que es el tiempo. Por el contrario, quiero recordar que cuando se admite que un tema está lleno de incógnitas suele ser señal de haber alcanzado cierto grado de conocimiento del mismo. Por mi parte, considero que quien cree que plantea una incógnita saber lo que es el tiempo tiene un conocimiento mucho más amplio de la cuestión que el que piensa que tiempo es «eso que mide el reloj».

Capítulo II
Tiempo cíclico y tiempo lineal

Los antiguos babilonios eran unos magníficos astrónomos que, además, fueron registrando sus observaciones durante siglos. Ya en 1800 a.C. disponían de catálogos de las estrellas y tenían constancia de los movimientos de los planetas. A mediados del siglo VIII a.C., compilaban los datos que iban observando en el cielo en fechas determinadas, y aplicaban técnicas matemáticas tan complejas como las que usaban los astrónomos occidentales en la época de Copérnico. Incluso después de que Alejandro Magno subyugara a los babilonios en 331 a.C., éstos siguieron perfeccionando sus métodos de observación, consiguiendo unos resultados sorprendentes. Durante la última parte del siglo IV a.C., el astrónomo babilonio Kidinnu calculó el movimiento del Sol con una precisión que no se superó hasta el siglo XX.

Los babilonios llegaron a semejantes resultados sin disponer de telescopios, ni de relojes precisos, y sin ninguno de los instrumentos de medición que se encuentran en los observatorios actuales. Se valieron, en vez de ello, de las observaciones astronómicas que se habían ido registrando durante centenares de años, y sus resultados fueron precisos por haberlas llevado a cabo regularmente. De esta forma, aunque las mediciones en sí contuvieran inexactitudes, su efecto fue mínimo. Extendiéndose a períodos de centenares de años, los errores tienden a anularse por compensación.

No debemos creer que los babilonios estudiaban lo que acontecía en el cielo por mera curiosidad intelectual. No propusieron ninguna teoría que pretendiera explicar los movimientos que observaban en los cielos nocturnos. Sólo les preocupaba anotar lo que ocurría, y predecir eclipses, conjunciones y retrogradaciones. Tampoco les interesaba averiguar por qué se comportaban como lo hacían los objetos celestes. Tan sólo querían saber lo que había ocurrido en el pasado, y elaborar técnicas que les permitieran prever los acontecimientos que se observarían en el futuro.

Los babilonios pensaban que los cielos eran divinos. Tenían identificados a los planetas con los dioses babilonios, y creían que escrutando sus movimientos se podían adivinar las intenciones de los dioses. Así, los astrónomos babilonios, más que científicos, eran unos sacerdotes que indagaban, e intentaban interpretar, los augurios celestiales.

Tanto los babilonios como las demás civilizaciones mesopotámicas antiguas practicaban profusamente las artes de adivinación. Desde tiempos inmemoriales, los sacerdotes han intentado predecir los hechos futuros estudiando las vísceras de los animales, u observando los dibujos que se formaban cuando se echaba aceite en el agua, o interpretando hechos de tan mal agüero como el nacimiento de animales deformes. Estaban seguros de que las fortunas de reyes y Estados podían adivinarse comunicando con los seres y las fuerzas sobrenaturales.

En algunas ocasiones, los reyes mesopotámicos no se fiaban de las predicciones de sus adivinos, pero cuando así ocurría, su escepticismo solía deberse la mayor parte de las veces a las dudas que albergaban en cuanto a la honestidad profesional de éstos. No dudaban de que un rey debía recibir oráculos de los dioses, y llevar los asuntos de Estado de acuerdo con ellos.

Así es como Mesopotamia se transformó en el lugar de nacimiento de la astrología. Al principio, los adivinos sólo intentaban interpretar los presagios del cielo, pero a medida que se fueron perfeccionando los métodos astronómicos de los babilonios, fueron tomando mayor importancia la predicción de los movimientos de los planetas y la de los eclipses. La adivinación astrológica se había ya vuelto preponderante en la época de la dinastía caldea (entre 625 y 539 a.C.). Los caldeos consideraron que los acontecimientos celestes podían utilizarse no sólo para prever la fortuna de los reyes y de las naciones, sino también el destino de cualquier individuo.

Posiblemente, los caldeos no hayan hecho horóscopos, ya que esa clase de astrología parece haberse desarrollado más adelante, durante el siglo V a.C., después de que los persas hubieran sometido a Babilonia. Pero los astrónomos caldeos sí partían de la idea de que los acontecimientos terrestres seguían un esquema cíclico. Después de todo, las estrellas y los planetas se movían en función de ciclos. De ahí que fuera muy lógico pensar que debían observarse ciclos semejantes en la Tierra.

Según escritos antiguos, en algún momento comprendido entre 290 y 270 a.C., el sacerdote babilónico Beroso habría emigrado a la isla griega de Cos, donde impartió enseñanza de la filosofía babilónica. El filósofo romano Séneca, que vivió unos trescientos años después, relata que Beroso expuso una doctrina sobre el Gran Año. Según parece, éste enseñaba que el mundo sufriría periódicamente su total destrucción, para volver a ser creado, a intervalos periódicos, cuando todas las estrellas se agolparan en la constelación de Cáncer. Cada nueva creación marcaría el inicio de un nuevo Gran Año, durante el cual los acontecimientos que se produjeran en la Tierra serían paralelos a los del Gran Año inmediatamente anterior. Según dicha doctrina, los sucesos terrestres mostraban unos esquemas cíclicos punto por punto paralelos a los que se leían en el cielo.

Ignoramos cuál es la fiabilidad del relato que hace Séneca de las creencias en vigor durante la dinastía caldea. Cuesta creer, sobre todo, que los caldeos pensaran que las estrellas se iban a agolpar finalmente en una sección del cielo. Con toda seguridad, tenían suficientes conocimientos de astronomía como para saber que sólo los planetas cambiaban de posición relativa.

No obstante, es muy probable que los caldeos creyeran en algo similar al Gran Año. En los escritos griegos de la época clásica existen numerosas referencias a este concepto, y es probable que lo tomaran de los caldeos, quienes constituyeron su mayor fuente de conocimientos astronómicos.

Durante las épocas clásicas, las vías de comercio que partían de Mesopotamia llevaban a los puertos griegos del Mediterráneo. Por esas rutas no circulaban sólo las mercancías, sino también los conocimientos, pudiéndose así familiarizar los griegos con la cultura babilónica. Los griegos utilizaron los datos astronómicos registrados por los babilonios, como lo demuestran las referencias ocasionales de sus escritos a la astrología de los caldeos. Cabe pues deducir que lo que llevó a los griegos a especular sobre el Gran Año debieron ser sus contactos con la civilización mesopotámica.

En su diálogo Timeo, Platón da una definición del Gran Año que parece algo más razonable que la de Séneca. Según Platón, el Gran Año tocaría a su fin cuando todos los planetas volvieran a la posición que habían ocupado en un tiempo remoto. Entonces se iniciaría otro Gran Año, que, a su vez, culminaría cuando los planetas hubieran vuelto a su posición inicial. Platón no especificó la duración del Gran Año. Los comentaristas la situaron, tiempo después, en unos 36.000 años.

Platón no dice que se produzcan cataclismos cósmicos al final del Gran Año. Tampoco pretende que éste tenga un principio o un final definidos. Después de todo, la posición de los planetas sigue siendo la misma que ocuparan el Gran Año anterior en todo momento. Así, los planetas se asimilan a un reloj perfectamente preciso.

Por supuesto que en tiempos de Platón no existía nada similar a un reloj mecánico. Sin embargo, no por eso resulta descabellado comparar su visión del movimiento de los planetas con el de las manecillas del reloj: cada doce horas, se vuelve a la misma posición, sin que haya ni principio ni final, puesto que el ciclo de doce horas puede volverse a iniciar desde cualquier punto.

Para Platón, el Gran Año no reviste el mismo significado que para el sacerdote Beroso y quienes, como Séneca, propagaron sus doctrinas. A Platón le interesaba menos exponer una teoría cíclica de los sucesos que indagar en la propia naturaleza del tiempo. A su forma de ver, el movimiento de los planetas era tiempo. El tiempo existió a la vez que los cielos, no podía existir sin ellos. Los cielos eran «la imagen cambiante de la eternidad».

En su diálogo Timeo, Platón nos dice:

Así es como nació el tiempo junto con los cielos, de tal forma que, habiendo surgido a la vez, habrían de desaparecer juntos si tal fuera su destino: y se hizo tan similar como fuera posible a la eternidad, que constituyó su modelo.

Y:

Son pocos los hombres que son conscientes de los períodos de (los planetas)... En realidad, son casi inconscientes de que sus movimientos errantes son tiempo, al dejarles perplejos su gran número y su asombrosa complejidad. No por eso deja de poderse percibir con claridad que el número temporal perfecto y el año perfecto (Gran Año) llegan a su culminación cuando las ocho órbitas han cumplido sus revoluciones totales con relación a las demás, medidas por el movimiento regular de su órbita.

No sólo Platón defendía la idea de que el tiempo es inseparable de los movimientos periódicos que se observan en el cielo, puesto que acompaña a todo el pensamiento griego. Siempre se asocia el tiempo al movimiento circular, por lo que se suele imaginar frecuentemente el tiempo en forma de círculo. Cuando se completa el Gran Año, no sólo los planetas vuelven a su punto de partida, sino que el tiempo lo hace también.

A veces, se ha asociado la noción del tiempo circular a la doctrina del eterno retorno. Tanto los pitagóricos, como los estoicos y los filósofos neoplatónicos, que elaboraron sus doctrinas partiendo de las de Platón, después de la muerte de éste, creían que volverían a nacer los mismos individuos, y que los mismos acontecimientos, o parecidos, se repetirían una y otra vez. Aunque no todos sostuvieran esta creencia, hasta quienes se oponían a ella tenían tendencia a pensar en el tiempo como en algo cíclico, y veían esquemas cíclicos en el mundo circundante.

Aristóteles, sostenía que no todas las cosas volvían sobre sí mismas de la misma forma. Consideraba, en particular, que la existencia de los seres humanos seguía un esquema lineal, no cíclico, «porque aunque tu generación presuponga la de tu padre», decía Aristóteles en Sobre la generación y la corrupción, «la suya no presupone la tuya». Sin embargo, incluso Aristóteles hablaba de la manera de pensar de los seres humanos como de algo cíclico que se repetía un infinito número de veces. En realidad, él también creía que el tiempo era circular. En su Física nos dice el propio Aristóteles que: «si un solo y mismo movimiento se reproduce alguna vez, será un solo y mismo momento». En otro pasaje del mismo libro, explica con claridad:

Por eso también es por lo que se piensa que el tiempo es movimiento de la esfera, es decir porque los demás movimientos se miden así, y el tiempo, por ese movimiento. También eso explica el dicho corriente de que los asuntos humanos forman un círculo, y que hay un círculo en todas las demás cosas que tienen un movimiento natural, que se producen y pasan.

Esto ocurre porque a todas las demás cosas se las distingue por el tiempo y tienen un inicio y un final como si estuvieran sometidas a un ciclo; hasta el tiempo se ve como un círculo.

En sus Problemas, Aristóteles llega incluso a apuntar que pudiéramos estar viviendo antes o después de la época de Troya: «De ser un círculo la vida humana, y al no tener el círculo ni principio ni fin, no tenemos por qué ser “anteriores” a quienes vivieron en tiempos de Troya, ni ser ellos “anteriores” a nosotros por estar más cerca del principio.» El caso es que puesto que el círculo no tiene principio ni final, no tienen un sentido absoluto el «antes» ni el «después».

Esta forma de pensar puede parecer extraña hoy día.

Dan ganas de preguntarse: « ¿Pero cómo puede ser el tiempo circular cuando los mismos acontecimientos no se repiten indefinidamente?» Quizá debiéramos comparar el concepto griego de tiempo con nuestra noción de «hora del día». Decimos que vamos a trabajar «a la misma hora» cada día, o que nos vamos a la cama o nos levantamos a una «hora» determinada. Para entender el punto de vista de los griegos, debemos hacer el esfuerzo de imaginar que ese concepto se extiende a sucesos que abarcaron miles de años. Así, para los griegos, todo el Cosmos, y no sólo la alternancia del día y de la noche, presenta un esquema cíclico.

Por supuesto, algunos de estos griegos consideraban que el tiempo era circular en el sentido de que se repetían exactamente los mismos hechos indefinidamente. Esta fue una de las doctrinas del estoicismo, una escuela filosófica fundada por Zenón de Citio (que no tiene nada que ver con Zenón de Elea, el autor de las famosas aporías) en el siglo III a.C.

Los estoicos llegaron a la conclusión natural de que el tiempo circular implicaba un rígido determinismo. Puesto que lo que ocurriría en el futuro no sería sino una repetición de lo que ya había sucedido en el pasado, los seres humanos eran incapaces de influir en el transcurso de los acontecimientos. Según los estoicos, sólo la voluntad humana era libre. Aunque no se pudiera alterar el curso de la vida previsto por el destino, quedaba la posibilidad de cultivar una voluntad virtuosa y tomar una actitud resignada. Según Marco Aurelio, emperador romano y filósofo estoico, el alma virtuosa podía «aspirar a la eternidad, abrazar y comprender las grandes renovaciones cíclicas de la creación, y percibir así que las futuras generaciones no habrían de presenciar nada nuevo».

Los griegos y los romanos no fueron los únicos pueblos antiguos que consideraban que el tiempo era cíclico. La filosofía india del tiempo de los Vedas (entre 1500 y 600 a.C.) concebía los ciclos dentro de otros ciclos. El más corto era una edad, calculada en unos 360 años humanos, mientras que el más largo correspondía a las vidas de los dioses, que se estimaban en cerca de 300 billones de años. Pero el tiempo no se agotaba, incluso después de pasar esos billones de años. Los propios dioses morían y volvían a nacer, y los ciclos cósmicos de creación y destrucción se prolongaban eternamente.

Los antiguos chinos se imaginaban el Cosmos como una interacción cíclica entre el yin y el yang. Cuando la astronomía china avanzó hasta el punto de poder determinar períodos planetarios, se calculó que el mundo tenía un ciclo de 23.639 años. Los aztecas, por su lado, fueron algo más parcos al estimar el tiempo. Calcularon un ciclo de 52 años, al cabo del cual creían que el mundo corría el peligro de ser destruido. Esto ocurría unas veces sí, y otras, no. En caso de suceder, el mundo pasaba a una nueva edad, o «Sol».

Los mayas creían en el tiempo cíclico y también en las catástrofes cíclicas Cuando, en 1698, los miembros de la tribu maya Itzá huyeron de un grupo de invasores españoles fue porque se pensaron que había llegado el momento de la catástrofe. No fue casualidad el que los españoles decidieran someter a los Itzá ese mismo año. Los misioneros habían visitado esa tribu unos ochenta años antes y se enteraron de la fecha para la que estaba previsto el final de aquel ciclo.

También formó parte de la mitología nórdica la creencia en los ciclos del mundo y en la destrucción y nueva creación periódicas del Cosmos. Según la colección de mitos que se conoce con el nombre de los Edda en prosa, el Cielo y la Tierra quedarían destruidos al producirse el Ragnarok («Crepúsculo de los dioses»), aunque eso no supondría el final de los tiempos, ya que el mundo estaba destinado a ser creado de nuevo. Según estos mitos, habría un nuevo cielo y una nueva tierra, así como otros dioses y una nueva raza humana.

El tiempo siempre se ha regido por la observación de acontecimientos cíclicos como la salida y la puesta del Sol, las fases de la Luna, y la alternancia de las estaciones. En cuanto el hombre comenzó a observar las estrellas, se dio cuenta de que también se producían movimientos periódicos en los cielos. Cuando se tuvo noción del «tiempo», no fue sino natural referirlo a esos acontecimientos periódicos. Puesto que la idea del tiempo cíclico aparece en tantas culturas, debe concluirse que hubiera parecido "hasta ilógico considerarlo como un fenómeno lineal.

La noción del tiempo lineal sé introdujo en el pensamiento occidental con el judaísmo y el cristianismo. El judaísmo fue la única religión del mundo antiguo que se centrara en acontecimientos históricos únicos, dándose por sentado que habían acaecido en determinados puntos del tiempo. Así, el éxodo de Egipto sólo había ocurrido una vez, y era un hecho específico de gran importancia religiosa. Del mismo modo, Dios hizo promesas a Abraham en una determinada circunstancia, y le entregó las Leyes a Moisés en un momento definido. En el antiguo judaísmo, la historia era el contexto en el que se cumplían los propósitos de Dios, y hubiera sido una verdadera blasfemia pretender que los sucesos históricos se repetían ciclo tras ciclo.

No les era ajeno a los antiguos judíos el concepto de tiempo cíclico, puesto que leemos en el libro del Eclesiastés: «Lo que ha sido es lo que será; y lo que se ha hecho, lo que se hará; y no hay nada nuevo bajo el Sol.» Sin embargo, no era frecuente encontrar referencias a semejantes ideas en el Antiguo Testamento. Más bien se incidía en la realización de los designios de Dios en un tiempo lineal que partía de la Creación.

El cristianismo llevó incluso a un mayor extremo el concepto del tiempo lineal. El hecho primordial de la doctrina cristiana eran la muerte y resurrección de Cristo, y se privaría de sentido la redención de suponer que habían ocurrido hechos similares en numerosas ocasiones en ciclos cósmicos diferentes. «Y se le pidió entonces a Cristo que cargara con los pecados de muchos», dice san Pablo en su Epístola a los hebreos. Y se lee en 1 Pedro 3:18: «Porque Cristo también sufrió en una ocasión por los pecados.»

Según la doctrina cristiana, el mundo fue creado en un determinado momento, y se extinguiría en una fecha indefinida. El mundo, no era eterno, como lo creían los griegos, sino que tenía un comienzo y tendría un fin.

La naturaleza del tiempo fue un tema por el que se preocuparon algunos de los primeros padres de la Iglesia, especialmente san Agustín; que fue obispo de Hipona, en el norte de África, en 396 a C. En la época de san Agustín, la noción cíclica de tiempo era algo bien conocido en el mundo romano, y los filósofos neoplatónicos exponían la doctrina del eterno retorno. Como estas ideas eran incompatibles con la doctrina cristiana, era obvio que se tenían que combatir. En su Ciudad de Dios, san Agustín acusó a la doctrina del tiempo cíclico de haber sido promulgada por unos «sabios engañosos y engañados». Dicha doctrina no sólo era insensata, también era impía. Al igual que san Pablo, san Agustín se esmeró en recalcar que «Dios murió un día por nuestros pecados; y, tras resucitar de entre los muertos, no volvió a morir».

También rechazó las doctrinas ligadas a la astrología. Aunque parezca a veces que se interesaba más por el determinismo astrológico que por la asociación ya antigua entre la astrología y las ideas relacionadas con el tiempo cíclico y el Gran Año, debía ser consciente, sin lugar a dudas, de que existían esas incidencias entre ambas. No era probablemente ninguna casualidad que la astrología experimentara un nuevo auge entre los romanos (poco caso le hicieron los griegos) aproximadamente en la misma época en que se difundieron las ideas de los estoicos y los neoplatónicos.

La noción de tiempo cíclico no desapareció por completo a pesar de que la Iglesia se opusiera violentamente a ella, y las especulaciones sobre los ciclos cósmicos se prolongaron hasta bien avanzada la Edad Media. También se ha de suponer que fue tema de discusión bastante frecuente durante el siglo XIII pues en 1277, Étienne Templer, obispo de París, citó ese concepto en sexto lugar, dentro de los 219 que, según él, debían condenarse por heréticos.

Pero la herejía permaneció: el Gran Año seguía siendo motivo de gran discusión durante el Renacimiento. Incluso en una época tan cercana a nosotros como el siglo XIX, el filósofo alemán Friederich Nietzsche defendió la doctrina del eterno retorno y el tiempo cíclico. Argüía Nietzsche que si el Universo era finito, y el tiempo era infinito, era inevitable que se repitieran una y otra vez los mismos acontecimientos. Aunque no pretendiera, como los griegos, que el tiempo en sí era circular, sí creía que con el tiempo los hechos habían de repetirse.

Los primeros padres de la Iglesia ahondaron con bastante profundidad en el concepto del tiempo lineal. Así, según san Agustín, la historia se dividía en seis fases, por analogía con los seis días de la creación. La primera fase se iniciaba con la creación y acababa con el diluvio. La segunda empezaba con Noé y acababa con Abraham. La tercera abarcaba desde Abraham hasta David, la cuarta concluía con la cautividad de Babilonia, y la quinta, con el nacimiento de Cristo. La última era, la final, partía del nacimiento de Cristo, y se proseguiría hasta el juicio final, cuando Dios pusiera fin a los tiempos.

Este fue el esquema más o menos ortodoxo que prevaleció durante la Edad Media. Por supuesto, había variantes del mismo. Por ejemplo, algunos teólogos dividían la historia en cuatro, y no seis períodos, los cuales correspondían a los imperios babilónico, persa, macedonio y romano. Sin embargo, pocos eran quienes dudaran de que estaban viviendo en la última edad del mundo. Era un hecho generalmente reconocido que el nacimiento de Cristo suponía el inicio de la «vejez» del mundo.

Ninguno de ellos sabía cuál era la fecha en que se produciría un segundo advenimiento, aunque todos coincidían en que no ocurriría en un futuro incierto y remoto, y en que la humanidad estaba agotando sus últimos días de existencia. Por eso, la cultura medieval se desentendía de cualquier idea de progreso social o intelectual: era limitado el tiempo de que todavía se podía disponer, y, de todas formas, el mundo era tan sólo un lugar de paso. Así, el objetivo del hombre no debía ser mejorar sus condiciones de vida en este mundo, sino prepararse para la eternidad.

Quizá estas ideas tuvieran algo que ver con la incongruencia que a veces caracterizó la vida durante la Edad Media. Parece ser que los hombres y mujeres que vivieron en esa época llegaron a extremos mucho más exagerados que los de otros tiempos. Los poderosos acostumbraban vestir de forma extravagante, organizaban fiestas fastuosas, y daban rienda suelta a los placeres. Tampoco vacilaban en caer en excesos emotivos. Aunque, en principio, se adherían a doctrinas alejadas de las cosas de este mundo, se comportaban como si necesitaran apurar al máximo el poco tiempo que les quedaba.

Incluso la gente corriente se dejaba llevar por los excesos hasta donde podía. Y cuando los sacerdotes que iban de pueblo en pueblo les hablaban del juicio final, del infierno o de la pasión de Jesucristo, provocaban a veces sollozos tan amargos que tenían que interrumpir el sermón hasta que remitiera el llanto de los fieles. Estas intensas expresiones de emoción no necesariamente estaban vinculadas con la religión. Así, hubo una ocasión en la que los ciudadanos de Mons, en el suroeste de Bélgica, se compraron un bribón para disfrutar la experiencia de descuartizarlo. Según un observador de esa época, este espectáculo levantó tales ánimos en quienes lo presenciaron que la alegría «fue mayor que si un nuevo Santo Cuerpo hubiera resucitado de entre los muertos».

Y luego estaban los santos, que, de vez en cuando, mezclaban cenizas con su comida o ponían su virtud a prueba durmiendo junto a jóvenes mujeres. En la época medieval, se veneraban las reliquias religiosas sin el menor discernimiento, ya fueran verdaderas o falsas. Se ha dicho que en la Europa de la Edad Media había suficientes astillas de la Santa Cruz como para construir una flota de barcos, de haberlas podido reunir. También los cadáveres constituían valiosas reliquias. Cuando santo Tomás de Aquino falleció, algunos de los monjes de su monasterio decapitaron el cuerpo e hirvieron la cabeza para conservarla como reliquia. En cierta ocasión, el rey Carlos VI de Francia repartió algunos de los huesos de su antecesor, san Luis, con motivo de una fiesta. Incluso ocurría que los cazadores de reliquias no estaban dispuestos a esperar a que muriera un santo. Así es como, hacia el año 1000, unos campesinos de Umbría intentaron asesinar a san Romualdo, el ermitaño, para hacerse con sus huesos.

Ya fuera porque estuvieran convencidos de que el mundo llegaba a su fin, o por cualquier otro motivo, lo cierto es que los pueblos de la Edad Media tenían un concepto diferente del tiempo que nosotros. Aunque el tiempo lineal del cristianismo había sustituido al tiempo cíclico de la antigüedad, el tiempo no era algo de lo que se dispusiera en abundancia. Durante la Edad Media, se creía que era extremadamente limitado el intervalo de tiempo que mediaba entre la creación y el segundo advenimiento. Algunos lo calculaban en unos seis mil años, mientras que otros afirmaban no saber con exactitud cuánto era el tiempo asignado. No obstante, todos tenían muy claro que, cualquiera que fuera el tiempo que Dios había estipulado, el tiempo terrenal era insignificante ante la eternidad.

El sentido medieval del tiempo difería también del nuestro a otro respecto. Durante la Edad Media, no se tenía individualmente la misma conciencia del tiempo que tenemos ahora. La gente no llevaba relojes que les señalaran el momento dividido en horas, minutos y segundos, ni quedaban citados a horas determinadas. Empezaban el trabajo con el alba, y no a la misma hora de cada día durante todo el año. Por eso, durante la mayor parte de la época medieval, casi toda la gente ignoró siempre la hora que era.

No se inventó el reloj mecánico hasta el siglo XIII. Al principio, se le consideró casi como una mera curiosidad. Quienes necesitaban saber aproximadamente qué hora del día era, como los monjes, que debían rezar sus oraciones a horas determinadas, seguían fiándose de los relojes de agua y de sol.

En el siglo XIV, se pudo alcanzar mayor precisión gracias al invento del escape, un dispositivo que regía los movimientos del reloj mecánico. Ya se podían construir relojes capaces de alcanzar una precisión que se situaba entre los quince o treinta minutos por día. Se fueron extendiendo los relojes públicos y, alrededor del año 1345, se dividía por primera vez la hora en minutos y segundos.

Sólo muy a finales de la época medieval existió cierta probabilidad de que la población, en general, supiera lo que era un reloj. Lo que marcaba la vida no era el tiempo abstracto de las horas ni de los minutos, sino el ritmo de la vida diaria y de las estaciones.

El día de trabajo empezaba con el alba, y acababa con la caída del Sol, y nadie se quejaba de que éste fuera más largo al principio del verano que en cualquier otro momento del año. Después de todo, así lo había establecido Dios, en su inescrutable sabiduría. Además, aunque la sucesión de las estaciones de la agricultura y las festividades de la Iglesia recordaran indefectiblemente el paso del año, pocos eran los campesinos que supieran en qué año vivían. Cabe además suponer que muchos serían los miembros de la aristocracia que tampoco lo sabrían. Era esa una época en la que sólo los clérigos sabían leer y escribir.

Capítulo III
Tiempo abstracto

La invención y el perfeccionamiento del reloj mecánico fue uno de los avances tecnológicos más importantes que se produjo en la sociedad occidental. Como lo señaló el historiador y sociólogo Lewis Mumford, el reloj fue lo que permitió disociar el tiempo de los “ciclos” naturales «y contribuyó a que se tuviera conciencia de un mundo independiente, medible en secuencias matemáticas», algo/ tan necesario para que progresara la ciencia. El reloj dio mayor valor al tiempo terrenal, a la vez que disminuía la preocupación medieval por la eternidad. Éste aparato también transformó el tiempo en una entidad abstracta con existencia propia, formada por una secuencia de horas, minutos y segundos.

Aunque ya se construyeran relojes durante la segunda mitad del siglo XIII, los primeros aparatos no eran muy precisos, y, la mitad de las veces, se adelantaban o se atrasaban horas durante el curso del día. El fallo residía en que nadie había inventado la forma de regular la velocidad del movimiento del mecanismo. Los relojeros sabían muy bien que con unas pesas se podían accionar los mecanismos del reloj, y también eran capaces de hacer ruedas dentadas, pero, como dijo, Richard, el Inglés, en 1271, los fabricantes de relojes no conseguían «perfeccionar debidamente su trabajo».

La dificultad de regular el movimiento del reloj se resolvió aproximadamente hacia el final del siglo, cuando se inventó el escape de rueda catalina. Este mecanismo controlaba la velocidad del movimiento del reloj. Se componía de un eje de volante que regía el movimiento de una rueda dentada, y de una varilla oscilante que desempeñaba la misma función que el volante de un reloj moderno. El «tictac» del reloj lo produce el movimiento del escape.

Muchos de los primeros relojes en los que se utilizaba el principio del escape fueron fabricados a principios del siglo XIV para ser utilizados en los monasterios. A diferencia de los relojes modernos, no llevaban esfera, y estaban tan sólo constituidos por un dispositivo que hacía sonar las campanas cada hora. Si bien no es fácil determinar exactamente su precisión, es improbable que fuera superior a media hora por día.

Estando ya algo más avanzado el siglo XIV, empezaron a aparecer relojes con esferas. La mayor parte de ellos eran públicos, y estaban colocados en las iglesias y las catedrales. Al principio, no tenían más manecillas que las de las horas. No fue sino hasta el siglo XVI cuando consideraron necesario añadir la manecilla de los minutos para mostrar las subdivisiones de la hora.

No era mucha la exactitud de los relojes que se fabricaron durante el siglo XIV. Parece como si no vieran la necesidad de medir el tiempo con algo más de precisión. En todo caso, los fabricantes de relojes de la Edad Media prefirieron la solución fácil de añadir más y más ruedas y engranajes, con lo que complicaban el mecanismo, a la de idear una forma de regular el movimiento del escape. Eso no quita para que fueran admirables muchos de los relojes del siglo XIV. Algunos llevaban incorporados calendarios móviles y presentaban elementos astronómicos que indicaban la posición del Sol, de la Luna y de los planetas. Naturalmente, estos dispositivos tan complejos se estropeaban frecuentemente, por lo que se solía considerar necesario asignar un puesto de «vigilante regulador» que supervisaba el funcionamiento del reloj y lo ponía en hora periódicamente. A veces, incluso eso no bastaba. En 1387, el rey Juan de Aragón contrató a dos hombres para que tocaran las campanas para indicar la hora, ante el hecho de que su reloj fallaba. Aproximadamente en la misma época, el reloj del palacio real de París era tan poco de fiar que le dedicaron una copla: L’horloge du palais, elle va comme il lui plaît, o sea, «El reloj del palacio funciona como le da la gana».

A pesar de que los primeros relojes eran unos mecanismos inexactos y caros, que además necesitaban cuidados continuos, la fabricación de relojes se transformó en una de las mayores industrias del siglo XIV. Por supuesto, muchas eran las razones que había para ello, como el orgullo municipal, por ejemplo. Las ciudades competían a ver cuál se compraba el reloj más perfeccionado para su catedral. También era importante el hecho de que muchos relojes mostraran la evolución de los cuerpos planetarios, ya que la astrología despertó en esa época un renovado interés. Hasta se consideraba esencial para conseguir éxito en varios tipos de empresas conocer la posición de los planetas.

La proliferación de relojes ejerció un influjo importantísimo en la cultura tardía medieval y la de los inicios del Renacimiento. De pronto, cada cual sintió muy conscientemente el paso del tiempo, puesto que bastaba con observar la manecilla del reloj a medida que giraba sobre la esfera para «ver» el tiempo. Con ello, el tiempo había dejado de ser tan sólo una secuencia de experiencias: se había transformado en algo que se medía en función del paso de las horas y de sus subdivisiones.

La visión que hasta entonces se tenía del tiempo se modificó rápidamente al acabar la Edad Media y dejar paso al Renacimiento. Una forma de ilustrar estos cambios puede ser la de comparar las referencias que se hacen al tiempo en las obras de los poetas italianos Dante y Petrarca. Dante, nacido en 1265, expone una visión típicamente medieval, mientras que Petrarca, nacido 39 años después, y a quien frecuentemente se considera el primer poeta moderno, enfoca ese mismo tema de una forma radicalmente diferente. Dante comparte con la Edad Media su preocupación por la eternidad, mientras que Petrarca tiende a ver el tiempo como un bien que se puede atesorar o desperdiciar. Tiene una conciencia del paso del tiempo que está ausente en Dante.

En su Divina Comedia, Dante nombra el tiempo en diferentes ocasiones. Por ejemplo, en el Canto XXXI del Paraíso, dice haber llegado «a lo eterno desde el tiempo». En el Canto XXVII, incide en la importancia del tiempo terrenal comparándolo de nuevo con la eternidad. El tiempo, dice Dante, está enraizado en el primum mobile (en la astronomía tolemaica correspondería a la parte más externa de las esferas celestiales); pero en la Tierra, sólo vemos pasar las hojas del tiempo. En el Canto XXXII del Purgatorio, Beatriz le dice a Dante que será un habitante de la Tierra durante un «breve» tiempo, y añade luego, alegóricamente, que será «para siempre un ciudadano de esa Roma en la que Cristo es un romano».

Petrarca, por su lado, se siente atormentado por el paso del tiempo en la Tierra. Se queja de la brevedad de la vida, y de su «curso rápido, precipitado y desordenado». Se lamenta por «lo irrecuperable del tiempo, lo pronto que se pierde la flor de la vida, la fugitiva belleza de un rostro sonrosado, la fuga desesperada de la juventud que nunca volverá, la astucia de la edad que avanza, imperceptible». La vida, dice Petrarca, es una carrera hacia la muerte en la que «todos somos propulsados con movimiento uniforme, arrastrados sin que varíe el ritmo del avance».

Tanto Dante como Petrarca están de acuerdo en afirmar que la vida es breve, pero no por eso debemos dejarnos engañar por esa aparente similitud. Mientras que a Dante parece no preocuparle el paso del tiempo, esto, para Petrarca, se transforma en obsesión. Cuando Dante menciona la brevedad de la vida, lo hace sólo para recalcar la importancia relativa de la eternidad; sin embargo, Petrarca lo hace pensando en un tipo de tiempo que se puede cuantificar.

Mucho efecto parece que ejerció sobre Petrarca el hecho de descubrir que el tiempo estaba dotado de una aterradora realidad, pues durante la última época de su vida se esforzó muchísimo por conservar todo el que aún le quedaba. En las numerosas cartas que dirigió a sus contemporáneos decía que era una locura perder aunque sólo fuera un día. La vida, se quejaba, «fluye sin cesar y se consume... cada día te acerca más a la vejez. Vas mirando a tu alrededor, te entretienes en unas cosas y otras, y para cuando te das cuenta, te encuentras con que tienes el cabello canoso». Puede no ser casualidad el que la figura del Padre Tiempo remonte a los dibujos que se hicieron para ilustrar las poesías de Petrarca.

No sólo fue en la poseía donde se reflejaron los cambios de punto de vista respecto al tiempo. También aparecen en la esfera económica. Durante la Edad Media, uno de los motivos por los cuales se prohibió la usura fue el considerar que cargar un interés equivalía a vender tiempo, cuando se presuponía que éste sólo pertenecía a Dios. Visto así, el usurero vendía algo que no era suyo.

Al principio del Renacimiento aún seguía prohibida la usura, aunque el desarrollo del capitalismo hizo que se fuera relajando poco a poco esta norma. Los primeros capitalistas comprendieron que el tiempo era algo que se podía medir y utilizar, y. a medida que fueron tomando fuerza en la sociedad, ésta, en su conjunto, empezó a adoptar su visión. Los mercaderes se dieron cuenta de que la lentitud de los viajes por tierra y por mar incidía en sus beneficios, al igual que otros factores, como las alzas y los descensos de precios con el tiempo, y las horas de trabajo de sus empleados (en esa época, los mercaderes acostumbraban contratar a campesinos y artesanos). Primero las campanas, luego los relojes empezaron a señalar las horas de las transacciones comerciales y de ponerse a trabajar. Se concedió mayor importancia a la forma de distribuir el tiempo en los lugares de trabajo. Aunque la unidad de trabajo siguiera siendo el día, y no la hora, el trabajo ya se iniciaba y se concluía en momentos determinados. Esta era la primera vez en la historia de la humanidad que se utilizaba el tiempo medido por un reloj para ordenar la vida de los individuos.

Hacia el final del siglo XVI, un nuevo concepto del tiempo, como entidad capaz de ser medida y utilizada, se introducía en la ciencia. Fue aproximadamente entonces cuando el científico italiano Galileo se percató de que era necesario averiguar el papel que desempeñaba el tiempo si se quería idear una teoría que explicara el movimiento de los objetos en el aire.

Algunos de los descubrimientos científicos nos parecen tan evidentes que cuesta comprender la importancia que se les dio y por qué no se hicieron mucho antes. Así, para nosotros, es obvio (lo intuimos) que un cuerpo sufre una aceleración en su caída, y que su velocidad aumenta con el tiempo. Y el que Galileo descubriera que los cuerpos se comportaban de esa forma no lo consideramos ni mucho menos como una hazaña. Más bien nos cuesta creer que pudiera haber alguien que se lo imaginara de otra forma.

Pero en tiempos de Galileo, esto no era nada evidente. Algunos negaban que los cuerpos experimentaran la menor aceleración al caer. Incluso hubo una época en que el propio Galileo compartió esa opinión; cuando escribió sobre este tema siendo aún joven, sostuvo que esa aceleración aparente no era sino una ilusión.

Para entender mejor los problemas que se le plantearon a Galileo, sería interesante repasar someramente los intentos de sus antecesores para solucionar la incógnita del movimiento. No estaría de más, entre otras cosas, examinar algunas de las teorías de Aristóteles, puesto que las ideas de éste seguían teniendo aceptación general durante la última parte del siglo XVI.

Aristóteles distinguió entre diferentes tipos de movimiento, siendo algunos de ellos el aumento, la alteración, el movimiento natural y el movimiento violento. Estos dos últimos eran dos tipos de movimiento característicos de los cuerpos en movimiento. La expresión «movimiento natural» definía la tendencia de un objeto pesado, a caer y también la del fuego o del humo a ascender. Según Aristóteles, los objetos caían en su intento por volver a su lugar natural cerca del centro del Universo. Además, el filósofo afirmaba que la velocidad con que caía un objeto era proporcional a su peso.

Aristóteles creía que el movimiento violento de un objeto que se arrojara en dirección horizontal o hacia arriba suponía otra clase de fenómeno. A diferencia del movimiento natural, el movimiento violento exigía una fuerza motriz. Si tal como lo preconizaba la doctrina aristotélica nada podía moverse de no haber algo o alguien que lo moviera, resultaba que sólo podía un objeto desplazarse, ya sea horizontalmente o hacia arriba, si se ejercía sobre el mismo una fuerza continua. Una flecha, o una piedra, atravesaban el aire porque algo la iba impulsando. En cuanto dejara de aplicarse la fuerza, cesaría el movimiento violento, y sería sustituido por el movimiento natural hacia el centro de la Tierra.

Aristóteles afirmaba que el propio aire proporcionaba la fuerza del movimiento. Así, cuando la flecha salía disparada por la cuerda del arco, el aire que desplazaba salía impulsado detrás de ella, creando una turbulencia que la propulsaba hacia adelante. Aun siendo paradójico, también creía, sin embargo, que la resistencia del aire frenaba la flecha, por lo que finalmente ésta caía al suelo. De esta forma, el medio en el que un objeto se desplazaba suministraba, por una parte, la fuerza motriz, y, por otra, la resistencia que hacía cesar el movimiento.

Casi todas las conclusiones de Aristóteles sobre el movimiento eran erróneas, pese a lo cual logró integrarlas en un sistema lógico y razonablemente coherente. Tan impresionante pareció, que todo pensamiento en torno a las leyes del movimiento siguió fundándose en las ideas de Aristóteles hasta la época de Galileo. Ocasionalmente, algún filósofo o sabio podía poner en duda alguna de las conclusiones de Aristóteles, pero, aparentemente, no se le ocurrió a ninguno de ellos que toda su teoría debiera rechazarse.

Tampoco sería fiel a la realidad pretender que los predecesores de Galileo no avanzaron en absoluto en el esfuerzo por comprender mejor el movimiento de los objetos en el aire. No fue éste precisamente el caso. Cuando se tradujeron en latín las obras del filósofo, durante el siglo XII, los eruditos de la Edad Media intentaron desarrollar las teorías que descubrieron en la obra de éste titulada Física. Sus especulaciones les condujeron a algunos logros reales.

Tomemos, por ejemplo, el caso de William of Heytesbury, un erudito del siglo XIV. Gran parte de su trabajo pudiera parecer aberrante de analizarlo bajo un enfoque actual. Uno de los temas que estudió fue el de la rotación de un cuerpo cuya parte exterior iba destruyéndose o corrompiéndose continuamente, mientras la parte interna se iba dilatando o enrareciendo. No parece habérsele ocurrido a Heytesbury el poco sentido que tenía dedicar tanto esfuerzo a imaginar el comportamiento de un trozo de masa de buñuelo combustible que se hincha a medida que se va quemando por fuera mientras gira[1]. En la Edad Media, la ciencia se asemejaba a una búsqueda escolástica que poco o riada tenía que ver con la experimentación ni con sus aplicaciones prácticas.

Sin embargo, Heytesbury y sus colegas de Oxford se anticiparon a Galileo estudiando el tema del movimiento acelerado. Desgraciadamente, no supieron relacionar la aceleración con el movimiento de los cuerpos en caída libre, por lo que parecen haberse limitado a la especulación abstracta. A Galileo le hubiera resultado mucho más fácil ampliar su saber sobre el comportamiento de los cuerpos en movimiento de haberse difundido más las teorías de los eruditos de Oxford en su época.

La física medieval alcanzó su mayor logro con la teoría del ímpetu, que le proporcionó a Galileo un punto de partida para sus propias especulaciones. La teoría del ímpetu, que fue perfeccionada por; Jean Buridán, filósofo parisino del siglo XIV, estaba fundada en las observaciones sobre el movimiento que hizo el escritor griego Juan Filoponio, en el siglo VI a.C.

Filoponio contemplaba con escepticismo la afirmación de Aristóteles de que era el contacto con el aire lo que provocaba el movimiento violento. Efectivamente, de ser el aire lo que proporcionaba la fuerza motriz, hubiera debido ser posible mover una piedra agitando el aire detrás de ella. Ya que, sin lugar a dudas, eso no era así, Filoponio buscó otra explicación y llegó a la conclusión de que debía existir una fuerza motriz en la propia piedra. Si se le podía imprimir a una piedra semejante fuerza por medio del objeto que la movía (por ejemplo, la mano que la tiraba), era fácil explicar el movimiento. Según Filoponio, la fuerza adquirida haría moverse la piedra hasta que la resistencia del aire o una colisión con otro cuerpo contrarrestaran dicha fuerza.

Buridán llevó esta teoría más lejos, y dio el nombre de «ímpetu», a la fuerza hipotética de Filoponio. Lanzó la hipótesis de que el ímpetu dependía a la vez de la velocidad y de la cantidad de materia de un cuerpo. Llegó a la conclusión de que cuando un cuerpo perdía contacto con quien lo había movido, su ímpetu no disminuía mientras no actuaran otras fuerzas. Así es como, en condiciones ideales, el cuerpo habría de seguir desplazándose en línea recta y a una velocidad siempre igual.

Buridán utilizó esa misma teoría para explicar el comportamiento de los cuerpos al caer. A diferencia de muchos de los contemporáneos de Galileo, Buridán sí vio que los objetos experimentaban una aceleración en su caída. Siguiendo a Aristóteles, supuso que, al caer, un cuerpo adquiría una velocidad proporcional a su peso. Luego, al seguir cayendo, el peso impartía cierto ímpetu, que se iba incrementando al proseguir la caída. Y este ímpetu creciente hacía que el cuerpo se moviera con velocidad cada vez mayor hasta golpear el suelo.

Si bien la teoría del ímpetu presentaba ciertos méritos, por otra parte, tenía un defecto mayor: la dificultad de comprobarla con un experimento. Así, no servía para calcular el tiempo que tardaría un objeto en caer desde una altura determinada, o la distancia hasta la cual llegaría un proyectil que se disparara o se arrojara en dirección horizontal.

Pero esto no les preocupaba a Buridán ni a sus contemporáneos, puesto que no les interesaba aventurar cálculos ni verificar por medio de experimentos las teorías que exponían. Al igual que Aristóteles, sólo pretendían explicar las causas del movimiento. Querían saber por qué los objetos se comportaban de una forma determinada, antes que averiguar cómo lo hacían.

Es significativa la distinción entre los dos tipos de explicación, pues demuestra la diferencia que existe entre la ciencia moderna y la medieval. El científico moderno aspira a saberlo que ocurre en la naturaleza, y a descubrir cuáles son las leyes matemáticas por las que se rige ese fenómeno que observa. No le interesa el porqué. No se pregunta por qué los átomos están constituidos por núcleos cargados positivamente, y rodeados de electrones cargados negativamente, pero sí cómo los átomos están ligados entre sí, formando moléculas, y desea conocer los mecanismos físicos por los que los átomos emiten luz. Tampoco se plantea por qué la electricidad y el magnetismo están relacionados entre sí, sino cómo; y exige disponer de ecuaciones matemáticas que le permitan calcular, por ejemplo, cuál es la cantidad exacta de corriente eléctrica que será inducida al mover un imán a cierta velocidad por un circuito.

Se ha de considerar a Galileo: como el primer físico moderno por haber sido él el primero en recalcar la importancia primordial del cómo en toda explicación científica. Galileo escribió que la ciencia debía ocuparse del «mundo tangible» (hoy, diríamos el «mundo real»), y no del mundo del argumento abstracto. Semejante idea parecería actualmente casi una banalidad, pero en la época de Galileo suponía un tipo de enfoque revolucionario. Tan nueva era la idea que incluso el gran filósofo y matemática René Descartes fue incapaz de comprenderla. A principios del siglo XVII, éste escribió en contra de las teorías de Galileo sobre el movimiento por considerar que no se habían explicado las causas del movimiento.

No se sabe cómo se le ocurriría a Galileo tan novedosa idea. Cuando se puso a reflexionar sobre el tema del movimiento, al final del siglo XVI, no existía la física experimental. En vez de observar la naturaleza, los sabios seguían comentando las teorías de Aristóteles así como la teoría del ímpetu, que ya tenía dos siglos, sin que jamás se les ocurriera investigar la forma de actuar de los objetos en movimiento.

Puede que fuera el carácter rebelde de Galileo lo que le incitara a estudiar la naturaleza, y que esto le hiciera finalmente descubrir la importancia del tiempo en la física. Como suele ocurrir con muchos innovadores, a él también le encantaba burlarse de lo convencional, al menos en el ámbito de las ideas. Así, cuando describía sus descubrimientos, rara vez desaprovechaba la oportunidad de ridiculizar los conceptos aristotélicos.

Su interés por desvelar el enigma del movimiento puede situarse alrededor del año 1590. En 1589, con veinticinco años, ocupó el puesto de profesor de matemáticas en la Universidad de Pisa. Allí estuvo impartiendo su enseñanza hasta 1592, cuando aceptó el cargo mejor retribuido de catedrático de matemáticas en la Universidad de Padua. Estando en Pisa, escribió un tratado de mecánica[2] titulado De motu. Esta obra no fue publicada en vida del autor. No obstariíe7existen versiones manuscritas de la misma, en las que se aprecia con claridad que Galileo ya ponía en duda los principios de física de Aristóteles a una edad todavía temprana.

El argüía que, en contra de lo que afirmaba la doctrina aristotélica, los objetos no caían a una velocidad proporcional a su peso, sino que, por el contrario, todos los cuerpos hechos de la misma materia caían a la misma velocidad. Así, una bola de plomo de diez libras no tenía por qué caer a una velocidad diez veces mayor que otra bola que pesara una libra. Si se soltaban ambas bolas a la vez desde la misma altura habían de tocar el suelo al mismo tiempo. Más adelante, Galileo generalizó esa afirmación, y sostuvo que todos los objetos, de la materia que fueran, habían de caer en el mismo intervalo de tiempo en ausencia de resistencia del aire. Sin embargo, en su tratado en latín De motu, solo habla de los cuerpos de una misma composición material.

Dicho sea de paso, no es nada probable que Galileo haya intentado demostrar su tesis dejando caer pesos desde lo alto de la torre inclinada de Pisa. Esta conocida historia parece haber sido inventada por Vincenzio Viviani, un discípulo de Galileo, que escribió una biografía bastante idealizada de su maestro después de la muerte de éste. Según Viviani, el experimento se llevó a cabo en presencia de los alumnos de Galileo y de algunos profesores más de la Universidad de Pisa, pero no se ha recogido ninguna referencia escrita a esa demostración en aquella época, por lo que los estudiosos dudan que jamás se produjera.

Sí sabemos, por otro lado, que un profesor de Pisa hizo experimentos de ese tipo, en 1612, para demostrar la validez de las teorías aristotélicas sobre el movimiento. Comprobó, tal como lo esperaba, que un objeto pesado llegaba al suelo antes que otro, más ligero. Aunque no era mucha la diferencia de tiempo de descenso, sí podía apreciarse.

Hoy día, a nadie le sorprendería semejante resultado. El objeto más ligero acusará más la resistencia del aire. Pero, por supuesto, esto no demuestra que sea correcta la teoría de Aristóteles, como el propio Galileo lo señaló en su último libro. Dos nuevas ciencias:
Aristóteles dice: «Una bola de hierro de cien libras que cae desde una altura de cien braccia (el braccio era una medida de longitud equivalente a 58,4 centímetros) toca el suelo antes que otra, de sólo una libra, que cae desde una distancia de sólo un braccio.» Si se hace el experimento, se comprueba que la mayor se anticipa a la menor en dos pulgadas, o sea, que cuando la mayor alcanza el suelo, la otra la sigue dos pulgadas más atrás. Y ahora pretendéis ocultar, detrás de esas dos pulgadas, los noventa y nueve braccia de Aristóteles, y airear mi diminuto error, cuando guardáis silencio sobre ese otro, tan enorme.

Cuando Galileo escribió De motu ya era consciente de que era incorrecta la descripción que daba Aristóteles de la caída libre, pero aún no había concebido él mismo una teoría válida. Todavía ignoraba que la aceleración era una característica fundamental del movimiento de los objetos en su caída. Sabía que se producía una aceleración, pero intentaba explicarla de otra forma.

De hecho, dio dos explicaciones, algo contradictorias, para justificar la aceleración que se había observado en los cuerpos cuando caían. Tan pronto decía que era una ilusión, un engaño de la perspectiva, corno se servía de la teoría del ímpetu para demostrar que la aceleración de un cuerpo en su caída no era sino un fenómeno temporal que duraba, como mucho, unos pocos segundos. Afirmaba que si se dejaba caer un objeto durante un tiempo suficientemente largo, llegaría a alcanzar una velocidad que luego sería permanente.

Según Galileo, los objetos inanimados tomaban ímpetu de las superficies en las que estaban posados. Así, una pelota que estuviera encima de la mesa recibiría de ésta un ímpetu que contrarrestaría exactamente su peso. Si se quitara la pelota de la mesa y se la dejara caer, ese ímpetu habría de ser vencido antes de poder alcanzar su velocidad característica. A medida que se debilitara dicho ímpetu, la pelota iría adquiriendo cada vez mayor velocidad. Pero, una vez desaparecido el ímpetu, no habría más aceleración.

Pero nunca llegó a publicarse De motu, probablemente porque Galileo vio que sus observaciones de la caída de los cuerpos no confirmaban su teoría. Aproximadamente en la época en que estaba escribiendo su tratado, empezó a observar el comportamiento de unas bolas que echaba a rodar por unos planos inclinados. Al parecer, en seguida obtuvo resultados que contradecían sus razonamientos teóricos.

Se dio cuenta de que poco podía aprender mirando cómo caían los objetos, al ser su aceleración tan rápida que era difícil percatarse de lo que realmente estaba ocurriendo. En el caso de soltar un objeto desde una altura de 2,5 a 3 metros, éste alcanza el suelo en cuatro quintos de segundo, y si se aumenta la altura hasta unos 30 metros, el tiempo de descenso tampoco pasa de dos segundos y medio. Y Galileo no disponía de medios para medir unos tiempos tan reducidos con cierta precisión. Tampoco podía determinar cuál era la velocidad de un cuerpo mientras caía, en un punto determinado de su descenso.

Pero el sabio sí comprendió que podía aminorar los efectos de la gravedad echando a rodar las bolas por unos planos inclinados. Efectivamente, haciendo descender la bola hasta el suelo por un plano levemente inclinado, tardaba mucho más tiempo en llegar al término de su camino. Así, colocando una bola a una altura de tres metros, tarda más de 22 segundos para rodar abajo por un plano inclinado a un ángulo de 2°. Aunque se pueda seguir considerando que «cae» por motivo de la gravedad, lo hace a poca velocidad.

Al ir experimentando, Galileo empezó a darse cuenta de que los cuerpos manifestaban siempre una aceleración al caer. Además, ideó una fórmula matemática que relacionaba el tiempo con la distancia desde la que caía un objeto. Concretamente, descubrió que la distancia era proporcional al cuadrado del tiempo. Digamos, por ejemplo, que si un objeto descendía un metro durante el primer segundo, al cabo de dos segundos, bajaba cuatro metros, al final del tercer segundo, nueve metros, y así sucesivamente.

Este tipo de descripción resulta engorrosa de explicar en palabras. Se puede expresar de forma mucho más sencilla la relación entre la distancia y el tiempo usando la siguiente fórmula matemática:

d ∝ t2

en la cual ∝ es un símbolo matemático que significa «es proporcional a». Cabe resaltar que esta fórmula relaciona la distancia con el tiempo transcurrido. Describe a qué distancia ha caído un objeto al cabo, digamos, de tres segundos, pero no a qué distancia cae durante el tercer segundo solamente.

No fue Galileo el primero en ver que el tiempo tenía que estar algo relacionado con la distancia a la que caía el objeto; eso era más que evidente. Incluso tampoco fue el primero en elaborar una fórmula matemática que relacionara el tiempo transcurrido con la distancia recorrida en un movimiento acelerado. Esto lo habían conseguido ya más de doscientos años antes un grupo de físicos de Oxford, en plena Edad Media, pero no se les ocurrió relacionar sus resultados con el tema de la caída libre. Ahora bien. Galileo fue el primero en medir el tiempo de los hechos físicos, pues, que se sepa, en la época en la que llevó a cabo sus experimentos, ninguno había intentado medir el tiempo de la caída libre.

Una vez establecida la relación entre la distancia y el tiempo, era obvio que el siguiente paso consistía en descubrir la relación entre el tiempo y la velocidad. Sin embargo, Galileo no dio inmediatamente ese paso. Parece haber supuesto, como lo hicieron la mayor parte de los eruditos de su época, que la velocidad y la distancia de caída eran proporcionales una a la otra.

De hecho, no lo son. La velocidad es proporcional a la raíz cuadrada de la distancia a la que ha caído un objeto. Cuando ha caído a una distancia de cuatro metros, se ha movido sólo dos veces, no cuatro veces, más rápido que lo hiciera cuando sólo había recorrido un metro. Tampoco se le debe culpar a Galileo de no haberlo intuido antes. Cuando dio por sentado que la velocidad y la distancia eran proporcionales, no hizo sino aceptar lo que entonces se creía.

Tardó bastante tiempo en poner en duda esa suposición. En el otoño de 1604, a Galileo se le ocurrió comentar a su amigo de Venecia, Fra Paolo Sarpi, el descubrimiento que había hecho en cuanto a la distancia y el tiempo. Sarpi le pidió que le diera una prueba matemática de lo que aseguraba. Y realmente, dejó escrita esa prueba, aunque se ignora si se la envió a su amigo. Pero se conserva entre sus manuscritos.

La demostración resultó ser falsa, pues Galileo pensó erróneamente que había demostrado la proporcionalidad cuadrática de la distancia y del tiempo partiendo del supuesto que la velocidad y la distancia eran proporcionales, cuando, en realidad, la velocidad es proporcional al tiempo. Aunque un cuerpo en su caída no se mueve a una velocidad cuatro veces mayor después de haber recorrido cuatro metros, sí avanza a una velocidad cuatro veces mayor después de cuatro segundos. De nuevo, quedará esto más claro expresando el comportamiento del cuerpo en su caída en términos matemáticos, en vez de hacerlo con palabras. La relación entre la velocidad y el tiempo equivale a:

v = at

La velocidad es igual al producto de la aceleración por la distancia. De la misma forma, se puede expresar la relación entre la distancia y el tiempo por medio de la ecuación:

d = ½at2

Esta fórmula exacta es la que encontró Galileo poco después de averiguar que la distancia era proporcional al cuadrado del tiempo.

Finalmente, Galileo también descubrió la fórmula correcta de la velocidad. Nadie sabe exactamente cuándo la encontró, ni de qué forma. Lo que sí se sabe es que le costó llegar a esa conclusión. De hecho, parece ser que pensó, durante un tiempo, que la velocidad era proporcional a la vez a la distancia y al tiempo. Pudo tardar hasta el año 1615 aproximadamente en ver con claridad cuáles eran las relaciones correctas entre unas cosas y otras.

No tiene por qué sorprendernos que le costara tanto tiempo encontrar la solución del problema. Después de todo, la velocidad de un cuerpo en aceleración era una cantidad difícil de definir. Mientras el objeto se mueva a velocidad constante, no hay problema. Si se desplaza a una velocidad de diez metros por segundo, avanzará diez metros en un segundo, veinte metros en dos segundos, y así sucesivamente. Pero en el caso de los objetos en aceleración, Galileo no se enfrentaba con una velocidad constante, sino con una velocidad instantánea que cambiaba constantemente con relación al tiempo.

Cuando se acelera un objeto, la velocidad no es nunca la misma en un momento que en el siguiente, pues va incrementándose. Ni tan siquiera se puede medir directamente la velocidad instantánea. Todo lo más se puede calcular la velocidad media durante un corto período.

Por eso no fue asunto fácil definir que la velocidad instantánea era proporcional a una cantidad pero no a otra, aunque, al final, Galileo supo resolver el problema. Después de reflexionar durante más de veinticinco años sobre el tema, logró averiguar lo que ocurría cuando un objeto caía.

Una vez aclarado esto, ya era fácil determinar el movimiento de un cuerpo que se desplazara en una dirección arbitraria. Así, sabiendo cómo se comportan los objetos acelerados, ya no es difícil predecir lo que ocurrirá con una piedra que se tire en dirección horizontal. Es evidente que describirá una curva descendente. Su inercia la arrastrará en una dirección horizontal, mientras que la gravedad la hará acelerar en dirección vertical. De la combinación de un movimiento horizontal y otro vertical resulta la curva geométrica que se conoce con el nombre de parábola.

Del mismo modo, se puede calcular lo que ocurrirá con una bala de cañón que se dispare en ángulo para alcanzar mayor distancia. Como en el caso de la piedra, se pueden considerar por separado los movimientos vertical y horizontal. Puesto que la gravedad sólo acelera la bala de cañón en sentido vertical, su inercia la desplazará de nuevo horizontalmente a velocidad constante. La componente ascendente de su movimiento decrecerá gradualmente a medida que la gravedad aminore la velocidad de la bala de cañón. Una vez que empiece a caer hacia abajo, se irá acelerando su descenso, al igual que la piedra.

De nuevo, se obtiene una parábola, pero, ahora, de dos ramas en vez de una. Naturalmente, la trayectoria es perfectamente simétrica, mientras supongamos (como lo hacía Galileo) que los efectos de la resistencia del aire son tan limitados que se pueden descartar. De ser así, lo que se ha elevado ha de descender exactamente de la misma forma.

Dicho sea de paso, también es una parábola la curva que describen los cables que sustentan un puente colgante. Imaginando el puente boca abajo, la curva es la misma que la que describe la trayectoria de un proyectil. Si cortamos la curva en dos, de tal forma que nos quedamos sólo con la mitad que representa el movimiento de caída descendente, tenemos una curva que representa la trayectoria de la piedra que se ha tirado horizontalmente.

No fue ciertamente mera casualidad el que Galileo escribiera sobre la trayectoria de los proyectiles. En su época, como en la nuestra, se sabía que los militares podían sacar provecho de los progresos de la ciencia y de la tecnología. Galileo practicó el pluriempleo enseñando matemáticas a los oficiales del ejército, a quienes les interesaba aprender a mejorar la eficacia de las piezas de artillería. También inventó, fabricó y vendió un instrumento que servía para medir el ángulo de elevación de los cañones.

La ciencia pudo sacar provecho de su preocupación por los problemas militares, ya que su análisis del movimiento de los proyectiles podía aplicarse a cualquier cuerpo que se moviera a proximidad de la superficie terrestre. Después de todo, cualquier objeto que se arroje, se levante, se impulse o se dispare en cualquier dirección se comporta exactamente de la misma forma; su movimiento lineal le arrastra en sentido horizontal, mientras que la gravedad crea una aceleración vertical. Después de los descubrimientos de Galileo en el campo de la mecánica, ya sólo quedaban por solucionar los problemas relacionados con el movimiento circular, y por investigar los efectos de la fricción y de la resistencia del aire.

Hemos visto que la primera teoría válida de mecánica se debe a haber sabido interpretar el papel que desempeñaba el tiempo en los procesos físicos. También se deducirá de los siguientes capítulos que prácticamente toda la física tiene que ver con el tiempo. Pocas cosas hay en el mundo que sean perfectamente estáticas. Los procesos físicos no existen, se producen. Si uno está dispuesto a hacer caso omiso de unas pocas excepciones irrelevantes, se podría incluso definir la física como la ciencia que estudia los cambios físicos.

Por definición, el cambio es algo que se produce en el tiempo.

Capítulo IV
El cálculo infinitesimal y la noción de determinismo

Galileo luchó con el tema de la naturaleza del movimiento durante decenas de años. De todas las preguntas que se planteó, la que más le costó resolver fue la de la naturaleza de la velocidad instantánea. Durante años, tuvo la impresión de que ese concepto no era sino una ficción matemática, de no ser una contradicción de términos. Cuando comprendió que debía enfrentarse con la velocidad instantánea para poder explicar el comportamiento de los cuerpos en movimiento, esa noción siguió dificultándole la tarea.

Para entender por qué le angustiaba tanto ese concepto, cabe plantearse: ¿Cómo se ha de definir esa cantidad que llamamos «velocidad», aunque la pregunta parezca falta de sentido? Al fin y al cabo, todos tenemos una idea intuitiva de la velocidad. Pues bien, basta con estudiar la pregunta en detalle para darse cuenta en seguida de que no es tan fácil la cosa.

Mientras el cuerpo se mueva a una velocidad constante, no hay problema alguno. La velocidad será sencillamente la distancia dividida por el tiempo. Si se hace rodar una pelota por el suelo de forma que su avance sea constante, y recorre cinco metros en dos segundos, su velocidad será de dos metros y medio por segundo.

Tampoco plantea dificultades el cálculo de la velocidad media. Así, si se deja caer un objeto desde una altura de veinte metros, tardará dos segundos en alcanzar el suelo. Durante esos dos segundos, experimentará un cambio constante de velocidad al verse acelerado por la gravedad. No obstante, se puede de nuevo dividir la distancia recorrida por el tiempo, y decir que su velocidad media es de diez metros por segundo.

Pero imaginemos que se trata de saber a qué velocidad se desplazaba el objeto después de pasar exactamente medio segundo. En este caso, parece no servir la definición de la velocidad según la cual equivale a la distancia dividida por el tiempo. Durante un instante, el objeto no recorre ninguna distancia, cuando el «instante» se define como un tiempo sin extensión.

Para Galileo, la noción de velocidad significaba movimiento, pero la velocidad instantánea era una velocidad que se situaba en un espacio de tiempo durante el que el objeto no se movía. Así, preguntar lo que era la velocidad instantánea equivalía a preguntar a qué velocidad se desplazaba un objeto durante un tiempo tan breve que se paralizaba el movimiento.

El sabio no aportó nunca una definición válida de la velocidad instantánea. Esquivó el enigma imaginando una situación en la que un cuerpo alcanzaba una velocidad instantánea determinada y seguía moviéndose a la misma velocidad. Dicho de otra forma, la velocidad instantánea era la velocidad que se mediría de ser ésta constante y no instantánea. Por ejemplo, la velocidad que alcanzaba un objeto en su caída después de medio segundo se equiparaba a la que habría desarrollado de no haber seguido experimentando una aceleración.

No se le puede culpar a Galileo de utilizar una definición tan confusa. Por el contrario, se merece nuestra admiración por haber intentado enfrentarse con cantidades que variaban con el tiempo. El que diera con la fórmula correcta, v = at, para determinar la velocidad instantánea de un objeto en su caída, en una época en la que los métodos matemáticos que permitieran calcular el coeficiente de variación aún no se habían desarrollado, es una prueba de genio, no motivo de censura.

Es fácil manejar cantidades constantes. Así, la altura o la anchura de un objeto pueden medirse con una regla; o el peso, colocando el objeto en una balanza. Tampoco presenta problemas mayores el medir el paso del tiempo. Aunque en tiempos de Galileo, los relojes no tenían manecillas para los segundos, sí se podía medir el tiempo con relojes de arena o de agua, y también tomando el pulso.

Pero no se podían medir directamente las cantidades variables, ni era fácil enunciarlas en términos matemáticos. El cálculo infinitesimal, la rama de las matemáticas que se ocupa de los coeficientes de variación, no había sido aún inventado.

El cálculo infinitesimal fue descubierto por un inglés y un alemán, cada uno por su lado. Se trata del matemático y físico inglés Isaac Newton, y el filósofo, barón Gottfried Wilhelm von Leibniz, que investigaron durante la segunda mitad del siglo XVII. El descubrimiento de Newton y Leibniz constituye uno de los mayores logros matemáticos de todos los tiempos. Abría unos campos totalmente nuevos en las matemáticas, así como en las ciencias físicas.

Hoy día, toda la Física, y la mayor parte de la alta matemática, se fundamentan en el cálculo infinitesimal.

Newton y Leibniz tuvieron muchos precursores. Los matemáticos de la antigua Grecia, como Antifón, el sofista, Eudoxo y Arquímedes, resolvieron algunos de los problemas de cálculo infinitesimal más sencillos. El propio Galileo lo usó también sin saberlo cuando sacó la fórmula d = ½at2, de la distancia recorrida por un cuerpo en su caída. Fueron, sin embargo. Newton y Leibniz quienes elaboraron los teoremas matemáticos más importantes, y quienes hicieron del cálculo infinitesimal una disciplina capaz de ser utilizada por otros sabios y matemáticos. Ni los matemáticos griegos, ni Galileo, ni ninguno de los demás precursores de Newton y Leibniz comprendieron nunca las implicaciones de las técnicas con las que habían topado. Tampoco llegaron a entender del todo bien los problemas relacionados con los coeficientes de variación y las cantidades instantáneas.

Para ver exactamente lo que aportaron Newton y Leibniz, conviene volver a analizar de nuevo el tema de la velocidad instantánea. Pero ahora ya no necesitamos limitarnos a considerar la velocidad de un cuerpo al caer, y puede resultar más instructivo enfocar el tema de la velocidad instantánea desde un punto de vista mucho más general.

Supongamos que un objeto se está desplazando, y que su velocidad cambia con el tiempo. Puede tratarse de un objeto cualquiera, como un planeta que gira dentro de su órbita, alrededor del Sol, o bien una bala disparada por una pistola, cuya velocidad va aminorándose por motivo de la resistencia del aire. Pudiera incluso servir una hoja arrastrada por una ráfaga de viento.

Supongamos que deseamos saber la velocidad del objeto en un momento correspondiente exactamente a un segundo después de un punto de partida arbitrario. ¿Cómo se determina su cantidad? Se obtiene una estimación aproximada de la velocidad instantánea midiendo la distancia a la que se mueve el objeto en dos segundos; se determina su posición en un tiempo cero, y después de haber transcurrido dos segundos. Esto nos dará una velocidad media que equivale más o menos a la velocidad instantánea que pretendíamos captar. Después de todo, el instante que nos ocupa se sitúa en un punto medio del intervalo de tiempo de dos segundos.

Es evidente que se puede mejorar esta evaluación. Si usamos el intervalo entre 0,5, 1 y 1,5 segundos, y aplicamos el mismo método, el resultado habrá de ser algo más preciso. Y no hay motivo para pararse aquí, puesto que se puede hilar más fino, y utilizar el intervalo entre 0,9 segundos y 1,1 segundos, logrando así una estimación más perfecta. De hecho, no existe aparentemente más límite en la precisión creciente que se puede alcanzar, que la de disponer de instrumentos de medición capaces de registrarla. Así, podríamos tomar el intervalo de tiempo situado entre 0,9999 segundos y 1,0001 segundos, para calcular la velocidad media partiendo de ahí.

Las medias que calculemos de esa forma se irán acercando cada vez más a la velocidad instantánea que buscamos. Pero aunque empecemos a medir una milmillonésima de segundo antes de la marca de un segundo, y nos paremos una milmillonésima de segundo después de ésta, seguiremos disponiendo tan sólo de una velocidad media. Es como si aun habiendo encontrado la forma de evaluar la velocidad instantánea con el grado de precisión que deseamos, nos encontráramos todavía tan alejados de una posible definición de la cantidad, como lo estaba Galileo.

Pero supongamos ahora que avanzamos un paso más, e imaginemos que el objeto recorre una distancia infinitesimal durante un intervalo de tiempo igualmente infinitesimal. Aunque fuera imposible medir unas cantidades tan pequeñas, parece ser que se pudiera usar con la finalidad de crear una definición como la siguiente: la velocidad instantánea es una distancia infinitesimal dividida por un tiempo infinitesimal.

A primera vista, no se tiene la seguridad de haber llegado a alguna parte con esto. No está claro que sea válido utilizar cantidades infinitesimales, y ni tan siquiera es obvio que existan semejantes cantidades. Por una parte, deben ser mayores que cero, y la expresión matemática 0/0 carece de sentido; puede equivaler a cualquier cosa. Por otra parte, las cantidades infinitesimales deberían ser más pequeñas que cualquier número que uno se pudiera imaginar. De no serlo, no hubiéramos conseguido definir la velocidad instantánea. En vez de eso, hubiéramos obtenido una velocidad media durante un breve período de tiempo. Parece como si al intentar definir la velocidad instantánea, estuviéramos echando mano de una noción bastante sospechosa.

Los propios Newton y Leibniz se sentían incómodos con el concepto de las cantidades infinitesimales. De hecho, habría de pasar más de un siglo antes de que los matemáticos encontraran la forma de prescindir de él, y sentaran finalmente el cálculo infinitesimal sobre unas bases lógicas y firmes. Sin embargo, sí se tuvo inmediatamente la certeza de que el concepto en sí, aunque fuera algo dudoso, podía ser muy útil. La definición de la velocidad instantánea como una razón de infinitesimales tuvo consecuencias importantes para las matemáticas. Abría el camino a una nueva técnica matemática, hoy día llamada cálculo infinitesimal.

La velocidad instantánea se define como un coeficiente de variación. Es la medida de la velocidad a la que la distancia varía con el tiempo. Esto significa que si se dispone de una fórmula para expresar la velocidad, debería ser posible también sacar la fórmula de la distancia. Los métodos del cálculo infinitesimal permiten precisamente hacerlo. Así es como Newton y Leibniz fueron capaces de demostrar que se podía utilizar la ecuación de Galileo para hallar la velocidad instantánea de un cuerpo en su caída, v = at, para derivar de ella la fórmula de la distancia, d = ½at2. Además, también cabía la posibilidad de trabajar en sentido opuesto, para obtener la fórmula de la velocidad partiendo de la de la distancia.

Una ecuación, como v = at, que contiene un coeficiente de variación se llama ecuación diferencial. Si sabemos la distancia que ha recorrido un cuerpo en un instante, esa misma ecuación nos indica la distancia que recorrerá al momento siguiente. Si se considera la velocidad como una razón de infinitesimales, la ecuación nos indicará entonces que durante cada período infinitesimal de tiempo, el cuerpo recorrerá una distancia infinitesimal adicional. Básicamente, el cálculo infinitesimal es un método para sumar esas distancias infinitesimales.

Quizá sea más fácil comprender esto por medio de un ejemplo. Supongamos que invertimos una cantidad de dinero a plazo en un banco, y que ésta se capitaliza diariamente. Esto significa que, cada día, ese dinero genera un pequeño interés. Para conocer el rendimiento al cabo de un año, se deben ir añadiendo los réditos de cada día (existe una fórmula para calcularlo, por lo que no es necesario sumar una columna de 365 cifras). De la misma manera, cuando se utiliza el cálculo infinitesimal para resolver una ecuación diferencial, se suman las cantidades infinitesimales, y también existen fórmulas para esto.

La incidencia práctica de todo ello es enorme. Por ejemplo, sabiendo la posición de la Tierra en cada instante, se puede determinar su posición al momento siguiente, y al siguiente, y al otro, puesto que basta para ello con disponer de una ecuación diferencial que describa su movimiento. Y si se sabe dónde se encontrará en esos instantes, el cálculo infinitesimal podrá utilizarse para determinar su movimiento en todo momento. Y no sólo cabrá la posibilidad de especificar dónde estará, sino también la velocidad a la que se moverá en cualquier momento del futuro. Además, en sentido opuesto, permitirá averiguar dónde se encontraba en cualquier momento pasado.

Los mismos métodos pueden aplicarse a cualquier problema que presente coeficientes de cambio. El cálculo infinitesimal se utilizará para describir el movimiento de una cuerda en vibración, o se aplicará al flujo de los fluidos y de las corrientes eléctricas, o también al comportamiento de las partículas en el mundo subatómico. Pero quien lo utilizó por primera vez con éxito fue Newton al aplicarlo a su teoría de la gravitación.

En 1687, Newton publicó su obra más importante. Escrita en latín, estaba titulada Philosophiae Naturalis Principia Mathematica (Principios matemáticos de filosofía natural). En este libro (al que se suele hacer referencia llamándolo Principia Mathematica, o, a veces, más sencillamente Principia) Newton completó el análisis del movimiento que inició Galileo, expuso su ley de la gravitación, explicó el movimiento de los cuerpos celestes, y estudió temas como las mareas oceánicas, el movimiento de los cuerpos que están frenados por la resistencia del aire, y el movimiento de los fluidos.

Sus tres leyes, del movimiento figuran al principio del libro. Son tan importantes que merece la pena citarlas en su totalidad:

  1. Todo cuerpo permanece en su estado de reposo o de movimiento rectilíneo y uniforme de no ser que le obliguen a cambiar de estado las fuerzas que actúen sobre él.
  2. El cambio de movimiento es proporcional a la fuerza ejercida, y se produce en la dirección de la línea recta a lo largo de la cual actúa la fuerza.
  3. A cada acción se opone siempre una reacción igual; o, la acción mutua de un cuerpo sobre otro es siempre igual, y está dirigida en sentido opuesto.

La primera ley, que ya conocía Galileo, es la ley de la inercia. Establece que un cuerpo que no está en movimiento permanece en reposo de no ser que alguna fuerza se ejerza sobre él, y que un objeto que se desplaza en línea recta seguirá en esa dirección en ausencia de fuerzas.

La tercera ley, el principio de Newton de la acción y la reacción, podría ilustrarse con la propulsión de un cohete. Éste adquiere velocidad porque expulsa gases en expansión a elevada velocidad, que se dirigen hacia atrás. La aceleración hacia adelante constituye la reacción. Cabe señalar que, de acuerdo con la primera ley, el cohete seguirá moviéndose en la misma dirección cuando cese la propulsión, o sea, por ejemplo, cuando se le agote el combustible. Otro ejemplo corriente de la acción y la reacción es el culatazo del fusil. Al salir la bala propulsada hacia adelante, el fusil «golpea» hacia atrás el hombro de la persona que dispara.

Sería absurdo afirmar que una de las tres leyes de Newton sea más importante que las demás, pues se necesitan las tres para analizar el movimiento. No obstante, pudiera considerarse que la segunda es la que tiene un significado más profundo, pues constituye un enunciado, en términos de lenguaje, de lo que es una ecuación diferencial. Cuando Newton utiliza las palabras «cambio de movimiento» está refiriéndose al coeficiente de variación en el tiempo. La segunda ley suele expresarse por medio de la siguiente fórmula matemática:

F = ma

Fuerza igual a masa por aceleración. Pero la aceleración no es sino el grado en que la velocidad cambia en el tiempo. Así, un cuerpo que caiga dentro del campo de gravedad de la Tierra aumentará su velocidad a razón de diez metros por segundo, cada segundo. Si inicialmente está en reposo, caerá a una velocidad instantánea de diez metros por segundo después de un segundo, a razón de veinte metros por segundo después de dos segundos, y así sucesivamente.

Conociendo la fuerza que se ejerce sobre un cuerpo, se pueden aplicar los métodos de cálculo a la ecuación diferencial F = ma, y determinar la velocidad en cualquier momento. Puesto que la velocidad también es un coeficiente de variación, se puede dar un paso más, y precisar en qué lugar del espacio se sitúa el cuerpo en cualquier momento del pasado o del futuro. Por el hecho de ser la aceleración el coeficiente de variación de otro coeficiente de variación, existe el recurso de llevar a cabo la operación dos veces.

Las leyes del movimiento de Newton no sirvieron de mucho para mejorar el conocimiento del movimiento de proyectiles en el caso en que la resistencia del aire fuera tan reducida que pudiera ignorarse. Este problema lo había solucionado ya Galileo. Por consiguiente, el uso del cálculo infinitesimal y de las leyes del movimiento no aportó nada nuevo. Sin embargo, los métodos que elaboró Newton sí permitieron dar solución a problemas de mayor dificultad, como la determinación de los movimientos orbitales de los cuerpos celestes.

Hoy día se conoce a Newton por su ley de la inversa del cuadrado que se aplica a la atracción de la gravedad. Dicha ley enuncia que todos los cuerpos que gravitan se atraen entre sí con una fuerza inversamente proporcional al cuadrado de la distancia. Por ejemplo, de doblarse la distancia, la atracción de la gravedad será una cuarta parte de lo que era (porque cuatro es el cuadrado de dos): de triplicarse la distancia, la fuerza será la novena parte de lo que era, y así sucesivamente.

En realidad, Newton no fue el primero en suponer que los cuerpos que gravitan se atraen entre sí de esa forma. Cuando se publicaron los Principia de Newton, unos cuantos contemporáneos suyos, como el físico Robert Hooke, el astrónomo Edmund Halley y el arquitecto Christopher Wren ya habían imaginado que pudiera ser válida la ley de la inversa del cuadrado. El mérito de Newton no estuvo en exponer la ley en cuestión, sino en demostrar que podía deducirse de las leyes del movimiento de los planetas que descubrió anteriormente ese mismo siglo el astrónomo alemán Johannes Kepler.

Newton utilizó el cálculo infinitesimal para demostrar matemáticamente la validez de la ley de la inversa del cuadrado. Su razonamiento fue el siguiente: de ser válida la ley de la inversa del cuadrado, se podía calcular la fuerza ejercida sobre un cuerpo (como la Tierra, o Marte, por ejemplo). Si se introducía esa fuerza conocida en la ecuación F = ma, también se podía calcular la aceleración de ese cuerpo. Una vez conocida la aceleración, el cálculo infinitesimal permitía determinar la forma en que la posición y la velocidad del cuerpo cambiaban con el tiempo, y se podía calcular la órbita. Naturalmente, se podía seguir el razonamiento en sentido contrario también. Partiendo de las leyes de Kepler (que definían el movimiento orbital), se podían hacer los mismos cálculos en sentido inverso, y deducir de ellos la ley de la inversa del cuadrado.

De no haber descubierto Newton el cálculo infinitesimal, probablemente no hubiera llegado a estos resultados, y se le hubiera recordado como un integrante más de un grupo de sabios ingleses que investigaron sobre la aplicación de la inversa del cuadrado a la atracción de la gravedad, sin ser capaces de demostrar que sus teorías eran válidas.

Es sorprendente que Newton utilizara tan poco el cálculo infinitesimal en sus Principia. Reconoció más adelante que se servía de él para conseguir las pruebas matemáticas que necesitaba, pero que luego sustituía a éstas por unas pruebas fundamentadas en unos complicados dibujos geométricos. Newton debió ser consciente del valor inestimable del cálculo infinitesimal, pero no llegó a fiarse del todo de un método basado en un concepto tan dudoso como el infinitesimal.

Sus propios comentarios al respecto demuestran su falta de confianza hacia las bases lógicas del método. El primer artículo que escribió sobre ese tema, publicado en 1669, reflejaba que su método «sería explicado en breve, si bien no demostrado con precisión». En el segundo artículo sobre el mismo tema (1671), explicó el cálculo infinitesimal de forma algo diferente a como lo hiciera en el primero. En el tercer artículo, hizo la crítica de sus trabajos anteriores, y dio otra explicación que, a decir verdad, no era más satisfactoria que las dos anteriores.

Newton no consiguió decir si se debía considerar las cantidades infinitesimales como cantidades fijas o si éstas variaban continuamente. Las definió como unos incrementos «tan pequeños como fuera posible», sin poder, no obstante, precisar lo pequeños que eran. Tampoco se decidió a darles un nombre determinado: tan pronto se refería a las cantidades «indivisibles», como a los «incrementos nacientes», o a las «cantidades indivisibles y evanescentes».

Su rival, Leibniz, topó con las mismas dificultades. Éste dijo de las cantidades infinitesimales que «tendían a cero» o que eran «infinitamente pequeñas». Aparentemente, se percató desde el principio de que esa noción conllevaba dificultades. Un número infinitamente pequeño había de ser mayor que cero e inferior a cualquier fracción que se pudiera nombrar. En un artículo que se publicó en 1689, Leibniz consideraba los números infinitesimales como algo ficticio, no real. En vez de aclarar las cosas, su intento de explicación las empeoró aún más. ¿Cómo podía uno utilizar números ficticios para calcular cantidades reales? Ni tan siquiera Leibniz parece que lo supiera. En un artículo publicado seis años después, atacó a los críticos «exageradamente ávidos de precisión», y comentó con bastante poco acierto que no se debería, por exceso de escrupulosidad, descartar un método que tan útil había resultado.

Cuando Leibniz le explicó a la reina Sofía de Prusia su concepto de lo infinitamente pequeño, a ésta no le pareció que se tratara de algo especialmente difícil. Según relata el ensayista e historiador escocés Thomas Carlyle, la reina contestó que ella no necesitaba que la instruyeran a ese respecto, pues la conducta de los cortesanos la había familiarizado perfectamente con lo infinitamente pequeño. Otro tipo de reacción fue la que tuvieron los matemáticos. Así, los matemáticos suizos Jacques y Jean Bernoulli se refirieron a los escritos de Leibniz sobre el cálculo reprochándoles que supusieran «un enigma en vez de una aplicación».

Para comprender el problema, volvamos, momentáneamente, a la definición de la velocidad instantánea. Lo expliqué partiendo de que, en un tiempo infinitesimal, un objeto recorrería una distancia infinitesimal. Al ser la velocidad la distancia dividida por el tiempo, la velocidad instantánea es el cociente de dos cantidades infinitesimales.

Pero esta definición no sirve si consideramos las cantidades infinitesimales como números muy pequeños de la clase común. Si tomamos un período de tiempo igual a una milésima de segundo, todo lo más podremos calcular una velocidad media durante ese tiempo. Tampoco adelantamos nada utilizando un período igual a una milmillonésima de segundo, o a una billonésima de una milmillonésima de segundo, puesto que seguiremos dando al final con una media. Las cantidades infinitesimales han de tender a cero.

Para complicar aún más las cosas, a veces se encuentra uno con cantidades infinitesimales de un orden superior, unas cantidades que son infinitamente pequeñas comparadas con las ya infinitamente pequeñas del primer orden. Por ejemplo, la aceleración se define como el coeficiente de variación de la velocidad. O sea, que es el coeficiente de variación de otro coeficiente de variación. Se necesita utilizar las cantidades infinitesimales para definir la velocidad instantánea, y usarlas de nuevo por segunda vez para poder hablar de aceleración instantánea. Y aquí no acaba. De existir cantidades infinitesimales de segundo orden, no hay motivo para que no existan también de tercero y cuarto órdenes, u órdenes más altos. Aparentemente, no tienen fin los grados de pequeñez infinita.

Pudiera pensarse que los físicos y matemáticos del siglo XVII tendrían reparo en utilizar el cálculo infinitesimal mientras no se asentara en unas bases lógicas más firmes. Quizá lo tenían, pero no por eso dejaron de utilizarlo. Este había sido un descubrimiento demasiado importante para descartarlo. Abría campos completamente nuevos a las matemáticas, y, al cabo de poco tiempo, los físicos se percataron de que tampoco podían pasar sin él.

La mayor parte de las leyes de la física están expresadas matemáticamente en forma de ecuaciones diferenciales, por la sencilla razón de que casi todas las cantidades de que se ocupa la física varían en el tiempo. Ninguna de dichas ecuaciones podría resolverse sin el cálculo infinitesimal, por lo que cualquier esfuerzo por descubrir leyes naturales sería improductivo. Efectivamente, ¿de qué serviría descubrir una ley si luego fuera imposible ponerla en práctica?

Existen algunos tipos de problemas en los que no desempeñan papel alguno los coeficientes de variación en el tiempo. Pongamos el caso de querer averiguar la forma en que varía la presión atmosférica en función de la altitud. Pues bien, también se necesita el cálculo infinitesimal para dar una solución a este problema, pues la disminución de presión a medida que aumenta la distancia sobre la superficie de la Tierra es también un coeficiente de variación. En realidad, una ecuación diferencial es una ecuación que conlleva un coeficiente de variación de algún tipo, aunque no por eso ha de ser coeficiente de variación en el tiempo. A pesar de que la mayor parte de las ecuaciones en física sí describen procesos que se inscriben en el tiempo, hay algunas excepciones.

En 1734, siete años después de morir Newton, el obispo y filósofo británico (George Berkeley publicó su libro titulado The Analyst Or a Discourse Addressed to an Infidel Mathematician, Wherein It Is Examined Whether the Object, Principles, and Inferences of the Modern Analysis Are More Distinctly Conceived, or More Evidently Deduced. Than Religious Mysteries and Points of Faith. «First Cast the Beam Out of Thine Own Eye; and Then Shalt Thou See Clearly to Cast Out the Mode of Thy Brother’s Eye» (El analista, o discurso dirigido a un matemático infiel. Donde se estudia si el objeto, los principios y las inferencias del análisis moderno están concebidos con más claridad, o están deducidos de modo más evidente, que los misterios religiosos y los dogmas de fe. «Sácate primero la viga de tu propio ojo, y verás mejor para sacar la paja del ojo ajeno.») (Está visto que en aquella época a los autores les gustaban los títulos largos.) Berkeley acusaba a los matemáticos que utilizaban el cálculo infinitesimal de actuar sin lógica, y tachaba a éste de incomprensible. Además, les culpaba de utilizar un razonamiento que no estaba admitido por la teología. Tras señalar que las cantidades infinitesimales no eran «ni cantidades finitas, ni cantidades infinitamente pequeñas, ni incluso nada». Berkeley llegaba a la conclusión de que debían ser «los espíritus de cantidades desaparecidas». Observaba sardónicamente que quien usara semejantes métodos «no debía ser demasiado escrupuloso en materia de dogmas teológicos».

Los matemáticos contestaron en masa a las críticas de Berkeley, aunque ninguno supo defenderse debidamente de las acusaciones. En 1734, tampoco sabían los matemáticos lo que era una cantidad infinitesimal. Muchos tuvieron la sinceridad de admitir su desconcierto. Unos años antes, el matemático Michel Rolle, contemporáneo de Newton, había reconocido que el cálculo infinitesimal no parecía ser sino una sarta de falacias ingeniosas. Más adelante, otros llegaron a la conclusión de que ese método de cálculo era básicamente ilógico, pero que los errores que contenía conseguían anularse unos a otros. Cuando los alumnos del matemático francés Jean Le Rond D’Alembert pusieron en duda los métodos que éste les enseñaba, D’Alembert solo supo decirles que siguieran adelante, no obstante, y les prometió que finalmente les llegaría la «fe». El autor francés Voltaire, que divulgó las teorías de Newton en Francia (mientras le dejó la difícil labor de traducir los Principia de Newton a su amante, la marquesa de Châtelet resumió el tema con bastante acierto. El cálculo infinitesimal, según Voltaire, era «el arte de numerar y medir exactamente una Cosa cuya Existencia no podía concebirse».

A pesar de todo, las dificultades lógicamente asociadas con este tipo de cálculo no impidieron que los sabios lo utilizaran para sacar conclusiones de gran alcance. A sus ojos, los logros prácticos del método aportaban pruebas en favor del determinismo, doctrina según la cual todo en la naturaleza depende de causas anteriores.

Desde la época de Descartes, muchos filósofos y sabios habían imaginado el mundo de la naturaleza como si de una enorme y complicada máquina se tratara, que actuara según los principios matemáticos de las leyes de la naturaleza. Cuando los sabios empezaron a ver lo importantes que eran las ecuaciones diferenciales para la física, se fortaleció esa imagen. Efectivamente, las ecuaciones diferenciales permitían predecir el comportamiento futuro de cualquier sistema, mientras se conocieran la posición y la velocidad de las partículas de que se componía, en cualquier momento.

Así, la solución de la ecuación diferencial F = ma permite calcular la órbita de cualquier objeto astronómico, mientras se conozcan las fuerzas que se ejercen sobre el mismo. Sabiendo en qué lugar de su órbita se encuentra en un momento determinado, y la velocidad a la que se mueve en ese instante, se pueden calcular su futura posición y su velocidad. De la misma forma, se calculan ambas cosas en el pasado.

De poderse llevar a cabo estos cálculos para un planeta, un asteroide o un cometa, había de ser posible hacer cálculos similares para cualquier clase de objetos, al menos, en principio. Además, debería dar lo mismo (o al menos, eso creían en el siglo XVIII) el que dichos objetos fueran muy grandes, o microscópicos. Pensaban que si los métodos de cálculo eran correctos, debía uno ser capaz de predecir el futuro comportamiento de cualquier cosa. Y de ser así, lógico era concluir que estaba determinado de antemano el comportamiento de toda materia.

El astrónomo y matemático francés del siglo XVIII, Pierre Simon, marqués de Laplace es quien mejor dio a conocer esta visión del tema. Según Laplace:
Deberíamos considerar el estado actual del Universo como el efecto de su pasado y la causa de su futuro. Un espíritu que conociera en todo momento la totalidad de las fuerzas que animan la materia y las posiciones mutuas de los seres de que se compone, y fuera capaz de abarcar lo suficiente para someter esos conocimientos a análisis, podría condensar en una sola fórmula el movimiento de los mayores cuerpos del Universo y, a la vez, del átomo más ligero. Un intelecto así no conocería la incertidumbre, y tanto el futuro como el pasado estarían presentes ante él.

Aunque no existiera ese espíritu (o «demonio de Laplace», como se le llama a menudo) no por ello pierde fuerza el razonamiento. Es perfectamente lícito sostener que el futuro está determinado rigurosamente sin por eso suministrar un método para predecirlo. Por otra parte, de ser válida la hipótesis de Laplace, eso descarta que exista el libre albedrío del hombre, pues tanto el cerebro como el cuerpo humano están constituidos igualmente por materia. Por consiguiente, se debería poder describir su conducta por medio de las mismas ecuaciones diferenciales que se aplican a los átomos de que están formadas las materias inanimadas.

Naturalmente, de no ser válidos los métodos del cálculo infinitesimal, tampoco lo sería el razonamiento de Laplace, puesto que partía del supuesto que se podía describir por medio de ecuaciones diferenciales el comportamiento de toda materia, y que esas ecuaciones diferenciales podían resolverse, al menos, en principio. Si realmente el cálculo infinitesimal era una sarta de falacias; si, además, no era válido el supuesto de que sabiendo lo que ocurría en un momento determinado se podía predecir lo que sucedería al siguiente, y al otro, y al otro, entonces no había motivo suficiente para aceptar la teoría según la cual el Universo estaba regido por el determinismo*

Las dudas a ese respecto las despojó finalmente el matemático francés Augustin-Louis Cauchy en 1821. Ese año, Cauchy publicó una obra titulada Cours d’analyse (Curso de análisis), en la que presentaba un método para sentar el cálculo infinitesimal sobre unas, bases lógicas y sólidas.

Lo consiguió descubriendo un método para librarse de las molestas cantidades infinitesimales. Demostró que se podía fundamentar esa clase de cálculo en la noción de límite.

Como ya hemos visto, el problema que había con las cantidades en cuestión era el ser diferentes de cero, pero más pequeñas que cualquier número finito. La dificultad desaparece si se toman series de números cercanas a cero, pero sin realmente alcanzarlo nunca. Consideremos, por ejemplo, la serie 1, 1/2, 1/4, 1/8, 1/16, 1/32... (los puntos después de 1/32 significan que la serie se prolonga indefinidamente). Puesto que cada número es la mitad de pequeño que el anterior, nos podemos acercar todo lo que queramos a cero, con sólo prolongar la secuencia adecuadamente. En tal caso, decimos que el límite de la serie es cero. Se observará que aunque ésta se aproxime arbitrariamente a cero, no contiene cantidades «infinitamente pequeñas».

En un libro como éste, resultaría quizá excesivamente técnica la explicación que se pudiera dar de la forma en que Cauchy utilizó esas secuencias, y de la noción de límite, hasta llegar a deducir de ello los teoremas fundamentales del cálculo infinitesimal. Sin embargo, sí se puede afirmar que el método de Cauchy, que el matemático alemán Karl Weierstrass perfeccionó unos cincuenta años después, deshizo definitivamente toda duda de que se le pudiera dar al cálculo infinitesimal una sólida base lógica.

¿Quiere esto decir que es válida la doctrina del determinismo? No necesariamente. De hecho, el determinismo es todavía tema de debate, sin que nadie haya aportado una solución definitiva ni se pueda asegurar que alguien lo hará algún día. Es uno de esos enigmas que permanecerá en el ámbito de la filosofía al no darle respuesta la ciencia. Y es evidente que la ciencia nunca lo ha resuelto: el razonamiento de Laplace no sirve.

Antes de explicar los fallos que tiene, quiero hacer observar que, en cierto sentido, el determinismo es una teoría del tiempo.

Si se sostiene que la configuración actual del Universo presupone, por lógica, todas las configuraciones futuras del mismo, el futuro ha de estar —en cierto sentido— contenido en el presente. Si sólo hay un futuro posible, puede considerarse, de alguna forma, que los acontecimientos futuros «existen» ya. Por otra parte, de haber muchos futuros posibles, los acontecimientos futuros no son sino potencialidades. En la teoría de Laplace, no se distingue realmente entre el pasado y el futuro, al estar ambos contenidos en el presente.

Esto no impide que quien quiera seguir creyendo en el libre albedrío, lo haga si así lo desea, puesto que el razonamiento de Laplace contiene dos fallos distintos. El primero consiste en pretender que el espíritu super humano del que habla pueda conocer con exactitud las leyes de la naturaleza. Semejante punto de partida quizá no sea válido. Sabemos hoy día que no hay seguridad alguna de que existan leyes físicas exactas.

Durante los siglos XVII y XVIII los sabios creían que estaban descubriendo los principios físicos y matemáticos que Dios usara cuando creó el Universo. No obstante, es hoy día un hecho generalmente admitido que las «leyes de la naturaleza» que la ciencia va descubriendo no son, en realidad, sino aproximaciones.

Si bien la ciencia avanza, no descubre verdades fundamentales Tan sólo se aproxima a ellas con mayor precisión. Así, las leyes de movimiento, de Galileo, constituían exclusivamente una descripción aproximada del comportamiento de los cuerpos en su caída, y del de los proyectiles. Para poder llegar a las leyes en cuestión, Galileo tuvo que suponer que la fuerza de la gravedad permanecía constante, y que podía hacerse caso omiso de la resistencia del aire. Pero la gravedad no es constante, puesto que se debilita a medida que uno se aleja del centro de la Tierra. Aunque la diferencia de gravedad ejerza un efecto reducido sobre un objeto que caiga desde una altura de cinco o cincuenta metros, no se puede decir que las ecuaciones de Galileo fueran exactas hasta el último decimal. Y también es verdad que la resistencia del aire siempre reduce algo la velocidad, por poco que sea.

Tampoco eran exactas las teorías de Newton. Las teorías de la relatividad restringida y la relatividad general de Einstein demuestran que la mecánica de Newton sólo permitía una buena aproximación mientras no fuera muy elevada la velocidad ni muy intensos los campos de gravedad. Tampoco existe motivo para considerar que Einstein dijo la última palabra a este respecto. Sin embargo, se ha de esperar que los físicos descubrirán finalmente nuevas teorías capaces de mejorar esa aproximación.

Bien pudiera ser un proceso sin fin el de descubrir leyes físicas, comparable al de la serie de números 1, 1/2, 1/4, 1/8, 1/16 ... A pesar de acercarnos cada vez más a nuestro objetivo, paso a paso, pudiéramos no llegar nunca al final. Al no ser tampoco capaz el demonio de Laplace de avanzar hasta el final de la serie, no podía predecir lo que iba a ser válido en todos los tiempos. Cuanto más lejos intentara indagar en el futuro, más se multiplicarían las inexactitudes. En semejante caso, se podría decir que el razonamiento del determinismo sólo tiene una validez muy relativa.

En segundo lugar, en el razonamiento de Laplace, se sostiene que la posición y la velocidad de todas las partículas de que está constituido el Universo pueden determinarse con exactitud, al menos, en principio. Sin embargo, el descubrimiento de la mecánica cuántica, a principios del siglo XX, demostró que esa suposición no era válida.

La mecánica cuántica es la teoría que trata del comportamiento de la materia a nivel del átomo. Uno de sus resultados más fundamentales se materializa en el Principio de indeterminación o de incertidumbre de Heisenberg; que lleva el nombre del físico alemán Werner Heisenberg; quien lo descubrió en 1927. El principio de indeterminación enuncia que la posición y el momento (o la posición y la velocidad, puesto que se define el momento como el producto de la velocidad y la masa) de una pequeña partícula, como un átomo o un electrón, no pueden determinarse simultáneamente. Por supuesto, podemos medir cualquiera de esas cantidades con toda la precisión que deseemos, pero, cuanto mayor grado de precisión alcancemos en una, menor será en la otra. Si pudiéramos localizar un electrón en el espacio, su momento (y, por lo tanto, su velocidad) sería totalmente desconocido.

Existen diferentes formas de interpretar este principio. Se podría afirmar, por ejemplo, que sólo sirve para determinar un límite dentro de la precisión de las mediciones simultáneas. No obstante, la mayor parte de los físicos se adhieren a la Interpretación de Copenhague del principio en cuestión, la cual fue elaborada por el físico danés Niels Bohr y sus colegas del Instituto Bohr de Física Teórica, de Copenhague. Según la interpretación de Copenhague, no tiene sentido hablar de sí una partícula subatómica tiene simultáneamente una posición exacta y un momento exacto. Se considera que tanto el «momento» como la «posición» son unas nociones que se concibieron para describir los objetos del mundo macroscópico, pero cuya validez es limitada en el terreno del átomo.

Al ocuparse de cantidades que contienen incertidumbres, la mecánica cuántica no puede describir el comportamiento de las partículas subatómicas siguiendo un criterio determinista. Sólo es capaz de tratar medias estadísticas. Por ejemplo, si se impulsa un electrón en dirección a una pantalla fluorescente, no hay posibilidad de calcular exactamente en qué punto éste alcanzará la pantalla, y sólo se podrá prever la probabilidad de que tocará la pantalla en algún punto. Para comprobar lo que dice la mecánica cuántica, es necesario dirigir un elevadísimo número de electrones en dirección a la pantalla. En este caso, la mecánica cuántica prevé cierto tipo de distribución estadística, la cual se observa en los experimentos.

De todo ello se deduce que el demonio de Laplace no sería capaz de calcular la posición futura de ninguna partícula atómica. Todo lo más, podría calcular promedios estadísticos. Cabría la posibilidad de interpretarlo como cierta clase de determinismo, aunque mucho más «flojo» que el que Laplace tenía en mente.

Á1 final, se acaba concluyendo que el razonamiento de Laplace no demuestra nada, en realidad. Se ha de señalar, no obstante, que los razonamientos arriba expuestos no significan que el mundo sea básicamente indeterminista, ni que exista el libre albedrío. Lo único que he pretendido demostrar es que el razonamiento de Laplace es poco convincente.

Además, se ha de señalar que algunos físicos han intentado buscar formas de incorporar de nuevo el determinismo en la mecánica cuántica, arguyendo que si ésta fuera una teoría perfecta, se podía prescindir de probabilidades y promedios estadísticos. Hasta ahora, no han tenido mucho éxito sus esfuerzos por encontrar una teoría más amplia. Concretamente, algunos resultados teóricos recientes parecen demostrar que si se quiere sostener que los acontecimientos del mundo subatómico están predeterminados de alguna forma, se han de aceptar algunas conclusiones bastante extrañas.[3] En este momento, parece que quienes se adhieren a la interpretación de Copenhague ocupan una posición segura, pero, entonces, eso quiere decir que nadie sabe lo que nos depara el futuro, La física no ha proporcionado una respuesta definitiva en cuanto a si el futuro está o no predeterminado. Por eso, la pregunta sigue perteneciendo al ámbito de la filosofía. Y el tema del demonio de Laplace no tiene fundamento. Pese a todo ello, tampoco son del todo convincentes los argumentos que defienden el indeterminismo. Así, se habrá de concluir que la ciencia no ha dado contestación a la pregunta más importante sobre el carácter del tiempo futuro; la de saber si sólo existe un futuro posible, o si son muchos los que cabe imaginar.

Capítulo V
El descubrimiento del pasado y la idea de progreso

La gente que vivió en la época del Renacimiento no tenía idea del progreso. Posiblemente ha de atribuirse eso a su respeto por la antigüedad y, también, en parte, al hecho de no haberse todavía descartado del todo las ideas medievales sobre el tiempo. Fue el Renacimiento un período durante el cual el redescubrimiento de los antiguos clásicos, combinado con el mito de la edad de oro, hizo creer que no se iba a lograr superar en los tiempos modernos las realizaciones de la época clásica. Como, al igual que sus antecesores, los hombres[4] del Renacimiento creían que era bastante limitado el tiempo que quedaba, no demostraron demasiada propensión hacia el progreso intelectual o social. Aunque alguna vez se interesaran por el concepto antiguo del tiempo cíclico, no se plantearon, en general, el poner en duda la idea de que el mundo y la humanidad estaban próximos a su fin.

Gracias a la invención del reloj mecánico y al trabajo de poetas como Petrarca, o sabios como Galileo, el tiempo se estaba volviendo una entidad abstracta que se podía atesorar, desperdiciar y analizar, y que servía para ordenar la vida diaria. Sin embargo, a ninguno se le ocurrió que el tiempo pudiera extenderse indefinidamente en el pasado y en el futuro. Esto equivale a decir que se había descubierto el tipo de tiempo que se expresa en horas y segundos, pero no el que dura eones.

Durante el siglo XVIII se admitió la cronología fundada en la Biblia, lo que suponía que el mundo tenía una edad de menos de 6.000 años. Era una idea ya extendida durante la Edad Media la de que el mundo se creó hacia el año 4000 a.C., si bien se tuvo que esperar hasta el año 1650 para que el arzobispo James Ussher situara la fecha de creación en el año 4004 a.C. Por eso, durante el Renacimiento, se consideró al mundo como algo no excesivamente viejo.

Tendremos una idea más clara de cómo se veía el pasado en el Renacimiento si examinamos la cronología bíblica en términos de generaciones en vez de años. «4.000 a.C.» y «6.000 años» son unos conceptos demasiado abstractos para tener sentido real. Muchos de nosotros tendemos a considerar 6.000 años como un tiempo sencillamente «muy largo», y, en el aspecto psicológico, tampoco existe tanta diferencia entre 6.000 y 6 millones de años: en ambos casos, se trata de una duración muy superior a la de la vida humana.

Ahora, examinemos lo siguiente: si el mundo tenía menos de 6.000 años de existencia, y la cronología según el Antiguo Testamento se ceñía a la realidad, la madre de Moisés, Jocabed, podía fácilmente haber conocido a Jacob, y Jacob, a su vez, al hijo de Noé, Sem. Y Sem hubiera conocido seguramente a Matusalén. Este sólo tenía 243 años cuando murió Adán. Puesto que se considera que Adán fue creado tan sólo cinco días después de empezar el tiempo, todo el período que abarca desde la creación hasta el éxodo no hubiera durado más de cinco o seis generaciones (cierto es que algunas eran largas, pues se cree que Matusalén vivió hasta los 969 años). Y, a pesar de todo, ese período, tal como se suponía en la Edad Media y el Renacimiento, era mucho más largo que el que quedaba de existencia. Por eso, no es de extrañar que a quienes vivieran en la Edad Media les preocupara la eternidad, o que durante el Renacimiento no se tuviera demasiada noción del progreso.

Cuando se inició la Reforma protestante a principios del siglo XVI, se reforzó la creencia en la cronología de la Biblia, al menos en los países que aceptaron los nuevos dogmas protestantes. Los protestantes rechazaron la autoridad de la Iglesia católica romana, y promovieron la interpretación literal de la Biblia. Mientras los estudiosos católicos, desde los tiempos de san Agustín hasta principios del siglo XV, admitían una interpretación alegórica de los relatos bíblicos, los protestantes insistían en que Dios había dictado los libros de la Biblia, por lo que eran un relato histórico fiel a la realidad. Martín Lutero, por ejemplo, ridiculizó la hipótesis de Copérnico según la cual la Tierra giraba alrededor del Sol, apoyándose para ello en la interpretación literal de las escrituras. Señaló que la Biblia afirmaba que Josué había hecho detenerse el Sol —no la Tierra. Lutero también adoptó el año 4000 a. C. como año de la creación, por lo que pensaba que el fin del mundo estaba próximo. «El mundo se extinguirá dentro de poco», decía. «Estamos a las puertas del día final, y creo que al mundo no le quedan más de cien años de existencia.»

Cuando, en 1572 y 1604, aparecieron en el cielo unas «nuevas estrellas» (actualmente conocidas como explosiones de supernovas), se las consideró, en general, como presagios de la destrucción inminente. Anteriormente, se creía que las constelaciones permanecían inmutables. Por eso, cuando se observaron las supernovas, se tomó como una señal de que la corrupción que reinaba en la Tierra se había extendido a los cielos. Y cuando los astrónomos vieron con su nuevo instrumento, el telescopio, las manchas solares, concluyeron que también el Sol se descomponía.

Para el poeta isabelino. John Donne, incluso las montañas eran síntoma de degeneración. En base a la idea entonces generalizada de que la Tierra había sido en su origen una esfera perfecta, Donne hablaba de los montes y los valles como si fueran «verrugas y señales en la cara de la Tierra», y advertía: «Recapacitad, y arrepentiros, en este mundo cuya proporción está desfigurada.»

Un contemporáneo de Donne, sir Walter Raleigh, coincidía con él. Cuando Raleigh empezó a escribir su History of the World (Historia del mundo) en 1604, mientras estuvo encarcelado en la Torre de Londres (se le había condenado a muerte por alta traición; una suspensión de la pena hizo que se retrasara su ejecución hasta 1618), aceptó implícitamente la cronología de la Biblia. Según él, la fecha de la creación se situaba en 4032 a.C. Teniendo en cuenta, como la mayor parte de sus contemporáneos, que el mundo había de durar 6.000 años, llegó a la conclusión de que ya quedaban menos de 400 años.

Entre 1630 y 1640, el físico .sir Thomas Browne se expresó en el mismo sentido, y explicó por qué era inútil preocuparse de nociones como el progreso. «Es demasiado tarde para ser ambicioso», dijo Browne. «Las grandes mutaciones del mundo ya se han producido, o el tiempo sería demasiado breve para nuestros propósitos.»

El concepto moderno de un tiempo extenso, quizá sin límites, se introdujo de una forma bastante indirecta en el pensamiento occidental. Poco a poco, la noción de tiempo comenzó a cambiar, no porque se rechazara de golpe la cronología de la Biblia, ni porque los filósofos y los físicos fueran sacando nuevas conclusiones sobre la naturaleza del tiempo, sino porque se iba conociendo mejor la naturaleza de las leyes de la física. Así es como la nueva noción de tiempo fue tomando auge hasta extenderse de forma casi insidiosa.

Después de conocerse la obra de Galileo, los filósofos y los sabios acabaron dándose cuenta de que el comportamiento de los objetos físicos podía describirse en términos de matemáticas. De ahí se llegó a la conclusión de que existían unas leyes de la naturaleza establecidas por Dios para ordenar Su creación. Dicho sea de paso, éste era un concepto totalmente nuevo. Para la mayor parte de los pensadores de la Edad Media, la noción de una «ley de la naturaleza» hubiera sido del todo incomprensible. En su época, lo que más podía aproximársele era la ley natural, pero ésta nada tenía que ver con el comportamiento de los objetos físicos, puesto que se trataba de una ley moral que regía el comportamiento humano.

La nueva noción de que la propia naturaleza estaba sometida a leyes partía de la base implícita de que esas leyes no cambiaban con el tiempo. Por cierto que casi hubiera sido una blasfemia tan sólo sugerir lo contrario. De haber unas leyes de la naturaleza, su origen divino implicaba que debían permanecer fijas en todos los tiempos.

Si el Universo estaba regido por unas leyes inmutables, costaba imaginar que el mundo estuviera deteriorándose tal como lo creían muchos pensadores del Renacimiento y de la Reforma. La creación de Dios quizá acabaría siendo destruida, pero, sin embargo, se podía esperar que todo seguiría siendo aproximadamente igual durante un futuro previsible. Un Universo conforme a las leyes no podía desintegrarse súbitamente.

Aunque el razonamiento sea bastante complicado, va avanzando por etapas claras y lógicas. De haberse planteado, lo más seguro habría sido aceptado por los pensadores más destacados del siglo XVII. No obstante, es curioso que no se tiene conocimiento de que se expusiera nunca. Era un ideal que se asumía sin saberlo.

Forma parte del pensamiento de todas las épocas el admitir ciertas ideas inconscientemente. Por ejemplo, si los griegos de la época clásica no hubieran aceptado implícitamente que se podía comprender el mundo por medio de la razón pura (y no de los mitos o de la religión), nunca hubiera existido nada parecido a la filosofía griega. Durante la Edad Media, pocas veces se puso en tela de juicio la omnipresente autoridad de la Iglesia y la validez de la revelación divina: era algo que se daba por sentado en esa época.) Desde los tiempos de Galileo, los sabios han ido asumiendo tácitamente varios hechos de naturaleza filosófica, que probablemente no haya modo de probar. Han admitido, en primer lugar, que el Universo es fundamentalmente comprensible, y, en segundo lugar, que los instrumentos más adecuados para favorecer esa comprensión eran la experimentación y la utilización de la inferencia matemática. Todo ello parece tan natural que a muchos de nosotros ni se nos ocurriría ponerlo en duda. Y, sin embargo, no tenemos forma de demostrarlo en realidad. Que sepamos, puede haber cosas del Universo que nunca lleguemos a comprender.

Se dice que la filosofía moderna empieza con Descartes. Quizá tenga esto algo que ver con haber sido él el primero en exponer detenidamente el nuevo enfoque científico. Sólo fue después de conocerse los escritos de Descartes cuando se generalizó el debate sobre las «leyes de la naturaleza». Su filosofía ayudó mucho a difundir la idea de que la humanidad vivía en un Universo cuyo funcionamiento estaba gobernado por leyes.

Resulta paradójico que casi todas las teorías científicas del propio Descartes resultaran erróneas. A pesar de su contribución positiva a las matemáticas, las ideas que expuso sobre física y cosmología estaban, en general, equivocadas. Así, creía que el movimiento de los cuerpos dentro del Sistema Solar era similar al del agua en un remolino. Decía, además convencido, que a los planetas los arrastraba un vórtice celeste y que existían más vórtices alrededor de otras estrellas.

Al final, este error, en concreto, estimuló el progreso de la ciencia en vez de dificultarlo, ya que, después de Descartes, no se descartó la posibilidad de que el Universo pudiera ser muy grande, o quizá de una extensión infinita. De ser las estrellas unos cuerpos similares al Sol, podía haber innumerables sistemas planetarios. Si bien Newton refutó la teoría de los vórtices, Descartes hizo avanzar la hipótesis de Copérnico desplazando la Tierra aún más lejos del centro del Universo. En la cosmología de Descartes, ni la Tierra ni el Sol constituían el centro de la creación de Dios.

De Descartes también partió la idea de la evolución cósmica. Se dio cuenta de que si el Universo estaba gobernado por unas leyes fijas, esas leyes bien pudieran también determinar su evolución en el tiempo. Supuso que el Universo, en su origen, se hallaba en un estado de caos primigenio «cuyo desorden era tal que los poetas jamás pudieran imaginar». Según Descartes, con el paso del tiempo, las leyes naturales dieron lugar a la creación de las estrellas. En base a esta teoría, era inevitable que se formaran estrellas. Se piensa que llegó a la conclusión de que las leyes de la naturaleza actuaban guiadas por el determinismo mucho antes de que Laplace inventara su famoso razonamiento.

Según la teoría de Descartes, la Tierra fue originariamente una pequeña estrella. Después de un tiempo, aparecieron en su superficie unas nubes similares a las manchas solares. Finalmente, se formaron varias capas de nubes, las cuales, al acumularse, hicieron que disminuyera el vórtice que rodeaba la Tierra, y luego se destruyera. Así es como la Tierra, junto con el aire que la rodeaba, cayó en dirección al Sol hasta ser capturada por el remolino de éste. Pasó más tiempo, y «fueron formándose naturalmente las montañas, los mares, los manantiales y los ríos, y aparecieron metales en las minas, y las plantas crecieron en el campo». Probablemente, debió desarrollarse un proceso semejante en muchos otros lugares del Universo. De ser correcta la teoría de Descartes, existirían muchos mundos habitados.

Pero tan pronto como Descartes expuso su teoría, se apresuró a descartarla, prudentemente. Señaló que con ello sólo pretendía decir que la Tierra podía haber evolucionado de esa forma, y añadió: «Sabemos perfectamente bien que (la Tierra y las estrellas) nunca surgieron de esa forma.» Descartes advirtió: «La Revelación nos dice que Dios creó todo lo que constituye el mundo a la vez.»

No se sabe si Descartes creía o no en su teoría de la evolución. Se advierte en ciertas partes de sus escritos que no quería atraerse la censura eclesiástica. Ya había visto cómo trató la Iglesia a Galileo, y no tenía vocación de transformarse en mártir de la ciencia. Su refutación de la teoría también pudo ser sincera, puesto que quizá la dio tan sólo como ejemplo de la forma en que podían actuar las leyes de la naturaleza. O cabe la posibilidad de que creyendo realmente en ella, hiciera rectificaciones para que no se le acusara de herejía.

Pero sí quedó clara una cosa: Descartes no compartía la opinión, defendida por muchos de sus contemporáneos, de que el mundo iba a llegar pronto a su fin. Por el contrario, fue uno de los mayores defensores de la idea de progreso. Pensaba que la humanidad podía contemplar un futuro de duración infinita durante el que se inventarían «multitud de artefactos que nos permitirían disfrutar, sin esfuerzo alguno, de los frutos de la Tierra y todos sus beneficios». Lo conocido, seguía, «no representa casi nada comparado con lo que queda por conocer». En opinión de Descartes, el futuro auguraba progresos tanto en medicina como en la ciencia y la tecnología. Decía que, al final, la humanidad podría librarse «de infinidad de enfermedades, tanto del cuerpo como de la mente, e incluso quizá del deterioro por la edad, si supiéramos lo suficiente sobre sus causas, y los remedios que nos ha dado la naturaleza».

Descartes citó a la evolución cósmica, tecnológica, científica y social. Sólo dejó de lado la evolución de los organismos vivos. El vacío lo llenó en seguida Leibniz, que empezó a tratar esos temas hacia finales del siglo XVII. En su Protogaea, de 1693, Leibniz señaló que habían existido muchas formas de vida durante los períodos geológicos anteriores, que luego se habían extinguido. Sacó la conclusión de que, por consiguiente, había motivos para creer que «hasta las especies animales han sido transformadas muchas veces». Además, añadió que la evolución podía haberse producido desde la eternidad. Según él, existían dos posibilidades: «O bien no hubo comienzo, y los momentos o los estados por los que pasó el mundo han ido perfeccionándose eternamente, o el proceso sí tuvo un inicio.» Consideraba que ambas posibilidades eran compatibles con la noción de avance continuo de la evolución.

Fue Leibniz el filósofo que proclamó que era éste «el mejor de los mundos posibles», la doctrina que satirizó Voltaire en su novela Candide. Aunque el libro de Voltaire sea divertido de leer y esté escrito con humor, no presenta la doctrina de Leibniz con arreglo a la verdad. Contrariamente a lo que él da a entender, Leibniz no negaba que existiera maldad en el mundo, ni pretendió que el mundo hubiera llegado a un estado de perfección. En la visión de Leibniz, «el mejor de los mundos posibles» era un mundo capaz de evolucionar, y de perfeccionarse con el tiempo. A este respecto, su posición no era muy diferente de la de Descartes.

Aunque Leibniz escribiera sobre la posibilidad de una evolución biológica, parece como si pensara que semejante evolución, de haber ocurrido, se produjo en un pasado muy remoto. La mayor parte de sus especulaciones son de naturaleza metafísica. Su noción de la evolución está generalmente ligada a la idea de un progreso futuro hacia la perfección.

No por eso descartó del todo la evolución biológica. En realidad, llegó hasta sugerir que la propia humanidad podía haber evolucionado. Según sus teorías filosóficas, el alma humana no podía crearse ni ser destruida, puesto que siempre había existido. De ahí, cabía suponer que, en algún momento, las almas pudieran haber vivido en los cuerpos de los antecesores pre humanos del hombre. Hablando de las almas, observaba Leibniz:
Me imagino que las almas que algún día se volverán humanas habrán estado, como las de las demás especies, en las simientes, y en los antepasados, hasta Adán, y que, por consiguiente, habrán existido desde el principio de las cosas, siempre en algún tipo de cuerpo organizado... Pero hay varios motivos por los cuales parece propio pensar que sólo existieran como almas de seres sensibles, o animales.

Leibniz añadía que Dios sólo dotó a las almas de razón cuando evolucionaron los primeros hombres.

Si bien Leibniz y Descartes podían discurrir sin impedimento alguno sobre unos eones del tiempo largos y posiblemente sin fin, la mayor parte de sus contemporáneos se seguían sintiendo coaccionados por la cronología de la Biblia. Hasta bien adentrado el siglo XVIII, era un hecho ampliamente aceptado el que el mundo tuviera una existencia de menos de 6.000 años.

Pero esta imagen se fue resquebrajando poco a poco. Algunos individuos fueron suficientemente observadores para darse cuenta de que si el mundo era tan joven como se pretendía, eran difíciles de explicar algunas pruebas fósiles y de geología de que se disponía. Así, en 1663, el naturalista británico John Ray estudió las huellas fósiles de una selva virgen, lo cual le dejo profundamente turbado. Le confió a un amigo que «son tales las consecuencias de todo ello que contradicen las enseñanzas de la Sagrada Escritura en cuanto a la novedad del mundo».

En 1691, Edward Lhuyd, un conocido de Ray, le escribió que había caído una piedra enorme de una montaña en Gales, y precisaba que había miles de piedras similares en los dos valles al pie de esa montaña. No obstante, sólo dos o tres habían caído en el tiempo que recordara alguien que viviera en ese momento. Eso suponía que las montañas de la Tierra debían existir desde hacía muchísimo tiempo, de no ser, por supuesto, que se pudiera «atribuir una gran parte de ellas (las piedras que habían caído) al diluvio universal».

Ray llegó a una conclusión similar. Partiendo de los cambios geológicos que debieron ser necesarios de no haberse formado las montañas en primer lugar, observó que «si las montañas no estaban ahí desde el principio, o bien el mundo era mucho más viejo de lo que se imaginaba la gente, pues se necesitaba un intervalo de tiempo increíblemente largo para que se produjeran semejantes cambios... o, en tiempos primitivos, la creación de la Tierra ocasionó muchas más conmociones y mutaciones en la superficie que después».

Pero los geólogos de las generaciones sucesivas no siguieron con el tema. En vez de discurrir sobre la edad de la Tierra partiendo de los conocimientos de Ray, prefirieron intentar conciliar los descubrimientos geológicos con la cronología de la Biblia. Esto les tuvo ocupados durante dos siglos. Hacia principios del siglo XIX se volvió ortodoxa una teoría geológica a la que luego se llamó catastrofista. Según los catastrofistas, las formaciones geológicas que aparecían en la superficie de la Tierra podían atribuirse a toda clase de inundaciones y cataclismos que se habían producido en diferentes épocas de la historia de la Tierra. La última de estas catástrofes era, por supuesto, el diluvio que relata la Biblia.

Durante el siglo XVIII, la teoría del catastrofismo sirvió para explicar la presencia de rocas sedimentarias, que habían sido depositadas probablemente en el curso de inundaciones sucesivas, así como las características de los fósiles que se conservaban en dichas rocas. Según los catastrofistas, la vida en la Tierra se había extinguido durante cada levantamiento, y se volvía a crear después. Esta doctrina de las «creaciones especiales» constituía una forma de explicar las discontinuidades dedos fósiles sin tener que invocar la noción, todavía sospechosa, de la evolución biológica.

Una vez que los científicos se percataron de que los fósiles eran restos de organismos vivos, se enfrentaron con el problema de explicar por qué habían dejado de existir algunas formas de vida antes presentes. A esto, la teoría de la creación especial aportaba una contestación plausible. En aquella época, se disponía de testimonios paleontológicos mucho menos completos que hoy día, y no era obligado deducir que el progreso entraba dentro de una evolución si no se quería. Bastaba con suponer que la vida en la Tierra había ido destruyéndose por intervalos, y que las formas biológicas que se habían extinguido habían sido sustituidas por otras.

Esta teoría presentaba, de todas formas, un inconveniente. Como se registraba tal diversidad de fósiles, y aparecían tantas clases de organismos a diferentes niveles de los depósitos de sedimentación, se había de suponer que se había producido un número muy elevado de catástrofes (veintisiete, según una de las estimaciones). A algunos científicos les costaba aceptar semejante hipótesis de tan múltiples cataclismos.

El problema no era ya que esa noción contradijera el relato de la creación según el Génesis, puesto que, en esa época, se aceptaba que los «días» bíblicos de la creación se tomaran como períodos de tiempo de longitud indefinida, y, por consiguiente, bastaba con suponer que todas las catástrofes, salvo la última, se habían producido antes de la creación de Adán. La dificultad estribaba en descubrir los mecanismos que ocasionaban todas las supuestas catástrofes. De admitir que la Tierra había sufrido varias inundaciones, se había de explicar de dónde venía toda esa agua y adonde se fue luego. Una cosa era creer en el diluvio de Noé, pero otra era dar por sentado que habían ocurrido veintisiete inundaciones a escala mundial.

Es evidente que el catastrofismo no era la única explicación posible de los testimonios geológicos y fósiles que se habían hallado. De hecho, apareció una teoría rival al final del siglo XVIII. En 1785, el geólogo escocés James Hutton leyó su Theory of Earth (Teoría de la Tierra) ante la Royal Society de Edimburgo. Dicha sociedad publicó el libro en sus Proceedings (Actas) en 1788, y se sacó una edición ampliada, en dos volúmenes, en 1795.

Hutton rompió con los catastrofistas sosteniendo que los cambios geológicos no se producían súbitamente y a intervalos largos, sino lenta y continuamente. Afirmó que todavía se estaban formando rocas sedimentarias, principalmente en los océanos. Mientras tanto, las rocas expuestas al aire y al agua experimentaban una erosión, lo que producía grava y suelo. Los valles los creaban los ríos; no se formaron durante los diluvios periódicos. Finalmente, según Hutton, las fuerzas internas contenidas en la Tierra causaban hundimientos y levantamientos. Las montañas se iban creando lentamente, durante largos períodos de tiempo, y, de la misma forma gradual, se iban desgastando.

Se considera a Hutton como el fundador de la geología moderna. También se le puede ver como el hombre que descubrió el tiempo geológico. De ser correcta su teoría, se necesitaban evidentemente periodos largos para que obraran cambios en la Tierra. La teoría del catastrofismo sostenía que el mundo tenía algo más de 6.000 años de existencia, pero el aceptar dicha teoría no llevaba implícitamente a la conclusión de que tuviera tanta edad. Si habían ocurrido catástrofes periódicas a intervalos de unos miles de años, bien pudiera sólo tener unos 50.000 años. Por otra parte, la teoría de Hutton exigía que la Tierra tuviera varios millones de años de existencia, como mínimo. Si las fuerzas geológicas que moldearon la superficie de la Tierra en tiempos pasados fueron las mismas que las que actuaban entonces, los cambios no podían haberse producido rápidamente. Como dijo el propio Hutton, su teoría suponía que «no había rastro de un principio, ni perspectiva de un final».

Hasta cierto punto, la teoría de Hutton representaba un retorno a la visión de Descartes. Como éste, Hutton suponía que la evolución —en este caso, la evolución geológica— se debía al cumplimiento de las leyes naturales, que no cambiaban en el tiempo. Los catastrofistas, sin embargo, habían tenido que echar mano de acontecimientos raros y extraordinarios (e incluso de la intervención divina) para explicar las formaciones geológicas que se observaban en el presente.

Las teorías que, como las de Hutton, estaban fundamentadas en que los cambios del pasado eran el resultado de fuerzas que seguían actuando en el presente, fueron clasificadas más adelante bajo el nombre de uniformitas. Poco caso hicieron los contemporáneos de Hutton de su uniformismo. No supieron comprender que éste era el elemento más importante de su teoría, y, en vez de ello, cuando se referían a ésta y a las teorías de otros geólogos escoceses, las llamaban «vulcanistas», porque recurrían a la existencia de fuerzas creadas por la acción de los volcanes y al calor del centro de la Tierra. Por su parte, los catastrofistas recibieron el apodo de «neptunistas» porque recurrían a la formación de sedimentos durante los períodos de inundaciones. Ocurría como si los geólogos de la época de Hutton no quisieran imaginar la perspectiva de un tiempo infinito, y evitaran tener que hacerlo, desviándose para ello del tema principal, y dirigiendo su atención a los interrogantes menos importantes de todos los que planteara Hutton.

Tras varias decenas de años, en 1830, el geólogo británico Charles Lyell publicó el primer volumen de una obra titulada Principles of Geology (Principios de geología). Este libro tuvo una enorme repercusión, y logró que finalmente no quedara más remedio que enfrentarse con el tema del uniformismo. Si bien Lyell no aportó ninguna nueva idea importante a la geología, sí fue un gran sistematizador. Obligó a sus contemporáneos a tomar conciencia del tema al someterles una gran cantidad de pruebas que había ido recopilando y ordenando alrededor de éste.

Lyell, que había viajado mucho por Norteamérica y por Europa, analizó detalladamente todas las formas de las que podían producirse los cambios geológicos. Afirmó que cualquier proceso similar a un levantamiento volcánico, a la sedimentación, al intemperismo o a la erosión podía explicar las formaciones geológicas observadas, por lo que no había necesidad de suponer que se produjeran catástrofes, ni que actuaran en el pasado ningún tipo de fuerzas geológicas que no se observaran en el presente. Lyell siguió la huella de ciertas formas animales a través de los sucesivos estratos geológicos, y señaló que de haber ocurrido catástrofes, debieron limitarse a ciertas zonas, sin llegar a ser mundiales.

No es fácil que se exagere el significado del libro de Lyell, pues no sólo revolucionó la ciencia de la geología, sino que también proporcionó a Darwin el estímulo necesario para avanzar en su teoría de la evolución. Los Principios de geología fue uno de los libros que se llevó Darwin durante su viaje por mar en el curso del cual formuló por primera vez sus ideas sobre la selección natural. Sin él, pudiera no haber existido la teoría darwiniana. Darwin, él mismo admitió: «Siempre tengo la sensación de que mis libros salen a medias del cerebro de Lyell.»

La importancia de los Principios de Lyell reside en que probaban que había mediado suficiente tiempo para producirse la evolución. Después de su publicación, los geólogos empezaron a percatarse de que la Tierra debía llevar existiendo millones, si no decenas de millones de años, por lo menos. Ya en los años 1860, se hablaba de períodos de tiempo de centenares de millones de años. Y la teoría de Darwin necesitaba esos centenares de millones de años para poder llevarse a cabo, ya que su principio de selección natural implicaba que los cambios de la evolución iban efectuándose de forma muy gradual. De no haber existido la Tierra más que desde hacía unas pocas decenas de millares de años, como pretendían los catastrofistas, no hubiera podido producirse ningún cambio apreciable dentro de la evolución.

No fue Darwin quien estuvo en el origen de la noción de evolución biológica. Como hemos visto, se trataba de un concepto ya antiguo que remontaba nada menos que hasta Leibniz. Y tampoco fue éste el único antecesor de Darwin. Durante el siglo XVIII muchos fueron los sabios franceses que trataron el tema de la evolución biológica. Entre ellos puede citarse al matemático Pierre Louis Moreau de Maupertuis; el naturalista Georges Louis Leclerc, conde de Button, y el naturalista también, Jean Baptiste de Monet, Caballero de Lamarck. Maupertuis incluso se anticipó a las teorías modernas dé genética, al suponer que existían partículas hereditarias. Según Maupertuis, dichas partículas podían experimentar mutaciones capaces de producir cambios en las características físicas de plantas y animales.

Erasmus Darwin, abuelo de Charles Darwin, también era evolucionista. Discurrió sobré ese tema de tal forma que el poeta Samuel Taylor Coleridge acuñó la expresión «darwinizar», para referirse al hecho de elaborar teorías extravagantes. En realidad, lo que el poeta consideró aberrante fue la forma que Erasmus Darwin tuvo de tratar el tema, no el evolucionismo en sí. En 1819, cuarenta años antes de que se publicara The Origin of Species (El origen de las especies) de Charles Darwin, Coleridge dio una conferencia sobre temas filosóficos, en la que mencionó una teoría que «se ha extendido bastante, incluso entre los cristianos, según la cual la raza humana salió de su estado salvaje, pasando gradualmente, a través de varias etapas, del mono al hombre».

Así, lo que se debe a Charles Darwin no es el imaginar que las especies experimentaban una evolución, sino la elaboración de una teoría que explicaba de qué forma se producía esa evolución. La teoría de Darwin partía de la noción de selección natural. Según él, los individuos que, juntos, formaban cada una de las especies, habían de luchar sin cesar por la supervivencia. Quienes poseían rasgos hereditarios que les capacitaban para adaptarse bien a su entorno transmitían esos rasgos a su descendencia, mientras que aquellos cuyos rasgos hereditarios eran menos favorables se morían o no conseguían reproducirse. Así es cómo quedaban seleccionados los rasgos más convenientes.

La evolución darwiniana es un proceso que consta de tres etapas. Primero, tiene que existir cierta variedad en los miembros de una especie. De ser exactamente idénticos todos los individuos, no cabría la posibilidad de que se seleccionaran los rasgos más positivos. Segundo, han de ser hereditarios los rasgos que diferencian a un individuo de otro. Tercero, se tiene que producir una selección, de tal forma que algunos de los rasgos se conserven en las generaciones sucesivas, mientras que otros desaparecen, De estar presentes todos estos elementos, las especies irán cambiando poco a poco, en el transcurso de largos períodos de tiempo. O. dicho de otra forma, experimentarán una evolución.

Tampoco la noción de selección natural surgió por primera vez de la mente de Darwin. Se trata de un concepto antiguo que remonta por lo menos al siglo XVII, aunque es evidente que los naturalistas de ese siglo no relacionaron la selección natural con la evolución. A su forma de ver, la selección no era sino un sistema similar al de la poda, para velar por la conservación de los ejemplares sanos y eliminar los más débiles. Creían que servía sencillamente para impedir que los miembros de una especie se volvieran progresivamente menos sanos al cabo de varias generaciones.

Darwin no fue ni tan siquiera el primero en relacionar las nociones de evolución y de selección natural. Veintiocho años antes de publicarse El origen de las especies, un botánico escocés llamado Patrick Matthew había sugerido ya que la evolución se debía a la selección natural, en un apéndice de su libro On Naval Timber and Arboriculture (Sobre la madera de construcción de barcos y la arboricultura). Unos pocos años después, el naturalista inglés Edward Blyth expuso la misma idea. Aparentemente, Blyth le concedió a esa observación tan poca importancia como lo hiciera Matthew, puesto que dejó enterrada su hipótesis en medio de un artículo que trataba de las variedades de animales.

A pesar de todo, es a Darwin a quien se le debe atribuir el origen de la teoría de la evolución por medio de la selección natural; aunque no fuera el primero en elaborar la hipótesis, sí fue él quien recopiló las pruebas que se necesitaban para demostrar su validez. Desempeñó un papel comparable al de Newton, quien, sin haber sido quizá el primero en idear la ley de la gravitación —de la inversa del cuadrado—, fue el único hombre, en la Inglaterra del siglo XVII, que supo demostrar la validez de esa ley por medios matemáticos.

No pretendo aquí estudiar exhaustivamente la teoría de Darwin, ni seguir el progreso de la noción de selección natural. Sólo quiero demostrar que el concepto de evolución ya estaba latente mucho antes de que Darwin pusiera sus ideas por escrito, y señalar la relación que hubo entre las ideas de la evolución y el empeño por el progreso en la época de la reina Victoria.

Varios autores opinan que aun si no hubiera vivido Darwin, la teoría de la evolución se hubiera impuesto igualmente, por el hecho de que la idea de progreso se había transformado casi en artículo de fe en la época victoriana. Puesto que se consideraba entonces que la evolución era una especie de versión biológica del progreso, es probable que alguien hubiera salido defendiendo la validez de la hipótesis de la evolución por la selección natural, de no haber estado Darwin para hacerlo.

Siendo la evolución algo que la cultura victoriana estaba predispuesta a aceptar, cabía esperar que la teoría en cuestión se admitiría muy rápidamente en cuanto se propusiera, y esto es exactamente lo que ocurrió. Se ha de reconocer que hubo cierta oposición durante los años que siguieron inmediatamente la publicación del Origen de las especies, pero se ha exagerado su importancia. No sólo se aceptaron rápidamente las ideas de Darwin, sino que se adoptaron en la práctica. En 1863, sólo cuatro años después de publicarse el libro de Darwin, el geólogo inglés Charles Kingsley observó que el mundo científico estaba «alterado». Darwin, decía, estaba «conquistando a todos, y arrasaba como la marea». Al año siguiente, se le concedió a Darwin la Copley Medal de la Royal Society, la más alta condecoración que se otorgaba a un científico en Inglaterra. Y, en 1866 el botánico Joseph Hooker anunciaba con júbilo a la British Association que la teoría de Darwin era perfectamente ortodoxa.

Hasta el público, en general, se entusiasmó con su teoría. No faltaron, por supuesto, los anatemas desde algún que otro púlpito, ni algo de oposición por parte de los creacionistas. La mayor parte de la gente, no obstante, se mostró muy dispuesta a aceptar cualquier nueva idea que hubiera sido respaldada por la comunidad científica, y más encajando tan bien con el sentir general. Por supuesto, las ideas de la evolución se extendieron con rapidez, sin que apenas pudiera haber sido de otra forma. Además, la época victoriana se caracterizó por su interés por la ciencia. Era entonces frecuente que eminentes científicos se dirigieran a un público obrero. También se daba la circunstancia de ser un momento en que un tratado tan imponente como los Principios de geología de Lyell, que constaba de seiscientas páginas, se vendía con gran éxito.

En 1869, la publicación religiosa The Guardian recomendaba la décima edición de los Principios de geología, donde Lyell se afirmaba partidario de la teoría de Darwin ante sus lectores. Esto llevó a declarar al amigo de Darwin y naturalista Alfred Russel Wallace que «entre que los tories adoptan proyectos de ley de reforma radicales y que la Iglesia preconiza el darwinismo en sus periódicos, no debemos estar lejos del milenio». Darwin no se mostró satisfecho con el giro que tomaron las cosas. Temía que habiéndose adoptado su teoría con demasiada rapidez se desencadenaría enseguida una reacción en contra de la misma. No tenía por qué haberse preocupado. Cuando, en 1871, publicó su Descent of Man (Descendencia del hombre), se encontró con que sus ideas sobre los antecesores del hombre se aceptaban sin rechistar.

En un sentido estricto, la teoría de Darwin no era una teoría de progreso. Cuando las especies evolucionan, no alcanzan realmente niveles «más elevados», sino que sencillamente se adaptan a los cambios del entorno. A los seres humanos les halaga creer que ellos representan una especie de culminación dentro de la evolución. Sin embargo, no hay motivo que justifique semejante apreciación antropomórfica. Hasta pudiera concebirse que la humanidad no resultara ser sino una aberración momentánea dentro de la evolución. Aunque el género Homo tan sólo tiene 2 millones de años de existencia, ya dispone de capacidad para destruirse a sí mismo. Y no se puede afirmar que un género que sólo dure 2 millones de años esté demasiado conseguido en materia de evolución. Si pretendemos ser objetivos al respecto, habremos de llegar a la conclusión de que ni tan siquiera lograremos probablemente emular la trayectoria de la cucaracha, que viene evolucionando desde hace aproximadamente 250 millones de años.

Pero en la época victoriana no se veían así las cosas. Para quienes vivían entonces, los términos «evolución» y «progreso» eran prácticamente sinónimos. Tan enamorados estaban de sus ideas de evolución que procuraron encontrar ejemplos de evolución en campos ajenos al mundo biológico. No necesitaron alejarse mucho de él. Poco después de ser aceptada la teoría de Darwin, los antropólogos de la era victoriana empezaron a hablar de la evolución de las costumbres y de la sociedad humanas. Hasta consideraron las prácticas sexuales en términos de evolución. Según la doctrina aceptada en aquella época, los miembros de las sociedades humanas primitivas —y también en las sociedades primitivas de entonces— vivían en la mayor promiscuidad. Al cabo de largos períodos de tiempo, esto había abocado a la monogamia de la edad victoriana, que constituía, naturalmente, el mayor grado de perfección.

Mientras tanto, el filósofo británico Herbert Spencer se esforzaba por elevar la evolución a la categoría de principio cósmico. Según él, las leyes de la evolución (o sea, el progreso) gobernaban prácticamente todos los procesos naturales que podían observarse en el Universo. Sostenía que, en su origen, la superficie de la Tierra había sido muy lisa, y que, desde entonces, iba evolucionando hacia una mayor complejidad. El enfoque de Spencer era totalmente opuesto al que imperaba en la época isabelina, cuando se pensaba también que la Tierra había sido lisa en el momento de su creación, pero se consideraba su creciente irregularidad como una prueba de corrupción. El clima de la Tierra también había evolucionado a lo largo de extensos períodos de tiempo, según creía Spencer. Desde que se creara, la Tierra se había ido diversificando.

Para Spencer, el principio de la evolución era mucho más que una ley biológica. Ese concepto podía aplicarse igualmente a los fenómenos sociales. Decía que las sociedades humanas también habían ido evolucionando hacia una mayor complejidad. Lo mismo valía para el lenguaje humano y para las herramientas que usaba el hombre.

Y, evidentemente, el propio Universo reproducía este mismo principio. Así, las estrellas y los planetas habían evolucionado a partir de las nebulosas gaseosas. Al igual que todo lo que contenía, el propio Universo adquiría una complejidad creciente al hilo de largos años. En opinión de Spencer, la evolución era una ley cósmica universal.

Pocos son quienes leen actualmente a Spencer. Incluso algunas historias de la filosofía ni tan siquiera mencionan su nombre. Sin embargo, en vida despertó la admiración de muchos, y quizá fuera el más leído de los filósofos. Había un motivo muy evidente para ello: incluso en mayor proporción que Darwin, Spencer fue el profeta de la buena nueva del progreso.

¿Por qué se tenía tal obsesión por el progreso en la época victoriana? Suele contestarse generalmente que era porque la gente estaba impresionada por los logros de la revolución industrial. Pero tiene que haber algo más. Hoy día, los avances tecnológicos se suceden a todavía mayor velocidad, y, sin embargo, nos hemos transformado en unos escépticos que, a veces, se preguntan si la tecnología no estará progresando demasiado rápidamente, y si no nos estamos creando con ello más problemas de los que resolvemos.

Quizá no sea posible explicar, de forma sencilla, por qué el progreso se transformó casi en un ideal religioso durante la última parte del siglo XIX. El que se ensalzara semejante punto ha de ser el resultado de la interacción de varios factores complejos.

Pero sí se puede explicar de dónde partió la idea de progreso. Surgió del concepto que tenía Descartes de las leyes de la naturaleza. Después de él, se empezó a asemejar al Universo a una gran máquina que se movía de acuerdo con unos principios fijos. Así, llegó a considerarse el mundo como algo que había de continuar indefinidamente en el futuro. Se creía menos en la intervención divina, y se contemplaban los milagros con escepticismo. El progreso —social, intelectual, tecnológico y biológico— era posible porque había tiempo.

Esta forma de ver la naturaleza llegó a su auge durante la época victoriana. Entonces, la ciencia estaba revestida de mayor prestigio que en ninguna otra época de la historia, incluso más que en nuestros días. Se creía que los descubrimientos de la ciencia eran incontrovertibles, y que las leyes científicas no podían ser sino exactas. Estaba extendida la creencia de que el Universo —si no la mente humana— estaba regido por un determinismo como el de Laplace.

No fue sino en el siglo XX cuando la relatividad y la mecánica cuántica empezaron a sembrar incertidumbres en este panorama.

En todas las épocas ha sido la noción de tiempo un elemento fundamental para orientar la visión que, a su vez, se tuviera del mundo. Los antiguos griegos consideraban que el tiempo era cíclico, por lo que no concebían la idea de progreso, sino que difundieron el mito de la degeneración después de una edad de oro. Pero, para muchos, la edad de oro no se situaba sólo en el pasado: se hallaba también en el futuro. Así, el poeta Hesíodo, aproximadamente contemporáneo de Homero, comentaba que vivía en la edad del hierro, la peor de todas. Hubiera sido mucho mejor para él, decía, haber nacido mucho antes —o después.

El concepto de tiempo lineal fue introducido por el judaísmo, y luego desarrollado por los primeros escritores cristianos. Pero se trataba de un tiempo lineal de breve duración, pues se había iniciado en un pasado no muy lejano, y pronto llegaría a su fin. El tiempo abstracto sólo empezó con la invención del reloj, y con las investigaciones de Galileo en torno a los cuerpos en su caída. Partiendo de Descartes, este tiempo fue transformándose gradualmente en el tiempo sin límite que forma parte de la visión moderna del tema.

Algunos escritores preconizan que el motivo de que la sociedad tecnológica se desarrollara exclusivamente en occidente reside en que sólo allí existía la noción de tiempo lineal, como si quisieran relacionarlo con la noción de progreso. Y por supuesto que ambas cosas están ligadas, pero eso no es todo. Sólo pudo materializarse el interés por el progreso cuando se percibió el tiempo de la misma forma que lo hicieran personajes como Hutton, que lo veía como algo en lo que no había «vestigios de principio alguno ni perspectivas de final».

Capítulo VI
La edad del mundo

Durante el siglo XVII, las teorías de Descartes y de Newton acostumbraron a los filósofos y los sabios a la idea de que el Universo pudiera ser infinito. Aunque Descartes no desarrollara ese tema, otros autores se dieron cuenta de que su teoría de los vórtices dejaba entrever la posibilidad de prolongar el espacio hasta el infinito. Si cada estrella era el centro de un vórtice capaz de contener un sistema planetario, no parecía descabellado deducir que el número de dichos sistemas fuera ilimitado.

Por otra parte, Newton afirmó explícitamente que él creía en un Universo infinito. En 1692, expuso sus motivos en una carta que dirigió al pastor y erudito inglés Richard Bentley. De no ser infinito el Universo, explicaba, la gravedad haría que se concentraran en su centro todas las materias de que estaba compuesto. «Pero si las materias estuvieran distribuidas por igual en un espacio infinito», seguía, «nunca se juntarían para formar una sola masa, sino que unas se agruparían en una masa, y otras, en otras, hasta constituir un número infinito de grandes masas diseminadas por todo ese espacio infinito, a grandes distancias unas de otras.»

De estar esparcido el Universo por un espacio infinito, cabía suponer que el tiempo fuera igualmente infinito, y pudiera extenderse indefinidamente tanto hacia el pasado como hacia el futuro. Por supuesto que no había ninguna relación lógica entre la infinitud del espacio y la infinitud del tiempo, pero tampoco la mente humana necesita siempre que la haya. En cuanto se empieza a considerar una variedad de infinito, ya resulta más fácil imaginar inmediatamente otra clase de infinitudes. Así es como unos pocos empezaron a percatarse de que en un Universo sin límites en el espacio, este mismo podía no tener ni principio ni fin.

Así como algunos de los filósofos griegos —como Aristóteles, por ejemplo— habían discurrido sobre la eternidad del mundo, la mayor parte de los hombres de ciencia de los siglos XVII y XVIII no lo hicieron. La doctrina cristiana lo impidió. Así resultó que incluso quienes estaban familiarizados con la filosofía clásica griega, o con los universos infinitos de Newton y Descartes, se guardaron de analizar la posibilidad de que el tiempo fuera infinito. La amplia mayoría de los sabios de esa época eran creyentes, por lo que generalmente se abstuvieron de expresar ideas que pudieran considerarse heréticas.

Pero cuando Lyell demostró, durante el siglo XIX, que no se podían sostener las teorías geológicas estrictamente ligadas a la cronología de la Biblia, se rompió enseguida aquel silencio autoimpuesto. Si bien el propio Lyell no creía que el tiempo era infinito, sino tan sólo inimaginablemente extenso, algunos de sus seguidores fueron menos prudentes. Poco después de publicarse los Principios de geología, algunos geólogos empezaron a hablar de un tiempo que se prolongaba en un pasado infinito. Como Lyell había demostrado que las causas de los cambios geológicos en el pasado eran idénticas a las que actuaban en aquel momento, los hombres de ciencia no tuvieron el menor reparo en concluir que la Tierra debió existir siempre.

El físico británico William Thomson no vio esto con buenos ojos. Para él, el mundo no podía haber existido desde un tiempo infinito, ni era probable que tuviera más de 100 millones de años de existencia. Además, dijo Thomson, incluso los principios en que se basaba la doctrina del uniformismo eran sospechosos, por ser contrarios a una de las leyes fundamentales de la física.

Thomson, a quien la reina Victoria elevó a la dignidad de par en 1892, como reconocimiento de su labor científica, suele citarse frecuentemente con el nombre de lord Kelvin. Casi todos sus contemporáneos le consideraron como el mayor físico de su época. Por eso, cuando Kelvin rechazó los principios de uniformismo, la comunidad científica le hizo caso.

Kelvin había sido un joven brillante. Publicó su primer trabajo científico antes de los diecisiete años. Cuando, en 1846, a los veintidós años, entró de profesor de Filosofía Natural en la Universidad de Glasgow, tenía ya impresos veintiséis documentos de trabajo. Después de ser nombrado para la cátedra. Kelvin siguió produciendo trabajos científicos a un ritmo prodigioso. Se le reconoció ampliamente el valor de sus aportaciones, y se le concedió el título de «sir» en 1866. El día de Año Nuevo de 1892 recibió el título de barón Kelvin de Largs. Para entonces, ascendían a más de quinientas sus publicaciones científicas, y había recibido títulos de doctor honorario de diez instituciones de cinco países diferentes.

Sus objeciones al uniformismo se basaban en la segunda ley de la termodinámica, que descubrieron, cada uno por su lado, él mismo y el físico alemán Rudolf Clausius, a principios de los años 1850. La segunda ley, que constituye uno de los principios de mayor alcance de la física, puede enunciarse de muchas maneras diferentes. Quizá la más sencilla sea la del propio Kelvin. Según él, cualquier proceso que convierta la energía de una forma en otra pierde siempre algo de esa energía en forma de calor. Ninguna máquina, ni ningún proceso de la naturaleza puede trabajar con una eficacia del cien por cien.

Naturalmente, también hay una primera ley de termodinámica. Esta no es sino un enunciado del principio de conservación de la energía: la energía puede convertirse de una forma en otra, pero no puede ni crearse ni ser destruida[5]. Por ejemplo, cuando está encendida una cerilla, la energía química se convierte en luz y calor. Un generador eléctrico convierte la energía mecánica en eléctrica; un motor eléctrico es un aparato que la vuelve a convertir en energía mecánica. En ninguno de esos procesos se crea ni se destruye energía.

La segunda ley de la termodinámica puede demostrarse con el siguiente ejemplo: la energía química contenida en la gasolina se convierte en energía mecánica en un motor de automóvil. De acuerdo con la segunda ley, este proceso no puede ser perfectamente eficaz. De hecho, el rendimiento es bastante limitado, puesto que la mayor parte de la energía convertida por un motor de combustión interna calienta el motor o sale expulsada por el escape. Hasta los motores Diesel de mayor rendimiento convierten la energía química en movimiento con una eficacia algo inferior al 35%. Además, no hay forma de vencer esa limitación. Según la segunda ley de la termodinámica, una parte considerable de la energía se disiparía en forma de calor incluso en un motor perfecto sin fricción.

Existe otra forma de enunciar las dos leyes de la termodinámica, que no por ser algo coloquial deja de ser precisa. La primera ley podría expresarse como sigue: «Nunca se da nada a cambio de nada», y la segunda: «Y además, algo se sale perdiendo.» O, dicho de otra forma, no se puede crear energía partiendo de la nada, y cuando se convierte, siempre se desperdicia algo.

Al aplicar la segunda ley a la geología, Kelvin sostuvo que las fuerzas geológicas no podían actuar a un ritmo constante durante un período indefinido de tiempo. Mientras estuvieran actuando, su energía se iría disipando en forma de calor. Finalmente, la Tierra perdería su energía interna, y dejarían de producirse cambios geológicos. Después de todo, la energía almacenada en la Tierra no era infinita. Y precisamente, para que estos cambios geológicos vinieran efectuándose desde tiempos infinitos, hubiera sido necesario un suministro infinito de energía.

Kelvin razonó que si la segunda ley significaba la no validez de la doctrina uniformista, debería ser capaz de servirse de la primera ley para calcular desde cuándo existía la Tierra. Puesto que era evidente que los cambios químicos que intervenían dentro de ésta sólo eran capaces de producir cantidades insignificantes de energía, también le pareció evidente a Kelvin que la temperatura del interior de la Tierra fuera disminuyendo gradualmente. La energía no podía crearse de la nada, por lo que el calor de la Tierra se debía estar escapando.

Partiendo de la suposición que la Tierra fue en su origen una masa líquida, Kelvin dedujo que habrían pasado unos 98 millones de años desde que la corteza se enfriara y se solidificara. Al admitir que ese resultado pudiera estar alterado por hechos desconocidos imputables a la estructura del interior de la Tierra, Kelvin adelantó prudentemente que su edad podía estar comprendida entre los 20 millones de años, con lo cual sería relativamente joven, y los 400 millones, una edad venerable.

En su época, se admitía generalmente que la Tierra estuviera en estado líquido en su inicio. Hoy día, los científicos albergan sus dudas al respecto. Muchos creen que se condensó a partir de una nube relativamente fría de gas y polvo que se encontraba en la órbita del Sol primigenio. No obstante, aunque se hubiera conocido durante el siglo XIX esta teoría u otra similar, ello no hubiera incidido en los resultados obtenidos por Kelvin, puesto que lo que él pretendía determinar era la edad máxima de la Tierra. Y, de suponer que ésta había sido en su origen relativamente fría, se habría llegado a una edad inferior, no superior. En ese caso, habría sido menor la cantidad de calor que se hubiera disipado, por lo que podía haber ocurrido en menor tiempo.

Kelvin leyó su primer trabajo sobre el enfriamiento de la Tierra en 1862. Durante el resto de su vida, volvió repetidamente sobre el tema, y fue perfeccionado cada vez más sus estimaciones a lo largo de varias decenas de años. Si bien al principio estaba dispuesto a admitir una edad tan elevada como 400 millones de años, en 1897 sostuvo que la cifra más probable sería de 24 millones de años.

Kelvin aplicó un razonamiento semejante a la temperatura del Sol. En 1862, calculó que el Sol no podía tener más de 500 millones de años. La estimación que juzgó más probable la situó en 100 millones de años, aproximadamente la misma edad que había calculado para la Tierra, aunque concedió menos importancia a estos cálculos que a los que aplicó a la Tierra, ya que, por el hecho de que los conocimientos de la física del Sol eran limitadísimos, su razonamiento en este caso iba a ser menos convincente.

Kelvin se enzarzó en una violenta discusión con los geólogos en 1868. A principios de ese año, leyó ante la Sociedad Geológica de Glasgow un escrito titulado «Sobre el tiempo geológico». Hacía seis años que había leído su primer escrito sobre la edad de la Tierra. Ya en 1868, había adquirido tal certeza referente a su método como para limitar la longitud del tiempo geológico a un período de tiempo no superior a los 100 millones de años.

Si bien lo que atacaba eran las teorías de los geólogos uniformistas, quienes más heridos se sintieron por sus afirmaciones fueron los biólogos partidarios de la teoría de la evolución. Durante mucho tiempo se había admitido que si la evolución se debía a la selección natural, se necesitaba para ello largos períodos de tiempo. Recordemos que uno de los puntos de partida más importantes de Darwin era el postulado de que no existían saltos súbitos en la evolución. Según él, las especies evolucionaban porque la selección natural actuaba sobre pequeñas variaciones que se producían naturalmente; estos cambios eran muy graduales.

Cuando Darwin escribió el Origen de las especies, no indicó el tiempo que se requería para que se produjera un cambio en la evolución. No obstante, quedó claro para sus contemporáneos que pensaba en términos de centenares de millones, o incluso miles de millones, de años. Darwin se refirió en una ocasión a los períodos de tiempo. En la primera edición del Origen de las especies, presentó una estimación que pretendía demostrar que algunos cambios geológicos habían necesitado hasta 300 millones de años para efectuarse. Sin embargo, en conjunto, se había conformado con la conclusión de Lyell de que el tiempo pasado había sido inimaginablemente extenso.

Por eso, se comprende que le molestara enterarse de que Kelvin había encontrado, al parecer, unas pruebas incontrovertibles de que no cabía pasar de los 100 millones de años. Se sabe que, en privado, se refirió a Kelvin como a un «odioso espectro», y que intentó modificar sus teorías para encajar la evolución dentro de las nuevas limitaciones de tiempo.

Hubo circunstancias en las que, por intentarlo, llegó a contradecirse a sí mismo. Así, en la última edición del Origen de las especies, trató de acelerar el proceso de la evolución bajo el supuesto de que «en los primeros tiempos, el mundo sufrió transformaciones físicas más rápidas y violentas que las que ocurren ahora, lo cual indujo, a su vez, otros cambios, a un paso semejante, en los organismos que entonces existían». O sea, que la evolución había sido más rápida cuando el mundo era joven y se producían situaciones caóticas. Pero resultaba que estas afirmaciones contradecían directamente otras partes del libro, que se arrastraban de las ediciones anteriores, y en las que el autor explicaba con toda claridad que la evolución de la vida inicial había seguido un ritmo más lento.

A los ojos de algunos científicos, las limitaciones que imponía Kelvin a la edad de la Tierra no presentaban mayores dificultades. Si la física no admitía que tuviera más de 100 millones de años, ésa era la cifra con la que se debían conformar los geólogos y los biólogos en sus trabajos. Ésta fue la opinión de Thomas Henry Huxley, el biólogo británico que encabezó la breve lucha que se entabló en defensa de las teorías de Darwin. En 1869, Huxley observaba:
La biología toma su tiempo de la geología. El único motivo que tengo para creer en la lentitud con que se producen los cambios en las formas de vida es su persistencia en toda una serie de depósitos, los cuales han tardado mucho tiempo en formarse, según nos dice la geología. Si la medición geológica está confundida, no les quedará más remedio a los naturalistas que modificar en consecuencia sus teorías en cuanto al paso al que dicen que se han producido los cambios.

Kelvin no estaba de acuerdo con esto. Aunque no negara que había existido una evolución, argüía que la selección natural era un mecanismo demasiado lento para poder provocarla. Por cierto, tampoco estaba seguro de que la vida hubiera evolucionado en la Tierra por primera vez, ya que pudiera haber sido de origen extraterrestre. Según él, los organismos primitivos podían haber llegado a la Tierra desde un mundo anteriormente habitado. Y, por supuesto, cabía otra posibilidad evidente: la de la creación divina.

A finales del siglo XIX, la cifra avanzada por Kelvin de 100 millones de años ya era un hecho prácticamente admitido. No sólo la aceptaron los geólogos, sino que incluso hicieron sus propios cálculos, que parecieron confirmar la evaluación de Kelvin. Por ejemplo, el geólogo británico John Phillips estimó que la roca sedimentaria se formó a razón de un pie (30,48 cm) cada 1.332 años. Considerando el espesor de los sedimentos en la superficie de la Tierra a 72.000 pies (21.946 metros), obtuvo la cifra de 95.904.000 años, sorprendentemente próxima a los 100 millones de Kelvin. En 1899, el geólogo irlandés John Joly calculó la cantidad de sal que los ríos arrastraban al mar cada año, y concluyó que los océanos tenían una existencia de unos 90 millones de años.

Hoy sabemos que ni la Tierra ni los océanos son tan jóvenes. Actualmente, se estima la edad de la Tierra en 4.600 millones de años. Es más difícil determinar la edad de los océanos, a los que hoy día se atribuyen al menos 2.000 millones de años. Pero, a finales del siglo XIX, había tomado carácter de dogma la idea de que la Tierra tenía 100 millones de años de existencia. Los geólogos no estaban dispuestos a aceptar la última evaluación, probablemente más aproximada, de Kelvin, de 24 millones de años, ni someter a un examen más profundo los cálculos algo dudosos, mientras éstos dieran el resultado «correcto». Algunos geólogos previeron que pocos años después se cambiaría radicalmente de opinión respecto a la edad de la Tierra.

En 1896, cuando estaba experimentando con unas muestras de sulfato de potasio uranilo, un compuesto químico que contenía el elemento uranio, el físico francés Henri Becquerel descubrió que el uranio emitía un tipo misterioso de radiación capaz de oscurecer las placas fotográficas. Unos dos años después, la física francesa de origen polaco Marie Curie empezó a estudiar varias sustancias naturales que presentaban el efecto que Becquerel había señalado. En 1898, junto con su marido, Pierre Curie, anunció que habían descubierto dos elementos nuevos: el radio y el polonio. Marie acuñó la palabra «radiactividad» para describir la emisión espontánea de energía por parte de esas dos sustancias. Más adelante, en 1903, Pierre Curie, junto con su asistente Albert Laborde; descubrió que esa emisión de energía se acompañaba además, de producción de calor.

El mismo año, el físico británico Ernest Rutherford se puso a experimentar con las sustancias radiactivas. No tardó mucho en comprobar que la cantidad de calor despedido era proporcional al número de partículas alfa que habían sido emitidas. Anteriormente, Rutherford había demostrado que las sustancias radiactivas emitían tres clases de radiaciones, a las que llamó alfa,beta y gamma, según las tres primeras letras del alfabeto griego. Varios años después, se demostró que las partículas beta eran electrones, y que las partículas alfa eran idénticas a los núcleos del elemento helio {compuesto por dos protones y dos neutrones).

Aunque en 1903 Rutherford no supiera todavía lo que eran las partículas alfa, se dio cuenta de que la energía que se desprendía cuando se liberaban podía explicar el calor del interior de la Tierra. Observando que la materia radiactiva estaba presente en el suelo en una concentración de cerca de cinco partes por 10.000 millones, pensó que bien pudiera encontrarse en la misma concentración en toda la Tierra. De ser así, señaló, desprendería suficiente calor para mantener a ésta a temperatura constante. En este caso, todos los cálculos de Kelvin —que se basaban en la suposición que la Tierra se estaba enfriando— eran erróneos. El calor producido por la radiactividad sería capaz de mantener caliente el interior de la Tierra durante un larguísimo período de tiempo.

En 1904. Rutherford presentó sus descubrimientos ante un grupo de personas reunidas en la Royal Institution. Cuando ya iba a iniciar la conferencia, advirtió que Kelvin se hallaba entre el público. Naturalmente, esto suponía un problema, por lo que previendo que al influyente Kelvin no le iba a gustar que un joven físico, relativamente desconocido, contradijera sus teorías, Rutherford buscó un recurso. Y lo encontró. Varios años después, relataba el incidente como sigue:
Al poco de entrar en la sala, que estaba en la penumbra, me percaté de que allí estaba lord Kelvin entre el público, y vi que me iba a meter en un lío, en la última parte de la conferencia, donde hablaba de la edad de la Tierra, y presentaba un punto de vista contrario al suyo. Con gran alivio, observé que enseguida se había quedado dormido, pero, al llegar al momento difícil, vi que se enderezaba, abrió medio ojo y me lanzó una mirada siniestra. Me vino rápida la inspiración, y dije que lord Kelvin había limitado la edad de la Tierra, mientras no se descubriera ninguna nueva fuente de calor. Esta manifestación profética enlaza con el tema de que tratamos esta noche, ¡el radio! ¡Cuidado!, me avisó el hombre con una sonrisa.

Pero Kelvin no quedó convencido. Poco después de la conferencia de Rutherford, publicó un escrito en el que rechazaba la idea de que el radio pudiera emitir calor perpetuamente, y arguyó que la energía que ésta y otras sustancias radiactivas desprendían debía provenir de alguna fuente exterior. «Cabe pensar que, de algún modo, unas ondas etéreas suministran energía al radio mientras éste transmite calor a la materia ponderable que lo rodea.» Dos años después, en 1906, Kelvin mantuvo un debate público con algunos de sus colegas más jóvenes, y negó que el radio pudiera explicar el motivo del calor de la Tierra o el Sol. Llegó hasta el punto de defender que el calor no podía acompañar la emisión de partículas alfa, como pretendía Rutherford. En vez de ello, según él, el calor debía ser el producto de la emisión de partículas beta.

La querella duró poco, pues Kelvin murió al año siguiente, y la joven generación de científicos siguió pacíficamente estudiando los diversos tipos de materias radiactivas, así como las clases de radiaciones que emitían. No mucho después, ya era un hecho admitido el que la emisión de partículas alfa se acompañaba de una emisión de calor, y que era ciertamente posible que la Tierra existiera desde tiempos indefinidamente remotos.

Varios años antes de morir Kelvin, algunos de esos jóvenes científicos ya habían entrevisto la posibilidad de dar incluso un paso más. Las sustancias radiactivas podían proporcionar el medio de averiguar la edad de la Tierra. En 1905, cuando el químico estadounidense Bertram Boltwood comprobó que el uranio se transformaba en plomo al sufrir una desintegración radiactiva, se vislumbró lo que podía ser un método preciso de fechar acontecimientos por medio de la radiactividad. En 1907, siguiendo una idea propuesta por Rutherford, con quien había colaborado antiguamente, se dedicó a investigar, partiendo de la base que si se medían las cantidades de plomo y de uranio contenidas en un mineral, debía ser posible determinar la edad de la muestra de mineral en cuestión. Si, en su origen, sólo había estado presente el uranio, la cantidad de plomo que se hubiera mezclado al mismo debería permitir medir la cantidad de tiempo que había pasado desde que se formara la muestra de mineral. Boltwood midió muestras tomadas en diez ubicaciones diferentes de tres continentes, y obtuvo unos resultados comprendidos entre 410 millones y 2.200 millones de años. Esto demostraba que la Tierra tenía mucha mayor antigüedad que lo que Kelvin sostenía. Y puesto que la Tierra no podía ser más joven que la muestra más antigua, su edad debía evaluarse por lo menos en 2.200 millones de años.

Si se toma una muestra de uranio, toda ella acabará desintegrándose en plomo. Este proceso no es sencillo. La desintegración se produce en catorce etapas. Se inicia cuando el uranio 238 (el número 238 significa que el núcleo de ese isótopo de uranio contiene en total 238 protones y neutrones; un núcleo de uranio tiene siempre 92 protones, pero como puede variar el número de neutrones, existen diversas variedades de uranio, o de isótopos de uranio) emite una partícula alfa, y se desintegra en torio 234. El torio emite una partícula beta y se transforma en protactinio 234. Se emite otra partícula beta, creándose uranio de nuevo. Pero esta vez es un isótopo más ligero, el uranio 234. Las tres etapas siguientes dan torio 230, radio 226 y radón 222, respectivamente. Después de unas cuantas desintegraciones radiactivas sucesivas, se forma el plomo 206. Como el plomo 206 no es radiactivo, cesa ahí la cadena de desintegración.

Aunque no sea posible predecir exactamente cuándo va a desintegrarse un átomo radiactivo, se ha establecido que exactamente la mitad de una muestra de uranio 238 se desintegra transformándose en plomo al cabo de 4.500 millones de años. Los físicos dicen que el proceso tiene una vida media de 4.500 millones de años. Diremos, de paso, que dicha noción de vida media puede aplicarse a cada desintegración en particular, o a la cadena de desintegración en su conjunto. Conociendo la vida media de la cadena, se puede determinar la antigüedad de un mineral que esté formado a la vez por uranio y plomo. Como cabe suponer que no había plomo presente en el mismo originariamente (los procesos químicos y físicos hubieran llevado el uranio originario a cristalizarse por sí mismo), la proporción entre plomo y uranio será la que permitirá., calcular la edad del mineral .con una precisión del 12% o más.

Hoy día, la cadena de desintegración del uranio-plomo no es sino una más de las que se utilizan para evaluar la edad de los minerales. Hay otras como la serie de torio-plomo (vida media de 13.900 millones de años), la de potasio-argón (1.300 millones de años), y la de rubidio-estroncio (47.000 millones de años). Así es posible fechar rocas por medio de varios métodos diferentes, con lo que se pueden comparar resultados. Por cierto que el conocidísimo método del carbono para determinar edades no sirve para indicar la antigüedad de la roca. Con este sistema sólo se consigue averiguar la edad de materias orgánicas que han absorbido el carbono de la atmósfera, y tienen menos de 70.000 u 80.000 años.

Por medio de esos métodos, y de otro más reciente que se llama datación por huellas de fisión (consiste en medir la fisión espontánea de los núcleos de uranio en fragmentos de gran tamaño, en vez de recurrir a la desintegración, menos violenta, por emisión de partículas alfa y beta), se ha demostrado que algunas rocas volcánicas tienen más de 3.700 millones de años. Aunque esto no es sino un límite más bajo de la edad de la Tierra —los 3.700 millones de años no es sino una evaluación de la fecha de formación de la corteza terrestre—. La Tierra en sí ya existía desde un tiempo antes de que se formara una corteza sólida.

Los estudios de los meteoritos, que debieron formarse aproximadamente en el mismo tiempo que la Tierra, demuestran que una edad de 4.600 o 4.700 millones de años sería más probable. Esta cifra ha sido confirmada al fechar las rocas que trajeron de la Luna los astronautas que participaron en las misiones Apolo. Por ser la Luna más pequeña que la Tierra, parece razonable imaginar que su corteza se solidificó antes. Así, las rocas lunares deberían resultar algo más antiguas que las que se hallan en la Tierra. Y esto es exactamente lo que se comprobó. Las muestras del Apolo registran una edad de hasta 4.200 millones de años.

Los métodos radiactivos de determinar fechas pueden utilizarse no sólo para revelar la edad de las rocas que contienen elementos radiactivos, sino también para averiguar la edad de esos mismos elementos. El método que se utiliza en esos casos es algo más complicado, y consiste en comparar la cantidad de elementos radiactivos que pertenecen a diferentes cadenas de desintegración. La edad de los elementos se podrá determinar comparando la abundancia relativa de dos de esos elementos con la abundancia primordial que se calcula en teoría.

Este método es, por supuesto, algo menos exacto que el que se usa para averiguar la edad de las rocas terrestres. No obstante, puede utilizarse para conseguir un límite más bajo en la edad del Universo. No sirve, sin embargo, para determinar la fecha del big bang[6] que se produjo cuando se creó el Universo, por el hecho de que no se crearon entonces los elementos pesados, radiactivos. Éstos se formaron como resultado de las reacciones nucleares que intervinieron dentro de las estrellas de masa elevada. Cuando algunas de esas estrellas quedaron hechas pedazos tras las explosiones de supernovas, los elementos pesados se esparcieron en el espacio. Finalmente, parte de esas materias quedó en las nubes de polvo y gas de que se formó la Tierra.

Como los elementos radiactivos se formaron un tiempo después de la creación del Universo, lo único que se puede decir es que éste ha de ser algo más antiguo que los propios elementos. En este caso, ocurre algo similar a lo que sucedió con las rocas de la Tierra.

Como ya dije anteriormente, el haber descubierto rocas de una antigüedad de 3.700 millones de años sólo nos permite deducir que la Tierra debe tener una antigüedad aún mayor, pero sin que eso nos dé una fecha exacta de su formación.

Se ha calculado la abundancia relativa de varios pares diferentes de elementos radiactivos, por lo que se ha estimado la edad mínima del Universo de diversos modos. Juntando todos los datos que se han obtenido de ese método de fechar acontecimientos, se llega a la conclusión de que los elementos radiactivos tienen por lo menos 10.000 u 11.000 millones de años de antigüedad, o incluso hasta 17.600 millones. Esta cifra ha sido confirmada por el cálculo teórico de la edad de las estrellas más antiguas. El análisis espectroscópico de la luz que emiten esas estrellas revela que tienen entre 15.000 millones y 19.000 millones de años. La suma de toda esa información nos lleva a deducir que el Universo debe existir probablemente desde hace al menos 15.000 millones de años.

Actualmente se dispone de un método más de evaluar la edad del Universo. Desafortunadamente, no da siempre el mismo resultado. Se habló de él a finales de los años setenta, cuando un grupo de astrónomos llegó a la conclusión de que el Universo no tenía más de 10.000 millones de años de existencia. La publicación de semejantes resultados desató una polémica tan violenta que recordó la que surgió en la época de Rutherford y Kelvin, por su sorprendente similitud con esta última. Poco después de final de aquel siglo, los científicos utilizaron los métodos radiactivos de fechar acontecimientos, obteniendo así unas edades para la Tierra mayores de las que admitieran Kelvin y los geólogos (los cuales siguieron aferrándose durante un tiempo a la cifra de 100 millones de años). Hoy día, los nuevos métodos de datar por medio de la radiactividad están dando a los elementos radiactivos una antigüedad mayor de la que algunos astrónomos atribuyen al Universo.

Para comprender cómo llegó a enzarzarse la polémica, se ha de volver atrás y comentar brevemente un descubrimiento que se hizo en 1929. Creo que el desarrollo ulterior del tema será muy revelador. Como veremos, la edad del Universo ha vuelto sobre el tapete en diversas ocasiones, y se ha rectificado muchas veces.

En 1929, el astrónomo estadounidense Edwin Hubble dio a conocer su descubrimiento: el Universo se estaba expandiendo. Unos años antes, se había descubierto que la luz que emitían las galaxias lejanas tendía al rojo. Cuando los astrónomos observaron algunas de las longitudes de onda de la luz características de las estrellas de esas galaxias, vieron que dichas longitudes de onda eran algo diferentes cuando provenían de las galaxias muy remotas.

Se sabía desde hacía tiempo que las modificaciones de la longitud de onda estaban relacionadas con las velocidades de aproximación y de retroceso. Las estrellas que se desplazan en nuestra dirección a la vez que se desplazan en sus órbitas en torno al centro de nuestra galaxia emiten una luz que tiende hacia el extremo azul del espectro, mientras que la luz de las que se alejan de la Tierra tiende hacia el rojo.

Este efecto no hace que las estrellas o las galaxias parezcan rojas en la realidad. El desplazamiento afecta sólo a la longitud de onda componente de la luz, no al aspecto visual de la estrella. Aunque la luz visible que emite la estrella se desplaza efectivamente hacia el rojo, algunas de las longitudes de onda ultravioletas invisibles también sufren una modificación, pues se transforman en un azul visible para el ojo humano.

Pero, si bien el paso al rojo no se aprecia visualmente, sí se vuelve patente cuando se examina la luz por medio de instrumentos científicos. Con ellos se puede decir si una estrella o una galaxia se están acercando a la Tierra o si se alejan de la misma, y también se sabe la velocidad a la que lo están haciendo.

La luz de unas pocas galaxias tiende al azul. Una de ellas es la gran galaxia de la constelación de Andrómeda, por ejemplo. No obstante, todas las galaxias en las que se aprecia una desviación hacia el azul están cercanas a nuestra Vía Láctea. Forman parte de lo que los astrónomos llaman el grupo local de galaxias. Puesto que las galaxias del grupo local están ligadas por la gravitación, de tal forma que se mueven unas en torno a otras, se podía esperar que su conducta fuera diferente de la de las galaxias en general. Y, efectivamente, es así: en todas las galaxias situadas más allá del grupo local, se aprecia el desplazamiento hacia el rojo.

Hubble advirtió que la luz de las galaxias más apagadas eran las que mayor desplazamiento mostraban hacia el rojo. Como su aparentemente reducida luminosidad demostraba que eran las más lejanas, Hubble llegó a la conclusión de que los objetos más alejados de nuestra propia galaxia eran los que se separaban de ella a mayor velocidad. Esto sólo podía significar una cosa: el Universo se estaba expandiendo. El motivo de que las galaxias distantes parecieran estar alejándose de la Tierra era sencillamente que las galaxias se estaban separando unas de otras.

Un ejemplo sencillo permitirá explicar por qué ocurre esto. Basta con imaginar un trozo de masa que contenga pasas y se meta en un horno. A medida que vaya subiendo la masa, la distancia entre cada pasa irá aumentando. Además, las pasas más alejadas de la base serán las que se irán separando unas de otras con mayor rapidez. Si dos pasas casi se tocan, no variará prácticamente la distancia entre ambas, mientras que si se encuentran en los extremos opuestos de la masa que está subiendo, se alejarán una de otra con gran rapidez.

Hubble no se conformó con observar que se producía una expansión. También quiso averiguar en qué medida se producía. Para ello, se necesitaba determinar la relación entre la velocidad de fuga y la distancia. Determinar la velocidad de fuga era bastante fácil. Cuando Hubble hubo medido el corrimiento hacia el rojo, ya pudo calcular sin dificultad la velocidad. Pero medir las distancias ya era un asunto más complicado. De hecho, no existía forma de determinar directamente la distancia de ninguna galaxia.

Los astrónomos utilizan el método de triangulación para averiguar la distancia de las estrellas más próximas. La posición aparente de una estrella cercana se desplaza cuando se observa desde los lados opuestos de la órbita de la Tierra. Como la Tierra está situada a unos 149.675.000 km del Sol, su posición en el espacio se desvía unos 299.350.000 km en seis meses. Después de todo, la órbita de la Tierra es casi circular, y el diámetro de un círculo es exactamente el doble de su radio.

Pero este método no sirve para las estrellas más alejadas, y menos aún para averiguar la distancia de otras galaxias, situadas todavía más lejos. Cuando el diámetro de la órbita de la Tierra es pequeño comparado con la distancia que se intenta medir, la desviación de la posición aparente es demasiado reducida para poderse medir, aun utilizando los telescopios más potentes.

Los astrónomos se sirven de muchos métodos diferentes para calcular la distancia de los objetos alejados. Todos ellos parten del principio que cuanto más alejada esté una fuente de luz, más apagada se verá. Por ejemplo, una vela muy próxima al ojo del observador le parecerá a éste muy brillante, mientras que la luz de un proyector alejado puede aparentar ser menos intensa.

Conociendo el brillo intrínseco de un objeto y comparándolo con su brillo aparente, existe la posibilidad de calcular la distancia del objeto en cuestión. Se puede determinar la distancia a la que se encuentra un proyector sabiendo la cantidad de luz que emite. Este mismo principio tan sencillo puede aplicarse a una estrella o una galaxia. Para calcular distancias, los astrónomos miden la oscilación aparente de varios tipos diferentes de objetos, entre los que se encuentran las estrellas brillantes, las nubes de gas resplandecientes, las supernovas e incluso las propias galaxias.

Cuando Hubble llevó a cabo sus observaciones de los astros, en los años veinte, centró su interés en unas estrellas que se conocen con el nombre de cefeidas. Se trata de unas estrellas cuyo destello varía, alcanzando mayor o menor brillo, con una regularidad que ha permitido determinar los períodos de estas estrellas, o sea, el tiempo que transcurre entre dos momentos sucesivos de máxima luminosidad.

Ya desde 1912, se sabía que existía alguna relación entre el período de una cefeida y su luminosidad intrínseca. Cuanto más brillaba una cefeida más lentamente centelleaba. Midiendo el período, podía calcularse el brillo, y, por consiguiente, su distancia.

Hubble consiguió localizar cefeidas en nuestra galaxia vecina, Andrómeda. Después de practicar sus mediciones, pasó a otras galaxias más alejadas. Cuando llegó a galaxias tan alejadas que ya no podía apreciar cefeidas en ellas, adoptó otros sistemas de indicación de distancias. Así, sabiendo la distancia a que se halla Andrómeda, se puede determinar el brillo intrínseco de las estrellas más brillantes de esa galaxia. Si las estrellas más brillantes de una galaxia más remota son similares —no hay motivo para que no lo sean—, se podrán utilizar esas estrellas para averiguar la distancia de esa galaxia también. Se necesita recurrir a las cefeidas para disponer de una base dentro del proceso de medición de la distancia, pero, una vez que ya se tiene, todo lo demás encaja ya rápidamente.

Ya en 1929, Hubble tenía trazados gráficos en los que se mostraba la relación entre la distancia y la velocidad de fuga. Esto, a su vez, le permitió calcular la velocidad a la que el Universo se estaba expandiendo. Ahora bien, si de verdad se estaba expandiendo, se había de presuponer que en algún momento habría estado muy comprimido. Determinando el grado de expansión, se debería poder retroceder para evaluar el tiempo transcurrido desde que se iniciara la misma. Esto es precisamente lo que calculó Hubble. En 1936 dio a conocer que, tal como lo había calculado, el Universo no podía tener una antigüedad de más de 2.000 millones de años.

Esa cifra tan sólo presentaba un inconveniente: en 1936, los científicos ya habían averiguado por los sistemas de fechar objetos por medio de la radiactividad que algunas rocas de la Tierra existían hacía 3.500 millones de años. De tener razón Hubble, resultaba que las rocas habían de ser más antiguas que el propio Universo. Ante lo obviamente absurdo de esa conclusión, era evidente que, o bien fallaba algo en los sistemas de datar sirviéndose de la radiactividad, o bien había errores sistemáticos en las mediciones hechas por Hubble.

Se averiguó finalmente el motivo de la discrepancia, en el transcurso de los años cincuenta, cuando descubrieron los astrónomos que existían dos clases distintas de cefeidas variables, y que su luminosidad intrínseca no era la misma. Al no distinguir que las había de dos tipos, Hubble introdujo errores en su medición de las galaxias próximas a las nuestra. Y al medir las distancias con un sistema escalonado, arrastró el error a su evaluación de la distancia de las galaxias más alejadas.

Durante el mismo período, se descubrió que era también inexacto otro de los patrones que usó Hubble para medir distancias. Para observar las galaxias que estaban tan alejadas que no se apreciaban cefeidas en ellas, Hubble se había servido de las estrellas brillantes como indicadores de distancia. Se descubrió que, algunas veces, tomó a las grandes nubes resplandecientes de gas hidrógeno por estrellas especialmente luminosas, introduciendo así otro error sistemático.

Se corrigieron los errores en los resultados de Hubble, y se revisó la edad del Universo, incrementándola hasta alcanzar aproximadamente 10.000 millones de años. Luego, durante los años sesenta y setenta, se afinaron algo más los cálculos de distancias, y se obtuvo una edad situada entre 13.000 y 18.000 millones de años.

Esta edad se expresó dentro de unos límites, sin precisar una cifra determinada, pues se debían tener en cuenta dos tipos diferentes de inexactitudes. La primera era consecuencia de tener que medir todavía las distancias por etapas: primero, se averiguaba la de los objetos más cercanos, y de ahí se partía para evaluar la de los que se encontraban más allá. Por eso, todo error que se introdujera en una de las etapas repercutía en todas las demás, y, a pesar de haberse logrado perfeccionar algo los métodos de determinar distancias, las inexactitudes seguían siendo mayores que las habituales en otros tipos de mediciones astronómicas.

Se consideró que se podía expresar el grado de expansión con una precisión cercana al 15%. Sin embargo, la inexactitud en el cálculo de la edad del Universo era algo superior, pues los astrónomos no eran capaces de estimar con exactitud el paso a que se iba frenando la expansión.

La gravedad retrasa la expansión del Universo. La atracción mutua de las galaxias y de otras materias del Universo hace que la velocidad de fuga decrezca al cabo de largos períodos de tiempo.

Por lo tanto, para fijar la edad del Universo se necesita averiguar primero su grado de expansión actual y en el pasado. La dificultad de determinar la edad del Universo es comparable a la de averiguar el tiempo que un objeto ha tardado en caer desde una altura desconocida. No sólo se necesita saber a qué velocidad se desplaza ahora, sino también su grado de aceleración. La única diferencia entre este problema y el de descubrir la edad del Universo estriba en que la expansión de éste experimenta una desaceleración en vez de una aceleración.

Para conocer la desaceleración, se ha de evaluar en qué medida la gravitación retrasa el proceso. Y, para determinarlo, se necesita conocer la cantidad de materias que están sometidas a la misma en el Universo. Desgraciadamente, no se ha conseguido dar una respuesta a esa incógnita.

Se trata de una grave dificultad, pues los astrónomos sólo pueden calcular la masa de las materias que pueden ver. Así, se podrá averiguar la masa presente en un cuerpo que emita luz, o cualquier otro tipo de radiación, como ondas radioeléctricas o rayos X, pero, desafortunadamente, el Universo está formado por mucha materia oscura que no emite radiación alguna, y muchas galaxias aparecen rodeadas de un halo oscuro. Además de que los astrónomos no saben con certeza la cantidad de materia oscura que existe en el espacio intergaláctico, tampoco saben siquiera lo que es. Se han hecho algunas suposiciones respecto a lo que será esa materia oscura. Así, los halos pueden estar constituidos por agujeros negros, unos cuerpos demasiado pequeños para ser capaces de ignición como las estrellas, o incluso por nubes de partículas subatómicas llamadas neutrinos. Y caben aún más posibilidades. Hasta que los astrónomos no sepan lo que es esa materia negra, no es de esperar que puedan averiguar el retraso que ocasiona la gravitación.

Se ha intentado medir directamente la desaceleración del Universo. Existe la posibilidad de observar galaxias situadas a más de 10.000 millones de años luz. Puesto que un año de luz es, por definición, la distancia recorrida por un rayo de luz en un año, se deduce que la luz de esas galaxias fue emitida hace más de 10.000 millones de años. Cuando un astrónomo dirige la mirada a los objetos remotos, la está dirigiendo igualmente a grandes distancias del pasado. Siendo así, en principio, deberían ser capaces de definir directamente el grado de expansión del Universo en un tiempo situado en el pasado a 10.000 millones de años del tiempo presente.

Pero este método no da buenos resultados en la práctica, pues su inexactitud es aún mayor que la habitual en las mediciones de distancias. Por eso se consideran poco fiables los datos que se obtienen sobre la edad del Universo partiendo de ese tipo de métodos, y son tan variables las cifras que se adelantan. Según unos autores, el Universo existiría desde hace 15.000 millones de años; esta cifra se sitúa aproximadamente en el medio de los límites comprendidos entre 13.000 y 18.000 millones de años; también se dice que tiene 18.000 millones de años: éste es un máximo aproximado. Otras veces, se dan cifras de 10.000 millones o 20.000 millones de años, en base a la teoría según la cual eso representa al menos un orden de magnitud correcto.

Si bien se dudaba en optar por 13.000 o 18.000 millones de años, la estimación no dejaba de parecer razonable, ya que coincidía relativamente con la edad de los elementos radiactivos, de nuestra galaxia y de las estrellas más antiguas. Por eso, a mediados de los años setenta, se dio por solucionado el problema. Se había llegado a atribuir al Universo una edad todavía algo imprecisa, pero razonable.

Tan apacible felicidad se vio turbada a finales de los setenta, cuando un grupo de astrónomos de la Universidad de Arizona, del Smithsonian Astrophysical Observatory, y del Kitt Peak National Observatory, observo que la atracción gravitatoria estaba llevando al grupo local de galaxias a caer dentro del campo de un cúmulo gigante de galaxias en la constelación de Virgo, a una velocidad de unos 500 kilómetros por segundo. Concluían que si no entrábamos en órbita alrededor del cúmulo gigante de Virgo, chocaríamos con él dentro de aproximadamente 60.000 millones de años.

Igualmente señalaron que eso significaba que nuestra galaxia estaba situada en una bolsa del espacio que se estaba expandiendo a menor velocidad que el conjunto del Universo. De ser correcto ese resultado, no podían serlo los valores aceptados para el grado de expansión del Universo. Tras calcular de nuevo la edad del Universo, obtuvieron la cifra de 7.000 a 10.000 millones de años.

Naturalmente, semejante conclusión levantó una polvareda de controversias. Hubo astrónomos que se negaron a aceptar como correcta la nueva cifra, alegando que contradecía los resultados que se habían obtenido para las edades de las estrellas más antiguas y de los elementos radiactivos. Y hubo otros que defendieron las evaluaciones anteriores del grado de expansión, alegando que eran más precisas de lo que pretendían los integrantes del grupo de Arizona-Smithsonian-Kitt Peak.

El debate sigue pendiente. Se han obtenido nuevos datos, aunque no todos los astrónomos coinciden en los resultados. Algunas de las observaciones parecen apoyar la primera estimación de 13.000 a 18.000 millones de años, mientras que otras pruebas se inclinan a favor del cálculo de 7.000 a 10.000 millones de años. Por lo que se ve, las distancias astronómicas pueden medirse de diferentes formas y con diferentes métodos, que están dando, por cierto, resultados también diferentes.

Esto se debe a la falta de acuerdo general respecto a las técnicas de medición de la distancia que ofrecen mayor precisión. Algunos astrónomos se fían de las que Hubble elaboró el primero, basándose en que esos métodos se han ido perfeccionando durante decenas de años, mientras que otros creen que las nuevas técnicas, como las que consisten en medir la velocidad de rotación de las galaxias, dan resultados más precisos[7]. Actualmente, se considera que tan sólo se puede llegar a dos conclusiones. Primero, el grado de expansión, y, por consiguiente, la edad del Universo se conoce con tal inexactitud que puede ser el doble de una de las evaluaciones. Segundo, si se ha de resolver finalmente el asunto, no se habrá de dar crédito a algunas de las ideas que hoy día se aceptan, pues si unos métodos diferentes dan resultados también diferentes, no todos pueden ser correctos.

Ni tan siquiera se puede afirmar, con un mínimo de seguridad, que los datos coincidentes que se obtienen de la determinación de la edad de las estrellas y de los elementos radiactivos den mayor credibilidad a una edad de 13.000 a 18.000 millones de años, puesto que ahí también se hallan imprecisiones. Además, el simple hecho de que la mayor parte de este trabajo se haya elaborado cuando se aceptaba precisamente ese margen de edad puede haber influido en los resultados. No olvidemos que cuando se creía que la Tierra tan sólo existía desde hacía 100 millones de años, los geólogos encontraron fácilmente pruebas que parecían corroborar ese resultado. Los métodos científicos no son siempre tan precisos como pudiera pensarlo el profano, y cuando se espera un resultado de una magnitud determinada, eso influye a veces en lo que se obtiene.

Así, ¿cuál será la edad del Universo? Pues casi seguramente por lo menos 7.000 millones de años, y probablemente menos de 20.000 millones. Por ahora, se puede considerar que quienes prefieren tirar hacia arriba disponen de una ligera preponderancia en cuanto al número de pruebas que apoyan su posición. Pero habiéndose rectificado ya tantas veces los cálculos de la edad del Universo, no tendría por qué extrañar que se descubrieran de pronto nuevos datos que obligaran a replantearse el problema otra vez. Quizá lo más razonable sea quedarse con los 15.000 millones de años como una cifra intermedia, sin por eso descartar que la edad real pueda resultar superior o inferior a ésta en 5.000 o 6.000 millones de años.

Capítulo VII
Entropía y dirección del tiempo

Quizá la mejor forma de tratar el tema de este capítulo consista en dejarse llevar por la fantasía. Imaginemos que un vehículo espacial extraterrestre esté vagando por el Sistema Solar, y que pase a suficiente distancia de la Tierra como para que se le acerque una lanzadera espacial. Supongamos también que el objeto extraño ha sufrido algún percance y que su tripulación ha muerto desde hace miles de años.

Si bien el personal que está a bordo de la lanzadera espacial no dispone de medios para remolcar hacia la Tierra el vehículo extraño, sí consigue subir a bordo y tomar cierto número de objetos. Entre éstos se encuentran unos discos. Tras examinarlos, los científicos de la Tierra descubren que son unas grabaciones similares a las de los vídeos. En cuanto averiguan para qué sirven ya les cuesta poco encontrar el método de leerlos y analizar así sus imágenes.

La única pega reside en que parece como si los discos pudieran leerse en ambas direcciones, sin que se aprecie, a primera vista, con claridad cuál es la correcta. No obstante, los científicos se dan cuenta de que basta con descubrir cuál es el sentido hacia adelante en un solo caso, ya que sabiendo en qué dirección funciona uno de los discos, cabe deducir que todos los demás se han de leer en el mismo sentido.

El primer «vídeo» que analizan muestra un planeta con dos lunas. Los científicos observan que el planeta gira alrededor de su eje, y que las dos lunas describen revoluciones en torno a él. No obstante, las secuencias de las imágenes no les permiten determinar si están pasando el disco en la dirección debida. Para eso, necesitarían saber si el planeta gira de este a oeste o de oeste a este. Al desconocer el sentido de rotación, no están seguros de si están pasando el disco al revés.

El disco siguiente muestra al planeta girando alrededor de una estrella. Esto tampoco aclara nada. Si se estuviera pasando el disco al revés, el planeta aparecería sencillamente siguiendo la misma órbita en dirección opuesta. Ambas direcciones de giro son perfectamente compatibles con la ley de gravitación de Newton y las leyes que rigen los movimientos de los planetas, de Kepler.

Cuando los científicos ponen el tercer disco, descubren enseguida que contiene unos dibujos animados en los que se describe la colisión de una partícula alfa con un núcleo de torio 234. Al combinarse ambos, se forma el uranio 238. Cabe igualmente la posibilidad de que el dibujo animado muestre, en realidad, la desintegración de un núcleo de uranio 238 en torio 234 y una partícula alfa. No hay forma de saberlo, porque toda reacción nuclear que se observe en la naturaleza puede también darse al revés. Siempre que se vea que un núcleo determinado puede desintegrarse emitiendo una partícula alfa, se llega automáticamente a la conclusión de que la absorción de una partícula alfa también puede ser la causa de que se forme ese núcleo.

Así pues, los investigadores toman el cuarto disco. Éste contiene otro dibujo animado que muestra a un gran número de moléculas colisionando unas con otras, y con las paredes del recinto en que se encuentran. Ya para entonces, los observadores empiezan a desesperarse, ya que tampoco en este caso se puede saber si se está pasando el disco en sentido correcto. Si la sucesión debiera ser en el sentido opuesto, las moléculas de gas se moverían sencillamente en dirección contraria, pero seguirían expuestas al mismo tipo de colisiones, y las mismas leyes físicas regirían su movimiento.

Ahora ya, los investigadores se preguntan si podrán aclarar el misterio alguna vez, al no haberles permitido distinguir entre las dos posibles direcciones del tiempo ninguno de los discos que llevan probando. Pero, como aún les quedan varias docenas más, pasan obstinadamente al siguiente.

El disco muestra ahora unos cuantos vehículos extraños que se desplazan sobre una superficie pavimentada. Esta vez, tampoco saben si están pasando correctamente la grabación, porque no distinguen entre la parte delantera y trasera de los vehículos. Se percatan de que si hubiera forma de averiguar si los vehículos emiten calor, la segunda ley de la termodinámica les permitiría dilucidar si están pasando bien o mal el disco. Después de todo, como señaló Kelvin, cuando la energía pasa de una forma a otra, parte de ella ha de disiparse en calor. A diferencia de las colisiones moleculares, de las reacciones nucleares y del movimiento orbital, la disipación del calor es un proceso que no es simétrico en el tiempo. Existe una diferencia entre disipación y absorción del calor.

Desafortunadamente, en una grabación de vídeo no se puede apreciar el flujo calorífico. Así que toman el disco siguiente. En cuanto la imagen se proyecta en la pantalla improvisada, se dan cuenta de que este disco es diferente de todos los demás. Muestra una pieza de metal incandescente sostenida por algo similar a un par de pinzas. A medida que avanza el disco, la pieza de metal va perdiendo intensidad: es evidente que va cediendo calor a su entorno. Al fin, se ha conseguido saber cuál es la forma correcta de pasar los discos. Saben que ése, concretamente, está en el sentido adecuado, puesto que el calor fluye siempre espontáneamente de los objetos calientes en dirección a los objetos fríos. Nunca se produce lo contrario. No se ve nada en la película que esté calentando la pieza de metal, pero sí se aprecia que el calor de ésta pasa a las pinzas. Al irse enfriando la primera, las puntas de las pinzas empiezan a ponerse incandescentes, y se vuelven a oscurecer a medida que pierden calor.

El flujo de calor espontáneo siempre se dirige hacia la misma dirección. Cuando dejamos caer un cubo de hielo en un vaso de agua, el calor fluye del agua al hielo, haciendo que éste se derrita. Nunca veremos formarse espontáneamente hielo en un vaso de agua, a no ser que se haya colocado en el congelador de la nevera. Cuando se introduce un trozo de hierro caliente en el agua, el hierro se enfría, y parte del agua se evapora. A ningún herrero se la ha ocurrido nunca calentar el hierro metiéndolo en un baño de agua.

Por supuesto, se puede hacer que el calor fluya en dirección opuesta. Si estamos dispuestos a gastar energía, cabe la posibilidad de hacer fluir el calor desde un objeto frío hacia otro más caliente.

De hecho, la nevera funciona según este principio. El motor de la nevera bombea el calor desde el interior frío del aparato hacia la habitación, cuya temperatura es superior. No obstante, siempre que no haya gasto de energía, el calor fluirá siempre del objeto caliente hacia el que esté frío, sin que se haya observado nunca el proceso inverso.

El que el calor fluya espontáneamente en una dirección determinada es uno de los enunciados de la segunda ley de termodinámica. Equivale a la afirmación de Kelvin según la cual la energía se disipa en forma de calor cuando ésta pasa de una forma a otra.

Se puede demostrar por medios matemáticos que esas dos versiones de la segunda ley son equivalentes. La mejor forma de comprobarlo, sin recurrir a las matemáticas, consiste en pensar que, de ser incorrecto cualquiera de los planteamientos, podrían existir máquinas de movimiento perpetuo. Una rueda giratoria seguiría girando indefinidamente si la energía de su movimiento no se disipara en forma de calor como resultado de la fricción. De manera similar, si el calor fluyera espontáneamente hacia los objetos calientes, se podría usar para hacer funcionar un motor de vapor, ya que mientras el calor siguiera fluyendo, el motor no se pararía nunca. Existe un tercer enunciado de la segunda ley, que es el siguiente: Una máquina de movimiento perpetuo del segundo tipo es imposible.

Una máquina de movimiento perpetuo del primer tipo violaría la primera ley de la termodinámica, la de conservación de la energía, mientras que una máquina de movimiento perpetuo del segundo tipo no estaría basada en la creación de energía a partir de la nada, sino en el hecho de que se pueden violar los principios básicos que rigen la conducción de calor.

La segunda ley de la termodinámica es una ley camaleón. Se puede expresar de más maneras diferentes que cualquier otra ley de física. El motivo de que tome tantas formas diferentes se debe a que es la más general de todas las leyes que hayan descubierto los científicos. Se aplica a casi todo.

Efectivamente, una ley como la de la gravitación de Newton se aplica exclusivamente a los cuerpos que tienen suficiente tamaño para ejercer una fuerza gravitatoria conmensurable: las leyes de la mecánica cuántica sólo atañen a las partículas microscópicas; a su vez, las leyes de la electricidad y del magnetismo describen el comportamiento de los objetos que tienen una carga eléctrica o campos magnéticos conmensurables. Sin embargo, la segunda ley de la termodinámica se puede aplicar a toda clase de materias, de cualquier forma. Ni tan siquiera es necesario que exista un flujo de calor, puesto que dicha ley también describe el comportamiento de los sistemas químicos, eléctricos y mecánicos en los que es inapreciable la producción de calor. Es una ley que rige la conversión y la transmisión de energía, y toda materia conlleva alguna clase de energía.

Es natural que si se ha de utilizar la segunda ley de la termodinámica en casos en que no hay flujo de calor, ésta se ha de plantear de un modo más general. Tendría escaso sentido hablar de la disipación o de la cesión de calor cuando no fluye calor alguno, o aludir a máquinas de movimiento perpetuo cuando se pretende describir una reacción química, o la producción de energía eléctrica por una pila seca. Pues bien, sí que existe una definición así de general de esta segunda ley: La entropía de un sistema aislado no decrece nunca.

Se llama sistema aislado al que no presenta interacción con lo que le rodea. Por supuesto que en la naturaleza no existe ningún sistema completamente aislado. Siempre hay alguna interacción con su entorno. No por eso esta noción, al igual que muchas otras abstracciones que se usan en física, deja de ser muy útil, ya que si conseguimos comprender un comportamiento en un caso teórico, eso nos ayudará a entender mucho mejor los procesos que se desarrollan en la vida real. De hecho, se suele lograr una excelente aproximación tratando los sistemas reales como si fueran sistemas aislados. En muchos de los casos, el intercambio de energía con el entorno es tan reducido que puede ignorarse sin más. Por cierto, la técnica de descartar los factores no importantes viene usándose desde los tiempos de Galileo.

Recordemos que cuando éste quiso averiguar el comportamiento de los cuerpos en movimiento no intentó introducir en sus cálculos los efectos de la resistencia del aire, pues se dio cuenta de que, en la mayoría de los casos, éstos no influían prácticamente nada.

También vio muy claro que si algún día fuera necesario estudiar algún caso en el que cobrara importancia la resistencia del aire, siempre se estaba a tiempo de modificar su teoría. En realidad, esto es exactamente lo que hicieron Newton y los físicos de las generaciones siguientes, cuando inventaron ecuaciones para describir el movimiento en los casos en que la resistencia del aire tuviera suficiente importancia para no descuidarlo.

En alguna ocasión se ha descrito la física como «la ciencia de las aproximaciones». Y es que la naturaleza es un asunto harto complicado, por lo que, en vista de que sería una tarea imposible intentar comprenderla en toda su complejidad, los físicos simplifican las cosas, dejando de lado los factores que consideran de menos trascendencia. Aunque esto suene a «chapuza», el sistema resulta bastante eficaz. La práctica de obtener aproximaciones les permite a los físicos descubrir principios generales que, de otra forma, hubieran permanecido ocultos. A partir del momento en que se han descubierto los principios generales, las cantidades que se hubieran dejado de lado inicialmente pueden integrarse de nuevo siempre que el científico se encuentre con casos en que sea necesario hacerlo.

Aunque no existan sistemas realmente aislados, se suele obtener una aproximación muy buena admitiendo que lo estuvieran. Por ejemplo, cuando se introduce un cubito de hielo en un vaso de agua, una pequeña cantidad de calor ha de fluir dentro del vaso, proveniente del ambiente que rodea a este último. No obstante, semejante intercambio de calor es muy inferior al que se produce entre el agua y el hielo. Si se considera como un sistema aislado el conjunto del vaso con el agua y el cubito de hielo, a efectos prácticos, tan sólo se están ignorando los procesos ajenos, para centrarse en lo más importante. Al final, se consigue comprender mejor cuáles son los procesos físicos que intervienen que si se hubiera intentado tenerlo todo en cuenta.

Muchos de los logros de la física se deben a la práctica de las aproximaciones en el intento de dar con principios generales. Uno de los más importantes fue el descubrimiento de la noción de entropía por Clausius, en 1865. Clausius observó que cuando fluía el calor desde un cuerpo caliente en dirección a uno frío, ocurría algo muy importante. Era evidente que el calor seguía transmitiéndose hasta que ambas sustancias llegaban a equilibrar su temperatura. Pero ocurría algo más.

Para averiguar qué es eso más que sucedía hemos de contemplar con mayor atención la forma en que la energía hace que se produzcan fenómenos físicos. Observamos entonces que la energía de por sí no basta para que ocurran esas cosas, sino que han de estar presentes niveles diferentes de energía.

Así, la energía gravitatoria que contiene el agua hará girar la rueda de un molino o suministrará la energía que generará potencia eléctrica al pasar por una turbina. Para eso, sin embargo, es necesario que el agua caiga de un nivel a otro. Nunca se ha generado potencia con el agua de un lago sin desagüe, por mucha energía gravitatoria que poseyera el lago en cuestión. Esta energía no tendría utilidad, aunque el lago estuviera situado mucho más arriba del nivel del mar. Para poder utilizar la energía, ha de existir una caída de agua, pues lo que importa en este caso no es la altura geográfica a la que se encuentre la masa de agua, sino la diferencia de altura entre el lugar desde donde se precipita y el lugar donde cae.

Cualquier sustancia más caliente que el cero absoluto (‒273°C, la temperatura en la que se anula el movimiento molecular) contiene energía calorífica. Pero nadie ha encontrado la forma de hacer funcionar un barco sirviéndose de la energía calorífica que poseen los océanos de todo el mundo, por muy considerable que sea. Dicha energía calorífica no puede convertirse en energía cinética mientras no haya diferencias de temperatura. Por eso, la energía calorífica de los océanos está desprovista de utilidad.

Del mismo modo, un motor de vapor no podría funcionar si el vapor producido en su caldera no estuviera a mayor temperatura que su entorno. Tampoco funcionarían los aparatos eléctricos de la casa si no hubiera una diferencia de voltaje en los dos cables que los conectan a la toma de la pared. Las propias plantas no podrían crecer de no llegar un flujo de energía desde la superficie caliente del Sol hasta la superficie relativamente fría de la Tierra.

Para apreciar mejor la importancia de esas diferencias en el contenido de energía vale más que volvamos de nuevo al caso del objeto caliente y del frío. Al ponerlos en contacto, el calor fluirá de uno a otro, permaneciendo igual la cantidad total de energía que poseen. Pero aunque la cantidad total de energía que hay dentro del sistema siga siendo la misma mientras se va igualando la temperatura de los dos objetos, algo se habrá perdido.

Este algo es la capacidad de producir un trabajo útil. Mientras seguía habiendo una diferencia de temperatura, se podía utilizar la diferencia de energía para generar electricidad, por ejemplo. Para eso, hubiera bastado con atar los dos extremos de un termopar a los objetos, y se hubiera creado inmediatamente una corriente eléctrica. A su vez, esta corriente se hubiera podido usar para hacer funcionar un pequeño motor. Naturalmente, después de equilibrarse la temperatura entre los objetos, esto ya no se podría hacer.

Como resultaría incómodo ir repitiendo cada vez en la explicación «la capacidad para producir trabajo», lo sustituiré por algo más sencillo. Quizá lo más adecuado sea hablar de «desequilibrio», puesto que, en realidad, sólo cuando existe un desequilibrio —una diferencia entre los niveles de energía— se puede conseguir un trabajo útil.

La pérdida de desequilibrio caracteriza a todo proceso natural. Las diferencias de energía tienden a igualarse y a desaparecer. Así, el agua busca su nivel más bajo; las diferencias de temperatura se compensan; la energía eléctrica almacenada en una batería se descarga si se deja de usar esta última durante demasiado tiempo; la energía nuclear almacenada en el uranio también desaparece, disipándose en forma de calor, cuando el uranio experimenta una desintegración radiactiva. El desequilibrio radiactivo desaparecerá aún con mayor rapidez si el uranio está refinado y si se le somete a una reacción en cadena en un reactor nuclear. Incluso el desequilibrio entre el Sol, caliente, y la Tierra, fría, quedará anulado al final, cuando el Sol se extinga al cabo de unos 5.000 millones de años.

La versión que da Clausius de la segunda ley de termodinámica no es sino una forma de resumir todo esto en un enunciado sencillo y conciso: la entropía puede definirse como la ausencia de desequilibrio. A medida que desaparece el desequilibrio, o la energía disponible, aumenta la entropía. Así, puede decirse que la entropía de cualquier sistema aislado tiende a incrementarse. Si queremos mayor precisión, e incluimos los casos excepcionales en los que la entropía permanece igual, tenemos el enunciado de la segunda ley que dimos al principio al tratar este tema: la entropía de un sistema aislado no decrece nunca.

La noción de entropía permite relacionar entre sí los diferentes enunciados de la segunda ley de termodinámica. La observación que hacía Kelvin de que la energía tiende a disiparse en forma de calor equivale a decir que la entropía tiende a aumentar; a medida que se disipa el calor, se va disponiendo de menos energía útil. La observación de que el calor fluye espontáneamente desde los objetos calientes en dirección a los objetos fríos no es sino otra forma de señalar que cuando se ponen en contacto esos objetos uno con el otro desaparece el desequilibrio. El resultado de ello es un aumento de entropía. Finalmente, no puede existir una máquina de movimiento perpetuo del segundo tipo puesto que ninguna máquina puede servirse de la energía que la rodea mientras no se produzca un estado de desequilibrio.

La noción de entropía es excepcionalmente útil, al permitir usar la segunda ley de termodinámica en circunstancias en las que no existe intercambio de calor. Supongamos, por ejemplo, que hacemos el vacío de aire en un recipiente metálico. En realidad, no tiene demasiada importancia el tipo de recipiente que se use, ya que podría ser una botella, o incluso una caja de metal. Para que el ejemplo sea más fácil, diré que es una caja.

Supondré, luego, que la caja contiene una separación que la divide en dos. A continuación, imaginaré que se introduce un gas cualquiera en una de las mitades de la caja. Así, una mitad de la caja estará llena de gas, y en la otra mitad existirá el vacío.

De hacer esto, se habrá creado un estado de desequilibrio. Habrá energía en el lado de la caja donde está el gas, y no habrá ninguna en el lado del vacío. Se podría utilizar parte de esta energía acoplando dos tubos a la caja. Si, por medio del sistema de tubos, se permite que pase el gas de un lado de la caja al otro, ese flujo podrá utilizarse para hacer funcionar un dispositivo mecánico cualquiera, o incluso para generar una pequeña cantidad de electricidad. El principio es el mismo que genera electricidad al hacer pasar agua por una turbina.

Supongamos ahora que se perfora un agujerito en el centro de la caja, permitiendo así al gas pasar de un lado a otro. Una vez hecho esto, el gas fluirá hasta que se iguale la presión en ambos lados. El desequilibrio desaparecerá, la entropía aumentará, y se perderá la capacidad de realizar un trabajo. Este proceso es comparable al que se observa cuando se produce una cesión de calor al poner en contacto sistemas calientes y fríos.

Muchas veces se define la entropía asimilándola al desorden. Bajo mi punto de vista personal, la noción de desequilibrio esclarece de modo más intuitivo la noción de entropía. No obstante, el recurrir a la idea de desorden presenta la ventaja de que no obliga a definir la entropía en términos de su opuesto (no se podría definir la entropía en términos de equilibrio por ser el equilibrio un estado final, mientras que la entropía puede ir en aumento a medida que se acerca a ese estado).

El desorden —y la entropía— aumenta cuando se introduce un cubito de hielo en un vaso de agua para que se disuelva. En este ejemplo, la disposición ordenada de las moléculas de agua en el cristal de hielo es sustituida por la distribución aleatoria, más desordenada, que caracteriza al agua en su estado líquido. De la misma forma, puede decirse que, en una caja donde haya, en una parte, gas, y, en la otra, el vacío, hay más orden que en una caja donde el gas estuviera difundido por todo su interior.

La desventaja de expresar la entropía como desorden reside en que cuando la palabra «desorden» se utiliza como término técnico, tiene un significado diferente del que adquiere en el lenguaje normal. Así, cuando se está formando un cristal en un líquido, aparece una estructura que estaba ausente antes de que se iniciara el proceso de cristalización. A medida que crece el cristal, aumenta la entropía del sistema. La disminución de entropía en el cristal está compensada con creces por el aumento de entropía en el líquido. Por consiguiente, en cierto sentido, aumenta el «desorden» dentro del sistema aunque la ordenada estructura del cristal vaya creciendo. Pero se ha de tener mentalidad de físico para apreciar un aumento de desorden en este caso. El que aparezca una estructura no significa necesariamente que aumente el orden, a pesar de que el lenguaje normal «estructura» sea equivalente a «orden». Este es el motivo por el cual el identificar la entropía con el desorden puede inducir a confusión a los no científicos, en algunos casos aislados. Ahora bien, si se define la entropía como lo opuesto del desequilibrio, no habrá nunca ambigüedad alguna.

La segunda ley de termodinámica afirma que la entropía de todo sistema aislado tiende a aumentar. Dicho de otra forma, cuando se abandona a las cosas a sí mismas, tienen tendencia a dejar de funcionar, sin que esto quiera decir ni mucho menos que la entropía aumente en todas las circunstancias. En realidad, es bastante frecuente que disminuya. Así, la entropía decrece cuando se hacen cubitos de hielo en la nevera, o cuando se fabrica un envase metálico que contiene gas a presión, o cuando se carga una batería recargable. La entropía también se reduce cuando una planta absorbe parte de la energía solar por fotosíntesis, o cuando un ser humano se come un filete.

Aunque la segunda ley diga que la entropía aumenta en los sistemas que están aislados de su entorno, nada dice respecto a los sistemas sometidos a las influencias externas. Sin embargo, éstas son ciertamente importantes en los ejemplos citados más arriba. Una nevera no es ningún sistema aislado, puesto que consta de un motor que bombea el calor de su interior y lo expulsa al recinto en que se encuentra. Cuando hablamos del gas que se halla a presión dentro de un envase, tampoco se trata de un sistema aislado; se necesita energía para comprimir el gas en cuestión.

A pesar de todo, la segunda ley sí puede aplicarse en estos casos. Tan sólo necesitamos para ello aplicarla al sistema ampliado formado por el objeto junto con lo que le rodea. Es verdad que la entropía disminuye dentro de una nevera, pero si tomamos como un conjunto el sistema de que forma parte la nevera, comprobaremos que se respeta la segunda ley de termodinámica, pues la entropía aumenta en el sistema que está compuesto por la nevera, el recinto donde se halla, y los circuitos eléctricos que suministran la energía necesaria para hacer funcionar el motor. En el caso del aerosol, observaremos que la entropía aumentará en el sistema constituido por la lata, el dispositivo que comprime el gas, y la fuente de energía.

Los organismos vivientes constituyen otro ejemplo excelente de esto, pues es un hecho bien conocido que acumulan desequilibrio (en forma de energía química en una planta, por ejemplo) a medida que transcurre su existencia. Se dice también, a veces, que los organismos presentan una entropía decreciente, en vez de creciente, por lo que se ha acuñado el término «negentropía» (de «entropía negativa») para describir esos procesos.

Si bien es verdad que la entropía tiende a disminuir en los organismos vivientes, al menos hasta su muerte, no hay motivo para dar demasiada importancia a este hecho. Después de todo, los organismos no son unos sistemas aislados. Aunque nadie sepa en realidad cómo se puede calcular la entropía de una seta, o de una vaina de guisantes, o de un ser humano, los físicos, en general, parecen estar bastante seguros de que la entropía del sistema constituido por los organismos, su entorno y su fuente esencial de energía —el Sol— sí aumenta, mientras que nadie ha sido todavía hasta hoy capaz de demostrar de una manera científica que la «negentropía» que supuestamente caracteriza a la vida tenga la menor importancia. Siempre que observemos que está disminuyendo la entropía de un sistema podemos concluir que ese sistema debe formar parte de otro mayor. Si entonces consideramos el sistema mayor en su conjunto, y vemos que está razonablemente aislado, cabe concluir, en general, que cumple con la segunda ley de la termodinámica. Puesto que un aumento de entropía es un aumento de cantidad en el tiempo, la segunda ley nos permite distinguir entre el futuro y el pasado, y definir lo que el astrónomo británico sir Arthur Eddington llamó «la flecha del tiempo». La segunda ley nos dice que el pasado y el futuro son diferentes: habrá más entropía en el futuro, y había menos en el pasado.

Esta diferencia no aparece en ninguna de las leyes fundamentales de física. Como lo demostraban los ejemplos que se dieron al principio de este capítulo, las leyes de mecánica, de gravitación y de física nuclear son perfectamente simétricas respecto al tiempo. No se pueden utilizar para comprobar si un disco de vídeo se está pasando hacia adelante o hacia atrás. En el caso de esas leyes, ambas direcciones en el tiempo son iguales. Tampoco ninguna de las leyes básicas que no se mencionaron en los ejemplos, como las leyes de la electricidad y del magnetismo, o la de la mecánica cuántica, distinguen entre el pasado y el futuro. Si hubiera forma de retroceder en el tiempo, no por eso dejarían de dar una descripción perfectamente adecuada del comportamiento de la materia.

Cabe resaltar que la segunda ley de termodinámica no se refiere para nada al «flujo» del tiempo. No dice nada de ese momento que llamamos «ahora», el cual se desplaza inexorablemente hacia el futuro. La segunda ley tan sólo dice que el Universo se muestra diferente en las dos direcciones opuestas. A este respecto, no existe nada en la física que sirva para describir ese flujo. La física no dice nada sobre la velocidad a la que el tiempo «queda atrás» con relación a nosotros (de no ser que seamos nosotros quienes nos desplazamos en un tiempo sin movimiento). Todo lo más que se puede decir es que el tiempo avanza a razón de un segundo por segundo o de una hora por hora, lo cual, por supuesto, es muy poco esclarecedor.

Todavía me quedará algo que decir sobre el «fluir» subjetivo del tiempo en el siguiente capítulo. De momento, es preferible volver al análisis de la segunda ley de la termodinámica. Cuando dije que ninguna de las leyes fundamentales de física distinguía entre las dos direcciones del tiempo, estaba excluyendo intencionadamente esta segunda ley. La ley de aumento de la entropía es sólo una ley estadística; no es «fundamental» porque no es capaz de describir el comportamiento de un átomo o una molécula en particular: sólo trata del comportamiento de la media de un gran número de ellos. La entropía no es pues una noción que se pueda aplicar con un significado concreto a una sola partícula, ni incluso a un pequeño número de partículas.

Esto se aprecia con claridad si volvemos a algunos de los ejemplos que hemos utilizado anteriormente. Consideremos, por ejemplo, el flujo de calor que se establece entre un objeto caliente, del que parte, hacia el objeto frío, al que se dirige, y recordemos que el calor no es sino una vibración molecular. La temperatura está en relación con la velocidad media de un gran número de moléculas. Cuando decimos que un objeto está «caliente», eso significa que, en conjunto, las moléculas de las que se compone están vibrando muy rápidamente. Cuando un objeto está «frío», la media de movimiento de las moléculas de que está formado es muy lenta. Sin embargo, la energía se distribuye de forma desigual entre las moléculas, por lo que algunas de las moléculas de un objeto caliente vibran despacio, mientras que algunas de las que se encuentran en una sustancia fría vibran rápidamente. Así, cuando el calor se transmite a un objeto frío, no vemos sino un cambio de comportamiento medio.

Es lo mismo hablar del calor en términos de vibraciones moleculares que opinar sobre el promedio de esperanza de vida. Si tomamos un grupo de varios miles de personas, podremos predecir con bastante aproximación la edad a la que morirán. De no poderse calcular esto, no existiría el negocio de las compañías de seguros de vida. Sin embargo, no podemos prever la edad a la que se morirá una persona en particular. Puede morirse siendo un niño, o puede vivir cien años.

Del mismo modo, cuando decimos que fluye el calor, eso significa que un grupo de moléculas que se mueven con rapidez está cediendo parte de su energía a un grupo de moléculas que vibran despacio, y que hay suficiente número de moléculas en cada grupo para que se puedan hacer predicciones con valor estadístico. Si sólo tuviéramos dos moléculas, la que albergara la mayor cantidad de energía podría fácilmente tomar energía de la que se mueve más despacio si chocaran de forma adecuada. En este caso, no se podría hablar para nada de flujo de calor, y tampoco aplicar con propiedad la noción de entropía.

Más sencillo todavía es el caso de las moléculas en la caja. Si el gas estaba al principio limitado a uno de los lados de la división, y se suprime ésta, aproximadamente la mitad de las moléculas de gas se desplazará rápidamente hacia el otro lado de la caja, con lo que aumentará la entropía en ese momento. Pero esa «mitad» es una media estadística, y no se puede prever lo que hará cada molécula en particular.

Si la caja contuviera inicialmente una sola molécula, o un pequeño número de ellas, pudiera ocurrir cualquier cosa. Por ejemplo, cuatro moléculas podrían desplazarse de tal forma que las cuatro se encontraran en uno de los lados de la caja en un momento determinado, y en otro de los lados, en otro momento. En este caso, no cabría decir que había aumentado la entropía. Al fin y al cabo, el aumento de entropía se debía a que las moléculas se hallaban encerradas en uno de los lados de la caja en un tiempo, y a que, luego, estaban distribuidas más o menos por igual por toda la caja.

El físico John Wheeler; de la Universidad de Tejas, resume el carácter estadístico de la segunda ley de termodinámica como sigue: «Pregúntale a cualquier molécula lo que piensa de la segunda ley de termodinámica, y se te echará a reír.» Wheeler pretende decir con esto que sólo las leyes de física, básicas y simétricas en cuanto al tiempo, como las leyes de mecánica o de mecánica cuántica, son capaces de describir el comportamiento de una molécula en particular. Dicho comportamiento no está gobernado por la ley de entropía creciente. De no importarnos caer en el antropomorfismo, podríamos decir que una molécula no sabe, por sí sola, distinguir entre las dos direcciones del tiempo.

Esto no significa que el «tiempo» sea irrelevante a nivel microscópico. En realidad, es importantísimo, con toda seguridad. Se puede hablar de la velocidad de una molécula, y calcular la distancia que recorre en cierto período de tiempo. Las partículas subatómicas que se desintegran formando otras partículas tienen una duración de vida[8] determinada. Cuando los átomos despiden una radiación, emiten una energía cuya frecuencia es de unos cuantos ciclos por segundo.

Sin embargo, el único método que hayamos analizado —hasta ahora— y sirva para definir la «flecha» del tiempo parece esfumarse en cuanto entramos en el mundo microscópico. De ahí que nada nos impide tratar de averiguar si las partículas, tomadas individualmente, son capaces de retroceder en el tiempo. Cabe preguntárselo, ya que no se conoce ninguna ley de física que obligue a descartar el retroceso en el tiempo.

El físico estadounidense Richard Feynman propuso una teoría en este sentido, en 1949. Feynman, que recibiría luego el premio Nobel por su trabajo teórico sobre las partículas elementales, afirmó que, en ciertos casos, cabía la posibilidad de observar ese movimiento de retroceso en el tiempo.

Se admitió la teoría de Feynman como explicación del comportamiento de las antipartículas. Toda partícula subatómica que conocen los físicos tiene su antipartícula. Las partículas y las antipartículas se aniquilan mutuamente cuando chocan, creándose energía en su lugar. Por ejemplo, cuando coincide un electrón con su antipartícula, el positrón, desaparecen ambos, mientras se observa un rayo gamma. Esta reacción es un ejemplo de la transformación de la materia en energía, y se expresa por medio de la ecuación de Einstein E = mc2.

Si se transforma de esa manera la materia en energía, cabe suponer que el mismo proceso ha de poderse efectuar en sentido inverso. Y lo hace. En determinadas circunstancias, un rayo gamma se puede transformar en una conjugación partícula-antipartícula. De disponer el rayo gamma de la energía adecuada, puede desaparecer, haciendo que nazcan un electrón y un positrón.

Feynman señaló que existía otra forma de interpretar ese proceso. Supongamos, dijo, que un positrón no fuera sino un electrón que se estuviera desplazando hacia atrás en el tiempo. De producirse semejante retroceso, se podría interpretar de forma algo diferente el hecho de la aniquilación y de la creación. La «aniquilación» podría describirse como una inversión súbita del movimiento del electrón. Pudiera ser, según Feynman, que el electrón y el positrón que aparentemente se estaban aniquilando uno al otro no fueran sino una misma partícula.

Para comprender mejor lo que Feynman quería decir, supongamos que la «aniquilación» sucede exactamente a las 15 h 15. Si el electrón invirtiera en ese momento su dirección en el tiempo, no existiría nada después de ese momento, excepto el rayo gamma que emitió el electrón cuando «se disparó» hacia atrás. El electrón siguió el curso del tiempo hasta las 15 h 15, momento en el cual empezó a retroceder hacia el pasado. Tampoco existiría el positrón después de las 15 h 15.

Por otra parte, al electrón se le hubiera visto dos veces antes de las 15 h 15: la primera vez, como un electrón que se está desplazando hacia adelante, y la segunda, como un electrón que se desplaza hacia atrás. A nuestro parecer, las dos partículas deberían verse de forma algo diferente una de otra. Y sobre todo, de no habernos dado cuenta de que una de ellas avanzaba hacia atrás en el tiempo, se hubiera podido creer que presentaba unas propiedades diferentes de las de un electrón.

Un electrón posee una carga eléctrica negativa, mientras que la del positrón es positiva. No obstante, según la teoría de Feynman, esa carga positiva es ilusoria: lo negativo parece positivo cuando se desplaza en una dirección en el tiempo opuesta a la nuestra.

Su teoría describe de forma similar la creación de la pareja electrón-positrón. Se «crea» cuando un electrón que se está desplazando hacia atrás (o sea, un positrón) cambia de dirección, y se desplaza de nuevo hacia adelante. De ser correcta la teoría, el electrón podría estar indefinidamente haciendo marcha adelante y atrás en el tiempo. Así, un electrón podría desplazarse hacia adelante hasta las 15 h 15; dar media vuelta, y volver hacia las 15 h 10; ir hacia adelante hasta las 15 h 17; y volver hacia atrás hasta las 15 h 11, y así sucesivamente. En este caso, habría pasado por las 15 h 12 muchas veces, y cada una de las veces ocupando una posición diferente en el espacio.

Parece ser que la idea de esta teoría surgió a raíz de una conversación telefónica que sostuvo Feynman con su profesor de física, John Wheeler, y que éste imaginó que pudiera existir ese movimiento en zigzag. En el discurso que pronunció cuando recogió su premio Nobel, Feynman relató como sigue la conversación:

«Feynman», dijo Wheeler, «ya sé por qué todos los electrones poseen la misma carga y la misma masa.»

« ¿Ah, sí? ¿Por qué?», preguntó Feynman.

Y Wheeler contestó: «Porque todos son el mismo electrón.»

Es muy probable que cuando Wheeler formuló esa hipótesis, no estaba sino expresando algo que se le había ocurrido, sin que por ello lo estuviera proponiendo seriamente. Pero Feynman vio que se podía partir de esa idea para transformarla en una teoría seria. En realidad, es a este último a quien se atribuye la teoría, aunque naciera de una idea de Wheeler, por ser él quien elaboró su formulación matemática y demostró su utilidad para resolver problemas relacionados con el comportamiento de las partículas elementales. Al llegar a este punto, cabe preguntarse: « ¿Qué pruebas tenemos de que sea realmente posible ese retroceso en el tiempo?» Y, la verdad, por supuesto, es que no penemos ninguna. Matemáticamente, el punto de vista convencional según el cual los electrones y los positrones se aniquilan unos a otros, y la teoría de retroceso en el tiempo de Feynman, son equivalentes. No parecen ser sino dos formas alternativas de contemplar un mismo fenómeno. Tanto el positrón que avanza en el tiempo, como el electrón que retrocede, poseen las mismas características. No hay forma de distinguir entre ambos, por lo que el físico tiene libertad para utilizar la descripción que mejor le convenga.

La idea aparentemente paradójica de que sea posible un movimiento hacia atrás en el tiempo se deduce del hecho de que no existe flecha del tiempo a nivel subatómico[9]. En los casos en que desaparece esa flecha, somos libres de imaginar el tipo de comportamiento del tiempo que nos apetezca.

Quienes son reacios a plantearse el movimiento de retroceso en el pasado, pueden consolarse fijándose en el fallo que presenta realmente la teoría de Feynman. No es capaz de explicar por qué, de ser posible ese movimiento en zigzag, existe un número tan elevado de electrones comparado con el de positrones. Los átomos de que se compone la materia, en general, están hechos de partículas, no de antipartículas. Los electrones se encuentran por todas partes, mientras que los positrones sólo suelen verse en los laboratorios. Y esto no es lo que observaría si los electrones se disfrazaran de positrones la mitad de las veces. Y, por supuesto, si sólo hubiera un electrón que estuviera saltando continuamente hacia adelante y hacia atrás, existiría el mismo número de electrones que de positrones.

El propio Feynman planteó esa objeción cuando mantuvo su conversación con Wheeler. «Pero, profesor», objetó, «hay menos positrones que electrones.»

«Bueno», contestó Wheeler, «puede que estén ocultos en los protones o en otro sitio.»

Dicho sea de paso, no se debería tomar demasiado al pie de la letra la respuesta de Wheeler, pues implica que los objetos puedan desaparecer de golpe. Supongamos, por ejemplo, que los electrones de mi cuerpo (y las demás partículas, que podrían, probablemente, darse la vuelta y transformarse también en antipartículas) decidieran no pasar de las 17 h 30. De suceder eso, dejaría yo de existir en ese momento. Por supuesto, no todas las partículas tienen por qué decidir necesariamente a la vez dar media vuelta. Pero, aunque no lo hagan, puede existir un punto en el tiempo más allá del cual no vaya jamás ninguna de las partículas del Universo. Este iría perdiendo masa gradualmente durante cierto tiempo, al cabo del cual desaparecería.

Como la ley de la entropía creciente es una ley estadística, se habría de esperar que existieran fluctuaciones y que, en algunos casos, el aumento de entropía se invirtiera durante un breve período de tiempo. Al fin y al cabo, las leyes de la probabilidad ya señalan que los acontecimientos muy poco probables han de suceder, tarde o temprano, por poco frecuentes que sean. A la larga, el rojo y el negro salen el mismo número de veces en el juego de la ruleta, aunque sólo se observen esporádicamente las rachas de rojo o de negro.

Si se analizara una de estas fluctuaciones en el momento de producirse, se vería que los acontecimientos se estaban desarrollando hacia atrás en el tiempo. Así, una fluctuación estadística muy importante pudiera hacer, por ejemplo, que todo el gas contenido en una caja se concentrara en uno de los lados. Una fluctuación de tipo diferente pudiera hacer fluir el calor desde un cuerpo frío en dirección a uno caliente. Cosas así no irían en contra de ninguna de las leyes fundamentales de física, y el movimiento de cada molécula en particular respetaría perfectamente las leyes de la mecánica cuántica.

No se registran fluctuaciones así de importantes, no por ser imposibles, sino sencillamente porque son demasiado poco probables. Así, en el caso de una caja que sólo contuviera cien moléculas de gas, se habría de esperar más de 1020 años (1020 es el número representado por el numeral 1 seguido de veinte ceros) para que pudiera suceder algo similar. Como 1020 años supone aproximadamente 10.000 millones de veces más tiempo que el que equivale a la edad actual del Universo, cabría estar sorprendidos si sucediera semejante acontecimiento.

Además, una caja de tamaño razonable no contiene un centenar de moléculas, sino una cantidad del orden de 1023 o 1024 de ellas. La probabilidad de que todas ellas se concentraran en uno de los lados es tan pequeña que es prácticamente desdeñable. Por eso se puede afirmar, con una seguridad casi absoluta, que semejante circunstancia no se dará nunca.

Pero quizá sea en la vida corriente donde encontremos el mejor ejemplo que demuestre la improbabilidad de producirse fluctuaciones de gran magnitud. Si dejo caer una copa de vino al suelo y observo cómo se hace añicos, estoy contemplando un caso de aumento de entropía. La rotura de la copa es uno de los procesos irreversibles que rige la flecha del tiempo de la termodinámica. Señalo, de paso, que éste es un caso en el que la definición de la entropía que se basa en la noción de desorden resulta más útil que la que lo hace en la noción de desequilibrio. Al romperse la copa, un estado de desorden sustituye al de orden.

De existir una fluctuación estadística de suficiente magnitud, cabe imaginar que se recomponen los trozos de cristal, y que la copa vuelve a mi mano. No hay motivo fundamental alguno para que esto no ocurra, si se espera el tiempo necesario. Las fluctuaciones estadísticas pueden hacer que las moléculas de aire contenidas en la habitación se muevan exactamente de la forma adecuada para que los trozos de cristal se junten de nuevo. A su vez, otras fluctuaciones pueden crear unos breves aumentos de temperatura en los cantos rotos, de tal forma que se suelden, reconstituyéndose así la copa. Y una última fluctuación habrá creado tal corriente de aire debajo de ésta, ya entera, que la ha empujado hacia arriba.

Según las leyes de estadística, esta secuencia de acontecimientos es posible, aunque realmente poco probable. Sería muy difícil calcular exactamente su índice de probabilidad, que debe ser del orden de una de 1010/25. Ahora bien, 1010/25 es el número representado por el numeral 1 seguido de 1025 ceros. Es un número tan grande que si se escribiera entero, llenaría más páginas que las de todos los libros jamás publicados. Y aunque los diferentes países del mundo siguieran publicando a su ritmo actual durante 10.000 millones de años, aún faltarían libros para contener todos los dígitos de que se compone. Es como si las leyes de la estadística nos dijeran: «Los milagros sí son posibles, pero la probabilidad de que ocurran es tan remota que equivale prácticamente a cero.»

Aunque todo esto pueda parecer un juego de la imaginación, no por ello deja de demostrar algo importante. Puesto que son tan sumamente improbables las fluctuaciones de gran magnitud, podemos afirmar con fundamento que siempre que observemos un estado de entropía reducida, no será por pura casualidad. Los cubitos de hielo no se deben a ninguna fluctuación casual: se hacen en las neveras; y las copas de vino tampoco son el resultado de acontecimientos fortuitos: se fabrican.

De registrarse fluctuaciones importantes, no existiría la flecha del tiempo. Se podría ver en un vídeo cómo se está deshaciendo un cubito de hielo, sin poder decir si realmente se está fundiendo, o si se está presenciando una grabación pasada al revés, en la que se estuviera formando espontáneamente un cubito. Lo improbable de que sucedan fluctuaciones importantes nos permite afirmar que la flecha del tiempo no va a desaparecer del mundo que nos rodea, aunque parezca debilitarse en los sistemas microscópicos.

A pesar de que la flecha del tiempo de la termodinámica da de promedios estadísticos, no deja de ser muy real. Si bien la flecha puede desaparecer a nivel subatómico, la del tiempo no es ninguna ilusión. Además, ésta existe no sólo en los sucesos que se producen a nuestro alrededor, sino también en el conjunto del Universo. Dicho de otra forma, la dirección del tiempo no es un fenómeno aislado. Cuando los astrónomos estudian el Universo, observan una entropía reducida en el pasado y tienen sobrados motivos para esperar que haya una mayor entropía en el futuro. Resulta que a pesar de que un electrón pueda no estar sometido a la flecha del tiempo, el Cosmos sí lo está.

Capítulo VIII
Las cinco flechas del tiempo

Si bien la flecha del tiempo termodinámica es la más importante de todas, existen en realidad cinco formas diferentes de distinguir la dirección del tiempo. La expansión del Universo es una de ellas. Aunque pueda no haber nada realmente fundamental en la asimetría temporal de ese proceso, sí se diferencia en él el pasado del futuro: la materia de que está formado el Universo estaba más comprimida en el pasado, mientras que estará más dispersa en algún momento del futuro. No obstante, no se tiene seguridad de que dicha expansión se prosiga indefinidamente. De haber suficiente masa en el Universo, el retardo gravitatorio hará finalmente interrumpirse la expansión. La opinión que predomina actualmente entre los astrónomos es que esto no ocurrirá nunca, pues no parece ser que el Universo contenga suficiente materia para que suceda. No por eso deben desdeñarse unas cuantas incógnitas importantes. Como ya señalé anteriormente, nadie sabe en realidad de qué están hechos los halos extra galácticos, ni la cantidad de masa que contienen exactamente. La mayor parte de los datos de que se dispone hoy día indican que no albergan suficiente materia para interrumpir la expansión. Tampoco son muy de fiar las evaluaciones de los astrónomos a este respecto.

Por consiguiente, se ha de concluir que aunque no sea probable que cese la expansión, sí cabe esa posibilidad. De producirse, en algún momento, dentro de varias decenas de miles de millones de años, le sucedería una fase de contracción. Como el tiempo seguiría transcurriendo probablemente en la misma dirección cuando esto ocurriera, ya no se tiene la seguridad de que la flecha del tiempo que nos proporciona la expansión tenga mayor importancia.

Además, no se sabe si esa flecha tiene o no algo que ver con la flecha termodinámica. La dinámica de un Universo en expansión está relacionada con las interacciones gravitatorias del Universo. Desgraciadamente, no se sabe cómo calcular la entropía de un campo gravitatorio. Los físicos no están ni tan siquiera seguros de que la noción de entropía pueda aplicarse a la gravedad, o si es una característica de la materia exclusivamente. Naturalmente, se han registrado algunos intentos de dar una solución a este problema y a otros relacionados con él, si bien los resultados que se han obtenido hasta la fecha son discutibles. La segunda ley de termodinámica puede aplicarse a la materia que contiene el Universo, pero sigue sin resolverse la cuestión de si describe o no el comportamiento de los campos gravitatorios que crea dicha materia.

Si ya la segunda flecha del tiempo —la expansión del Universo— ofrece dudas en cuanto a si reviste una importancia fundamental o no, la tercera flecha del tiempo es tan insignificante que hasta su propia existencia es un misterio, y no parecen existir motivos suficientes para dedicarle el menor interés. Por lo que han podido averiguar hasta ahora los físicos, su existencia no tiene consecuencias que influyan en los demás procesos físicos.

Antes de que explique lo que es la tercera flecha del tiempo, conviene que me aparte algo del tema para incidir en el comportamiento de las partículas elementales. Una buena forma de empezar puede ser recordando que en el capítulo anterior se señaló que las leyes de la física nuclear permiten que las reacciones se produzcan en sentidos opuestos. Si puede darse cierto tipo de desintegración nuclear, también puede suceder lo contrario. Por ejemplo, algunos núcleos se desintegran emitiendo partículas alfa. Siempre que ocurra, se pueden crear los mismos núcleos bombardeando un núcleo adecuado con partículas alfa de la energía conveniente.

Muchos son los núcleos que se desintegran emitiendo partículas beta, o electrones (el electrón tiene dos nombres porque la desintegración beta se descubrió unos cuantos años antes de que se estableciera la identidad de las partículas beta y la de los electrones). Cuando se produce la desintegración beta, se emite también una segunda partícula, un antineutrino, que es la antipartícula del neutrino. Los neutrinos y los antineutrinos están desprovistos de carga eléctrica y prácticamente de masa[10], y se desplazan a velocidades próximas o iguales a la de la luz.

No se observa el mismo proceso en sentido inverso. Esto, de todas formas, poco o nada tiene que ver con la dirección del tiempo. No existe motivo alguno por el que un núcleo no pudiera absorber simultáneamente un electrón y un antineutrino. Lo único por lo que no lo vemos es por la escasa probabilidad de que eso ocurra. Para que sucediera, haría falta que tres partículas —un núcleo, un neutrón y un antineutrino— se juntaran en el lugar adecuado y en el momento conveniente. Además, los tres necesitarían poseer la cantidad exacta de energía requerida.

Es muy probable que suceda esa reacción beta inversa, pero con tan escasa frecuencia que no lo vemos nunca. Sí se dan, sin embargo, unas reacciones similares a la de la desintegración beta, en las cuales intervienen dos partículas en vez de tres. Por ejemplo, si un neutrino colisiona con un neutrón, hay veces en que los sustituyen un protón y una partícula beta. Se ha comprobado que esta reacción y otras similares se producen también en sentido inverso.

Así pues, no se aprecia una flecha del tiempo en las reacciones nucleares, y tampoco en las reacciones entre las partículas elementales, en general. No obstante, existe una excepción. Hay una partícula llamada mesón neutroK, o kaón, que sí presenta una asimetría de tiempo.

El mesón K es una sub partícula atómica que sólo se observa en el laboratorio. Es una de las numerosas partículas que se crean cuando los físicos provocan colisiones híper energéticas entre partículas en los aceleradores de partículas. El mesón K no es un constituyente normal de la materia ni desempeña papel alguno en la desintegración nuclear.

Existen tres tipos de mesones K. Uno de ellos posee una carga positiva, otro, negativa, y el tercero es eléctricamente neutro. De los tres, sólo el mesón neutro K toma parte en reacciones que no sean simétricas en el tiempo. Es la única de las miles de partículas elementales descubiertas hasta ahora en la que se haya observado semejante propiedad.

Como la mayor parte de las partículas elementales[11], el mesón K es inestable. Se desintegra en menos de una millonésima de segundo después de haber sido creado. Esta desintegración puede producirse de diferentes formas. Frecuentemente, el mesón K se transforma en tres mesones pi, o piones. En otro proceso de desintegración, lo sustituyen un pión, un positrón y un neutrino. Según cálculos teóricos, si la desintegración de los mesones K ha de ser simétrica en el tiempo —si las leyes de la física de las partículas han de ser incapaces de distinguir entre uno de esos tres tipos de desintegración y su proceso inverso—, entonces, el kaón debe desintegrarse siempre en tres partículas, ya que de hacerlo en dos, el proceso no sería reversible en el tiempo.

En 1964 se observó que, a veces, sucede una desintegración en dos partículas. Las desintegraciones anómalas no ocurren muy a menudo. En más de un 99% de los casos, el mesón K se desintegra en tres partículas. No obstante, ocasionalmente se da una desintegración excepcional en dos partículas, la cual puede utilizarse para definir una flecha del tiempo.

Naturalmente, se han registrado varios intentos de explicar teóricamente por qué la desintegración del mesón K presenta una asimetría en el tiempo. Hasta ahora, todos han fallado. El hecho de que la anomalía no influya en los demás procesos asimétricos en el tiempo no sirve sino para añadir misterio a su existencia. Puesto que los mesones K no son una parte constituyente normal de la materia, cuesta imaginar que la flecha del tiempo que presentan tenga algo que ver con la expansión del Universo, o respecto al «paso» subjetivo del tiempo. Dicha característica tampoco está relacionada con la flecha del tiempo de la termodinámica. Los cálculos teóricos han demostrado que no es posible utilizar la desintegración del mesón K para producir un aumento de entropía en un sistema aislado. Incluso de ser posible, seguiría siendo muy tenue el lazo entre la desintegración del mesón K y la entropía.

Aunque muchas veces no hayan creado sino confusión los intentos por relacionar entre sí las demás flechas del tiempo, sí tenemos idea de por qué existen esas flechas. Desde luego que sin ellas el mundo sería un lugar de lo más paradójico. Si, en ocasiones, el tiempo subjetivo retrocediera, o si las fluctuaciones termodinámicas llevaran a una disminución de la entropía, lo menos que puede decirse es que la realidad resultaría extrañísima. Pero parece ser que carece de la menor importancia la asimetría en el tiempo del mesón K, y nadie ha sido capaz de proponer motivo válido alguno por el que pudiera observarse. Tampoco sabe nadie por qué habría de ser capaz el mesón K de distinguir entre las dos direcciones del tiempo cuando las demás partículas no lo hacen, ni por qué las distingue en escasamente el 1% de los casos.

La cuarta flecha del tiempo es la flecha electromagnética. Las ondas electromagnéticas (se incluyen en esta categoría la luz, los rayos X, las ondas radioeléctricas y los rayos ultravioletas e infrarrojos) se propagan en el futuro, no en el pasado. Por ejemplo, cuando los impulsos radáricos se reflejan desde la Luna, su eco se detecta unos segundos después de ser emitido el impulso, no unos segundos antes. Cuando miramos el Sol, lo vemos en la posición que ocupaba algo más de ocho minutos antes; éste es aproximadamente el tiempo que tarda la luz en recorrer la distancia comprendida entre el Sol y la Tierra. Tampoco vemos el Sol en la posición que ocupará ocho minutos después, ni lo vemos en los dos lugares a la vez.

A primera vista, no se aprecia nada especialmente misterioso en que haya una flecha electromagnética del tiempo. Después de todo, si la flecha no existiera sería posible enviar señales al pasado, violando así el principio de causalidad. Cabría entonces la posibilidad, por ejemplo, de apostar al fútbol, y, de perder, enviarse a sí mismo un mensaje en el pasado, para dar instrucciones de apostar en sentido contrario.

Se pudiera pensar que, de todas las flechas del tiempo, la flecha electromagnética fuera la más sencilla de comprender, pero, desgraciadamente, no es así, pues plantea muchísimas dificultades.

Las leyes de la electrodinámica, una teoría de la que es autor el físico escocés James Clerk Maxwell, y data de mediados del siglo XIX, define con acierto toda radiación como una combinación de campos eléctricos y magnéticos oscilatorios. Como todas las leyes básicas de física, las de la electrodinámica son simétricas en el tiempo: las ecuaciones no distinguen entre el pasado y el futuro Siempre que se resuelven esas ecuaciones se dispone de dos respuestas. Una de las soluciones corresponde a una onda que radia en el futuro, y la otra, a una onda que se propaga en el pasado, a pesar de lo cual tan sólo se observa la que se propaga en el futuro.

Ni tan siquiera se tiene la seguridad de que esto sea un fallo de la teoría, puesto que todas las demás teorías que describen los procesos físicos fundamentales son igualmente reversibles en el tiempo. En todo caso, la teoría de la electrodinámica está perfectamente probada. Describe magníficamente bien no sólo la emisión de radiación, sino también todos los fenómenos eléctricos y magnéticos conocidos. Si se pudiera modificar la teoría de tal forma que no pareciera prever la existencia de la propagación de radiación en el pasado (y no existe aparentemente forma de conseguirlo), es probable que el nuevo enunciado de la teoría resultaría erróneo en otros casos.

Nos vemos pues obligados a explicar de alguna otra forma en qué consiste la flecha electromagnética del tiempo. Comencemos pues por imaginar que las ondas electromagnéticas son capaces de propagarse hacia atrás en el tiempo. Así tendremos una idea de lo que pueden ser esas ondas, para seguir luego más adelante.

Como no son visibles las ondas electromagnéticas, será conveniente sustituirlas por un tipo similar de movimiento de ondas. Supongamos que se tire una piedra en un estanque perfectamente quieto. Cuando la piedra se hunde en el agua se forman ondas en la superficie de ésta, y se van ampliando hasta alcanzar los bordes del estanque. Estas ondas tendrán forma de círculos concéntricos cada vez mayores.

Supongamos ahora que las ondas, en vez de propagarse en el futuro, se propagan en el pasado. ¿Qué aspecto tomarían? Antes de contestar, hemos de señalar que el movimiento invertido de las ondas debería interpretarse desde nuestro punto de vista habitual, acostumbrado a mirar hacia el futuro. Volviendo a la pregunta, nos parecerían exactamente iguales a como veríamos las ondas que progresaban antes hacia adelante, en una grabación que se estuviera pasando hacia atrás. Desde nuestro punto de vista, parecería como si las ondas se originaran en los bordes del estanque, y fueran contrayéndose hacia el centro hasta llegar al punto en que la piedra tomaba contacto con el agua. Después de que cayera ésta en el estanque, el agua se quedaría en calma.

Según las leyes de movimiento de las ondas, no hay nada que impida que esto ocurra. Las ecuaciones matemáticas que definen el movimiento de las ondas en el agua hacia adelante en el tiempo admiten también que este movimiento se produzca hacia atrás. Se da una situación exactamente similar a la que se observa en electrodinámica. Las leyes de la naturaleza permiten imaginar un tipo de movimiento que no se ve en la misma.

El que no se observe no quiere decir que sea imposible, sino sencillamente que es demasiado improbable. Si los bordes del estanque vibraran exactamente como debieran, podrían crear unas ondas que progresaran hacia adentro y se contrajeran hasta tocar la piedra en el momento preciso de entrar ésta en contacto con el agua. Si las ondas tuvieran exactamente la magnitud conveniente, anularían el efecto de la piedra, de tal forma que el estanque permanecería en calma después de ser alcanzado por ésta. Es evidente que la oportunidad de que pueda suceder semejante cosa es tan remota como la que tenía la copa de vino de recomponerse después de rota y subir hasta la mano que la sostenía.

He descrito el caso de las ondas que se iban contrayendo en el agua de la misma forma que si se tratara de un acontecimiento que ocurriera en dirección hacia el futuro, y sin embargo, se suponía que había de suceder en dirección al pasado. De hecho, así era, pero tampoco cambia eso nada. Las ondas que se dirigen hacia atrás en el tiempo serían exactamente equivalentes a las que se dirigían hacia adentro hasta alcanzar la piedra. Ambas descripciones no son sino dos formas diferentes de contemplar una misma cosa. No hay mayor posibilidad de diferenciarlas que de distinguir entre un positrón que se desplaza hacia adelante en el tiempo y un electrón que esté retrocediendo.

Tampoco se puede insistir mucho en este punto, ya que no somos capaces de observar el movimiento en el pasado. Bajo nuestro punto de vista, el pasado se ha ido, y lo único que podemos ver es un comportamiento similar al que se observaría en una película o una grabación que se estuviera pasando al revés. Viéndolo así, cabe siempre la posibilidad de interpretarlo de dos formas, según queramos ver las cosas de la forma habitual, o sea, hacia el futuro, o bien adoptando el punto de vista opuesto.

Veamos ahora el caso de las ondas electromagnéticas que retroceden. Para mayor facilidad, tomaremos un ejemplo similar al de las ondas en el estanque. Supongamos que una estrella o una bombilla están emitiendo luz. Las ondas de luz se propagarán en todas las direcciones. Las crestas y los senos de las ondas dibujarán una serie de círculos concéntricos cada vez mayores. Dicho sea de paso, las crestas y senos de las ondas son los de los campos magnéticos y eléctricos oscilantes de que se compone la luz.

Las ondas luminosas que se movieran hacia atrás en el tiempo tomarían la forma de esferas que se estuvieran contrayendo, al igual que las ondas concéntricas del estanque. De existir semejantes ondas luminosas, podríamos considerarlas como si se hubieran originado en las paredes de una habitación o —en el caso de una estrella— en algún punto del espacio exterior y fueran absorbidas por la bombilla o la estrella después de propagarse hacia adentro.

Si sólo existieran ondas que retrocedieran, no se verían brillar las estrellas ni las bombillas, ya que en vez de emitir energía la absorberían. Ahora bien, es evidente que ni las estrellas ni las bombillas son objetos oscuros que absorban energía. Pero se ha de explicar el mero hecho de que no lo sean, ya que si son válidas las leyes de la electrodinámica, ese comportamiento extraño debería verificarse en la realidad.

Caben dos tipos de explicación. La primera es similar a la que se dio para justificar la ausencia de ondas que retrocedieran en el tiempo, en el ejemplo del estanque, o sea, que, si bien es posible semejante radiación hacia adentro, es tan poco probable que no se da. Es la misma clase de comportamiento improbable que no admite la segunda ley de la termodinámica.

Así, para que una bombilla absorbiera energía de esta forma, los átomos de las paredes de la habitación deberían emitir luz espontáneamente de la forma precisamente adecuada para producir una onda en retroceso del tipo exacto que se necesita. No sólo las paredes deberían emitir luz, sino también hacerlo coordenadamente para que las crestas y los senos resultantes presentaran una configuración esférica. Si una de las partes de la pared produjera crestas de onda que no se alinearan perfectamente con las de las demás partes, esa configuración esférica se disgregaría. Y ni tan siquiera el laboratorio más avanzado equipado con los dispositivos electrónicos y ópticos más perfeccionados sería capaz de producir una configuración de onda tan perfecta.

Si pudiéramos deducir que no se observa radiación en retroceso en el tiempo porque se necesitan para ello unas condiciones demasiado improbables, no sería tan desconcertante la flecha del tiempo electromagnética, ya que cabría sencillamente suponer que estaba relacionada con la flecha del tiempo termodinámica, o que, al igual que en el caso de ésta, ciertos acontecimientos fueran tan improbables que no se verificaran; pero, desgraciadamente, el tema es más complicado, al existir otra posible explicación del origen de la flecha electromagnética. Además, que se sepa, poco tiene que ver con la termodinámica o las leyes de probabilidades.

En 1945, Wheeler y Feynman elaboraron una teoría fundada en la suposición de que si las leyes de electrodinámica admiten la radiación invertida en el tiempo, semejante radiación ha de existir en la naturaleza. Según su teoría, el que no veamos esa radiación se debe a que los procesos de emisión y absorción la anulan.

El objetivo inicial de Wheeler y Feynman no consistía en explicar con su teoría la ausencia de radiación invertida en el tiempo, sino buscar la forma de subsanar las dificultades matemáticas que surgían en las teorías que trataban las interacciones entre las partículas cargadas y los campos electromagnéticos. Aunque sólo lo consiguieran en parte, su teoría despertó mucho interés entre los cosmólogos, por abrir camino a una posible relación entre la flecha del tiempo electromagnética y la expansión del Universo.

Wheeler y Feynman partieron del supuesto que la radiación electromagnética podía emitirse en ambas direcciones del tiempo, e intentaron averiguar las consecuencias de esa suposición. Plantearon pues el caso en que la radiación emitida en el sentido habitual, o sea, hacia el futuro, fuera finalmente absorbida por algún tipo de materia. Descubrieron que, de ocurrir esto, las partículas de que estaba constituida esa materia remitirían la radiación, la cual también se emitiría en ambas direcciones. Una mitad seguiría en dirección al futuro, pero la otra mitad empezaría a recorrer el camino inverso, hacia el pasado.

En definitiva, habría dos ondas que retrocederían en el tiempo, una que se propagaría a partir del emisor inicial, y otra que rebotaría hacia atrás desde el «elemento de absorción en el futuro». Wheeler y Feynman descubrieron que ambas ondas se anularían exactamente una a otra. Cuando la onda proveniente del elemento de absorción en el futuro se acercara al presente, convergería en el emisor inicial e interferiría, destruyéndolas, en las ondas que estuvieran dirigiéndose hacia el pasado.

La interferencia destructivas un fenómeno que se viene observando desde hace tiempo en óptica. Cuando las ondas luminosas se juntan de tal forma que coinciden las crestas de una onda con los senos de otra, se anulan simultáneamente, produciendo la oscuridad. Este es, en cualquier caso, un fenómeno que se puede observar sin necesidad de aparatos científicos. Basta para ello con mirar hacia una fuente de luz entre dos dedos. Al juntar los dedos hasta casi tocarse, se verán franjas luminosas y franjas oscuras. Las franjas oscuras se deben a la interferencia destructiva, mientras que las de luz son de interferencia constructiva, lo cual sucede cuando las crestas de una onda se ponen en línea con las de otra.

No estaña de más resumir ahora lo que hemos dicho. Un emisor en el presente emite radiaciones tanto en el pasado como en el futuro. Las que se dirigen al futuro serán absorbidas finalmente. El elemento que absorbe desde el futuro devuelve la onda a su pasado. Cuando esta onda converge hacia el presente, anula la onda que se dirigía al pasado.

En otras palabras, hemos explicado por qué no existía radiación hacia el pasado, pero no hemos dicho nada de la onda del futuro que converge hacia el presente. ¿Por qué no la vemos?

Teóricamente, la vemos, pero no la interpretamos como una onda del futuro. Recordemos que es una onda que converge desde el futuro. Sin embargo, desde nuestra visión dirigida al futuro, nos parecerá que se trata de una onda que diverge hacia el futuro. O sea, que se verá como una radiación normal. Si se analiza la teoría más a fondo, se comprobará que esa onda que proviene del futuro va a interferir constructivamente en la onda que se dirige hacia el futuro desde el presente, por lo que esa onda parecerá ser más intensa.

¿Acaso esta teoría no implica que la radiación debería entonces parecemos más luminosa de lo que prevé la teoría convencional?

Por supuesto que no. No olvidemos que, según la teoría en cuestión, el 50% de la energía del elemento emisor se dirigía hacia el pasado, y la otra mitad, hacia el futuro. De esta forma, inicialmente, tenemos una onda hacia el futuro que sólo presenta la mitad de la luminosidad que prevé la teoría convencional. Pero cuando la onda convergente regresa del futuro, interfiere constructivamente en un caso, y destructivamente en otro: anula el 50% que se dirige al pasado, y añade el 50% que faltaba a la onda que se dirige al futuro. El resultado neto es que tan sólo vemos una onda normal que se dirige hacia el futuro.

Todo esto parece algo confuso, y usted se estará preguntando si realmente es necesario complicarlo tanto. ¿Es indispensable recurrir a la existencia de radiaciones que retroceden en el tiempo? Si, al final, resulta que la radiación en sentido inverso en el tiempo se anula, ¿por qué se la introduce al principio?

Por supuesto, el lector a quien se le ocurren estas preguntas tiene motivos para planteárselas. Pero la teoría Wheeler-Feynman también presenta puntos a su favor. Así, explica la ausencia de radiación en sentido inverso al del tiempo sin recurrir a ningún supuesto que no se encuentre ya en la teoría de la electrodinámica. Esta ciencia da por sentado que pueda existir una radiación invertida en el tiempo, y Wheeler y Feynman no hacen sino tomarse la teoría al pie de la letra, y descubrir, entonces, que se trata de un tipo de radiación de la que no cabe preocuparse, pues no se puede observar. Esta teoría de Wheeler-Feynman será correcta o no, pero, en todo caso, proporciona una solución atinada para el problema de la existencia de una flecha del tiempo electrodinámica.

Por supuesto, esta teoría sólo funcionará si existe un elemento de absorción en el futuro. De tener que anularse las ondas invertidas en el tiempo, deben existir elementos en el futuro capaces de absorber toda la radiación dirigida hacia el mismo. A su vez, esto implica que el Universo no puede expandirse indefinidamente. De hacerlo, una parte de la radiación que emitieran las estrellas no llegaría nunca a ser absorbida, y la materia se dispersaría demasiado en un futuro Universo.

Si, por el contrario, el Universo se contrae finalmente, la materia se hallará en un estado más comprimido de lo que está hoy día. En tal caso, toda la radiación que se dirige al futuro acabaría cruzándose con la materia capaz de absorberla.

Como ya dije anteriormente, tanto los astrónomos como los cosmólogos son partidarios de creer que el Universo seguirá expandiéndose indefinidamente. Si algún día llegaran a recoger datos que constituyeran una prueba concluyente de esa suposición, cabría poner en duda la teoría de Wheeler-Feynman. Pero si descubren que el Universo contiene suficiente masa como para que la expansión llegue a interrumpirse e induzca el inicio de una fase de contracción dentro de miles de millones de años, no se podrá decir que eso confirme la teoría de Wheeler-Feynman. Se habrá demostrado sencillamente que su teoría no está en contradicción con los datos astronómicos.

Como dijo el filósofo de la ciencia británica, de origen austríaco, Karl Popper, nunca se puede probar realmente que sean correctas las teorías científicas. Todo lo más, se puede intentar refutarlas por medio de pruebas experimentales. Dice Popper: «Generalmente, nos fiamos de las teorías que siguen en pie tras numerosos intentos de refutarlas.»

Si finalmente deducimos que el Universo entrará en una fase de contracción en algún momento del futuro, la teoría de Wheeler-Feynman habrá superado una de esas pruebas. Pero incluso de ser así, los físicos no se verán obligados a aceptar su validez, ya que en ese caso, aún seguiría habiendo dos posibles explicaciones para justificar la ausencia de ondas invertidas en el tiempo. De hecho, la explicación que recurre a la improbabilidad de que se produzcan ondas de ese tipo pudiera todavía resultar la más sensata, pues también explica el que no se produzcan ondas en dirección opuesta al tiempo en el agua.

Por otra parte, la teoría de Wheeler-Feynman presenta una importante ventaja sobre su rival: supone la existencia de una relación entre la termodinámica y la cosmología, por lo que abarca mayor campo que la otra explicación. Su atractivo está precisamente en tratar de dar respuesta a un tema tan desconcertante como la posible relación que existe entre las diferentes flechas del tiempo. Aunque no proponga ninguna conexión entre la flecha del tiempo electrodinámica y la expansión actual del Universo, sí indica que hay una relación entre esa flecha y una futura contracción.

Ha sido ya motivo de fuerte controversia la naturaleza de las relaciones —si las hay— entre las cuatro flechas del tiempo definidas por la física, sin que se hayan conseguido resultados verdaderamente concluyentes al respecto. Y aún está rodeada de mayor misterio la relación que pudiera haber entre las cuatro flechas de la física y la flecha psicológica del tiempo. Tan enigmática es que algunos filósofos han llegado a la conclusión de que el tiempo no existe en realidad.

La dificultad no estriba en dar con la explicación de por qué las flechas de la física y la flecha psicológica apuntan en la misma dirección: se podría justificar esto con el hecho de que estamos hechos de materia normal y que podemos considerar nuestros cuerpos como unos motores térmicos dentro de la termodinámica. Lo realmente preocupante no es saber por qué apuntan en una misma dirección las flechas de la psicología y de la física, sino por qué son tan diferentes.

Todos tenemos noción del «paso» subjetivo del tiempo. Somos conscientes de que existe un momento que llamamos «ahora», que parece avanzar inexorablemente hacia el futuro. Pero la física no necesita esa noción del «ahora». Sus leyes sólo tratan de la dirección del tiempo, y permanecen mudas sobre el momento presente. Dicho de otra forma, la física desconoce el «paso» del tiempo. Lo único que la física nos dice en realidad es que algunas grabaciones de vídeo nos muestran acontecimientos imposibles cuando se pasan al revés.

De hecho, si intentáramos introducir la idea del «paso» del tiempo en la física, surgirían inmediatamente dificultades. Cierto es que se puede describir cómo se desplaza un objeto en el tiempo. Así, un automóvil recorre tantos kilómetros por hora, o una bala tantos metros por segundo. ¿Pero a qué velocidad se desplaza un «ahora»? Ésta es una pregunta que la física deja sin respuesta.

En física el tiempo es una dimensión, y, como las tres dimensiones del espacio, puede representarse por medio de una línea que se prolonga indefinidamente en ambas direcciones. Pero la dimensión del tiempo no goza de instantes privilegiados. Cada momento del tiempo está situado al mismo nivel que los demás. Por ejemplo, aplicando las leyes del movimiento de Galileo a la trayectoria de un proyectil, podemos calcular que dará en el blanco un número determinado de segundos después de salir del arma, pero no influirá para nada el que se haya disparado a las seis de la mañana o a las cuatro de la tarde, o si fue el 14 de febrero o bien el 21 de septiembre: el tiempo de recorrido será siempre el mismo, ya se dispare el proyectil «ahora», se haya disparado en algún momento del pasado, o se vaya a disparar en algún momento del futuro.

La diferencia entre las dos descripciones opuestas del tiempo —la que lo define como un «ahora» en movimiento, y la noción de tiempo como dimensión— fue objeto de estudio por parte del filósofo de Cambridge J. Ellis McTaggart[12], a principios de este siglo, o sea, mucho tiempo antes de que los temas asociados con el tiempo llamaran poderosamente la atención de los físicos. En 1908, McTaggart publicó un trabajo en el que distinguía entre lo que llamó una serie A y una serie B dentro del tiempo. Por serie A, McTaggart entendía la descripción del tiempo fundada en la noción de pasado, presente y futuro. Por serie B, entendía la distinción entre anterior y posterior.

Se aprecia inmediatamente que resultan algo diferentes esas dos formas de considerar el tiempo. Por ejemplo, cuando se dice que «Isabel II es la reina actual de Inglaterra», se está utilizando la noción del «ahora», mientras que se prescinde de ella al afirmar que «el reino de Enrique VIII precedió al de Isabel I». En el primer caso, se hace referencia a un momento del tiempo presente. En el segundo, lo que se afirma es igual de válido hoy que en la época en que reinaba Isabel I, y que dentro de quinientos años.

McTaggart sostenía que ambas descripciones del tiempo se contradecían, y concluía que, por consiguiente, el tiempo debía ser una ilusión. Aunque pocos filósofos contemporáneos aceptan esta conclusión, la filosofía no ha aportado respuestas definitivas a las preguntas que planteó McTaggart. No es fácil averiguar la relación que existe entre sus series B (asombrosamente similares al tiempo según la física) y sus series A (que, al incluir un «ahora», se parecen mucho al tiempo subjetivo).

Algunos filósofos y científicos han intentado solucionar el problema afirmando que el «ahora» no es sino un fenómeno subjetivo. A su forma de ver, no existiría lo que se denomina presente de no haber seres conscientes para percibirlo. Si la percepción consciente no creara el «ahora», todos los momentos del tiempo coexistirían a un mismo nivel.

A mi modo de entender, no es sostenible semejante opinión, y el «ahora» no me parece ser puramente subjetivo. De hecho, es fácil imaginar formas de intentar demostrar su realidad objetiva. Cuando estoy presenciando un partido de béisbol y percibo que se golpea la pelota «ahora», no se trata de algo que sólo existe en mi conciencia, puesto que todas las demás personas que se encuentran en el estadio experimentan la misma percepción simultáneamente. Si aceptamos que compartimos el mismo «ahora», necesariamente debemos reconocerle cierta existencia objetiva a ese momento del presente. Además, puedo fotografiar el acontecimiento en el momento en que sucede. Al revelar la película, ésta demostrará que el «ahora» que experimenté y el acontecimiento que sucedió en aquel «ahora» eran objetivamente reales. Y es que no es tan fácil deshacerse del tema del tiempo subjetivo como a algunos les gustaría. Lo más seguro es que debemos seguir adoptando la visión que impone el sentido común de que existe un «ahora», por muchos problemas filosóficos de difícil solución que eso nos cree.

La relación que pueda haber entre el «ahora» subjetivo y el tiempo de la física no es sino uno de esos problemas. Otro, aparentemente igual de difícil de resolver, consiste en averiguar exactamente lo que es la percepción del «ahora».

Es evidente que el presente subjetivo no es un instante matemático. De serlo, no seríamos capaces de oír el tic-tac del reloj. El hecho de que oímos el tic y el tac como una unidad, no por separado, parece demostrar que ambos forman parte del presente psicológico. De la misma forma, si el «ahora» subjetivo tuviera una duración nula, no seríamos capaces de captar ritmos musicales. Los tiempos o compases musicales nos harían poca impresión a no ser que las notas separadas una de otra en el tiempo estuvieran de algún modo presentes simultáneamente en la conciencia. Y tampoco podríamos percibir el movimiento si el «ahora» fuera un instante. Todo lo más, observaríamos que un cuerpo en movimiento ocupa posiciones diferentes en diferentes instantes.

Luego está el misterio del «paso» del tiempo, tan ajeno a todo el resto en la física. Está claramente demostrado que dicho «paso» está relacionado de alguna forma con los procesos biológicos cíclicos que se producen en el cuerpo. Se ha observado en experimentos que cuando sube la temperatura del cuerpo por motivo de la fiebre o por diatermia, se distorsiona el sentido del tiempo, dando la impresión de pasar mucho más despacio. Pero, en cualquier caso, ¿por qué varía tanto la sensación de «paso» del tiempo incluso cuando la temperatura del cuerpo permanece constante? ¿Por qué pasa el tiempo despacio cuando nos aburrimos y más rápidamente cuando estamos entretenidos? ¿Tendrá que ver este fenómeno con la velocidad a la que el cerebro procesa la información? Pero, entonces, ¿cómo actúa? ¿Y qué relación tiene esto con la capacidad que tienen algunas personas de despertarse por sí mismas a determinadas horas? ¿A qué se debe el que, a menudo, podamos calcular una duración con precisión, incluso en condiciones en las cuales el tiempo no esté «pasando», de una manera aparente, a su ritmo normal?

En 1936, se sometió a dos sujetos a un experimento que consistió en encerrarles en una habitación insonorizada, durante 48 horas y 86 horas, respectivamente. Al final de su encierro, ambos supieron evaluar el tiempo que había pasado, con una precisión superior al 1%. Y no puede decirse que una habitación insonorizada constituya un entorno especialmente interesante. Sólo cabe imaginarse que a los sujetos en cuestión les debió parecer que el tiempo pasaba «despacio» mientras estaban allí.

Y sin embargo, ese sentido del tiempo, que resultó tan acertado durante el experimento de 1936, falla estrepitosamente en circunstancias diferentes. Así, individuos que han permanecido semanas o meses en cuevas subterráneas han descubierto, a su salida, que habían estimado muy por debajo de la realidad el tiempo de su estancia bajo tierra. De igual manera, en determinadas circunstancias, se calcula muy por debajo o muy por encima el tiempo transcurrido, a pesar de ser breve. A cuántos de nosotros nos habrá ocurrido mirar el reloj al rato de estar ocupados en una tarea absorbente, y sorprendernos del mucho tiempo que ha pasado.

La psicología contemporánea no parece preocuparse mayormente de investigar cuál es la naturaleza del tiempo subjetivo. Quien busque documentación sobre el tema se encontrará con que muchas de las referencias a ideas o experimentos al respecto remontan a cincuenta o incluso cien años atrás. Así, resulta que la naturaleza de la flecha del tiempo subjetivo es aún más enigmática que los interrogantes que plantea la presencia de cuatro flechas del tiempo distintas en física. De ahí que convenga quizá dejar de lado, por ahora, el tiempo subjetivo, y volver al tema del tiempo tal como lo contempla la física.

Capítulo IX
Tiempo relativista

Supongamos que un cometa ha entrado en el Sistema Solar, y que su órbita le va a aproximar mucho de la Tierra. Imaginemos también que los astrónomos quieren determinar en qué momento pasará por la órbita de Marte. ¿Cómo van a calcularlo?

A primera vista, se trata de un problema sencillo. Basta con que los astrónomos observen el cometa cuando pase por la órbita de Marte. Si saben a qué distancia de la Tierra se encuentra el cometa en ese momento, será fácil calcular el tiempo. Por ejemplo, si el cometa se halla a 306 millones de kilómetros de distancia, la luz tardará unos diecisiete minutos en recorrer la distancia que separa al cometa de la Tierra. Así, cuando los astrónomos vean que éste cruza la órbita de Marte, sabrán que están observando un acontecimiento que sucedió diecisiete minutos antes. Tan sólo necesitan restar esa duración de la hora que lean en el reloj: si el reloj marca las 9 h 52, una simple resta dará el resultado de 9 h 35.

Supongamos ahora que exactamente en el mismo momento en que se está llevando a cabo esa observación, un vehículo espacial pasa delante de la Tierra en dirección al cometa, a una velocidad equivalente al 70% de la velocidad de la luz. Imaginemos que unos astrónomos que viajen a bordo de ese vehículo hacen exactamente el mismo cálculo. ¿Qué tiempo obtendrán ellos?

El sentido común nos dicta que llegarán a la misma conclusión de que el cometa cruzó la órbita de Marte a las 9 h 35. Pues no, el sentido común nos puede confundir en ocasiones; como ésta, precisamente, en la que, aplicándolo, se llegaría a un resultado erróneo. Efectivamente, los astrónomos del vehículo espacial concluirían que el cometa atravesó la órbita de Marte hacia las 9 h 40, y no a las 9 h 35. A pesar de tomar el mismo tipo de medidas y de hacer los mismos cálculos que los astrónomos de la Tierra, el momento en que para ellos se ha producido ese acontecimiento diferirá del que se habrá calculado en tierra.

Si recurrimos al sentido común, concluiremos que si existe una diferencia, será porque uno de los grupos de observadores ha debido confundirse. Sin embargo, el sentido común nos lleva de nuevo por malos derroteros: no existe motivo alguno para dar preferencia a las observaciones de un grupo sobre las del otro, pues ambas son válidas. Según la teoría restringida de la relatividad de Einstein, las mediciones del tiempo que tomen unos observadores que se hallen en diferente estado de movimiento no coincidirán unas con otras. Dicho de otra forma, el tiempo es relativo; es sencillamente imposible definir el momento exacto en que se produce un acontecimiento distante. En realidad, puede ocurrir perfectamente que un acontecimiento lejano se sitúe en el «pasado» para un observador, y en el «futuro» para otro.

Imaginemos la siguiente situación: ambos grupos de observadores han recogido datos del camino recorrido por el cometa mucho antes de acercarse éste a la órbita de Marte, y han concluido de antemano (mientras el cometa se encuentra, digamos, próximo a la órbita de Júpiter) que su trayectoria cruzará la órbita de Marte a las 9 h 35 y las 9 h 40, respectivamente. Por eso, a las 9 h 37, los observadores situados en la Tierra considerarán que el hecho ya ha sucedido[13], mientras que los de la nave espacial calcularán que va a ocurrir dentro de tres minutos en el futuro.

El tiempo no es totalmente relativista en la relatividad restringida. Los observadores situados uno cerca del otro en el espacio coincidirán siempre en el significado del término «el presente» mientras se aplique a acontecimientos próximos. Si un vehículo espacial pasa delante de la Tierra en el preciso momento en que se produce la detonación de una bomba de hidrógeno, no tendrán ninguna dificultad los tripulantes del vehículo y los observadores terrestres en ponerse de acuerdo sobre el momento en que ambos han visto la explosión, puesto que habrá sido a la vez. Y de no existir ningún acontecimiento que ambos grupos de observadores pudieran mirar, siempre podrían hacerse señales unos a otros y utilizar dichas señales para sincronizar sus relojes. Esto quiere decir que comparten el mismo «ahora». Pero, tratándose de acontecimientos distantes, no ocurre así. En la relatividad, la idea del «ahora» no va más allá del «aquí».

Como todo ello puede sonar muy raro, vale más dejar para más adelante las implicaciones de la teoría restringida de la relatividad, y comenzar por explicar, en primer lugar, lo que es esta teoría, y cómo se descubrió.

La noción de «relatividad» no fue inventada por Einstein. De hecho, también es relativista la mecánica de Newton, si bien en un sentido más restringido que las teorías de Einstein. La mecánica de Newton obedece al principio conocido como relatividad de Galileo. Según las leyes del movimiento de Newton, no existe forma de detectar el movimiento absoluto; todo lo más, se puede observar el movimiento de dos cuerpos en relación uno con el otro.

Este principio se llama relatividad de Galileo porque fue él quien señaló por primera vez que no existe ningún experimento que se pueda llevar a cabo en un barco navegando por el océano, que permita averiguar si éste se mueve o no. Por ejemplo, un objeto que se dejara caer desde un mástil hasta la cubierta siempre parecerá que cae en línea recta hacia abajo, ya se esté moviendo o no el barco con respecto a la tierra o al agua. Si, por ejemplo, el barco se desplaza a una velocidad de diez nudos, el objeto se moverá con la nave a una velocidad horizontal de diez nudos mientras cae. Para quienes lo observen desde la cubierta, sólo será aparente el movimiento vertical.

A principios del siglo XX, Einstein observó que si bien las leyes del movimiento de Newton obedecían al principio de la relatividad, la teoría de electrodinámica de Maxwell no se ceñía a éste. Así, la teoría de Maxwell suponía que se creaba siempre un campo eléctrico cuando se ponía en acción un imán, y nadie dudaba de que no fuera verdad. En la época de Einstein, este fenómeno se había confirmado repetidamente: era el principio en que se basaban los generadores eléctricos. Sin embargo, Einstein vio algo muy peculiar en esta suposición teórica concreta: si los imanes en movimiento generaban campos eléctricos, y los estáticos no, debería ser posible detectar el movimiento absoluto.

En la práctica, se ignoraba cómo conseguirlo. Si se construía un dispositivo para detectar esos campos, éste registraría la misma lectura ya se moviera él mismo o el imán. Einstein intuyó que, contrariamente a lo que pretendía la teoría de Maxwell, era imposible detectar el movimiento absoluto. Se dispuso pues a comprobar lo que ocurriría si se formulaba de nuevo la teoría de Maxwell, pero esta vez bajo la óptica relativista.

Se encontró con que, para modificarla de esa forma, necesitaba suponer que la velocidad de la luz era constante, medida por el observador que fuera. Según Maxwell, la luz se componía de vibraciones electromagnéticas, por lo que cualquier suposición relacionada con la velocidad de la luz (y de otras radiaciones electromagnéticas, que se desplazan a la misma velocidad) había de incidir en lo referente al comportamiento de los imanes. Y las ecuaciones matemáticas que constituían la teoría de Maxwell relacionaban ambos fenómenos.

El asumir que es constante la velocidad de la luz puede sorprender. De ser eso correcto, daría lo mismo que una fuente de luz fuera estacionaria o que se me acercara a gran velocidad. En ambos casos, si mido la velocidad de la luz que emite dicha fuente, obtendré el mismo resultado: 299.792,457 kilómetros por segundo. Además, seguirá siendo el mismo si me desplazo rápidamente hacia la fuente de luz. En realidad, si sólo importa el movimiento relativo, no incide para nada el que la fuente de luz venga hacia mí o yo me acerque a ella.

Einstein sabía perfectamente bien que, en general, las velocidades no presentaban semejante tipo de constancia. Por ejemplo, si un tren se desplaza a una velocidad de 80 kilómetros por hora, y un pasajero tira un objeto, en el sentido de la marcha, dentro del vagón, a una velocidad de 50 kilómetros por hora, el objeto se desplazará a 130 kilómetros por hora con respecto a la Tierra. Igualmente, si un avión reactor se desplaza a una velocidad de 1.000 kilómetros por hora, el proyectil que dispare a una velocidad de 800 kilómetros por hora se lanzará hacia su blanco a 1.800 kilómetros por hora. Ni tan siquiera las ondas sonoras presentan la constancia que Einstein atribuía a la luz. Si me muevo en dirección a una onda sonora que se esté dirigiendo hacia mí, su velocidad parecerá mayor que si permanezco quieto.

Einstein debe haber sido consciente de que semejante afirmación iba en contra del sentido común, pero también vio que el postulado de la constancia de la velocidad le permitía no sólo ampliar a la electrodinámica el principio de la relatividad, sino que también aportaba una solución a algunas de las dificultades que la física arrastraba desde hacía tiempo.

Cuando Maxwell publicó su teoría en 1873, se sabía desde hacía más de un siglo que la luz era un fenómeno ondulatorio. Ahora bien, los fenómenos ondulatorios son vibraciones. Así, el sonido se produce cuando se hace vibrar las moléculas del aire, y las olas del mar pueden considerarse como vibraciones lentas de la superficie del agua. No sorprende pues que los físicos del siglo XIX concluyeran que la luz debía ser el resultado de las vibraciones que se producían en algún medio. De ahí que consideraran que el espacio debía estar ocupado por una sustancia llamada éter, la cual servía de soporte a las vibraciones que llegaban a la Tierra desde el Sol y aseguraba la transmisión de la luz en la superficie terrestre. Se imaginaba que el éter no sólo ocupaba espacios «vacíos», sino que también estaba entremezclado con la atmósfera de la Tierra.

Pero esta teoría presentaba múltiples problemas. Según los cálculos, para que el éter fuera capaz de transportar las rápidas vibraciones de la luz, había de ser bastante rígido. Por otra parte, debía estar lo suficientemente enrarecido para no ofrecer resistencia detectable al movimiento de la Tierra en su órbita alrededor del Sol, y no era fácil imaginarse cómo podían coexistir semejantes características en una misma sustancia. Además, nadie supo descubrir cómo se podía detectar experimentalmente la presencia del éter. Cuando Einstein publicó su trabajo sobre la relatividad, en 1905, todos esos intentos habían fallado.

Einstein barrió todos esos problemas de un plumazo, cuando afirmó, en el documento que acabamos de citar, que si nadie había conseguido detectar el éter era porque no existía. Cabe resaltar que si se llega a haber confirmado experimentalmente la presencia de esa sustancia hipotética, las ideas de Einstein hubieran sufrido un golpe fatal, pues de existir tal éter, también habría movimiento absoluto. O se estaría uno moviendo con respecto al éter, o se permanecería estacionario. Además, en tal caso, la luz no se desplazaría a una velocidad de 299.792,457 kilómetros por segundo con respecto a un observador en movimiento, puesto que lo haría a esa velocidad con respecto al éter.

Aunque parece ser que lo que llevó a Einstein a hacer esas suposiciones en cuanto a la velocidad de la luz fueron más bien consideraciones de tipo teórico que no consecuencia de resultados experimentales, merece la pena relatar un experimento famoso que fue llevado a cabo casi veinte años antes de que se publicara la teoría de Einstein, en el transcurso del cual se intentó medir la velocidad de la luz respecto al éter. En 1887, los científicos estadounidenses Albert Michelson y Edward Morley construyeron un aparato capaz de comparar las velocidades de unos rayos de luz que se desplazaban en direcciones diferentes con relación al movimiento de la Tierra. Siguiendo el razonamiento según el cual ese movimiento había de desencadenar un «viento» de éter que parecía soplar más allá de la Tierra, llegaron a la conclusión de que la luz debería parecer desplazarse a menor velocidad cuando fuera «a contracorriente» que cuando soplara el viento de éter a sus espaldas. Descubrieron, con sorpresa, que no se detectaba ninguna cantidad relevante de viento de éter. Si bien obtuvieron un pequeño resultado positivo, era muy inferior a lo que esperaban, y podía deberse a cierta inexactitud en el experimento.

Desde 1887, se han registrado numerosos experimentos similares al de Michelson y Morley, y se han practicado mediciones directas de la velocidad de la luz. Los experimentos confirman la suposición de Einstein de que la velocidad de la luz, medida por cualquier observador, es siempre constante.

Al principio de este capítulo traté algunos aspectos relacionados con la naturaleza del tiempo en la relatividad restringida. Ahora ya ha llegado el momento de adentrarnos algo más en esta materia. Para ello, utilizaremos un «experimento mental» que se inventó hace casi ochenta años. Imaginemos que dos rayos caen en los dos extremos de un tren que se dirige rápidamente hacia su destino, y que los ven dos observadores, uno situado junto a las vías, y otro montado en el centro del tren.

Supongamos que el observador que permanece en el suelo está situado a igual distancia de los dos puntos donde cae el rayo y que ve los dos relámpagos en el mismo instante. Concluirá naturalmente que los dos rayos alcanzaron el tren a la vez. Es consciente de que no ha visto el rayo en el momento de caer, pero como la luz de los dos destellos recorre distancias iguales en el mismo intervalo de tiempo, inmediatamente deduce que el rayo cayó a la vez en los dos lugares.

Veamos ahora el observador situado en medio del tren. Como está alejándose de la luz de un relámpago y acercándose a la del otro relámpago, verá el rayo que cayó en la parte delantera del tren una fracción de segundo antes, mientras que el rayo que cayó atrás tardará más en llegar hasta él, puesto que tiene que «alcanzarle» a pesar de que él se aleja.

Supongamos ahora que admitimos que el movimiento es relativo, lo cual no modifica para nada la descripción anterior de los hechos, ya que es perfectamente válido considerar la situación desde el punto de vista del observador que se encuentra en el suelo. El hombre que está en el tren verá en primer lugar uno de los relámpagos, ya sea el movimiento relativo o no.

No obstante, el admitir la relatividad del movimiento sí trae consigo importantes consecuencias. Como la posibilidad, por parte del observador que viaja en el tren, de sostener que es él, y no el observador desde el suelo, quien está inmóvil. De todas formas, tampoco el hombre del suelo estaba realmente estático. Estaba, de pie, sobre una Tierra que giraba sobre su eje e iba describiendo revoluciones alrededor del Sol.

Si el hombre del tren pretende tomar como sistema de referencia el de la ausencia de movimiento, deberá concluir que los dos rayos no cayeron a la vez en los dos extremos del tren. Bajo su punto de vista, el destello de los dos relámpagos se dirige hacia él a la misma velocidad. Como las distancias recorridas son las mismas, deberá admitir que el rayo cayó en la parte delantera del tren un poco antes que en la parte de atrás.

Así, el suponer la constancia de la velocidad de la luz, por una parte, y la relatividad del movimiento, por otra, llevó inmediatamente a la conclusión de que no existe una simultaneidad absoluta en los acontecimientos que están separados en el espacio. Cuando éstos parecen ser simultáneos dentro del sistema de referencia de un observador no son generalmente simultáneos en el sistema de referencia de otro.

Esto explica de dónde provenía el desacuerdo entre los diferentes observadores del ejemplo que se dio al principio del capítulo. Las dificultades de determinar exactamente cuándo cruzaba el cometa la órbita de Marte son la consecuencia del hecho que la noción de «ahora» no puede aplicarse a un acontecimiento que está sucediendo a 306 millones de kilómetros de distancia. Como la órbita de Marte está separada de nosotros en el espacio, no podemos decir qué hora es allí ahora, ni la hora que será después de haber pasado otros diecisiete minutos de nuestro reloj. Hablar del «ahora» en cualquier otro lugar equivale a recurrir a la noción de simultaneidad de acontecimientos espacialmente separados, cuando la relatividad restringida afirma de una manera clara la no validez de ese proceso.

Es evidente que se puede calcular el tiempo de un acontecimiento lejano, pero la validez de dicho tiempo es limitada, y será diferente del tiempo calculado por un observador que se encuentre en un estado distinto de movimiento. De ahí que no estemos en condiciones de afirmar qué hora «es realmente» en la órbita de Marte, en el Sol, o en una estrella lejana. Cuando los fenómenos se muestran diferentes ante observadores en distintos estados de movimiento, no hay forma de decidir cuál de ellos «acierta», puesto que todos ellos tienen razón.

Según la teoría restringida de la relatividad, los observadores que se encuentran en distintos estados de movimiento ni tan siquiera coincidirán en cuanto al orden de los acontecimientos en determinados casos. Añadamos ahora un tercer observador al experimento imaginario de antes, y situémoslo en el centro de un tren que se cruce con el primero. Bajo el punto de vista de ese observador, el rayo caerá en la parte trasera del primer tren antes de caer en la parte delantera. Verá sucederse los dos acontecimientos en el sentido opuesto en el que los habrá presenciado el observador del otro tren.

El resultado se puede resumir como sigue: si tenemos dos acontecimientos separados por el espacio, a los que llamaremos A y B, y unos observadores en diferentes estados de movimiento, algunos observadores concluirán que A sucedió en primer lugar, mientras otros insistirán en que B precedió a A. En tal caso, puede incluso ocurrir que el mismo hecho haya sucedido en el «pasado» de un observador y en el «futuro» de otro.

No obstante, la teoría restringida no transforma en totalmente arbitrarias las nociones de «pasado» y de «futuro», ni contradice las nociones habituales de causalidad. Ningún observador, cualquiera que sea su estado de movimiento, verá nunca hundirse un clavo en un trozo de madera antes de ser golpeado aquél por el martillo. Tampoco verá nunca ningún observador que un balón de baloncesto pase por el aro antes de que lo tire el jugador. Finalmente, cualquier observador admitirá que la luz de las estrellas distantes incide en la superficie de la Tierra mucho después de ser emitida. El orden de sucesión de los acontecimientos sólo depende del observador cuando los mismos acontecimientos se producen a suficiente distancia el uno del otro como para que una señal que se desplace a la velocidad de la luz no tenga tiempo de llegar desde el primer acontecimiento hasta el segundo antes de que este último se haya producido. En el caso de los relámpagos, por ejemplo, el mero hecho de que uno de los observadores los viera como si fueran simultáneos implica que no se podrían unir de esa forma por medio de una señal.

La relatividad restringida postula que, sea lo que sea el tiempo, no es una sustancia que «fluya» de forma uniforme por el Universo. El «momento» en que se produce un acontecimiento alejado depende del estado de movimiento del observador. O, como dicen los físicos, cada observador tiene su propio tiempo correcto, el cual, en general, no coincide con el de los observadores que se desplazan con respecto a él.

Como en el capítulo anterior se diferenció el tiempo de la física del tiempo subjetivo, convendría señalar ahora que la relatividad restringida no depende realmente del tiempo subjetivo. Cuando se habla de «observadores», no necesariamente se ha de pensar en seres humanos conscientes, puesto que también puede constituir un observador cualquier dispositivo electrónico que registre acontecimientos en una grabación. Tampoco está ligada la relatividad restringida a la noción del «ahora», y si he utilizado los términos «pasado», «presente» y «futuro», sólo ha sido para mayor claridad en la exposición, ya que se hubiera podido analizar la relatividad restringida sin usarlos para nada. Efectivamente, se hubiera podido hablar de un tiempo t1, t2, y así sucesivamente, aunque, de esa forma, la explicación quizá le hubiera parecido demasiado abstracta al lector no iniciado en la materia.

Si se examinan detenidamente las ecuaciones matemáticas de la relatividad restringida, se pone de manifiesto el comportamiento extraño que aparentemente puede adoptar el tiempo. La teoría prevé la existencia de un efecto de dilatación del tiempo. La mejor forma de explicar este fenómeno es dando un ejemplo. Supongamos que una nave espacial se aleja de la Tierra a una velocidad igual al 87% de la velocidad de la luz. Bajo el punto de vista del observador que permanezca en tierra, el tiempo a bordo de la nave transcurrirá a un paso doble de lento. Parecerá que los relojes de la nave funcionen a la mitad de velocidad que los de la Tierra. Eso afectará también a los procesos biológicos. Parecerá que la tripulación de la nave sólo envejece seis meses mientras que en la Tierra pasa un año.

Como la relatividad restringida sólo admite la existencia del movimiento relativo, quienes estén a bordo de la nave pueden perfectamente considerar que ellos no se mueven, y que es la Tierra la que se está alejando de ellos. De pensar así, observarán el mismo efecto, pero al revés, o sea que, para ellos, será el tiempo de la Tierra el que estará transcurriendo más lento. Cada vez que sus relojes registren el paso de una hora, los de la Tierra sólo habrán avanzado treinta minutos.

Supongamos ahora que la nave se dirige a una estrella lejana, y regresa luego a la Tierra a la misma velocidad. De durar todo el viaje veinte años, según los cronómetros de la nave, ¿cuántos años habrán transcurrido en la Tierra? ¿Diez o cuarenta?[14]

Esta pregunta nos lleva a lo que se llama la paradoja de los gemelos. El nombre le viene de que se puede plantear la pregunta imaginándose que un componente de un par de gemelos viaja en la nave mientras su hermano se queda en la Tierra. Así, cabrá replantearla de la forma siguiente: « ¿Cuál de los gemelos se volverá mayor que el otro?» A pesar de su nombre, la «paradoja» de los gemelos no es tal paradoja, puesto que, en realidad, la contestación es perfectamente clara. El que se encuentre en la nave envejecerá la mitad que su hermano gemelo que haya permanecido en la Tierra. Por lo tanto, si el viaje ha durado veinte años, calculados según el tiempo que transcurre en la nave, al final del mismo, habrán pasado cuarenta años en la Tierra.

El motivo de que sólo sea válida una interpretación es que cuando la nave se dirige a otra estrella, gira, y vuelve a su punto de partida, dejamos de tener una situación simétrica. En algún momento, la nave tuvo que desacelerar, pararse, y acelerar de nuevo en dirección opuesta. No cabe imaginar que el hecho de encender los cohetes de la nave hiciera pararse todo el Universo, y luego lo acelerara en dirección contraria. Aunque pueda admitirse perfectamente que los observadores de la nave supongan inicialmente que la Tierra es la que se aleja de ellos, no pueden suponer que la Tierra ha girado y corre a su encuentro durante la segunda etapa del viaje. El movimiento a velocidad constante es relativo, pero no lo es la aceleración. Analizando a fondo los cálculos de dilatación del tiempo, se observa que en la Tierra pasa el doble de tiempo desde cualquier punto de vista. Como era de esperar, uno de los gemelos realmente resulta volverse mayor que el otro: no es que sea mayor y más joven a la vez.

La solución de la paradoja de los gemelos demuestra que la dilatación del tiempo no es una ilusión, sino que es absolutamente real. Por otra parte, su magnitud aumenta con la velocidad relativa. Si la nave viajara a una velocidad igual al 99% de la velocidad de la luz, el tiempo transcurriría siete veces más despacio, de tal forma que 140 años en la Tierra equivaldrían a 20 años en la nave. Y si la nave viajara a una velocidad igual al 99,9% de la velocidad de la luz, transcurrirían en la Tierra 447 años. Según la relatividad restringida, hay un sentido en el que el viaje en el tiempo es posible en el futuro.

¿Y viajar en el pasado? Según una quintilla humorística que se publicó en la revista británica Punch,

There was a young lady named Bright,
Who traveled much faster than light.
She started one day
In the relative way,
And returned on the previous night.

(Había una jovencita llamada Bright,
Mucho más veloz que la luz,
Que se fue un día
Por la vía relativa,
Y volvió la noche anterior.)

A su manera, esta descripción es perfectamente correcta. Según la teoría restringida de la relatividad, si algo pudiera desplazarse a mayor velocidad que la luz, retrocedería en el tiempo. No obstante, es muy improbable que la señorita Bright o cualquier otra persona fuera capaz de ir y volver la noche anterior. Esta teoría también postula que la velocidad de la luz es una velocidad límite: es posible aproximarse a ella, pero sin poderla alcanzar nunca.

La relatividad restringida prevé igualmente que los objetos que se mueven a gran velocidad experimentan un incremento de masa. Así, si un objeto se desplaza al 87% de la velocidad de la luz, no sólo se reducirá a la mitad el transcurso del tiempo, sino que el objeto en cuestión llegará a pesar el doble. De incrementar aún más su velocidad, su masa irá aumentando. A la velocidad de la luz, su masa se volvería infinita. Como, a medida que aumentara la masa se necesitarían cantidades crecientes de energía para acelerar el objeto, se debería disponer de una energía infinita. De ahí que sea imposible alcanzar velocidades iguales a la de la luz.

Al igual que la dilatación del tiempo, el aumento de masa está en relación con el estado de movimiento del observador. Por eso, los tripulantes de una nave espacial que viaje a gran velocidad no notarán ningún aumento de masa, aunque los observadores en tierra sí lo observen. Eso no impide que tanto la dilatación del tiempo como el aumento de masa sean absolutamente reales: no es ninguna ilusión creada por la diferencia de velocidad. Si se pudiera acelerar un grano de polvo hasta una velocidad suficientemente próxima a la de la luz, pudiera adquirir una masa igual a la de un planeta. Si un grano de polvo semejante se estrellara contra la Tierra, el impacto sería tal que todo nuestro planeta estallaría en fragmentos.

A veces se oye decir que aún nos queda mucho por descubrir, y que, en algún momento indefinido del futuro, adquiriremos nuevos conocimientos que nos mostrarán cómo superar esa «tenue barrera». Si bien es verdad que se tienen que hacer muchos más descubrimientos, no creo probable que lleguemos nunca a demostrar que existe una velocidad mayor que la de la luz. De hecho, las nuevas teorías que surgen en el campo de la física no acostumbran sustituir a las anteriores. La mayor parte de las veces, las mejoran, sencillamente, o muestran el comportamiento de la materia en condiciones más extremas que las de antes. Dicho de otra forma, tan sólo nos permiten una mayor aproximación.

Así, cuando Einstein publicó su teoría restringida de la relatividad, no por eso se descartó la física de Newton. De hecho, una de las cosas que confirmó la teoría de Einstein fue que las leyes del movimiento de Newton seguían siendo válidas en los casos en que las velocidades eran reducidas con relación a la de la luz. Y se sigue utilizando la mecánica de Newton en los casos en que las velocidades no son importantes. Las diferencias entre sus estimaciones y las de la relatividad restringida son tan pequeñas que, la mayor parte de las veces, no pueden medirse.

Se citan en ocasiones unas partículas hipotéticamente más veloces que la luz, llamadas taquiones. La relatividad restringida no descarta que puedan existir semejantes partículas. Más bien parece prever su existencia al igual que la electrodinámica preveía las ondas que retrocedían en el tiempo. La única limitación que parece imponer al comportamiento de los taquiones es su pretensión de que no pueden nunca pasar la «barrera de la luz» desde el otro lado. De existir partículas que se desplacen a mayor velocidad que la luz, no pueden en ningún caso desacelerarse hasta alcanzar una velocidad inferior a la de la luz.

Actualmente, no está demostrado que existan los taquiones. Tan sólo constituyen una eventualidad teórica interesante. Cabe la posibilidad de que sean reales, pero que no interfieran en la materia normal, más lenta que la luz. De ser así, sin duda podemos ignorarlos a efectos prácticos. En definitiva, difícilmente se va a considerar «real», en el mismo sentido que los objetos que vemos a nuestro alrededor, algo que no se puede ver.

Si existieran los taquiones, y se pudieran utilizar de alguna forma para transmitir señales, se podrían enviar mensajes al pasado Como ya señalé anteriormente, la relatividad restringida postula que todo lo que se desplace a mayor velocidad que la luz puede retroceder en el tiempo. El mundo sería un lugar de lo más paradójico de poderse enviar mensajes hacia el pasado: los acontecimientos futuros podrían ser la «causa» de acontecimientos pasados.

Por cierto, los taquiones no tienen nada que ver con el hecho de que un positrón pudiera ser un electrón que se estuviera desplazando hacia el pasado. Al igual que todas las demás clases de materias conocidas, los positrones se desplazan siempre a velocidades inferiores a la de la luz, por lo que a pesar de poderse interpretar el comportamiento del positrón según la teoría del retroceso en el tiempo, esas partículas no sirven para enviar mensajes al pasado. Así, de poderse utilizar, por ejemplo, los positrones para transmitir un mensaje en Morse, tan sólo saldría éste en la dirección habitual: hacia el futuro.

La relatividad restringida enuncia otro postulado importante relativo al comportamiento de los objetos que se desplazan a gran velocidad. De acuerdo con la teoría, un objeto que se desplaza a alta velocidad experimenta una contracción en el sentido de la longitud. Se acortará en el sentido de su movimiento. Así, desde el punto de vista del observador situado en la Tierra, una nave espacial que se esté alejando de ésta se irá acortando, mientras que para el observador que viaja en la nave, la Tierra se aplana.

Es precisamente esa contracción espacial lo que hace que difieran los observadores al definir el momento en que se ha producido un acontecimiento en lugares distantes. Para comprenderlo, volvamos otra vez al ejemplo del cometa que cruza la órbita de Marte. Para calcular el «momento» en que ocurre, los astrónomos situados en la Tierra dividen la distancia desde ésta hasta la órbita de Marte por la velocidad de la luz. Conociendo esta distancia, y la velocidad a la que se desplaza la luz, pueden ya definir sin dificultad el tiempo que tardará un rayo de luz en recorrer esa distancia.

Pero la contracción espacial hace que los astrónomos de la nave que se aleja de la Tierra a gran velocidad obtengan un resultado diferente. Para ellos, la distancia que separa la Tierra de la órbita de Marte es mucho menor. Y es que dicha contracción no afecta exclusivamente a los cuerpos materiales, sino que influye en la medición de las distancias. Por ese motivo, cuando los observadores calculan el tiempo que necesitaría un rayo de luz para alcanzarles se encuentran con que no coinciden los resultados de unos y otros. Por supuesto, podrían utilizar la distancia que les dieran los astrónomos desde la Tierra, pero, en ese caso, estarían calculando el tiempo según el sistema de referencias de la Tierra, y no según el suyo.

Tanto las distancias en el espacio como los intervalos de tiempo parecen diferentes a observadores que se hallen en estados de movimiento diferentes, a pesar de que la relatividad restringida se basa en que una cantidad que abarca a la vez el espacio y el tiempo, como es la velocidad de la luz, es siempre una constante. Esto parece indicar que quizá el espacio y el tiempo no son unas entidades distintas, sino que, en cierto sentido, estarían ligadas una a otra. De hecho, los físicos suelen juzgar conveniente sustituir las tres dimensiones del espacio y la dimensión única del tiempo por una geometría tetradimensional llamada espacio-tiempo.

No fue Einstein quien descubrió la noción espacio-tiempo. La elaboró el matemático alemán de origen ruso Herman Minkowski, en 1907, dos años después de publicarse la teoría restringida de la relatividad. Minkowski observó que ni los intervalos de tiempo ni las distancias espaciales eran invariables en la relatividad, pero que era posible combinar el espacio y el tiempo en términos matemáticos de tal forma que los intervalos de espacio-tiempo permanecieran constantes para cualquier observador. Así, aunque los observadores que se hallen en estados diferentes de movimiento discrepen, en general, en cuanto al momento en que se producen los acontecimientos, y el espacio que les separa, estarán dispuestos a aceptar que los acontecimientos en cuestión presentan una separación determinada en el espacio-tiempo.

Se ha creado un concepto tan erróneo, en la mente de los profanos en la materia, referente al espacio-tiempo, que conviene aclarar primero lo que no es, antes de explicar lo que es en realidad. Para empezar, el utilizar el concepto de espacio-tiempo no quiere decir que el tiempo sea una clase de espacio. En la relatividad restringida, el tiempo reviste esencialmente las mismas características que en la física clásica o en la vida diaria. Sigue siendo unidimensional, e implica flechas que apuntan siempre a una dirección determinada.

El que se utilice la noción espacio-tiempo no presupone tampoco que haya cuatro dimensiones espaciales. De hecho, aunque se pueda hablar de un continuo tetradimensional espacio-tiempo, ni Einstein ni Minkowski añadieron otra dimensión a las tres habituales. A ese respecto, la mecánica de Newton es tan tetradimensional como la relatividad. En ella también se utilizan una dimensión de tiempo y tres de espacio. La única diferencia reside en que en la física de Newton no hay interacción entre el espacio y el tiempo como la hay en la relatividad.

EI único motivo de que se utilice la noción de espacio-tiempo es que simplifica bajo el punto de vista matemático la teoría restringida de la relatividad, y aunque sea perfectamente posible prescindir del concepto en cuestión, no se hace para no topar con dificultades innecesarias. Tampoco puede decirse que resulten especialmente complicadas las matemáticas tetra dimensionales, ya que se trata sin más de introducir cuatro coordenadas en vez de las tres de costumbre. Matemáticamente, una dimensión no es sino una coordenada. Unas veces, es conveniente utilizar tres coordenadas, mientras que otras, es más fácil usar cuatro o más.

Los matemáticos suelen trabajar con espacios pluridimensionales, o incluso con espacios de dimensiones infinitas, sin que ello les plantee complicaciones insuperables. Incluso los físicos utilizan ocasionalmente los espacios de dimensiones infinitas, cuando quieren enfocar un problema en términos matemáticos abstractos. Esto no significa, por supuesto, que exista un número infinito de dimensiones en el espacio.

Si ya se tiene una idea muy confundida de lo que es el espacio-tiempo, aún peor se interpreta la propia teoría restringida de la relatividad, y el profano tiene tendencia a considerarla especialmente abstrusa. No hace tantos años que se solía leer en la prensa afirmaciones según las cuales sólo habría cuatro (o cinco, o siete) hombres en el mundo que entendieran la relatividad (aparentemente, no habría ninguna mujer capaz de comprenderla).

En realidad, la relatividad restringida es una de las teorías de física más sencillas bajo el punto de vista matemático. Tan fácil es, que se puede enseñar sin dificultad a estudiantes de bachiller. Si bien pueden sorprender sus postulados, su contenido básico no es realmente muy difícil de captar. La teoría general de la relatividad de Einstein (que se tratará en el próximo capítulo) es muy complicada en el aspecto matemático, pero no es ese el caso de la teoría restringida.

Tampoco parece ser mucho el peligro de que esta última teoría sea destronada súbitamente. Se trata precisamente de una de las teorías más asentadas de la física. Sus postulados se afirman día tras día, cada vez que los físicos aceleran partículas subatómicas en los modernos aceleradores de partículas. Siempre que se repite la operación, las partículas presentan aumentos de masa y dilatación del tiempo. Varios experimentos demuestran que los objetos macroscópicos experimentan igualmente los efectos relativistas previstos. Así, en 1976, se confirmó que se producía una dilatación del tiempo, tras observar un reloj atómico excepcionalmente preciso que iba transportado en un avión, sobrevolando una pista de carreras muy larga. A pesar de que el avión volaba a una velocidad relativamente baja —comparándola con la velocidad de la luz—, el reloj fue lo suficientemente preciso para que se pudiera medir la dilatación del tiempo inducida por la velocidad. Otro experimento realizado dieciséis años antes había confirmado la existencia de este fenómeno de una forma algo menos directa, cuando se comparó la radiación emitida por una muestra de hierro-57 colocada en una centrifugadora, con la emitida por una muestra sin centrifugar.

Al ser una teoría tan probada la de la relatividad restringida, no cabe sino tomar muy en serio sus postulados sobre la naturaleza del tiempo, aunque puedan sorprender al principio. Y como las nociones que maneja son realmente extrañas para quien tenga un concepto del tiempo basado en el sentido común, pre relativista, resumiremos a continuación el contenido de este capítulo:

  1. No se puede definir de forma tajante el «momento» en que sucede un acontecimiento distante. Puesto que distintos observadoras calculan tiempos diferentes, es realmente imposible aplicar semejante concepto. Si enfocamos el tiempo en términos subjetivos, podremos decir que el «ahora» no va más allá del «aquí».
  2. Se produce un efecto de dilatación del tiempo en los objetos que se desplazan a gran velocidad .Éste es un efecto real, no ilusorio, como lo demuestra la «paradoja» de los gemelos.
  3. Si dos hechos acontecen tan cercanos en el tiempo o tan separados en el espacio que no existe señal que se desplace a la velocidad de la luz capaz de ir de uno a otro antes de que suceda el último, su orden de sucesión es ambiguo. Algunos observadores concluirán que ha sucedido primero el acontecimiento A, y otros, que el acontecimiento B fue el primero en producirse.
  4. Aunque se pueda afirmar de forma vaga queda relatividad restringida signifique que «el tiempo es relativo», dicha teoría no contradice las ideas habituales de causalidad. Efectivamente, nunca se dará el caso de un observador que vea caer un balón de baloncesto a través del aro antes de que lo haya tirado el jugador.

Capítulo X
Tiempo cósmico

En el transcurso de los primeros años del siglo XIX, el matemático alemán Karl Friedrich Gauss estuvo durante un tiempo levantando planos del reino de Hannover. En 1827 escribió un trabajo en el que recogía las mediciones que tomó en un triángulo formado por las cimas de tres montañas: Brocken, Hohehagen e Iselberg. Gauss pretendía averiguar si la suma de los tres ángulos del triángulo era igual a 180°, o algo menor.

Actualmente, a cualquier estudiante de segunda enseñanza se le enseña en la clase de geometría que la suma de los ángulos de todo triángulo es igual a 180°. Existe un teorema que demuestra que eso se verifica siempre, por lo que no hay excepciones posibles. Así pues, ¿qué pretendía Gauss? ¿Poner en tela de juicio la validez de unos teoremas geométricos que se venían considerando definitivos desde los griegos antiguos?

No precisamente. Gauss estaba intentando comprobar si el espacio estaba curvado o no. Planteaba si la geometría del espacio se atenía realmente a la geometría euclidiana convencional, o si se le había de aplicar una geometría no euclidiana. La suma de los ángulos de un triángulo sólo es igual a 180° en la geometría de Euclides. En una geometría no euclidiana, puede ser más, o menos.

No fue muy concluyente el experimento de Gauss. Sus mediciones dieron un resultado superior a 180° en unos 15 minutos de arco, o aproximadamente cuatro milésimas de grado, lo cual no demostraba nada por ser mucho mayores que eso las inexactitudes del propio experimento. Gauss se dio cuenta de que la suma verdadera de los ángulos podía ser 180°, o un poco más, o un poco menos. Las tres conclusiones eran compatibles con sus datos. Así, fue incapaz de averiguar si la geometría del espacio cerca de la superficie de la Tierra era euclidiana o no.

La geometría euclidiana fue sistematizada por el matemático griego Euclides aproximadamente hacia el año 300 a.C. Fundó su geometría en varios axiomas y postulados que, según él, no necesitaban demostración. Así, uno de los axiomas afirmaba que la suma de los iguales daba iguales, y uno de los postulados era que la línea recta era la distancia más corta entre dos puntos. Los principios de los que derivan los teoremas de la geometría euclidiana eran los axiomas y los postulados.

Uno de los postulados que le debió parecer a Euclides algo menos evidente que los demás, ya que lo demostró con toda clase de teoremas antes de utilizarlo, fue el postulado de las paralelas, en virtud del cual por un punto exterior a una recta no se puede trazar más que una paralela a esta recta[15].

Después de la muerte de Euclides, varios matemáticos griegos, que también albergaban alguna sospecha con respecto al postulado de las paralelas, intentaron sustituirlo por otro postulado que pareciera más evidente intuitivamente, o buscar una forma de deducirlo de los demás postulados y axiomas. Pero fallaron todos los intentos. A pesar de lo controvertible del postulado de las paralelas, nadie fue capaz de encontrar la forma de no servirse de él.

Se prosiguieron los intentos hasta principios del siglo XIX, con tan poco éxito como tuvieran los griegos. Quizá existiera una forma distinta de formularlo que lo hubiera hecho realmente evidente, o una manera de deducirlo; en todo caso, nadie supo encontrarla. Finalmente, unos pocos matemáticos empezaron a plantearse lo que ocurriría si se sustituyera el postulado en cuestión por otra cosa. ¿Y si se dijera que no se puede trazar ninguna paralela por un punto exterior a una recta? ¿Y si se supusiera que una recta puede tener muchas paralelas? ¿Sería posible basar una geometría en unos puntos de partida tan extraños? ¿Ya sería coherente semejante geometría? ¿Estaría exenta de contradicciones?

Estuvieron meditando sobre este tema Gauss, el matemático ruso Nikolai Ivanovich Lobachevsky, el matemático húngaro Johann Bolyai, y el matemático alemán Georg Friedrich Riemann. Descubrieron que, efectivamente, cabía la posibilidad de imaginar otras geometrías[16].

Hay varios aspectos en los que se diferencian las geometrías no euclidianas de las que sí lo son. Así, en la geometría de Gauss, Bolyai y Lobachevsky, fundada en que hay más de una paralela que pasa por un punto determinado, los ángulos del triángulo suman menos de 180°, y las superficies de las figuras geométricas, como los triángulos o los círculos, se obtienen por medio de fórmulas diferentes de las de la geometría euclidiana (por ejemplo, la superficie de un círculo no es igual a πr2). La geometría de Riemann, que parte de la idea de que no existen líneas paralelas, aún puede parecer más sorprendente. Según ella, se puede trazar un número indefinido de líneas rectas distintas por dos puntos, y no existe ninguna línea de longitud infinita.

En la geometría no euclidiana, se llama espacio curvo al espacio físico. Los científicos utilizan frecuentemente este término, dándole un significado matemático preciso, que, no obstante, puede desconcertar al profano. Debe quedar claro que el hecho de que un espacio tridimensional esté «curvado» no significa que exista una cuarta dimensión en la que el espacio esté «curvado hacia adentro», ni debe uno imaginarse el espacio como si fuera un objeto deformado. Es más sencillo considerar el espacio curvo como un espacio que obedece a un tipo determinado de geometría que como algo físicamente alabeado.

Cuando un espacio tridimensional presenta una geometría como la que investigaron Gauss, Lobachevsky y Bolyai, se dice que ofrece una curva negativa. Un espacio curvado negativamente, y sin límites, tiene una extensión infinita, al igual que un espacio plano (euclidiano). Si el espacio de nuestro Universo está negativamente curvado o es plano, un rayo de luz que se emita en cualquier dirección se prolongará indefinidamente.

Por el contrario, un espacio positivamente curvado es finito, por el hecho de que en ese tipo de geometría no existen líneas de longitud infinita. Si el espacio de nuestro Universo estuviera curvado positivamente, un rayo de luz que se emitiera en cualquier dirección volvería finalmente a su punto de partida desde la dirección opuesta (siempre, por supuesto, que el Universo dure lo bastante como para permitirle dar la vuelta completa al mismo). El recorrido de semejante rayo de luz sería aproximadamente similar al de un avión que efectuara un giro completo alrededor de la circunferencia de la Tierra.

De ofrecer nuestro Universo una curva espacial positiva, ha de ser finito, lo cual no implica que tenga límites. Nunca se podría llegar al «borde» de semejante Universo, por no tener bordes. Tampoco cabría la posibilidad de viajar «fuera» de él, ya que «fuera» no significa nada en este caso.

De nuevo, existe una analogía con la superficie de la Tierra, aunque dicha analogía cesa en cierto momento de la comparación. La Tierra presenta una superficie bidimensional finita que se curva en la tercera dimensión. Por consiguiente, se puede «salir» de la superficie bidimensional volando en un cohete o en un avión. No habría semejante opción en un espacio tridimensional positivamente curvo.

Aunque Gauss ya se planteara a principios del siglo XIX si el espacio era plano o curvo, pasó casi un siglo antes de que nadie prosiguiera seriamente su investigación. Tanto los físicos como los matemáticos contemplaban las geometrías no euclidianas como meras curiosidades matemáticas. Pocos eran los que dudaban de que se pudiera describir el espacio del Universo físico con algo que no fuera la geometría plana de Euclides.

Esta situación cambió radicalmente en 1915, cuando Einstein expuso su teoría general de la relatividad. Según ésta, el espacio se curvaba en presencia de masas gravitatorias. La gravedad, decía Einstein, existía porque la presencia de la masa daba al espacio una geometría no euclidiana.

En realidad, la relatividad general no trata del espacio curvo, si no de un espacio-tiempo tetradimensional y curvo. Si bien se puede prescindir, si se desea, del concepto de espacio-tiempo en la relatividad restringida, las ecuaciones de la teoría general demuestran que existe una interacción entre las coordenadas del tiempo y del espacio, más complicada de describir, por lo que se ha de recurrir necesariamente a una formulación matemática tetradimensional. Es fácil comprender por qué ocurre así. Basta para ello con recordar que, en relatividad restringida no permanecen constantes la distancia ni el tiempo tal como lo contemplan diferentes observadores que se desplacen a velocidad distinta. Por el contrario, sí es siempre igual la velocidad de la luz, que incluye ambos factores: distancia y tiempo (la luz se desplaza a 299.792,457 kilómetros por segundo). La relatividad general, por su parte, se ocupa, no ya de las velocidades relativas, sino de los observadores en estado de aceleración uno con relación a otro. Puesto que el tiempo interviene dos veces en la aceleración (por ejemplo, todos los objetos situados cerca de la superficie de la Tierra experimentan una aceleración de 975,36 centímetros por segundo; cada segundo que pasa, su velocidad aumenta en 975,36 centímetros por segundo), la teoría general de la relatividad relaciona el tiempo con el espacio de un modo bastante complejo.

Uno de los Postulados en que se basa la relatividad general es el principio de equivalencia. La idea es realmente sencilla. Se sabe desde la época en que vivía Galileo que una de las características evidentes de la gravedad es provocar la aceleración de las cosas. Así, los objetos que caen al suelo no lo hacen a velocidad constante, sino a una velocidad creciente. Einstein concluyó que eso suponía cierta equivalencia entre la gravedad y la aceleración. Vio que si conseguía expresar dicha equivalencia en una fórmula matemática, relacionaría tanto la gravedad como la aceleración con la curva del espacio-tiempo, obteniendo así una teoría de la relatividad.

El principio de equivalencia se muestra con un sencillo ejemplo. Supongamos que me administran un anestésico, y que me despierto en una habitación totalmente cerrada. Supongamos también que experimento los efectos normales de la gravedad. ¿Me permite eso deducir que la habitación forma parte de un edificio situado en la Tierra? ¿O cabe igualmente la posibilidad de que la habitación sea un compartimiento de una nave espacial alejada de la Tierra, que viaja a una aceleración de un g?

La respuesta es que no puedo averiguarlo. Experimentaré exactamente la misma sensación si estoy sometido a la atracción de la gravedad de la Tierra que a una aceleración de un g. Tampoco podré servirme de ningún experimento para distinguir entre ambas situaciones. El mero hecho de utilizar el término «g» (de «gravedad») para medir la aceleración es prueba de ello.

La relatividad general es matemáticamente muy complicada, pero no así los conceptos en que se funda. Lo demostraré trazando primero las líneas generales de sus principios básicos, y volviendo luego a los temas principales de nuestro análisis:

  1. La relatividad restringida se ocupa de los casos en los que los observadores se desplazan, uno con relación a otro, a velocidad constante.
  2. La relatividad general expresa lo que ocurre cuando los observadores experimentan una aceleración, uno con relación a otro.
  3. Pero el observador es incapaz de distinguir entre los efectos de la gravedad y los de la aceleración en el espacio; la característica principal de la gravedad reside en que los cuerpos que gravitan provocan la aceleración de los objetos.
  4. Por consiguiente, una teoría que explique los sistemas de referencia acelerados también será una teoría de la gravedad.
  5. Según la relatividad restringida, habría cambios en el tiempo y en la longitud. Los cambios que se exponen en la relatividad general tienen mucho mayor alcance. Un observador que experimente una aceleración verá de forma diferente la propia geometría del espacio-tiempo. Esta última sufre una modificación similar por efecto de la gravedad.

De hecho, de acuerdo con la teoría general de la relatividad, la gravedad es la curvatura del espacio-tiempo que se debe a la presencia de objetos de masa elevada.

Al ser difícil imaginar un espacio curvo, cabe pensar que será prácticamente imposible intuir lo que es el espacio-tiempo. Por suerte, no resulta tan complicado. El espacio-tiempo curvo de la relatividad general no difiere demasiado del espacio curvo de la geometría no euclidiana tridimensional. En realidad, cuando se aplica la teoría general de la relatividad a nuestro Universo, se obtiene una curva negativa (geometría de Gauss, Lobachevski y Bolyai) o positiva (geometría de Riemann). Se pueden analizar por separado la curva del espacio y la «curva» del tiempo.

De ser negativa la curvatura del espacio en el Universo, éste ha de extenderse infinitamente en todas las direcciones, y el tiempo es también infinito; en este caso, se hablaría de un Universo abierto, en expansión continua, sin límites. De ser positiva la curvatura, el Universo será finito, al igual que su existencia en el tiempo; éste sería un Universo cerrado. En un Universo cerrado, la relatividad general supone que el retardo gravitatorio llevará finalmente al cese de la expansión. El Universo se contraerá progresivamente hasta alcanzar un volumen cada vez menor de espacio, y desaparecer con un gigantesco crujido (big crunch) análogo a la también gigantesca explosión del big bang.

La relatividad general no nos dice si el Universo está curvado positiva o negativamente, ni si tiene un futuro finito o infinito. La teoría de Einstein nos dice que los dos tipos de Universo son posibles. El tema debe resolverse por la observación.

La curvatura media del espacio es función de la cantidad de materia que contiene el Universo. Si la densidad media de masa es superior a una cifra crítica llamada densidad crítica, entonces estamos ante un Universo cerrado. La densidad crítica es fácil de calcular. Corresponde a 5×10-27 kilogramos por metro cúbico,[17] o aproximadamente tres átomos de hidrógeno por 0,764 m3.

Como vimos en el capítulo 6, los astrónomos no han conseguido averiguar la cantidad de materia que contiene el mundo. Según algunas teorías, no sería superior al 10% de la densidad crítica. Pero semejantes estimaciones carecen de valor, pues los astrónomos son conscientes de las enormes lagunas que puede tener el método que ha llevado a tales conclusiones.

Existe una correlación entre el tiempo que ha transcurrido desde el big bang y el hecho de que el Universo sea cerrado o abierto. Si los astrónomos definieran la densidad de masa del Universo, ambos temas quedarían resueltos. Si, a su vez, se conociera la desaceleración, se podría calcular tanto la densidad de masa como la edad del Universo.

Digamos de paso que significa algo muy preciso la edad del Universo, si bien la teoría restringida de la relatividad dice que la medición del tiempo es relativa. No deja de ser paradójico el que la relatividad general sea menos relativista que la teoría restringida. Aunque no contradiga lo que dice la relatividad restringida respecto a las mediciones de tiempo tomadas por diferentes observadores, permite definir un tiempo cósmico, el cual puede aplicarse a todo el Universo, en conjunto.

El tiempo cósmico es el que mediría un observador que se desplazara a la par de la expansión media del Universo. Al igual que el tiempo en termodinámica, el tiempo cósmico es una noción estadística. Tomándolas por separado, las estrellas y las galaxias pueden presentar una velocidad estadística en una u otra dirección, pero, en conjunto, su movimiento coincide con el del Universo. Difícilmente podría ser de otra forma, pues tanto las estrellas como las galaxias, y otras materias, forman parte del Universo.

La expansión del Universo hace que las galaxias se alejen unas de otras. De estar muy distanciadas, la velocidad de recesión puede suponer una fracción importante de la velocidad de la luz. A pesar de todo, los observadores que se hallan en distintas galaxias calcularán el mismo tiempo cósmico.

A todos los efectos prácticos, el tiempo cósmico es idéntico al tiempo terrestre. Si bien es verdad que la Tierra gira sobre su eje y describe revoluciones alrededor del Sol, y que, a su vez, el Sol gira en una órbita alrededor del centro de nuestra galaxia, no obstante, todas esas velocidades son pequeñas si se las compara con la de la luz. Por consiguiente, los efectos de dilatación del tiempo relativistas serán reducidos, y el tiempo calculado en la Tierra se aproximará mucho al tiempo cósmico.

Así, cuando decimos que el Universo tiene una antigüedad de 10.000, 15.000 o 18.000 millones de años, se pueden tomar esos años como si de años terrestres se tratara. Claro que la propia Tierra tiene menos de 5.000 millones de años, pero eso no importa demasiado, puesto que tan sólo tomamos un año de los suyos como medida de referencia, sin que eso signifique que tenga tantos años de existencia como el propio Universo.

A pesar de todo, sería un error pretender que todos los objetos del Universo comparten un tiempo universal aproximadamente equivalente al de la Tierra. No se pueden separar los efectos que ejercen las masas gravitatorias sobre la geometría del espacio de sus efectos sobre la geometría del tiempo. Los campos gravitatorios, en particular, producen un efecto de dilatación del tiempo muy similar al que se aprecia en la relatividad restringida. Todos los campos gravitatorios frenan el paso del tiempo, por lo que una gravedad muy intensa es capaz de provocar una dilatación de éste francamente importante. Hay casos, incluso, en que la gravedad detiene totalmente el tiempo, al menos tal como lo ve un observador situado a una distancia determinada de los campos que originan la dilatación en cuestión.

Así es como los agujeros negros detienen el tiempo. Se trata de los restos del hundimiento de estrellas gigantes de elevada masa, cuyo campo gravitatorio es tan intenso que lo retiene todo, hasta la luz. Actualmente, los astrónomos no disponen de pruebas directas que avalen la existencia de los agujeros negros, pero sí han reunido suficientes pruebas circunstanciales convincentes para creer en ellos. Además, la teoría general de la relatividad parece prever la formación de agujeros negros siempre que una estrella se hunde, cuando sobrepasa una masa crítica determinada.

La presión que crean las reacciones nucleares dentro de la estrella retiene las capas externas de ésta, pero la energía nuclear que las provoca sólo dura cierto período de tiempo. Además, cuanto mayor sea la estrella, menos tiempo durará dicha energía. La mayor cantidad de materia que contiene una estrella grande lo compensa ampliamente el hecho de que la energía nuclear se consumirá a mucha mayor velocidad.

Las estrellas del tamaño de nuestro Sol tienen una vida de unos 10.000 millones de años. Otras estrellas de menor masa pueden vivir muchos más años, mientras que las estrellas muy grandes viven unos pocos millones de años, o incluso menos. Como el Universo existe desde hace mucho más que unos pocos millones de años, las estrellas han dispuesto de tiempo más que sobrado para crearse, gastar su energía y morir.

No todas las estrellas que mueren se transforman en agujeros negros. Nuestro Sol, por ejemplo, no seguirá nunca ese destino. Se convertirá en un gigante rojo cuando se acerque al final de su vida, aproximadamente dentro de 5.000 millones de años, y luego irá contrayéndose gradualmente hasta volverse una diminuta y fría (fría en el contexto estelar, por supuesto) enana blanca. Las estrellas que poseen más de cerca de 1,4 masas solares al final de su vida correrán otro tipo de suerte: se transformarán en estrellas de neutrones, tras contraerse. El nombre les viene de que cuando las fuerzas gravitatorias exceden ciertos límites, los restos de la estrella quedan tan comprimidos que los protones y los electrones son sustituidos por neutrones. Una estrella de neutrones pudiera compararse a un «mar» denso de neutrones.

Las enanas blancas son unos objetos muy densos. Se ha calculado que una caja de cerillas llena de la materia de que están constituidas las enanas blancas pesaría unas diez toneladas en el campo de gravedad de la Tierra, y que una probeta llena de esa misma materia alcanzaría un peso superior al de dos docenas de elefantes. Las estrellas de neutrones son aún más densas. La materia concentrada en su centro es aproximadamente 1015 veces más densa que el agua. Un centímetro cúbico de tal materia tendría una masa de cerca de 1.000 millones de toneladas.

Son ciertamente convincentes las pruebas de que existen las enanas blancas y las estrellas de neutrones. Los telescopios permiten observar las enanas blancas, y midiendo su brillo se puede calcular su masa y su densidad. También se pueden observar las estrellas de neutrones, porque emiten impulsos en forma de radiaciones radioeléctricas, luz o rayos X. Cuando forman parte de sistemas de estrellas dobles, se calculan sus masas estudiando su movimiento orbital. La densidad de las estrellas de neutrones se calcula basándose en datos teóricos sobre su estructura, a pesar de lo cual no hay motivo para dudar de la validez de esos resultados teóricos.

Se considera actualmente que existe un límite respecto a la masa que puede acumular una estrella de neutrones. Dicho límite se sitúa entre 1,6 y 3,0 masas solares. Si la estrella de neutrones sobrepasa ese límite, las fuerzas gravitatorias se volverán tan fuertes que la materia de que se compone la estrella no aguantará más compresión.

Una vez que ha empezado el proceso de compresión, nada puede detenerlo. La materia que contiene la estrella podría resistir un mayor hundimiento, pero la presión creada por esa resistencia sólo contribuirá a acelerar el colapso. En la relatividad general, la existencia de presión no sirve sino para recrudecer las fuerzas gravitatorias. La materia de que se compone la estrella se comprimirá hasta el punto de ocupar un volumen cero, volviéndose entonces infinita la densidad de la materia. Se llama singularidad ese punto de densidad de masa infinita.

A pesar de que los físicos y los astrónomos tengan gran confianza en los postulados de la relatividad general, muchos de ellos permanecen algo escépticos a este último respecto, y dudan que exista realmente eso que se llama singularidades. Señalan que cuando surgen infinitudes en los cálculos teóricos suele significar que la teoría comienza a fallar. A su forma de ver, el postulado de las densidades infinitas que aparece en la relatividad general demuestra que se la ha llevado más allá de los límites dentro de los que es válida.

Realmente, no les falta razón. No es de esperar que se siga pudiendo aplicar la relatividad general cuando toda la materia de una estrella de gran masa está comprimida en una región mucho más reducida que la de un núcleo atómico. Para describir los acontecimientos gravitatorios que se desarrollan dentro de un volumen tan pequeño, se necesitaría combinar la relatividad general con la mecánica cuántica, la teoría que sirve para describir los acontecimientos de nivel subatómico.

Los físicos ya han elegido un nombre para designar una teoría que combinara la relatividad al y la mecánica cuántica: sería la teoría de la gravedad cuántica. Desgraciadamente, nadie sabe cómo se puede elaborar semejante teoría. Éste es uno de los problemas aún por resolver en la física teórica. Por consiguiente, tampoco sabe nadie si las singularidades existen o no.

Ahora bien, incluso no existiendo, es probable que la materia de que se compone la estrella se halle comprimida hasta un punto inimaginablemente pequeño. Se ha calculado que la gravedad sólo debería modificarse por efecto de los cuanta a distancias de 10‒33 centímetros o menos. Esto supone varios órdenes de magnitud inferiores al del núcleo atómico, cuyas dimensiones son del orden de 10‒13 centímetros. Incluso si se pudiera observar un residuo de estrella tan comprimido, los científicos no serían capaces de determinar si se trataba de un punto, o una región de tamaño reducido, pero finito.

Y, por supuesto, no se podría observar una singularidad (a partir de ahora, me referiré a las singularidades como si existieran, teniendo en cuenta las reservas hechas más arriba) aunque fuera posible introducirse en un agujero negro. Es imposible penetrar en un agujero negro ya sea para estudiar la singularidad que se encontrara en su centro, o cualquier otra cosa que se hallara dentro de la superficie llamada horizonte de acontecimientos. Cualquier cosa que cruce el horizonte de acontecimientos y penetre en el agujero negro quedará retenida para siempre en el horizonte. Ni tan siquiera la luz puede escapar.

El horizonte de acontecimientos no debe imaginarse como una superficie física. Es sencillamente el lugar donde la gravedad creada por la materia en la singularidad se vuelve tan fuerte que atrae, reteniéndola definitivamente, cualquier cosa que cruce el horizonte. Este último está constituido por una esfera de un diámetro aproximadamente igual a 6 kilómetros multiplicados por la masa del agujero negro en masas solares. Por lo tanto, un agujero negro tres veces más pesado que el Sol mediría unos 18 kilómetros de ancho, mientras que uno que superara veinte veces el peso del Sol tendría un diámetro de unos 120 kilómetros.

El horizonte de los acontecimientos es también la superficie en la que se detiene el tiempo, al menos bajo el punto de vista de un observador externo. Para comprender exactamente lo que esto significa, imaginemos que un vehículo espacial esté acercándose a un agujero negro. Para el observador que esté situado a cierta distancia, el tiempo que transcurra en la nave parecerá pasar con lentitud creciente a medida que se acerque al horizonte de los acontecimientos. Cuando la nave llegue al horizonte, el tiempo se detendrá, con lo que la nave quedará ahí flotando durante toda la eternidad. O sea, que para los observadores situados en el universo exterior, la nave no penetrará nunca en el agujero negro.

Sin embargo, los observadores que viajan a bordo de la nave contemplarán la situación desde una óptica totalmente diferente. Para ellos, el tiempo seguirá transcurriendo con normalidad, y nada les impedirá atravesar el horizonte de los acontecimientos, hasta introducirse en el agujero negro. Si el agujero negro es de los que tienen una masa varias veces superior a la del Sol, no tendrán ocasión de contemplar lo que ocurre allí dentro, puesto que las intensas fuerzas gravitatorias del agujero desintegrarán la nave poco después de atravesar ésta el horizonte de los acontecimientos, si, por supuesto, esto no ha ocurrido ya antes de penetrar en el agujero negro.

Nada nos impide imaginar que la nave entra efectivamente en el horizonte de los acontecimientos de un agujero negro de, digamos, un millón de masas solares. Son muchos los astrónomos que creen que pueden existir semejantes agujeros negros con una super masa de ese tipo en el centro de las galaxias. Hay tal cantidad de materia en los núcleos galácticos que bien pudieran crearse agujeros negros de semejante tamaño. Una vez que se creara un agujero negro en esa región, aumentaría muy rápidamente de tamaño, ya que sus campos gravitatorios capturarían cantidades enormes de gases y polvo interestelar, y engullirían hasta estrellas enteras.

El diámetro de un agujero negro de un millón de masas solares mediría unos seis millones de kilómetros. Una nave que cruzara el horizonte de los acontecimientos podría encontrarse a suficiente distancia de la singularidad como para que su tripulación pudiera explorar toda la región interior del agujero, al menos durante un breve tiempo. Es evidente que sería un suicidio, puesto que, ya dentro del agujero negro, serían atraídos hacia la singularidad, y lo que quedara de su nave desaparecería al llegar a la misma.

Por otra parte, los observadores a bordo de la nave no sólo podrían estudiar lo que ocurriera en el agujero negro, sino contemplar también lo que estuviera sucediendo en el universo exterior. La luz no puede escaparse de un agujero negro, pero es evidente que puede penetrar el horizonte de los acontecimientos viniendo desde fuera. Así, los tripulantes de la nave serían incluso capaces de recibir los mensajes que se les mandara desde el universo exterior. Ahora bien, les sería imposible contemplar la singularidad en el centro. La luz, al igual que otras formas de radiaciones electromagnéticas, puede dirigirse a una singularidad, pero luego queda retenida allí. Así, la singularidad seguiría siendo invisible para los observadores de la nave, al igual que lo serían los sucesos que se produjeran dentro del agujero negro para los observadores del exterior.

Parece increíble que, visto por un observador, el tiempo se detenga y deje a la nave paralizada en el horizonte de los acontecimientos, mientras el tiempo sigue transcurriendo de forma perfectamente normal desde la perspectiva de otros observadores. En realidad, no hay contradicción en esa conclusión. La nave no se encontraría en dos lugares al mismo tiempo. Y es que la expresión «al mismo tiempo» incluso carece de sentido en este contexto, puesto que en esta situación habría dos tiempos diferentes: el tiempo a bordo de la nave, y el tiempo del universo exterior a ella. Cuando la nave alcanzara el horizonte de los acontecimientos, la diferencia entre ambos tiempos sería tan grande que no habría forma de conciliarlos. Por otra parte, en cualquiera de los marcos de referencia, el comportamiento de la nave sería inequívoco: en un momento determinado se encontraría en un lugar específico.

Podría ser divertido ver los efectos de la dilatación del tiempo por la gravedad en el horizonte de los acontecimientos de un agujero negro. Imaginemos, por ejemplo, que uno de los astronautas hubiera sido anteriormente tenor de ópera, y estuviera cantando un aria (por qué no el Gótterdämmerung de Wagner) al acercarse al horizonte de los acontecimientos. Ocurriría que, para los observadores del universo exterior, se quedaría sosteniendo la misma nota durante toda la eternidad. Suponiendo que se tratara de un mi bemol, el tenor estaría entonándolo en el momento de alcanzar el horizonte, y todavía se seguiría oyendo cuando el Sol se transformara en una gigante roja al cabo de 5.000 millones de años[18].

Esto es al menos lo que la teoría de la relatividad general prevé que sucedería. Pero, ¿hasta qué punto cabe fiarse de la teoría? ¿Podemos estar realmente seguros de que existen los agujeros negros? De ser así, ¿tenemos garantías de que la relatividad general describe correctamente el comportamiento de los objetos que se acercan a ellos o penetran en su interior?

Para poder dar una contestación a esas preguntas, se necesita proceder a un gran número de observaciones y de experimentos. Al fin y al cabo, las teorías se tienen que probar, pues son muchas las que, siendo plausibles, han resultado ser erróneas, y hasta Einstein se equivocaba, a veces.

Lo mejor será ir analizando el tema punto por punto. ¿Hay realmente agujeros negros en el Universo? Probablemente. A pesar de que no se puedan ver, sí hay pruebas que permiten deducir indirectamente su existencia. Si el agujero negro forma parte de un sistema de estrellas dobles, y si éste y su compañera dan vueltas una alrededor de la otra en órbitas moderadamente próximas, los campos gravitatorios del agujero negro atraerán la materia de la superficie de la compañera. Al ser atraída esta materia —mayormente hidrógeno, puesto que es éste el componente esencial de las estrellas— hacia el agujero negro, experimentará una aceleración. Esto hará que la materia emita radiaciones en forma de rayos X. Naturalmente, los rayos X que se emitan después de que el material alcance el horizonte de los acontecimientos permanecerá invisible. Ahora bien, antes de que eso ocurra, se habrá producido una gran emisión de ellos.

Los astrónomos han detectado numerosas fuentes de rayos X en el Universo, aunque, por supuesto, eso no significa automáticamente que se haya descubierto un agujero negro. Hay muchas otras formas en que se da ese tipo de radiación. No obstante, algunas radiofuentes emiten a intervalos muy cortos. La intensidad de los rayos X varía en el intervalo de milésimas de segundo. Tal fluctuación demuestra que la superficie emisora es muy reducida, pues un objeto mayor emitiría la radiación a intervalos más constantes, al compensarse las variaciones de intensidad.

No basta, además, con observar períodos de impulsos irregulares para concluir que se está ante un agujero negro. Se necesitan confirmaciones de otro tipo antes de darlo por sentado. Entre otras cosas, se ha de comprobar que esos rayos X oscilantes provienen de un sistema de estrellas dobles, y que uno de los objetos de que se compone el conjunto es demasiado oscuro para poder verlo. Pero incluso así permanece la duda de si se ha encontrado un agujero negro. Efectivamente, el objeto invisible no tiene por qué ser uno de esos agujeros, ya que puede tratarse sencillamente de una estrella normal que es demasiado oscura para verse. Es necesario buscar la forma de calcular la masa del objeto invisible en la superficie de emisión de los rayos X, y sólo si se descubre que el objeto en cuestión presenta una masa elevada habrá motivos para pensar que puede ser, de hecho, un agujero negro.

Sería fácil calcular la masa del compañero de la estrella si los astrónomos dispusieran de medios para observar directamente el movimiento orbital del componente visible del sistema de doble estrella. Desgraciadamente, la mayor parte de las estrellas están a tal distancia de la Tierra que esto no es factible. No obstante, el movimiento de una estrella puede deducirse de la luz que emite. Cuando su movimiento orbital la aleja de la Tierra, su luz se desplaza hacia el rojo, mientras que si gira en redondo y empieza a moverse en la dirección contraria, la luz se desplazará hacia el azul. El estudio de estos desplazamientos hacia el rojo y hacia el azul demuestran que algunos sistemas binarios de estrellas presentan componentes oscuros de masa realmente elevada.

Actualmente, Cygnus X-l, una fuente de rayos X en la constelación del Cisne, y que fue descubierta en 1965, es la candidata a agujero negro con mayores posibilidades. Se ha averiguado que los rayos X proceden de un sistema binario compuesto por una estrella gigante de un azul brillante, de una masa aproximadamente veinticinco veces superior a la del Sol, y un objeto oscuro de diez a quince masas solares. Se cree que el objeto oscuro es un agujero negro porque, de acuerdo con la relatividad general, todo objeto oscuro y compacto con semejante masa debe ser un agujero negro, sin que haya otra alternativa.

¿Hay realmente agujeros negros en el Universo? Sería fácil contestar a la pregunta si se pudiera observar, de hecho, el hundimiento de un agujero negro, o enviar una nave espacial a Cygnus X-l para estudiarla mejor. Pero, ya que no es posible, el problema se reduce a plantearse el grado de fiabilidad que se ha de conceder a los enunciados de la relatividad general.

Tampoco así es fácil dar una contestación, pues existen teorías alternativas de la gravedad, y, además, las pruebas experimentales en las que se asienta la relatividad general son mucho menos convincentes que las que confirman la teoría restringida. La relatividad general es difícil de probar por estar fuera de nuestro alcance los intensos campos gravitatorios que se forman, lo cual obliga a llevar a cabo los experimentos en la gravedad relativamente débil que se registra a proximidad del Sol y de la Tierra.

Esto no impide que se hayan conseguido varios tipos de pruebas experimentales. Así, gracias a la gran precisión de los relojes atómicos, se ha podido medir la dilatación del tiempo debida a la gravedad de la Tierra. Para eso, se han tenido que hacer verdaderos milagros. Por ejemplo, para confirmar experimentalmente la relatividad general, se tuvo que medir el cambio de frecuencia en una radiación determinada que sólo estaba presente en la proporción de uno a 1015. Esto no impide que se hayan ideado muchas clases de experimentos, los cuales, dentro de los límites posibles de precisión, confirman los postulados de la relatividad general.

También se pueden probar los postulados de la relatividad general en lo que se refiere a los efectos gravitatorios de la masa que contiene el Sol. Por ejemplo, la órbita del planeta Mercurio experimenta un tipo de perturbación llamada precesión del perihelio (la órbita bastante alargada de Mercurio no permanece fija; «baila» alrededor del Sol durante un período de varios siglos) que parece coincidir perfectamente con los postulados de Einstein. También se pueden medir los efectos que tendrá la curvatura del espacio cerca del Sol sobre la luz u otra radiación que roce la superficie solar. Y se observa que los rayos de luz que pasan rozando al Sol se desvían en la proporción que prevé la teoría general de la relatividad. Se han hecho rebotar haces radáricos en Venus, Mercurio y Marte desde la Tierra cuando dichos planetas se han situado del lado opuesto del Sol, comprobándose que cuando el haz roza el Sol, su gravedad provoca una leve dilatación del tiempo a su regreso hacia la Tierra. De nuevo, los resultados se ciñen a los postulados teóricos.

Siempre han sido diminutos los efectos que se han logrado medir. Así pues, no ha quedado demostrado tajantemente que la relatividad general sea realmente superior a ciertas otras teorías, si bien estas últimas no suelen ser, en general, sino modificaciones de la de Einstein, con la desventaja, además, de resultar más complicadas. Y como los científicos escogen siempre la teoría más sencilla que explique un determinado número de fenómenos, y sólo recurren a otras más complejas cuando parece quedarse corta la más fácil, la relatividad general sigue teniendo aceptación en todo el mundo.

Por supuesto que no es lo mismo tomar mediciones en el reducido campo gravitatorio de la Tierra que extrapolarlas a los campos de gravedad intensos que actúan presumiblemente en torno a un agujero negro, aunque tampoco haya realmente motivo para no hacerlo. Los físicos no han descubierto nada que les incite a sentir la necesidad de modificar la relatividad general antes de alcanzar la región de gravedad cuántica. Además de que no es nada fácil poner a prueba una teoría como la de la relatividad general, tampoco los científicos han descubierto nada que la contradijera en los setenta años que han transcurrido desde que se expuso por primera vez.

Cabe deducir, por consiguiente, que los agujeros negros existen probablemente aunque no se hayan aportado pruebas definitivas de ello; y que se tienen motivos sobrados para creer que son correctos los postulados de la relatividad general que se refieren a los fenómenos observables a proximidad del horizonte de los acontecimientos de un agujero negro. O sea que, a menos que se rechace de golpe la relatividad general, habremos de seguir considerando muy probable que, en determinadas situaciones, el tiempo se pueda detener.

Capítulo XI
Origen y fin del tiempo

Como ya hemos visto, los astrónomos no saben con exactitud la edad que tiene el Universo. Si bien la mayor parte de ellos admiten que tenga unos 15.000 millones de años, otros pretenden que es más joven. La controversia es todavía mayor respecto a si el Universo es cerrado o abierto. Hasta hace unos pocos años, imperaba la versión del Universo abierto, al abundar las pruebas en este sentido. Pero todo cambió cuando se descubrió que las galaxias estaban rodeadas de halos oscuros cuya composición se ignora. Por lo tanto, mientras se desconozca la naturaleza de los halos, será imposible evaluar de cuánta materia se compone el Universo.

Y, a pesar de todo, prácticamente todos coinciden en que el Universo lo originó una gigantesca explosión: el big bang. A primera vista, resulta del todo paradójico que existiendo aún tantas incógnitas respecto al estado actual del Universo se pueda comprender la naturaleza de un hecho que sucedió hace miles de millones de años. Por cierto, ¿qué prueba se tiene de que se produjera semejante explosión?

La mayoría de los astrónomos reconocerán que hay motivos suficientes para creer que el Universo naciera de esa forma, pues, en cierto modo, se aprecian aún sus efectos, si bien la explosión se produjo hace unos 15.000 millones de años.

Existen tres tipos importantes de pruebas de que hubo tal big bang. Primero, el hecho de que el Universo se esté expandiendo. Observando las galaxias lejanas, se comprueba que eso se viene produciendo desde hace miles de millones de años. Por consiguiente, el Universo debe haberse encontrado en un estado relativamente comprimido en algún momento del pasado. Realmente, si se parte de la expansión actual y se vuelve la vista atrás, difícil es no concluir que el Universo debió ser una bola de fuego muy densa, que explotó.

El admitir que existió esa bola de fuego lleva a sacar dos importantes conclusiones. La primera, que se debería poder observar todavía la luz que desprendía. Efectivamente, los astrónomos no conocen nada que le impidiera seguir viajando a través del espacio durante los cerca de 15.000 millones de años que han transcurrido desde que se emitió. La segunda conclusión que se desprende de la existencia de tal bola de fuego en cierto momento, es que el Universo debería tener una determinada composición química para que se pudieran producir en ella cierto tipo de reacciones nucleares. Los productos de esas reacciones todavía deberían estar presentes en el Universo actual.

Ambas cosas han sido comprobadas. Se puede ver la luz del acontecimiento que supuso la creación, y el Universo tiene la composición que era de esperar. Así, puesto que no hay ninguna teoría más que sea capaz de justificar estas observaciones con suficiente credibilidad, los científicos han concluido que el Universo debe haberse encontrado en un estado de incandescencia y de elevada compresión antes de pasar a un estado de rápida expansión.

La astronomía difiere de las demás ciencias físicas en un aspecto. Cuando los científicos llevan a cabo sus experimentos en los laboratorios, estudian fenómenos que ocurren en el presente, mientras que los astrónomos analizan los acontecimientos que sucedieron en el pasado. Incluso cuando su observación se centra en un objeto cercano, como puede ser el Sol, nunca lo verán cómo es en el momento de estudiarlo. Puesto que la luz tarda algo más de ocho minutos en viajar desde el Sol hasta la Tierra, sólo se podrá ver el Sol tal como era ocho minutos antes.

Cuando los astrónomos contemplan las galaxias lejanas, su mirada se vuelve aún más atrás hacia el pasado. De ser correcta la escala de distancias admitida actualmente, las galaxias más alejadas que permiten ver los modernos telescopios están a más de 10.000 millones de años luz de nosotros, por lo que si el Universo tiene realmente una antigüedad de 15.000 millones de años, en esas galaxias se están presenciando hechos que sucedieron aproximadamente 5.000 millones de años después del origen.

Incluso se pueden ver tiempos más remotos observando las ondas radioeléctricas que inciden en la Tierra desde todas las direcciones del espacio, pues dichas ondas son residuos de la luz que se emitió desde la bola de fuego primigenia. Fueron descubiertas en 1964 por dos científicos de Bell Telephone Laboratory, Arno Penzias y Robert Wilson. El nombre completo que se dio a estas ondas es más bien largo: radiación ambiente de microondas cósmicas, aunque las define de forma relativamente sencilla. «Radiación de microondas» se aplica a las ondas radioeléctricas cuya longitud de onda es inferior a un metro. «Cósmico» se refiere al origen de las ondas, y al decir «ambiente» se sugiere que dan la sensación de hallarse en todas partes. La radiación que descubrieron Penzias y Wilson no parece provenir de las estrellas, ni de las galaxias, ni de ninguna otra fuente discreta, sino que constituye un «ambiente» que se origina desde cualquier punto del cielo. Además, es siempre la misma. Aunque se dirija un radiotelescopio hacia diferentes regiones del cielo, la intensidad de la radiación ambiente de microondas sólo varía en menos de tres partes por diez mil.

Aunque hubiera existido una bola de fuego primigenia que emitiera luz en gran cantidad, no por eso se vería realmente luz en el cielo hoy día. La luz que haya viajado por el espacio durante 15.000 millones de años ha debido estar sometida a un enorme desplazamiento hacia el rojo. El principio que rige dicho desplazamiento es exactamente el mismo que se aplica a la luz emitida por las galaxias más alejadas. No hay ninguna diferencia entre el hecho de que la luz haya sido emitida por una estrella o por hechos que sucedieron en la propia bola de fuego. Tanto por el paso del tiempo como por viajar la luz a través del espacio, las longitudes de onda se van alargando. Como el big bang precede en el tiempo a cualquier estrella o galaxia visibles, la luz que emitió ha de haber experimentado unos desplazamientos inimaginables hacia el rojo. La luz ha tenido que transformarse en ondas radioeléctricas, pues ésta es la forma que toma la radiación electromagnética de mayor longitud de onda. Y, por supuesto, la radiación ha debido venir de todas las direcciones, puesto que todo el Universo observable, incluida la Tierra, está hecho de la materia que estuvo originariamente en la bola de fuego.

Para comprender qué es lo que buscan los astrónomos cuando estudian el ambiente de microondas, cabe analizar más a fondo la teoría del big bang, y centrarse en lo que pudo suceder en las primeras fases de la expansión del Universo. Entre otras cosas, se necesita saber si el ambiente de microondas es el resultado de los procesos que se desarrollaron en el momento de la creación, o si es el producto de hechos que ocurrieron algo después.

La teoría del big bang parte de la base que el Universo estaba originariamente muy comprimido y que su temperatura era elevadísima. Debió estar caliente puesto que se enfriaría al expandirse. Es un caso similar al del enfriamiento de los gases cuando se expanden: así, el gas que sale de un aerosol da sensación de frío porque se extiende a un mayor volumen al salir del orificio del envase.

Se puede calcular la temperatura que debió tener el Universo en un momento determinado del pasado. Por ejemplo, un millón de años después de su origen debió registrar una temperatura de aproximadamente 3.000 °K. El símbolo K corresponde a los kelvins, o grados por encima del cero absoluto. Puesto que el cero absoluto es igual a -273 °C, los kelvins se convierten en grados Celsius restándoles 273. Por consiguiente, 3.000 °K corresponderían a 2.737 °C. En la práctica, 2.700 °C daría una aproximación suficiente, puesto que no estamos trabajando con cifras exactas.

El enfriamiento del Universo a 3.000 °K supuso una transición importante en su evolución. Efectivamente, mientras la temperatura fue superior a ese valor, no hubiera podido existir materia en forma de átomos normales. El calor era tan intenso que los átomos debieron ionizarse; la energía que fluía entonces en el Universo era tal que los electrones salían despedidos de los átomos en cuanto eran capturados.

Pero resulta que la luz ejerce una interacción bastante fuerte en los electrones libres. A veces, los electrones absorben la luz, y la emiten de nuevo una fracción de segundo después, aunque lo más frecuente es que la dispersen, haciendo que ésta gane o pierda energía en ese proceso. De haber existido observadores conscientes en el Universo en aquella época, lo único que hubieran podido ver sería una niebla densa que despediría una luz amarilla.

Y entonces, cuando el Universo tenía algo menos de un millón de años, la expansión progresiva hizo que la temperatura descendiera por debajo de los 3.000 °K. Súbitamente, los electrones libres pudieron unirse a los núcleos atómicos que estaban presentes en todas partes, y así es cómo se formaron los átomos. Como los átomos provocan una mucha menor dispersión de la luz que los electrones libres, la niebla se levantó de golpe, volviéndose así el Universo transparente.

Y así ha seguido de transparente. Por consiguiente, podemos deducir que el ambiente de microondas que vemos actualmente se originó aproximadamente un millón de años después del origen. Por supuesto, una gran parte de él se emitió mucho antes. Eso no impide que hasta que se levantó la niebla, la radiación experimentó tantos rebotes, y sufrió tal cantidad de transformaciones, que lo único que podemos pretender estar «viendo» cuando contemplamos el ambiente es el Universo tal como era cuando tenía un millón de años de existencia.

Basta con hacer unos cálculos bastante sencillos para averiguar que cuando el Universo se volvió súbitamente transparente, su estado de compresión era aproximadamente mil veces superior al actual, independientemente de que el Universo sea un Universo cerrado o abierto, puesto que el mismo resultado sirve en cualquiera de los casos. A pesar de que un Universo abierto, y, por lo tanto, infinito, no pueda hacerse «mayor», en el sentido habitual de la palabra, sí puede expandirse, entendiendo por ello que se pueda dispersar más.

Si bien el Universo era mucho más pequeño hace un millón de años de lo que es ahora, ya había experimentado una considerable expansión desde el big bang. Por consiguiente, para creer de verdad en esa teoría, hemos de encontrar un medio de volver la vista aún más atrás en el tiempo. Después de todo, aunque apenas parece probable, cabe imaginar que el Universo nunca fue mucho más pequeño que cuando se volvió repentinamente transparente. De no disponer de pruebas que confirmaran que existía ya antes, no hubiéramos podido tener la total seguridad de que la expansión no hubiera empezado entonces.

Afortunadamente, sí hay pruebas de ello, e incluso cabe la posibilidad de «ver» el Universo tal como era exactamente tres minutos después del big bang gracias a los estudios que se han llevado a cabo respecto a la composición química del Universo.

Dos elementos, el hidrógeno y el helio, constituyen la principal materia visible de que se compone el Universo. Todos los demás, entre los que se incluyen la mayor parte de los que forman la Tierra, sólo existen en pequeñas cantidades. De los dos componentes más importantes del Universo, el hidrógeno es, con mucho, el más abundante, por representar el 75% de su peso, mientras que el 25% restante es helio. Éste es el porcentaje que se observa generalmente, tanto en las galaxias más alejadas como en la nuestra. No es fácil que contengan errores importantes las mediciones que se han tomado, ya que es relativamente sencillo determinar la composición química de una estrella o una galaxia. Basta con analizar la luz que emite. También se puede apreciar la cantidad de hidrógeno y de helio que ocupa el espacio interestelar observando su emisión de ondas radioeléctricas.

Las reacciones nucleares que se producen en el interior de las estrellas convierten el hidrógeno en helio. Se trata de un proceso similar al que se da en la explosión de una bomba de hidrógeno. La fusión del hidrógeno produce la mayor parte de la energía que emiten las estrellas. No obstante, éste es un proceso demasiado lento para podérsele atribuir la cantidad de helio que se observa en el Universo, puesto que las estrellas no vienen existiendo desde hace suficiente tiempo para poder producir más de una pequeña parte del helio existente.

La teoría del big bang sí justifica la presencia de grandes cantidades de helio. Según cálculos, se habrían creado condiciones adecuadas para la formación de helio cuando el Universo llevaba existiendo unos tres minutos. Antes de eso, la temperatura era demasiado elevada para que se pudiera producir la reacción de fusión del hidrógeno, mientras que, al cabo de un rato, ya era demasiado fría.

Las concentraciones de deuterio, un isótopo del hidrógeno que está presente en todo el Universo en la proporción de veinte o treinta partes por millón, confirma esta conclusión. El núcleo de hidrógeno normal sólo consta de un protón. Por su parte, el núcleo de deuterio se compone de un protón y de un neutrón. Se dice que el deuterio es un isótopo de hidrógeno porque cuando se combinan los núcleos con electrones para formar átomos sólo se une un electrón al núcleo en cada caso. El electrón de carga negativa reacciona exclusivamente ante la presencia de un protón de carga positiva, mientras que ignora al neutrón (que carece de carga eléctrica).

No se puede formar deuterio en las estrellas. El enlace de un solo protón con un solo neutrón no es muy fuerte, por lo que no se necesita mucha energía para que se deshaga. A las temperaturas que imperan en el centro de las estrellas, los núcleos de deuterio se disgregan nada más formarse. Por consiguiente, el deuterio que está presente en el Universo sólo puede haberse formado en la bola de fuego primigenia. La teoría del big bang justifica igualmente la baja concentración de deuterio, al formarse éste en una de las fases de creación del helio, y desaparecer la mayor parte de él cuando se formaron los núcleos de helio. Así, los núcleos de deuterio que hoy quedan son los que no encontraron pareja para combinarse.

Sabiendo que podemos «ver» el Universo tal como era sólo tres minutos después de su creación observando las concentraciones de helio y de deuterio, cabe preguntarse si no habrá medio de remontar algo más en el tiempo. En principio, efectivamente existe esa posibilidad, aunque se topa con unas dificultades de experimentación tan grandes que todavía no se ha conseguido.

Según cálculos teóricos, se habrían producido cantidades ingentes de neutrinos aproximadamente un segundo después del principio de la creación. Como éstos rara vez experimentan una interacción con la materia, deberían existir hoy día en el Universo unos 100 millones de ellos por cada neutrón o protón. Esto significa que debe haber un número de aproximadamente 500 neutrinos en cada centímetro cúbico de espacio en el Universo, y que por el cuerpo humano pasan cerca de un millón de billones de neutrinos cada segundo.

Se desconoce desafortunadamente la forma de detectar los neutrinos cósmicos. La dificultad estriba en que estos neutrinos han ido perdiendo energía durante los 15.000 millones de años que han transcurrido desde que fueron creados, y que, actualmente, su energía debe ser la milmillonésima parte de la que poseen los neutrinos que son subproductos de las reacciones nucleares que se producen en el Sol. Teniendo en cuenta que incluso son difíciles de detectar los neutrinos solares, con su relativa energía, cabe imaginar la inutilidad aparente de intentar observar los neutrinos cósmicos, en el estado presente de la técnica experimental.

No obstante, se nos ofrecen nuevas oportunidades si volvemos la vista algo más atrás. Sabemos, por medio de cálculos, que aproximadamente una milésima de segundo después de la creación, se debieron formar múltiples quarks, que son los componentes teóricos de unas partículas como los protones y los neutrones. La mayor parte de los quarks debieron combinarse entre sí para producir neutrones, protones y otras partículas. Como se tienen motivos para creer que algunos de ellos se quedaron sin pareja, al igual que ocurrió a los núcleos de deuterio que fueron creados tres minutos después y no consiguieron combinarse para formar helio, se han llevado a cabo experimentos para descubrir los restos de esos quarks, aunque, hasta la fecha, sin éxito. Tampoco han podido detectar los físicos ninguna de las demás partículas residuales que teóricamente deben seguir existiendo.

Según las teorías actuales sobre las interacciones híper energéticas, se debieron crear monopolos magnéticos, o sea, polos magnéticos aislados, al sur y al norte, durante el big bang. En ese caso, debería ser en tan poca cantidad que no es fácil encontrarlos. Tampoco parece ser posible detectar gravitones, unas partículas teóricas asociadas con la fuerza de la gravedad, a pesar de que el big bang tuvo que producirlas en cantidades inmensas.

Ahora bien, la situación experimental puede cambiar con gran rapidez, y la búsqueda que se prosigue de restos de quarks y de monopolos magnéticos quizá dé resultados positivos dentro de pocos años. Mientras tanto, habrá que depender exclusivamente de la teoría para ahondar en lo que ocurrió durante los tres primeros minutos que siguieron al nacimiento del Universo.

Tampoco pretendo aquí analizar en detalle las interacciones que pudieran haber existido al principio del Universo, puesto que si he estudiado la teoría del big bang ha sido para intentar averiguar en qué puede ayudarnos a comprender la naturaleza del tiempo. De todas formas, se han publicado, unos cuantos libros muy interesantes que tratan sobre la física del big bang. Ahora, les propongo volver al momento del tiempo que se sitúa a 10‒43 segundos después de la creación.

Entonces el Universo alcanzaba una temperatura inimaginablemente alta y su densidad era elevadísima. De ser correctas las teorías actuales, la temperatura habría de situarse alrededor de los 1032 °K (o 1032°C; cuando se habla de temperaturas de cientos de millones de billones de billones de grados, no hay por qué preocuparse de la diferencia de unos 273 grados que hay entre ambas escalas), y la densidad de la materia era de aproximadamente 1018 (un millón de billones) toneladas por centímetro cúbico. La energía desarrollada era tan grande que cada partícula tenía aproximadamente la misma energía que la de un acorazado que se desplazara a máxima velocidad por el océano.

Aquí es donde un escéptico podría objetar que no tenemos pruebas de que se dieran semejantes condiciones. Y pudiera tener razón, en parte, pues todo lo que venimos comentando parte de la base que la teoría general de la relatividad de Einstein permanece válida en condiciones mucho más extremas que aquellas en las que jamás se haya sometido a prueba. Pero tampoco ha encontrado nunca nadie algo que impidiera aplicar esta teoría al Universo primitivo en ese momento de su evolución. Así que lo mejor que se puede hacer es tirar adelante con lo que enuncia la teoría. Al fin y al cabo, es la mejor teoría de la gravedad de que disponemos, por lo que no conviene ser demasiado dogmáticos respecto a la visión que ésta nos ofrece. Y tampoco hay nada malo en intentar imaginar en qué consiste.

En un capítulo anterior se señalaba que la relatividad general prevé que se deben formar singularidades cuando las grandes estrellas extintas se hunden, constituyendo los agujeros negros. En esas condiciones, no puede no haber singularidades, si es que la teoría expone correctamente los sucesos. Durante los años sesenta, los físicos británicos Roger Penrose y Stephen Hawking demostraron algunos teoremas según los cuales, si la teoría general de la relatividad es cierta, es inevitable que se formen singularidades siempre que la gravedad sea suficientemente intensa. Dicho de otra forma, no parece existir probabilidad alguna de que las partículas de la materia que se hunde en un agujero negro puedan «evitarse» unas a otras para no formar una singularidad.

Y cierto es que la gravedad tiene semejante intensidad en las primeras fases del big bang. Estos teoremas demuestran —de nuevo, partiendo de que la relatividad general sienta bases correctas— que toda la materia y la energía del Universo deben haberse concentrado en una singularidad a la hora cero. Los teoremas en cuestión no prueban sin embargo de manera fehaciente que existieran las singularidades. Cuando nos acercamos a la región de los cuantos, donde ya no se supone sea válida la relatividad general, los teoremas dejan de ser aplicables.

Se supone que la relatividad general es válida hasta distancias próximas a los 10‒33 centímetros. Concretando más, existe una cantidad, llamada distancia de Planck —en honor al físico alemán Max Planck, que fue uno de los fundadores de la teoría de los cuantos—, igual a 1,61×10‒33 centímetros. A distancias inferiores a ésta, se necesita echar mano de una teoría de la gravedad cuántica si no se quieren cometer errores al describir los procesos físicos.

De todas formas, se supone que la teoría general de la relatividad va perdiendo precisión a medida que se aproxima a esa distancia; no es que deje de ser válida repentinamente. Por consiguiente, a nadie le preocupa demasiado el factor de 1,61. Cuando los físicos hablan de un punto en el que la relatividad general deja de ser aplicable, les basta con tener una aproximación.

Si se divide la distancia de Planck por la velocidad de la luz, se obtiene una cantidad a la que se llama el tiempo de Planck. Siendo la velocidad de la luz 3×1010centímetros por segundo, el tiempo de Planck es 5,36×10‒44 segundos. Este es el tiempo que tardaría la luz en recorrer la distancia de Planck. De nuevo, si sólo nos interesa estar dentro del orden de magnitud correcto, se puede redondear la cifra a 10‒43 segundos. Se considera que la teoría general de la relatividad deja de ser válida cuando se calculan tiempos situados a menos de 10‒43 segundos después de la creación del Universo. Nada se sabe de los hechos que sucedieron antes de ese momento. Es posible que tanto el espacio como el tiempo en sí tuvieran características totalmente diferentes de las de ahora. Y bien puede ser que la propia noción de «espacio» y de «tiempo» deje de tener sentido alguno en esa región.

Cuando se habla de la teoría del big bang, frecuentemente se recurre a términos como «el origen», «la creación del Universo», etc. No quiere eso decir que la teoría en cuestión afirme que el Universo fuera creado en un momento determinado, ni mucho menos. Lo único que nos puede decir la teoría es que en el tiempo de Planck, el Universo se hallaba en un estado inmensamente denso y a una temperatura elevadísima. El tiempo de Planck constituye un punto más allá del cual no alcanzamos a ver: es el punto en el que se estrellan de una manera irremisible todos los conocimientos de física.

Qué duda cabe de que se puede hacer toda clase de conjeturas respecto a lo que pudo acontecer antes del tiempo de Planck. Pero, entonces, ya se entra en el dominio de la filosofía, o incluso de la teología. No se trata ya de física. Tras hacer esta salvedad, cabe enumerar las diferentes posibilidades que se ofrecen. Son tres, esencialmente:

(1) El Universo fue creado en un instante determinado.

(2) El Universo existía de alguna forma que desconocemos antes del big bang.

(3) Tanto el propio tiempo como el espacio fueron creados al suceder el big bang.

Esta tercera posibilidad llama poderosamente la atención de muchos físicos, pues permite prescindir de los problemas filosóficos ligados a la perspectiva de un pasado infinito, y, simultáneamente, a los que tienen que ver con la creación en un instante determinado (se evitan, por ejemplo, planteamientos como el de preguntarse por qué se dice que el Universo fue creado en ese instante preciso y no mil millones de años antes). Por añadidura, esta tercera posibilidad tiene también respaldo científico. Después de todo, no se trata de que el big bang fuera el acontecimiento que provocó la explosión expansiva del Universo en el espacio, sino que el propio espacio se expandió con el Universo, puesto que el big bang fue generalizado.

O sea, que el big bang puede haber significado el inicio del tiempo, con lo que carece de sentido preguntarse lo que ocurrió antes, pues no existiría tal «antes».

No porque los astrónomos y los cosmólogos acepten, en general, la teoría del big bang en su conjunto, dejan de ser conscientes de sus limitaciones. Efectivamente, son varios los fenómenos a los que no da explicación. Así, no nos aclara por qué la curvatura media del espacio-tiempo es tan próxima a cero.

Los astrónomos no han sido capaces de averiguar si vivimos en un Universo cerrado, de curva positiva, o en uno abierto, de curva negativa. Sólo saben que la densidad de la masa en el Universo se sitúa en algún punto comprendido entre una décima parte del valor crítico y diez veces éste. Podría pues decirse que el Universo permanece indeciso en un punto intermedio.

A primera vista, una incertidumbre igual a diez veces en un sentido u otro no parece poderse considerar pequeña. Sin embargo, los cálculos indican que en una época anterior el Universo ha debido encontrarse en un equilibrio mucho más precario. Para hallarse actualmente tan cerca del límite, ha debido expandirse, en el tiempo de Planck, a una velocidad igual a un valor crítico, con una precisión del uno por 1060. De haberse expandido tan sólo algo más despacio, la gravedad hubiera interrumpido rápidamente esta evolución, y el Universo hubiera experimentado un nuevo hundimiento, acompañado de una gran detonación —o big burp (gran eructo), como se ha dado en llamar con cierto sentido del humor—. Y de haberse acelerado algo más de lo conveniente la expansión, la materia se hubiera dispersado a tal velocidad que no se hubieran formado galaxias. Como la velocidad de expansión y la densidad de masa están relacionadas entre sí, se debió llegar a un equilibrio muy preciso para que se creara la densidad que hoy conocemos.

Cuando los físicos dan con una cantidad que tiene un valor muy preciso, generalmente buscan el motivo. Se ha de considerar un fallo el que la teoría del big bang no permita explicar por qué la curvatura media del Universo se aproxima tanto a cero. Ciertamente se podría suponer que es una simple coincidencia, pero no dejaría de ser ésta una forma burda de zanjar la cuestión. Además, tampoco es tan probable que una sencilla coincidencia resulte así de precisa.

Otro de los inconvenientes de la teoría del big bang reside en que no explica por qué la materia está distribuida de modo tan uniforme en el Universo. Es verdad que, a simple vista, no hay tal regularidad, ya que cuando se mira al cielo, no se ve una neblina uniforme, pues la materia parece estar concentrada en las estrellas. Ahora bien, observando el Universo a escala muy grande, se empieza a apreciar esa uniformidad. En cuanto se avanza hacia distancias de mil millones de años luz o más, las galaxias se ven distribuidas de manera bastante homogénea, y se asemejan a los granos de arena en la playa. Si bien a una hormiga le parecerá que los granos de arena son enormes piedras irregularmente distribuidas, para un ser humano que contemple la playa a una distancia de varios centenares de metros, ésta supondrá una superficie relativamente llana y regular. Además, el ambiente de microondas también forma parte del Universo, e incluso es más uniforme que las galaxias. Como ya señalé en su momento, varía aproximadamente en unas tres partes de cada diez mil.

La uniformidad del Universo no parece plantear problemas hasta que se recapacita sobre el hecho de que, según la teoría del big bang, hay sectores importantes del Universo que nunca han estado en contacto uno con otro. Si éste tiene una antigüedad de unos 15.000 millones de años, las regiones del Universo que están separadas por más de 15.000 millones de años luz no pueden influir una en otra. Se tarda 15.000 millones de años en recorrer esa distancia, y las influencias causales no pueden desplazarse a mayor velocidad que la luz. Además, dichas regiones no pudieron haber estado en contacto en el pasado. Durante las fases más remotas de la evolución del Universo, las distancias aplicables eran incluso más reducidas. Así, cuando el Universo tenía un segundo de vida, las regiones que estaban separadas por más de un segundo luz (299.350 km) no estaban en contacto causal.

A pesar de ello, esas regiones distantes tuvieron que estar en contacto para producirse la uniformidad que se observa. Por lo que sabemos, el Universo —al menos visto bajo un punto de vista muy general— se expande en la misma proporción en todas direcciones. A cualquier lado que dirijamos la vista, la materia y la radiación presentan aproximadamente la misma densidad, lo cual induce a pensar que algún factor ha debido influir para que unas regiones tan separadas una de otra actúen de una manera tan perfectamente coordinada.

De hecho, la versión genuina de la teoría del big bang no justifica el que haya galaxias. Cuando se hacen cálculos detallados, se llega a la conclusión de que para formarse galaxias, el Universo debe haber tenido una configuración irregular durante las primeras fases de la expansión. De no ser así, las partículas de materia se hubieran alejado unas de otras antes de que la gravitación les ofreciera la oportunidad de fundirse en galaxias. Pero la teoría no parece poder explicar el motivo de esa irregularidad.

En 1980, el físico Alan H. Guth, del Massachusetts Institute of Technology propuso una nueva hipótesis, una explicación de la teoría del big bang que allanaría algunas de las dificultades. La teoría del Universo inflacionario de Guth es de tipo especulativo, y se basa en otras teorías que también lo son. No obstante, su idea es perfectamente plausible. Aunque hasta ahora no existan pruebas experimentales que la apoyen, presenta cierto atractivo intuitivo.

Para comprender lo que Guth pretende con su teoría, se ha de hacer una digresión y hablar brevemente de las fuerzas existentes en la naturaleza. Los físicos han descubierto cuatro: la gravedad, la fuerza electromagnética, la fuerza nuclear híper energética y la fuerza nuclear hipo energética. La fuerza electromagnética gobierna todos los fenómenos eléctricos conocidos magnéticos, y a ella se debe la radiación electromagnética. La fuerza nuclear híper energética es la que enlaza los protones y los neutrones en los núcleos atómicos, mientras que la fuerza nuclear hipo energética está presente en algunos tipos de procesos nucleares, como la desintegración beta.

Los físicos desearían descubrir una sola teoría que justificara las cuatro fuerzas. De conseguirlo dispondrán de una teoría única que explicará, de forma escueta y precisa, el comportamiento de la materia. Además, cabe esperar que una teoría que abarca las cuatro fuerzas diera a conocer nuevos fenómenos. Al menos, esto es lo que ha ocurrido cuando anteriormente se han elaborado teorías que unificaban las diversas fuerzas de la naturaleza. Así, cuando en el siglo XIX, Maxwell reunió en una teoría las fuerzas eléctricas y magnéticas, no sólo se demostró que la luz era una forma de radiación electromagnética, sino que también se previó la existencia de las ondas radioeléctricas.

En 1967 se relacionaron las fuerzas electromagnéticas y las fuerzas hipo energéticas, cuando el físico estadounidense Steven Weinberg y el físico Pakistani Abdus Salam descubrieron, cada uno por su lado, una forma teórica de unificar ambas interacciones. Desde entonces, se ha confirmado experimentalmente la teoría de Weinberg-Salam. Dicha teoría prevé, entre otras cosas, la existencia de partículas anteriormente desconocidas, y cuya presencia se ha observado luego en el laboratorio.

Los físicos teóricos están intentando actualmente dar un paso más para encontrar la forma de unificar las fuerzas electromagnéticas, las fuerzas hipo energéticas y las híper energéticas (la gravedad plantea dificultades especiales, por lo que es probable que sea la última en integrarse en un esquema teórico unificado). Ya existe cierto número de teorías que intentan llevar a cabo la unificación. El inconveniente de dichas teorías generales unificadas (en inglés, se las llama frecuentemente GUT, por grand unified theories) es su carácter especulativo. Por consiguiente, no se sabe cuál de ellas puede ser correcta, de serlo alguna.

Aunque existan varias teorías de ésas se parecen entre sí, por lo que se puede utilizar indiferentemente una u otra como base de partida para algunos postulados teóricos, sin preocuparse demasiado de cuál tiene visos de ser más correcta. Así, según dichas teorías, el protón, del que se creía antes que era una de las pocas partículas perfectamente estables, se desintegra para formar otras partículas después de 1030 a 1032 años. Los físicos experimentales intentan actualmente demostrarlo en pruebas de laboratorio, sin haberlo conseguido hasta la fecha.

Sería utilísimo disponer de una teoría general unificada para explicar acontecimientos que se produjeron en los primeros tiempos de la historia del Universo. Al fin y al cabo, la finalidad de esas teorías consiste en describir las propiedades de la materia en condiciones híper energéticas, cuando se sabe que la energía de las partículas que existieron durante la primera milésima de segundo después de la creación del Universo es muy superior a la que nunca se pueda producir en un laboratorio.

Desde luego que a Guth le interesaba menos la incidencia de las teorías generales en la aclaración del comportamiento de unas partículas determinadas, que el comportamiento del propio Universo. En su análisis descubrió que, según esas teorías, el Universo debió pasar por una fase de expansión especialmente rápida cuando tenía aproximadamente 10-35 segundos de existencia. Según Guth, se produjo una etapa de expansión inflacionaria de cerca de 10-32 segundos de duración, durante la cual el Universo aumentó de tamaño 1025 veces o más.

De tal forma, la fuente de la mayor parte de la materia y de la energía del Universo actual pudiera estar en la energía que se generó en aquella fase de rápida expansión. Se recordará que en la famosa ecuación de Einstein E = mc2, la materia y la energía son equivalentes. Por consiguiente, la producción de energía ha de llevar a la creación de materia. Guth afirma que para explicar el Universo actual, no se necesita sino dar por sentado que hubo un tiempo en que existió una burbuja caliente y fuertemente curvada de espacio-tiempo que podía contener unas veinte libras (aprox. nueve kilos) de materia; a partir de ahí, todo el resto pudo crearse gracias a la energía desarrollada por la inflación. Guth añade además que la expansión inflacionaria pudiera ser la fuente de toda la materia y la energía. Ni tan siquiera sería necesario suponer que estaban presentes estas veinte libras de materia cuando se inició la inflación. Según él, el Universo podía ser «una fabulosa ganga».

¿Pretende Guth que el Universo pudiera haber sido creado de la nada? Pues sí, y no. Es posible que el Universo se desarrollara desde una porción de espacio-tiempo exenta de materia. Pero eso no es «nada». En la teoría general de la relatividad, la propia curvatura del espacio-tiempo puede constituir una fuente de energía, y los cambios en esa curvatura serían los que generarían materia. Efectivamente, en la teoría de Einstein, el espacio-tiempo puede tener unas propiedades casi materiales.

Aunque la teoría del Universo inflacionario parezca poco realista, eso no ha de servir para criticarla. También lo parecían las teorías de Einstein, cuando las expuso por primera vez; y la mecánica cuántica igualmente. Eso no impidió que luego se confirmaran. Precisamente, a veces sólo las teorías más sorprendentes tienen probabilidades de resultar acertadas, ya que, en ocasiones, se necesita recurrir a nuevas formas de enfocar los procesos que se desarrollan en la naturaleza para tener una oportunidad de vislumbrar lo que ocurre en ésta. Y qué duda cabe que toda nueva forma de pensar choca al principio. Generalmente, los físicos reconocen que ha de ser así. El físico danés Niels Bohr, uno de los fundadores de la mecánica cuántica, criticó en una ocasión una nueva teoría por considerar que no era «lo bastante descabellada».

Aunque todavía no haya la menor prueba de que la teoría de Guth sea válida, la noción de un Universo inflacionario sí parece permitir solucionar algunos de los problemas tan difíciles de manejar si uno se intenta atener a la teoría original del big bang. Efectivamente, resuelve, por ejemplo, el problema del aplanamiento —o sea, por qué la curvatura media del espacio ha de ser tan próxima a cero— con cierta habilidad. Los cálculos demuestran que al final del período inflacionario, el Universo ha debido expandirse exactamente a la velocidad adecuada; esto es el resultado de la dinámica de la inflación. El hecho de que el Universo se aproxime tanto al límite que separa la curvatura general positiva de la negativa es una consecuencia automática de la expansión inflacionaria.

La teoría de Guth también justifica la uniformidad de la expansión y de la distribución de la radiación y la materia. Si el Universo se expandió tanto como se deduce de la teoría de Guth, durante el período inflacionario, eso significa que, antes de iniciarse ese período, tuvo que ser mucho más pequeño de lo que supusieron anteriormente los cosmólogos. Antes de que comenzara la inflación, habrían estado en contacto causal diferentes porciones del Universo, de tal forma que se hubieran compensado las irregularidades del contenido energético del Universo y de su velocidad de expansión.

La teoría no explica con igual suerte la existencia de galaxias. Si bien implica que debieron producirse fluctuaciones durante el período inflacionario, las cuales pudieron dar origen a regiones en las que la densidad de la materia se volviera luego más elevada que la del conjunto, prevé unos conglomerados de materia de mucho mayor tamaño que las galaxias. Pero éste es un problema solucionable. En todo caso, la teoría del Universo inflacionario explica mejor la existencia de galaxias que la teoría original del big bang.

Por último, la teoría de Guth podría explicar el motivo por el cual los físicos aún no han conseguido confirmar la existencia de los monopolos magnéticos. En la teoría original, los monopolos deberían encontrarse en todas partes, mientras que según la del Universo inflacionario, sólo se produjeron unos pocos.

En conjunto, se ha de reconocer que la teoría del Universo inflacionario resulta bastante atractiva. Cuesta creer que una teoría que da explicación a tal cantidad de cosas no contenga al menos algo de verdad. Por supuesto, hasta que no se confirme alguna de las teorías generales unificadas, la del Universo inflacionario carecerá de bases sólidas. Esto no impide que se la deba tomar en serio, porque aunque resulte ser incorrecta en algún aspecto, sí puede abrir vía a una mejor comprensión de algunos de los acontecimientos que se produjeron poco después del big bang.

También sirve para especular sobre temas como el origen de los tiempos. Para eso, se han de imaginar los acontecimientos anteriores al tiempo de Planck. Y teniendo una idea de lo que pudo ocurrir cuando el Universo tenía 10–43 segundos de vida, se puede intentar adivinar lo que pudo acontecer aun antes.

Cuando tratamos de volver la vista más atrás del tiempo de Planck, nos encontramos sin ninguna teoría para guiarnos, porque en esa región del tiempo las condiciones eran tan extremas que las leyes de física dejan de ser aplicables. Pero, si bien se trata de una especulación, tampoco es pura fantasía. No puede uno imaginarse lo que le apetece, sino que se deben contrastar las nuevas ideas con lo que se sabe actualmente de los acontecimientos que se produjeron después del tiempo de Planck.

De ser correcta la teoría del Universo inflacionario, resulta que, a los 10‒43 segundos, el Universo era una burbuja diminuta de espacio-tiempo que contenía escasa materia, o ninguna. Es posible que antes del tiempo de Planck existiera algún tipo de caos primigenio. Por supuesto que semejante caos, de haberlo, no existió ni en el espacio ni en el tiempo, puesto que ni uno ni otro habían sido creados todavía.

Cabe pensar que del caos nacieran unas burbujitas de espacio-tiempo. Algunas se contraerían, otras se expandirían, aunque la mayor parte de ellas debieron desaparecer casi en el momento de formarse. Pero, de tiempo en tiempo (es una forma de decir, puesto que no cabe hablar de intervalos de tiempo cuando éste pudiera no haber existido todavía) algunas de ellas seguirían existiendo durante un período superior al tiempo de Planck. Mientras unas desaparecieron enseguida, otras se siguieron expandiendo lentamente, hasta ser alcanzadas por la expansión inflacionaria que según la teoría de Guth se inició al cabo de unos 10‒35 segundos. Una de esas burbujas se habría transformado en el Universo en el que vivimos actualmente.

Por supuesto, esto lleva a la conclusión de que pueden existir muchísimos más universos, quizá incluso un número infinito de ellos, aunque sin que sea posible precisar «dónde» se encuentran. En definitiva, como cabe imaginar que el espacio-tiempo sólo existe dentro de los universos en cuestión, no tendría sentido aplicarles términos como «dónde» o «cuándo».

Aunque a primera vista quizá sorprenda esta visión de las cosas, en realidad, no hay motivo para que cueste más creer en varios universos que pensar que el nuestro fue el único que jamás se creó. Además, si pudo nacer de esa forma un Universo, qué razón puede haber para que no se dieran las mismas circunstancias un número infinito de veces más.

Tampoco es ésta la única posibilidad. Puede pensarse que nuestro Universo viene existiendo, de una forma u otra, desde un tiempo infinito, sin haberse formado espontáneamente a partir de una burbuja de espacio-tiempo. En el próximo capítulo lo analizaremos más detenidamente. De momento, sólo especulo con la posibilidad de que el tiempo (o, para ser más precisos, el espacio-tiempo) haya podido tener un comienzo y quizá tenga un fin.

Si estamos en un Universo cerrado, no sólo habrá habido un principio, sino que habrá un fin de los tiempos, puesto que un Universo cerrado ha de acabar colapsándose. No se sabe exactamente cuándo, porque los astrónomos no han conseguido todavía determinar con precisión el paso a que se está frenando la expansión del Universo. No obstante, como, al parecer, éste proseguirá su expansión durante algo más de tiempo, de ser cerrado, no empezaría probablemente a contraerse hasta dentro de unos 40.000 o 50.000 millones de años.

La contracción seguiría un proceso muy lento al principio, hasta que al irse acercando cada vez más las galaxias unas a otras, aumentaría la atracción gravitatoria y se precipitaría el colapso. De no haber nada que interrumpiera el proceso, las condiciones volverían a ser, al final, similares a las que se dieron poco después del big bang. Al avanzar la contracción, la materia de que se compone el Universo quedaría en un estado cada vez más comprimido. El hundimiento de un Universo cerrado no se diferencia del de una estrella extinguida que se transforma en agujero negro: toda la materia contenida en el Universo se desintegraría, siendo sustituida por una singularidad o por una región de espacio-tiempo de dimensión más reducida que la distancia de Planck. Si realmente el Universo nació de una burbuja de espacio-tiempo en medio del caos primigenio, el «crujido final» (big crunch) lo devolvería al caos de donde había salido.

Existe igualmente la posibilidad de que se produzcan unos procesos desconocidos que lleven el Universo a «rebotar» y a explotar de nuevo, repitiéndose el big bang. De no ocurrir eso, el big crunch significaría —sin ninguna clase de dudas— el final de los tiempos. Si toda la materia y la energía del Universo se reducen a la nada, es probable que el propio espacio-tiempo deje de existir.

Si, por el contrario, estamos ante un Universo abierto, la expansión actual proseguirá indefinidamente. Las galaxias seguirán alejándose unas de otras; una a una, las estrellas irán extinguiéndose. Se crearán nuevas estrellas, pero, al final, se irá agotando el suministro del gas interestelar de que se componen éstas. Cuando el Universo llegue a la edad de unos 100 billones de años —aproximadamente diez mil veces más viejo que ahora— el cielo se habrá vuelto completamente oscuro.

Al extinguirse las estrellas, algunos de sus planetas se habrán vaporizado durante la fase en que éstas se transforman en gigantes rojas. Los planetas que aún existan saldrán despedidos de sus sistemas estelares por las colisiones interestelares que se producirán al cabo de 1015 o 1017años. Si bien no son muy frecuentes semejantes colisiones, sucederán inevitablemente si el Universo alcanza una época tan avanzada.

Cada una de estas colisiones fortuitas hará que las galaxias pierdan algunas de sus estrellas por evaporación galáctica. Éste es un proceso similar al de la evaporación de moléculas de un líquido. En ambos casos, las colisiones hacen que algunas de las estrellas o de las moléculas adquieran suficiente energía para escapar a la fuerza de atracción del resto A la vez que esas estrellas —pueden representar hasta el 90% en una galaxia tipo— salen en dirección al espacio intergaláctico, las demás estrellas se ven arrastradas hacia los núcleos galácticos. Si bien no se producen actualmente agujeros negros de masa super elevada en el centro de las galaxias, seguramente se formarán en esa etapa de evolución del Universo.

Al cabo de 1018años (un trillón), no quedarán del Universo salvo los residuos de las galaxias hundidas y los diversos objetos que estarán esparcidos por el espacio: estrellas extinguidas, agujeros negros del tamaño de una estrella, planetas y otros objetos más pequeños, como cometas.

Y se podría seguir imaginando incluso más allá. Antes de hacerlo, me voy a desviar algo del tema para dejar sitio a unos breves comentarios en cuanto a la precisión con que se pueden prever los acontecimientos futuros eventuales. Se debe partir necesariamente de que las leyes que se conocen de física siguen siendo aplicables a hechos que acontecerían a lo largo de una inmensa extensión de tiempo. Es evidente que no se tiene la total seguridad de que esto sea así, por lo que siempre que se habla de hechos que acaecerán dentro de 1018 años, el nivel de incertidumbre es muy elevado.

La dificultad estriba en que no tenemos garantías de que las leyes de física permanezcan inmutables a unos plazos de tiempo tan largos. Así, cabe pensar en la posibilidad de que cambie la intensidad de la fuerza de la gravedad, aunque se sabe que la gravedad sólo llegará a volverse más fuerte o más débil gradualmente, al cabo de un proceso muy lento. Se ha demostrado experimentalmente que, de modificarse la fuerza de la gravedad, el cambio debe ser del orden de menos de veinte o treinta partes por billón cada año. Supongamos ahora que la gravedad se esté volviendo más o menos intensa en una proporción demasiado pequeña para detectarla con los medios de que se dispone actualmente. La modificación no supondría ningún cambio apreciable en la estructura del Universo al cabo de mil millones de años, o incluso dentro de 10.000 o 100.000 millones de años, pero si, en vez de eso, se trata de billones o trillones de años, ya cambia por completo el asunto. Así que si estamos decididos a aventurarnos en predicciones, tenemos que suponer que la gravedad seguirá siendo exactamente la misma, y admitir también que no se producirán alteraciones en las demás fuerzas de la naturaleza. Se desconoce la validez de estos puntos de partida.

Cuando se consideran períodos muy extensos de tiempo, también se ha de suponer que no intervendrán procesos desconocidos capaces de falsear los resultados. Tampoco hay forma de averiguarlo. Así, los planteamientos anteriores se basan en que nada afectará a la estabilidad de la materia en general durante los próximos 1018 años. Y pudiera no ser verdad. Por ejemplo, se dijo que los monopolos magnéticos podrían catalizar la desintegración de las partículas nucleares al cabo de largos períodos de tiempo. Pues bien, si realmente existen los monopolos, y si los hay en mayor número de lo que prevé la teoría del Universo inflacionario, esa desintegración podría afectar a la materia mucho antes de que las estrellas empezaran a perder sus planetas, o las galaxias a perder sus estrellas. Y, por supuesto, no hay que descartar que un número indeterminado de procesos desconocidos todavía para nosotros, se puedan desarrollar en nuestro Universo, y afectar también a la futura estabilidad de la materia.

Ahora bien, sin perder de vista todas estas reservas, sigue siendo lícito intentar ver aún más allá en el futuro de un Universo abierto. Tampoco hay nada malo en averiguar hasta dónde se puede llegar de la mano de las teorías que se aceptan hoy día. A pesar de que no nos permitan hacernos una idea del todo precisa, la única otra alternativa que nos queda es tirar la toalla y renunciar a prever nada.

De ser correctos los postulados de las teorías generales unificadas, y si el protón se desintegra al cabo de 1030 a 1022 años, los planetas que sigan existiendo y las estrellas que no se hayan transformado en agujeros negros desaparecerán aproximadamente a la vez. Los protones irán desintegrándose, y las estrellas y los planetas quedarán reducidos a partículas sub nucleares. Muchas de dichas partículas se desintegrarán a su vez, por lo que lo único que quedará del Universo serán agujeros negros, electrones, positrones, neutrinos y antineutrinos, y también alguna radiación de muy débil intensidad.

Tampoco durarán indefinidamente los agujeros negros. Si se les aplica la mecánica cuántica, se llega a la conclusión de que éstos acabarán por evaporarse en forma de chorros de radiaciones y de partículas. Antes de que esto ocurra, ha de pasar un tiempo larguísimo. Los agujeros negros de mayores dimensiones, o sea, los de masa super elevada que se hallan en el centro de las galaxias, sólo desaparecerán al cabo de algo así como 100100años. No obstante, éste será su inevitable destino si son correctos los enunciados de la mecánica cuántica, y si realmente se puede hacer algún tipo de conjetura tratándose de unos hechos que acaecerán después de un período de tiempo 1090 veces superior al que el Universo lleva existiendo.

Con el tiempo, sólo quedarán electrones, positrones, neutrinos, antineutrinos y radiaciones. Luego, al cabo de otros 1070 años más, aproximadamente, los positrones y los electrones se anularán entre sí, y serán sustituidos por chorros de rayos gamma. Mientras tanto, el Universo proseguirá, naturalmente, su expansión. Así, los rayos gamma experimentarán un desplazamiento hacia el rojo, e irán perdiendo energía a medida que se vayan transformando en rayos X, radiaciones ultravioleta, luz visible, radiaciones infrarrojas, y, finalmente, ondas radioeléctricas. Al final, sólo quedarán en el Universo los neutrinos y los antineutrinos, y quizá unos pocos electrones y positrones que no hayan sido anulados. Como la expansión continúa, la distancia entre las partículas irá aumentando hasta que, prácticamente, no quede en el Universo sino espacio vacío.

Así pues, también en un Universo abierto acaba por desaparecer el tiempo. A medida que el espacio se va volviendo cada vez más vacío, y se evapora sin que nada quede de él, dejan de producirse acontecimientos, y sin ellos para marcar el paso del tiempo, este último no se puede medir ni incluso definir. Todavía se podría quizá relacionar el paso del tiempo con la expansión persistente del espacio ya casi vacío, aunque es evidente que ese tipo de tiempo —si efectivamente se le puede llamar así— poco tendrá ya que ver con el que medimos en la Tierra.

Capítulo XII
¿Qué es el tiempo?

Isaac Newton creía saber lo que era el tiempo. Al comienzo de sus Principia, escribió: «El tiempo absoluto, verdadero y matemático, por sí solo, y debido a su propia naturaleza, fluye regular, sin relación con nada exterior a él.»

Hoy sabemos que Newton estaba confundido a varios respectos. El tiempo no es absoluto, es relativo. Tal como lo demuestra la teoría restringida de la relatividad, las mediciones de tiempo dependen del estado de movimiento del observador. Y el tiempo no es una sustancia que «fluye regular, sin relación con nada exterior», ya que, según la teoría general de la relatividad, la presencia de materia crea campos gravitatorios, los cuales originan una dilatación del tiempo.

Finalmente, si el tiempo «fluye», no es con un flujo que pueda medirse con experimentos de laboratorio. El desplazamiento del «ahora» desde el presente al futuro parece ser un fenómeno subjetivo. En física, no existe la noción del «momento presente», y las ecuaciones matemáticas relativas a las leyes y a las teorías físicas sólo se ocupan de los intervalos entre instantes de tiempo. No existe ningún patrón con el que se pueda medir el paso del tiempo. Todo lo más, se puede decir que el tiempo se desplaza hacia delante a un paso de un segundo por segundo, lo cual posee las mismas virtudes aclaratorias que definir la palabra «gato» diciendo que un gato es un gato. Carece igualmente de sentido afirmar que el tiempo «fluye regular». Entonces, si no es uniforme el paso del tiempo, ¿cómo se pueden medir sus irregularidades?

Cuando los físicos hablan de las flechas del tiempo, nada en esa noción tiene que ver con un flujo. Cuando hablamos de las «flechas del tiempo», sólo queremos indicar con eso que el mundo se ve diferente en un sentido del tiempo que en el otro. Intentaré aclararlo con una analogía. Supongamos que una mujer se halle en una playa de espaldas al mar. Si mira de frente a ella hacia la tierra, y luego se gira para mirar al mar, verá las cosas de forma diferente. Habrá una asimetría a lo largo de una de las direcciones del espacio. Sin embargo, el que exista asimetría no significa que haya movimiento en una dirección u otra. El observador lo ve sin necesidad de moverse.

Si no sirve la definición de Newton, ¿cómo se ha de definir el tiempo? No se puede decir que sea algo que define el orden temporal de los acontecimientos. Aun haciendo caso omiso de lo que de circularidad tiene el término «temporal», está la dificultad de que el orden de los acontecimientos en el tiempo depende del estado de movimiento del observador. La relatividad restringida nos dice que si un acontecimiento A precede a un acontecimiento B en el sistema de referencia de un observador, el orden puede invertirse en el sistema de referencia de otro observador.

La mejor solución consiste quizá en considerar el tiempo bajo el punto de vista de la relatividad general y verlo como uno de los elementos de la geometría tetradimensional del espacio-tiempo. Aun así quedan preguntas por contestar. Nadie sabe si el concepto de «tiempo» tiene sentido alguno cuando se entra en la región de Planck. A la escala de 10‒43 segundos o menos, el «tiempo» pudiera dejar de existir. Existe también la alternativa de que, a esa escala, el tiempo estuviera constituido por unas pequeñas partículas, a veces llamadas cronones. Quizá la dimensión del tiempo no tenga una estructura continua y uniforme. Éste bien pudiera componerse de unas partículas tan diminutas que no hayamos sido capaces de detectarlas. O sea, que el tiempo puede estar formado por momentos discretos, sin nada entre ellos.

La teoría general de la relatividad es la que parece ofrecer la definición más completa del tiempo. Y, a pesar de todo, no nos aclara por qué hay flechas del tiempo, ni en qué están relacionadas entre sí. Lo más desconcertante es la relación entre la relatividad general y la flecha del tiempo en termodinámica. Al no estar seguros los físicos de cómo se calcula la entropía de un campo gravitatorio y ni tan siquiera de si se puede aplicar el concepto de entropía a la gravedad, es difícil comprender lo que tiene que ver la dinámica del Universo con la dirección del tiempo.

La presencia de esa dificultad ha contribuido a que se urdieran especulaciones extrañas. Por ejemplo, cabe preguntarse si no pudiera invertirse la flecha del tiempo en un Universo que se estuviera contrayendo. De haber alguna relación entre el aumento de la entropía y la expansión del Universo, habría motivos sobrados para deducir que la entropía disminuiría en un Universo que se estuviera contrayendo. De ahí, que si se sigue utilizando la entropía para definir la flecha del tiempo, se debería concluir que el tiempo empezará a retroceder en cuanto se inicie la fase de contracción.

En esta etapa del Universo, la luz no la emitirían las estrellas, sino que ésta se dirigiría hacia ellas. Los ríos remontarían su curso, y la lluvia subiría desde el suelo en dirección al cielo. Y de vivir todavía seres inteligentes en ese momento de la evolución del Universo, no les sorprendería nada de esto, puesto que sus procesos mentales funcionarían también al revés: pensarían «hacia atrás», por lo que verían los fenómenos exactamente igual que nosotros. Además, verían la contracción del Universo como si fuera una expansión. Volverían la vista hacia el big crunch, que para ellos sería el comienzo del Universo, no el fin.

Si el tiempo se invirtiera en el momento de mayor expansión, sería del todo arbitrario diferenciar un Universo en expansión de otro en expansión. No se podría determinar en qué mitad del Universo se estaría viviendo, ni habría forma de distinguir entre el tiempo hacia el futuro y el tiempo hacia el pasado, puesto que todo dependería del punto de referencia de cada uno. Por consiguiente, en semejante Universo, el tiempo no tendría fin. En vez de eso, tendría dos comienzos. Se puede afirmar sin miedo a confundirse que la mayor parte de los científicos no dan excesivo crédito a esta posibilidad. Si bien se puede imaginar un Universo con dos big bangs y sin big crunch, esa teoría presenta unos problemas de difícil solución. Por ejemplo, imaginemos hallarnos unos pocos millones de años después de que se invirtiera la expansión del Universo. Como también se habría invertido la flecha del tiempo, la luz se emitiría ahora en dirección a las estrellas, y, a la vez, nos seguiría llegando la luz emitida por las estrellas y las galaxias hace cientos o miles de millones de años luz antes. Para el observador que se encontrara en el Universo en el que se hubiera invertido el tiempo, la radiación se dirigiría a la vez hacia el pasado y el futuro. Se llega así a una conclusión bastante paradójica, sobre todo considerando el hecho de que un observador que viviera unos pocos millones de años antes de que se interrumpiera la expansión vería los fenómenos de forma normal.

Aunque se planteen algunos problemas teóricos, no parece ser que haya forma de demostrar que el tiempo no pueda invertirse en el momento de máxima expansión. Intuyo que nuestra incapacidad para excluir semejante posibilidad puede no ser sino un reflejo del escaso conocimiento que tenemos de la naturaleza fundamental del tiempo. Si los físicos tuvieran un mejor conocimiento de la relación entre gravitación y entropía, estarían quizá en condiciones de demostrar que un Universo así de paradójico no podría existir.

Luego, están los problemas de aplicar la segunda ley de la termodinámica al conjunto del Universo. Éste debió nacer en el caos. El caos es, por definición, un estado de elevada entropía (cuando hablamos de «caos», queremos decir mucho desorden). De hecho, aparecieron muchos tipos de estructuras desde que comenzó el Universo. Así es como se formaron las estrellas y las galaxias. Tanto la creación de dicha estructura como el que las estrellas adquieran mayor entropía a medida que consumen su combustible nuclear parecen demostrar que el Universo no está ciertamente en un estado de máxima entropía ahora. ¿Cómo puede ser, si tan elevada era la entropía al principio? ¿Acaso la segunda ley de la termodinámica no dice que la entropía aumenta siempre con el tiempo?

Han sido varios los intentos de dar respuesta a estos interrogantes. Así, en 1983, el físico británico Paul Davies sugirió que la teoría del Universo inflacionario pudiera justificar el estado de entropía relativamente baja en que se halla el Universo. Según Davies, la entropía del Universo habría podido alcanzar su máximo punto en el tiempo de Planck, pero la expansión inflacionaria que se produjo poco después habría creado una «discontinuidad de entropía». Supuso que aunque la entropía aumentara durante la fase de expansión inflacionaria, aumentó aún más la capacidad de entropía. Se podría comparar el incremento de entropía durante esa fase a lo que sería ir echando agua en un recipiente que fuera creciendo a mayor velocidad que el caudal que se pudiera verter en él. Por eso, al final del período inflacionario, la entropía alcanzó mayor nivel que antes, pero sin estar ya próxima al máximo. Davies llegó más lejos en su razonamiento al suponer que era la inflación del Universo lo que determinaba la flecha del tiempo. A su forma de ver, la inflación fue lo que permitió que aumentara la entropía.

Otros físicos son más prudentes. Muchos de ellos piensan que el Universo se originó en un estado de baja entropía, por lo que son varias las hipótesis que se barajan sobre lo que pudo ser ese bajo estado de entropía, sin que por eso se vea próximo el momento en que quede zanjada la controversia. Y hasta que no se resuelva el dilema de la entropía gravitatoria, no se sabrá, en realidad, cuál de esas hipótesis tiene posibilidades de vencer.

A veces, se tiene la sensación de que las investigaciones científicas que ahondan en el tema del tiempo aclaran más lo que el tiempo no es, que lo que es realmente. De hecho, la física revela que la propia noción de tiempo contiene unas contradicciones aparentes difíciles de dilucidar. La teoría restringida de la relatividad nos dice que el tiempo no es una sustancia que «fluye con regularidad» por el Universo. Pero la relatividad general parece implicar, al menos cuando se aplica al Universo inicial, que el espacio-tiempo tiene unas características casi materiales. El hecho de existir flechas del tiempo parece indicar que el tiempo debería tener una dirección definida. Sin embargo, se puede considerar al positrón como si fuera un electrón que estuviera retrocediendo en el tiempo. La segunda ley de la termodinámica parece decir que la flecha del tiempo es un fenómeno macroscópico y estadístico, a pesar de lo cual la asimetría en el tiempo que presenta una partícula única y sin importancia como el mesón K nos demuestra que, a veces, se aprecia también una flecha del tiempo a nivel subatómico. En definitiva, se sabe tan poco sobre el origen de las flechas del tiempo que es imposible demostrar que el tiempo no pueda invertir su dirección en un Universo que se estuviera contrayendo.

Ni tan siquiera se puede decir si el tiempo tiene un origen y un final, o si el Universo que conocemos viene existiendo desde un tiempo infinito. En el capítulo anterior estudié las diferentes formas en que pudiera haber comenzado el Universo, pero, tal como vimos, las teorías que describen su origen se basan principalmente en especulaciones. Es perfectamente posible que el tiempo se extienda hasta el infinito en el pasado, e igualmente en el futuro. Y resulta atractiva bajo el punto de vista filosófico la idea de que el espacio y el tiempo fueran creados cuando se produjo el big bang, pero no por eso se ha de concluir que eso es lo que ocurrió.

Desde los años treinta, los físicos y los cosmólogos vienen tanteando la posibilidad de que el Universo experimentara una serie interminable de expansiones y contracciones. Estas teorías partidarias de un Universo oscilante parten de la base de un Universo cerrado que no queda destruido por un big crunch, sino que, en cierto sentido, «rebota» y explota, produciéndose un nuevo big bang. Nadie sabe, por cierto, de qué forma pudiera rebotar. Tampoco hay motivos para descartar esta eventualidad. Después de todo, cuando uno se encuentra en una situación que presenta muchas incógnitas respecto a lo que pudo ocurrir, es perfectamente lícito recurrir a toda clase de especulaciones. Además, pocas probabilidades habrá de descubrir la gran verdad del Universo si descartamos de antemano cualquier cosa que pudiera resultar verídica.

Si nos remitimos a Alan Guth, la teoría del Universo inflacionario supone que el Universo no puede rebotar hacia atrás después de un big crunch, si bien éste es un tema muy controvertido. El comportamiento que adoptaría el Universo en semejante situación depende de las bases de que parta cada uno, no sabiendo además nadie cuáles de ellas son correctas. Además, cabe la posibilidad de imaginar teorías de la gravedad según las cuales el Universo rebotaría si se contrajera hasta alcanzar un radio mínimo determinado. Esta teoría, por ejemplo, es la que ha elaborado el físico John William Moffatt, de la Universidad de Toronto: es la teoría gravitatoria no simétrica. Aunque resulte algo más complicada que la de Einstein, no se dispone de pruebas experimentales que permitan excluirla, por lo que no se ha de descartar la eventualidad de un Universo que rebote.

Tampoco se contradiría con la teoría general de la relatividad de Einstein, por cierto, mientras el rebote se produjera después de que el Universo se hubiera contraído hasta unas dimensiones menores que la distancia de Planck. Como la relatividad general no alcanza a decirnos lo que ocurre en esa región, también permanece muda en cuanto a si los efectos cuánticos podrían provocar semejante rebote. Quizá sí, o quizá no. No obstante, puesto que nuestro principal empeño consiste en descubrir cuáles pudieran ser las consecuencias de un rebote, más vale seguir adelante, sin preocuparse excesivamente de los detalles del proceso que seguiría.

En un principio, se admite con cierto agrado la idea de un universo que rebote, ya que, de hacerlo, podemos pensar que seguirá existiendo indefinidamente, en cuyo caso no habrá un fin de los tiempos, y el entorno podrá seguir siendo adecuado para el desarrollo de la vida. Ahora bien, cuando uno se pone a pensar que la entropía iría aumentando probablemente de ciclo en ciclo en un Universo oscilante, empiezan a apuntar los problemas. Por medio de cálculos precisos, se ha demostrado que un Universo oscilante en el que la entropía sería creciente no experimentaría ciclos de longitud constante. Con cada ciclo, iría alargándose el tiempo que transcurriría entre el inicio de la expansión y el hundimiento final. Un Universo así se comportaría de forma opuesta a como lo haría una pelota que rebotara. Así como la pelota no alcanza nunca la altura del primer bote en los sucesivos, el Universo oscilante rebotaría cada vez a «mayor altura».

Se ha calculado que de vivir en un Universo así, se han debido suceder ya al menos cien ciclos. Puesto que un centenar de ciclos tienen necesariamente una duración finita, un Universo oscilante debe haber tenido un origen en el tiempo, cuando precisamente una de las cosas que se pretendía evitar con esta teoría del Universo oscilante era caer en ese origen temporal. Por lo tanto, el resultado no es muy satisfactorio, además de que un Universo que rebotara de esa forma no seguiría ofreciendo condiciones favorables al desarrollo de la vida. A medida que fuera aumentando la entropía, irían decreciendo progresivamente las posibilidades de creación de vida en los ciclos sucesivos. También se irían acumulando seguramente los agujeros negros en un Universo oscilante, de suponer, como es probable, que sobrevivirían al rebote. Al final, llegarían a ser muy numerosos, tanto que no quedaría materia suficiente para formar estrellas y galaxias que no estuviera concentrada en los agujeros negros.

No existen pruebas de que no vivamos en un Universo que rebote de tal forma. No obstante, resulta que si queremos especular sobre si el tiempo pudiera no extenderse hacia un pasado infinito, habríamos de modificar algunos de nuestros puntos de partida, o seguir un camino diferente.

Se puede hacer, por supuesto. Así, el físico John Wheeler expone la posibilidad de que cambien las propias leyes de física cada vez que el Universo se hunde y se expande de nuevo. En la teoría del super espacio de Wheeler, el Universo se vuelve a crear bajo una forma distinta en cada ciclo. El hecho de modificarse las leyes naturales hace que no se acumulen la entropía y los agujeros negros, por la sencilla razón que las leyes que rigen el aumento de la entropía y la formación de los agujeros negros cambiarían también cada vez que el Universo experimentara de nuevo un big crunch.

La teoría de Wheeler es evidentemente especulativa, pero, ¿acaso no lo son también las que sostienen que el Universo sólo puede atravesar un solo ciclo, o, al menos, un número reducido de ellos? Ya que no existen pruebas que nos permitan decidir entre éstos, sólo podemos llegar a la conclusión de que no hay forma de averiguar cuándo comenzó el tiempo. Quizá estemos viviendo en un Universo que se creó hace 15.000 millones de años, y cuyo futuro se extiende en el infinito. O pudiéramos estar viviendo en un Universo cerrado que tuvo su origen en su momento determinado, y se acabará en otro momento determinado. O también en un Universo cíclico cualquiera.

Aunque nuestro Universo fuera creado de la nada, y fuera abierto, pudieran existir ciclos de algún tipo. Después de todo, se pudo crear un número muy elevado de universos, quizá un número infinito de ellos, en diferentes ocasiones. Es evidente que éstos no se sucederían en el tiempo ni coexistirían en un sentido temporal. De sólo existir el tiempo dentro de los universos, sería imposible ordenarlos en función de una dimensión temporal. Ahora bien, de haber muchos universos distintos, la situación no sería muy diferente de aquella en la que se sucedieran en el tiempo, un ciclo tras otro.

No es muy riguroso afirmar que lo que ha ocurrido una vez puede volver a suceder infinidad de veces, pero sí incita a pensar que se debería al menos contemplar la posibilidad de que haya otros universos. Por supuesto que cuando se habla de un «universo» en este sentido, ya no se puede definir como «todo lo que existe», y se debería modificar su definición de tal forma que significara «una región independiente del espacio-tiempo». No existe motivo alguno para no hacerlo. Como señaló el Humpty Dumpty de Lewis Carroll, se puede definir una palabra de modo que signifique lo que uno quiere.

Estas mismas razones son las que esgrimen quienes defienden la posible existencia de vida extraterrestre. Puesto que tampoco hay pruebas de que haya o no vida en algún otro lugar del Universo, se suele recalcar que si la vida se desarrolló en la Tierra, también pudo surgir en muchos sitios más. Cuando faltan razones concluyentes, generalmente se tiene que echar mano de las que parecen plausibles.

Quizá el Universo oscile, o quizá no. Pero aunque no lo hiciera, eso no impide que puedan existir muchos universos, algunos de ellos con planetas muy similares a la Tierra. De haberlos, nos encontraríamos con algo bastante parecido a un Universo de tipo cíclico, aunque no se podría decir que el tiempo fuera cíclico en el sentido estricto de la palabra, puesto que los ciclos de acontecimientos no se sucederían uno a otro. A pesar de todo, el tiempo tendría unas características más próximas al tiempo cíclico de los antiguos que al tiempo lineal de la civilización occidental. Este tipo de ciclos se iría repitiendo sin fin.

No pretendo decir con esto que la sabiduría de los antiguos les hiciera ser conscientes de una realidad que sólo ahora empezamos a descubrir. Sería absurdo. Está ampliamente demostrado que la antigua noción de tiempo cíclico fue consecuencia de observar los procesos cíclicos de la naturaleza, como la revolución aparente de las estrellas alrededor de la Tierra, las fases de la Luna y la alternancia de las estaciones, mientras que los conceptos modernos de tiempo cíclico, por el contrario, se asientan en complejas teorías sobre la naturaleza del Universo.

Recordemos, no obstante, que no tenemos la seguridad de que el tiempo sea cíclico, por lo que puede resultar que tanto el tiempo como el Universo supongan un hecho que sólo sucedió una vez. Y tampoco ha de extrañar que no sepamos si es más válida la noción de tiempo cíclico o lineal. Desde luego, cuanto más a fondo se estudia el concepto de tiempo, más son las dudas que surgen, sin poderlas despejar. Tampoco quiero cerrar el tema dando la impresión que nos debe inspirar un temor reverencial la exploración de los misterios del tiempo, pues considero que la mejor forma de acometer un problema difícil consiste en averiguar los interrogantes principales, pese a que éstos no tengan aún respuesta. De hecho, aunque la ciencia no haya ahondado aún lo suficiente en el enigma del tiempo, al menos ha sacado a la luz las preguntas que cabe hacerse al respecto. Y es que para llegar a comprender, es esencial saberse plantear primero las incógnitas.


Notas:
[1] Este ejemplo es mío, no de Heytesbury.
[2] La mecánica es la parte de la física que estudia la acción de la energía y las fuerzas sobre los cuerpo
[3] Así, tenemos la interpretación de la mecánica cuántica, según la cual hay «mundos múltiples», al sostener que el Universo se divide en un par de universos paralelos siempre que se toma una «opción» cuántica. Remitimos al lector a quien le interese esta interpretación a la obra Otros mundos, de Paul Davies publicada en la colección Biblioteca Científica Salvat.
[4] Omito intencionadamente a las mujeres al referirme al Renacimiento, ya que, en esa época, los temas intelectuales todavía estaban exclusivamente reservados a los hombres.
[5] Después de que Einstein publicara su teoría restringida de la relatividad en 1905, se tuvo que modificar ligeramente, ya que la famosa ecuación E = mc2 significa que la masa y la energía son intercambiables. La masa se convierte en energía en un reactor nuclear, o en la explosión de una bomba de hidrógeno, por ejemplo.
[6] Se tratará con mayor detalle la teoría del big bang en los capítulos XI y XII.
[7] La velocidad de rotación de una galaxia está relacionada con la cantidad de masa que contiene, la cual está relacionada, a su vez, con su luminosidad.
[8] Estas duraciones de vida son unos promedios estadísticos similares a las vidas medias de la desintegración radiactiva.
[9] Salvo en el caso de una excepción menor, poco frecuente, de la que se hablará en el capítulo siguiente
[10] Hasta hace relativamente poco, se creía que los neutrinos y los antineutrinos carecían totalmente de masa. Unos experimentos recientes (controvertidos) parecen indicar que no necesariamente es así. No obstante, de tener masa los neutrinos, ésta es sumamente pequeña, lo que dificulta mucho los experimentos con los que se intenta medir. No se han conseguido resultados definitivos hasta la fecha.
[11] La expresión «partícula elemental» no es apropiada, puesto que de acuerdo con la teoría admitida actualmente, la mayor parte de esas partículas están constituidas, en realidad, por una combinación de otras partículas más pequeñas, incluso más fundamentales, llamadas quarks. En mi libro Desmantelamiento del Universo expongo el papel que desempeñan los quarks.
[12] Efectivamente, éste es el «profundo McTaggart» que cita William Butler Yeats, en su poesía «A Bronze Head» (cabeza de bronce).
[13] Por supuesto, no lo verán ocurrir hasta las 9 h 52. puesto que la luz tarda diecisiete minutos en recorrer la distancia que separa la órbita de Marte de la Tierra.
[14] No incide para nada el que la nave se esté acercando a la Tierra o alejando de ella, puesto que la dilatación de tiempo que se producirá no está relacionada con la dirección, sino con la velocidad relativa.
[15] En realidad, ésta es una versión moderna del postulado de Euclides, pues él mismo lo expuso de una manera algo más complicada.
[16] Como Gauss no publicó sus resultados, se atribuye generalmente a Lobachevsky, Bolyai y Riemann el descubrimiento de la geometría no euclidiana.
[17] 10–27 es 1 dividido por 1027.
[18] Cierto es que en esto hay un pequeño fallo: la dilatación del tiempo aminoraría tanto la velocidad de las vibraciones sonoras que ya no se oiría la nota. Quizá más vale ignorarlo para no estropear la anécdota.