Física y berenjenas - Andrés Gomberoff

Física y berenjenas

Andrés Gomberoff

Capítulo 1
El placer de la ciencia

No sé muy bien qué me trajo a esto que llaman «divulgación de la ciencia». Tampoco importa mucho. Los caminos que nos conducen a realizar lo que hacemos suelen ser poco interesantes. Siento, sin embargo, que hay algo enormemente importante en esta empresa. Entiendo que la recomendación viene muy de cerca, pero no hay más remedio: solo los que hacemos divulgación podemos enarbolar sus banderas, para redimir esta actividad que tan pocos practican, y que creo es más necesaria que nunca.

Es extraño. La divulgación científica no se trata, al menos en el sentido usual, de enseñar ciencia. Quizá por esto algunos investigadores lo consideran inútil, una pérdida de tiempo, un subproducto de segunda categoría. Tanto es así, que Carl Sagan, quizá el más célebre divulgador científico de fines del siglo XX, no fue aceptado jamás en la Academia Nacional de Ciencias de los Estados Unidos, a pesar de que era además un connotado astrónomo que publicó cientos de artículos científicos durante su vida. Según el físico y divulgador Chad Orzel, Sagan habría sido acusado de sobresimplificar las ideas en sus escritos para poder llegar a todo público. A pesar de que no conozco los detalles más que por el breve artículo de Orzel, mi defensa de Sagan es absoluta. Probablemente muchos de los científicos de mi generación nunca habrían llegado a la ciencia si no hubiese sido por la brillante serie Cosmos y la personalidad magnética de su conductor. Sagan hizo mucho más por la ciencia contemporánea que muchos de sus críticos colegas, atrayendo a niños y jóvenes que luego brillaron en sus carreras científicas.

La divulgación no solo es importante para atraer a las nuevas generaciones de científicos. También es un modo de retribuir a la sociedad lo que ella misma ha pagado con sus impuestos. Una forma de hacerlo es responder algunas de las preguntas sobre el universo que naturalmente surgen en el público. Porque, aunque muchos lo olviden, esto no se trata solo de avances tecnológicos. La tecnología es un subproducto del corazón de la actividad: la sed de conocimiento, la curiosidad.

El físico norteamericano Richard Feynman tituló El placer de descubrir a un libro en el que reunió diversos textos y entrevistas. Él mismo había renunciado a la Academia de Ciencias que rechazó a Sagan, argumentando que no veía el punto de pertenecer a una organización que pasa la mayor parte de su tiempo decidiendo a quién deja entrar. «No sé nada, pero sé que todo es interesante si entras con suficiente profundidad», decía en el libro. Pocos científicos han plasmado mejor que él la pasión de la actividad científica. Él deja claro que el más importante motor de la ciencia es el placer de practicarla.

Si los científicos están más motivados por la curiosidad, es raro que sea la tecnología la cara visible de la ciencia, como parecen decir la mayor parte de los medios de comunicación. De hecho, las secciones sobre ciencia incluyen, casi siempre, a la tecnología. La ciencia entonces suele quedar escondida en una caja negra desde donde emergen, como por arte de magia, teléfonos celulares, tratamientos para el cáncer y consolas de videojuegos. Hay mucha gente que siente la necesidad de que le expliquen el truco. Es nuestra responsabilidad como científicos hacerlo. Revelarles la belleza de aquello que nos motiva. Mostrar, en definitiva, lo que realmente hacemos.

Paradojalmente, este placer y pasión por la ciencia no son compartidos por muchos. Al contrario, es como si le temieran. Parecen percibir, en particular a la física y a la matemática, como un mal recuerdo escolar. No tengo la más mínima pista de por qué una actividad humana que me ha seducido con tanta fuerza desde mi infancia resulta tan poco atractiva, tan intimidante, tan repulsiva para tantos.

Intuyo, sin embargo, que se trata de una reacción que nosotros mismos hemos generado por la forma que enseñamos ciencia y la comunicamos. Algo que podríamos llamar «el efecto berenjena»: a la mayoría no le gusta, pero no podemos culpar a la berenjena. Es claro que solo puede deberse a la ignorancia que existe de cómo cocinarla. O a la falta de costumbre, por la carencia a la que hemos sido sometidos en nuestra infancia.

La sensación que me provoca el escuchar «odio la física» debe ser muy similar a la de un chef que se esmera en la preparación de una ensalada de berenjenas asadas para sus invitados, y que al final descubre que quedó intacta sobre la mesa. El chef se siente frustrado, no entiende cómo una preparación que provoca tanto placer en él, puede ser despreciada de esa forma por el resto. El chef quiere hablar con la gente. Quiere rogarles que prueben de nuevo, sin prejuicios. Que no se priven de toda esta maravilla. ¡Qué espectacular sería cambiarles su opinión! Sería casi tan placentero como la ensalada misma.

Algo análogo ocurre con la ciencia. El placer del descubrimiento científico no debe estar restringido a los científicos, del mismo modo como la ensalada de berenjenas no debe limitarse al chef. Un ejemplo notable de cómo se experimenta el amor a la ciencia por primera vez, ocurre en las aulas universitarias al comenzar una carrera científica. Cuando nos exponen los grandes descubrimientos de los siglos precedentes, pronto nos damos cuenta de que el proceso mental de comprender estas viejas teorías requiere, necesariamente, una actitud creativa. No basta con escuchar, con memorizar las ideas y las técnicas. Debemos redescubrirlas. Es difícil explicar a quienes no han tenido una experiencia científica cómo ocurre esto. Uno lo ve en los estudiantes, cuando un brillo especial en sus miradas nos revela que sus mentes ya saborean el placer de descubrir.

En literatura se habla en ocasiones del lector activo. O sea, uno que interactúa con el texto. Que se pierde en él a través de túneles que lo llevan a sus propias reflexiones, a su propia historia, a ideas e historias nuevas gatilladas por lo que lee. Es el lector-macho del Cortázar de Rayuela. En la comprensión real de la ciencia solo cabe este tipo de lector. Es típico que en la lectura de un artículo científico tengamos que releer decenas de veces un párrafo, y que entre lectura y lectura hagamos nuestros propios cálculos en un cuaderno, hasta lograr «reproducir» el resultado. El científico está acostumbrado a la lectura activa, quizá más que ningún otro lector en el espectro intelectual humano.

Curiosamente, Julio Cortázar era un gran lector de ciencia. En una entrevista que dio a Sara Castro-Klaren, en 1976, afirmó: «A lo largo de mi vida, siempre que he podido acercarme a esos artículos de divulgación en donde problemas de física pura o alta matemática son presentados de manera que alguien como yo, que ignora la física y las matemáticas, puede, de todas maneras, tener una idea global y general de la cosa, los he leído siempre apasionadamente, porque su reflejo sobre la literatura me parece evidente y total… estoy contento de haber hecho ese turismo de la ciencia».

El científico que aprende una nueva teoría, al igual que el lector-macho de Cortázar, no está conociendo. Está reconociendo. Algo similar debemos inducir en el público si pretendemos que experimente el sabor de la ciencia.

Ahora bien, es muy difícil llevar al público que no pretende una comprensión detallada de la ciencia, a experimentar esta sensación de descubrimiento. Podemos, sin embargo, intentar que redescubran pequeñas ideas, y contarles otras como en un cuento. El editor de Breve historia del tiempo de Stephen Hawking le decía que cada ecuación bajaría a la mitad el número de lectores. Yo creo que cada párrafo que requiere de más de una lectura tendrá igual desenlace. Allí reside entonces el gran desafío de la divulgación: inducir al lector a releer un párrafo mientras redescubre, al menos en parte, una idea científica.

Acaso así logramos que el lector viva esa urgencia que despierta la curiosidad y el placer de encontrar la respuesta. Y podamos entregar ideas simples y profundas en un contexto interesante. Quizá llegue a comer, al menos en pequeñas dosis, un poco de berenjena.

Esto es radicalmente distinto de lo que hace normalmente el periodismo científico en los medios, en donde la ciencia es esa intimidante caja negra que se mira desde la sensualidad de un teléfono celular. Por otra parte, son pocos los periodistas que pueden transmitir ideas científicas, pues son pocos —aunque los hay— los que las comprenden. Es por esto que la divulgación científica debe estar, principalmente, en manos de científicos. Es algo que ya se ha entendido bien en el mundo. Incluso en Chile, desde hace algunos años, la mayoría de los fondos públicos de financiamiento de la ciencia están exigiendo que una fracción de estos sea destinada a la divulgación.

Y si, después de todo, el placer de la berenjena no es suficiente, podemos hablar también de su valor nutritivo. De que más que una caja negra, es un sombrero negro en un show de magia. Uno que, en efecto, ha producido más magia de la que cualquier hechicero hubiese podido soñar. Nos ha permitido volar, pararnos en la superficie lunar, conocer la edad del universo, comunicarnos a través del vacío a lo largo de distancias enormes. Un sombrero abierto cuyos trucos están a la vista para todos los que deseen observar. Magia basada en evidencias, en los más prolijos razonamientos, y no por eso menos sorprendente. Magia real. La magia de la naturaleza y de la experiencia que una mirada cuidadosa sobre ella nos puede dar. Una mirada que nos entrega herramientas poderosas no solo para la actividad científica. Como el deporte, debería ser practicada de una forma u otra por toda la sociedad y no solo por especialistas. Porque creo que es incluso más sana que el deporte mismo; la ciencia es demasiado importante como para dejarla en manos de los científicos.

Capítulo 2
¡A su salud, Mr. Joule!

Contenido:
§. Del calor al sudor
§. La obsesión de Joule
§. La conservación de la energía

Necesito una cerveza. Son las seis de la tarde y el calor embiste cruelmente sobre Santiago. No corre ni siquiera una pequeña brisa para defenderse. Caminar por el campus hacia los estacionamientos resulta una tarea heroica. Me subo al auto con el corazón acelerado y empapado de sudor. ¿Qué me está pasando?, ¿qué es esto que llamo calor?, ¿por qué transpiro?, ¿por qué este urgente deseo de líquido y de viento? Las respuestas a estas angustias requieren retroceder al año 1842 y viajar a Salford, en las afueras de Manchester, Inglaterra. Ese pueblo albergaba la que, en mi opinión, es la cervecería más importante que haya existido en la historia. No solo por sus productos estrella —una stout fuerte, oscura, de cremosa espuma, y una pale ale ambarina de delicadas burbujas que mi garganta sueña con sentir pasar—, sino sobre todo por su administrador, James Prescott Joule, hijo del propietario y quien dedicó su vida, más que a la cerveza, a la búsqueda de la naturaleza del calor. A través de meticulosos y sofisticados experimentos que hacía temprano en la mañana antes de abrir la cervecería, o tarde en la noche después del cierre, Joule resolvió el más profundo de los misterios que escondía este calor que hoy me abrasa: el hijo del cervecero demostró que no es más que una de las manifestaciones de esa moneda de cambio de la naturaleza que llamamos energía.

§. Del calor al sudor
Al observar el comportamiento del calor, la primera impresión que nos sugiere es la de un fluido. Una sustancia inmaterial que fluye desde cuerpos calientes a fríos como el agua de un río cae desde zonas elevadas a zonas bajas. Así, en días tórridos sentimos la necesidad de lanzarnos a la piscina buscando que fluya calor desde nuestro cuerpo hacia el agua para enfriarnos. En el siglo XVIII este era el punto de vista más difundido y exitoso para describir el calor. El «fluido calórico» se veía como indestructible, esto es, si disminuía en un cuerpo era solo porque pasaba a otro. La cantidad de fluido calórico de un objeto se podía medir, por ejemplo, en calorías. Una caloría es la cantidad de calor necesaria para elevar en un grado la temperatura de un gramo de agua.

Pero había fenómenos extraños que la teoría no explicaba en forma satisfactoria. ¿Por qué si nos frotamos las manos se calientan?, ¿de dónde viene el fluido calórico en este caso, si no se podía crear? Se pensaba entonces que los objetos poseían calor «latente», el cual era liberado, por ejemplo, al quemarlos. Pero el caso del calor producido por fricción era más problemático, pues parecía una fuente inagotable. Podíamos producirlo siempre, cada vez que quisiéramos. ¿De dónde venía exactamente este calor?

La máxima obra sobre el calor que existía en tiempos de Joule tenía un nombre extraordinario: Reflexiones sobre la fuerza motriz del fuego. Su autor fue el joven ingeniero militar Sadi Carnot, hijo del último jefe de gabinete de Napoleón, y con ella se convirtió en uno de los más grandes pensadores franceses de su época. A pesar de que hoy —gracias a Joule— sabemos que el calor no es un fluido indestructible, pensarlo de esa forma puede resultar útil para ciertas aplicaciones. Como Carnot, quien por su formación profesional tenía un objetivo preciso: mejorar la eficiencia de los motores de vapor. Para ello desarrolló toda una teoría del calor en torno a un motor ideal imaginario. Uno que demostró, con argumentos matemáticos, que no podía ser superado en eficiencia por ningún otro. Carnot imaginaba cualquier motor como el análogo a un molino hidráulico, similar al que se podría usar para moler la malta que verá nacer nuestra soñada cerveza. El calor fluía desde las temperaturas altas de la caldera a las bajas del radiador, y en medio de esta corriente calórica había una rueda del molino accionada por el flujo. A pesar de que aún no existía una teoría satisfactoria del calor, y que muchas de las ideas de la época sobre el mismo eran erróneas, al joven Carnot le bastó con algunos ingredientes de lo que sería la futura teoría del calor para trazar los elementos básicos de operación de un motor, independiente de su naturaleza, del tipo de combustible que utilice o de su mecánica. Uno de los ejercicios de síntesis más extraordinarios de la historia intelectual humana. En el caso del motor a vapor, por ejemplo, la función de la rueda de molino es asumida por pistones o turbinas. El modelo imaginado por Carnot estará siempre tras cualquier motor que diseñemos, limitando su eficiencia, no importa cuánto avance la tecnología. Es así como, a pesar de varios misterios aún por resolver, la teoría calórica liderada por este francés conquistaba todos los terrenos científicos de la época.

Dada la imposibilidad de acceder a una Joule’s pale ale, termino tomando la versión local en una cervecería de Ñuñoa, que por suerte tiene ventiladores para paliar el calor reinante. Observo cómo las burbujas se elevan desde el fondo del vaso, en perfectas filas que se hinchan hasta detenerse en la espuma. Se trata de esferas de dióxido de carbono que las levaduras produjeron junto con alcohol, a partir de los azúcares de la malta, en el proceso de fermentación. Fue el escocés Joseph Black quien primero estudió sistemáticamente este gas. Lo llamaba «aire fijo». Fue Black también quien mostró que para que el agua se transformara en vapor era necesario que absorbiera cierta cantidad de calor. En este caso, curiosamente, el calor no origina un aumento de temperatura. En cambio, el calor absorbido —llamado «calor latente»—, le permite vaporizarse, esto es, escapar del líquido para emprender vuelo hacia la atmósfera en forma de vapor. Esta observación explica un par de fenómenos trascendentales para un día de calor. La transpiración, para no ir más lejos, utiliza esta idea para defender al organismo de las altas temperaturas. Cuando una gota de sudor se evapora, absorbe desde nuestra piel el calor que necesita para escaparse de nuestro cuerpo, y así nos enfría. Si ha estado en un sauna conocerá el poder de este mecanismo. Podemos permanecer largo tiempo a más de 100 °C sin problema alguno. Sin embargo, no podemos bañarnos en una piscina de agua que hierve a esa misma temperatura, porque dentro del agua el sudor no puede evaporarse (además de que el agua conduce el calor mucho mejor que el aire). Por eso cuando hace calor transpiramos, perdemos agua, tenemos sed.

§. La obsesión de Joule
James Prescott Joule no había tenido una formación universitaria tradicional. Pero, como miembro de una familia adinerada, gozaba de la tranquilidad y el dinero necesarios para hacer de la ciencia un hobby muy serio, al que terminó dedicando más horas que a su trabajo. De todas formas, su formación académica tampoco había sido tan descuidada. Su padre contrataba a los mejores profesores de Manchester para darle clases particulares. Incluso recibió lecciones de matemáticas de John Dalton (el «daltónico»), uno de los fundadores de la teoría atómica.

Joule estaba obsesionado con la idea de que el calor era una forma de energía, y por lo tanto era posible transformarlo en trabajo mecánico, por ejemplo, y viceversa. Al martillar un clavo, parte de la energía del movimiento se transformaba en el calor que elevaba la temperatura del clavo. Lo mismo en el caso de la fricción que producen los frenos sobre una rueda para frenarla, calentándose. El movimiento puede transformarse en calor. Pero también podemos hacerlo al revés: transformar calor en movimiento. En un motor a vapor, el calor generado en la caldera se transforma en el movimiento del tren. Para reafirmar sus ideas, Joule diseñó una serie de experimentos muy cuidadosos, en los que mostraba cómo podía transformar distintas formas de energía en calor. En el más célebre, dejaba caer pesos que colgaban de cuerdas, que a su vez accionaban una hélice dentro de un contenedor de agua. Medía la temperatura del agua antes y después de la acción de la hélice, para descubrir que había aumentado en una pequeña fracción: la energía potencial de los pesos se había transformado en calor. Pero las diferencias de temperatura que Joule era capaz de medir eran tan pequeñas que la comunidad científica recibió con mucho escepticismo sus experimentos.

Es probable que su experiencia en la cervecería lo haya ayudado a confeccionar los termómetros de precisión más exactos de la época. Se dice que su obsesión llegaba a tal punto que llevó uno de estos termómetros a su luna de miel. En el lugar elegido había una cascada. Joule pasó buena parte de su estadía midiendo la temperatura del agua antes y después de caer por ella, debiendo ser mayor más abajo, ya que había recibido energía extra en la caída. Tenía razón, pero ni sus mejores termómetros eran capaces de detectar la diferencia. No sabemos qué opinaba su flamante esposa sobre el tema.

Joule fue capaz de calentar agua batiéndola con una pequeña hélice. ¿Cómo explico entonces la frescura que siento cuando uno de los ventiladores de este bar ñuñoíno me apunta en la frente? ¿No debería acaso calentar el aire de esta habitación, al igual que las hélices de Joule? Exacto. ¡Es precisamente lo que hace!

El ventilador calienta el aire, pero en una cantidad demasiado pequeña para notarlo. Mucho más importante es que la corriente de aire que produce facilita la evaporación del sudor humano, haciendo más eficiente el mecanismo natural de enfriamiento que describí antes. Sucede que el viento arrastra la capa de aire húmedo que se ha formado justo sobre mi frente, debido también a la transpiración, y que obstaculiza la evaporación del sudor. Para convencerse de este fenómeno empape con alcohol algún punto de su piel. La evaporación del alcohol es más rápida que la del agua, por lo que la sensación de frescura es más evidente. Ahora sople: aún mejor, ¿no?

§. La conservación de la energía
Más o menos por la misma época en que Joule mostraba la equivalencia entre calor y energía, otro físico amateur, el médico alemán Julius von Mayer, llegaba a la misma conclusión. Él, sin embargo, no disponía de los recursos experimentales que permitieron a Joule demostrar la equivalencia sin lugar a ninguna duda. Pero Mayer hizo algo más. Fue uno de los primeros en proponer la conservación de la energía, uno de los principios fundamentales de la física hasta nuestros días. Con esto, podemos reinterpretar las teorías de Carnot de otro modo. El calor no es un flujo indestructible que puede generar movimiento al fluir desde la caldera hasta el radiador. Lo que realmente sucede es que parte del calor creado en la caldera se transforma en movimiento, y otra parte sigue su camino hacia el radiador. El calor sí se destruye, pues se convierte en otras formas de energía; la energía no. Esto es lo que se conoce como la primera ley de la termodinámica.

Mayer se inspiró cuando navegaba en el océano Índico, cerca de Java. En el siglo XIX todavía la ciencia médica tenía bastante poco de ciencia y la práctica de la «sangría», en que al paciente se le infligían heridas para que manara sangre, era uno de los tratamientos más comunes. El médico alemán observó que la sangre venosa de sus pacientes (que es más azulosa por su carencia de oxígeno) era mucho más roja cuando se encontraban en los climas tropicales que cuando volvían a los climas fríos del norte. Dedujo entonces que para mantener la temperatura a 37 °C el organismo requería consumir menos oxígeno cuando la temperatura exterior era más elevada, así la sangre venosa aún contenía suficiente oxígeno como para enrojecerla. Requerir menos oxígeno implicaba un menor consumo de la energía procedente de los alimentos, pensaba Mayer, que intuía que la temperatura del cuerpo debía provenir del metabolismo de estos. Como Joule, estaba convencido que el calor era una forma de energía.

Joule murió en octubre de 1889 y fue enterrado en Brooklands, Manchester. En su lápida está inscrito un número —772,55—, una buena manera de recordar al científico: es que el resultado final de Joule nos dice que la energía necesaria para subir en un grado Fahrenheit la temperatura de una libra de agua es equivalente a la requerida para levantar un peso de 772,55 libras a un pie de altura. Traducido a unidades modernas, la energía necesaria para elevar en un grado Celsius un litro de agua es la misma que necesitamos para elevar en un metro la altura de un objeto de media tonelada. Así estableció la equivalencia entre calor y energía.

Pero ¿dónde está esa energía? La respuesta la discutiremos con detalle más adelante en «Todo lo que perdemos», pero aquí un adelanto. Miremos la materia, esta cerveza por ejemplo, a escalas muy pequeñas, digamos, aumentando la escena de tamaño en mil millones de veces. Veremos un conjunto enorme de distintas moléculas o agrupaciones de átomos, principalmente de agua. Veremos cómo se mueven a grandes velocidades en todas direcciones, chocando unas con otras, vibrando o rotando como pequeños trompos. La energía calórica no es otra cosa que esta vívida agitación molecular. Mientras más energía, más agitación. Pienso en las moléculas de mi cerveza y de cómo poco a poco la agitación de sus moléculas aumenta. Me la tomo de un trago antes de que se caliente más. Miro al administrador del bar. Un hombre calvo, de contextura gruesa y frondosa barba. Imagino que es Joule. Me pregunto qué querría decirle si así fuera. En un momento cruzamos miradas. Levanto el schop. ¡A su salud, Mr. Joule!

Capítulo 3
Crítica de la sinrazón pura

Aquel fue un gran día a pesar del frío inesperado. En la mañana, el horóscopo me informaba con entusiasmo que la luna estaba ingresando en mi signo, y aunque no supe de qué hablaba, sonaba optimista. En la misma página del diario decía que el día estaría soleado y con temperaturas de entre 15 y 28 grados, por lo que salí sin abrigo.

Es extraño que el pronóstico meteorológico esté en la misma página que el horóscopo. Después de todo, la meteorología es una ciencia activa y distinguida, mientras que la astrología es solo una seudociencia, despreciada por las élites pensantes, al menos en la sociedad occidental. En este prestigioso matutino, las dos actividades conviven en una paz sospechosa, como si ambas predicciones fueran producto de procesos similares de actividad intelectual humana. ¿Y lo son? ¡Absolutamente no! El hecho de que el pronóstico meteorológico no tenga una efectividad absoluta es una característica intrínseca de esta ciencia. La astrología, en cambio, es solo un juego de azar. Nos puede entretener, pero si da en el clavo será tan impresionante como ganarse una rifa del curso de una sobrina. Y me atrevo a ir más allá: lo más probable es que, por mucho que busque, no encuentre nada de utilidad en ninguna de las ramas de la seudociencia, ni siquiera en aquellas de mayor pedigrí social, como la homeopatía o las flores de Bach.

Quizá esto parezca la típica arrogancia del científico que no ve más allá de los límites de su muy acotada área de especialización. Después de todo, como me decía una señorita en un evento social hace poco, cada uno cree en lo que quiere. «Tú tienes fe en la ciencia tradicional, el método científico. Yo tengo fe en la medicina alternativa». Y claro, en una sociedad libre cada uno puede pensar o creer lo que quiera, pero no por eso cualquier idea tiene el mismo valor. La ciencia consiste, en buena medida, en distinguir las buenas ideas de la charlatanería o la tontera. Lo hace enfrentándolas a la experimentación y evaluando su lógica interna. Las ideas son fruto de la creatividad y deben ser todas aceptadas en tanto no contengan fallas lógicas, pero luego deben ponerse a merced del escrutinio de la realidad. Esto es lo que algunos llaman método científico.

Por ejemplo, usted puede creer el mito de que la palta no se pondrá negra si la muele y luego pone el cuesco encima. En este caso puede fácilmente hacer un experimento. Muela cuatro paltas. Deje una con el cuesco, otra tápela con papel de aluminio, otra cúbrala con jugo de limón, y sobre la última coloque cualquier objeto, digamos un pendrive. Descubrirá que el aluminio y el jugo de limón son lo mejor para retardar la oxidación de la fruta. En segundo lugar habrá probablemente un empate entre su pendrive y el cuesco.

Digamos que usted ve esto con sus propios ojos. Digamos que también lo hace su vecino y su tía que vive en Milán y todos llegan a la misma conclusión: ¿es una cosa de fe seguir creyendo en este mito? No. Seguir creyendo es obstinación y bobería.

Ahora un ejemplo en relación con la lógica interna de las ideas.

Desde hace un tiempo, algunas compañías cosméticas intentan vender cremas que contienen baba de caracol. Dicen que, al igual como esta sustancia regenera los tejidos del caracol, incluyendo su concha, regenerará también nuestra piel. No tengo evidencia ni a favor ni en contra de este producto, pero la consistencia interna de este razonamiento deja mucho que desear. No porque el cemento les dé firmeza a las paredes de su casa se desprende que es recomendable para lavarse los dientes, porque eso fortalecería el esmalte.

La ciencia no demuestra nada. La ciencia simplemente recolecta evidencias, y a partir de ellas construye teorías. El conocimiento científico nunca es «la verdad». Por el contrario, el tiempo suele echar abajo viejas ideas en favor de otras que retratan mejor la realidad. Por eso es que, cuando alguien intenta apoyar una seudociencia diciendo «pero mira, si es una ciencia milenaria», yo desconfío aún más.

Basta estimar la tasa de mortalidad infantil hace mil años para darse cuenta de que las ciencias no son buenas por ser milenarias. Las ideas deben evolucionar a la luz de las evidencias que el tiempo y las nuevas técnicas nos entregan. El gran físico norteamericano Richard Feynman decía que la ciencia no consiste en probar qué es posible y qué no lo es, sino en afirmar qué es más probable. Sobre la existencia de ovnis, por ejemplo, dijo Feynman: «Partiendo de mi conocimiento del mundo que me rodea, creo que es mucho más probable que los informes sobre platillos voladores sean el resultado de las conocidas características irracionales de la inteligencia terrestre que de los desconocidos esfuerzos racionales de la inteligencia extraterrestre».

En experimentos controlados ninguna seudociencia ha podido mostrar su eficacia, y por eso sus virtudes aparecen como muy improbables. De hecho, cualquier evidencia positiva de algunos de estos procedimientos sería inmediatamente incorporada por la ciencia. La aspirina, para no ir más lejos, es un principio activo que se encuentra en la corteza del sauce, y distintas medicinas antiguas lo venían usando para calmar los dolores antes de que la ciencia moderna lo sintetizara e hiciera suya en el siglo XVIII.

En el caso de la salud, hay una explicación científica para la credibilidad social en la «medicina alternativa». Es sabido que cualquier sustancia que un médico le suministre a un paciente le producirá un alivio inicial a sus dolencias, sin importar si se trata de un tratamiento eficaz o de una cápsula llena de azúcar. Si la enfermedad tiene un origen psicosomático, los resultados pueden ser muy impresionantes. Este es el efecto placebo, y explica por qué cualquier tratamiento dará un buen resultado inicial si el paciente tiene confianza en él.

La medicina alternativa se basa casi completamente en este efecto. Es más, recurrir al placebo se considera poco ético entre los profesionales de la salud. Por lo tanto, su uso es monopolio de charlatanes.

Lamentablemente, la seudociencia no es una actividad marginal. En el mundo, el negocio de la medicina alternativa, por ejemplo, mueve cerca de 40 000 millones de dólares anuales. Parte importante de la población parece querer creer en ella, a pesar de vivir inmersas en la tecnología que provee esa misma ciencia de la que desconfía. Esta necesidad de creer es peligrosa, pues nos despoja del escepticismo necesario para tomar decisiones en todo ámbito, desde el doméstico hasta el político.

El método científico no es una opción. Es el método humano. Es lo que usted hace cuando compra pescado. Si huele mal no habrá acto de fe que lo induzca a comprarlo, no importa el cuento que le relate el vendedor. La ciencia es —idealmente— una actividad sin prejuicios, la más democrática y globalizada de las actividades humanas. Es, además, una actividad competitiva, donde la falta de probidad o profesionalismo es rápidamente castigada.

Mi horóscopo para aquel día había sido optimista. Particularmente cuando hablaba de mi salud. Estaba en lo correcto, ese día me sentí maravillosamente bien. Pero era igualmente optimista para la salud de las más de doce mil personas de mi signo que, de acuerdo a las estadísticas mundiales, murieron ese mismo día.

Capítulo 4
El sabor del universo

Contenido:
§. El aroma del vino
§. Los insípidos del grupo
§. Las estrellas y la alta cocina
§. ¿Por qué los berros son verdes?
§. Atún con hierro, ostras con zinc

La chica era aburrida. Yo solo miraba el tártaro de atún, las ostras, la ensalada de berros y mi copa de pinot noir. La chica era aburrida, no paraba de hablar y yo fingía escucharla. Rogaba que comiera un bocado. Que comenzara la exploración gastronómica que mi buena educación no me permitía inaugurar. Las ostras pequeñas, claras y firmes; el atún de un profundo y brillante color rojo, solo comparable al del vino, del que emergía toda clase de exquisitos aromas. La chica hablaba, pero el lenguaje de la comida me resultaba más atractivo y conmovedor. Allí no solo había sabores, aromas, colores y texturas cuidadosamente preparados por un inspirado chef; no solo estaba el remedio para calmar mi hambre. Allí residía toda la historia del universo: catorce mil millones de años de evolución cósmica impresos en una entrada.

Todo comenzó en una gran explosión, el Big Bang, con un universo infinitamente denso y caliente. Como vimos en el primer capítulo, la temperatura es sinónimo de movimiento. Al principio, el universo era una ardiente sopa de partículas elementales moviéndose a grandes velocidades, chocando violentamente unas con otras. Tanta histeria primigenia no permitía formar estructuras de ningún tipo. Pero, a medida que el universo se expande, se enfría y comienzan a surgir estructuras más complejas.

Así, cuando transcurrió la primera diezmilésima del primer segundo, la temperatura había descendido lo suficiente para que los quarks se agruparan y formaran protones y neutrones, los constituyentes básicos del núcleo atómico. Y son precisamente los protones los que proveen a ese pinot noir de la acidez que tan bien se lleva con la salinidad de las ostras.

Los protones, partículas de carga eléctrica positiva, son el núcleo del átomo más liviano y abundante en la naturaleza: el hidrógeno. Sin embargo, aún faltaban trescientos mil años de evolución cósmica para que la temperatura fuese suficientemente fría y permitiera a los núcleos capturar electrones y formar átomos.

Antes de cumplir un segundo de vida, el universo ya había sintetizado el sabor predominante de este pinot noir. Químicamente, la acidez es una medida de la cantidad de protones —o iones de hidrógeno, como los llaman los químicos— disponible en una disolución. El compuesto que entregan esos deliciosos iones, y que en este caso se trata principalmente de ácido tartárico, aún no podía fabricarse en este universo inmaduro. Pero era cosa de esperar algunos miles de millones de años, que avanzarían veloces en nuestra cósmica aventura.

§. El aroma del vino
La chica aburrida toma la copa. Y yo por fin puedo responder a la llamada de ese perfumado pinot noir. Un buen vino es una antología de aromas. Muchos presentes en la fruta original, pero la mayoría desarrollados durante la vinificación. El aroma proviene de moléculas pequeñas y livianas que fácilmente escapan de la superficie del líquido y se desplazan en el aire hasta entrar en nuestra nariz. Los químicos los llaman «compuestos orgánicos volátiles», y son distintas estructuras formadas principalmente por átomos de hidrógeno, oxígeno, carbono y nitrógeno. El vino contiene más de cuatrocientas moléculas de este tipo, lo que explica su complejidad aromática. Muchas están presentes también en otras frutas, en flores, e incluso en el humo o en el cuero. Por eso los aromas del vino son tan evocadores. Incluso, cuando bebemos el vino, buena parte de la experiencia de sabor es en realidad aromática. Nuestro sistema olfativo percibe los olores desde la cavidad bucal, lo que explica por qué cuando estamos resfriados la congestión nasal disminuye enormemente nuestra capacidad para detectar sabores.

Desafortunadamente, el universo temprano no disponía aún de los átomos necesarios para aromatizar nuestra copa de vino.

§. Los insípidos del grupo
El universo continuaba expandiéndose y enfriándose. Y antes de concluir sus tres primeros minutos de existencia ya se habían creado, junto con los protones o núcleos de hidrógeno, la mayor parte de los de helio, además de pequeñas cantidades de litio y berilio.

A pesar de que los protones se repelen eléctricamente, en ocasiones, debido a las grandes velocidades que llevan, pueden llegar a acercarse lo suficiente para que las fuerzas nucleares atractivas comiencen a dominar. Si eso ocurre, quedarán adheridos para formar un núcleo más grande, en este caso de helio. Este método de crear núcleos grandes a partir de otros más pequeños se denomina fusión nuclear. El helio, en su forma más común, tiene un núcleo que contiene dos protones además de dos neutrones, partículas similares al protón pero sin carga eléctrica y que también experimentan fuerzas nucleares atractivas.

El helio, en todo caso, es un elemento aburrido e insípido, pues siempre anda protegido por una rígida capa de electrones y no interactúa con nada. Tampoco con los receptores de nuestras papilas gustativas. Es un poco como la chica aburrida, que en este momento se levanta, un poco molesta, probablemente para ir al baño.

Cuando hay tres protones y algunos neutrones, tenemos litio (el número de neutrones puede variar, pero el nombre del elemento depende de los protones). No conozco aplicaciones culinarias del litio, aunque muchos lo ingieren copiosamente para calmar trastornos psiquiátricos. Tampoco conozco usos gastronómicos del berilio, que se obtiene al fusionar cuatro protones y algunos neutrones. Como se ve, el universo temprano no era gastronómicamente muy interesante. Solo acidez y psicofármacos. Tendrían que pasar unos mil millones de años más para que se crearan las primeras estrellas, las grandes alquimistas del universo, y la historia culinaria del cosmos comenzara su época de oro.

§. Las estrellas y la alta cocina
Por la época en que se formó el berilio, el universo ya estaba demasiado frío. Los núcleos se movían muy lento como para permitir que se fusionaran elementos más pesados. La repulsión eléctrica se imponía. Pero la naturaleza nos tenía preparada otra forma, mucho más eficiente, de crear complejidad química. Así es como cientos de miles de años después, las grandes masas de estos gases elementales, principalmente de átomos de hidrógeno, comienzan a acercarse gracias a la fuerza de gravedad. La densidad del gas comienza a concentrarse en ciertas regiones, lo cual, a su vez, aumenta su poder de atracción gravitacional haciendo que llegue más material allí. Así, poco a poco, nacen las primeras estrellas. Una gran bola de hidrógeno querrá caer, colapsar hacia adentro por su propio peso. Sin embargo, la fusión nuclear será nuevamente protagonista de esta historia. Los átomos de las regiones centrales de la estrella están sometidos a grandes presiones y temperaturas, por lo que sus núcleos comienzan a fusionarse formando helio.

Este proceso de fusión libera energía —la bomba de hidrógeno es la más triste demostración de esto—, lo que calienta el gas, provocando la presión que evita el colapso de la estrella. El hecho que la temperatura aumenta la presión de un gas es conocido, y podemos experimentarlo metiendo un huevo crudo en el microondas y observando cómo la presión hace estallar su cáscara. La presión que produce la temperatura se debe a la agitación de las moléculas en el huevo, que golpean cada vez más enérgicamente la pared interior de este. Así, en términos bien generales, podemos decir que la presión en la estrella empuja la materia hacia afuera, compitiendo con la fuerza de gravedad que la empuja hacia adentro. Estas fuerzas se anulan y eso permite la existencia de una estrella estable y brillante como nuestro Sol.

Pero todo combustible se termina. Y cuando la región central de la estrella ha agotado el hidrógeno, se queda sin su principal proveedor de energía térmica. La gravedad se impone y la estrella se comprime, «cayendo» sobre sí misma. Es lo que llamamos colapso gravitacional. Pero este colapso calienta y comprime los átomos de helio que ahora hay allí. Y cuando la temperatura es suficiente, el helio se enciende, fusionándose y liberando la energía necesaria para estabilizar nuevamente la estrella. Las cenizas de esta nueva fusión serán carbón y algo de oxígeno.

El proceso de fusión y contracción de la estrella continuará hasta sintetizar todos los elementos de la tabla periódica hasta el hierro, el gran veneno de las estrellas cuya presencia anuncia su pronta muerte. La buena noticia es que, a estas alturas, varios miles de millones de años después del Big Bang, ya contamos, dentro de las estrellas, con casi todos los elementos químicos que tienen algún interés en nuestras cocinas.

§. ¿Por qué los berros son verdes?
La mayor parte de las moléculas presentes en nuestros alimentos son orgánicas; es decir, aquellas que comúnmente encontramos en la materia viva, sea vegetal o animal. Sus constituyentes atómicos principales son, al igual que en el caso de las moléculas aromáticas, el carbono, el oxígeno y el hidrógeno, elementos que las estrellas ya nos han brindado en grandes cantidades. Como piezas de Lego primordiales, fueron moldeadas a lo largo de los más de cuatro mil millones de años de evolución darwiniana sobre la Tierra para formar una inmensa variedad de deliciosas moléculas.

El profundo color violeta de este pinot noir, por ejemplo, se debe a una clase de pigmentos llamados antocianinas, formadas nada más que por oxígeno, carbón e hidrógeno. Estos compuestos son responsables del rojo, violeta y azul de la mayoría de los vegetales, y proveen la belleza cromática de repollos, espárragos y manzanas. También son los ingredientes del alcohol y del agua presente en el vino. Es más, son los ingredientes de casi todo, de lo que estamos hechos nosotros, nuestra comida y la chica aburrida que aún no ha vuelto a mi mesa.

Claro que para construir la ensalada y el tártaro de atún que tengo enfrente se requiere más. Las deliciosas proteínas del atún contienen algo de nitrógeno; este es más liviano que el hierro, por lo que las estrellas lo facilitan. Como también suministran el magnesio, un elemento fundamental para darle ese verde maravilloso a mi ensalada de berros. El magnesio es parte esencial de la molécula de clorofila, el pigmento que pintó de verde la naturaleza. Note que al cocinar sus porotos verdes el color se marchita; eso se debe a que en la olla ese magnesio creado por una estrella es desplazado por uno de esos átomos de hidrógeno creado en el Big Bang. ¡Por favor, no cocine demasiado sus vegetales!

§. Atún con hierro, ostras con zinc
La fusión de núcleos livianos dota de energía a las estrellas, además de sintetizar los núcleos más pesados de los que está hecho nuestro mundo. Sin embargo, cuando los nuevos núcleos son ya demasiado pesados, contienen muchos protones y la repulsión eléctrica empieza a dominar. En ese momento, nuevas fusiones ya no entregarán energía sino que la consumirán. La estrella, ya sin combustible, comenzará un rápido proceso de enfriamiento. Esto ocurre cuando se comienza a crear hierro, átomo del cual ya no obtendremos energía de fusión. La estrella se ha quedado sin combustible. Su muerte es inminente.

Pero lo que es amenazante para una estrella, ahora es un deleite para mí, pues al hierro creado en el núcleo de moribundas estrellas le debemos el color del atún y de todas las carnes rojas. Es parte esencial de una proteína llamada mioglobina, que almacena oxígeno en los músculos y otorga a este tártaro de atún su atractivo color rubí, que tan bien contrasta con el verde de los berros.

Después de sintetizar el hierro, la estrella, ya sin combustible, comienza a colapsar debido a la fuerza de gravedad. Este derrumbe libera una enorme cantidad de energía, que se traduce en una gran explosión: he aquí una supernova. Las capas exteriores de la estrella son violentamente expelidas al medio interestelar, entregando esos átomos recientemente horneados para su uso por parte de todos los comensales del universo. Mientras, el núcleo de la estrella continuará su colapso para formar, dependiendo de sus características, un agujero negro o una estrella de neutrones.

Pero no se engañen: la supernova también aporta lo suyo al festín culinario. Crea, por ejemplo, el cobre y el zinc, tan abundantes en estas ostras de mi cena. La enorme energía disponible durante la explosión permite la creación del resto de los elementos que encontramos en la naturaleza, incluyendo el oro de los hermosos aros que lucía la chica aburrida, quien evidentemente ya no volverá. Y ahora, mientras recuerdo con alegría su sonrisa, el movimiento de sus manos y sus increíbles historias de infancia en Cali, me doy cuenta de que tenía razón en partir. Es evidente que, después de todo, aquí el aburrido soy yo.

Capítulo 5
La alegría de los números primos

Contenido:
§. La supremacía del 10
§. Alegrías de los números primos
§. El robo más grande de la historia

Los números son como las personas. Cada uno con sus características únicas, su personalidad, su sensualidad y sus secretos. Es así como muchos se han obsesionado con ellos, mirándolos como si de hijos o amantes se tratara. Pero incluso la gente a la que los números no le provocan ninguna atracción particular, discrimina a favor de algunos. Así, celebran 25 y 50 años de casados o los 200 años de independencia o los 1000 seguidores en Twitter. Otros, sin embargo, consideran estos números injustamente populares, como las novelas de Dan Brown o los discos de las Spice Girls. Los matemáticos defenderán números de belleza más sofisticada. El ejemplo más célebre es una anécdota que contaba el matemático británico G. H. Hardy. En una ocasión fue en un taxi a visitar a su amigo y colaborador Srinivasa Ramanujan, uno de los grandes genios matemáticos del siglo XX, quien estaba muy enfermo. Hardy le contó que el número del taxi en que había llegado era el 1729, un número bastante aburrido, y que esperaba que esto no fuese un mal presagio. Ramanujan replicó inmediatamente: «¡No, Hardy! Es un número muy interesante. Es el más pequeño que se puede expresar como una suma de dos cubos de dos maneras distintas».

§. La supremacía del 10
Las potencias de 10 (1, 10, 100, 1000, etc.) son los números más populares del planeta. Le siguen en fama los que se obtienen dividiéndolos en números pequeños: en 2, tenemos 5, 50, 500…, y en 4 obtenemos el 25, 250, etc. Si ahora los multiplicamos por 2 producimos los también populares 2, 20, 200, etc. Con esto se acaba el grupo de los famosos. No conozco billetes o monedas que tengan impreso un número que no pertenezca a este grupo. Pero ¿existe alguna razón por la que no tenemos billetes de 5437 pesos o por la que no hubo show de luces en la moneda para celebrar los 201 años de independencia? La respuesta es sí. Pero tiene más relación con la anatomía, la historia y la sociología que con la matemática.

Nuestra primera máquina de sumar son nuestras manos. Los 10 dedos son de gran utilidad a la hora de llevar algunas cuentas. Este accidente anatómico le dio al número 10 un sitial muy especial en nuestra historia. Es probablemente la razón por la cual utilizamos 10 símbolos para denotar cualquier cantidad. Así por ejemplo, 236 significa 6 unidades más 3 decenas (3 grupos de 10) más 2 centenas (2 grupos de 100). Pero ¿y si tuviéramos 8 dedos? Bueno, en ese caso probablemente utilizaríamos solo 8 símbolos (digamos 0, 1, 2, 3, 4, 5, 6 y 7), el «10» ya no denotaría diez unidades, sino que solo ocho.

Otro sistema particularmente útil es el binario, usado por los computadores digitales. Aquí solo se utilizan dos símbolos (0 y 1), y contamos del 1 al 10: «1», «10», «11», «100», «101», «110», «111», «1000», «1001», «1010». Las potencias de 2, y no de 10, son aquí las especiales (2, 4, 8, 16, 32, 64, 128, 256…), números que de hecho gozan de una fama importante entre los amantes de la computación. Así vemos que las potencias de 10 son especiales solo por la forma en que elegimos denotar nuestros números y no por alguna propiedad intrínseca que posean.

Pero hay notables excepciones a la supremacía del 10. Una de ellas tiene relación con los huevos. Los compramos en docenas. ¿Tiene algo de especial el 12? Claro que sí. Es mucho más fácil repartir 12 huevos que 10. Esto, porque 12 es divisible por más números: 1, 2, 3, 4, 6 y 12, mientras 10 solo por 1, 2, 5 y 10. Los números bien divisibles son cómodos, especialmente cuando se trata de repartir huevos. Los anglosajones dividen un pie en 12 pulgadas. Fueron ellos quienes crearon los sistemas de medición del tiempo, en que el número 60 es protagonista (que es cinco veces doce). Los ángulos también: se miden en grados, que dividen el círculo en 360 tajadas. Gran número 360. Se puede dividir en 1, 2, 3, 4, 5, 6, 8, 9, 10, 12, 15 y varios más, cosa que hace fácil repartir una pizza entre un número pequeño de comensales usando una escuadra.

§. Alegrías de los números primos
Pero si no buscamos repartir nada, los números con pocos divisores son mucho más interesantes. El caso extremo es el de aquellos que solo pueden dividirse en 1 o en ellos mismos. Se llaman números primos: 2, 3, 5, 7, 11, 13, 17, etc. Podríamos decir que, del mismo modo como las potencias de 10 son las estrellas pop del hombre común, los primos lo son entre matemáticos. Es que su importancia no depende de nuestra anatomía. No tiene relación con acuerdos sociales. Los primos son genuinamente especiales. Sabemos que los griegos los estudiaron sistemáticamente. De hecho, es en la obra de Euclides, escrita hace 2300 años, en donde se muestra por primera vez que existen infinitos números primos. No quiero asustar a los lectores menos inclinados a las matemáticas con esta explicación. Pero advierto que es un verdadero poema. Una de esas demostraciones breves y hermosas que ilustran el valor estético y emocional de las matemáticas.

Los primos, insisto, son juguetones, alegres; se esconden entre los números naturales sin ningún orden, como si hubiesen caído al azar entre aquellos. Buscarlos es un desafío importante. El primo más grande que se conoce hoy tiene más de 17 millones de dígitos y encontrarlo requirió el uso de poderosos computadores[1]. La Fundación Fronteras Electrónicas ofrece 250 000 dólares a la primera persona que encuentre un primo con mil millones de dígitos (se necesitaría la extensión de unas tres Enciclopedias Británicas para escribirlo explícitamente).

Pero los primos nos bombardean con varias otras preguntas, muchas de las cuales aún no tienen respuesta. Una de las más célebres es sobre los así llamados primos gemelos. Son aquellos pares de primos que difieren en dos unidades. Por ejemplo (3, 5), (5, 7), (11, 13) o (17, 19). Se piensa que existen infinitos pares de primos gemelos. Pero nadie lo ha podido demostrar jamás. Lo que sí se ha podido demostrar es que existen infinitos pares de primos separados por números bastante más grandes que dos. Se sabe que hay gemelos enormes y los matemáticos han dedicado grandes esfuerzos computacionales para encontrarlos. Para escribir los más grandes conocidos necesitaríamos unas treinta páginas para cada uno.

§. El robo más grande de la historia
G. H. Hardy decía que estaba interesado en las matemáticas como un arte creativo solamente. Los números primos fueron parte de sus obsesiones científicas. Es que el juego con números primos era, a principios del siglo XX, «matemática pura». Pero tal como ha ocurrido con demasiadas empresas científicas aparentemente inútiles, hoy los primos no solo son útiles, están en los pilares del comercio internacional. Son parte fundamental del proceso de encriptación con que se transmite información secreta electrónicamente. Cada vez que usted hace un depósito, ingresa una clave secreta o el número de su tarjeta de crédito por internet, un conjunto de grandes números primos protege su transacción.

La forma en que esto ocurre es bastante técnica y solo puedo aquí dar una breve pincelada. La base de todo reside en el hecho que cualquier número que no sea primo puede construirse multiplicando primos. Por ejemplo 30 = 2 × 3 × 5. Lo que no es tan evidente, pero cierto, es que esta factorización es única. El 2, el 3 y el 5 son de algún modo los átomos primordiales que conforman el número 30. Si bien es fácil multiplicarlos para obtener números arbitrariamente grandes, el inverso no es cierto. Dado un número enorme, digamos con mil dígitos, encontrar los primos que lo componen es una tarea titánica. No se conoce ningún método que lo haga relativamente rápido y los matemáticos conjeturan que no existe. Si el número es suficientemente grande, no existirá computador en el mundo capaz de hacerlo en tiempos humanamente razonables (menores, digamos, que la edad del universo).

Es que factorizar números grandes es un problema extremadamente difícil. Y es justamente el problema que experimentaría un ladrón electrónico que intente descifrar información protegida. El secreto de la encriptación está precisamente en un número enorme que está a disposición de todos los clientes, digamos, de un banco. Solo el banco, sin embargo, conoce su factorización prima. Al enviar información reservada al banco, el computador utiliza ese enorme número como una llave para encriptar el mensaje. Para desencriptarlo se requieren los primos que lo componen. Es imposible dar detalles de cómo funciona esto aquí. Pero una cosa es importante. Si usted descubre un método rápido y práctico para encontrar los primos que componen un número grande, no solo será un héroe entre matemáticos. Además, tendrá en sus manos una de las armas más deseadas, más siniestras y más poderosas que el mundo haya visto jamás. Cómo se ríen los primos.

Capítulo 6
Olivia, la bomba y los dados de Dios

Contenido:
§. Determinismo perdido
§. Industria cuántica

Cada 26 de septiembre recuerdo el cumpleaños de la gran Olivia Newton-John. Su voz angelical me emociona hasta hoy, y soy de los que pienso que ella es sin duda una de las artistas más injustamente tratadas por los críticos en la historia de la música. Escúchela cantando Xanadu, esa obra maestra del pop, imponiéndose entre las innumerables capas sonoras compuestas por Jeff Lyne, de E. L. O. Recuérdela bailando, algunos años antes, en la última escena de Grease, enfundada en esos apretadísimos pantalones de lycra negra. ¿Quién podría negar la profunda huella que Sandy dejó en quienes fuimos adolescentes a comienzos de los ochenta?

Lo que quizá usted no sepa es que cuando Olivia tenía seis años su abuelo ganó el Premio Nobel de Física. Irene Born, madre de Olivia, es hija de uno de los personajes más influyentes del siglo pasado, Max Born, el padre del indeterminismo en física, el personaje a quien iba dirigida esa famosa carta en la cual Einstein escribía: «Estoy convencido de que Dios no juega a los dados». Pero el abuelo, a pesar de su impresionante obra y del enorme estatus que cosechó durante la primera mitad del siglo XX, fue tratado con la misma injusticia que la nieta. Mucho tiempo tuvo que pasar para que recibiera el Nobel, en 1954. Más de treinta años antes, Werner Heisenberg lo ganó por la creación de la mecánica cuántica, un término acuñado por el propio Born. Las palabras de Heisenberg a Born, en una carta poco después de recibir el galardón, son elocuentes: «El hecho de recibir el Premio Nobel por un trabajo hecho en Gotinga en colaboración contigo y Jordan me deprime y me hace difícil escribirte».

§. Determinismo perdido
A fines del siglo XIX y comienzos del XX una gran crisis comenzó a incendiar la física. Provenía del mundo microscópico. En las pequeñas escalas de los átomos y las moléculas las leyes de Newton no parecían ser útiles para describir la naturaleza. El comportamiento de estos objetos parecía desafiar hasta las mentes más privilegiadas de la época. Pero durante el segundo lustro de la década de los veinte se logró apagar el incendio. La solución se llamó mecánica cuántica, una de las más extrañas y poderosas teorías científicas creadas por el hombre.

Fue Werner Heisenberg quien, en 1925, clavó la primera bandera en la exploración del mundo microscópico. En un artículo fundacional, hacía uso de objetos cuyas extrañas propiedades matemáticas no parecían tener mucho sentido para el pensamiento de los físicos de aquellos años. Fue Born quien se dio cuenta que estos no eran otra cosa que matrices. Así, Born, Heisenberg y Pascual Jordan le dieron forma final a lo que se llamó «mecánica matricial». Simultáneamente en Berlín, Erwin Schrödinger terminaba el más famoso de los trabajos nacidos en los albores de la mecánica cuántica. A su versión de la teoría se le llamó «mecánica ondulatoria», y su resultado central, la ecuación de Schrödinger, es probablemente el más importante de la física del siglo XX. El mismo Schrödinger demostró en un artículo subsecuente que su mecánica ondulatoria era totalmente equivalente a la mecánica matricial de Heisenberg. Eran dos formulaciones posibles para la misma teoría del mundo atómico: la mecánica cuántica.

Pero había un problema grave con la ecuación de Schrödinger. Incluía un objeto extraño que nadie sabía cómo interpretar: la «función de onda». Fue el abuelo de Olivia quien dio con la interpretación que hoy aceptamos. La función de onda describe la probabilidad de encontrar el objeto de estudio en un lugar dado en un momento determinado. ¿Probabilidad? Esto es nuevo en física.

Antes de Born se pensaba que las leyes de la naturaleza eran deterministas: el conocimiento del estado del universo en cierto instante debía ser suficiente para predecir todos los eventos futuros. El único obstáculo podía ser la falta de precisión con que nuestros instrumentos hacían las mediciones; el azar, entonces, solo era consecuencia de nuestra ignorancia. Por ejemplo, cuando lanzamos una moneda, no tenemos control preciso de la posición, el ángulo o la velocidad inicial de lanzamiento. En esas condiciones es imposible predecir si obtendremos cara o sello. Sin embargo, si pudiésemos medir con precisión suficiente todas estas variables, utilizando las teorías de Newton podríamos saber el resultado antes del lanzamiento. Con el advenimiento de la mecánica cuántica, esta visión de las cosas cambió radicalmente.

En esta teoría, la incerteza juega un rol esencial. Pensemos en un electrón. En la mecánica de Newton el objeto de estudio es la posición del electrón en cada instante de tiempo: entonces la pregunta es: «¿Dónde estará en tres minutos?». En mecánica cuántica esta pregunta no tiene sentido. El objeto de estudio es ahora la probabilidad de encontrar al electrón en cierto lugar en un instante dado. Mientras no lo observemos, el electrón no está en ninguna parte. Lo describe una función de onda etérea y omnipresente como la voz de Olivia. Solo al observarlo se materializará en algún lugar, de acuerdo a las probabilidades dictadas por la teoría. Así, el electrón se nos presenta como una partícula cuando lo observamos, y podemos determinar su posición. Cuando no lo observamos, la teoría predice la evolución de su función de onda, que únicamente nos informa de probabilidades.

Aquí, a diferencia de lo que sucede en la física newtoniana, el azar no tiene relación con nuestra ignorancia. Es parte fundamental de la teoría y se hace presente en el instante de la observación, con lo que se acaba el determinismo en física. Las implicaciones culturales de este hallazgo son enormes. Por primera vez, una teoría científica presentaba un componente no determinista en sus fundamentos, cosa que impactó de manera profunda el modo que pensamos la ciencia, e incluso la filosofía.

§. Industria cuántica
Ahora bien, la mecánica cuántica no solo irrumpió en el terreno de las ideas. También fue el inicio de una nueva revolución industrial. La teoría está en la base de parte importante de la tecnología de los últimos cincuenta años. Quizá la más importante sea la invención, en 1947, del transistor, ese pequeño dispositivo electrónico que reemplazó a los caros y grandes tubos de vacío de radios y televisores. Fue creado por John Bardeen, Walter Brattain y William Shockley, quienes ganaron el Premio Nobel de Física por este logro en 1956. Hoy millones de transistores habitan casi cualquier dispositivo electrónico que utilicemos. Un procesador electrónico (el cerebro del computador), por ejemplo, contiene más de mil millones de transistores en un chip que cabe en la palma de una mano.

En el futuro esperamos la irrupción de los «computadores cuánticos», cuyo poder superará el de cualquiera que podamos imaginar con la tecnología actual. Hoy la información es guardada y procesada en bits. Un bit, la unidad mínima de almacenamiento digital, puede estar en dos estados: cero o uno. El computador lee y calcula en este lenguaje binario, al cual ya nos referimos en el capítulo anterior («Cómo se ríen los primos»). Un bit, por ejemplo, en sus dos estados puede guardar una respuesta sí/no. Si contamos con dos bits, entonces tenemos espacio para guardar cuatro estados: 00, 01, 10 y 11. Es decir, con dos bits podemos guardar su tipo de sangre (A, B, AB o O). Un «byte» es un conjunto de ocho bits, que un cálculo sencillo nos muestra que puede estar en 256 estados. Hoy la memoria de un computador personal suele contener varios terabytes, esto es un billón de bytes. Calcule usted mismo de cuántos estados puede dar cuenta. Los computadores cuánticos aumentarán no solo la capacidad de memoria, sino que la capacidad de cómputo de manera extraordinaria. En el computador cuántico, la unidad básica de información es el q-bit. Un q-bit es un estado cuántico en que solo se conoce la probabilidad de que, al observarlo, encontremos un cero o un uno. Por ejemplo, un q-bit puede estar en un estado en que las probabilidades de medir un uno sean del diez por ciento y un cero un noventa por ciento. Un q-bit, por lo tanto, puede guardar mucha más información que un bit, con la inconveniencia de que en su uso habrá siempre un grado de incertidumbre. Aunque aún no es posible construir estos computadores, es posible predecir teóricamente que serán mucho más rápidos que los actuales, lo que nos permitiría hacer cálculos imposibles para un computador tradicional.

La mecánica cuántica también ha sido fundamental en el control de la energía nuclear. Robert Oppenheimer, el director del proyecto «Manhattan», que creó la primera bomba atómica, hizo su doctorado en la Universidad de Gotinga bajo la supervisión de Max Born. Así que podemos decir que Born es el abuelo intelectual de la bomba.

¡Vaya nietas!

Capítulo 7
Una lección en colores

Contenido:
§. ¡Blanco!, ¡azul!
§. El número mágico

La lluvia finalmente se hace presente. El paisaje se torna grisáceo, y los colores deslavados nos llenan de melancolía. Todo parece aburrido. Lánguido. Los buses, los bares, el fútbol, los candidatos presidenciales. Es que el color nos estimula, especialmente aquellos más vívidos, como los del arcoíris, los de una puesta de sol en el mar o los de una ensalada griega. Por eso dilucidar la naturaleza de la percepción cromática ha sido una larga y épica aventura.

Isaac Newton fue el primero en atacar metódicamente la cuestión del color. Al hacer pasar un rayo de luz del sol por un prisma, se dio cuenta de que se descomponía en distintos colores. El prisma desviaba la luz, pero no todos los colores por igual. Los rojos eran los que menos se desviaban, luego los naranjos, amarillos, verdes, azules y finalmente los violetas (el experimento ya es un clásico, quizá más por la carátula de The Dark Side of the Moon de Pink Floyd que por sir Isaac). Newton concluyó que la luz blanca era la mezcla de todos los colores, y que de algún modo el prisma era capaz de separarla en sus componentes.

Hoy sabemos que la luz está compuesta por fotones: cada uno de los colores que emergen del prisma son fotones de distintas energías. Los menos energéticos son los rojos; los más energéticos, los violetas. El ojo y el cerebro responden a cada uno de estos fotones a través de sensaciones de color únicas. De esta forma, el mundo que nos rodea es a todo color gracias a que la luz del sol no es absorbida por los objetos de forma democrática, sino selectiva. Una hoja es verde, por ejemplo, porque la clorofila que contiene absorbe los rojos, naranjos, azules y violetas con mucha eficiencia, pero no así los verdes, que son reflejados y por eso llegan a nuestros ojos. La nieve refleja casi todo, y por lo tanto es igual de blanca que el rayo original de Newton.

Pero, momento: faltan colores. ¿Dónde están los rosados, grises, terracotas o burdeos? ¿Dónde está el negro? ¿No es acaso el arcoíris el símbolo máximo de la diversidad cromática? Para la física, efectivamente, no hay más que los colores del arcoíris. Cuando estamos en presencia de fotones de uno solo de estos colores, decimos que la luz es monocromática. El láser es un ejemplo de luz monocromática. En general, sin embargo, el resplandor lumínico que capturan nuestros ojos corresponde a mezclas de colores. El blanco es el primer ejemplo: contiene todos los colores. La sensación psicológica que estas mezclas producen en nosotros depende de la fisiología del ojo.

Curiosamente, el pionero en explorar el universo de la percepción cromática fue un físico. Y nada menos que el británico Thomas Young, uno de los científicos más prolíficos de principios del siglo XIX. Su contribución más importante fue un célebre experimento, realizado en 1801, en que mostró el comportamiento ondulatorio de la luz. La luz era una onda, y no una partícula como pensaba Newton. Hoy, gracias a la dualidad onda-partícula que establece la mecánica cuántica, sabemos que Newton no estaba totalmente equivocado. Por eso podemos hablar de fotones. Estos son partículas, pero también tienen propiedades ondulatorias. Si usted cree que esto es confuso, está en lo cierto. El sentido común no está invitado al mundo cuántico. La concepción de la materia fue modificada de manera radical con su advenimiento, tal como discutimos en el capítulo anterior.

A Young se le ocurrió que la visión en colores se debía a la presencia de tres receptores distintos en nuestras retinas. Los receptores en cuestión están localizados en células que hoy llamamos conos, y que solo se observaron a fines del siglo XX. Si lo piensa un poco, notará que el número tres es ubicuo en estas materias. Hay tres colores primarios, hay tres luces en cada píxel de su pantalla, hay tres controles de color en su televisor (color, brillo y contraste). Un objeto coloreado tiene tres cualidades sensoriales: el brillo, que corresponde a la intensidad de luz percibida; la tonalidad, que es la propiedad que define su nombre, y la saturación, que mide cuán deslavado o vívido lo observamos. El universo cromático es como el espacio en que nos movemos: tiene tres dimensiones.

§. ¡Blanco!, ¡azul!
La forma en que el cerebro detecta la energía de los fotones (o el color del rayo de luz) a partir de las señales provenientes de estas tres células puede explicarse con una analogía, con la que además veremos por qué esta medición dista mucho de ser perfecta (por lo demás, no tiene por qué serlo, nuestros ojos son producto de la evolución darwiniana, y el conocer la energía de un conjunto de fotones de modo preciso no es parte de las características que nos permiten adaptarnos mejor a nuestro medio).

Suponga tres inversionistas, cada uno con su propia cartera de acciones a partir de un pool enorme de empresas. Si solo observa la sonrisa de los inversionistas, ¿puede determinar qué acciones han subido? Si el que más sonríe es el que tiene en su portafolio más acciones de una empresa, podemos adivinar que estas han subido. Si hay dos sonriendo, probablemente sea por el alza de las acciones que ambos poseen. Si todos sonríen más o menos por igual, quizá todas las acciones subieron.

De igual manera, si la luz que llega a nuestros ojos excita a los tres tipos de conos, el cerebro interpreta que se trata de una mezcla de todos los colores del espectro y dice «¡blanco!». Si solo el cono que es más sensible a los azules y violetas es el excitado, decimos «¡azul!». Si solo se excitan los conos más sensibles a los rojos y verdes, el cerebro decide que la luz es probablemente amarilla, pues este color excita más o menos por igual a ambos conos. Que es lo mismo —volviendo a la analogía financiera— a cuando dos inversionistas sonríen porque sube el precio de las acciones que comparten.

Hay también fotones que no vemos, porque no interactúan con nuestros conos, como la radiación ultravioleta o infrarroja. De esas empresas nuestros inversionistas no tienen acciones, por lo que sus fluctuaciones no los afectan. Hablaremos más de esas radiaciones en el próximo capítulo.

En cuanto al brillo de un color, es una medida de la cantidad de fotones que llega a la retina en un intervalo de tiempo dado. El blanco y el gris, por ejemplo, son lo mismo en cuanto a contenido cromático. Una mezcla de todos. Pero el gris es más opaco, es un blanco cuyo entorno es más brillante que él.

Los colores menos saturados, deslavados, corresponden a mezclas con blanco, o bien a colores puros pero oscuros en relación con su entorno. Por ejemplo, un rosado es una mezcla de todos los colores pero donde predomina el rojo. Es decir, una mezcla de rojo con blanco. Si, por otra parte, observamos un amarillo puro, pero en un entorno de luz más intensa que aquel, nos parecerá café. La luz que proviene de un arcoíris o de un prisma o del reflejo de un CD es monocromática, y es la que percibimos como más vívida o saturada, siempre que sea suficientemente intensa. Generalmente los colores saturados nos resultan más atractivos porque son muy escasos en objetos cotidianos; y son escasos porque para obtener un color así el objeto en cuestión tendría que absorber casi todos los colores, con excepción de aquel que deseamos lograr. Pero esta gran absorción también lo hará más oscuro en comparación con su entorno, lo que le restará saturación.

§. El número mágico
Hay mezclas distintas de colores que producen exactamente la misma sensación cromática. Volvamos al caso de los inversionistas.

Usted podría ver a los tres felices porque subieron todas las acciones. Pero también podría deberse a que solo subió mucho el precio de algunas, justamente aquellas que cada uno poseía en mayor abundancia. Del mismo modo, mezclando luz roja, verde y azul podemos excitar por igual a los tres tipos de conos. Nos parece blanco (mire con una buena lupa la pantalla de su computador y observe lo que realmente hay cuando piensa estar viendo blanco).

Lo mismo con el amarillo. Esta luz excita por igual a dos tipos de conos. Sin embargo, lo mismo se puede lograr mezclando luz verde y roja. Extraño: en el colegio nos enseñan que el amarillo es un color primario. Y eso es cierto cuando se juega con pigmentos, pero no con luces. Lo que ocurre es que los pigmentos absorben luz. Es decir, le quitan colores al rayo. Por eso se dice que al mezclar pigmentos para obtener nuevas tonalidades hacemos una mezcla sustractiva, a diferencia de la mezcla aditiva al proyectar luz en una pantalla: al proyectar luces de distintos colores sobre una pantalla vamos sumando colores al color final, en cambio al sumar pigmentos vamos restando los colores que cada uno absorbe. De ambas maneras podemos controlar el color final, pero los procesos son muy distintos.

En los dos casos, sin embargo, el número mágico es el tres. Con tres colores podemos reproducir cualquier otro en una pantalla o una impresión. La fotografía en color es quizá la más antigua y espectacular de las aplicaciones de todo esto. La primera fue presentada en 1861 por otro físico, J. C. Maxwell, de quien hablaremos pronto. En cuanto a Young, murió en 1829 sin enterarse de la profunda huella que dejó sobre nuestro colorido universo. Pues en parte, gracias a él, podemos disfrutar de todo el color de una puesta de sol en Iquique a través de una foto en una revista. Y eso sin importar la bruma, el hastío, la grisácea pasividad que se respira más allá de la ventana.

Capítulo 8
Hay onda entre nosotros

Contenido:
§. Buenas vibraciones
§. Llamado de emergencia
§. Arriba del columpio

A Silvina

«Dale, vamos», dijo Rebeca.

Lo dijo con voz firme, segura. Todavía resuena como un disparo dentro de la cabeza de León. Es que no estaba preparado para esa respuesta. No con esa certeza. No con ese desplante. Le había tomado dos semanas encontrar las palabras precisas y el coraje para llamarla. Tenía preparadas respuestas para una decena de posibilidades, un complejo árbol de alternativas que le permitiera sacar adelante el objetivo de volver a verla.

—¿Hola? —contestó ella con esa vocecita dulce que tanto lo conmovía.

—Hola, Rebeca, habla León —dijo tembloroso—. Te quería invitar a comer el viernes… Sé que es un poco encima, pero… imaginé que quizá querrías conocer Valparaíso. ¿Te acuerdas cuando me dijiste que nunca habías ido? Podemos ir a cazar una puesta de sol, nos tomamos un pisco sour con unas machas a la parmesana en el Turri. Pero, si no puedes, entiendo…

Su torpeza discursiva se vio interrumpida por esa sentencia que sorpresivamente vino a salvarle el honor y la autoestima:

—Dale, vamos.

León pensó en lo extraño de su felicidad. Después de todo, su comunicación con Rebeca había sido siempre desde la lejanía. Ahora mismo, ella estaba a más de quince kilómetros de distancia. La emoción que había sentido al oírla era intermediada por antenas y chips de silicio. Pero incluso cuando la vio por primera vez, siempre estuvieron al menos un par de metros alejados, una inmensidad en el universo atómico que los conforma. ¿Qué los conectaba? ¿Cómo, desde su soledad, podía abarcar a Rebeca con esa sensación tan satisfactoria de compañía?

Bueno, todo es cuestión de onda.

Era una onda lo que se transmitía de un celular a otro, permitiendo a León invitar a Rebeca a pesar de la distancia. Pero también fue una onda lo que le permitió verla el primer día. La luz, una onda que el sol emitía generosamente esa tarde, rebotó en la sonrisa de Rebeca y luego entró derecha en los ojos de un León petrificado. También eran ondas las primeras palabras que escuchó de su boca, vibraciones del aire que ella provocaba con sus cuerdas vocales, y que viajaban hasta los oídos de ambos. Todo lo que él sabía de Rebeca tenía su origen en un solo tipo de fenómeno físico: las ondas (de luz, de radio, de sonido). Con esos inmateriales elementos se había hecho una imagen de ella. Y ya sabía bastante.

Al menos suficiente para comenzar a enamorarse.

§. Buenas vibraciones
Si lanzamos una piedra a un estanque de aguas tranquilas, veremos una onda transmitiéndose a través de esta. Una serie de círculos concéntricos que viajan llevándose la energía del impacto inicial en todas direcciones. Si mira con detención, notará que no hay nada viajando a través del agua. El agua solo vibra; aumenta y disminuye su profundidad en cada punto del estanque. Es similar a lo que ocurre con «la ola» en los estadios de fútbol. Cada espectador se levanta y se sienta luego de ver que su vecino hace lo mismo. Ningún espectador debe desplazarse. La profundidad del agua «vibra». No hay agua viajando a ninguna parte. La cresta de las olas, sin embargo, se desplaza a cierta velocidad. En la conversación telefónica con Rebeca, León contaba con que las ondas de radio que partían de la antena de su celular se movieran a casi 300 000 kilómetros por segundo. Podía estar tranquilo. A esta velocidad no hay retraso perceptible del mensaje. Desde que él decía una frase hasta que llegaba a Rebeca no pasaba más de una decena de microsegundos. El tiempo que ilumina el flash de una cámara de fotos convencional es cien veces más largo. Y, bueno, es que estas ondas se mueven a la velocidad más alta permitida por la naturaleza: la velocidad de la luz. Y no es coincidencia. Las ondas de radio que utiliza el teléfono celular son ondas electromagnéticas, al igual que la luz. Todas las ondas electromagnéticas se mueven, al menos en el vacío, a la velocidad de la luz.

La onda de radio que interceptó el celular de León contenía la información necesaria para que el aparato reconstruyera luego la onda de sonido que había salido de la garganta de Rebeca, quince kilómetros al norte. Culminaba la misión el parlante, replicando la voz de ella a algunos centímetros de su oído.

Pero no se confunda. Las ondas de sonido son vibraciones en la presión del aire, de naturaleza muy distinta de las ondas de radio electromagnéticas. Ondas al fin y al cabo.

Las ondas suelen ser periódicas. Como las olas del mar, que golpean las rocas a intervalos más o menos constantes. La distancia que separa dos crestas de estas ondas se llama longitud de onda. En el caso de las olas, puede ser de metros o kilómetros. Las ondas electromagnéticas también pueden tener distintas longitudes de onda. Las de radio son las más grandes, desde decenas de metros —como las de «onda larga»— hasta unos cuantos centímetros en el caso de las que transportaban ese «dale, vamos» que perturbó tan profundamente a León. Las ondas electromagnéticas milimétricas se llaman microondas, y son muy útiles cuando queremos calentar comida. Más pequeña aún es la radiación infrarroja, y más la luz visible. Cuando la longitud de onda es de unos 700 nanómetros, nuestros ojos percibirán luz roja (100 nanómetros son la diezmilésima parte de un milímetro). La luz sigue siendo visible hasta los 350 nanómetros, en cuyo caso nos parece violeta. Nuestros ojos no pueden percibir longitudes menores. Primero están los rayos ultravioleta, luego la radiación X y luego las de menor longitud, la radiación gamma. Este es el espectro electromagnético.

§. Llamado de emergencia
Antes, fueron principalmente dos tipos de ondas las que permitieron a León hacerse una idea de Rebeca la tarde de su primer encuentro: ondas electromagnéticas de luz visible que rebotaban en su cuerpo y alcanzaban su retina, y ondas de sonido que viajaban, haciendo vibrar el aire y sus tímpanos. Dos semanas después, ondas electromagnéticas de radio que se transmitían entre antenas de teléfonos celulares colaboraron en un nuevo contacto.

Si bien es extraño que casi toda la construcción del universo que percibimos sea a través de lo inmaterial del universo ondulatorio, más extraño aún es que de la infinidad de fenómenos ondulatorios que nos rodean seamos capaces de seleccionar solo aquellos que nos son útiles. De los múltiples sonidos que llenaban el aire, de todo ese ruido que el mundo le ofrecía, León era capaz de poner atención al que emitían las cuerdas vocales de Rebeca, como si nada más existiera en la tierra. El teléfono hizo algo similar cuando hablaron. Había miles de señales al alcance de su antena, pero el aparato fue capaz de aislar del febril bullicio electromagnético ese ya legendario «dale, vamos» que quizá cambiaría su vida para siempre.

La precisión exquisita con que podemos seleccionar nuestra conversación en el celular se basa en la misma tecnología que nos permite seleccionar una radioemisora de todas las que nos ofrece el dial. Todo comenzó hace más de cien años, cuando el inventor canadiense Reginald Fessenden logró perfeccionar la radio lo suficiente como para hacerla útil en la transmisión de música.

Así, la noche de Navidad de 1906 Fessenden consiguió emitir el aria «Ombra mai fù», que abre la ópera Serse (Jerjes) de Händel. Con él nace, además, la tecnología AM (amplitud modulada), que permite usar una pequeña porción del espectro electromagnético para cada transmisión. Así, por ejemplo, el número 720 que caracteriza un canal radial AM significa que las ondas de radio que esa emisora utiliza para transmitir vibran con una frecuencia de 720 KHz, es decir, 720 000 veces por segundo, equivalentes a una longitud de onda de unos 417 metros. Cada longitud de onda es un canal para una transmisión distinta, que el circuito dentro de la radio o teléfono sabrá seleccionar. ¿Pero cómo lo hace?

Capítulo 9
Arriba del columpio

Contenido:
§. Luz, cámara, acción
§. Un salto de años luz
§. El campo
§. Un nuevo mundo

El funcionamiento de la radio se le vino a la cabeza a León el día de la primera conversación. Estaban en un patio donde había columpios. Rebeca se sentó en uno. León permaneció de pie, afirmándose con una mano en una de las cadenas. El sutil balanceo de Rebeca no estaba coordinado con el ritmo de «I will follow you into the dark» que Ben Gibbard, de Death Cab for Cutie, susurraba en los parlantes de una cafetería cercana. Inconscientemente, León trató de acelerar el vaivén pero se acordó de Galileo y de lo absurdo de su aspiración. La frecuencia de oscilación de un péndulo solo depende de su largo. Entonces imaginó una manilla similar a la de las parrillas que le permitiera levantar un poco a Rebeca para aumentar así su frecuencia y sincronizarla con la música.

El columpio es extraordinario. Podemos, con muy poco esfuerzo, hacer que oscile con gran amplitud. Para eso basta que lo empujemos un rato en sincronía con su frecuencia de oscilación natural. Si no estamos en sincronía, el esfuerzo será grande y no lograremos amplitudes apreciables. Este fenómeno en que logramos con poco esfuerzo grandes oscilaciones se llama resonancia. La radio es esencialmente un columpio hecho de circuitos eléctricos y también tiene una frecuencia natural. Una que podemos seleccionar con el dial, que es análogo a la manilla que imaginaba León para cambiar la longitud del columpio. La antena recibe una débil señal eléctrica oscilante, la onda de radio, que es análoga a León empujando suavemente el columpio. De todas las señales presentes en el aire, la radio amplifica aquella que está exactamente a su frecuencia natural, y ninguna otra. Las demás no producen ningún efecto visible, al igual como León no lo producía sobre el columpio al intentar acelerar su vaivén.

En los teléfonos actuales no hay dial, porque los canales de comunicación son seleccionados automáticamente por el aparato. Pero León ya no piensa en teléfonos ni en columpios. Sigue masticando las palabras de Rebeca. Con los ojos cerrados, ignora por completo la efervescente actividad ondulatoria que desfila a su alrededor. Tiene bloqueadas todas sus antenas. No percibe que, como el agua de una enorme piscina llena de niños, todo sigue vibrando sin pausa. Es que hay una sola onda que le importa. Por varios días, lo único que seguiría resonando en su cabeza era un enorme y definitivo «dale, vamos».

§. Maxwell Smart
Quizá el motor de la ciencia no sea más que la flojera humana. No me refiero a una flojera que implique no hacer las cosas o hacerlas mal, sino a la ley del mínimo esfuerzo: usar el mínimo de recursos para conseguir un fin. En el caso de la ciencia, se trata de construir modelos mentales lo más sencillos posible, pero capaces de explicar el mayor número de fenómenos. Es lo que llamamos unificación: una construcción simbólica que nos permite predecir o explicar con rapidez el mundo que observamos. Sin olvidar, claro, la máxima atribuida a Einstein: «Las cosas deben hacerse tan simples como sea posible. Pero no más».

Contar con una sola teoría capaz de explicarlo todo es la panacea científica. Esa que algunos llaman «teoría final», y que jubilaría a la ciencia para siempre. Yo no creo en la existencia de esa teoría. El universo es suficientemente rico en fenómenos, y jubilar a la ciencia sería como jubilar la curiosidad humana.

Como sea, la historia del intelecto humano ha sido testigo de unificaciones impresionantes. Y de todas, no hay duda de que la teoría electromagnética es una de las más hermosas. Esta historia comienza hace ciento cincuenta años. Su protagonista, el físico escocés James Clerk Maxwell.

§. Luz, cámara, acción
El fotógrafo e inventor de la cámara réflex, Thomas Sutton, se valió de las observaciones de Maxwell para producir la primera fotografía en color de la historia. Provisto de una cámara, tomó tres fotografías idénticas (en blanco y negro) de una cinta escocesa. Pero las tomó con tres filtros distintos delante del lente: uno rojo, uno verde y el otro azul. Luego proyectó las tres imágenes colocando el filtro correspondiente delante del proyector. Al hacer coincidir las imágenes en un telón, sobreponiéndolas con precisión, consiguió una imagen que reproducía todos los colores del objeto original.

Maxwell la presentó en una clase en la Royal Institution, en 1861, dejando a su audiencia sin aliento. El mecanismo actual de reproducción de color no ha cambiado. Usando una lupa observe la pantalla de su televisor. Verá que posee pequeñas fuentes de luz, pero de tres colores solamente: rojo, verde y azul. Son los mismos que usó Maxwell en sus proyectores, valiéndose de la teoría del color que Thomas Young había desarrollado, y que describimos en el capítulo «Una lección en colores».

Pero, a pesar de su importancia, la fama de Maxwell no proviene de su papel en la invención de la fotografía en color. La verdadera historia de su influencia demoledora en nuestras vidas comenzó en marzo de ese mismo año, cuando publicó el trabajo al que le debemos los teléfonos celulares, los televisores y casi cualquier dispositivo que utilice electricidad. Pero le debemos todavía más, le debemos una nueva forma de enfrentar la ciencia. Le debemos otra de las grandes síntesis del intelecto humano. Una que ha servido de modelo para casi toda la física que se hizo desde entonces hasta nuestros días.

§. Un salto de años luz
Los fenómenos eléctricos y magnéticos han sido observados y descritos durante mucho tiempo. La atracción que experimentan pequeños objetos que cargamos eléctricamente frotándolos es un ejemplo típico de electricidad: péinese con una peineta plástica y acérquela a pequeñas bolitas de papel para experimentarla.

Los imanes y las brújulas son la muestra más cotidiana de los efectos magnéticos. En el siglo XIX experimentos más sofisticados permitieron entender que electricidad y magnetismo no eran fenómenos completamente distintos. Primero Ørsted y Ampère describieron cómo las corrientes eléctricas producían efectos magnéticos, luego Henry y Faraday mostraron cómo fenómenos magnéticos podían originar electricidad (así nacen el generador eléctrico, el motor eléctrico y el electroimán, entre otros grandes desarrollos técnicos). Todos estos avances mostraban a Maxwell que la relación entre electricidad y magnetismo debía ser mucho más estrecha de la que se pensaba.

Fue en marzo de 1861 cuando apareció el primero de una serie de trabajos que llevarían a Maxwell a transformarse en uno de los hombres más influyentes de su siglo. El artículo se llamaba «Sobre las líneas de fuerza físicas» y contenía una de las sugerencias más audaces en la historia de la ciencia: la luz era un objeto que emergía naturalmente de la electricidad y el magnetismo. Es que Maxwell no solo proponía que la electricidad y el magnetismo eran dos expresiones de una misma sustancia, sino que además mostraba que las ondas lumínicas eran vibraciones de estos objetos. Así unificaba los fenómenos eléctricos, magnéticos y la luz en una sola teoría.

§. El campo
Todos aprendemos en el colegio que todo par de objetos se atrae gravitacionalmente de acuerdo con la ley de Newton. Pero, a pesar del éxito de Newton, había algo misterioso en su teoría: sus fuerzas actuaban a distancia. ¿Cómo se enteraba la luna de que a unos 400 000 kilómetros había un planeta, la Tierra, que la atraía haciéndole revolotear en su órbita? Es extraño afectar el movimiento de cosas lejanas, influir sobre objetos que no podemos tocar.

Las primeras descripciones de los fenómenos eléctricos y magnéticos se desarrollaron en esta lógica. Maxwell, sin embargo, mostró que existía un intermediario. Son los «campos» eléctricos y magnéticos, que cambian completamente la forma newtoniana de ver la naturaleza. No solo partículas localizadas habitaban el mundo físico. Ahora debíamos aceptar también estos etéreos campos que inundaban el universo, transmitiendo las fuerzas eléctricas y magnéticas.

En su artículo de 1861, Maxwell ideó un complejo mecanismo microscópico que llenaba el espacio y que permitía describir los campos eléctricos y magnéticos a través de analogías mecánicas. En el clímax de este trabajo, calcula la velocidad de propagación de ondas electromagnéticas a través de este hipotético medio. Lo que obtiene es impresionante: la velocidad de la luz, unos 300 000 km/s. De inmediato sugiere: «Difícilmente podemos evitar inferir que la luz consiste en ondulaciones transversales del mismo medio que causa los fenómenos eléctricos y magnéticos». En artículos posteriores las analogías mecánicas desaparecieron, dejando solo a un protagonista, simple y elegante, capaz de dar cuenta de las interacciones electromagnéticas y de la óptica: el campo electromagnético.

Esta unificación fue experimentalmente verificada veinte años después por el físico alemán Heinrich Rudolf Hertz. Hertz fue el primero que logró emitir ondas electromagnéticas y luego recibirlas en una antena. Usó en este caso ondas de radio, esas que ya discutimos en el capítulo «Hay onda entre nosotros». Además fue capaz de comprobar que se movían a la velocidad predicha por Maxwell: la velocidad de la luz. Esta revolución científica nos permitió el control de la transmisión y recepción de ondas electromagnéticas a través del aire. La primera aplicación tecnológica de ello estuvo a cargo del italiano Guglielmo Marconi, de quien hablaremos más tarde en el capítulo «Marconi, una estrella de la radio». Marconi desarrolló el telégrafo inalámbrico primero, y la radio después. Fue solo el comienzo de una cascada de nuevas tecnologías: el radar, la televisión, la telefonía celular, controles remotos, bluetooth, entre muchos desarrollos que cambiaron nuestra forma de vida para siempre.

§. Un nuevo mundo
Pero el legado de Maxwell no termina en la revolución tecnológica que gatilló. Sus teorías también desencadenaron una profunda revolución intelectual en la física. La posibilidad de que entre los objetos materiales existiera una sustancia invisible y etérea, el campo, que este fuera un objeto físico dinámico y sujeto a sus propias leyes físicas, y que incluso pudiese vibrar ondulatoriamente, cambió el modo en que pensamos el mundo natural.

La idea se tornó radical con la mecánica cuántica, en donde absolutamente todo se describe a través de campos fundamentales, incluso la materia (la famosa dualidad onda-partícula). La teoría de la relatividad de Albert Einstein también es una hija del pensamiento maxwelliano: fue justamente la aparición de la velocidad de la luz en las ecuaciones del campo electromagnético hechas por Maxwell, lo que motivó a Einstein a desarrollar la relatividad especial. Luego, en la relatividad general, descartó las ideas newtonianas de una acción a distancia de las fuerzas gravitacionales y creó el «campo gravitacional», en completa analogía con el campo electromagnético de Maxwell. Con ello, además, pudo predecir la existencia de las ondas gravitacionales (que, a pesar de los esfuerzos, nadie ha podido detectar todavía directamente, aunque la evidencia indirecta a favor de su existencia es arrolladora).

Otros análogos del campo de Maxwell llenaron la literatura científica de la segunda mitad del siglo XX, cuando se construyó el modelo estándar de las partículas elementales. Este aúna el electromagnetismo con las fuerzas nucleares. Esta unificación predice la existencia del bosón de Brout-Englert-Higgs (conocido como bosón de Higgs), una partícula que demoró cincuenta años de ferviente búsqueda en ser encontrada. Ocurrió el 4 de julio de 2012 en el Gran Colisionador de Hadrones (LHC), el instrumento más grande, complejo y costoso fabricado por el hombre. Se trata de un túnel circular de 27 km de circunferencia que acelera protones a velocidades enormes para luego hacerlos colisionar y estudiar los productos de esta colisión.

La ciencia ha cosechado muchos éxitos utilizando este ideal unificador maxwelliano. Solo un campo se resiste a ser parte de este juego: el campo gravitacional. A pesar de sus similitudes con el campo electromagnético, hay algo en él fundamentalmente distinto. Lamentablemente son distinciones demasiado técnicas como para tratarlas aquí. Pero se trata de distinciones cruciales, que no permiten incluirlo en el modelo estándar para construir la anhelada teoría unificada que incluya a todas las fuerzas de la naturaleza. Pero esto no es tan malo. Después de todo, son estos misterios los que permiten a los físicos, iluminados por la luz fresca y colorida de Maxwell, tener mucho trabajo por delante.

Capítulo 10
Prohibido tocar

Un instrumento que se toca sin tocarlo: paradójico. Como todo lo que rodeaba a su excéntrico inventor, el físico ruso León Theremin, quien también dedicaba su tiempo a crear sofisticados dispositivos electrónicos de espionaje para el servicio secreto ruso. Un personaje que recuerda a Q de James Bond, pero que además podía darse el lujo de entrar al Kremlin a conversar con Lenin, o ir a la oficina de Einstein en Princeton, o tocar su recientemente inventado instrumento junto a la Orquesta Filarmónica de Nueva York.

Hoy conocido simplemente con el nombre de su creador, el theremin es uno de los primeros instrumentos electrónicos de la historia. Concebido en 1919, se trata de una pequeña caja con dos antenas. Aproximando o alejando las manos de ellas, el intérprete puede cambiar el volumen y la altura del sonido. Su timbre tiene una textura misteriosa, etérea, algo terrorífica (siempre ha tenido éxito en películas de terror y misterio). El mismo Theremin lo bautizó como eterófono y debe ser el único instrumento que no requiere de contacto físico alguno. El instrumento se interpreta moviendo las manos, más como un conductor de orquesta que como instrumentista, y para su creador allí residía su principal encanto.

Compositores clásicos como Edgar Varèse y Dimitri Shostakóvich no tardaron en incluirlo en su repertorio. Los Beach Boys fueron los primeros en utilizarlo en la música popular, llevándolo a su máximo protagonismo en «Good Vibrations», la sinfonía de bolsillo de Brian Wilson. Bandas de triphop como Portishead lo usan en nuestros días (escúchelo, por ejemplo, en la canción que abre su álbum «Dummy»), así como otras de estilo tan diverso como los portorriqueños de Calle 13.

El theremin usa el cuerpo humano como parte del circuito electrónico. Ya dijimos que, aunque no los veamos, el vacío está lleno de campos eléctricos y magnéticos. Las manos del intérprete son parte de lo que se denomina un condensador. Al alejarlas o acercarlas a las antenas, las propiedades de este condensador cambian, lo que se traduce electrónicamente en cambios de volumen y tonalidad. Las manos interactúan con un invisible campo eléctrico y el cuerpo es un cable que lleva corriente hacia la tierra.

Casi tan famoso como el theremin es the thing, un dispositivo de espionaje creado por el ruso y que fue escondido en un escudo norteamericano labrado en madera. Fue obsequiado a la embajada norteamericana en Rusia por escolares en 1945, y estuvo colgado allí captando conversaciones durante siete años. Theremin escuchaba e interpretaba sin tocar. Ese era su arte.

Capítulo 11
Todo lo que perdemos

Contenido:
§. Sin vuelta atrás
§. El conciliador
§. Ordenar y desordenar

Es una de las grandes frases de la cinematografía de Woody Allen, pródiga en grandes frases. En Maridos y esposas, el personaje encarnado por Judy Davis dice sobre las relaciones de pareja: «Es la segunda ley de la termodinámica. Tarde o temprano todo se va a la mierda. Esta es mi definición. No la de la Enciclopedia Británica». Aunque personalmente prefiero no culpar a ninguna ley natural de mis fracasos en esas áreas, es verdad que la segunda ley de la termodinámica es responsable de muchas tragedias. Desde que se haya enfriado el café que tengo en la mesa hasta la gélida y oscura muerte hacia la cual marcha todo nuestro universo.

En el capítulo «¡A su salud, Mr. Joule!» hablamos del cervecero inglés James Prescott Joule, y del descubrimiento clave que realizó en 1845: constatar que el calor no era otra cosa que una forma de energía. Al calentar una taza de café, lo que hacemos es poner en movimiento las moléculas que lo componen. Mientras más energía, mayor agitación, vibración y colisiones entre estas. La temperatura es una medida de esa energía. La primera ley de la termodinámica nos dice que la energía del universo se conserva. Esto significa, por ejemplo, que para calentar mi café alguien debe pagar la cuenta energética. No podemos conseguir un café caliente gratis.

Joule logró develar el misterio del calor, mostrando que se trataba de otra forma de energía. Pero había un gran misterio aún por resolver. ¿Por qué esta energía pasaba siempre de los objetos calientes a los fríos? La primera ley no impide que la energía calórica de la atmósfera sea absorbida por mi café caliente, calentándolo aún más. Pero esto no ocurre. Esa misma restricción hace que los motores no puedan transformar toda la energía calórica en energía mecánica de movimiento. La eficiencia máxima está dada por el motor de Carnot que también discutimos en el capítulo «¡A su salud, Mr. Joule!». La segunda ley de la termodinámica es la que precisa las restricciones del flujo y conversión de la energía calórica. Pero para comprenderla a cabalidad hizo falta asimilar una idea que se debatía desde hace siglos, y cuya veracidad se iba asomando como inexorable: la realidad atómica y molecular.

Hoy nadie discute que el mundo microscópico que nos rodea está formado por moléculas. Unidades elementales de toda sustancia. Pequeñas partículas que se agitan, vibran y rotan con vigor. Una fuente de energía enorme en forma de calor que aparentemente está a nuestra entera disposición. Pero ocurre que cosecharla es muy difícil. ¿Por qué ir desde calor a energía mecánica es difícil, y no tanto al revés? ¿Cómo sabe la naturaleza en qué dirección procedemos con el proceso? ¿Hay acaso una flecha del tiempo en la naturaleza?

Parece que sí.

§. Sin vuelta atrás
La mayoría de las leyes de la física son, en el lenguaje de los físicos, «invariantes bajo inversión temporal». Pensemos, por ejemplo, en las leyes de Newton que describen las órbitas de los planetas girando alrededor del sol. Si filmamos una película del sistema solar y luego la miramos marcha atrás, lo que observaremos respeta perfectamente las leyes de la física. La película nos parecerá normal. Lo mismo ocurre con la mayor parte de los sistemas físicos a los que tenemos acceso normalmente. A menos que entremos en el ámbito de la física nuclear, todo lo que puede ocurrir en una dirección temporal también puede ocurrir en la inversa.

Paradójicamente, si miramos a nuestro alrededor, no parece que esto sea cierto. Una película en reversa se verá muy extraña. La razón no son los hombres caminando hacia atrás (un buen actor lo podría hacer de modo convincente), sino, fundamentalmente, los fenómenos asociados al calor: un café dejado en una mesa que se calienta espontáneamente o el humo de una chimenea que se concentra y vuelve al tronco que se quema. Estos fenómenos, a pesar de su excepcionalidad, no violan ninguna ley de la física microscópica. Lo que violan es una ley estadística: la probabilidad de que estas cosas sucedan es tan baja que en la práctica no pueden ocurrir. La segunda ley de la termodinámica es, en un sentido bastante preciso, la misma que no permite a un hombre lanzar una moneda y obtener sello un billón de veces seguidas.

En el siglo XIX la realidad atómica y molecular aún no era algo aceptado, y la ciencia del calor, o termodinámica, se construía independientemente de la mecánica de átomos y moléculas. Fue el físico alemán Rudolf Clausius el que creó el ingrediente que le faltaba a la termodinámica para constituirse en una teoría completa: lo llamó entropía. Esta, al igual que la energía, es una propiedad física que podemos medir; hablaremos de ella más adelante. Lo notable de esta nueva variable física introducida por Clausius en 1865 es la simplicidad de la ley que satisface. La segunda ley de la termodinámica dice que en cualquier proceso físico la entropía del universo debe aumentar. Así nos marca una flecha del tiempo. Sin entrar en tecnicismos, simplemente observe cómo se enfría un café. En este fenómeno podemos verificar que la entropía del universo aumenta, y por lo tanto no puede ocurrir en forma inversa, calentándose. Violaría la segunda ley. Otra cosa que permitió la entropía es contar con una definición matemáticamente precisa de temperatura. Eso mostró que debía existir una temperatura mínima, el cero absoluto, que corresponde a −273,15 °C. Note que desde la perspectiva microscópica es más o menos evidente que debe existir ese mínimo, ya que la energía de las partículas que conforman mi café debe tener un mínimo cuando la quietud reina en su universo molecular. Una vez alcanzado este mínimo, ya no puede fluir más calor desde mi café. No podemos enfriarlo más. Lord Kelvin fue quien definió la escala de temperatura que lleva su nombre en 1848. Esto es antes de Clausius. Kelvin no necesitaba precisiones matemáticas, su genio e intuición solo requirieron de las ideas que había instalado de Carnot y que intuían una entropía que estaba a punto de nacer.

§. El conciliador
Fue Albert Einstein, en uno de sus trabajos de 1905, quien finalmente despejó cualquier duda sobre la realidad de átomos y moléculas como entes constitutivos de la materia.

Si lo ampliamos lo suficiente, veremos que el café no es otra cosa que un complejo cúmulo de distintas moléculas, agua principalmente, que se mueven, colisionan, vibran y giran sin descanso. Para el físico vienés Ludwig Boltzmann, esto ya era evidente treinta años antes de que Einstein lo demostrara. Y en contra de la corriente de su tiempo, con la confianza absoluta de que la teoría atómica era correcta, se impuso el reto de derivar las leyes de la termodinámica a partir de la dinámica del mundo microscópico. Esto es similar a predecir el comportamiento general de la economía a partir del comportamiento de los individuos que la componen. Evidentemente, las necesidades económicas particulares de cada uno de estos actores no son lo importante en este caso, sino más bien el comportamiento global estadístico. Así, para entender las propiedades de mi café, no necesito saber exactamente qué hace cada una de las moléculas que lo componen, sino solo calcular algunos promedios.

Utilizando estos métodos, Boltzmann fue capaz de conciliar las propiedades del mundo microscópico con aquellas del mundo termodinámico (la microeconomía con la macroeconomía, para seguir con el símil), conciliación que quedó plasmada en una hermosa ecuación que no solo adorna su lápida, sino toda la historia de la ciencia, y que fundó una nueva rama de la física llamada mecánica estadística. Este tenaz amigo de los átomos sufría de una depresión crónica que, sumada a la incomprensión de sus pares, terminó con su vida. Boltzmann se suicidó en 1906 durante unas vacaciones en Italia.

§. Ordenar y desordenar
Intentemos entender de modo intuitivo el mensaje de Boltzmann. Suponga que en la biblioteca de la habitación que comparten dos niños hay ocho libros, cuatro de cada uno. El padre ordena la repisa, dejando los libros del hermano mayor a la derecha. Es claro que hay muchas maneras de dejar «ordenada» la repisa, pues al padre no le importa el orden en que se guardan los libros de cada niño, siempre que los del mayor estén a la derecha. De hecho, hay exactamente 576 formas de ordenar la repisa [2]. Esto contrasta con las 39 744 maneras distintas de guardar los libros «desordenados». Es decir, si guardamos los ocho libros al azar, en promedio, solo en uno de cada setenta intentos quedarán ordenados. Mientras más libros tengamos, esta probabilidad disminuye. Por eso, la repisa de los niños se desordena «espontáneamente» con el pasar de los días, mientras ellos los sacan y los guardan al azar. A esto me refiero cuando hablo de una flecha del tiempo. El tiempo avanza en aquella dirección en la que la repisa de los niños se desordena.

Imagine ahora que deja caer una gota de tinta en un vaso de agua. En un primer instante, las moléculas de tinta están todas juntas, ordenadas, como los libros del hermano mayor. Pero el movimiento molecular no sabe de orden, y en la práctica es tan caótico como el comportamiento de los niños. Las moléculas de tinta se «desordenan» y terminan distribuidas, más o menos homogéneamente, entre las moléculas de agua. La probabilidad de encontrarlas más tarde de nuevo reunidas en una esquina del vaso es totalmente despreciable.

Lo mismo ocurre con la energía contenida en las moléculas de mi café caliente. Están en contacto con las de aire, más frías y lentas, por lo que la agitación vigorosa de las primeras se transmite a las segundas. No podemos concentrar la energía en el café como no podemos concentrar la tinta en una gota, ni los libros del hermano mayor a la derecha de la repisa.

Boltzmann se dio cuenta de que la entropía de Clausius no era otra cosa que una medida del número de posibilidades de cierto estado «macroscópico» o global. Por ejemplo, en el caso de las repisas, el estado macroscópico que llamamos «ordenado» contiene 576 posibles estados «microscópicos». El estado «desorden» contiene los 39 744 estados microscópicos restantes. El estado ordenado tiene una cantidad menor de estados microscópicos que el desordenado, y por lo tanto menos entropía. ¿Quieren más precisión? Boltzmann define entropía como el logaritmo natural del número de estados; esto multiplicado por una constante universal, hoy conocida como constante de Boltzmann.

El aumento de la entropía ocurre porque el azar nos lleva siempre a situaciones más probables, esas con más estados a nuestra disposición, es decir más «desordenados». La entropía es ese desorden que siempre aumenta, sea en la habitación de los niños o en el universo. Claro que no todo está perdido. Podemos mantener ordenada la pieza de los niños o separar la tinta del agua, pero será a costa de algo. Y el balance es siempre negativo. No se puede limpiar la mesa sin ensuciar un paño. La entropía del universo, hagamos lo que hagamos, siempre aumenta.

A pesar del gran one-liner de la película de Allen, dudo que en la obra de Clausius o Boltzmann podamos hallar una explicación para el deterioro que las relaciones de pareja suelen mostrar con el paso de los años. Porque, a diferencia de lo que sucede con el amor, la segunda ley no tiene excepciones. El universo se enfría, se desordena, se homogeneiza, se apaga en un proceso inexorable, sin esperanza. En lo otro, en cambio, la esperanza es lo último que se pierde.

Capítulo 12
La ciencia de los ascensores (y de todo lo demás)

Contenido:
§. Sube y baja
§. La guerra contra el pensamiento mágico
§. Opiniones educadas

Insistentemente el hombre aprieta el botón del ascensor. Una y otra vez. Deja el dedo apoyado un rato. Lo retira. Aprieta tres veces seguidas. Se cruza de brazos. El hombre está enojado. Insulta al ascensor. Aprieta de nuevo. Yo lo miro con curiosidad. El tipo debe tener más de sesenta años. Seguro que no es la primera vez que usa un ascensor. Me lo imagino fantaseando con que el ascensor piensa: «Más vale que me apure o este caballero me va a enloquecer».

Es natural. Los ascensores no vienen con un manual de uso. Así como un montón de otras cosas. En muchas circunstancias de la vida cotidiana nos enfrentamos a objetos cuyo funcionamiento debemos adivinar. No tenemos tiempo para pedir el manual de instrucciones del microondas, o de averiguar cómo funciona el nuevo equipo de música, o el hervidor de agua. Solemos, por ejemplo, utilizar un procesador de texto nuevo sin consultar el bendito folleto de instrucciones. De hecho, entendemos que los software son mejores si son «intuitivos», «user friendly» (o lo que antes llamábamos «a prueba de tontos»).

La promesa para todo esto es simple: que no necesitaremos leer un manual, que a través de prueba y error, de observar cuidadosamente, y de nuestra experiencia anterior llegaremos a dominar el programa sin necesidad de instrucción.

Ese camino para obtener conocimiento —y nada, absolutamente nada más— es el método científico. Es un procedimiento práctico, del que muchos han escrito grandes tratados. Lo experimentamos a diario en buena parte de nuestras decisiones. La ciencia es solo la utilización sistemática y cuidadosa de este procedimiento. En palabras de Einstein, «la ciencia no es más que el refinamiento del pensamiento cotidiano».

§. Sube y baja
Al enfrentarse por primera vez a un fenómeno desconocido, debemos utilizar nuestra experiencia para proponer una hipótesis razonable. Así, en un comienzo, el acto de llamar un ascensor puede parecernos análogo al de llamar a un amigo que nos dará una mano. Uno al que podemos presionar para apurarlo. No es extraño entonces que un usuario primerizo caiga en la trampa e insista con el botón. Es solo una hipótesis equivocada. Un prejuicio natural. Uno que esperamos sea revertido cuando el uso continuo del ascensor de su edificio le muestre empíricamente que el ascensor es inmune a súplicas, insultos e insistencias. Su actuar es el mismo si oprimimos el botón una o quince veces.

Para ayudarnos en el proceso de descubrimiento, algunos fabricantes de ascensores decidieron instalar una lucecita que se enciende en el instante que apretamos el botón por primera vez. Algo que además nos revela que el apretar el botón tuvo la presión y prolijidad necesarias como para accionar la cadena de eventos que esperamos gatillar.

Pero para el señor del ascensor no era suficiente. La luz estaba encendida, y él seguía pulsando el botón e insultando las puertas de acero. ¿Sabría que su actuar no tenía objeto alguno? Probablemente. Si le hubiese preguntado, quizá me contestaba lo mismo que contestan los consumidores de homeopatía cuando se enfrentan a la evidencia de su ineficacia: «No puede hacer daño».

§. La guerra contra el pensamiento mágico
El señor del ascensor es víctima del pensamiento mágico. No importa mucho que le mostremos la evidencia. En este caso es sencillo. Bastaría que le pidiéramos que durante los próximos seis meses cronometre el tiempo que demora en el ascensor cada vez que lo use. Que la mitad de las veces solo apriete una vez, y el resto lo haga como siempre lo hace. Que finalmente promedie el tiempo de espera en ambos casos y compruebe que no hay diferencia significativa (siempre habrá alguna pequeña diferencia, pues el azar está en acción continuamente en cualquier experimento). El señor probablemente seguirá con su añosa tradición, porque al pensamiento mágico no lo tuerce la razón. Porque está anclado en alguna parte de la biología humana. Basta mirarnos a nosotros mismos. Hasta los más racionales de nosotros han insultado máquinas expendedoras de bebidas, o han «tocado madera», o han hecho pequeñas apuestas irracionales consigo mismos. La lucha contra la sinrazón suele ser constante dentro de cada uno de nosotros. Muchos pierden tempranamente esa guerra, como este señor que ahora apoya la palma completa de la mano en el botón del ascensor.

En realidad, las cosas van de mal en peor para el señor en cuestión. Todo comenzó el día en que llegaron los innovadores con una idea revolucionaria. Se les ocurrió agregar un segundo botón a los ascensores del mundo. Uno tendría una flecha apuntando hacia arriba, el otro una hacia abajo. Esto ahorraría tiempo de viaje y energía, ya que el ascensor que va subiendo no pararía a atender a aquellos que oprimieron el botón para bajar. Los innovadores, claro está, no contaban con que el señor del ascensor, y muchos otros de sus vecinos, apretarían invariablemente los dos. Por lo tanto, los que iban subiendo tendrían no solo que tolerar la inútil parada, sino también la voz amargada de nuestro personaje preguntando «¿baja?».

Es una forma de pensar a la que nos tienen acostumbrados los medios de comunicación. Sin ir más lejos, después de un sismo grande, buena parte de la información que recibimos proviene del pensamiento mágico de algunos de los derrotados en la batalla de la sinrazón. Tabloides, matinales y noticieros sucumben a la tentación de las explicaciones mágicas, sensacionales, casi tan escalofriantes como la ignorancia.

Porque es tan probable que un ascensor llegue más rápido por accionar más botones como que la ocurrencia de un terremoto tenga relación con tormentas solares o un aumento de la temperatura ambiental. No hay manual de uso de temblores, pero cualquiera puede construir una lista completa de sismos, incluyendo la actividad solar y la temperatura de ese instante y comprobar que no hay relación alguna. Habría que ver a los charlatanes llamando al ascensor con algo de apuro.

§. Opiniones educadas
El método científico no es, por lo tanto, solo un «método». Esta es de hecho una mala palabra, pues sugiere la existencia de alternativas. Tal como cotidianamente perdemos esa lucha contra el pensamiento mágico, también tenemos momentos en que triunfa la razón y aplicamos el método. Lo hacemos, por ejemplo, cuando definimos nuestra ruta cada mañana para llegar más rápido al colegio de los niños. Enfrentados a esta clase de problemas actuamos del mismo modo como un investigador enfrenta problemas científicos tales como el cáncer: observando las evidencias, establecemos una hipótesis, experimentamos, aceptamos las consecuencias, tanto si validan nuestra hipótesis inicial como si la tiran por la borda.

Esto es tan cierto en el ejemplo del ascensor como en cualquier compleja teoría científica. Si vemos que, en promedio, el tiempo de espera del ascensor es el mismo, independientemente del número de veces que lo llamamos, lo lógico es que concluyamos que basta con apretar el botón una vez para conseguir nuestro objetivo. Lo mismo ocurre con cualquier hipótesis. Si los experimentos no la validan, debemos abandonarla no importa el efecto o la utilidad que haya tenido en el tiempo. En este acto de modestia cósmica reside el corazón del pensamiento científico.

Es por esto que cuando miro al señor del ascensor, mi sentimiento es el mismo que experimento cuando me dicen que soy rígido si no acepto la utilidad de ciertas medicinas alternativas, o cuando escucho a gente hablando cosas sin sentido sobre el origen de los temblores.

El método científico, como vemos, no solo nos ayuda a ser científicos. Nos ayuda también a manejar mejor ese ascensor que el señor ahora insulta con gruesos adjetivos. Nos ayuda a eliminar prejuicios a través de la experiencia y la observación. Nos muestra, por lo tanto, un camino para construir no solo teorías científicas, sino opiniones educadas para la vida diaria. Y esto, sin duda, es de ayuda para todos. Después de todo, es bien probable que este señor, en su vida cotidiana, suela insultar bastante más que a inanimados ascensores.

Capítulo 13
La luz del ADN

Contenido:
§. El color del CD
§. Los Bragg
§. Watson y Crick y Wilkins (y Franklin)
§. La genética y la música
§.¿Y la herencia?

Las leyes de la herencia me traicionan. Estoy en un taco de proporciones, y la reacción de mis hijos es demasiado similar a la mía. Están aburridos. Se quejan. En el espejo retrovisor veo mi propia angustia en sus rostros. Me salva un viejo CD que está en el suelo. Lo recojo y se lo entrego a mi hija: «¿Qué ves aquí, Martina?». Lleno de orgullo escucho su respuesta: «¡Muchos colores, papá!».

Recuerdo cuando, siendo un niño, veía asombrado el programa de televisión Mundo 84, donde el periodista Hernán Olguín mostraba lo que sería la tecnología del futuro: el compact disc. Un científico con delantal blanco, guantes y mascarilla sostenía cuidadosamente ese pequeño disco plateado. Lo que más me impresionaba era el extraño arcoíris de saturados colores que reflejaba. En algunos años, decía Olguín, la música se comercializaría en ese formato con fidelidad absoluta. Veintiséis años más tarde, el CD se manipula sin ningún respeto y yace, sucio, rayado y olvidado, en el suelo de mi automóvil.

El CD, como gran parte de las tecnologías, pasa de moda. No así la belleza de la naturaleza y la curiosidad que provoca. Álex no tarda en demostrarlo: «Papá, ¿por qué vemos colores aquí?». No sé qué responderle. La pregunta es sencilla. La respuesta no. Pero está ligada a una de las más sorprendentes historias de la ciencia: el descubrimiento de la estructura del ADN, la molécula de la vida. Es que tanto el disco compacto como el ADN tienen la capacidad de transportar una enorme cantidad de información en formato digital, y de replicarse con fidelidad exacta sin mucha dificultad. Ambos, además, nos revelan el contenido de sus diminutos universos cuando observamos las intrincadas maneras en que la luz se refleja en ellos.

§. El color del CD
El atractivo despliegue de color que nos ofrece el disco es una indicación de la estructura microscópica que alberga. Observando el modo en que la luz se refleja es posible reconstruir la forma y el tamaño del surco que tiene impreso. El mismo fenómeno revela la geografía microscópica de cristales y moléculas. El descubrimiento de la estructura del ADN es el ejemplo más importante del uso de estas técnicas.

Al igual que en los viejos discos de vinilo, en los compactos la información está impresa en una larga espiral que se extiende por más de cinco kilómetros. La distancia entre surcos es de apenas 1,6 milésimas de milímetro (o micrones, que se abrevia con la letra µ).Dos bacterias de tamaño medio cabrían apretaditas en este espacio, imposible de observar a simple vista, pero que esconde el secreto del inusual comportamiento de la luz que incide sobre el CD.

Para explicarlo, recordemos que la luz puede describirse como una onda, un suave oleaje del campo electromagnético. La distancia entre cresta y cresta de estas olas —la longitud de onda— es distinta para cada uno de los colores puros. La más grande es la de la luz roja, que alcanza a unos 0,7 µ, mientras que la más pequeña corresponde a la luz violeta, y mide alrededor de 0,4 µ[3]. Cuando la luz interactúa con obstáculos pequeños, comparables con su propia longitud de onda, su carácter ondulatorio se hace notar, y cosas extraordinarias suceden. En el disco compacto, la luz rebota en una red de surcos distanciados a poco más del doble de su longitud de onda, lo que hace que los rayos, en lugar de reflejarse especularmente, lo hagan en los múltiples haces multicolores que mis hijos ahora disfrutan. Lo que sucede es que al igual que en el prisma que describimos en el capítulo «Una lección en colores», aquí cada color se comporta de modo distinto. Al iluminar con luz blanca, por lo tanto, cada uno de los componentes que la integran emergen en un ángulo distinto. El fenómeno se llama difracción, y la forma precisa en que la luz emerge es la huella dactilar del mundo microscópico que la originó. Así, un profesional podrá reconstruirlo, provisto de tres siglos de teoría y un buen computador.

Este fenómeno también se observa en la naturaleza. El colorido desplegado por algunos insectos, como mariposas o escarabajos, así como en algunas aves y peces, se debe a que poseen pequeñas escamas que no podemos ver a simple vista, pero que crean estructuras de tamaños comparables a la de la longitud de onda de la luz visible. Estas les otorgan matices tornasolados, que cambian de acuerdo con el ángulo desde el cual los observamos. Lo mismo ocurre con piedras tales como el ópalo.

§. Los Bragg
Mi hijo me pregunta cómo podemos ver esas escamas. Yo le digo que no son tan pequeñas. Que las podríamos observar con un buen microscopio. Incluso más indirectamente, analizando la forma en que la luz es reflejada, podríamos inferir varias propiedades de estas pequeñas estructuras. Por ejemplo, la sola existencia de este arcoíris en el CD nos indica que la distancia entre sus surcos debe ser comparable con la longitud de onda de la luz visible. Con una observación cuidadosa y algunos cálculos daríamos con el tamaño exacto. Este es un ejemplo extraordinario de cómo la ciencia puede deducir propiedades de universos intangibles a partir de la mirada de aquello que está a nuestro alcance como la luz. La belleza de las alas de algunas mariposas es consecuencia de un universo igualmente bello, pero tan pequeño que escapa a nuestros ojos. Su estructura microscópica es revelada en el despliegue cromático que nos entrega.

Pero hay escalas tan pequeñas que un microscopio tradicional no puede develar, como las escalas atómicas y moleculares. Un cristal de sal, por ejemplo, está formado por una red de átomos de sodio y cloro. Los átomos forman una estructura tridimensional perfectamente ordenada y regular. Las distancias típicas entre estos átomos son unas 10 000 veces más pequeñas que aquella entre los surcos del CD. Estas formaciones de átomos también pueden reflejar la luz, pero no podemos esperar ver ningún arcoíris —y de hecho, no es algo que veamos en un cristal de sal—, pues la longitud de onda de la luz visible es enorme comparada con estas dimensiones.

Fueron un padre y un hijo, los británicos William Henry y William Lawrence Bragg, quienes en la primera década del siglo XX desarrollaron la técnica de hacer incidir luz sobre cristales, para determinar su estructura observando los ángulos en que los rayos se reflejaban.

Ya que en este caso la luz visible no es útil, los Bragg utilizaron otro tipo de luz para develar estas estructuras. Una con una longitud de onda similar a las distancias atómicas y moleculares. Esta luz, invisible a nuestros ojos, es la que se conoce como rayos X. Al incidir estos sobre un cristal, son difractados en múltiples haces, de modo similar como la luz visible se refleja en el CD. Captándolos en placas fotográficas, podemos deducir la configuración de los átomos dentro del cristal, o de la molécula que estamos analizando.

Los Bragg ganaron juntos el Nobel de Física en 1915 por esta hazaña. William Lawrence tenía apenas veinticinco años entonces, y sigue siendo el más joven de los galardonados. Muy probablemente alguna fracción del genio científico del padre fue transmitida al hijo en una molécula de ADN.

§. Watson y Crick y Wilkins (y Franklin)
El 25 de abril de 1953, el mismo W. L. Bragg era director del famoso Cavendish Laboratory en Cambridge, Inglaterra. Ese día aparecía en la revista Nature el trabajo en que dos excepcionales jóvenes de su laboratorio, James Watson y Francis Crick, mostraban la estructura del ácido desoxirribonucleico o ADN. La famosa doble hélice que ya es un ícono popular. Cada una de nuestras células (más de un millón de millones) alberga una copia idéntica del ADN que contiene la información genética que nos caracteriza como especie y como individuos. Watson y Crick recibirían el Nobel de Medicina en 1962, junto a Maurice Wilkins. Claro que lo justo hubiera sido que alguien más compartiera ese estrado: Rosalind Franklin, una de las mujeres más injustamente tratadas por la historia de la ciencia, y que había muerto cuatro años antes. La biofísica inglesa había dedicado parte de su vida a irradiar ADN con rayos X para determinar su forma, utilizando las teorías de los Bragg. Los rayos X que reflejaban estas pequeñas moléculas quedaban inmortalizados en sus placas fotográficas, que eran las más claras y precisas de su época. Había una particularmente reveladora, que etiquetó con el número 51. Se dice que Watson y Crick la usaron sin la autorización de Rosalind. Y se dice, además, que en esa foto encontraron la inspiración esencial para desarrollar lo que ya sabemos: uno de los más grandes descubrimientos humanos de todos los tiempos.

§. La genética y la música
El Thriller de Michael Jackson marcó un récord, con más de cien millones de discos vendidos. Pero un solo individuo y su billón de copias exactas de material genético harían enrojecer al desaparecido rey del pop. Todas estas copias se reprodujeron a partir de la célula primigenia, aquella que se formó cuando se fusionaron el espermio y el óvulo de nuestros padres. Más increíble aún, muchos de los genes que portamos son copias exactas de aquellos que llevaban nuestros antepasados hace millones de años y que tuvieron éxito en la feroz batalla evolutiva.

¿Cómo se logran tantas copias tan precisas de generación en generación celular? Algunos errores hubo en el camino, claro. Los llamamos mutaciones, y son la raíz de la selección natural y de la evolución. Sin embargo, podemos comparar la precisión de estas copias con la forma en que es posible hacer copias precisas de un CD. Sucede que su largo surco contiene una secuencia —unos 5000 millones— de ceros y unos. Podemos codificar con asombrosa fidelidad el disco Thriller a través de una de estas secuencias, que luego el reproductor sabrá transformar en sonidos. La clave está en que copiar ceros y unos es muy fácil. Son solo dos posibilidades en cada posición de la secuencia o bit. Y aunque sean miles de millones, podemos hacerlo. Una máquina lo realiza rápido y de manera confiable, y el resultado es una copia exacta. De este modo podemos poblar el mundo de copias que son clones fidedignos del disco original: es la gran ventaja de la tecnología digital.

No ocurre lo mismo con un cuadro, por ejemplo. Cada porción tiene una infinidad de posibles colores y texturas. No podemos —por ahora— hacer copias totalmente fieles de Las meninas. Y si hacemos copias de copias, el resultado será cada vez más lejano a la realidad: es la tecnología análoga[4]. En ella es posible alejarse del modelo original en pasos tan pequeños que son imperceptibles, pero que se acumulan en el tiempo. Cambiar un cero por un uno, en cambio, es siempre un proceso categórico. Esta es la base de la estabilidad y precisión de copiado de la información digital.

§. ¿Y la herencia?
La información genética también es digital, y allí reside el secreto de su notable estabilidad y precisión para reproducirse copiosamente tanto dentro de cada individuo como de uno a otro a lo largo de la historia de la vida en la tierra. La clave está en esa estructura que revelaron los rayos X: una larga hebra helicoidal que contiene una secuencia de moléculas que funcionan como dígitos. Hay cuatro tipos, conocidos por las letras A, T, G y C. El material genético humano consiste en unos tres mil millones de estas letras.

El secreto de la reproducción celular está en el descubrimiento de Watson y Crick: la hélice es doble. Cada hebra está pegada con otra muy similar. La unión se realiza de modo que enfrente de una A siempre hay una T, y en frente de una G hay siempre una C. Así, ambas hebras pueden separarse como una cremallera y la maquinaria celular no tendrá problemas para generar ADN completo a partir de cada mitad. Basta pegar una segunda hebra enfrentando «letras» del modo ya descrito. Así la información genética se propaga como un disco muy popular, con fidelidad perfecta.

En nuestro caso, el código genético está duplicado. Uno se lo debemos a nuestro padre y el otro a nuestra madre. Esto puede ser bueno. Si uno sale defectuoso, hay otro muy parecido al cual acudir. También significa que nuestros hijos no son copias de nosotros, aunque lleven copias exactas de la mitad de nuestros genes.

Mis hijos comienzan a alegrarse ante el inminente fin del viaje. Ya reconocen los árboles y las casas del barrio de sus abuelos. El CD yace nuevamente en el suelo. Los observo y veo sus sonrisas. Reconozco en ellos mis dientes separados y mis cejas. Son los genes que les he transmitido. Aquellos que, al igual que los de cada una de las especies vivientes sobre la tierra, han triunfado en la batalla por la supervivencia y se han reproducido sin tregua por miles de millones de años de evolución sobre el planeta.

Capítulo 14
Chocolate y calentamiento global

Contenido:
§. La maquinaria vegetal
§. El problema con el CO2
§. La huella de carbono del chocolate

Cansado, sin energía y malhumorado después de un viernes que parecía interminable, encuentro un trozo de felicidad en el bolsillo de mi chaqueta. Juraba que mis chocolates ecuatorianos —85 por ciento de cacao— ya se habían terminado, pero una pequeña tableta yacía escondida justo para este instante de urgencia energética.

La primera característica del chocolate, que lo hace un producto único, es cómo se funde en la boca. La manteca de cacao es sólida a temperatura ambiente, pero se derrite a 35 °C, un par de grados por debajo de la temperatura del cuerpo humano. Además, para pasar de sólido a líquido, debe absorber cierta cantidad de calor, el calor latente del que hablamos en el capítulo «¡A su salud, Mr. Joule!», lo que origina la sensación de frescura que otorga un buen chocolate.

Además contiene mucha azúcar. Los humanos, como casi todos los animales, estamos diseñados evolutivamente para adorar este carbohidrato. Sus moléculas contienen gran cantidad de energía, que nuestra biología sabe utilizar. Y como seres vivos, todo lo que perpetúa nuestro material genético nos produce placer. Esclavo de la dictadura biológica, me como el chocolate.

Las 243 calorías que contiene esta tableta es la energía que quedará a disposición de mi organismo al digerirla. Está localizada en enlaces químicos de las tres moléculas básicas que contienen nuestros alimentos: proteínas, carbohidratos y grasas. Las dos primeras entregan unas cuatro calorías por gramo; la última, nueve. Cada caloría es equivalente a la energía que gasta una ampolleta de 100 watts en 40 segundos. Para extraerla del chocolate, en mis células ocurre una serie de reacciones químicas conocidas bajo el nombre de catabolismo. Uno de los ingredientes esenciales en este proceso es el oxígeno que respiro. Y los productos finales serán, además de energía lista para su uso, el agua y el dióxido de carbono (CO 2) que luego exhalo.

Así que el consumo de chocolate contribuye a mi huella de carbono, la cantidad de CO2 que libero a la atmósfera en mis actividades diarias. Pero no se preocupe. Aunque está un poco desprestigiado, el CO 2 que nuestros pulmones emiten es parte esencial del juego de la vida en este planeta. ¿Cómo puede ser malo el gas del que están hechas las burbujas del champán?

El problema son los excesos.

§. La maquinaria vegetal
El sol nos entrega casi toda la energía que consumimos. Las excepciones, como la energía nuclear, la energía geotérmica y la energía de las mareas, representan una cantidad insignificante en nuestro presupuesto energético. Note que la energía hidroeléctrica también viene del sol, que es el que provee al agua de la energía necesaria para evaporarse, elevarse, y así caer en las montañas para bajar y mover las turbinas de un generador. Tampoco es evidente que la energía del petróleo, el carbón o el gas provengan del sol. Pero así es. Lo veremos más adelante.

De hecho, el sol nos entrega mucha más energía de la que necesitamos. En un solo día, la atmósfera recibe una cantidad de radiación solar equivalente a la energía eléctrica que la humanidad consumiría —a la tasa actual— en siglos. El problema energético, entonces, no es un problema de producción. Es de distribución. De cómo almacenar esa energía y llevarla a los lugares donde la necesitamos.

Los grandes almacenadores y distribuidores de energía del planeta son los vegetales. Como el cacao, de donde proviene parte importante de mi barra de chocolate. Los vegetales contienen un excepcional sistema de transformación de energía llamado fotosíntesis: la planta usa la energía del sol, el agua que extrae de la tierra y el CO2 disponible en el aire para crear esas deliciosas moléculas repletas de energía, suerte de baterías naturales que nacen en el verdor de sus hojas. Como segundo producto, las plantas emiten oxígeno, precisamente el gas que nuestros pulmones necesitan para transformar el chocolate en energía. En cierto modo, la fotosíntesis es el proceso inverso de nuestro catabolismo. Y ambos conviven armoniosamente en el ecosistema.

La fotosíntesis la descubrió el médico de cabecera de la emperatriz María Teresa de Austria, el holandés Jan Ingenhousz, cuyo prestigio se debía al éxito que tuvo al vacunar a la familia real contra la viruela en 1768. Ingenhousz dedicaba parte de su tiempo a sofisticados experimentos. En el más famoso de ellos mostró que la luz era un elemento crucial en la producción de oxígeno en las plantas. Ya se sabía que un ratón no sobrevivía mucho tiempo dentro de un jarrón invertido, pues consumía el oxígeno que estaba dentro. También se sabía que si una planta acompañaba al ratón, entonces este no moriría. Ingenhousz mostró que esto era cierto solo en presencia de luz. En la oscuridad, el ratón moriría incluso más rápido, porque en esas circunstancias la planta, como el ratón, también consume oxígeno.

La maquinaria vegetal es impresionante. Entre el 1 por ciento y el 8 por ciento (el récord lo tiene la caña de azúcar) de la radiación que incide sobre las hojas se transforma en energía química. Aunque nuestros paneles solares pueden sobrepasar con creces esta eficiencia y llegar hasta cerca del 45 por ciento, por ahora los métodos artificiales son demasiado caros. Nada iguala la eficiencia de la vegetación cuando pensamos en el costo por unidad de energía almacenada.

§. El problema con el CO2
No todos los aceites y carbohidratos que producen las plantas son nutritivos. Si usted se come un trozo de madera (sí, la madera también es un carbohidrato), no conseguirá paliar el hambre y el palo pasará intacto por su sistema digestivo. En cambio, la energía contenida en él se puede usar como leña para calentar la casa. Un biocombustible.

En la chimenea ocurre un proceso muy similar al catabolismo humano. La leña se transforma en agua, calor y CO2 (y, lamentablemente, también en otros contaminantes tóxicos). La huella de carbono de este proceso es bastante grande, pero si la madera proviene de bosques que serán luego reforestados, no hay problema, al menos a lo que a huella de carbono se refiere. ¿Por qué? Porque la misma cantidad de dióxido de carbono que sale de mi chimenea será utilizada por los nuevos árboles para fabricar más leña. De igual forma, el CO2 que exhalé al utilizar la energía del chocolate será usado en la plantación de cacao para crear más frutos. Así quedamos mano a mano con el ecosistema. El problema de los biocombustibles es que no siempre volvemos a plantar ese vegetal cuya energía se usó a costa de liberar carbono a la atmósfera. Muchos bosques son depredados y transformados en desiertos. Pero es todavía peor cuando utilizamos la energía que fotosintetizaron vegetales que vivieron hace cientos de millones de años: se transformaron en combustibles fósiles como gas, carbón y petróleo, y quedaron atrapados en las profundidades de la corteza terrestre. Ese pasado irreforestable nos provee de la mayor fuente de energía y de emisiones de dióxido de carbono producidas por el hombre.

¿Y cuál es el problema con el CO2? Que es responsable del calentamiento de la Tierra. Sucede que todo cuerpo caliente emite radiación y se enfría. Y la Tierra no es una excepción. Su temperatura se mantiene estable en la medida en que la energía solar que absorbe sea igual a la que emite hacia el espacio exterior. Esta última es en buena parte invisible, pues su longitud de onda corresponde al infrarrojo, que nuestros ojos no perciben. La atmósfera seca es transparente para la luz visible del sol, pero es un poco menos transparente para los rayos infrarrojos, debido principalmente al vapor de agua y al CO2 que contiene. Ese fenómeno lo conocemos como efecto invernadero, que al dificultar la emisión de radiación infrarroja se comporta como una frazada planetaria que sube la temperatura de la atmósfera.

Hay que decir, sin embargo, que esta frazada es muy importante. Sin ella, la vida en la Tierra sería imposible. Sería un lugar gélido. Pero si la frazada es muy gruesa, la temperatura puede aumentar a niveles peligrosos para nuestro ecosistema. Hay un consenso mundial entre expertos climatológicos en que el aumento de la temperatura de la Tierra durante los últimos cincuenta años es producto, al menos en parte, del carbono derivado de combustibles fósiles que la humanidad ha liberado hacia la atmósfera.

§. La huella de carbono del chocolate
Lamentablemente, cuando me como este chocolate, no solo libero el carbono que fotosintetizó el cacao. Libero también el carbono de los combustibles que usó el barco que lo trajo a Chile, y de todo el transporte necesario para llevar la materia prima a la fábrica y el producto final a mis manos. También libero el del carbón que se quemó en la planta generadora de electricidad, que permitió cortar el árbol con que se hizo el papel del envoltorio. Y el que liberó el gas con que se derritió la manteca de cacao en la fábrica. Y vamos sumando. Así, cuando estoy ingiriendo mi famoso chocolate ecuatoriano, la huella de carbono de la que soy responsable supera con creces el que exhalé para digerirlo.

Lo malo es que, por mucha conciencia ecológica que tengamos, todavía no podemos hacer mucho para evitar las emanaciones de CO2. Los combustibles fósiles son por ahora difíciles de reemplazar totalmente, y si pretendemos un mundo donde la mayor parte de la gente viva en el desarrollo, entonces pareciera que las cosas solo pueden empeorar. La verdadera solución reside en la revolución tecnológica. Imaginar, por ejemplo, un mundo donde el dióxido de carbono sea un bien preciado, materia prima esencial para grandes fábricas de azúcar artificial que no solo nutran nuestros chocolates, sino también nuestros automóviles. Quizá una agricultura de alto rendimiento y alto consumo de CO2, basada en nuevas especies vegetales genéticamente intervenidas. O un mundo en que el bajo costo de los paneles solares deje la extracción de petróleo, gas o carbón como actividades económicamente inviables. La ciencia y la tecnología serán las que finalmente comandarán las tropas hacia a una utopía soñada donde todos los seres humanos podamos, sin sentimientos de culpa, comernos un chocolate.

Capítulo 15
Inmunes a la ciencia

Contenido:
§. La ciencia del error
§. Mentir y comer pescado
§. Estar seguros

Ya sea por miedos irracionales, por motivos religiosos, o por simple ignorancia, movimientos antivacunación han existido siempre. Peligroso. Hay pocas creaciones humanas que hayan marcado un hito tan profundo. El villano en el último tiempo —aunque lleva años en la palestra— es el timerosal, un preservante utilizado para evitar el crecimiento de hongos y bacterias dentro de los frascos que contienen el líquido inmunizador.

Usted podría decir que exagero. Que no hay nada contra las vacunas. Que el timerosal es un agente tóxico, que existen muchos artículos que así lo demuestran, y que por lo tanto es lógico que parlamentarios e incluso médicos corran a fiscalizar a laboratorios y eviten posibles daños a la salud de nuestros niños. Lamentablemente no es así. Esta es una antigua historia de mala ciencia, mal periodismo e intereses creados. Una que ha causado mucho más daño que todo el timerosal del universo.

La campaña que asocia autismo con vacunación comienza con un artículo publicado en febrero de 1998 por un grupo de investigadores británicos liderado por el médico Andrew Wakefield en la prestigiosa revista The Lancet, en que el timerosal nunca es mencionado. Allí se acusaba a la vacuna triple (sarampión, paperas y rubeola), y aunque Wakefield tuvo el cuidado de afirmar en su artículo que sus evidencias no podían probar esta asociación, llevó adelante una fuerte campaña mediática en pos de frenar el uso de la vacuna. Según él, el peligro residía en juntar las tres vacunas. Había que aplicarlas individualmente. Hoy este artículo es considerado un clásico del fraude científico. La revista lo retiró oficialmente el 2010, luego de que se probaran diversas faltas a la ética científica, como manipulación de datos, abuso con los pacientes y conflictos de interés. Esto último ya que Wakefield habría estado tramitando una patente para una nueva vacuna para el sarampión antes de comenzar su campaña en contra de la vacuna triple. Además, se le acusó que once de los doce pacientes tenían demandas en contra de las farmacéuticas, varias de las cuales se iniciaron antes de la publicación del artículo, y que Wakefield habría recibido grandes cantidades de dinero al hacerse parte de estas demandas. Varios de los colaboradores originales del artículo terminaron retractándose públicamente de las interpretaciones originales. A Wakefield se le acusó de conducta deshonesta y abuso de poder en el ejercicio de la profesión y se le revocó la licencia para ejercer la medicina en el Reino Unido.

Pero claro, algún lector asiduo a las teorías de la conspiración podría argumentar que probablemente todo esto fue manipulado por el poder de las grandes compañías farmacéuticas. Al respecto dos cosas. En primer lugar, hay que recordar que las malas prácticas no son monopolio de las grandes empresas. En segundo lugar, incluso si Wakefield no hubiese tenido ninguna intención fraudulenta, es evidente que la estadística de su trabajo no puede ser concluyente: se trata de apenas doce casos, sin ningún grupo de control. Niños autistas, pacientes de un hospital, que presentaban síndrome de inflamación intestinal y que recibieron la vacuna triple. Todos hechos bastante comunes de encontrar simultáneamente en una población grande como la de Londres.

El artículo era a todas luces deficiente. Pero entonces, ¿cómo logró publicarlo en The Lancet?

§. La ciencia del error
Mucha gente piensa que los artículos científicos publicados en revistas especializadas, con comité editorial y revisión de pares debiesen ser correctos. Error. Una gran proporción anuncia descubrimientos que no lo son. De hecho, algunas investigaciones coinciden en que la mayoría de las publicaciones son incorrectas. Parece inconcebible. Después de todo, estamos hablando de ciencia. Pero no lo es en absoluto.

Para entenderlo, veamos de qué manera los artículos científicos pueden estar malos. Lo menos común es la abierta deshonestidad. Alguien que altera intencionalmente los datos para lograr el resultado que necesita por razones extracientíficas. Es de lo que se acusa a Wakefield. Está también el error honesto. Puede ser conceptual, o de calibración de algún equipo. Es lo que sucedió, por ejemplo, con un famoso anuncio, en 2012, que afirmaba que los neutrinos viajaban más rápido que la luz. Finalmente, están los errores producto del azar.

Mostremos como pueden ocurrir con un ejemplo. Suponga que alguien afirma que hay buenas razones para pensar que las monedas en Chile están mal confeccionadas. Que es mucho más probable que al lanzarlas ofrezcan una cara que un sello. Muchos ciudadanos harán el ejercicio en sus casas, lanzando una moneda, digamos, diez veces. La probabilidad de obtener diez sellos seguidos es una en 1024. Si suficiente gente hace el ejercicio, es claro que muchos obtendrán este resultado. Serán ellos los más excitados por anunciar públicamente el hecho. Llamarán a la prensa. Probablemente serán escuchados. No se equivocaron ni cometieron fraude. El azar los llevó a un error. Existen muchas maneras de que el azar lleve a equívoco. Esto es normal, particularmente al comienzo de un eventual descubrimiento, cuando la evidencia es aún tenue. Pero ¿cómo llegan tantos errores a ser publicados? Bueno, los artículos son también revisados por editores y evaluadores que pueden pasar involuntariamente los errores por alto. Sobre todo cuando son errores sutiles, y más aún cuando el error es provocado por el azar. Por otra parte, los editores de revistas tienen interés en que sus publicaciones sean citadas, por lo que resultados impresionantes tendrán siempre muchas más posibilidades de llegar a ser publicados. Todos saben que «Monedas de Chile están cargadas», es una noticia; pero «Monedas en Chile no tienen anomalía alguna», no lo es. En resumen, nada tiene de raro que revistas serias publiquen resultados falsos. Por eso los hallazgos científicos no se determinan en una publicación. Requieren que el paso del tiempo, el escrutinio de los pares, la reproducción de los experimentos y las nuevas evidencias independientes los consoliden.

§. Mentir y comer pescado
Ahora usted podría estar pensando: «Bueno, todo lo anterior puede ser verdad, pero es irrelevante. El timerosal contiene mercurio, elemento que se sabe es un potente neurotóxico». Pero hay un error en esta afirmación. Se sabe que el mercurio y muchos compuestos que lo contienen son muy dañinos. No hay evidencia, sin embargo, que indique que el timerosal, en las dosis usualmente administradas con las vacunas, tenga efectos nocivos. Lo que ocurre es que los átomos por sí solos no son héroes o villanos. El carbono y el nitrógeno, por ejemplo, son átomos comunes a los que nadie teme. Están presentes es casi toda nuestra alimentación diaria. Sin embargo, si los combinamos podemos crear cianuro, una de las sustancias más mortales que existen. La diferencia entre la vida y la muerte está en un pequeño reordenamiento de átomos que en sí mismos no tienen malas intenciones. También está la cuestión de la dosis. La cafeína es tóxica, pero hacen falta unas 100 tazas de café en el lapso de 24 horas para que pueda matarnos.

La evidencia indica que en el caso del timerosal, el mercurio se reduce a moléculas que el cuerpo puede eliminar. Claro que con algo tan delicado como un compuesto que administraremos a nuestros niños debemos ser particularmente cuidadosos. El consenso científico después de años de estudios independientes es que no hay relación alguna entre las vacunas que contienen timerosal y el autismo. A pesar de esto, la mayor parte del mundo desarrollado comenzó a eliminar el timerosal de los programas de vacunación obligatoria. Pero la razón no estaba basada en el miedo a este compuesto. Era una respuesta al miedo que generaron las discusiones en la población, y a la constatación que los padres comenzaban a negarse a vacunar a sus hijos. En Inglaterra, la tasa de niños vacunados con la triple bajó de 92 por ciento en 1996 a 73 por ciento en 2009, lo que causó un aumento en las enfermedades de las que estas vacunas protegen. No había más remedio que eliminar el uso del timerosal.

Por cierto, la tasa de incidencia de autismo no bajó en ninguno de los países en que el preservante fue removido.

Y a modo de comparación un dato: es muy probable que la cantidad de mercurio que su hijo ha ingerido comiendo pescado supere con creces a la de todo el programa de vacunación al que ha sido expuesto.

§. Estar seguros
A diferencia de lo que muchos creen, la ciencia no es capaz de probar nada. Especialmente cuando se trata de resultados negativos. No podemos probar que el timerosal, en ciertas circunstancias, para ciertos pacientes, no pueda ser dañino. De hecho, es sabido que en altas dosis lo es, y que en algunos pacientes puede causar reacciones alérgicas. Pero, de igual modo, no podemos probar que la lechuga, en ciertas circunstancias, no provoque calvicie. Solo podemos acumular evidencias, poner cotas. Obviamente, el llamado principio precautorio al que muchos aluden dice que si no estamos seguros de que algo sea inocuo, mejor evitarlo. El problema es que el dejar de hacer algo también es una decisión activa cuyas consecuencias pueden ser peores que aquellas que buscamos evitar. Eliminar el timerosal, por ejemplo, implica que las vacunas deben envasarse en dosis individuales, cosa que aumentará ostensiblemente el precio de los programas de vacunación. Es allí donde los especialistas deben entrar a evaluar de qué modo optimizamos los recursos para la salud pública. Yo no soy uno, pero sí le puedo asegurar una cosa: si usted no inmuniza a su hijo por miedo al timerosal, la probabilidad de que tenga problemas de salud en el futuro aumentará. Es simple estadística. Los problemas asociados a efectos secundarios de las vacunas son hechos infinitamente más raros que las complicaciones producidas por las enfermedades de las que protegen.

Capítulo 16
Física de una sopa

Se echa de menos la lluvia en tiempos de tanta sequía. La obstinación de estos veranos extensos supera los límites de toda paciencia. Me hace falta caminar por veredas mojadas, entrar en un restaurante japonés, pedir una sopa miso y observar en ella un modelo en miniatura de la dinámica de la tormenta que tanto echo de menos.

Quizá no se haya percatado, pero la próxima vez que tome una sopa miso no se quede solo con la complejidad de sus aromas y su sabor. Vea también la belleza de la física, en este caso de los fenómenos fuera del equilibrio que en ella se despliegan.

La sopa miso se elabora con una pasta de porotos de soja fermentados, cuyas partículas se dispersan en el caldo de pescado o dashi. El movimiento de estas partículas nos revela las corrientes de líquido dentro de la sopa, las corrientes de convección. Para observarlas, solo necesita un poco de paciencia. No la mueva y permita que la superficie se enfríe un poco. Observará cómo columnas de caldo se elevan desde el fondo arrastrando las partículas de miso, formando un conjunto de manchas en la superficie.

Esas manchas se denominan celdas de convección, y cada una corresponde a una columna de sopa en cuyo centro las corrientes ascendentes arrastran el miso hacia la superficie, mientras en sus bordes —que son corrientes descendentes— lo llevan nuevamente al fondo del plato.

Esto ocurre porque la sopa se enfría mucho más rápido en la superficie, donde la evaporación produce una muy eficiente pérdida de calor [5]. Así, la sopa más caliente se hace más ligera y flota sobre el caldo más frío y denso. Al llegar arriba se enfría, y entonces baja. Tenemos una celda de convección.

El primero en observar la convección en los líquidos fue el conde Rumford, un físico e inventor estadounidense nacido en 1753. Antes de su título nobiliario se llamaba simplemente Benjamin Thompson y es uno de los más pintorescos personajes de la historia de la ciencia. A pesar de que sus más importantes contribuciones científicas fueron en el ámbito de la física, también incursionó en la nutrición, inventando una afamada sopa que lleva su nombre: siendo ministro de Guerra de la corte de Bavaria, intentó mejorar las condiciones nutricionales de los soldados y de los pobres con un caldo barato y alimenticio de cebada, arvejas y papas. Pero la sopa también fue fuente de inspiración científica para el conde. En una oportunidad en que se quemó la lengua mientras tomaba una cucharada, se preguntó sobre sus propiedades termales: ¿por qué un plato de sopa demora muchísimo menos en enfriarse que un pastel de manzanas? La razón estaba precisamente en las corrientes de convección. El líquido de más arriba se enfría y baja, permitiendo que el más caliente suba para entregar su calor al ambiente.

En el relleno del pastel de manzanas, en cambio, la viscosidad no permite movimientos rápidos del líquido, por lo que la parte cercana a la superficie se enfría y el calor debe llegar allí desde el interior por conducción, una forma mucho más lenta de transporte del calor.

La tormenta también provee un ejemplo de convección. Cuando de grandes se trata, el villano suele ser el cumulonimbo, el rey de las nubes, y uno de los más imponentes fenómenos de la naturaleza. Se trata de una enorme columna de pequeñas gotas de agua y hielo que puede medir hasta veinte mil metros de altura. Se forma cuando el aire caliente y húmedo cercano al suelo se eleva por razones similares a las que hacen subir la sopa del fondo de mi plato. El aire caliente es más liviano y quiere subir. Al hacerlo, la masa de aire cálido se expande y se enfría, dificultando su ascenso. Sin embargo, cuando el aire contiene suficiente agua y la temperatura desciende suficientemente rápido con la altura, ocurre otro fenómeno: la humedad se condensa, creando pequeñas gotas de agua y liberando calor en el proceso [6]. Así el aire se mantiene caliente y gana nuevo ímpetu en su carrera hacia arriba, llevando consigo las gotitas de agua, que al igual que las partículas de miso, revelan estas corrientes de aire ante nosotros: vemos una nube.

Las formaciones algodonadas de los cumulonimbos son una expresión de la desesperada ascensión de las corrientes cálidas, que pueden superar los 100 km/h. Cuando la temperatura ya es suficientemente baja, las gotas de agua se transforman en cristales de hielo, que van creciendo al colisionar y adherirse a otros hasta transformarse en granizo, el que finalmente caerá por su propio peso. La caída provoca corrientes de aire frío que descienden por el exterior de la nube. Generalmente el granizo se derrite en la caída, provocando la lluvia.

El cumulonimbo es una celda de convección muy similar a las que se producen dentro de un tazón de miso. De hecho, las tormentas de convección suelen consistir en un buen número de cumulonimbos, que mirados desde un avión que vuele sobre ellos no se ven muy distintos de mi sopa. Sin embargo, en una calurosa tarde sin viento, sin nubes, al otro lado de la puerta, espera una atmósfera insípida y silenciosa. Mejor quedarse. ¡Mozo! ¡Otra miso, por favor!

Capítulo 17
Están lloviendo rayos

Contenido:
§. El alma del rayo
§. La edad de las cosas
§. Preguntas cósmicas

Debía de estar nervioso Victor Hess esa mañana. Solo 48 horas antes el Titanic se había hundido, subrayando la precariedad humana frente a las fuerzas de la naturaleza. Hess terminaba los preparativos para iniciar un arriesgado ascenso, a bordo de un globo de hidrógeno, a cinco kilómetros de altitud. Podría haber parecido un mal momento, pero el 17 de abril de 1912 era el día preciso. En pocas horas habría un eclipse casi total de sol. Un evento poco frecuente que Hess, físico austriaco del Instituto de Investigación del Radio en Viena, esperaba con ansias. Necesitaba que la luna bloqueara la luz del sol para averiguar si las misteriosas radiaciones que hoy llamamos rayos cósmicos, y que él mismo había concluido venían desde el cielo, provenían de este astro.

Hess subía a la barquilla pensando en la oscura y estrellada noche que vio naufragar al gran transatlántico. Y claro, los eclipses siempre ocurren cuando la luna está nueva, es decir, cuando el sol ilumina su cara posterior, mostrándose oscura ante los observadores terrestres. Hess subía ahora a enfrentarse a la misma luna, una luna culposa que intenta escabullirse, pero cuya presencia será revelada muy pronto, cuando pase por delante del sol. Allí el austriaco usaría sus electrómetros, instrumentos capaces de medir la carga eléctrica que las moléculas de aire adquieren debido al bombardeo cósmico que desgarra sus electrones.

Si esos rayos venían del sol, pensaba Hess, ahora la luna los bloquearía, al menos en parte, lo que haría disminuir la carga eléctrica del aire.

No fue así. Sus mediciones mostraron que cuando la luna se interponía, no había diferencia alguna, y que por lo tanto la fuente de los rayos no era el sol. Hoy sabemos que las radiaciones cósmicas provienen desde mucho más allá del sistema solar, de los confines de nuestra galaxia, e incluso de otras galaxias lejanas. Se trata de una lluvia de partículas extraterrestres que recibimos desde todas direcciones. Nada podía hacer la luna, ese pequeño satélite, para detener el bombardeo cósmico. La excitación de este gran descubrimiento científico debe de haber sido eclipsada en alguna medida por la tragedia omnipresente del Titanic. Esa tragedia que la luna no había podido iluminar. Como cantaría Bonnie Tyler setenta años después, «total eclipse of the heart».

¿Pero de dónde venían entonces estos rayos cósmicos? Esa respuesta probó ser un poco más compleja.

Victor Hess hizo una gran cantidad de viajes en globo entre 1911 y 1913. Su idea era averiguar el origen de la radiación que provocaba que los átomos del aire se ionizaran, es decir, que perdieran electrones adquiriendo carga eléctrica.

El fenómeno era ya conocido por los fundadores de la física nuclear. Se sabía que la corteza terrestre contiene sustancias radiactivas que emiten partículas y radiación. Que esta, a su vez, colisiona con los átomos en el aire. No era de extrañar, por lo tanto, encontrar aire ionizado en la atmósfera. Pero ¿era la tierra la única fuente de radiación ionizante?

Hess disponía de los electrómetros de precisión que el físico alemán Theodor Wulf había diseñado años antes. Estos aparatos miden las pequeñas corrientes que puede transportar el aire ionizado. Recordemos que una corriente no es más que el movimiento de cargas eléctricas. El aire neutro, no ionizado, no contiene cargas que transportar, pero mientras más átomos eléctricamente cargados contenga, mejor conducirá la electricidad. El mismo Wulf fue de los primeros en preguntarse si la emisión radiactiva de la tierra era suficiente para dar cuenta del fenómeno de ionización del aire. En un viaje a París, se le ocurrió comparar la medida de esta ionización en el suelo con aquella en lo alto de la torre Eiffel. Si las radiaciones provenían solo de la tierra, el aire arriba debía estar menos ionizado. Descubrió que así era, pero en mucho menor medida de lo que predecían sus cálculos.

Fueron los viajes de Hess los que terminaron por zanjar cualquier duda. A cinco kilómetros de altura, el aire ya estaba dos veces más ionizado que sobre el nivel del mar. Para Hess era claro, la radiación ionizante venía desde arriba. Luego, el eclipse de abril de 1912 terminaría por confirmar que no era el sol el responsable.

Como consecuencia de todo esto, en diciembre de 1936 Victor Hess emprende un nuevo viaje a las alturas. Esta vez a Estocolmo para recibir el Premio Nobel de Física.

§. El alma del rayo
Hoy sabemos que los rayos cósmicos primarios son núcleos atómicos que inciden en la atmósfera. La mayoría son protones (núcleos de hidrógeno), pero su zoología es variada. Los distintos núcleos llegan en proporción similar a su abundancia en el universo. Al chocar con las moléculas de aire inducen una cadena de colisiones, que provoca la creación de un sinnúmero de otras partículas, o rayos cósmicos secundarios. Durante las primeras décadas del siglo XX, antes del advenimiento de los grandes aceleradores, los rayos cósmicos eran la fuente principal de partículas a grandes velocidades para realizar observaciones en física. En 1932, por ejemplo, Carl D. Anderson, físico norteamericano que trabajaba en el Instituto de Tecnología de California, fue el primero en descubrir una partícula de antimateria: el positrón o antielectrón. Esto le valió compartir el Premio Nobel de Física, en 1936, con Victor Hess.

Anderson observaba los rayos cósmicos usando una cámara de niebla. Estas cámaras permiten ver las trayectorias de las partículas elementales, que al pasar por un contenedor sellado que contiene vapor de agua, provocan la condensación de esta. Así la partícula en movimiento crea una estela de gotitas de agua que podemos ver y fotografiar.

§. La edad de las cosas
Los rayos cósmicos tienen importantes aplicaciones. Sin duda la más famosa es que hacen posible la datación por carbono 14. La cosa es más o menos así. El átomo de carbono se caracteriza por tener seis protones en su núcleo. Como ocurre en casi todos los núcleos, este además contiene neutrones, partículas neutras de masa similar a la de los protones. El tipo más abundante de carbono es estable y contiene seis neutrones. Se lo conoce como carbono 12 (6+6). Casi el 99 por ciento del carbono que encontramos en la tierra es de este tipo. El 1 por ciento restante contiene siete neutrones, por lo que se conoce como carbono 13 y es también estable. El carbono 14, en cambio, se encuentra en cantidades despreciables y es inestable, ya que eventualmente uno de sus neutrones se transforma en un protón, emitiendo en el proceso un electrón y un antineutrino. El carbono 14 se transforma en nitrógeno 14, un átomo estable muy común en nuestra atmósfera. Este proceso, llamado decaimiento radiactivo, ocurre de tal forma que si tenemos 1 kilo de carbono 14, en 5730 años solo nos quedará la mitad. Se dice entonces que la «vida media» del carbono 14 es de 5730 años.

El mecanismo de la datación se basa en el carbono que contienen los organismos vivos. Las plantas lo obtienen del dióxido de carbono presente en la atmósfera[7], comenzando la cadena alimenticia que provee de este elemento a toda la fauna terrestre. Cuando morimos, dejamos de reciclar nuestro carbono, por lo que el carbono 14 comenzará a desaparecer, y podemos estimar nuestra data de muerte de acuerdo a la cantidad de carbono 14 que quede en nuestros cuerpos (cosa que es posible incluso en restos fosilizados).

¿Cómo es posible que después de millones de años aún quede suficiente carbono 14 en la tierra como para que sea útil en este ejercicio? La respuesta está en los rayos cósmicos. Son los responsables de las colisiones de neutrones con nitrógeno 14 en la alta atmósfera, que dan origen a nuevos núcleos de carbono 14. Esta es la fuente que permite que su cantidad disponible en la atmósfera se haya mantenido relativamente constante por cientos de miles de años.

§. Preguntas cósmicas
La radiación cósmica está en todas partes. Una lluvia suave que nos bombardea desde los confines del universo. Hasta nuestros días no sabemos con precisión el origen de estas partículas y la forma en que alcanzan sus enormes velocidades. Es bastante aceptado que algunas son aceleradas en restos de supernovas dentro de nuestra galaxia. Las más energéticas, sin embargo, aún son materia de discusión. Sus energías son millones de veces mayores que las que se logran en el acelerador actual más poderoso, el Gran Colisionador de Hadrones. Se piensa que podrían haber sido acelerados cerca de los agujeros negros supermasivos que contiene el centro de muchas galaxias.

Si el hundimiento del Titanic subrayó la pequeñez humana frente a la naturaleza, los rayos cósmicos que Hess descubrió dos días después son como el eco que nos lo sigue recordando día a día. Sus energías imposibles de reproducir, sus orígenes difíciles de comprender y sus consecuencias en la tierra, desde su posible influencia en el clima hasta en las mutaciones que provocan el cáncer, son una permanente burla cósmica. Una que lejos de detenernos nos motiva a la aventura de abordar más globos, y más barcos.

Capítulo 18
¿Cuánto vale el show?

Contenido:
§. Lo mejor está por venir
§.¿Cuánto vale un tango?
§.El motor de la ciencia

Los primeros días del mes de julio de 2012 fueron excepcionales en la vida cotidiana de los físicos. Probablemente nunca habíamos sido tan demandados. La familia, los amigos, los medios de comunicación, las redes sociales, todos querían saber qué era ese bosón de Englert-Brout-Higgs del que tanto se hablaba. Diversas fueron las preguntas, las explicaciones y los enfoques con que se abordó el tema, pero hubo una pregunta que jamás dejaba de ser formulada: ¿para qué sirve todo esto?, ¿tiene sentido gastar casi tres veces el presupuesto anual que Chile invierte en educación para fabricar una máquina (el Gran Colisionador de Hadrones —LHC por su sigla en inglés) que busca una hipotética partícula que debería existir de acuerdo a una teoría formulada en los años sesenta?

Y la respuesta que casi todos damos es la misma: este hallazgo no solo significa un tremendo avance cultural para la humanidad, sino que además, en el camino, se ha desarrollado un macizo cuerpo de tecnología y de capital humano avanzado, los que han tenido un enorme impacto en la sociedad y la economía.

En el afán de demostrar la utilidad de lo que hacemos, los científicos solemos dar variados ejemplos de cómo la ciencia básica es importante para la sociedad. Uno clásico: el mismo laboratorio CERN que vio al bosón de Brout-Englert-Higgs por primera vez, vio también nacer la World Wide Web, como veremos en el próximo capítulo. Y antes estaba la mecánica cuántica, una extraña y carismática teoría que permitió parte del desarrollo de computadores personales y de la energía nuclear. Y la glamorosa relatividad de Einstein y su importancia para el desarrollo del GPS. Y antes están las teorías electromagnéticas, la termodinámica o la mecánica, cuyo impacto en nuestras vidas es evidente. En realidad, casi cualquier tecnología que se nos venga a la cabeza depende, en alguna medida, de algún desarrollo científico básico que probablemente jamás soñó sus aplicaciones.

Y aunque todo esto es verdad, hay una mentira escondida en el énfasis. Una que me incomoda. Se trata de esa necesidad que tenemos de hablarle a la gente como si estuviéramos justificándonos o pidiendo más financiamiento para la ciencia a tecnócratas y economistas. Como si la verdad desnuda de aquello que creemos es lo más importante, no la pudiese entender nadie.

Como dice esa famosa frase que algunos atribuyen a Richard Feynman: «La ciencia es como el sexo. Tiene ciertas aplicaciones prácticas, pero no es la razón por la que la practicamos».

§. Lo mejor está por venir
Lo que no se ha dicho lo suficiente sobre el famoso bosón es que lo más importante sobre él es lo que aún no se descubre. De hecho, aún ni siquiera estamos seguros de que se trate de la partícula que predice la teoría de partículas elementales llamada «modelo estándar». Es extremadamente probable que, al menos, se trate de algo muy similar, y que de no serlo exactamente, sea algo que cumple, al menos en parte, sus funciones en la teoría. En ese sentido, podemos decir ya con bastante seguridad que el bosón de Englert-Brout-Higgs ha sido descubierto, y es razonable celebrar. Después de todo, es la culminación de una aventura de búsqueda de cincuenta años y miles de millones de dólares. Alguien, sin embargo, podría quejarse: bien caro resultó este bosón. Pero depende de cómo se calcule su valor. Y más allá de la tecnología a la que ha dado origen, la aventura que la mayoría de los físicos esperan recién comienza. Porque encontrar el bosón era, de algún modo, esperable. El modelo estándar ya había mostrado demasiados éxitos, y el campo de Higgs es parte central de la teoría. No haberlo encontrado habría sido mucho más sorpresivo, aunque un balde de agua fría para sus inversionistas. Su aparición justificó en parte la gran inversión, pero lo que ocurra en adelante es lo más importante. Ahora más datos y más experimentos comenzarán a buscar la naturaleza de esta partícula, y mejor aún, de otras que emerjan. Necesitamos cruzarnos con algo inesperado, como el continente con que se cruzó Colón cuando viajaba a Asia con rumbo oeste.

Sucede que al modelo estándar lo sabemos incompleto, pues no incluye la fuerza de gravedad. Encontrar una teoría que la incluya es esencial si queremos responder la gran pregunta de la física: ¿cómo nació el universo? Es por eso que nadie quiere verificar el modelo estándar de modo exacto. Necesitamos sorpresas, modificaciones a ese modelo. Se especula sobre dimensiones escondidas, supersimetría, teorías de cuerdas y otras cosas, pero se necesita que la naturaleza hable. Y recién ha comenzado a hacerlo en el LHC, una suerte de amplificador de su sutil voz. Aquí esperamos mucho más que un bosón. ¿Vale la pena la inversión? Creo que sí.

§. ¿Cuánto vale un tango?
Es obvio que la ciencia no solo tiene un valor asociado a sus aplicaciones tecnológicas. Tiene además un valor intrínseco, el cual suele ser más difícil de apreciar, pero estoy seguro que es el más importante. Podríamos llamarlo su «valor cultural». Es el que más apreciamos los científicos básicos, pero el que menos solemos subrayar. No me refiero a un concepto etéreo y espiritual, ni a una consigna política progresista. Me refiero a algo muy real y de consecuencias prácticas enormes: solo valorando correctamente la ciencia podremos crear las políticas públicas que esta requiere para su desarrollo.

El problema de darle un valor cultural a la ciencia es difícil, y dejaré que sea un economista quien escriba sobre el tema. Pero me aventuro con un ejemplo prestado del arte: ¿cuál es el valor del tango? Hay consideraciones obvias: el valor de la industria discográfica asociada, el valor de la propiedad intelectual, el turismo que atrae. Eso es el análogo a las aplicaciones tecnológicas de la ciencia. Si le restamos todo eso. ¿Queda algo? Me parece que es obvio que sí (también creo que si alguien piensa que no, es solo porque no tiene sangre en las venas). ¿Podemos valorar económicamente eso que queda? Hay muchos artículos académicos que tratan el tema desde distintas perspectivas, pero es obvio que el problema es difícil y no habrá una respuesta única y precisa. Se podría decir, además, que un bien que no puede transarse, por lo que no tiene ni oferta ni demanda, difícilmente podría tener un precio. Es posible, pero en este caso puedo imaginarme un escenario de ciencia ficción en donde el producto sea transable (en física llamamos a esto un «experimento mental»). Uno al estilo de la película Eterno resplandor de una mente sin recuerdos, donde sea posible borrar los recuerdos. Imaginemos que un empresario del futuro tenga el poder de borrar e instaurar recuerdos en todos los cerebros del mundo, además de hacerlo en todos los documentos escritos existentes. Sería capaz, por lo tanto, de transar la cultura. De hacer que de un día para otro el tango pasara a ser chileno para todos los habitantes del planeta. Bueno. Ahora el tango tendría valor monetario. El gobierno de Chile podría comprar la satisfacción de ver cómo el icónico baile que protagonizan Al Pacino y Gabrielle Anwar en Perfume de mujer nació en Tocopilla. ¿Cuánto estaríamos dispuestos a pagar? Un caso más cercano es el del fútbol; ¿cuánto vale Alexis Sánchez? Olvidemos su pase, las boleterías de los estadios, la publicidad que hace. Restemos todo eso, ¿cuánto vale lo que queda para el país? Probablemente mucho. Es la cara sana del patriotismo la que demanda ávidamente toda esta cultura.

§. El motor de la ciencia
Una cosa es que la ciencia tenga valor intrínseco, y otra muy distinta es que la desarrollemos con el propósito consciente de construir ese valor. Eso hace que la ciencia o el arte sean muy distintos a una actividad empresarial. Los tornillos se fabrican debido al valor que generamos al convertir acero en tornillos. La ciencia no. La ciencia la hacemos simplemente porque nos gusta hacerla (aunque de seguro hay empresarios, quizá los mejores, cuya obsesión por su quehacer los hace funcionar de un modo similar). Su motor es el mismo de casi toda empresa importante humana y casi nunca encontraremos propósitos razonables que puedan ser analizados en un plan de desarrollo a presentar a un gerente de operaciones. Y no me tomen a mal, pero si usted tuviera que rescatar un par de cosas de un cataclismo, o enviarlas al espacio para compartirlas con seres de otros mundos, ¿elegiría al Jumbo o al Canto General? El valor de la cultura es enorme, pero la cultura no se hace con el propósito de crear ese valor. La cultura se hace por placer, por amor, por ego, por llegar antes que otro a un territorio inexplorado, por curiosidad, por azar o por simple obsesión. Es cosa de mirar las biografías de científicos y artistas. El Taj Mahal, uno de los más grandes monumentos arquitectónicos del planeta, fue un esfuerzo de miles de esclavos que trabajaron durante más de veinte años. Todo por el sufrimiento de un emperador tan poderoso como doliente frente a la muerte de su esposa favorita. El LHC es algo muy similar en el más auténtico de los sentidos. Solo que sin emperadores ni esclavos. Solo que por amor a la naturaleza, en lugar de aquel por una mujer. Pero una empresa igual de demente si la medimos con la vara de la ingeniería de gestión de proyectos. Una de un precio aparentemente absurdo, sin fines completamente determinados y sin un claro plan estratégico. Pero es lo notable del amor. Permite que lo inesperado florezca. Lo inesperado, lo nuevo, lo original. Lo más valioso del universo conocido. Y esto no es pura retórica. Es parte esencial de un buen programa de financiamiento de la ciencia.

Porque no hay nada más valioso que lo que no sabemos.

Capítulo 19
El universo en la punta de un alfiler

Cuando miramos el cielo en una noche clara experimentamos el sobrecogedor espectáculo de sentir nuestra pequeñez frente a la inmensidad del universo. Sin embargo, la enormidad y el misterio no son monopolio de las escalas cósmicas. Hay un mundo incluso más vasto, más impactante, más extraño, en las profundidades microscópicas de la materia.

Fue en diciembre de 1959 cuando Richard Feynman —probablemente el más célebre físico de la segunda mitad del siglo pasado, y seguro el más divertido— dictó en el encuentro anual de la American Physical Society la charla «Hay mucho espacio en el fondo», donde entre otras cosas se preguntaba: «¿Podemos escribir los veinticuatro volúmenes de la Enciclopedia Británica en la cabeza de un alfiler?». Una pregunta quizá infantil, pero no por eso menos importante, profunda y fundacional. Tanto así, que esa legendaria charla inauguró una nueva disciplina: la nanotecnología.

¿Pero podemos escribir la Enciclopedia Británica en la cabeza de un alfiler? La respuesta es sí y Feynman lo demostró en su charla. De hecho, el cálculo es relativamente simple. Necesitaríamos una extensión similar a la de la plaza Italia para disponer en el suelo las más de 30 000 páginas de la enciclopedia. La plaza tiene un diámetro 25 000 veces mayor que el de la cabeza de un alfiler. ¿Podemos tomar una foto de nuestra plaza empapelada con todas las páginas de la enciclopedia y reducirla 25 000 veces, sin perder resolución?

En principio sí, demostraba Feynman, ya que cada uno de los diminutos puntos que componen la impresión original, y que miden una pequeña fracción de milímetro, quedarían reducidos a un diámetro pequeño pero suficiente para acomodar algunas decenas de átomos.

El primer problema con la miniaturización es que el universo químico tiene una resolución mínima: la escala atómica. Difícil imaginar un método de escritura o cualquier tecnología funcional a escalas menores. La nanotecnología trabaja con estas escalas mínimas, creando —o intentando crear— dispositivos de tamaños similares al de átomos y moléculas. Así, un «nanómetro» es la millonésima parte de un milímetro, el espacio que ocupa una línea de unos cinco átomos. Para hacerse una idea de todo el «espacio que hay allí al fondo», piense en la aceituna de una empanada. Suponga que amplificamos la empanada de modo que los átomos que la componen terminen del tamaño original de la aceituna. En ese momento, necesitaríamos la extensión del océano Pacífico para acomodar toda esa empanada.

¿Es posible manipular la materia a escala atómica? En la época en que Feynman dio su charla no lo era; de hecho, él mismo prometió un premio de mil dólares al primero que fuese capaz de reducir 25 000 veces un texto. Esto ocurrió en 1985, cuando Tom Newman escribió la primera página de la Historia de dos ciudades de Charles Dickens en la cabeza de un alfiler, utilizando haces de electrones.

Un año después, Gerd Binnig y Heinrich Rohrer ganaban el Nobel de Física por un invento conocido como el microscopio de efecto túnel, instrumento que permite observar la superficie de un material con resolución atómica y manipular átomos individuales. El 28 de septiembre de 1989, usando un microscopio de este tipo, el físico norteamericano Donald Eigler logró escribir las siglas de su compañía, IBM, utilizando 35 átomos de xenón. La famosa imagen es, para muchos, un hito en la historia humana y el verdadero comienzo de la nanotecnología.

La habilidad para manipular átomos uno a uno creó una excitación inmediata. Es difícil concebir un proyecto más ambicioso que el que nos permita diseñar materiales con propiedades «a la carta», disponiendo de los átomos a nuestro gusto, como si se tratara de piezas de Lego. Fue el sueño que describía Eric Drexler a fines de los ochenta, en su libro Máquinas de la creación. Allí predecía «nano-robots» capaces de construir átomo por átomo cualquier cosa. Imaginaba uno que, como en la clásica película El viaje fantástico, podría entrar en nuestro organismo y reparar las estructuras más pequeñas de nuestro cuerpo.

Más allá de la ciencia ficción, la comunidad entendió que las posibilidades eran ilimitadas. Por eso, el año 2000, Estados Unidos creó la National Nanotechnology Initiative con un enorme presupuesto para la investigación en el área. Hoy, tras una década de intensa nanomanía, es probable que exista en la comunidad un pequeño sabor a derrota. Pero quizá solo nos estamos apurando demasiado. La nanotecnología ya está instalada en muchos artefactos de uso diario (memorias y chips, por ejemplo) y se han desarrollado investigaciones que prometen revoluciones en medicina, electrónica y en nuevos materiales. Debemos tener paciencia. En el intertanto, disfrutemos no solo del espacio, sino también de toda esa belleza que «hay en el fondo».

Capítulo 20
El videojuego y esos benditos accidentes

Pocas cosas importantes en la historia de la ciencia y la tecnología se han encontrado buscándolas. Por lo general, y como veremos en varios de los siguientes capítulos, los grandes hitos que han cambiado la forma en que vivimos y pensamos han surgido por accidente. No es que los inventos y descubrimientos humanos se materialicen en cualquier lugar, guiados por una gran ruleta cósmica. Muy por el contrario, suelen nacer en algún territorio fértil, donde la sociedad ha puesto los recursos y entregado la libertad a personas para pensar, experimentar, debatir y educar.

Un ejemplo notable ocurrió hace más de cincuenta años, en octubre de 1958, cuando el físico nuclear William Higinbotham creó el primer videojuego del que se tenga memoria. Antes que el Atari, antes que el Pong, existió «Tennis for two».

Higinbotham era por esos años el jefe del grupo de instrumentación del prestigioso Brookhaven National Laboratory en Long Island, NY. Cada año, el laboratorio se abría por algunos días a la comunidad. Se preparaban exhibiciones y se organizaban paseos para que el público conociera sus instalaciones. Higinbotham pensaba que la mayor parte de las muestras científicas eran estáticas y aburridas y que era necesario hacer algo. «Quizá contar con un juego que la gente pueda utilizar le dé vida al lugar, además de transmitir el mensaje de que nuestra empresa científica tiene relevancia para la sociedad», escribió este científico que durante la década de 1940 trabajó en el laboratorio de radiación del MIT —en el diseño de pantallas para radares—, y que más tarde participó en el Proyecto Manhattan, donde estuvo a cargo de la electrónica de sistemas temporizadores para la bomba atómica.

El grupo de instrumentación de Brookhaven disponía de un computador análogo diseñado para simular trayectorias de proyectiles y objetos que rebotaban. Durante la Segunda Guerra Mundial se desarrollaron muchos de estos computadores con el fin de calcular, por ejemplo, el lugar donde impactarían bombas que se dejaran caer desde aviones.

Todo se mezcló en la mente lúdica de Higinbotham: su tremenda experiencia en sistemas de control e imágenes electrónicas, el computador del que disponía, los transistores de germanio que por esa época se comenzaban a popularizar y el osciloscopio [8] que hizo de pantalla. En tres días, el diseño de «Tennis for two» estaba terminado.

El juego simulaba una cancha de tenis desde una perspectiva lateral. En pantalla, una línea horizontal representaba el suelo y otra vertical la red. Cada jugador tenía un control que consistía en un botón para pegarle a la pelota y una perilla para cambiar la dirección del golpe. Si la pelota golpeaba la red o salía de la cancha sin ser golpeada, el juego se detenía y había que volver a comenzar. Era de responsabilidad de los jugadores llevar la cuenta.

La exhibición fue un éxito. Largas filas de visitantes esperaban pacientemente su turno para jugar. «Nunca pensé que había hecho algo realmente emocionante. Pensaba que las largas filas se debían a que el resto de la exhibición era muy aburrida», dijo Higinbotham más tarde.

El juego nunca llegó a ser parte de una patente comercial. Solo lo conocieron quienes estuvieron entre 1958 y 1959 participando de los días del visitante del Brookhaven National Laboratory. Hoy, en cambio, el videojuego es uno de los inventos que más han permeado nuestra sociedad, especialmente entre niños y adolescentes.

El otro es internet. Adivine. La World Wide Web, cuya sigla se ocupa en la gran mayoría de las direcciones de la red, fue inventada por un físico del CERN, el mismo laboratorio que hoy está en boca de todos por el famoso Gran Colisionador de Hadrones en donde se encontró el bosón de Brout-Englert-Higgs. Tim Berners-Lee intentaba satisfacer la demanda de científicos que requerían compartir en forma expedita y automática la gran cantidad de información que se generaba en laboratorios de física de partículas de distintas partes del mundo. Así creó, en 1989, el protocolo que permitía a los computadores comunicarse entre sí: el HyperText Transfer Protocol (cuya sigla «http» antecede las direcciones de red que usted escribe en su buscador favorito), además de otros desarrollos técnicos que permiten navegar hoy por la red.

Su intención, como suele ocurrir con las grandes innovaciones, no era gatillar la revolución que terminó desencadenando, aunque rápidamente se dio cuenta que su desarrollo podía tener vastas nuevas aplicaciones.

El videojuego y la www nacieron en laboratorios de física, en la mente de personas que no los estaban buscando. O al menos no buscaban generar las revoluciones que protagonizaron. Claro que nacieron en terreno fértil, el más fértil que podamos imaginar. Debemos recordar estos eventos, pues constituyen un patrón que se repite y que muestra por qué es importante mantener viva la ciencia básica. Esa ciencia que está motivada por nada más que la curiosidad humana. Hay que regar todo el terreno, no olvidarse de las zonas que aparentemente no están destinadas a buenos y seguros frutos. No podemos regar solo los viejos olmos, esperando que quizá, algún día, la gran ruleta cósmica les haga crecer algunas peras.

Capítulo 21
Sobre tu cielo azulado (y tus ojos)

Contenido:
§. El Club X y el efecto invernadero
§. Partículas en el aire
§. Lord Rayleigh
§. El aire y el Nobel

Ya había olvidado que el cielo era azul. Entre el esmog y las nubes, es escasa la posibilidad de mirar un cielo claro y puro.

Quizá sea la más básica de las preguntas que un ser humano formula automáticamente cuando se enfrenta al fenómeno natural más común y explícito, pero no por eso menos bello: ¿por qué el cielo es azul? Y podemos seguir adelante con las preguntas obvias: ¿por qué despliega toda esa gama de colores al atardecer? No es mucho lo que necesitamos para disfrutar de este espectáculo y comenzar a hacernos preguntas. Basta con aire limpio, el sol y un poco de tiempo para nosotros mismos. Pero es mucho más lo que necesitamos para responderlas: más de 200 años de física, experimentos sofisticados y la mente de un par de esmerados científicos que lucharon tenazmente en su búsqueda: John Tyndall y John William Strutt, tercer barón de Rayleigh.

§. El Club X y el efecto invernadero
Es curioso. Cuando el enigmático brillo azul del cielo nos envuelve, nos suele provocar un sobrecogimiento que gatilla nuestra necesidad hacia lo sobrenatural. Allí arriba viven nuestros muertos. Allí sobrevuelan extraterrestres en platos de metal. Desde allí nos observan y juzgan nuestros dioses. Ese azul profundo, enigmático portal hacia la infinidad y el misterio del universo, es también nuestra gran fuente de inspiración hacia lo irracional, lo sobrenatural y lo religioso. Es curioso, pues el físico que dio el primer paso hacia la comprensión de este fenómeno estaba lejos de la religiosidad. Se trata del irlandés John Tyndall, quien fue uno de los miembros del mítico Club X, que operó en Londres durante la segunda mitad del siglo XIX. Se trataba de nueve distinguidos científicos que se juntaban a cenar los primeros jueves de cada mes, dada su común «devoción por la ciencia, pura y libre, desprovista de dogmas religiosos». El club era liderado por el biólogo inglés Thomas Henry Huxley, uno de los más férreos promotores de las ideas de Charles Darwin, que aún experimentaban una violenta resistencia en la Inglaterra victoriana. Huxley fue quien en 1869 acuñó el término «agnosticismo» para describir sus ideas.

John Tyndall fue más lejos, y era un defensor acérrimo de la opción atea. «Si quisiera un padre cariñoso, un marido fiel, un vecino honorable, o un ciudadano justo, lo buscaría en la banda de ateos», dijo en una oportunidad. Era el más respetado físico experimental de su generación. Sus investigaciones se enfocaron principalmente en el efecto de la luz sobre los gases atmosféricos. Fue el primero en demostrar en el laboratorio las ideas que Joseph Fourier había formulado cuarenta años antes: los gases de la atmósfera pueden atrapar el calor del sol. Este fenómeno, que más tarde se llamó efecto invernadero, y que ya discutimos en el capítulo «Chocolate y calentamiento global», se produce porque el aire es muy transparente a la luz visible del sol, pero no tanto a la radiación infrarroja que la tierra caliente devuelve al espacio. Tyndall mostró en cuidadosos experimentos que el vapor de agua absorbe eficientemente la radiación infrarroja, transformándola en calor. Así, era el principal gas de efecto invernadero de la atmósfera. El otro era el dióxido de carbono, que aunque solo está presente en 0,4 partes por mil en el aire, juega un rol importante en el equilibrio térmico del planeta.

§. Partículas en el aire
Los experimentos de Tyndall requerían despojar al aire que usaba de cualquier tipo de material particulado que lo contaminara. Observando estos contaminantes Tyndall notó, en 1859, un fenómeno clave. Si las partículas en el gas son suficientemente grandes, y un rayo de luz blanca incide sobre este, harán que la luz se disperse en todas direcciones. Esto es lo que ocurre, por ejemplo, con la niebla, que es visible precisamente producto de este fenómeno. Si las partículas son suficientemente pequeñas, sin embargo, la dispersión ocurrirá de forma distinta para los distintos componentes cromáticos de la luz[9]. Serán aquellos de longitud de onda más pequeña (violetas, azules y algunos verdes) los más dispersados, mientras las longitudes de onda más grandes (amarillos, rojos) seguirán su camino en línea recta sin ser perturbados de modo importante. Así, el contaminante se hace visible en un resplandor azuloso. Esto puede observarlo en el humo de un cigarrillo (en el que sale directamente de este, no en aquel que sale de los pulmones del fumador, que vemos blanco debido a que las partículas de humo han crecido al condensarse agua sobre ellas). También puede verlo si agrega unas gotas de leche en un vaso de agua. Al iluminarlo lateralmente el agua se verá azulosa. Son los colores que son más dispersados los que podrán cambiar tanto de dirección como para alcanzar nuestros ojos. Al mirar directamente la luz a través del vaso la verá más rojiza, porque los rojos y naranjos han seguido una línea recta, mientras los azules y verdes han sido desviados y no han llegado a nuestros ojos.

Este es precisamente el fenómeno físico que nos brinda, en días despejados, un cielo azul. La luz del sol puede llegar indirectamente a nuestros ojos, al ser desviada por la atmósfera. Pero esto ocurre fundamentalmente para los componentes azules de la luz solar. Así, no importa la dirección que miremos al cielo, siempre nos encontraremos con luz del sol que fue desviada en la atmósfera para llegar a nuestros ojos. Y como ocurre principalmente para la luz azul, el cielo se ve celeste, que es una mezcla de todos los colores pero con predominancia del azul. Este fenómeno ocurre en muchas otras instancias. En algunas piedras semipreciosas como la llamada piedra de la luna, en que de acuerdo al ángulo en que la mire podrá ver zonas celestes o reflejos anaranjados. También es el que da el color azul a algunos ojos poco pigmentados, porque dentro del iris flotan pequeñas proteínas que dispersan la luz.

En la luna no hay atmósfera, y por esta razón, el sol se ve blanco en un fondo completamente negro. Y claro. No hay aire que permita la dispersión de este «efecto Tyndall». Por lo mismo el sol resulta blanco, que es el color de la luz que emite cuando lo miramos sin una atmósfera que nos separe de él. En la tierra, sin embargo, al igual que el caso de la luz que miramos a través del vaso con agua y leche, se ve más amarillento. Esto se hace más y más evidente en la medida que se acerca al horizonte. Cuando el sol se está poniendo es el momento en que su luz hace el viaje más largo para llegar a nosotros. La tremenda columna de aire ha permitido que solo los colores más resistentes a la dispersión (rojos y amarillos) lleguen a nuestros ojos. Así vemos un sol anaranjado adornando nuestro atardecer.

§. Lord Rayleigh
Los primeros cálculos teóricos acerca del efecto Tyndall y su aplicación en la física atmosférica fueron publicados hace más de 140 años por el físico británico John William Strutt, tercer barón de Rayleigh. Su título era un clásico inmediato: Sobre la luz del cielo: su color y polarización. A diferencia de Tyndall, Rayleigh era un cristiano creyente. Se le atribuye haber afirmado que «la verdadera ciencia y la verdadera religión no están ni deben ponerse en oposición». Pero el espectáculo del color del cielo era claramente parte de la ciencia, y lo describió con la precisión matemática que la ya conocida teoría ondulatoria de la luz le permitía. Sus cálculos mostraban que, tal como lo había observado Tyndall años antes, si las partículas eran mucho más pequeñas que la longitud de onda de la luz, digamos, menores a 0,1 micrones, entonces debía producirse una dispersión preferencial para longitudes de onda pequeñas, es decir, azules y violetas (el violeta no lo percibimos en el cielo porque, por una parte, la atmósfera bloquea buena parte, y por otra, porque nuestros ojos no son tan sensibles a ese tipo de luz). El fenómeno se conoce hoy como «dispersión de Rayleigh».

§. El aire y el Nobel
En sus tiempos Rayleigh y Tyndall pensaban que las responsables del cielo azulado eran partículas pequeñas que flotaban en la atmósfera, pero hoy sabemos que el efecto es principalmente producido por las mismas moléculas del aire que la conforman. Ese mismo aire le dio en 1904 el Premio Nobel de física al barón Rayleigh. Y no por haber resuelto la mítica paradoja del cielo azul, sino por haber descubierto en su composición química un elemento que nadie había visto antes: el argón. El argón es el tercer gas más abundante en nuestro aire (cerca de un 1 por ciento), pero sin embargo es difícil de detectar pues es inerte, es decir, no tiene reacciones químicas con nada (de allí su nombre, griego para inactivo). Rayleigh lo descubrió debido a una anomalía que pudo detectar gracias a los experimentos exquisitamente precisos que realizaba: el nitrógeno que obtenía del aire era poco más pesado que el que obtenía por otros métodos. Concluyó que debía estar mezclado con algo más. Era el argón, que finalmente fue capaz de aislar.

La atmósfera le dio fama a Rayleigh, y él, a su vez, la despojó de varios de sus más grandes secretos. Hoy, además, podemos usar sus cálculos en abundantes aplicaciones tecnológicas. El nefelómetro, por ejemplo, instrumento que se usa para medir la contaminación del aire, utiliza su teoría (una generalización de esta, para ser más precisos) para determinar la concentración de partículas a partir de la dispersión que estas producen en una luz láser. Pero olvidemos por un momento la contaminación. El cielo a veces está limpio. Despejado. Entonces, es solo nitrógeno, oxígeno y un poco de argón lo que hace que desde todas partes del cielo una hermosa luz azul nos llene de optimismo y energía.

Capítulo 22
El mejor de los tiempos

«Así es el presente. Es un poco insatisfactorio porque la vida es insatisfactoria», dice Gil, el protagonista de Medianoche en París, de Woody Allen. Y así es: ante los problemas y las chaturas de la vida cotidiana tendemos a pensar que hubo tiempos mejores, y sentimos nostalgia por un pasado que pintamos mucho más agradable de lo que en realidad fue. Y si basamos el debate en la literatura y la pintura, tal como lo hace Allen en la película, sin duda que hay mucho paño que cortar. Pero hay algo que la película esconde. Y lo hace tan bien que no nos sorprende que los personajes de los años veinte no se den cuenta de que Gil viene del futuro. Allen esconde la única flecha del tiempo de la que dispone, para bien o para mal, nuestra cultura: la ciencia y la tecnología.

La verdad es que no hay debate posible. Nunca en la historia habíamos estado mejor. Creo que podemos estar contentos: el ser humano ha sabido mejorar paulatinamente sus condiciones a punta de buenas ideas e investigación, acudiendo a recursos variados y a veces improbables. Como las vacas, por ejemplo.

A principios del siglo XX la expectativa de vida al nacer era de unos treinta años en promedio. Hoy llega a sesenta y siete años. Lo más grave era que antaño el promedio lo bajaban principalmente los niños pequeños: la pérdida de hijos era una tragedia muy común. Así fue como Picasso perdió a una hermana de siete años en 1895, y el compositor Gustav Mahler a una hija de cinco en 1907. Ambas niñas fueron víctimas de la difteria, enfermedad que ya está prácticamente erradicada gracias al trabajo del médico alemán Emil von Behring. Hoy, en Chile, la vacuna contra esta enfermedad es gratuita y se administra antes de que el niño cumpla un año.

En 1950, de cada mil niños que nacían vivos en el mundo, 180 morían antes de cumplir cinco años; hoy esa tasa se ha reducido a 60. En Chile también las tasas de mortalidad infantil eran espeluznantes, y sin embargo hoy se han reducido mucho más allá del promedio mundial: en la década de 1930, morían antes de los cinco años casi doscientos niños por cada mil nacidos vivos. Hoy la tasa ronda los siete por cada mil nacidos vivos.

La inmunización a través de vacunas es tecnología del siglo XIX. Fue durante la última década del siglo XVIII cuando el británico Edward Jenner comenzó a inocular pacientes con materia proveniente de lesiones de vacas infectadas con viruela bovina; así mostró cómo inmunizaba a humanos de la enfermedad, y de paso nos legó la palabra «vacuna». Posteriores investigaciones —en particular los avances de Louis Pasteur— permitieron el desarrollo de muchas vacunas, con las cuales se ha erradicado enfermedades tan graves como la poliomielitis y la lepra.

Otra de las tragedias que tuvo que vivir Picasso fue la muerte de Eva Gouel, la musa de su período cubista, quien murió de tuberculosis en 1915. Los antibióticos, que permiten controlar muchas enfermedades provocadas por bacterias, se desarrollaron a partir de una observación accidental del biólogo escocés Alexander Fleming. En 1928, al volver a su laboratorio luego de pasar las vacaciones de verano con su familia, se dio cuenta de que uno de los cultivos de bacterias que había apilado en un banco antes de marcharse estaba contaminado con cierto hongo. Y alrededor de este, la población de bacterias había desaparecido. Así, por accidente, descubrió la penicilina. Eva Gouel tuvo la mala fortuna de existir algunas décadas antes del desarrollo de los antibióticos que permitieron la cura de la tuberculosis. Poco después, Picasso, ahora sin su musa, le escribía a Gertrude Stein contándole que su vida era un infierno.

Pero no tenemos que viajar al París de comienzos del siglo XX para observar la flecha de los buenos tiempos. El terremoto que se vivió en la zona central de Chile en 2010 fue uno de los más intensos de la historia. A pesar de que el epicentro estuvo cerca de áreas densamente pobladas, el número de muertos no llegó a los seiscientos. Cincuenta años antes, en Valdivia, murieron más de dos mil personas en una tragedia similar, y treinta años antes del terremoto del 60, más de veinte mil murieron en el gran terremoto de Chillán. La ingeniería sísmica nos marca una rotunda flecha del tiempo.

En 2010, también, 33 mineros fueron rescatados tras el derrumbe de la mina San José, a 720 metros de profundidad, algo imposible con la tecnología existente algunas décadas antes. En 1945, para no ir más lejos, 355 obreros murieron en «la tragedia del humo» en El Teniente, el peor accidente minero de la historia de Chile.

Y, cuando no podemos evitar la muerte, al menos podemos identificar a las víctimas gracias a la comprensión de los mecanismos moleculares de la herencia, iniciada por Watson, Crick y Franklin a comienzos de la década de 1950. Nos basta con el ADN de una célula para conocer la identidad de un sujeto[10]. Increíble.

Adivinos y videntes han existido siempre, divagando y medrando en la oscuridad. Pero son las buenas ideas que se acumulan en la historia las que nos dan esperanza en la tragedia e iluminan el camino hacia el futuro.

§. La nostalgia es negación
Quizá la tragedia de la vida sea para algunos el combustible necesario para producir la gran obra artística humana. No lo creo, pero de ser así, estoy seguro de que es del arte del que acordaríamos prescindir. No puedo imaginar una mejor medida de la felicidad de una sociedad que la reducción de la mortalidad de sus niños; en eso estamos mejor que nunca.

No faltarán, claro está, los nostálgicos del pasado. Los que todavía pululan en la modernidad y que cuando la enfermedad los apremia prefieren acudir a prácticas tradicionales como la homeopatía, las flores de Bach u otros métodos de medicina alternativa. Estas técnicas nos han acompañado imperturbables, junto a adivinos y mentalistas, durante todo el siglo XX, y sin provocar ningún cambio. Sus procedimientos son los mismos ahora que hace un siglo, en tiempos en que no había nada más peligroso en el mundo que ser niño. Por eso, cuando alguien me dice que prefiere no usar antibióticos con sus hijos, que no cree en las vacunas, que prefiere métodos «naturales» o alternativos, yo salto de impotencia y amargura. Quizá sea cierto lo que dice Paul, el insoportable personaje de Medianoche en París: «La nostalgia es negación. La negación de un doloroso presente».

No sé cuánta evidencia más necesitan para entender que, a pesar de nuestras tristezas cotidianas, de nuestras derrotas y enfermedades, nunca en la historia habíamos sido tan sanos, tan felices.

Capítulo 23
Agujeros negros y vientos de guerra

Contenido:
§. La gravedad
§. Estrellas oscuras
§. Einstein en lo correcto
§. Horizonte de eventos
§. Agujeros negros en el cielo
§. Una luz que nunca se apaga

«No puedo escuchar demasiado a Wagner. Comienzo a sentir la urgencia de invadir Polonia», decía uno de los personajes de Manhattan Murder Mystery, de Woody Allen. Me acordé de esa frase al escuchar a Hugo Chávez amenazando a Colombia con sus «vientos de guerra». La invasión alemana de Polonia marcó el comienzo de la Segunda Guerra Mundial, la más sangrienta y cruel de la historia, y que terminaría seis años después con la rendición japonesa como consecuencia de dos bombas atómicas que devastaron Hiroshima y Nagasaki.

Alemania atacó Polonia el 1 de septiembre de 1939, el mismo día en que Physical Review publicó el primer artículo que se haya escrito sobre los agujeros negros. Comenzaba con una frase enigmática y audaz: «Cuando todas las fuentes termonucleares de energía se agoten, una estrella suficientemente pesada colapsará». Los autores eran el ahora célebre J. Robert Oppenheimer y su colaborador Hartland Snyder. Poco después, Oppenheimer sería puesto a la cabeza del Proyecto Manhattan, que crearía las primeras bombas atómicas.

§. La gravedad
De las fuerzas existentes en la naturaleza, la gravedad es la más débil. Sin embargo, tiene dos características únicas que hacen que a la larga sea capaz de vencer a las demás: la gravedad es siempre atractiva y puede actuar a grandes distancias. La materia atrae a la materia, y mientras más tengamos, mayor es la atracción. La materia colabora; juntando suficiente, podemos lograr fuerzas de gravedad tan grandes que ninguna otra podrá contrarrestarlas. Nuestro planeta, por ejemplo, es lo suficientemente pesado como para producir una fuerza gravitacional que podemos percibir, y que nos mantiene pegados a él como imanes a un refrigerador.

Pero no se trata solo de cantidad. También de proximidad. La gravedad es más poderosa mientras más cerca estamos del cuerpo masivo que la produce. Así, por ejemplo, si nos acercáramos a un objeto de un kilo a una distancia igual al diámetro de un átomo, percibiríamos una fuerza semejante a aquella con que la tierra nos atrae. El problema es que los objetos cotidianos de un kilo son enormes comparados con las pequeñísimas distancias atómicas. Podemos acercarnos mucho a su superficie, pero aún estaremos muy lejos de la mayor parte de la materia que lo compone. Para acercarnos a todo este objeto tendríamos que comprimirlo hasta lograr una partícula diminuta, de tamaño menor al de un átomo y, por lo tanto, de enorme densidad. Conseguir estas densidades en un laboratorio es impensable, pero la naturaleza lo hace por nosotros todo el tiempo. Las estrellas de neutrones, por ejemplo, las sobrepasan con creces, concentrando la masa de toda la tierra en el volumen del palacio de La Moneda.

§. Estrellas oscuras
A fines del siglo XVIII, el astrónomo británico John Michell diseñó una balanza de gran precisión que permitió medir por primera vez la fuerza de gravedad entre objetos en el laboratorio. En una carta dirigida a Henry Cavendish (quien terminaría el experimento, uno de los más famosos de la ciencia, porque Michell murió en el intertanto), este creó el concepto de «estrella oscura», una versión newtoniana del agujero negro. La idea es simple. Si lanzamos un objeto hacia arriba, mientras mayor velocidad le propinemos, mayor altura alcanzará. Si realizamos lanzamientos cada vez más veloces, llega un punto en que el objeto no volverá a caer porque se habrá alcanzado la «velocidad de escape», que, por ejemplo, en la superficie de la tierra es de unos 40 000 km/h (despreciando la fricción del aire). Michell imaginaba una estrella más y más densa y pesada, de modo que llegara un momento en que la velocidad de escape de un objeto en su superficie fuese igual a la de la luz, unos 300 000 km/s. Si la estrella fuese aún más pesada y densa, entonces un objeto no podría escapar ni siquiera moviéndose a la velocidad de la luz: ni siquiera un rayo luminoso podría escapar. Para observadores lejanos, esta estrella sería entonces completamente oscura, ya que los fotones que brotan de su superficie no pueden llegar muy lejos.

La historia fue injusta con Michell, pues el experimento lleva el nombre de Cavendish. No existen retratos de él. Solo se sabe que era de baja estatura y muy gordo. Michell, una estrella oscura en la historia de la ciencia.

§. Einstein en lo correcto
En 1919, Albert Einstein se transforma en un ícono popular. Ese año, el astrofísico británico Arthur Stanley Eddington viaja a África a fotografiar un eclipse solar total. Observando las estrellas cercanas al sol y comparando sus posiciones con las que se observan normalmente en la noche, concluyó que la presencia del sol desviaba los rayos de luz de las estrellas exactamente del modo en que la teoría de Einstein lo había predicho. La relatividad general —la teoría de la gravitación que había concebido en 1915— era correcta. Esta historia la revisaremos con más detalle en el próximo capítulo, «El eclipse que lo iluminó todo».

La teoría se publicó en noviembre de 1915 en las Actas de la Academia Prusiana de Ciencias. Pocos días después, desde el frente ruso de la Primera Guerra Mundial, el físico alemán Karl Schwarzschild utiliza la relatividad general para describir el campo gravitacional producido por una estrella esférica. En este trabajo queda de manifiesto que, si un rayo de luz se aproxima lo suficiente a una estrella suficientemente densa y masiva, no podrá retornar jamás. Estará destinado a caer en ella. Notablemente, la distancia máxima a la que la luz podía aproximarse sin «ser tragada» era exactamente la misma que había calculado Michell 132 años antes.

§. Horizonte de eventos
La teoría de la gravitación de Newton funciona extraordinariamente bien cuando los campos gravitacionales son débiles. Cuando son muy intensos debemos describirlos utilizando la teoría de Einstein, la relatividad general. Por eso, para ocuparnos de estrellas densas y pesadas, es la versión de Schwarzschild de ellas (descritas mediante la teoría de Einstein), y no la de Michell (descritas usando la teoría de Newton) la que debemos tomarnos en serio. Y la característica más sobresaliente que estos cálculos mostraban era la presencia del «horizonte de eventos», una esfera imaginaria alrededor de la estrella. Una superficie que una vez que se cruza no hay vuelta atrás. Nada puede salir, ni siquiera la luz.

El horizonte de eventos es una frontera para nuestro universo. Nada puede traspasarlo para volver a contarnos las experiencias de su viaje. Todo lo que vaya más allá de ese borde está destinado —y empujado por una fuerza invencible— a continuar hacia el centro de la estrella, un punto donde toda la materia que ha caído se concentra en un volumen de dimensiones ínfimas: la singularidad. Allí todo acaba. Incluso el tiempo.

La existencia de una fuerza invencible, incapaz de ser contrarrestada, como aquella que nos empuja hacia el centro del agujero negro cuando traspasamos su horizonte, no es tan difícil de entender. De hecho, la experimentamos a diario. Es la fuerza del tiempo. Lamentablemente, no existe nada capaz de detener nuestro inexorable avance hacia el futuro. Es precisamente esa la fuerza que nos empuja hacia el centro del agujero negro. Una vez que traspasamos el horizonte, la singularidad estará en nuestro futuro inevitable. Esto puede ocurrir porque espacio y el tiempo son dos caras de una misma moneda de acuerdo a la relatividad especial de Einstein. Es así como no es extraño que los enormes campos gravitacionales sean capaces de producir un cambio de roles. Ahora la dirección que apunta hacia el centro del agujero negro está apuntando hacia el futuro y es hacia donde tenemos que avanzar sin posibilidad de ser frenados por nada.

En la época de Schwarzschild la existencia de horizontes de eventos y de singularidades fue duramente combatida. Aunque la teoría los aceptaba, se pensaba que estos extraños objetos no podían existir en la práctica. El mismo Einstein pensaba que su existencia era absurda. Se decía que una estrella jamás podría concentrar tanta materia como para generar un horizonte de eventos. La Tierra, por ejemplo, tendría que ser comprimida a las dimensiones de un grano de uva para transformarse en un agujero negro.

Oppenheimer era de los pocos que, ya a fines de la década de 1930, pensaban que la misma fuerza de gravedad sería capaz de comprimir una estrella lo bastante pesada. Adelantándose a su época, sostenía que, al final de su vida, la estrella estaba destinada a colapsar por completo en una implosión que ninguna otra fuerza podría detener, y así transformarse en un agujero negro. Los detalles matemáticos todavía no estaban maduros, y Oppie —como le decían sus cercanos— tendría que posponer sus pensamientos sobre el colapso de estrellas para concentrarse en el desarrollo de la primera bomba atómica. De la matemática de comprimir estrellas pasaría a la de comprimir plutonio para generar fisión nuclear. A los astros ya no retornaría jamás.

§. Agujeros negros en el cielo
A pesar de las resistencias iniciales, hoy sabemos que los agujeros negros se forman de modo natural y abundante en el universo. Pero no se preocupe. No son voraces aspiradoras cósmicas, como muchos piensan. Se comportan como cualquier otro cuerpo estelar masivo. Podemos orbitar en torno de ellos al igual como la luna orbita alrededor de la Tierra. Podemos acercarnos a su horizonte. Mientras no lo traspasemos, nada espantoso ocurrirá. Al menos nada que no vaya a ocurrir en la cercanía de cualquier otro cuerpo muy masivo, en donde la enorme fuerza de gravedad no resultaría muy hospitalaria. Incluso se piensa que son beneficiosos, pues serían esenciales en la formación de las galaxias.

La física de agujeros negros fue abandonada en la Segunda Guerra, y no se retomó con fuerza hasta la década de 1960. Fue el físico norteamericano John Wheeler quien daría un nuevo ímpetu a estos estudios, y quien acuñó su tan glamoroso nombre. Todo ello a pesar de haber sido inicialmente uno de los más entusiastas detractores de las ideas de Oppenheimer. Y no solo respecto de la vida de las estrellas; también en el terreno político y militar. Oppenheimer fue uno de los grandes opositores al proyecto de la bomba de hidrógeno, uno de cuyos cerebros fue Wheeler. La primera de ellas fue testeada por Estados Unidos en el océano Pacífico en 1952. Era unas mil veces más poderosa que la de Hiroshima. Más tarde, Oppenheimer fue acusado de ser un riesgo para la seguridad nacional, y se le quitó el acceso a toda fuente de información clasificada.

De acuerdo con los cálculos iniciados por Oppenheimer y revividos por Wheeler y otros, una estrella suficientemente masiva que agota su combustible nuclear no podrá contrarrestar con ninguna otra fuerza el colapso gravitacional. Los físicos comenzaban a aceptar los agujeros negros.

Hoy ya casi nadie duda de su existencia. Los astrónomos han detectado una buena cantidad de ellos en nuestra galaxia. Más aún, agujeros negros supermasivos (millones de veces más masivos que el Sol) parecen habitar el centro de muchas galaxias. A fines de 2008, y luego de dieciséis años siguiendo las órbitas de estrellas cercanas al centro de nuestra galaxia, la Vía Láctea, desde observatorios en Chile, astrónomos alemanes acumularon evidencias contundentes sobre la existencia de un agujero negro supermasivo allí. Ya no hay duda. En nuestro barrio, a solo 27 000 años luz de distancia, habita un enorme agujero negro: Sagitario A*, un monstruo de cuatro millones de veces la masa del sol.

§. Una luz que nunca se apaga
En 1974 otro personaje célebre, Stephen Hawking, revolucionaría la física teórica con una idea inesperada: los agujeros negros, después de todo, no son tan negros. Al incluir efectos de la mecánica cuántica, Hawking predijo que los agujeros emiten luz. Discutiremos esto con más detalle en «Zona iluminada».

Hawking encontró una luz en el más negro de los objetos imaginados por el hombre. Pero no solo eso: también mostró que los agujeros negros emitían más luz en la medida que eran más pequeños. Los que se forman al final de la vida de algunas estrellas son demasiado grandes para emitir una cantidad de luz que podamos detectar. Sin embargo, podríamos imaginar un agujero negro pequeño. Solo imaginar por ahora, porque no conocemos mecanismos que los puedan crear. Por ejemplo, si pudiésemos tomar un automóvil y comprimirlo hasta volúmenes extremadamente pequeños, podríamos crear un pequeño agujero negro de tamaño subatómico. Sería muy luminoso; tan luminoso que perdería toda su masa en una mínima fracción de segundo. Tanta energía liberada en tan poco tiempo es sinónimo de explosión. Una explosión más grande que cualquiera que hayamos logrado nunca. Pero mejor ni imaginarlas. Menos cuando siempre existirán líderes uniformados anunciando que soplan vientos de guerra.

Capítulo 24
El eclipse que iluminó todo

El eclipse solar del 29 de mayo de 1919 fue el más hermoso de la historia. No solo porque fue uno de los más largos del siglo XX. Tampoco porque se mostró en su totalidad en la isla de Príncipe, en el Atlántico africano, cuyas playas paradisíacas se oscurecieron por completo poco después de las dos de la tarde. Tampoco porque cerca del sol se pudo contemplar un espectacular enjambre de estrellas, que incluyeron a la gran Aldebarán y al cúmulo Híades, en la constelación de Tauro. La belleza de ese eclipse más bien radicó en sus implicancias sobre la vida intelectual de nuestra especie. Fue una hermosa metáfora sobre el triunfo de la razón sobre los odios bélicos o nacionalistas durante la Primera Guerra. Un pequeño cuerpo celeste, la luna, bloqueando la luz del rey del sistema solar, mientras un par de brillantes científicos tapaban, armados de las ideas más notables que la mente humana haya concebido, las bocas de arrogantes líderes e ignorantes masas de Europa.

Uno de ellos, Albert Einstein, se transformaría en un ícono cultural. El otro, el inglés Arthur Eddington, astrónomo, era director del observatorio de Cambridge. Estas dos grandes mentes fueron capaces de rebelarse ante la autoridad política e intelectual en uno de los momentos más duros del siglo XX. Su pasión por la ciencia era más fuerte que el odio entre pueblos. A su valentía silenciosa debemos que ese eclipse esté en nuestra memoria y haya coronado a uno de los pilares de la civilización: la teoría de la relatividad general. Era valentía real: ser pacifista en tiempos de guerra significa ganarse el desprecio y el odio de todos los actores sociales. Einstein renunció a la ciudadanía alemana para evitar el servicio militar. Peor aún, en 1914, al inicio de la guerra, se negó a firmar el «manifiesto de los 93», documento en que un grupo de intelectuales alemanes, entre ellos el físico Max Planck, muy cercano a Einstein, apoyaban las acciones bélicas alemanas. Por su parte, en Inglaterra, Eddington se negó a combatir por objeciones de conciencia (era cuáquero).

La guerra cortó toda relación entre Inglaterra y Alemania. Eddington, que conocía y admiraba los famosos trabajos de Einstein de 1905, quería conocer lo que había escrito sobre la gravedad. La teoría que hoy conocemos como relatividad general. Eddington debió ser el primer inglés en comprender esta increíble obra que destronaba la gravedad newtoniana y con ella, para muchos, el honor de Inglaterra frente al Imperio alemán. Para él, los hombres de ciencia estaban más allá de los conflictos nacionales. Einstein era más cercano a él que casi todos sus compatriotas. La teoría de la gravitación de Einstein podía explicar con éxito el extraño comportamiento de la órbita de Mercurio, que se desviaba levemente de lo que predecían las leyes de Newton. Pero él sabía, tal como decía Carl Sagan, que «afirmaciones extraordinarias requieren siempre de evidencia extraordinaria». La relatividad general era una afirmación más que extraordinaria. Junto al astrónomo Frank Watson Dyson, Eddington planificó el experimento para probar la teoría de Einstein. Según esta, la trayectoria de la luz debía ser desviada gravitacionalmente al pasar cerca de cuerpos masivos. La teoría de Newton también predice este comportamiento, pero cuantitativamente las cosas cambian. Einstein predice que el desvío es el doble del que predice la teoría de Newton. Por esta razón, la posición aparente de estrellas cercanas al Sol debería cambiar respecto a las mismas en ausencia del astro. Pero cuando vemos el sol, la luz de las estrellas se ahoga en el brillo del cielo. Salvo en un caso: cuando hay un eclipse. Eddington y Dyson, en cuidadosas observaciones simultáneas en Brasil y en la isla de Príncipe, midieron la desviación, que resultó estar de acuerdo con las predicciones de Einstein. Nuestra visión del universo cambió para siempre. Comenzamos a comprender cosas antes imposibles. Se demostró, una vez más, que el verdadero héroe intelectual está por sobre nacionalidades, autoridades universitarias o masas vociferantes. Todo por un eclipse.

Capítulo 25
Zona iluminada

Contenido:
§. Agujeros no tan negros
§. Pequeños y primordiales
§. Fourier y una infructuosa búsqueda

Nada como trabajar en un café. Lejos de la oficina, en donde las menudencias del día a día no permiten la concentración sobre lo relevante. Un humeante café, buena música, y el hospitalario murmullo de las mesas vecinas son el escenario perfecto para una productiva mañana de trabajo. Claro que nada de esto sería posible sin el Wi-Fi, sistema que llena el espacio de invisibles ondas de radio que permiten mi conexión con el mundo, sin la incomodidad y la fealdad de cables emergiendo de las paredes que terminarían con la cálida atmósfera del lugar.

Sería difícil para las cafeterías ofrecer conexión a internet sin la tecnología Wi-Fi. Se trata de una de las tecnologías claves de la última década del siglo pasado. Su nombre proviene de «Wireless Fidelity» (fidelidad sin cables), un juego de palabras con el clásico «Hi-Fi» o High Fidelity (alta fidelidad) de los reproductores de audio. La idea fue del ingeniero y radioastrónomo John O’Sullivan. Pero surgió inesperadamente. No como un objetivo principal empujado por las necesidades de los clientes de las cafeterías del mundo, sino como un resultado secundario empujado por la curiosidad. Por el placer de descubrir. De encontrar en el espacio señales de uno de los más extraños fenómenos que la física teórica estaba prediciendo por esos días: O’Sullivan terminaba su doctorado en Ingeniería Eléctrica, cuando Stephen Hawking anunciaba la posibilidad de las violentas explosiones de pequeños agujeros negros que discutimos en «Agujeros negros y vientos de guerra».

Era evidente para él la necesidad de buscarlas.

§. Agujeros no tan negros
«There’s a light that never goes out», canta la lamentosa voz de Morrissey a través los parlantes del sistema Hi-Fi del café. Y es cierto. Porque ni los objetos más negros del universo son totalmente negros. Fue Stephen Hawking quien en 1974 hizo esta impresionante y fundamental observación. Los agujeros negros se suponían objetos que no solo no emitían radiación alguna, sino que además cualquier rayo de luz que incidiera sobre ellos, atravesando su horizonte de eventos, sería completamente absorbido, sin esperanza de escapar jamás. De este modo, no era posible tener luz proveniente de ellos. Eran la negrura absoluta. O al menos esta era la predicción de la teoría de la gravedad de Einstein: la relatividad general.

Las cosas cambiaron cuando Hawking estudió los efectos que la mecánica cuántica, teoría del universo microscópico, impondría sobre ellos. Encontró que debían comportarse como objetos calientes. Y como cualquier otro objeto caliente, debían emitir radiación, de igual manera como un carbón o un metal caliente «al rojo vivo» emite luz.

La temperatura de los agujeros negros la conocemos como temperatura de Hawking. Hay que agregar aquí que la luz emitida por objetos calientes no es siempre visible. Si bajamos la temperatura lo suficiente, no observaremos luz proveniente del metal caliente: estará emitiendo, en buena parte, radiación infrarroja, invisible a nuestros ojos. Si seguimos bajando la temperatura, emitirá principalmente microondas y luego ondas de radio, todas ondas electromagnéticas que no podemos ver, pero detectables con los instrumentos apropiados. Lo contraintuitivo de los agujeros negros es que mientras más grandes —y por lo tanto, más energéticos—, son más fríos. Por ejemplo, un agujero negro con la masa del sol, sería una esfera de apenas tres kilómetros de diámetro, cuya temperatura alcanzaría apenas una ínfima fracción de grado sobre el cero absoluto (−273,15 °C) [11].

Todos los agujeros negros que observamos son más pesados que el Sol. Esto es consistente con el único mecanismo que conocemos para su formación: al final de su vida, una estrella suficientemente pesada colapsará cuando el combustible nuclear que la mantenía caliente se agote, y ya no pueda luchar contra la fuerza gravitacional. Esto ocurrirá para estrellas de masas más grandes que unas tres masas solares. Pero la temperatura de Hawking de estos agujeros negros es tan pequeña, que la radiación que emiten es despreciable respecto de aquella que absorben del medio interestelar. Es así como no están, al menos actualmente, evaporándose para desaparecer. Tenemos agujeros negros para rato.

§. Pequeños y primordiales
Los agujeros negros grandes y fríos (de varias masas solares a millones de masas solares) son objetos comunes y estables en el universo. Pero en su artículo de 1974, Stephen Hawking también especuló sobre la existencia de agujeros negros pequeños, unos que no podrían ser producto del colapso gravitacional de estrellas moribundas. Solo podrían haberse formado muy al comienzo del universo, cuando la alta densidad y temperatura permitían que pequeñas fluctuaciones de la sopa primordial cósmica los formaran al azar. Los llamamos agujeros negros primordiales, y podemos asumirlos de cualquier tamaño.

Algo suficientemente pesado pero muy liviano en comparación a las escalas astronómicas: los cuerpos de agua en la tierra. Imaginemos el mar Negro. Para formar un agujero negro con su agua, debemos comprimirla hasta el tamaño de un átomo pequeño. La temperatura de este agujero será de más de 200 000 °C, similar a la que podemos encontrar en estrellas. Un agujero pequeño y ardiente como este emitirá mucha más radiación de la que es capaz de absorber, por lo que irá perdiendo masa. Y mientras más pequeño, aún mayor su temperatura y mayor la tasa de evaporación. Eventualmente el agujero desaparecerá en una rápida explosión de radiación, tal como mencionamos al final de «Agujeros negros y vientos de guerra». Si esas radiaciones existían, O’Sullivan tenía la esperanza de encontrarlas.

§. Fourier y una infructuosa búsqueda
El problema que enfrentaba el ingeniero era que incluso si las explosiones que predecía Hawking existían, había varios obstáculos que sortear para poder observarlas. Primero, las explosiones de estos pequeños no resultan eventos particularmente violentos si se las compara con otros eventos dentro del universo. Es como intentar escuchar una lejana conversación dentro de este café atiborrado de clientes.

Otro problema era que las ondas de radio que pretendía observar, y que la explosión del agujero debía emitir profusamente, no llegarían directamente del pequeño objeto que estaba mirando. La señal sería difusa, debido a que en su largo camino a través del espacio y la atmósfera, se reflejaría y difuminaría. Como si la lejana conversación que me interesa rebotara en las paredes produciendo un eco y una reverberación que hiciera más compleja mi tarea por entenderla.

Afortunadamente, más de 150 años antes, el matemático francés Joseph Fourier había desarrollado las técnicas matemáticas que él necesitaba. Estas le permitieron encontrar la electrónica necesaria para limpiar la señal de las antenas y buscar sus furtivas explosiones siderales.

Nunca encontró ninguna, pero un buen científico no baja la guardia. Sigue pensando en la belleza de los agujeros negros en algún café de la ciudad.

Y así llegamos a la serendipia, el accidente feliz, de O’Sullivan. Fue la clase de accidentes que solo suelen ocurrir en la cima de una larga carrera de búsqueda motivada por la curiosidad.

Años después de su fracaso en la búsqueda de agujeros negros primordiales, John O’Sullivan se encontraba liderando el grupo de procesamiento de señales de CSIRO (siglas para la Organización para la Investigación Científica e Industrial de la Mancomunidad de Australia). Allí se planteó el problema de mejorar las rudimentarias redes inalámbricas para computadoras. El problema principal era que la señal de radio transmitida por antenas ubicadas dentro de espacios cerrados sufría de múltiples reflexiones debido a las paredes y los objetos del recinto. Era un problema que O’Sullivan conocía mejor que nadie. Había dedicado años a filtrar las hipotéticas señales de los agujeros negros que nunca encontró. Ahora podía usar la electrónica y la matemática de Fourier para otra cosa. Con sus colaboradores desarrollaron los estándares para redes inalámbricas que hoy conocemos como Wi-Fi.

Así, la patente más valiosa de Australia nació de la obsesión de un hombre por los objetos más extraños y oscuros del universo, iluminados por abstractas matemáticas del siglo XIX. Nada como trabajar en un café. Pensar en los misterios de los agujeros negros, notables protagonistas de la historia que me permite escribir estas líneas en este cálido lugar. Porque, ya lo hemos dicho y lo repetiremos incansablemente: la innovación relevante solo puede surgir en el placer de descubrir, en la pasión por la belleza, en la obsesión desinteresada. Ojalá tomándose un buen café.

Capítulo 26
Cuestión de química

Contenido:
§. I lab you
§. En busca del radio
§. La vida me mata

Hay mucha química entre nosotros. Nos comemos un salmón a lo pobre en un pequeño restaurante cerca de Pucón, con una vista panorámica hacia los colores del otoño. Hermosos carotenoides, compuestos que tiñen de amarillo las hojas de los álamos, pero que también colorean la yema del huevo, las papas y el salmón que adornan mi plato. Sabrosas moléculas café que otorgan color a las marraquetas, a la cebolla frita, al dorado del salmón y al manjar del celestino que comeré de postre. Todas, producto de las reacciones de Maillard, reacciones químicas que ocurrieron al someter proteínas y azúcares de los alimentos a altas temperaturas: eso produce cientos de deliciosos compuestos.

La química nos muestra lo que tienen en común las sustancias de los objetos que nos rodean. Más aun, nos muestra cómo cada una de estas sustancias está hecha de pequeñísimas unidades fundamentales, llamadas moléculas, formadas a su vez por conjuntos de átomos, la unidad más pequeña de la materia, y de los que conocemos 118 tipos. La mayoría fueron construidos en supernovas o en el Big Bang, tal como lo describimos en «El sabor del universo». Otros pocos han sido sintetizados artificialmente por el hombre. Son estos elementos los bloques fundamentales que componen absolutamente toda la materia que nos rodea. Cada uno de estos elementos tiene características especiales. Pero también tienen sus historias. Apasionadas historias de descubrimiento, de teorías, de predicciones. Pocas, sin embargo, contienen además una historia de amor como la que protagonizó Marie Curie, uno de los personajes más impresionantes de la historia de la ciencia.

§. I lab you
Maria Sklodowska conoció a Pierre Curie en 1894. Marie, nombre que usaba en Francia, había recién terminado su magíster en Física en París. Con sus excelentes calificaciones, ganó una beca que ofrecía una asociación de industriales con el objeto de estudiar las propiedades magnéticas del acero. A falta de un laboratorio apropiado, un amigo le presentó a Curie, jefe del laboratorio de la Escuela de Química y Física Industrial de la Municipalidad de París. Allí pasó algunos meses, trabajando y enamorándose del hombre que solo un año después se transformaría no solo en su marido, sino en el colaborador científico de su vida.

Marie se había prometido volver a su Polonia natal. Era profundamente patriota, sentimiento agudizado por haber vivido su infancia en un país ocupado por la Rusia zarista, en donde, entre otras cosas, las mujeres no tenían acceso a la universidad. Pero no volvió a Polonia. Él la convenció de quedarse. En una carta, Pierre le escribió: «Sería sin embargo algo tan hermoso que apenas me atrevo a pensar posible, el pasar la vida juntos, hipnotizados en nuestros sueños: tu sueño para tu país, nuestro sueño para la humanidad, nuestro sueño por la ciencia. De todos estos, creo que solo el último es legítimo. Quiero decir que no tenemos el poder de cambiar el orden social. E incluso si no fuera así, no sabríamos qué hacer. Por el contrario, desde la ciencia podemos pretender hacer algo. Aquí el territorio es más sólido y evidente, y aunque pequeño, está genuinamente en nuestras manos».

Había química entre Pierre y Marie. Tanta que el amor por la ciencia y el amor mutuo eran indistinguibles. Entre 1895 y 1904 ya habían tenido dos hijas, Irene e Eve, y habían ganado juntos el Premio Nobel de Física por sus trabajos sobre radiactividad.

§. En busca del radio
Cuatro meses después de la boda de los Curie en París, y algunos cientos de kilómetros al este, en Würzburg, Alemania, Wilhelm Röntgen descubrió accidentalmente las radiaciones que llamaría «rayos X» y que le valieron el primer Nobel de Física, en 1901. Su popularidad fue inmediata, principalmente por la posibilidad que ahora existía de fotografiarnos los huesos. Un año después, en París, Henri Becquerel intentó identificar fuentes de rayos X en sales de uranio, pero terminó descubriendo el tipo de radiación que poco después Marie Curie llamaría «radiactividad».

Ese mismo año, Marie comenzó su trabajo de tesis doctoral, donde decidió investigar las misteriosas radiaciones descubiertas por Becquerel. Su primer aporte fue darse cuenta de que la intensidad de la radiación solo estaba relacionada con la cantidad de uranio presente en el mineral. La radiactividad debía ser, por lo tanto, una propiedad intrínseca de los átomos de uranio.

Pero su gran descubrimiento lo consiguió al observar la pechblenda, un mineral rico en uranio, pero no lo suficiente como para dar cuenta de sus altos niveles de radiación. Su audaz hipótesis terminó siendo correcta: debía existir en la pechblenda un elemento nunca antes observado, que fuese mucho más radiactivo que el uranio. Pierre encontró fascinante la predicción de Marie y abandonó sus experimentos para unirse a su esposa en la búsqueda de este nuevo átomo. Decidieron bautizarlo «polonio» en homenaje al sueño patriótico de Marie. No solo encontraron polonio, sino también un segundo elemento muy radiactivo que llamaron «radio». Marie necesitó más de tres años de trabajo y varias toneladas de pechblenda para aislar un décimo de gramo de cloruro de radio, una sustancia de color azul que resplandecía emitiendo luz y calor.

Pero más resplandecieron los Curie.

§. La vida me mata
«Primer principio: nunca te dejes derrotar por personas o eventos», había escrito Marie a los veintiún años. Una máxima que le fue útil cuando, en 1906, en su intento por cruzar una avenida del centro de París, Pierre Curie murió atropellado por una carroza. Pero la viuda era una mujer fuerte. Siguió con sus trabajos hasta el último día, a los sesenta y seis años, cuando murió producto de las radiaciones que recibió por años.

Su legado va más allá de la ciencia. Durante la Primera Guerra Mundial diseñó pequeños aparatos de rayos X móviles que podían ser llevados al frente de batalla para diagnosticar las heridas de los soldados. En la tarea la ayudó su hija Irene, quien de algún modo continuó con su proyecto científico. En 1935, Irene y Frederic Joliot ganarían el Nobel de Química por sus trabajos sobre la síntesis artificial de elementos radiactivos. Frederic era su marido. Entre ellos también había química.

Científicamente, la gran pregunta que quedaba por responder era el origen de las radiaciones atómicas. Hasta entonces parecía claro que los átomos no solo eran indivisibles, sino que además eran inmutables. El viejo sueño de la alquimia de transformar plomo en oro había sido abandonado. ¿Cómo era posible entonces que emitieran energía (calor, luz) gratuitamente, sin ninguna consecuencia? ¿De dónde venía esa energía?

La respuesta la encontró el físico neozelandés Ernest Rutherford. Descubrió que la radiación atómica estaba compuesta por electrones, partículas que llamó «alpha» —núcleos de helio— y por lo que denominó «rayos gamma». En el proceso, el átomo transmuta, transformándose en otro. Los átomos que no emiten radiación son estables. Esos son los que comúnmente nos rodean. Pero también hay átomos inestables, que decaen en otros, y estos, a su vez, en otros más, en largas cadenas de transmutaciones que terminan en un átomo estable. Es la alquimia natural del universo [12].

Pero la creación más popular de Rutherford fue su modelo atómico. En su experimento más famoso bombardeó láminas delgadas de distintas sustancias con sus partículas alpha. Así se dio cuenta de que el átomo debía ser casi completamente vacío, salvo por un muy pequeño «núcleo» central, alrededor del cual se mueven pequeños electrones. A pesar de que luego la mecánica cuántica mejoraría considerablemente el modelo atómico, la imagen de Rutherford sigue siendo un ícono. Es el dibujo que aparece en casi todas partes cuando se quiere representar un átomo.

El modelo fue presentado en 1911, el mismo año en que Marie Curie recibió su segundo Premio Nobel, esta vez de Química. Por eso un siglo después brindamos por ella en un bosque sureño, iluminado con los colores del otoño. Porque no hay nada como disfrutar de átomos que se combinan y vibran para crear un perfecto salmón a lo pobre, una mirada, una sonrisa.

Capítulo 27
Orgánico y natural: mito e ingenuidad


«
Natural». Pobre palabra. Su uso indiscriminado la ha despojado de todo significado, transformándola en una simple muletilla, un tan popular como falso certificado de calidad para muchas de las ideas o los productos que nos intentan vender a diario. En varias oportunidades he sido testigo de cómo una discusión sobre las bondades medicinales de cierto producto «natural» termina con un categórico «y bueno, mal no me puede hacer». Si se trata de un té de hierbas, probablemente sea cierto. Pero a escala social existe un enorme riesgo del que debemos hacernos responsables. La agricultura, con la proliferación de los así llamados productos «orgánicos», es un buen ejemplo.

Aquí los villanos parecen ser los pesticidas, fertilizantes y la ingeniería genética. A cambio tenemos productos orgánicos «naturales» que nos garantizan la ausencia de estos tratamientos y, por lo tanto, más salud, sabor y cuidado del medio ambiente. Pero casi nadie se da la molestia de explicar por qué esto es así. Y el acalorado debate científico al respecto nos demuestra que estos beneficios no son tan evidentes.

Primero, ¿son tan nefastos los fertilizantes y pesticidas? Ciertamente, como cualquier producto químico, pueden ser muy tóxicos. Por ello requieren de una exigente regulación. Lo mismo ocurre con medicamentos, detergentes o bebidas. Pero esta regulación es igual de importante para productos sintetizados en tubos de ensayo como para los «naturales». No porque el hongo que creció en su jardín sea natural será más saludable que un tubo de pasta de dientes.

Luego está la ingeniería genética. Aquí el ADN de un vegetal es modificado para crear nuevas especies con características que nos interesan: mayor resistencia a plagas, mejor tamaño de la fruta y valor nutritivo, colores y sabores más atractivos, y así. El miedo es que el producto conseguido pueda ser dañino para la salud o para la ecología. Sin embargo, la selección artificial que la humanidad ha practicado durante milenios tiene un efecto bastante similar, solo que mucho más lento: simplemente esperamos que el azar produzca mutaciones, y seleccionamos aquellas que mejoraron el producto para un próximo cultivo. Charles Darwin encontró inspiración en este proceso para su «selección natural», mecanismo clave que guía la evolución, donde las mutaciones que suponen una mejor adaptación al medio sobreviven. En la artificial, las seleccionamos a voluntad. El maíz, por ejemplo, no existía hace diez mil años; solo había teosinte, su pariente pobre: una pequeña mazorca de apenas unos centímetros y unos pocos granos. Los indígenas americanos necesitaron algunos miles de años para domesticarlo, transformándolo en el maíz moderno. O sea, el hombre lleva unos diez mil años practicando una forma de «ingeniería genética».

En la actualidad, se le da un buen empujón al proceso, introduciendo directamente los genes deseados en el ADN de la planta o animal, y ahorrándonos así los miles de años en la mejora de nuestros productos agrícolas. Nuevamente, el punto esencial está en la regulación. No es el avance tecnológico el que puede poner nuestra salud o ambiente en peligro: son más bien las prácticas de unos pocos científicos, empresarios, políticos o fiscalizadores inescrupulosos. Y estos existieron y existirán siempre, independientemente del estado de la tecnología. Hasta hace muy poco, por ejemplo, muchos no trepidaban en regar sus hortalizas con aguas servidas —nada más «natural» que nuestros propios despojos, ¿verdad?—, lo que supone problemas de salud muchísimo más importantes que los que podrían derivar de los pesticidas modernos.

Por lo demás, en el mercado orgánico también es posible que existan prácticas poco éticas, como en cualquier otra actividad humana. Después de todo, hablamos de un negocio que en el mundo ya supera los 50 000 millones de dólares anuales en ventas. Es importante informarse más allá de la moda y el marketing. Dominic Lawson, periodista de The Guardian, escribió hace algunos años que «el negocio orgánico —comida ordinaria a precios extraordinarios— no es más que un impuesto a la ingenuidad».

Cualquier cosa nueva que hagamos puede presentar problemas inesperados. Medicamentos, software, alimentos o máquinas. Es cierto que estos errores pueden ser fatales si se trata de nuestra salud o alimentación. Sin embargo, renunciar a la ciencia en este ámbito es aún más peligroso. Sin ir más lejos, los accidentes de tránsito son una de las causas importantes de muertes en el mundo, especialmente de gente joven, pero a nadie se le ocurre abolir el automóvil. Los autos también son una de las fuentes más señaladas de contaminación. Piense en esto la próxima vez que vaya en su 4 × 4 a una feria orgánica.

En un mundo con mil millones de desnutridos, la tecnología alimentaria, con sus pesticidas y su ingeniería genética, da una esperanza de alimentos baratos, nutritivos, abundantes, sabrosos y que requieran de poco cuidado. Incluso son, en algún sentido, más amigables con el medio ambiente, pues permiten cosechas mayores en terrenos más pequeños, lo que reduce la necesidad de deforestación. No quiero decir que los cultivos orgánicos no tengan algunas ventajas. De hecho, existen evidencias en favor de la agricultura orgánica en el sentido de que promueve la biodiversidad. También es muy posible que sus productos sean más variados comparados con aquellos producidos en masa. Solo pretendo que estén atentos a las ideas que se imponen por doctrina más que por evidencia. Infórmese, mal no le va a hacer.

Capítulo 28
Se ruega no innovar

La innovación está de moda. Todos quieren innovar. Uno tras otro se repiten los seminarios para innovadores; hay demasiados «expertos» en innovación que deben justificar sus ingresos. Y demasiados políticos pregonando novedades. A veces ruego que se detengan. Que no hagan una nueva versión de mi procesador de texto favorito ni de mi sistema operativo. Que no cambien la diagramación del diario que leo en las mañanas. Que no inventen nuevos soportes para música y películas. Que no creen nuevas herramientas de apoyo a las ciencias.

Tenía razón Coco Chanel cuando decía: «¡Innovación! Uno no puede estar permanentemente innovando. Yo quiero crear clásicos». Para hacer innovación significativa es necesario amar esos clásicos. Ese es finalmente el principal papel de los científicos: enarbolar esos clásicos como una antorcha olímpica que ilumina sus viajes por los oscuros pasillos de la ignorancia. ¡Que los fuegos de artificio de la innovación jamás nos distraigan de esta importante misión!

Cuando la ansiedad antiinnovadora me consume me encierro en el baño, ese pequeño espacio de intimidad donde el universo se congeló en el siglo XIX. Donde todo es tecnología ancestral que no ha sido modificada en el último siglo. ¡Y qué bien funciona!

Sobre todo el WC. Hasta que el hábito se prohibió en 1395, la gente en París podía arrojar sus excrementos por las ventanas siempre que antes gritara tres veces «Gare l’eau!» (¡Cuidado con el agua!). Las cosas afortunadamente cambiaron. El inodoro, tal como lo conocemos, fue creado cuatro siglos después por el relojero escocés Alexander Cummings, quien incluyó la famosa válvula atrapa-olores: un sifón con forma de «S» que retiene agua en su interior, aislándonos de las emanaciones del alcantarillado. En el siglo XIX se le añadieron pequeñas mejoras. Quizá la gran obra maestra en el arte de alejar nuestros despojos fue un inodoro diseñado por George Jennings y bautizado «Vaso de pedestal», que ganó el premio mayor en la Exposición Sanitaria de Londres en 1884 por quedar completamente limpio con una descarga de nueve litros de agua. El aparato habría sido capaz de arrastrar «diez manzanas de 3 cm de diámetro, una esponja plana de 11 cm de diámetro, residuos de plomería que había en el recipiente y cuatro trozos de papel, adheridos fuertemente a la sucia superficie».

El uso del sifón ya era conocido por los antiguos griegos. No fueron motivaciones escatológicas, sino más bien puramente científicas, las que hicieron a Ctesibios de Alejandría establecer sus principios en el siglo XII antes de nuestra era. Este fenómeno es familiar para cualquiera que haya intentado, por ejemplo, sacar gasolina del estanque de un automóvil. Lo que se hace es insertar una manguera en el estanque y succionar por el otro extremo —con la boca o con una pequeña bomba manual— hasta que el líquido comience a salir. Una vez que comienza, la gasolina seguirá fluyendo siempre que el extremo de salida se sitúe por debajo del nivel del estanque. No es necesario ningún esfuerzo externo adicional. La sorpresa está en que el líquido sube por la manguera hasta la apertura del estanque antes de volver a bajar, en un esfuerzo mancomunado entre las fuerzas de gravedad y la presión atmosférica.

En el retrete este efecto es clave en el sinuoso recorrido que hace el tubo de descarga: primero baja un poco y luego sube casi hasta la altura de la taza, para luego volver a bajar a las profundidades del alcantarillado. Una «S» acostada. Este diseño permitió matar dos pájaros de un tiro. Primero estaba la idea original de Cummings: la primera curva, en forma de «U», deja atrapada agua, manteniendo un sello que evita emanaciones gaseosas desde el alcantarillado. Segundo, el diseño de una pieza, sin partes móviles ni válvulas, permite un funcionamiento higiénico sin necesidad de mantención. La descarga se efectúa introduciendo agua al retrete, de manera de llenar de líquido la «S» hasta gatillar el mecanismo de sifón. El contenido se vacía violentamente con el característico sonido de succión, y la última porción de agua, ya limpia, queda en la «U». Demasiado ingenioso para intentar una innovación. Un clásico.

Quizá una vez al año deberíamos decretar «el día de la no innovación». Tomar a todos esos innovadores, sus ideas, sus sonrisas, y en un acto de venganza universal meterlos en un WC cósmico. Y en nombre de Ctesibios, Cummings y Jennings, tirar la cadena.

Capítulo 29
Perdimos como en la guerra

Contenido:
§. Una pareja explosiva
§. El hombre que fijó el nitrógeno
§. El problema oportunidad

Es una historia conocida. La enseñan en los colegios. Hace cien años, más de la mitad de las arcas fiscales chilenas eran alimentadas por el salitre, una sal químicamente conocida como nitrato de sodio, importante tanto en la industria de los fertilizantes como en la de explosivos. Se llegaron a producir hasta tres millones de toneladas al año. Pero luego la industria entraría en crisis. En 1913, la compañía química alemana BASF comenzó a producir nitratos sintéticos utilizando el «proceso de Haber-Bosch», desarrollado por los alemanes Fritz Haber y Carl Bosch. Veinte años más tarde, el volumen y precio alcanzado por la industria sintética dejaron a Chile fuera de competencia.

Pero por muy conocida que sea, hay que decir que es una historia de la que se habla poco. Quizá por dolor. Quizá por vergüenza. Es una curiosa ironía que precisamente a cien años de la invención del proceso de Haber-Bosch, el gobierno chileno declarara el 2013 como «el año de la innovación». Ya es buen momento para reconciliarnos con la historia. Para aceptar esa derrota y reconocer que seguimos viviendo en un país dependiente de materias primas, de productos de baja complejidad. Es momento de releer esta historia que, además, es un ejemplo demasiado hermoso de cómo nace la genuina innovación. De las fuerzas que la inspiran y la guían. Es una historia fascinante en donde la curiosidad humana, la voluntad, el emprendimiento, el nacionalismo, la codicia y la necesidad de supervivencia se dan en la mezcla precisa para que una obra monumental aflore. Una capaz de dar vida y dar muerte. Pan y dinamita.

§. Una pareja explosiva
El nitrógeno es un elemento químico peculiar. Es el cuarto más abundante en la materia biológica, después del oxígeno, el carbono y el hidrógeno. Es parte esencial del ADN y de las proteínas, abnegadas trabajadoras de la maquinaria celular. Usted tiene más de dos kilogramos de nitrógeno en su cuerpo. Una cantidad nada despreciable, considerando su escasez: aunque es tremendamente abundante en nuestra atmósfera (es el 78 por ciento del volumen del aire que respiramos), es poco lo que podemos usar de él. En el aire está presente en forma de moléculas muy poco sociables: el nitrógeno molecular (N2) contiene dos átomos de nitrógeno fuertemente ligados y que difícilmente interactúan con otros átomos. Es por esto que es muy difícil para organismos vivos romperlas y utilizar su par de átomos en la construcción de moléculas útiles para su biología. Afortunadamente, la corteza terrestre también contiene algo de nitrógeno en forma de sales, que pueden ser asimiladas por las plantas. Una de estas es el salitre, cuyas moléculas contienen nitrógeno. Eso permite el crecimiento de las plantas y de todos quienes venimos en la cadena alimenticia.

De manera natural, el nitrógeno puede pasar de la atmósfera a las formas biológicamente útiles en la tierra a través de dos mecanismos: o en un súbito y energético golpe, como el de un rayo, que rompa las moléculas de nitrógeno; o con cierto tipo de bacterias que evolucionaron con la envidiable capacidad de hacer lo mismo.

Estos mecanismos de «fijación de nitrógeno» aumentan el contenido útil de este elemento en la corteza terrestre. Pero son procesos muy lentos, que por sí solos nunca podrían haber explicado cómo hoy se pueden alimentar siete mil millones de personas en la tierra. De hecho, se estima que actualmente la mitad de los átomos de nitrógeno en nuestros cuerpos no vienen de ninguno de estos procesos naturales. Fueron artificialmente sintetizados en plantas de Haber-Bosch.

Si utilizáramos solo métodos orgánicos de cultivo, con suerte podríamos alimentar a dos tercios de la población mundial.

Pero el nitrógeno no solo es parte fundamental de muchas moléculas biológicas. Es también un ingrediente principal de la mayoría de los explosivos convencionales, como la pólvora, la dinamita y el TNT. En estos casos, el nitrógeno atmosférico tampoco es útil. Es necesario tenerlo en formas más reactivas, como el salitre.

Así, la importancia del antiguo producto estrella del norte chileno está a la vista. Es lo más cercano a una sal milagrosa que podamos imaginar.

A fines del siglo XIX, comenzó a ser evidente para la comunidad científica que el gran problema que debía enfrentar la humanidad era la futura escasez de nitrógeno. Hasta entonces, la mayor parte del nitrógeno era reciclado: los fertilizantes eran desechos orgánicos de los organismos vivos que lo contenían. Los más usados eran excrementos y orinas. El rey Carlos I de Inglaterra, por ejemplo, en 1626 ordenó a sus súbditos recolectar la orina que acumularan durante el año, y donarla para la producción de nitrato de potasio, otra sal rica en nitrógeno. También se utilizaba la rotación de cultivos. En particular, cada cierto tiempo era importante plantar legumbres, cuyas raíces alojan colonias de bacterias capaces de fijar el nitrógeno atmosférico.

Durante las primeras décadas del siglo XX, el salitre chileno se transformó en la gran fuente de nitrógeno. Hacia 1900, Chile producía dos terceras partes del fertilizante que se usaba en el mundo. Pero no era suficiente. Se sabía que las reservas se agotarían y se vaticinaba el fin de la civilización para mediados de siglo. Pero, como es habitual, los juglares del apocalipsis no contaban con el poder de la creatividad humana.

§. El hombre que fijó el nitrógeno
Fritz Haber no era un químico muy conocido. Tenía ya cuarenta años en 1909, cuando obtuvo el resultado que catapultó su fama y cambió su destino. Logró fijar el nitrógeno del aire, algo que hasta entonces los únicos organismos vivos que lo habían hecho era un grupo de bacterias poco común. Esto le valió el Premio Nobel de Química en 1918. La máquina de Haber era capaz de romper el N2 y crear amoniaco, molécula que contiene un átomo de nitrógeno y tres de hidrógeno. Esto lo hacía mezclando el nitrógeno atmosférico y el hidrógeno a altas presiones y temperaturas. Él sabía que a través de otros procesos químicos era posible transformar ese amoniaco en los codiciados nitratos.

Haber era un patriota. El incentivo máximo que alimentaba su obsesión por investigar cómo transformar el aire en algo útil, era el amor por su país. Ese mismo patriotismo lo llevo más tarde, durante la Primera Guerra Mundial, a entrar al campo de las armas químicas: fue pionero en el desarrollo de este siniestro método de combate, produciendo el gas cloro, muy utilizado por el Ejército alemán en la guerra de trincheras.

Pero su patriotismo poco le sirvió con la llegada de Hitler. Haber era judío, y fue prontamente expulsado del Instituto Kaiser Wilhelm que dirigía. Por esos años el grupo de Haber desarrollaría el pesticida Zyklon A, que los nazis alterarían para producir el Zyklon B, gas que utilizaron para exterminar a millones de judíos. Una trágica ironía que Haber no alcanzó a presenciar. Murió en Suiza en 1934, producto de un infarto. Su corazón probablemente no soportó la traición del amor de su vida, el país al que había ofrendado su existencia.

§. El problema oportunidad
En 1874, Chile y Bolivia firmaban el tratado que regulaba los impuestos de empresas chilenas exportadoras de nitratos. El mismo año nacía Carl Bosch, el ingeniero que convirtió el método de Haber en un proceso industrial de gran escala y que le valió el Premio Nobel en 1931.

Las investigaciones de Fritz Haber habían sido financiadas por BASF, la mayor de las industrias químicas alemanas. Era una compañía cuyo rumbo hacia la genuina innovación quedaba de manifiesto en un dato: hacia 1900 tenía entre sus empleados a 148 químicos científicamente entrenados. Carl Bosch era el ingeniero a cargo de las investigaciones en nitrógeno. En la Primera Guerra Mundial, el bloqueo aliado a los embarques de salitre chileno hacia Alemania hizo del desarrollo de nitratos sintéticos un programa estratégico nacional. Bosch supo aprovechar estas necesidades, y en 1913 terminó la primera planta de amoniaco en Oppau, que ese año produjo 36 000 toneladas de sulfato de amonio, otra sal rica en nitrógeno. La importancia de la planta para la producción de explosivos hizo que fuera el objetivo del primer bombardeo aéreo estratégico de la historia militar, perpetrado por Francia en 1915. Bosch en 1925 funda IG Farben, empresa de la cual es nombrado director y que une a las compañías químicas alemanas.

Como director de la empresa, conoció al hombre a cuyo apellido quedaría ligado el suyo: Fritz Haber, con quien llegó a entablar una amistad, aunque no alcanzaron a coincidir mucho tiempo. Sus destinos, claro, serían muy distintos.

Hoy las plantas de Haber-Bosch producen 500 millones de toneladas de fertilizantes al año, del orden de todas las reservas que aún quedan enterradas en el desierto chileno. Estas plantas utilizan más del 1 por ciento del consumo mundial de energía y sin ellas más de 2000 millones de personas morirían de hambre. Su origen y desarrollo fueron impulsados por muchos factores, pero de estos, los irracionales fueron los más importantes. No se trataba de caminar sobre la seguridad de un plan estratégico hacia productos probados en algún focus group. Se trataba de salvar el mundo. De entregar todo por el país, por la ciencia, por la urgencia de ser el primero, por dejar una huella en la historia.

Ojalá esta historia fuese parte de los programas de educación obligatoria de todos los países cuya economía se basa en materias primas. Que la integremos de manera profunda a nuestra estructura mental. Que incentivemos y respetemos las ideas demenciales [13], a la ciencia básica, a los empresarios audaces. Que entendamos que la genuina innovación no puede ser liderada por «expertos en innovación» ni enseñada en charlas TED. Que defendamos con fuerza aquello que Bosch tuvo el valor de defender en un memorándum al ministro de Educación nazi: la libertad intelectual y la importancia de la investigación científica, sin pensar en ganancias inmediatas.

Capítulo 30
Chanta

No podemos librar todas las batallas. Una que me resulta particularmente inconducente es la defensa de la razón y la ciencia frente a las teorías conspirativas y el esoterismo televisivo. Si un niño me quiere convencer que «Caballito blanco» es mejor canción que «Strawberry fields forever», yo no trato de revertir su pensamiento. Tendrá tiempo para escuchar música y aprender por sí solo sobre este arte. El problema es cuando el niño se pasa la vida casi sin escuchar música, y luego, cuando adulto, asegura que Arjona es más valioso que Gardel. La batalla estará desde el comienzo perdida y darla es inconducente. Cuando el tema es científico, la cosa es bastante más deprimente, pues aquí la sensibilidad poética tiene menos espacio, y la razón es un arma a nuestra disposición. Es por esto que cuando veo en televisión un debate sobre la naturaleza de los movimientos sísmicos entre un geólogo y un falso experto en mitología maya, solo puedo deprimirme.

El experto en cuestión suele no tener conocimiento científico alguno. Tampoco es experto en cultura maya, pues si lo fuera probablemente no estaría hablando de terremotos. El «experto» es parte de un grupo muy particular. Se caracterizan por hablar con soltura sobre personajes dispares, desde Einstein hasta Platón, pasando por un sinnúmero de intelectuales desconocidos que citan continuamente. Utilizan la autoridad de todos ellos para hablar de cosas que no comprenden. Y el hablar de modo incomprensible aumenta el efecto de autoridad, más aún cuando lo hacen con seguridad y desplante. Mejor si lo hacen con acento extranjero. En el sur de América los llamamos chantas.

No es que un debate entre un científico y un chanta sobre sismología no sea tan válido como cualquier otro. El problema está en que hay ciertos debates que resultan irritantemente infantiles, escolares. Y deprime la cobertura que tienen. Deprime y da risa ver cómo los conductores de televisión los manejan como si se tratara de dos puntos de vista igualmente valiosos, igualmente consistentes, igualmente profundos. De hecho, normalmente es el científico el que saca la peor parte, quedando de conservador, de «cerrado». Y claro, la característica principal del chanta es su encanto y oratoria.

Algunos científicos piensan que se debe presionar para que las ideas chantas no sean difundidas. Discrepo. Si una persona no ha alcanzado el pensamiento crítico requerido para distinguir, al menos en los casos evidentes, la diferencia entre una idea valiosa y una tontería, ¿es el camino correcto el suprimirle por decreto la exposición a la tontera? Creo que no. Lo que queremos es promover el pensamiento crítico, no la dictadura intelectual. El problema aquí es otra cara del mismo problema de siempre: la poca exposición de nuestros niños a la ciencia.

Además, hay casos en que no es tan sencillo distinguir a un chanta. Hay chantas sutiles, encumbrados en las más altas esferas políticas, intelectuales y económicas del mundo. Los chantas de debate televisivo son completamente irrelevantes e inofensivos —son más un síntoma que una amenaza— frente a los chantas con los que interactuamos día a día. Por otro lado, en ocasiones la dictadura intelectual combate a los creadores de las más importantes ideas de la humanidad. Basta recordar cómo trataron los nazis a Einstein, o la Iglesia a Galileo. No queremos una sociedad domesticada por un grupo de intelectuales que diriman cuáles son las ideas valiosas.

Una aclaración importante: alguien me podrá decir que por qué entonces yo ninguneo a todos estos chantas. Quizá sean futuros Einsteins o Galileos. Bueno, las cosas son muy distintas. En primer término, mi ninguneo no viene del poder, y en segundo, es científico. Con lo primero quiero decir que no tengo el poder —aunque a veces implore tenerlo— de callar al chanta. De hecho, si Galileo hubiese tenido la cobertura del experto ufólogo del matinal, probablemente la historia de la ciencia habría sido distinta. Con lo segundo entiendo esto: en ciencia todo se mira con sospecha. Es parte de nuestro trabajo. La publicación de la mayor parte de los trabajos científicos es rechazada por pares evaluadores. Aun así, como ya vimos en «Inmunes a la ciencia», muchos de aquellos que se publican están malos, y el escrutinio público lo descubre con el tiempo. Incluso hay científicos chantas, cuyas trampas suelen ser descubiertas. Estos deben asumir públicamente el engaño, y normalmente son despedidos de sus universidades.

Los científicos estamos acostumbrados al ninguneo y al debate intenso. Pero claro, una cosa es debatir Beatles vs. Rolling Stones, otra es «Caballito blanco» vs. «Strawberry fields forever». La analogía no es exagerada. Una lástima.

Capítulo 31
Los sonidos de la caverna

Contenido:
§. Baño sonoro
§. En clave acústica
§. Quiero bailar con Bose

La noche del sábado 3 de agosto de 1963 fue excepcional: fue la última presentación de Los Beatles en el mítico The Cavern Club en Liverpool. Ya no se trataba de la actuación de una desconocida banda de la casa. Se trataba de una que ya tenía, casi por cinco meses, su álbum debut en el número uno de las listas británicas. Please please me fue publicado en marzo. Se grabó en un solo día en los estudios de Abbey Road en Londres. La idea del productor, George Martin, era hacer un disco en vivo, capaz de reproducir el extraordinario ambiente que él mismo vivió al presenciar a la banda en directo. Pero los problemas técnicos de grabar en The Cavern lo hicieron desechar la idea y hacer la grabación en vivo en el estudio. De acuerdo al biógrafo de Los Beatles, Jonathan Gould, Martin habría renunciado a hacer la grabación en un espacio que tenía «la acústica de un tanque de aceite».

Y claro, hoy es difícil pensar en una buena acústica tratándose de un lugar alargado y estrecho, con paredes de rígidos ladrillos y techo curvo. Los que estuvieron allí cuentan que la humedad proveniente de los cuerpos sudorosos de los fans se condensaba en los ladrillos, desde donde caía el agua mojando todo el lugar. La experiencia de cantar en The Cavern no debe haber sido muy distinta que la de hacerlo en la ducha. En grupo.

§. Baño sonoro
El problema de conseguir una buena acústica para una sala de conciertos es antiguo y complejo. A pesar de que la física involucrada es hoy bien conocida, existen compromisos que el diseño de una buena sala de conciertos siempre debe conceder. Primero, las características acústicas ideales para una banda de rock, un concierto de cámara o una obra de teatro son muy distintas. Hoy en día, por razones económicas, la versatilidad de la sala es importante. Por otra parte, muchas veces la belleza, la comodidad del lugar u otras necesidades deben competir con la calidad del sonido que pueda producir.

El sonido, ya lo discutimos en «Hay onda entre nosotros», es una onda. Y al encontrarse con un obstáculo, varios fenómenos pueden ocurrir. Para lo que sigue, hay dos que nos interesan. En primer término, puede reflejarse. La experiencia más nítida de esto es el eco que experimentamos al estar cerca de algún obstáculo voluminoso y rígido, como una montaña. Si el objeto está a más de diez metros de distancia, el retraso entre la onda que llega al oído directamente y aquella que rebota en el obstáculo será suficientemente grande como para que el oído discrimine las dos señales como distintas.

Si, en cambio, estamos cerca de los obstáculos, como cuando cantamos dentro de la ducha, rodeados de paredes cercanas y rígidas, las reflexiones ocurren en todas las paredes, y pueden rebotar varias veces antes de llegar a nuestros oídos. Las ondas llegan de todos lados y en tiempos distintos, pero muy cercanos. No somos capaces de discriminar cada una, como en el caso del eco. Lo que percibimos, en cambio, es lo que llamamos reverberación. El sonido no se apaga de inmediato, sino que queda encendido por algunos segundos, apagándose poco a poco, aun cuando la fuente de sonido ya está callada. En la ducha, esto provoca que el sonido se difumine un poco, borrando en parte las imperfecciones vocales de ese mal cantante que se siente una estrella bajo el agua.

La reflexión del sonido es similar a la que la luz, otra onda, experimenta en un espejo. Podemos, por analogía, imaginar un enorme y lejano espejo que hace que veamos dos tambores: uno al lado nuestro, el otro reflejado frente a nosotros. Cuando tocamos el tambor, el sonido parece venir de ambos, claro que uno, el lejano, con el retraso que la distancia impone. Las ondas de luz son tan rápidas que no podremos percibir el retraso en las dos imágenes. Ahora llevemos la analogía más lejos, imaginando que estamos en la ducha y que todas las paredes del baño son espejos. Veremos una enorme cantidad de imágenes de nosotros mismos. Cuando cantamos, sentimos que todas esas imágenes cantan. Un gran coro de clones cantando con retrasos indetectables. Note que ni los espejos ni las paredes rígidas son totalmente reflectantes. Algo se pierde en cada reflexión, de lo contrario el sonido no se apagaría nunca.

§. En clave acústica
En segundo lugar, el sonido puede absorberse. Es lo que ocurre en una alfombra, en una cortina, en la nieve o en la superficie de las cajas de huevos con que algunos tapizan paredes para aislar acústicamente una habitación. Una habitación de paredes absorbentes no puede, por lo tanto, provocar ni ecos ni reverberaciones. Una buena sala de concierto requiere de una dosis de reverberación. Mucha no es buena para el teatro o para conferencias, pues el hecho que el sonido de cada palabra quede suspendido por un tiempo puede reducir la inteligibilidad del discurso.

Para la música es buena una pequeña dosis de reverberación. Le da una calidez y profundidad que son bienvenidas. Especialmente en el caso de la música clásica, que usualmente no es amplificada. En un concierto de rock, en donde el sonido es mucho más intenso y proveniente de sistemas de amplificación electrónica, la reverberación es menos bienvenida (pruebe con su guitarra eléctrica tocando a fuerte volumen en el baño).

Pero hay otro fenómeno importante a considerar en las salas de concierto. No todos escuchan lo mismo, y se debe maximizar una buena experiencia en todas las butacas y por parte de los músicos. El arte de disponer de micrófonos en un lugar que no ha sido construido con esos fines no es trivial. En lugares con paredes curvas, como el techo de The Cavern, las cosas pueden ser peores. Basta imaginarnos un espejo parabólico. Estos concentran la luz del sol en un punto y alcanzan temperaturas en que podemos cocinar, por lo que con ellos se fabrican «hornos solares». Las superficies curvas pueden tener un efecto similar con el sonido, provocando zonas de irregular amplitud y reverberación en la sala. En ocasiones, claro está, cuando están diseñadas con un fin particular, la curvatura puede ser también de utilidad acústica. The Cavern Club, con sus paredes rígidas y espacios estrechos, y con la curvatura de su techo no parecía el lugar indicado para una grabación de bajo presupuesto. Además, había que proteger los equipos de la lluvia de sudor que caía desde sus ladrillos.

§. Quiero bailar con Bose
Puede que haya sido en el mismo instante en que Paul McCartney gritaba: «¡One, two, three, four…!» comenzando el show con la apertura tradicional, «I saw her standing there». Pero con seguridad no fue mucho antes o mucho después cuando el ingeniero del MIT, Amar Bose, tuvo su primera gran idea. Una idea fundacional que lo empujó a fundar Bose Corporation un año más tarde. Los parlantes debían irradiar el sonido a las paredes de la habitación. Tan simple como eso. Él sabía que en un concierto en vivo la mayoría del sonido que escuchamos no viene directamente desde la fuente, sino que indirectamente de las reflexiones en las paredes y el techo. Si los parlantes tuviesen una geometría que los hiciera radiar no solo en forma directa, sino que además hacia las paredes, la experiencia sonora sería mucho más similar a la de una sala de conciertos.

Así, después de una serie de productos no tan exitosos, Bose dio en el clavo con su proyecto estrella: el parlante Bose 901, que con su forma pentagonal y sus nueve altavoces hace rebotar la mayor parte del sonido en las paredes. El modelo fue un éxito. Un Please please me para Amar Bose. De allí en adelante la compañía tuvo un ascenso explosivo, llevando a su fundador a estar entre los trescientos hombres más ricos del mundo.

La estrategia de Bose fue, siempre, realizar una gran inversión en investigación básica. Particularmente en el área de la psicoacústica: el estudio de la percepción del sonido por el cerebro. La empresa es responsable de invenciones tan variadas como los audífonos que cancelan el ruido exterior, hasta sistemas de suspensión para automóviles. Bose contó en una entrevista a Popular Science en 2004 que muchas veces arriesgó la compañía por seguir una idea. Su motivación era la curiosidad y la búsqueda de territorios inexplorados en la industria: «Habría sido despedido cien veces de una compañía liderada por un MBA. Jamás entré en los negocios para hacer dinero. Lo hice para hacer cosas interesantes que nunca antes habían sido logradas», dijo.

El eslogan de Bose Corporation es un fiel reflejo del espíritu de su fundador: «Mejor sonido a través de la investigación» (better sound through research). La investigación es la clave. Movida por la curiosidad, por pasión a lo nuevo e inexplorado, es una constante, presente en casi todas las innovaciones revolucionarias. Ese juego intelectual que se debe practicar sobre hombros de gigantes. Sean los hombros de Newton, Einstein o de Little Richard, el resultado suele ser mágico.

Es algo que probablemente presenciaron el medio millar de afortunados en ese concierto hace cincuenta años en The Cavern Club. O los estudiantes de Amar Bose, cuando lo escuchaban en sus famosas clases del MIT hablando de sus investigaciones en psicoacústica o sus conversaciones con Norbert Wiener, afamado matemático, y supervisor de su tesis de doctorado.

Las grandes innovaciones, las grandes teorías, las grandes canciones tienen una raíz y un desenlace común. Uno que experimento mientras disfruto otra reproducción del primer álbum de Los Beatles. Es que gracias a Bose y a medio siglo de años de investigación en sistemas de alta fidelidad, puedo cerrar los ojos, entrar a The Cavern Club y ver a un deslumbrado Brian Epstein, el primero en darse cuenta que una gran innovación estaba por estallar.

Capítulo 32
Un mundo superconducido

Contenido:
§. Un pobre cuarentón
§. Sin resistencia
§. Teorías conducentes
§. Un asunto de magnetismo

Las arterias del planeta están hechas de cobre. La energía que necesitamos para casi cualquier actividad la recibimos, luego de un largo viaje a través de cables de este metal, desde una central en donde la energía del carbón o del agua o de los núcleos atómicos ha sido transformada en una corriente eléctrica. Y de cobre también son sus más delgados capilares, esos que conducen la energía dentro de los circuitos de un televisor, un teléfono o una lavadora.

En condiciones normales de presión y temperatura, el cobre solo es superado por la plata en su capacidad de conducción de la electricidad. El precio de esta última hace inviable su uso masivo. No existe por ahora ningún método de distribución de energía mejor que transmitirla a través de corrientes eléctricas a lo largo de cables de cobre, lo que le ha dado a este un lugar de privilegio entre los metales.

Un tercio del cobre que se extrae de las minas del mundo cada año proviene de Chile. Unas seis millones de toneladas al año. El 60 por ciento de todas nuestras exportaciones corresponde a este metal. El sueldo de Chile. ¿Por cuánto tiempo gozará el país de su sueldo? Difícil predecirlo. Más aún cuando cayó en el desierto como un gran regalo en el que poco tuvimos que ver. Tampoco tuvimos participación en la importante observación científica que le otorgó su alcurnia mineral: la poca resistencia que impone al flujo de cargas eléctricas. Esta fue hecha durante las primeras décadas del siglo XVIII en Inglaterra.

Quizá no deberíamos hablar de sueldo, sino de la gran lotería en la que el azar puso en nuestro patio, enormes cantidades de este preciado material.

Con el correr de los años se descubrieron muchos excelentes conductores de la electricidad. El grafeno, por ejemplo, es uno de los más recientes. Se trata de una forma de carbón que podría ser incluso mejor conductor que el cobre. Sin embargo, no hay duda que el gran salto en esta carrera ocurrió hace exactamente cien años, cuando Heike Kamerlingh Onnes observó un fenómeno que él mismo llamó «superconductividad», definida como la propiedad de ciertas sustancias de transmitir la electricidad sin ninguna resistencia. Afortunadamente para nuestras arcas fiscales, aún no es posible fabricarlos a un precio que pueda competirle al cobre. Pero cuidado. Recordemos la historia del salitre que relatamos en «Perdimos como en la guerra». No hay que dormirse en los laureles.

§. Un pobre cuarentón
Esta ciencia partió hace 300 años, cuando un pobre y solitario cuarentón llamado Stephen Gray logra un lugar en la Charterhouse en Londres, una casa de acogida para hombres en condiciones de precariedad que han servido al país. Gray era un autodidacta que llegó a colaborar con John Flamsteed, uno de los más afamados astrónomos de su época, quien fue nombrado primer Astrónomo Real y construyó el Observatorio Real de Greenwich. Desafortunadamente para Gray, su amistad con Flamsteed fue un obstáculo para ser aceptado en la comunidad científica inglesa.

Flamsteed se enemistó con el más influyente de todos los científicos de la historia, sir Isaac Newton, al acusarlo de hacer uso indebido de datos preliminares producto de sus observaciones. Esto fue suficiente para que Gray no obtuviera jamás un trabajo estable en el mundo académico. Ante la desesperada situación de su amigo, lo único que Flamsteed pudo hacer fue conseguir un hospedaje en Charterhouse. Allí Gray pasó el resto de su vida experimentando con electricidad. Allí descubrió, en 1729, que la «virtud eléctrica», como llamaba a la carga eléctrica, podía comunicarse de un cuerpo a otro. Allí también murió, en la más absoluta pobreza, en 1736, a los sesenta y nueve años de edad.

Para obtener electricidad, Stephen Gray frotaba un tubo de vidrio, técnica usual en su época. El tubo podía entonces atraer objetos livianos. Para mantener el interior del tubo libre de polvo y humedad, Gray lo sellaba en ambos extremos con tapones de corcho. Su observación clave fue la de notar cómo, luego de frotar el tubo, el corcho era capaz de atraer una pluma. De alguna manera la carga eléctrica había sido transferida del vidrio al corcho. Inmediatamente comenzó a probar con otros materiales, y comprobó cómo, efectivamente, la carga tenía la propiedad de ser traspasable entre objetos de tamaños y materiales diversos. Más tarde fue capaz de transmitir electricidad a través de cables conductores por cientos de metros.

§. Sin resistencia
Doscientos años después de que Stephen Gray entrara por primera vez a Charterhouse, el físico holandés Heike Kamerlingh Onnes realizaba experimentos similares en la Universidad de Leiden. Él ya era entonces un prestigioso experimentalista. En 1908 logró licuar el helio, que por esos años era el único gas que no había podido ser llevado al estado líquido. Para esto tuvo que romper todos los récords de temperatura, alcanzando los −270 °C, solo tres grados sobre el llamado «cero absoluto», la mínima temperatura posible de la que ya hablamos en «Todo lo que perdemos». Sus técnicas le permitieron explorar el comportamiento de la conductividad eléctrica de distintos materiales a muy bajas temperaturas, cuestión que era tema de controversia para los teóricos. En uno de los instantes clave de la historia de la ciencia, el 8 de abril de 1911, Kamerlingh Onnes congeló mercurio purificado dentro de capilares de vidrio, y utilizando electrodos en sus extremos, hizo pasar una corriente eléctrica a través del metal. Midió la resistencia a medida que bajaba la temperatura y descubrió que al llegar a los 4,2 grados sobre el cero absoluto la resistencia del mercurio cae abruptamente a niveles tan bajos que no se puede medir. «Mercurio, prácticamente cero», escribió en su cuaderno que hoy se exhibe en el Museo Boerhaaven en Leiden. Heike Kamerlingh Onnes ganó el Premio Nobel de Física apenas dos años después, en 1913, por «sus investigaciones sobre las propiedades de la materia a bajas temperaturas».

Más tarde se descubriría que varios otros metales, como el plomo o el niobio, resultaban superconductores a temperaturas suficientemente bajas. ¿Cómo podían las corrientes eléctricas desplazarse sin ninguna resistencia?, era ahora la pregunta que todos hacían. Una pregunta compleja, que requirió casi cincuenta años para que la física pudiera responder.

§. Teorías conducentes
La razón por la que los metales conducen la electricidad se encuentra en la estructura atómica de la materia. Los átomos, digamos del cobre, tienen un núcleo de carga positiva y un conjunto de electrones mucho más livianos que el núcleo, que se mueven en torno a él. Los núcleos se ordenan en una red que conforma los cimientos, el esqueleto rígido del cobre sólido. Los electrones, en cambio, son más desordenados. Algunos están cerca del núcleo y tienen poca movilidad. Otros, más alejados, pueden moverse libremente, desplazándose entre un núcleo y otro. Estos se conocen como electrones libres, y son los responsables de la conductividad del metal. Si bien los núcleos no pueden desplazarse, pueden vibrar. Así, cuando un electrón choca con un núcleo, puede traspasarle parte de su energía y dejarlo vibrando. La pérdida de energía de los electrones en estas colisiones da origen a la resistencia eléctrica.

Esta imagen es bastante cruda. Es la visión previa al advenimiento de la mecánica cuántica, en la década de los veinte, que permitió una descripción mucho más detallada del fenómeno. Una que era crucial para entender la superconductividad observada por Heike Kamerlingh Onnes. Fue en 1957 cuando los teóricos comienzan a develar los mecanismos responsables del fenómeno. Ese año los estadounidenses John Bardeen, Leon Cooper y Robert Schrieffer publican su Teoría microscópica de la superconductividad, hoy conocida como teoría BCS.

El elemento fundamental que la mecánica cuántica otorga al modelo BCS es el llamado «gap de energía». Los electrones se organizan de modo que no pueden intercambiar una cantidad arbitrariamente pequeña de energía con la red de núcleos. En un comportamiento típico de la teoría cuántica, el intercambio, cual apuesta en un casino, tiene un monto mínimo: el gap.

Tal como no podremos intercambiar dinero con el casino si llevamos menos dinero que la apuesta mínima, electrones y núcleos no podrán intercambiar energía a menos que sean suficientemente energéticos. Y del mismo modo como en ese caso estaremos a salvo de perder dinero, los electrones estarán a salvo de perder energía, por lo que fluyen sin ninguna resistencia por el material. Que sea poca la energía disponible significa que la temperatura debe ser suficientemente baja y la corriente eléctrica no excesivamente alta. La Teoría BCS puede explicar la superconductividad a temperaturas de hasta 30 grados sobre el cero absoluto, por lo que es compatible con las observaciones de Kamerlingh Onnes.

Por este trabajo, Cooper, Scheiffer y Bardeen ganaron el Nobel de Física en 1972. Bardeen ya lo había recibido en 1956 por la invención del transistor (ver «Olivia y los dados de Dios»). Así se transformó en el único científico que lo ha ganado dos veces.

§. Un asunto de magnetismo
Pero la superconductividad no solo nos ha entregado placeres intelectuales. Además ha permitido varias tecnologías revolucionarias. Quizá la más importante sea la resonancia magnética nuclear (RMN). Al meter nuestra cabeza en el tubo del equipo, estamos entrando en el centro de una gran bobina que nos expone a un intenso campo magnético. Usando un ingenioso mecanismo es posible obtener detalladas imágenes tridimensionales de nuestro interior.

Nuestro protagonista es el campo magnético, cuya intensidad y extensión espacial sería muy difícil sin superconductores. Para producir uno, podemos enrollar un cable conductor alrededor de un clavo de hierro y conectarlo a una batería. El clavo se comporta como un imán. Un electroimán. Como los campos magnéticos requeridos en la RMN son enormes, si los produjéramos utilizando un cable de cobre, la corriente necesaria lo calentaría hasta derretirlo. Por eso, estos equipos utilizan cables superconductores que no se calientan, pues los electrones que circulan no pierden energía. Evidentemente, el equipo debe tener un sistema capaz de enfriar el material superconductor a temperaturas de solo unos grados sobre el cero absoluto.

La refrigeración a las temperaturas que requieren los superconductores es un obstáculo para la construcción comercial de varias aplicaciones con las que podríamos soñar, tal como la transmisión de energía eléctrica sin pérdidas. El costo de refrigeración superaría cualquier ahorro. A fines de los ochenta, sin embargo, nació una nueva esperanza con el descubrimiento de materiales superconductores a temperaturas bastante más altas. Hoy, el récord llega a los 135 grados sobre el cero absoluto, unos −138 °C.

Lamentablemente, no existe una teoría aceptada que explique la superconductividad a estas temperaturas, cosa que sería de gran ayuda para el diseño de mejores materiales. Por mientras, el mundo sigue dependiendo del cobre para casi cualquier tecnología que requiera el transporte de energía eléctrica, sea entre dos países o entre dos puntos del interior de un secador de pelo. Bien por el presupuesto de la República.

Capítulo 33
Google

Contenido:
§. El sueño de Bush
§. Un algoritmo a prueba de trampas
§. De tanto buscar se aprende

En muy poco tiempo, Google ha hecho un buen trabajo en hacerse inevitable.

La gigantesca y ubicua compañía tecnológica nació en el garaje de Susan Wojcicki, amiga de Sergey Brin, brillante estudiante de doctorado en Ciencias de la Computación de la Universidad de Stanford. Brin, junto a su compañero Larry Page, había recibido unos meses antes un cheque por cien mil dólares, su primer capital semilla privado. Lo había firmado uno de los fundadores de Sun Microsystems, Andy von Bechtolsheim, tras una corta reunión con los dos estudiantes, en la que rápidamente pudo intuir lo que tenían entre manos. Les dio el cheque a pesar de que Brin le insistió en que no tenían cuenta corriente. «Deposítenlo cuando tengan una», les contestó Von Bechtolsheim, según cuenta el biógrafo Steven Levy.

Lo que sí tenían Page y Brin era un algoritmo, es decir, un conjunto de instrucciones para ser implementadas en un computador. Una «aplicación». El algoritmo «PageRank» era capaz de hacer búsquedas en la red con una eficiencia nunca antes vista. A pesar de que se trataba de dos jóvenes ambiciosos, los negocios y la industria no eran hacia donde apuntaban en un comienzo. Ellos estaban haciendo investigación básica. «Google de algún modo nació de allí. Estábamos interesados en la web y en la minería de datos. Terminamos en la tecnología de búsquedas y nos dimos cuenta que teníamos algo bueno», le dijo Page a Businessweek.

Su propósito luego transmutó. Dejaron sus estudios para fundar un emprendimiento con la misión de «organizar la información del mundo y hacerla universalmente accesible y útil». No era dinero lo que los movía. Ellos querían algo un poco más ambicioso: cambiar el mundo. Y así lo hicieron. De paso, la inversión inicial de Von Bechtolsheim hoy vale casi dos mil millones de dólares.

§. El sueño de Bush
La búsqueda de información no es un problema que haya nacido con la World Wide Web. De hecho, en el clásico ensayo Cómo podríamos pensar, publicado en 1945 por el ingeniero norteamericano Vannevar Bush, ya se asientan las bases de mucha de la tecnología que solo fue posible implementar medio siglo después. Bush pensaba que uno de los grandes problemas que enfrentaba la ciencia era que la gran velocidad en que se desarrollaba hacía cada vez más difícil a los científicos encontrar la información relevante para sus nuevos proyectos. El almacenamiento no era tan problemático. Ya en esa época, nos cuenta Bush, la tecnología de microfilmes permitía contener toda la Enciclopedia Británica en el volumen de una caja de fósforos (curiosamente, Richard Feynman utilizaría la analogía nuevamente, en el famoso discurso fundacional de la nanotecnología en 1959; allí, sin embargo, habla de la posibilidad de escribir la enciclopedia completa en la cabeza de un alfiler). Más sobre esto más adelante en «Frasco chico».

Bush estimaba que todo el material publicado por el hombre podría fácilmente comprimirse en el volumen de un camión de mudanzas. El problema era cómo consultar de manera eficaz esta cantidad de información. Imaginó un dispositivo que llamó «Memex», el cual contenía, en forma de microfichas, toda una biblioteca. La máquina, que haría su trabajo a través de lectores ópticos y sistemas mecánicos, no solo permitiría acceder a la información a través de un índice; podría además relacionar distintos textos en la biblioteca, de modo similar a lo que hace un enlace de una página web hoy.

La tecnología necesaria para hacer realidad el sueño de Bush llegó en 1989 en el CERN, en donde el informático Tim Berners-Lee creó la World Wide Web, tal como lo relatamos en «El videojuego y esos benditos accidentes».

La www hoy crece rápidamente y está abierta gratuitamente a todo el mundo. El ciberespacio cuenta con cerca de 50 000 millones de páginas web, todas interconectadas en una intrincada red de enlaces.

Es claro que la información no será de ninguna utilidad sin algún método de organización. Google sacó su nombre de gúgol, palabra que designa al número 10100, esto es un 1 seguido de 100 ceros. Nunca nadie había producido un sistema de organización y búsqueda de información tan confiable, útil, rápido y que pudiese manejar tanta información.

§. Un algoritmo a prueba de trampas
Como Berners-Lee, Page y Brin tampoco buscaban lo que encontraron. Ellos habían entrado a trabajar en un proyecto financiado por la agencia federal estadounidense National Science Foundation. El «proyecto de biblioteca digital» había comenzado a principios de los noventa y los investigadores responsables eran Héctor García-Molina y Terry Winograd, supervisores de los trabajos de tesis doctoral de Page y Brin. Fue en el contexto de este proyecto que nació el algoritmo de PageRank.

Hasta ese momento, los buscadores de la www funcionaban básicamente buscando palabras clave. Si queríamos encontrar páginas sobre, digamos, Bob Dylan, el programa hacía una búsqueda de estas dos palabras en todas las páginas web que tenía en su índice, y mostraba los resultados en que había un mayor número de coincidencias. El sistema tenía varios problemas. Primero, eran muchas las páginas que contenían las palabras a buscar, y era difícil saber cuáles eran más relevantes. Segundo, que esto era aprovechado maliciosamente por algunos, que agregaban copias de diccionarios completos al final de sus páginas (con letras del mismo color del fondo para esconderlos): podíamos buscar «Bob Dylan» y llegar a una página de pizzas a domicilio.

PageRank atacaba los dos problemas. El objetivo era hacer un ranking de las páginas que contenían las palabras de la búsqueda, entregando al usuario solo aquellas más relevantes. Para esto utilizaban un criterio muy usado en la academia: la relevancia de un artículo se mide por la cantidad de citas que obtiene en trabajos de otros. Esto no solo era posible de imitar en la www, sino que además podía hacerse de manera automática. En el caso de una página web, el análogo de la citas son los enlaces. Podemos asumir que una página relevante cuenta con muchos enlaces que apuntan a ella desde otras páginas. De este modo, podemos medir la relevancia de una página web en un gran sufragio donde los enlaces hacen de votos. Más aún, todos los votos no valen lo mismo. El voto de una página popular tiene mayor peso que una desconocida a la hora de establecer el ranking.

Note que el cálculo de la relevancia de una página no es algo sencillo. Entre otras cosas, estamos ante un problema que contiene lo que en matemáticas llamamos una relación recursiva: para determinar la relevancia de una página, debemos conocer la relevancia de aquellas que la enlazan, que tampoco la conocemos. Se da la paradoja de que para encontrar una cantidad que no conocemos, debemos antes saber otra que tampoco conocemos.

Afortunadamente, las matemáticas no eran un problema para Brin y Page, que resolvieron rápidamente el problema y escribieron el algoritmo en 1996. En un comienzo, estos desarrollos iban a ser parte de su tesis doctoral. Sin embargo, el éxito les hizo cambiar de planes. Google comenzó a funcionar dentro de la Universidad de Stanford. En 1998, antes de dejar la universidad y fundar la compañía, estaban utilizando la mitad del ancho de banda de todo Stanford.

§. De tanto buscar se aprende
Es fácil saber cuáles son los enlaces a los que apunta una página. Basta con mirarla. Pero saber qué enlaces apuntan a esa página es un asunto mucho más complejo. Para esto debemos conocer toda la web. Tanto Google como sus predecesores (y competidores) utilizan aplicaciones que se conocen con el nombre de «arañas». Estos son programas que automáticamente recorren la web, obteniendo información de cada página y visitando los enlaces citados en cada una. Así, van recopilando toda la información necesaria para construir el índice en el que posteriormente se realizarán las búsquedas. Cuando escribimos un término en Google, no estamos haciendo una búsqueda en la red completa, sino que en el gran índice almacenado en los servidores del buscador. Las arañas deben estar continuamente explorando, de modo de encontrar nuevas páginas y actualizar la información de otras ya conocidas.

A la inabarcable cantidad de información almacenada por las arañas, se suma otra, también muy grande, y que poco a poco fue tomando protagonismo entre los informáticos de la empresa. Se trata de las «bitácoras». La información que dejan los usuarios del sistema: las palabras que buscaron, el tiempo que estuvieron en el sitio, el enlace a través del cual lo dejaron. En Google, por ejemplo, saben que un usuario feliz es aquel que luego de la primera búsqueda sale rápidamente del sitio y no vuelve. Porque si la búsqueda no lo satisface, volverá a los resultados o hará otra usando nuevos términos. Ellos pueden saber, de este modo, cuál es el comportamiento de los usuarios, cuándo quedan conformes, o cómo van cambiando los criterios de búsqueda para llegar a lo que necesitan.

Toda esta información le ha permitido a Google retroalimentarse. Utilizando técnicas de inteligencia artificial han comprendido, como pocos en el área de las ciencias informáticas, cómo modelar el comportamiento humano. Ya no solo se trata de una búsqueda; se trata de entender qué quiere realmente el usuario, dependiendo no solo de las palabras que introduce, sino que del contexto y del lugar en que está. Usando el comportamiento de los usuarios, los programas de Google «aprenden». Por ejemplo, si no quedamos contentos al buscar «Bob Dylan», quizá busquemos «Robert Zimmerman», y entonces el programa aprenderá que son lo mismo. Si aún no estamos contentos, podríamos buscar «música folk 1965», y así le enseñamos cosas a la máquina. Hoy, de hecho, usando inteligencia artificial, Google ha desarrollado los mejores sistemas de traducción automática que existen.

En 2004, Steven Levy le preguntó a Larry Page cómo veía el futuro de la compañía. «Estará incluida en el cerebro de las personas: cuando pienses sobre algo, y no sepas demasiado al respecto, recibirás automáticamente la información», contestó. «Es cierto», agregó Brin, «finalmente, yo veo a Google como una forma de aumentar tu cerebro con el conocimiento del mundo». Si la frase viniera de cualquiera, quizá nos reiríamos. Pero viene de un par de cerebros que saben, cómo pocos, que nada es imposible.

Capítulo 34
Las matemáticas de la democracia

Contenido:
§. Condorcet: la paradoja y la pena
§. Justo en la medida de lo posible
§. Sinceridad versus «voto perdido»

Frente a una nueva elección, y en el fulgor encendido del debate sobre la justicia de los distintos sistemas electorales, surge una pregunta esencial: ¿existe algún sistema electoral perfectamente justo? La intuición parece decirnos que no. Podemos ejemplificarlo con un partido de tenis: es posible ganarlo a pesar de que nuestro adversario consiga la mayoría de los juegos (por ejemplo, al ganar en tres sets 0-6, 6-4, 6-4). Alguien podría decir que eso es un poco injusto, de igual manera como en Estados Unidos un candidato a la Presidencia puede ganar la elección sin tener la mayoría de los votos de los ciudadanos. En el caso norteamericano, los puntos son a los ciudadanos lo que los electores a los juegos del tenis. Pero las reglas, más que ser justas o injustas, reflejan cómo queremos que sea el juego. El sistema electoral influye en el comportamiento de una sociedad tal como las reglas de puntuación del tenis en el comportamiento de los tenistas.

Así, existen muchos métodos electorales, cada uno con sus ventajas y sus falencias, y este autor está lejos de ser un experto en estas vicisitudes. Sin embargo, incluso si pedimos a un sistema eleccionario condiciones mínimas, en una sociedad perfecta solo imaginable en el universo abstracto de las matemáticas, llegamos a una conclusión aterradora: no existe un sistema que refleje de modo perfecto las preferencias de la ciudadanía en un conjunto finito de personas.

Un resultado de este tipo fue publicado por primera vez por el economista neoyorquino Kenneth Arrow en 1951, en su tesis de doctorado. Allí establece el que conocemos hoy como «el teorema de imposibilidad de Arrow», fundando al mismo tiempo una nueva disciplina: la teoría de la elección social. En 1972 recibió el Premio Nobel de Economía. Tenía cincuenta y un años y es todavía el más joven de los galardonados en esta área.

§. Condorcet: la paradoja y la pena
Marie-Jean-Antoine Nicolas de Caritat, conocido como el marqués de Condorcet, fue una de las mentes más brillantes del siglo XVIII. Practicó la filosofía, las ciencias sociales y las matemáticas, además de ser un influyente líder de la Francia revolucionaria. Él pensaba que la ciencia debía ser capaz de resolverlo todo, y debe haber sido uno de los primeros en utilizar las matemáticas para estudiar problemas sociales. «Todos los fenómenos son igualmente susceptibles de ser calculados, y todo lo que se requiere para reducir la naturaleza a leyes similares a las que Newton descubrió con la ayuda del cálculo es tener un número suficiente de observaciones y una matemática suficientemente compleja», escribió. En particular, pensaba que las matemáticas debían ser utilizadas para encontrar el sistema electoral perfecto. Uno que produjera una justicia democrática reflejando, en el resultado de una elección, la preferencia de los electores de forma óptima. Construyó entonces un sistema que conocemos como el «criterio de Condorcet», y al mismo tiempo se dio cuenta de una sorpresiva paradoja. Suponga que tenemos tres candidatos en cierta elección. Cada participante de la elección debe ordenar a los candidatos en su orden de preferencia. El criterio de Condorcet indica que el ganador de la elección es aquel candidato que enfrentado a cualquiera de los otros dos obtiene un mayor número de preferencias. Esto parece obvio. Sin embargo produce situaciones paradojales. Veamos un ejemplo (uno que el mismo Arrow discute en su artículo fundacional).

Suponga que los tres candidatos son: Rojo, Amarillo y Verde. Y hay tres votantes, Pedro, Juan y Diego. Obviamente esto no es realista, pero no importa, pues es solo un ejemplo. Suponga que Pedro prefiere a Rojo sobre Amarillo y a Amarillo sobre Verde. Juan prefiere a Amarillo sobre Verde y a Verde sobre Rojo. Diego a Verde sobre Rojo y a Rojo sobre Amarillo. Entonces ¿quién gana la elección? La mayoría prefiere a Rojo sobre Amarillo (Pedro y Diego). También la mayoría prefiere a Amarillo sobre Verde (Pedro y Juan). En este momento podríamos concluir que la comunidad prefiere a Rojo sobre Amarillo y a Amarillo sobre Verde, y por lo tanto que Rojo es el ganador y Verde el perdedor. Pero la sorpresa es enorme al constatar que la mayoría prefiere a Verde sobre Rojo (Juan y Diego). Una bella paradoja. La paradoja de Condorcet. El criterio de Condorcet falla en elegir un ganador en este caso.

El destino de Condorcet también fue paradojal. Su ideal de justicia lo obligaba a estar en contra de la pena de muerte. Fue así como su oposición a la ejecución del rey Luis XVII lo llevó a prisión. Ahí fue encontrado muerto en marzo de 1794, en misteriosas circunstancias.

§. Justo en la medida de lo posible
¿Existe un sistema electoral que siempre determine ganadores y que sea perfectamente justo? La pregunta no está bien planteada hasta que no definamos con mayor precisión la palabra «justo». Es difícil hacer precisiones matemáticas de conceptos valóricos. Sin embargo, hace 62 años, el economista estadounidense Kenneth Arrow aceptó el desafío. Era estudiante de doctorado en la Universidad de Columbia, y en su trabajo de tesis «Elecciones sociales y valores individuales» propuso lo que hoy se denomina Teorema de imposibilidad de Arrow. En este trabajo, el autor imagina un sistema electoral en que cada ciudadano, al igual que en el caso de Condorcet, debe hacer un ranking de sus preferencias. Arrow demuestra algo espectacular e inesperado: es imposible encontrar un sistema de elecciones, es decir, una fórmula para ordenar las preferencias de la sociedad a partir de las preferencias de cada votante que cumpla con todas y cada una de las siguientes características, que él propone como una razonable definición matemática de un resultado «justo». Primero, la llamada condición de unanimidad, que dice que si todos los votantes prefieren a un candidato sobre otro, digamos a Rojo sobre Verde, entonces el resultado de la elección ordenará a Rojo sobre Verde. Segundo, que no hay dictadores. Esto es, que no existe un ciudadano cuya preferencia decida la elección. Tercero, que la preferencia social de cierto candidato respecto de otro, digamos, Verde sobre Rojo, es independiente de la existencia de otros candidatos. Dicho de otra manera, si al terminar el proceso uno de los candidatos se retira, esto no afecta el resultado.

Las tres características parecen razonables, y sin embargo son matemáticamente incompatibles. La demostración, desafortunadamente, es más compleja y larga de lo que nos permite este espacio.

§. Sinceridad versus «voto perdido»
En lo anterior asumimos que cada individuo ejercía su voto sinceramente. Sin embargo, esto suele no ser así. Escuchamos a menudo a algunos que nos sugieren no votar por cierto candidato que nos gusta, aduciendo que será un «voto perdido». Que es mejor apoyar a otro con ideas similares para asegurar su elección. Un buen sistema electoral debiese incentivar el voto sincero, de modo que el resultado de la elección sea una fotografía real de las preferencias ciudadanas. Este problema fue observado en 1873 por el matemático y escritor británico Charles Lutwidge Dodgson, más conocido por su seudónimo literario, Lewis Carroll. Escribió: «Este sistema hace que una elección sea más un juego de habilidades que un test real de los deseos de los electores […] mi opinión es que es mejor que las elecciones sean decididas por los deseos de la mayoría que por aquellos que resulten tener mayores habilidades en este juego».

Se dice que un sistema eleccionario es manipulable cuando a algún individuo le conviene mentir en sus preferencias para que el resultado de la elección esté más de acuerdo a las opciones que él quiere favorecer. Un precursor del estudio de este fenómeno fue el sudafricano Robin Farquharson, quien, junto al filósofo Michael Dummett, formuló en la década de los cincuenta una célebre conjetura, que luego, en los setenta fue demostrada por Allan Gibbard y Mark Satterthwaite. Se trata de otro teorema de imposibilidad. Plantea que si un sistema electoral satisface la condición de unanimidad discutida antes, si además siempre da origen a un ganador sin posibles empates, y si no es manipulable, entonces… Solo puede ser una dictadura. Sorprendente. O quizá no tanto. Estamos hablando aquí de matemáticas. Los sistemas de elecciones de una u otra manera nunca satisfacen por completo todas estas condiciones. Por otra parte, en la práctica hay muchas otras variables y complejidades que estos escenarios matemáticos simples no pueden tener en cuenta.

Lo importante es notar que las cosas no son siempre como uno tendería a pensar. Que el sentido común en ocasiones nos decepciona. Y que la ciencia es útil incluso en áreas en donde la discusión pública suele ignorarla. Eso lo entendía muy bien Farquharson. Al igual que el marqués de Condorcet, el destino del sudafricano fue una irónica tragedia, que lo terminó marginando de la misma estructura social que había sido el objeto de sus cuidadosos estudios. En el caso de Farquharson, fue un desorden bipolar con fuertes episodios psicóticos lo que le impidió seguir su carrera científica —y probar por sí mismo su conjetura— a la edad de veinticinco años. Encontró trabajos esporádicos y pasó largos períodos vagabundeando, durmiendo en casas de conocidos o en la calle. Escribió un libro, Drop out!, acerca de su vida marginada de la academia y de la sociedad. El príncipe de la sinceridad electoral, una mente simultáneamente privilegiada y enferma, murió a los cuarenta y dos años en Londres, en abril de 1973.

Su muerte, en medio de un incendio aparentemente intencional, sigue siendo tan misteriosa como la de Condorcet.

Capítulo 35
Darwin radiactivo

Aunque pocos lo sepan, el trabajo de Charles Darwin tiene una apasionante conexión con la física nuclear. La encontré en La sonrisa del flamenco de Stephen Jay Gould, en donde el autor comienza así uno de los ensayos: «Mi voto para el más arrogante de todos los títulos científicos va sin duda a un famoso trabajo escrito en 1866 por lord Kelvin: Breve refutación de la doctrina de la uniformidad en geología». Es una historia que mezcla al propio naturalista inglés, a uno de los más grandes físicos del siglo XIX —lord Kelvin— y al descubridor del núcleo atómico, el neozelandés Ernest Rutherford, a quien ya nos referimos en «Hay química entre nosotros».

William Thomson, lord Kelvin, tuvo en sus tiempos una autoridad avasalladora. Su arrogancia también era mítica. En una oportunidad declaró el fin de las ciencias físicas: «Ya no hay nada nuevo que descubrir en física. Lo único que queda es realizar mediciones más y más precisas». Era contrario a la teoría de la evolución, por razones rigurosamente científicas. Darwin mismo escribió: «La visión de Thomson en cuanto a la edad temprana del mundo ha sido este último tiempo uno de mis problemas más dolorosos», pues como buen hombre de ciencia sabía que su teoría, como cualquier otra, era vulnerable a ser derribada si se encontraba evidencia que la contradijera.

A propósito, la teoría de la evolución no es una cuestión de fe, algo en lo que se cree o no, como muchos parecen entender hasta hoy. Es una idea tan científica como la relatividad de Einstein o la teoría atómica. Nos dice, en pocas palabras, que todas las formas de vida en la tierra están emparentadas. Antiguos ancestros comunes, a través de la acumulación, generación tras generación, de pequeñas variaciones o mutaciones, fueron dando origen a nuevas especies. Darwin además le dio un nombre al mecanismo que producía estas variaciones: selección natural. Las mutaciones son cambios que ocurren al azar, en los que un error en la copia del código genético en la reproducción produce un individuo con características singulares, no heredadas de los padres. La enorme mayoría de las veces estos errores o bien no tienen consecuencia alguna o significan la muerte del recién nacido. En algunas, sin embargo, la nueva característica le da una ventaja en la competencia por sobrevivir y reproducirse. La modificación, por lo tanto, se propaga hacia las nuevas generaciones con mayor probabilidad que la forma original.

Darwin entendía que la evolución por selección natural debía ser un proceso extremadamente lento. Por lo tanto, para que se explicara la diversidad y complejidad de la vida, nuestro planeta debía ser muy antiguo. Afortunadamente para él, los geólogos estaban llegando a la misma conclusión para dar cuenta de las formas de la tierra a través de los lentos procesos geológicos.

En todo caso, en aquellos tiempos no había modo de medir la edad de la tierra. Darwin se atrevió, en El origen de las especies, a estimarla en unos 300 millones de años, tiempo que le resultaba satisfactorio para validar su teoría. Sin embargo, un artículo de lord Kelvin de 1866 desacreditaba todas las ideas de la geología de la época, mostrando que la tierra debía ser mucho más joven, unos 20 millones de años como máximo. Porque, si fuese tan antigua como Darwin pensaba, ya se habría enfriado por completo y no habría explicación para el calor que proviene de su interior, a menos que hubiese una fuente desconocida de energía interna, cuestión que entonces no parecía razonable. Así, lord Kelvin ponía en jaque la selección natural darwiniana.

A principios del siglo XX, con el descubrimiento de la radiactividad por Henri Becquerel, Marie y Pierre Curie, las ideas de Kelvin comienzan a desplomarse. Fue Ernest Rutherford quien inclinó definitivamente el debate en favor de Darwin: se dio cuenta de que la radiación era un fenómeno en el que los átomos entregaban energía que guardaban en sus núcleos. Esta forma de energía era desconocida hasta entonces y resultó ser la principal fuente de calor de la tierra. Rutherford, además, fue un pionero en la utilización de la teoría de la radiactividad en la datación de rocas. Hoy sabemos que la tierra tiene unos 4500 millones de años, mucho más de lo que el mismo Darwin había estimado.

Así y todo, igual la autoridad de lord Kelvin en el mundo científico hacía temblar a Rutherford, lo que queda de manifiesto en una famosa anécdota. Una vez el neozelandés estaba dando una conferencia y se dio cuenta de que Kelvin estaba entre el público. Inmediatamente pensó que eso le traería problemas, pues al final el ilustre científico seguro que hablaría de su posición respecto de la edad de la tierra: «Para mi alivio, Kelvin se quedó dormido, pero cuando llegué al punto importante vi cómo el viejo pájaro se sentó, abrió un ojo y me miró desafiante. Allí me vino una inspiración repentina y dije que lord Kelvin había limitado la edad de la tierra siempre y cuando no se descubriera una nueva fuente (de energía). Aquella profética afirmación se refería precisamente a lo que discutiremos ahora: ¡el radio! Kelvin me miró con una sonrisa».

Capítulo 36
La ciencia del pitazo

El partido está a punto de comenzar. Es la final del Campeonato del Mundo entre Chile y Francia. El estadio respira nervioso, repleto, silencioso. El mismo silencio que cruza el mundo entero, a la espera de esto: el instante en que el árbitro hace el gesto de llevarse el pito a la boca. Su diafragma, un músculo que se encuentra justo bajo los pulmones, se contrae con fuerza, expandiendo la cavidad torácica, bajando la presión en ella y forzando así la entrada de unos cinco litros de aire a llenar sus pulmones. El diafragma, ese mismo músculo que hoy cubre tantas parrillas de chilenos que, a pesar del frío, han decidido celebrar este partido con un asado de entrañas, que es el nombre que le dan en las carnicerías a ese músculo que permite inhalar a vacas y a árbitros.

El hombre infla enteramente sus pulmones, mantiene la respiración un instante y expulsa rápidamente el aire por la boca. Un veloz flujo entra al silbato, ese pequeño dispositivo capaz de provocar una vibración periódica en el aire de miles de veces por segundo. Esta se propaga a 1236 km/h en todas direcciones, llenando el espacio de sonoridad a lo largo de varios kilómetros. El oleaje ondulatorio del aire induce una vibración en el tímpano de los jugadores y espectadores en el estadio.

Si bien flautas y silbatos son instrumentos muy antiguos, hubo una persona en particular que se obsesionó con la tarea de perfeccionar pitos que pudiesen ser oídos en situaciones ruidosas y a mucha distancia. El hombre se llamaba Joseph Hudson, y vivía en Birmingham, Inglaterra, a fines del siglo XIX. Fue él quien creó, en 1884, el afamado «Acme Thunderer», el pequeño silbato metálico con forma de caracol y una pequeña bolita en su interior. Más de 200 millones de estos silbatos han sido vendidos desde entonces por Acme Whistles Ltd., la compañía fundada por Hudson. Esta misma es la que desarrolló el modelo «Tornado» a fines de los noventa, un silbato plástico sin bolita, pero de gran sonoridad, muy común en las canchas de todo el mundo. Antes de Hudson, los árbitros gritaban y batían pañuelos.

¿Cómo un dispositivo tan pequeño puede generar tamaña estridencia? Para producir el sonido, el aire es forzado por la embocadura hasta que se encuentra con un pequeño agujero que le ofrece la posibilidad de entrar al caracol o salir. El aire se divide y forma torbellinos que provocarán las vibraciones que luego se amplifican en la cavidad del silbato para producir un sonido de intensidad equivalente a la que percibimos del motor de un avión a cien metros de distancia. Podemos entender el proceso, de modo bien simplificado, como sigue. El aire que entra (ese que no sale por el agujero) dará una vuelta por el caracol hasta verse forzado a salir por el agujero. En el proceso aumentará la presión en su interior. Este aumento de presión hará que el nuevo aire que va llegando al agujero desde la boca del árbitro se vea empujado hacia fuera, lo que provocará ahora una disminución de presión, invitando al chorro de aire a entrar nuevamente. Esto se repite, provocando una vibración en la presión del aire en el interior del caracol, de varios cientos de veces por segundo, una vibración que se propagará por el aire de todo el estadio en forma de onda de sonido. Fue el mismo Hudson quien tuvo la idea de poner una pequeña bolita dentro de la cavidad del pito. Esta, al bloquear y desbloquear el agujero, ocasiona un vibrato en el sonido que lo hace aún más protagónico dentro del bullicio del estadio.

Y para aquellos que no tenemos la suerte de estar en el estadio, hay micrófonos allá y parlantes acá, lo que nos permite escuchar el pitazo, esa música que estábamos todos esperando, de todas formas. Comenzó el partido. ¡Vamos Chile!

Capítulo 37
Einstein y el GPS

Mediodía en Valparaíso. El sol está en la posición más alta de la jornada. Cuatro minutos antes había sido mediodía en Santiago, pero por razones prácticas nos regimos por zonas horarias a lo largo de las cuales la hora es la misma.

Las diferencias horarias en distintos meridianos terrestres fueron durante mucho tiempo la mejor forma de conocer nuestra posición en la dirección este-oeste (nuestra longitud). Suponga que zarpa en un barco desde Valparaíso y después de una tormenta, perdido, quiere conocer su longitud. Espere el mediodía solar, el instante en que el sol alcanza su punto más alto en su recorrido a través del cielo. Ese momento define las doce del día en el lugar en que se encuentra. Mire ahora el reloj que había sincronizado con la hora del puerto. Por cada cuatro minutos de diferencia estará un grado alejado de Valparaíso.

En el ecuador, un grado de longitud corresponde a 111 km. Así, un reloj sincronizado con el puerto —y con un error menor de medio minuto—, nos permite determinar nuestra longitud con una precisión de unos 20 km.

Hoy el reloj más barato puede mantener esa sincronía por al menos un mes. Por estos días las cosas pueden ser aún más fáciles. Cualquier compañía de telefonía celular le ofrecerá aparatos que incluyen GPS (la sigla para «sistema de posicionamiento global» en inglés), los que al apretar un botón le informarán su latitud y longitud con una precisión de metros. La historia de este desarrollo tecnológico es tan épica como fascinante, y culmina el 26 de junio de 1993 cuando la Fuerza Aérea de Estados Unidos lanza los primeros satélites que componen el sistema.

A fines de 1707 una de las peores tragedias navales de la historia enlutó a la Armada británica. Naufragaron cuatro buques de la flota liderada por el almirante sir Clowdisley Shovell, y murieron unas dos mil personas. Un mal cálculo de la longitud los había hecho pensar que se encontraban cerca de la costa francesa, listos para enfilar hacia las aguas calmas del canal de la Mancha. Estaban sin embargo más de 200 km al este de allí, más cerca de Inglaterra y dirigiéndose hacia los roqueríos de las islas Sorlingas (Scilly), a los que embistieron.

Estos errores eran comunes en la época. Los relojes eran muy imprecisos, especialmente cuando estaban sujetos a los movimientos y cambios de temperatura de alta mar.

A raíz de la tragedia, en 1714 el Parlamento británico decretó otorgar un premio de 20 000 libras (unos 10 millones de dólares actuales) a quien encontrara un método para determinar la longitud con un error de menos de medio grado en alta mar. Lo ganaría, pero muchos años más tarde, en 1773, John Harrison, inventor del cronómetro marino.

Curiosamente, el problema de conocer nuestra posición ha estado siempre ligado al de sincronizar relojes. Volvamos al GPS. Para calcular el lugar en donde usted se encuentra, este dispositivo se debe conectar con un sistema de veintiséis satélites que orbitan la Tierra. Cada uno tiene a bordo un reloj atómico. Para entender cómo funciona un GPS usemos un ejemplo sencillo. Imagine que en lugar de conocer la posición en las tres dimensiones espaciales, queremos conocer la posición en una línea, digamos, la carretera Arica-Puerto Montt. Para esto disponemos un reloj muy preciso en Arica, el cual enviará la hora, usando señales de radio, a intervalos muy cortos de tiempo. Supongamos ahora que tiene un segundo reloj sincronizado con el primero. Desde cualquier parte de la carretera puede recibir la señal y comparar la hora del reloj de Arica con el suyo. Notará una diferencia, que corresponde al tiempo que demoró la señal en viajar hasta su posición. Dado que las señales de radio se mueven a la velocidad de la luz, es posible calcular la distancia que lo separa de la ciudad nortina. Sin embargo, la luz viaja tres metros en diez nanosegundos (la cienmillonésima parte de un segundo), por lo que para tener una precisión de tres metros necesitará que los relojes estén sincronizados con esa misma exactitud, y que la mantengan por un tiempo razonable.

¿Es posible conseguir esta precisión? Sí. De lo contrario no existiría el GPS, que no es más que una sofisticación del ejemplo anterior. Los mejores relojes atómicos de hoy mantienen la sincronía de un segundo por miles de millones de años. Suficiente, entonces.

Bueno, casi. El detalle: la curvatura del espacio y del tiempo.

Einstein, en su teoría de la relatividad especial, mostró que los relojes se atrasan cuando van a cierta velocidad respecto de nosotros (dilatación del tiempo). También concluyó, en su relatividad general, que los campos gravitacionales afectan el ritmo de los relojes. Y los relojes en los satélites se mueven a unos 14 000 km/h respecto nuestro y están —como los nuestros— inmersos en el campo gravitacional de la Tierra. Estos efectos hacen que el reloj en los satélites se adelante unos 40 nanosegundos por día respecto de los terrestres. A pesar de ser un tiempo muy pequeño, la luz recorre 10 km en este lapso.

Un error inaceptable. Afortunadamente, el conocimiento que tenemos de la relatividad nos permite hacer los cálculos necesarios para corregir esta pérdida de sincronía. La relatividad es, junto con el desarrollo de relojes de precisión, la base científica del GPS. Ni Einstein pudo haber imaginado que su teoría iba a estar en los cimientos de uno de los grandes negocios del siglo XXI, con una inversión inicial de más de 10 000 millones de dólares.

A veces invertir en ciencia básica puede ser un buen negocio.

Capítulo 38
Marconi, una estrella de la radio

El 29 de enero de 1909 el transatlántico RMS Republic, de la misma compañía que luego construyó el Titanic, naufragó tras colisionar con otro barco. Su hundimiento no fue tan publicitado porque casi no hubo víctimas fatales. Sin embargo, marcó un hito en la historia de las comunicaciones: fue la primera tragedia que se comunicó radialmente, en vivo, utilizando el recientemente desarrollado telégrafo inalámbrico de Guglielmo Marconi. Así, el Republic produjo dos grandes leyendas: la de los supuestos miles de millones de dólares en monedas de oro que aún se esconden en el fondo marino y la fama de Marconi, quien se transformó en una estrella. En el mago que hizo posible esa misteriosa nueva forma de comunicación sin cables conocida como «la radio».

El mismo año Marconi ganó el Nobel de Física. No debe haber ninguno con una historia más controvertida y fascinante. A Marconi le fue mal en el colegio, no pudo entrar en la universidad y su poca educación formal la recibió de tutores privados. Pero era un tozudo. Lo que le faltaba en talento matemático le sobraba en olfato empresarial, espíritu emprendedor, curiosidad y excentricidad. Nació en Bolonia. Su padre era un terrateniente y su madre la hija de Andrew Jameson, político irlandés dueño de la importante destilería de whisky que aún lleva su apellido. Marconi padre tenía dinero y contactos con lo más granado de la aristocracia y el mundo intelectual europeo de la época, pero nada pudo hacer para que su hijo entrara a la universidad. Fue la madre quien logró que pudiese entrar a la biblioteca de la Universidad de Bolonia y recibir tutorías privadas del profesor Augusto Righi, un especialista en las ondas de Hertz, hoy conocidas como ondas de radio.

A fines del siglo XVIII, y como ya hemos visto en «Maxwell Smart», Maxwell mostró que estas ondas se podían describir a través de una única teoría, hoy conocida como electromagnetismo.

Cuando Marconi supo de la posibilidad de crear y detectar ondas de radio, inmediatamente imaginó que esto podría revolucionar las comunicaciones. A los veinte años, en el ático de la casa de sus padres, creó un laboratorio donde comenzó a perfeccionar un telégrafo inalámbrico. Un año después, en 1895, tenía funcionando uno de código Morse, capaz de enviar señales a más de dos kilómetros. En 1896 ya estaba en Londres, donde logró fundar su propia compañía, involucrar a los mejores ingenieros y científicos y conseguir sus primeras patentes. En 1900 obtuvo la más famosa, la N.º 7777, que lleva a la radio al estatus de producto comercialmente viable.

Puede que haya sido su falta de preparación formal lo que hizo que Marconi desestimara las aprensiones acerca de que transmisiones radiales transatlánticas eran imposibles. Entonces se pensaba que, dado que las ondas viajaban en línea recta, no se podía enviar señales más allá del horizonte visible. Pero lo que nadie sabía era que ciertas ondas de radio son reflejadas por la ionósfera, lo cual permite conseguir distancias de transmisión mucho mayores que en línea recta. Así, en 1901 Marconi realizó la primera transmisión entre Inglaterra y Canadá, haciendo trizas el prejuicio.

Marconi no creó nueva física, sino que perfeccionó varios elementos que ya existían y los comercializó con éxito. Su gran contendiente fue el físico serbio Nikola Tesla, quien logró transmisiones inalámbricas antes que Marconi, pero no tenía su dinero, ni sus redes ni su actitud avasalladora. Tesla demandó varias veces a Marconi. Decía que era «un burro», que lo había plagiado. Marconi argumentaba que él nunca conoció el trabajo del otro. En 1943, años después de la muerte de ambos, la Corte Suprema de Estados Unidos revocó la patente de la radio que se había concedido al italiano, y se la adjudicó a Tesla.

Marconi, estamos claros, era un excéntrico. En 1919 adquirió el yate Elettra: allí hacía fiestas y experimentos, sus dos actividades favoritas. Al final de su vida adhirió al fascismo y Mussolini lo nombró presidente de la Academia de Italia, lo que le daba el derecho a estar en el Gran Consejo Fascista. Exigía, entonces, que se le enviara su correspondencia encabezada con un «Excelentísimo Senador, Marqués Guglielmo Marconi, Presidente de la Academia Real de Italia, Miembro del Gran Consejo Fascista». Sin embargo, sería injusto quitarle el crédito por su gran trabajo en la popularización de esta tecnología, y por haberla desarrollado en la soledad de su ático en Bolonia.

Un gran emprendedor, un narciso, un fascista, un excéntrico, un mujeriego, un plagiario. Difícil saberlo. Una estrella de la radio: eso sí es seguro.

Capítulo 39
La física del divorcio

Contenido:
§. La complicación triple ex
§. Magnetismo y régimen de visitas

No quiero aburrir con razones. La cosa es que en algún momento del año pasado me encontré con un problema científico que me capturó. Estaba fuera de mi área de la ciencia, pero parecía tan tratable como descabellado. Después de todo, la obsesión es más importante que el conocimiento en la búsqueda de una respuesta. Esta llegó después de algunos meses de trabajo. Ahora que fue aceptada para ser publicada en una revista científica, me atrevo a hablar de esto, que de otro modo parecería una locura. Nunca antes me había referido en estas columnas a un trabajo personal; acá abordamos grandes teorías, de grandes científicos que cambiaron nuestra vida y nuestra comprensión del universo. Pero el día a día de la ciencia es como el día a día de todo: menos épico, menos glamoroso, más íntimo. Y más honesto, pues se trata de lo que hacemos a diario, entre una clase y un café con medialunas en algún bar de la calle República.

Por otra parte, la pregunta científica de la que quiero hablar pretende resolver un problema muy cotidiano. Uno que viven muchos padres separados en todo el mundo. Porque, ya se sabe, el fracaso matrimonial trae consigo muchos problemas y frustraciones. Aunque confieso que nunca imaginé que podría traer un problema científico. Bienvenido sea. Más aún porque encontramos una solución. No la que hubiésemos querido, claro está. Pero una respuesta que no nos gusta es mejor que ninguna.

Para entender el problema es mejor usar un ejemplo. Supongamos que yo me hubiese divorciado dos veces, y que tuviese un hijo con cada una de mis ex parejas. Suponga que además yo tuviese una pareja actual, quien, a su vez, tuviese un hijo de una relación anterior. Uno de los tantos dolores de cabeza que una situación así me podría traer es el de organizar las visitas de mis hijos y de los hijos de mi actual pareja. Normalmente los arreglos de visitas de padres separados indican que cada padre gozará, fin de semana por medio, de la presencia de los hijos. Nada garantiza que hijos de distintas ex parejas coincidan el mismo fin de semana. Esto es normalmente deseable, ya que queremos cultivar la hermandad entre nuestros hijos. Más aún, en el ejemplo aquí descrito quisiéramos que el hijo de mi actual pareja también coincida ese fin de semana. Así podemos disfrutar de un fin de semana familiar y, la semana siguiente, uno romántico, en pareja. El arreglo perfecto en que todos ganan. Sin embargo, si usted conoce personas que deban lidiar con esta situación, sabrá que no es fácil lograrlo. Es posible, por ejemplo, que al llegar de las vacaciones de verano sus ex parejas tengan una idea distinta sobre la repartición de fines de semana. Supongamos, volviendo al ejemplo en primera persona, que de acuerdo al punto de vista de mis ex mujeres mis hijos no coincidieran. Esto se podría arreglar con una negociación con una de ellas. Pero el problema no es bilateral. Ella podría argumentar que no es posible, porque de cambiarlo, sería a ella a la que no le coincidirían los niños. Ella tendría que promover una negociación entre su pareja actual y su ex mujer, la que, a su vez, tendría que seguir la cadena de negociaciones. Parece un proyecto difícil.

Surge así una pregunta estrictamente matemática: ¿es posible, asumiendo buena voluntad de todas las partes y la posibilidad de reunir a todos los miembros de una gran red de ex parejas y parejas, conseguir que todos los individuos de la red gocen de la presencia de todos sus niños simultáneamente fin de semana por medio?

Podríamos pensar que, independiente de la respuesta, las suposiciones que encierra la hacen poco interesante. Primero, contar con la buena voluntad de nuestra especie podría verse como un derroche de ingenuidad. Más aún cuando hablamos de ex cónyuges, cuyas capacidades de negociación y deseos de colaboración mutua quedan, en muchos casos, bastante dañados luego del fracaso matrimonial. Incluso si esa voluntad existiera, quizá la solución requeriría de la imposible tarea de convocar a una multitudinaria —e inimaginable— reunión de ex parejas en algún recinto deportivo que cuente con suficientes butacas.

§. La complicación triple ex
Si usted tiene un sentido demasiado pragmático de la vida, quizá no le interese embarcarse en la empresa de buscar respuesta a esta pregunta. Dirá que la teoría es una cosa, pero que en la práctica las cosas son muy distintas. Déjeme discrepar. Si una teoría es muy distinta a la realidad, no es porque la teoría y la realidad sean cosas distintas. Es porque la teoría es mala o incompleta. Y con las simplificaciones que estamos haciendo, efectivamente esta teoría puede no ser demasiado útil. De hecho, hay otras suposiciones que no hemos mencionado. Podría ocurrir, por ejemplo, que algunas personas no quisieran hacer coincidir a sus hijos o a ellos con los de su pareja. Podría ocurrir que no hubiese manera de negociar con una ex pareja porque restricciones externas no dan margen para cambios. Por ejemplo, si su ex marido es policía y tiene que quedarse en el cuartel domingo por medio, no le queda más remedio que estar con su hijo aquel domingo que tiene libre. Estos casos no solo afectan a los involucrados directos, sino a toda la red.

Es así como estamos en presencia de un problema que, en todas sus dimensiones, es demasiado complejo. Pero una de las características típicas de toda exploración científica es comenzar con una simplificación. Usualmente una sobresimplificación, pero que recoge lo fundamental del problema. Esto es similar a lo que hace un caricaturista, capaz de captar en pocos trazos la esencia de un rostro y hacerlo reconocible. Logrado esto, podemos comenzar a agregar más variables, más particularidades, y acercarnos al problema que la naturaleza nos entregó en bruto.

Es usual, sin embargo, que el científico esté muy interesado en esa simplificación. Para él, esta es más que una aproximación inicial, tal como para el caricaturista su retrato es más que una solución provisional. Es una síntesis. El extracto íntimo del fenómeno. Uno que en ocasiones puede observarse en las condiciones controladas de un laboratorio. Uno que nos da la satisfacción de haber comprendido algo. En nuestro caso, uno que puede darnos la tranquilidad de que no todo está perdido. Que al menos, parafraseando a algún periodista deportivo, tenemos posibilidades matemáticas de ser más felices. Quizá, en alguna región del universo, exista ese lugar en donde podamos eliminar de toda esa colección de dolores que origina el fracaso matrimonial, aquel de no poder estar con todos nuestros niños simultáneamente.

§. Magnetismo y régimen de visitas
El problema lo atacamos en conjunto con mis colegas Víctor Muñoz, de la Universidad de Chile, y Pierre Paul Romagnoli, de la UNAB. Y la respuesta… es negativa. Incluso ignorando las complicaciones extras que nos ofrece la realidad, existen circunstancias en las que no todas las parejas podrán tener a todos los niños simultáneamente. El ejemplo más simple es el siguiente. Suponga una pareja, digamos Ana y Boris, que no tiene hijos comunes, pero que cada miembro tiene hijos con una pareja anterior, digamos Carlos y Daniela, respectivamente. Suponga, además, que las circunstancias de la vida hicieron que Carlos y Daniela se encontraran, tuvieran un hijo, y luego se separaran. Si Ana y Boris tienen la suerte de tener a todos sus niños juntos un fin de semana cualquiera, entonces tanto Carlos como Daniela preferirán que ese fin de semana le toque al otro la presencia del hijo común; así, el siguiente estarán con todos sus hijos juntos. Pero uno de los dos tiene que tener a su hijo ese fin de semana, quien no podrá estar con el hermano que ahora visita a Ana y Boris. Este ejemplo muestra que no siempre es posible un régimen de visitas perfecto. Ahora bien, si cambiamos un poco la pregunta, podemos llegar a un resultado positivo. En lugar de exigir que todos los niños estén juntos, solo pediremos que cada padre esté con todos sus hijos fin de semana por medio, pero que no necesariamente esto coincida con los hijos de su pareja. Así, por ejemplo, el hijo de Ana y Carlos no coincidirá, necesariamente, con el de Boris y Daniela. Ana y Carlos no tendrán fines de semana románticos, pero al menos cada uno de ellos compartirá con sus hijos simultáneamente. Es fácil encontrar un régimen de visitas así. De hecho, independiente del tamaño de la red, se puede mostrar que este tipo de solución es siempre posible.

Con la tranquilidad que nos da que al menos existan soluciones razonablemente buenas al problema, queda por ver ahora cuánto más podemos mejorarlo. Porque nada impide que al menos algunas parejas tengan la suerte de tener a todos sus niños juntos y ser así más felices. La pregunta entonces es: ¿podemos encontrar el régimen que maximiza el número de parejas felices de la red? La respuesta es positiva. ¿Pero qué tiene que ver la física aquí? Bueno, lo que sucede es algo que suele ocurrir en ciencia: que dos fenómenos de naturaleza completamente distinta se reduzcan a un problema matemático equivalente. Notablemente, la búsqueda de la minimización de la cantidad de parejas infelices de este sistema resulta totalmente equivalente a la búsqueda del estado de menor energía de una clase de materiales magnéticos conocidos como vidrios de espín. El problema, por lo tanto, se reduce a uno muy conocido y estudiado en física, donde se conocen variados métodos para resolverlo. Las redes de individuos divorciados son mucho más pequeñas que las intrincadas y enormes redes que los átomos forman dentro de cualquier material, por lo que el problema nuestro es mucho más pequeño y tratable. ¿Es útil todo esto? Lo dudo mucho, pero no importa. Al menos ahora podemos dar una tranquilidad teórica a todos los padres que luchan por un régimen de visitas satisfactorio. Ahora sabemos que existen soluciones mejores que otras. Y que con buena voluntad, comunicación, y un poco de física de materiales magnéticos, quizá podamos conseguirlas.

Capítulo 40
Micro revolución

Contenido:
§. Del lino al microscopio
§. El nuevo mundo
§. En la salud y en la enfermedad

Un buen día de 1674 un vendedor de linos de la ciudad de Delft, en Holanda, se encontró con algo tan sorprendente como extraño. Bajo la lente del microscopio que él mismo había fabricado, yacían los organismos vivos más pequeños que jamás se hubiesen visto. Ese instante en la historia de la ciencia quizá solo sea comparable con el momento en que Galileo miró por primera vez el cielo a través de su telescopio. Un nuevo universo se revelaba. Uno invisible a nuestros sentidos.

Tres mil quinientos millones de años de evolución no pasan en vano. Nuestros sistemas sensoriales han sido manufacturados a lo largo de este tiempo para desenvolvernos con seguridad en una escala que va de la fracción de milímetro a unos cuantos kilómetros, alejándonos en nuestro vivir cotidiano de la presencia de nuestros parientes micrométricos. Pero el yugo de nuestra escala biológica es solo aparente. El intelecto humano, con su imaginación y su capacidad de análisis, ha permitido soltar amarras. Mirar el cosmos de nuevo, y reencontrarnos con nuestros orígenes. Tanto galácticos como microbiológicos. Abrazar de nuevo a esas bacterias que Antonie van Leeuwenhoek vio por primera vez. Esos animálculos, como él los llamó, no solo nos regalan un nuevo y bello paisaje natural. Además, viven en nosotros. Y no solo para enfermarnos, como por mucho tiempo se pensó. Muy por el contrario, son parte esencial de nuestra biología.

§. Del lino al microscopio
Leeuwenhoek no tenía ninguna formación científica formal. Era usual para un comerciante de telas utilizar lupas de calidad que le permitieran observar las fibras de los tejidos para evaluar su calidad. Es probable que esa haya sido la razón por la que comenzó a fabricar sus propias lentes. Su técnica para manipular el vidrio, que mantuvo en celoso secreto durante toda su vida, lo llevó a fabricar los más potentes microscopios de la época. Entonces los microscopios eran bien distintos al instrumento que conocemos hoy. Más bien eran potentes lupas. Consistían en una placa de bronce con un agujero en donde se montaba la lente. Estas eran esferas de vidrio, y el poder del microscopio aumentaba en la medida que estas fueran más y más pequeñas. El arte de Leeuwenhoek consistía en construir esferas de vidrio pequeñas y perfectas. Su espíritu curioso y científico lo llevó a salir de las fibras de telas para observar todo lo que caía en sus manos. El universo microscópico se abrió ante sus ojos. Nadie jamás había tenido la oportunidad de mirar la naturaleza como él la estaba viendo. Hermosos, inquietantes o terroríficos micropaisajes desfilaban ante sus ojos.

En 1673, a los cuarenta años de edad, envía la primera de una serie de legendarias cartas a la Real Sociedad de Londres. En esta describía sus observaciones de aguijones de abejas. Un año después, durante el verano de 1674, mientras paseaba por el lago Berkelse Mere, reparó en ciertas coloraciones verdes y blanquecinas del agua. Llevó algunas botellas de muestra y las puso bajo su microscopio. Allí contempló con sorpresa un hermoso paisaje escondido del lago: la gran variedad de organismos microscópicos que se movían bajo su lente. Formas y colores nunca vistos por otro hombre se revelaban ante los ojos incrédulos de Leeuwenhoek. «El movimiento de estos animálculos en el agua era tan rápido, tan variado, hacia arriba, abajo o en círculos, que era maravilloso observarlos». Lo que estaba contemplando, y que describió en una carta fechada el 7 de septiembre de 1674 a la Real Sociedad, eran organismos unicelulares. Leeuwenhoek había develado el universo protista de amebas y algas.

En los años que siguieron, fue el primero en observar espermatozoides, glóbulos rojos, capilares y, lo más importante, bacterias. Las primeras que observó fueron reportadas en una carta a la Real Sociedad el 17 de septiembre de 1683. Las encontró en la placa dental que extrajo de su propia boca. «En cada muestra vi, con gran asombro, que en esta materia había muchos animálculos diminutos, que se movían con gracia. Los más grandes se movían en el agua (o la saliva) como peces. Los más pequeños giraban como trompos. Estos eran los más numerosos». Lo mismo observó en muestras que sacó de las bocas de su esposa e hija, y de un tipo de edad avanzada que no se había lavado los dientes en su vida. En este último encontró que la cantidad de animálculos era muy superior, los de mayor tamaño y destreza que había visto. «Parecía como si toda el agua estuviese viva».

Tuvo que pasar algún tiempo para que el encuentro del mundo bacteriano con el hombre fuese aceptado y el nombre de Leeuwenhoek se grabara para siempre en lo más alto de la historia de la ciencia y la cultura humana. Porque es también un encuentro con un nuevo mundo que nos obliga a resituar nuestro lugar en el universo. Al igual que Colón, Leeuwenhoek abrió una puerta entre seres de origen común, pero separados en el tiempo hasta olvidarse. Aquí, claro está, no hablamos de diez o veinte mil años, que separaron apenas nuestras culturas. Aquí hablamos de miles de millones de años, tiempo en que la evolución separó nuestras especies de modo radical y para siempre.

§. El nuevo mundo
Las bacterias son pequeñas, es cierto. Pero no es menos cierto que son, por lejos, los organismos más numerosos del planeta (junto con las arqueas, otro grupo de organismos unicelulares). Más del 90 por ciento de las células que habitan nuestro cuerpo son bacterianas. Como son bastante más pequeñas en promedio, representan un porcentaje menor de nuestra masa. Si pudiésemos deshacernos de ellas, no bajaríamos más de un kilogramo.

Pero no querríamos deshacernos de ellas.

La escala típica del mundo bacteriano es la del micrón, esto es, la milésima parte de un milímetro. La mayoría de ellas miden algunos micrones. Para hacernos una idea, un cabello humano promedio mide 0,1 mm, esto es, 100 micrones. Hace falta una fila de unas 100 bacterias para recorrer el diámetro de un cabello humano. Esto pensando en bacterias pequeñas. Las bacterias más grandes que observó Leeuwenhoek en su boca eran selenomonas, que pueden llegar a medir 10 micrones. Más aún, hoy se conocen bacterias que miden hasta una fracción de milímetro y pueden observarse a simple vista, como la llamada perla sulfurosa de Namibia.

De acuerdo a ciertas estimaciones, habría del orden de 1030 bacterias en el planeta. Para hacerse una idea de la enorme cantidad de bacterias, tenga en cuenta que el planeta contiene unas 500 millones de toneladas de humanos. El total de bacterias tiene una masa mil millones de veces mayor.

§. En la salud y en la enfermedad
Es común mirar con algo de desdén al universo bacteriano. Será porque lo primero en que pensamos cuando escuchamos sobre su presencia es en enfermedad. Pero la verdad es que solo un porcentaje ínfimo de las bacterias resulta dañino para la salud humana. Aunque es muchas veces difícil separar especies en la zoología bacteriana, es posible, siendo conservadores, estimar al menos un millón de especies distintas. De estas, apenas unas cincuenta son dañinas para el ser humano.

Claro, podríamos argumentar el inverso. Puede que sean pocas las bacterias patógenas, pero de las enfermedades humanas, un gran porcentaje es causado por ellas. Sin embargo, ese punto de vista omite un hecho fundamental: la gran mayoría de las bacterias que habitan en nosotros no solo son inofensivas, su presencia es fundamental para el buen funcionamiento de nuestro organismo. Solo en los últimos diez años la ciencia ha comenzado a entender la función clave del así llamado microbioma humano, el conjunto de bacterias y otros microorganismos que han encontrado su hogar en nosotros.

Sabemos, por ejemplo, que en nuestro sistema digestivo habitan más de mil especies de bacterias, que aportan unos tres millones de genes, más de cien veces los genes que contiene nuestro material genético. Se sabe que muchos de estos microorganismos tienen funciones importantes, como por ejemplo la síntesis de ciertas enzimas que permiten romper moléculas que no podríamos digerir de otra forma. También se sabe que el buen funcionamiento del microbioma nos protege del ataque de microorganismos patógenos. Más recientemente hay experimentos que indican que el microbioma sería fundamental en el control de la obesidad e incluso de características de personalidad. Si bien esto último aún es debatido, lo que parece irrefutable es que las bacterias que viven en nosotros son más que invitados circunstanciales. Son parte fundamental de nosotros. Nos definen como cualquier otra célula de nuestro organismo.

Leeuwenhoek descubrió que había bacterias allá afuera, pero es muy probable que nunca sospechara que nosotros mismos lo éramos. Al menos en buena parte.

Capítulo 41
Estrellas de cine

Contenido:
§. La nave perfecta
§. El sueño de Kip
§. De vuelta a la copa de vino

El esperado solsticio de verano ha llegado, y para celebrarlo, nada mejor que brindar a la luz de las estrellas de una cálida noche en las afueras de la ciudad. Una copa de vino es lo único totalmente necesario. Me recuesto de espaldas en una terraza y el universo me da un estrellado abrazo. La Cruz del Sur es lo primero que identifico, mirando el cielo hacia el sudeste. Un poco más baja en el horizonte, Alfa Centauri, la más brillante de las estrellas de la constelación de Centauro. En realidad se trata de dos estrellas que giran en torno a ellas mismas, pero no podemos resolverlas a simple vista. Están a tan solo 4,4 años luz de aquí. Se cree —aún hay debate entre los astrónomos— que un planeta del tamaño de la Tierra gira en torno a una de ellas. La vida tal como la conocemos es imposible en su superficie, cuya temperatura se estima en más de mil grados centígrados. Un poco más arriba en el horizonte sabemos que nos acompaña Próxima Centauri, nuestra vecina estelar más próxima después del sol. A pesar de que está a apenas 4,2 años luz de distancia, se trata de una estrella de luminosidad demasiado débil como para poder mostrarse a simple vista.

Hay tantas cosas allí en la constelación de Centauro que no podemos ver y sabemos que están allí agazapadas, evitando nuestra mirada. Justo ahora, por ejemplo, media hora pasada la medianoche, Centaurus A está levantándose en el horizonte bajo Alfa Centauri. Una colorida galaxia que no podemos ver sin la ayuda de telescopios, y que está a unos 15 millones de años luz de aquí. Sabemos que el centro de Centaurus A cobija un enorme agujero negro, cuya masa es 55 millones de veces la del sol. Su presencia energiza dos jets, enormes chorros de materia que son expulsados a grandes velocidades en direcciones opuestas. Toda esta abrumadora diversidad cósmica en un pequeño parche del cielo, justo sobre el horizonte, hacia el sudeste.

§. La nave perfecta
No conozco nave espacial más poderosa que el cerebro humano. Estamos muy lejos de la posibilidad de alcanzar el más cercano de los objetos que adornan la noche. Salvo por la luna, claro está, nuestro satélite. Pero la luna está muy muy cerca. La luz, que viaja a la velocidad más grande permitida por las leyes de la naturaleza, demora poco más de un segundo en alcanzarla. Compare ese segundo con los 4,2 años que tardará en llegar a la estrella más cercana —después del sol— Próxima Centauri. El objeto más lejano lanzado por el hombre al espacio es el Voyager 1, que comenzó su viaje en 1977 y ya abandonó el sistema solar. Un rayo de luz se demorará un poco más de 14 horas en alcanzarlo desde la Tierra. ¡Próxima Centauri está 2500 veces más lejos que el Voyager 1! Y si esto nos parece mucho, imagínese llegar a Centaurus A, una galaxia bastante cercana, cuya luz demora 15 millones de años en alcanzarnos. El universo parece inalcanzable para nuestras manos, pero no para nuestro cerebro. A través de una larga serie de mediciones e ideas, el hombre ha construido exitosas teorías sobre la naturaleza, que nos permiten predecir y comprender incluso aquello que no podemos tocar o percibir, desde las entrañas subatómicas de la materia hasta las lejanías más impenetrables del tiempo y el espacio. Es así como de la mano de buenos científicos, cineastas, escritores, actores y técnicos, podemos contemplar un viaje que el universo, por ahora, nos tiene vedado. Un viaje improbable pero hermoso, y que nos conecta con nuestros orígenes más puros y remotos. Interestelar, la película de Christopher Nolan estrenada en 2014, nos llevó en uno de esos viajes. No creo que nadie haya llegado tan lejos en esta aventura.

§. El sueño de Kip
La ciencia ficción no tiene que explicarse. No es ciencia. Es una fantasía basada en ciertas realidades científicas. Es lo que ocurre en Interestelar. Lo original de esta cinta es que la fantasía que en ella vemos es, en gran parte, fantasía científica. Especulaciones reales que podemos escuchar en cafeterías universitarias del mundo. O incluso en artículos científicos, en donde la especulación, por disparatada que sea, suele ser bienvenida si no contiene errores lógicos, es matemáticamente correcta, y tiene algún interés general. Interestelar no pretende hacer divulgación científica. No hace distinción entre ideas aceptadas y con fundaciones sólidas, como la dilatación del tiempo o los agujeros negros, e ideas más especulativas como los agujeros de gusano o las dimensiones extras del universo.

La idea de la película se originó en la mente del físico norteamericano Kip Thorne, quien fue el primero en estudiar, a fines de los ochenta, la posibilidad de que agujeros de gusano —atajos que conectan puntos distantes del universo— pudiesen existir en la naturaleza. Thorne asesoró a su amigo Carl Sagan para la novela Contacto, luego llevada al cine en 1997, y en donde aparecen, quizá por primera vez en la pantalla grande, estos misteriosos objetos. El mismo Sagan tuvo que ver con Interestelar: fue él quien presentó a Thorne con la productora Lynda Obst, quienes en octubre de 2005 concibieron la idea de una película de ciencia ficción, pero con ciertas reglas bien singulares: la ciencia estaría incorporada en cada aspecto de la película. Habría libertad para la fantasía, pero solo si se basaba en ciencia real, por especulativa que esta fuere.

Reclutaron primero a Steven Spielberg para dirigirla y a Jonathan Nolan como guionista. El proyecto se demoró en despegar, y finalmente fue dirigido por Christopher Nolan, hermano de Jonathan. A pesar de que Christopher exigió una cantidad mayor de licencias de las que Kip Thorne estaba dispuesto a admitir en un principio, el resultado final lo dejó satisfecho.

Por lo demás, uno no va al cine a aprender ciencia. De hecho, nada habría cambiado si el agujero negro de la película hubiese sido una concepción artística, sin ningún rigor científico. Pero lo hicieron así, gastando enormes recursos, solo porque podían hacerlo, porque no solo la ciencia, sino el espíritu científico, exudan por cada fotograma de la cinta.

§. De vuelta a la copa de vino
Observo en la dirección de ese enorme agujero negro en Centaurus A allí sobre el horizonte. Es muy similar a Gargantúa de la película, que lo dobla en masa. Su gran tamaño permite a la tripulación del Endurance acercarse sin peligro, ya que agujeros pequeños producirían fuerzas de marea que los destrozarían. Además, no produce los jets y la radiación de Centaurus A, que serían letales para cualquier humano circundante. Para obtener las imágenes de Gargantúa se hicieron simulaciones sin precedentes. Podemos estar seguros de que nunca nadie había visto la escalofriante belleza de un agujero negro de manera tan real hasta que Interestelar lo hizo posible. Tanto es así, que Kip Thorne asegura que publicará trabajos técnicos basados en algunos resultados inesperados de la simulación. Si está interesado, puede recurrir al libro que escribió al respecto, The Science of Interestellar.

Pero volvamos a la tierra. A la copa de vino que tengo en mi mano y que aparentemente puedo abarcar. O quizá no sea así. Richard Feynman, el gran físico norteamericano, nos mostró en una de sus legendarias clases, que quizá incluso en el vino podemos encontrar la inmensidad del cosmos. En un espíritu similar al de la película nos relata:

Un poeta dijo una vez «el universo entero está en una copa de vino». Probablemente nunca sabremos en qué sentido lo dijo, porque los poetas no escriben para ser comprendidos. Pero es cierto que si vemos la copa de vino con suficiente cuidado, veremos todo el universo. Están los elementos de la física: el líquido arremolinado, los reflejos en la copa, y nuestra imaginación añade los átomos. Se evapora dependiendo del viento y el clima. La copa es una destilación de las rocas de la tierra, y en su composición podemos ver los secretos de la edad del universo y la evolución de las estrellas. ¿Qué extraña variedad de compuestos químicos contiene el vino? ¿Cómo llegaron a ensamblarse? Están los fermentos, las enzimas, los sustratos y los productos. Allí en el vino se encuentra la gran generalización: toda la vida es fermentación. Nadie puede descubrir la química del vino sin descubrir la causa de muchas enfermedades. ¡Cuán vívido es su color granate, que imprime su existencia en la conciencia que lo observa! Si nuestras pequeñas mentes, por conveniencia, dividen a esta copa de vino, este universo, en partes —física, biología, geología, astronomía, psicología y más—, recuerda que la naturaleza no lo sabe. Así que ensamblémoslo todo de nuevo, sin olvidarnos para qué sirve. Démonos un último gran placer: ¡beberlo y olvidarlo todo!

Agradecimientos

Este libro está basado en columnas que he escrito para revistaQué Pasa desde el año 2008. Parte de ellas aparecieron en el libro Hay onda entre nosotros, publicado en 2011 por la desaparecida editorial Los Libros Que Leo, hoy descontinuado. Los textos han sido actualizados, reeditados y en ocasiones expandidos.

Quisiera agradecer a todos quienes me han tendido una mano en la construcción de estos textos. A mis colegas, a mis amigos, a mi familia. En particular debo agradecer a mi editor de revista Qué Pasa, Francisco Aravena, de quien no solo he recibido un constante apoyo y aliento, sino que además es el autor de gran parte de los títulos y subtítulos de este libro. A Andrea Viu y a Daniel Olave, artífices de esta publicación. A mi amigo José Edelstein, socio entrañable de tantos desvelos y victorias en estos oficios.

Finalmente no puedo dejar de agradecer a Alex y Martina, quienes me vienen acompañando e inspirando desde los albores de esta empresa, y a Silvina y Mili, que se unieron a ella un poco más tarde. Sin ellos no habría tiempo ni espacio posible para navegar los solitarios y pedregosos territorios de la comunicación científica.


Notas:
[1] Esto es cierto a fines de 2014, pero probablemente por poco tiempo, ya que la búsqueda de números primos grandes es constante.
[2] Hay 24 maneras de disponer los cuatro libros del hermano mayor a la derecha. Esto debemos multiplicarlo por las 24 maneras de disponer los cuatro del menor a la izquierda
[3] Para más detalles vea el capítulo «Hay onda entre nosotros». Note que allí medimos la longitud de onda en nanómetros, mientras aquí lo hemos hecho en micrones. Un micrón es igual a mil nanómetros.
[4] La tecnología de impresoras y escáneres 3D nos permitirán muy pronto digitalizar y reproducir pinturas. Mientras se escribe esto, no es una tecnología de uso masivo
[5] La evaporación de agua requiere extraer de la sopa el calor latente necesario. Así, la superficie del líquido se enfría. Vea «¡A su salud, Mr. Joule!».
[6] Nuevamente se trata de calor latente. Si el proceso de evaporación de un líquido extrae calor, enfriando, el proceso inverso, la condensación, hace precisamente el opuesto, entregando calor al medio.
[7] Vea el capítulo «Chocolate y calentamiento global».
[8] Un osciloscopio es un instrumento que nos permite observar en una pantalla los cambios temporales que experimenta una corriente eléctrica.
[9] Vea «Una lección en colores» y «Hay onda entre nosotros».
[10] célula para conocer la identidad de un su
[11] Sobre el cero absoluto de temperatura vea «Todo lo que perdemos».
[12] que terminan en un átomo estable. Es la alquimia natural del unive
[13] En el siguiente capítulo intentaré explicar la distinción entre una idea demencial y un embuste.