El cántico de la cuántica - Sven Ortoli y Jean-Pierre Pharabod

El cántico de la cuántica

Sven Ortoli y Jean-Pierre Pharabod

Introducción

“Estamos en el siglo en el que se han eliminado casi todos los errores de la física.”
VOLTAIRE


¿Física o metafísica? Aunque en general lo nieguen con gran porfía, los físicos de hoy elaboran teorías o realizan experiencias que alcanzan a lo más profundo del ser y ponen en tela de juicio hasta la existencia misma de la materia, por lo menos tal como la imaginamos corrientemente.
Por ejemplo, la experiencia llevada a cabo desde 1979 a 1982 en el Instituto de Óptica de la Universidad de Orsay por el físico francés Alain Aspect nos enseña que los elementos constitutivos del universo pueden en cierto modo comunicarse entre sí ignorando las distancias que los separan a nuestros ojos.
Para citar la fórmula de otro físico francés, Bernard d’Espagnat, el espacio no sería más que un modo de nuestra sensibilidad. También el determinismo quedó muy deteriorado. Es más aún, algunos (premios Nobel de física) llegan a considerar el universo como una fantasmagoría de esencia espiritual. La gran mayoría de los físicos rechaza esta hipótesis extrema, pero esto no impide que quede abierta la brecha y que las creencias más insensatas (o consideradas tales) tiendan a imponerse, con gran cólera de los defensores de las tradiciones intelectuales heredadas de la ciencia del siglo XIX.
Curioso es el hecho de que, aun habiendo quedado completamente demolida la física del siglo pasado, su influencia se extiende a otras disciplinas científicas, en particular la biología y la neuro-biología. Dicha física permite avances espectaculares, especialmente gracias a la biología molecular, cuyos conceptos proceden esencialmente de la física del siglo XIX y no de la física actual. ¿No será que esa física del siglo XIX representa un enfoque suficiente para el estudio de los fenómenos biológicos? ¿O podrá esperarse un progreso aún más decisivo que permita comprender la conciencia misma cuando la biología esté en condiciones de utilizar la física de nuestra época?
Sea ello lo que fuere, muchos son los que no aguardaron esos eventuales progresos de la biología para utilizar a veces en beneficio propio los aspectos revolucionarios de la física moderna. Los adeptos de las religiones orientales y los partidarios de la parapsicología manejan las profundas interrogaciones suscitadas por recientes descubrimientos para intentar (con razón o sin ella) justificar sus creencias; algunos físicos les prestan su apoyo aunque la mayoría de ellos reprueba semejantes prácticas. Por lo demás, el público sabe que “algo pasa en la física” gracias a dos debates suscitados por aquellos intentos; el coloquio “Ciencia y conciencia” llevado a cabo en Córdoba del Io al 5 de octubre de 1979 es un buen ejemplo de esta curiosa manera de introducirse en los medios de comunicación de masas. Desgraciadamente la aparente dificultad del tema y la habitual discreción de los científicos no permiten que el público pase de allí.
¿Es normal que las interrogaciones sobre la naturaleza del mundo estén reservadas a una élite? ¿Es verdad que la física moderna, la “física cuántica” para designarla con su nombre, es tan difícil que únicamente los hombres de ciencia de alto nivel están en condiciones de comprenderla? ¿Y es exacto, como lo pretenden algunos grandes físicos, que esta teoría no es comprensible? En cambio, la finalidad de este libro consiste en llevar a conocimiento de todos los problemas filosóficos planteados por la física cuántica, después de haber explicado, desde luego, sus principios científicos esenciales. Para comprender esos principios, la imaginación es más importante que la matemática, de modo que un .despliegue de figuras y de metáforas permite ir más lejos que un simple desarrollo de ecuaciones; por eso no nos pareció útil recurrir a la matemática. Por cierto que la aplicación práctica de la física cuántica a problemas científicos concretos exige la utilización dé una matemática difícil y hasta muy difícil cuando se trata de armonizar la física cuántica con la relatividad de Einstein. Pero ése no es nuestro propósito; los científicos tienen a su disposición una gran cantidad de exposiciones técnicas de esta teoría (las que, por lo demás, evitan con frecuencia los verdaderos problemas); sería bueno que el hombre corriente dispusiera también él de obras que le permitan comprender la teoría que está en la base de toda nuestra ciencia.
La física cuántica[1] contiene en sí los gérmenes de una inmensa revolución cultural que por el momento sólo se realizó en el seno de un pequeño cenáculo de grandes científicos.
Ojalá este libro logre extender el campo de esa revolución y permitir que las ideas nuevas barran el fárrago de creencias seudocientíficas que, procedentes a menudo del siglo pasado, ponen trabas al espíritu de nuestros contemporáneos.

Capítulo 1
Los peces solubles

Un pez se mueve en una charca tan barrosa que en modo alguno es posible verlo. Un pescador prueba suerte y al cabo de cierto tiempo el pez muerde la carnada. El pescador alza la caña y ve al pez suspendido en el extremo del hilo y piensa lógicamente que antes el pez se movía por la charca en busca de alimento. Nunca se le ocurrirá pensar que antes de morder la carnada el pez no era más que una especie de potencialidad de pez que ocupara toda la charca.
Supongamos ahora que la charca esté representada por una caja absolutamente vacía con la excepción de un solitario electrón que sería el pez (también podría considerarse un protón o hasta un átomo). El dispositivo de pesca (caña, línea, anzuelo) simboliza una sonda introducida en la caja, sonda que de una manera u otra puede entrar en interacción con el electrón y producir entonces una señal visible para el observador. Cuando aparezca la señal, un observador normalmente constituido llegará a la conclusión de que el electrón encontró la sonda y de que antes se movía en el interior de la caja. Y se equivocará.

001.jpg

Antes de entrar en interacción, el electrón ocupaba toda la caja con una probabilidad más o menos grande ser detectado en este o en aquel lugar. Es como si antes de morder la carnada el pez ocupara toda la charca, con lugares en los que estuviera más diluido y otros lugares en los que estuviera más concentrado. Semejante pez “cuántico”, que sólo se hace concreto cuando es pescado, no corresponde a nada de lo que estamos acostumbrados a observar.
Pero, ¿cómo podemos estar seguros de que el electrón se comporta como el pez “cuántico” aquí imaginado? La respuesta no es evidente y la certeza sólo se adquirió (gracias a un subterfugio que luego examinaremos) en 1982, más de cincuenta años después del nacimiento de la física cuántica. Verdad es que el formalismo matemático de la nueva física implicaba esta imagen surrealista de un “pez soluble” (André Bretón, 1924), pero ciertos físicos, en particular Einstein, pensaban que otro formalismo, más de conformidad con nuestros hábitos de pensamiento, habría podido dar los mismos resultados experimentales y por lo tanto alcanzar el mismo éxito que la física cuántica. Llevó muchos decenios la concepción y luego la realización de una experiencia que permitió invalidar definitivamente las esperanzas de Einstein.
Sin embargo, el debate no ha terminado aún. Son posibles diferentes interpretaciones de la física cuántica, y entre los físicos se formaron clanes (por más que la gran mayoría de los físicos no se interese por este debate y se contente con aplicar el formalismo a los desarrollos teóricos y experimentales en marcha). Si esquematizamos mucho y si dejamos de lado las sutilezas de la jerga filosófica, podemos decir que los dos clanes principales son de los “materialistas cuánticos” y el de los “idealistas cuánticos”. El problema que los separa es el del momento en que el pez cuántico se hace concreto: ¿cuándo muerde el anzuelo o cuándo se lo ve?
Para los materialistas, el pez se hace concreto cuando muerde el anzuelo (cuando el electrón entra en interacción con la sonda). Para los idealistas, el pez se hace concreto en el momento en que el pescador lo ve después de haberlo sacado del agua (en el momento en el que el observador ve la señal): en efecto, en ese instante, el pescador observador adquiere conciencia de la existencia real del pez, de modo que aquí interviene su espíritu, y, según los idealistas, esa intervención es lo que precisamente hace pasar al pez de una existencia potencial a una existencia concreta. Apresurémonos a declarar que los sostenedores del idealismo están en gran minoría.

002.jpg

Por otro lado, por más que los idealistas dispongan de argumentos inquietantes, el sentido común (que a veces ciertamente ha faltado) milita en favor del materialismo. Particularmente el hecho de que la señal pueda registrarse automáticamente (en ausencia de todo observador) y pueda examinársela mucho después obliga a los idealistas a realizar sorprendentes acrobacias mentales de las que luego habremos de ocupamos. Sin embargo no se ha realizado todavía una experiencia que permita decidir categóricamente y sin equívocos entre las dos interpretaciones.
Se han propuesto otras interpretaciones relacionadas de un modo o de otro con las dos principales. Buena parte de este libro está dedicado a esos problemas conceptuales. Pero por el momento dejémoslo a un lado y volvamos a considerar nuestros peces.
¿Qué ocurre si el pescador vuelve a arrojar el pez en la charca inmediatamente después de haberlo sacado del agua? El pez vuelve a disolverse en el agua esperando a que se lo pesque otra vez:

003.jpg

Describamos ahora otra experiencia. Alguien se ha comido el pescado único de la charca y ya no se habla más de él. El pescador acaba de recoger dos pececillos en un arroyo próximo a la charca, los transporta todavía vivos y los arroja en ella. ¿Qué habrá ahora en la charca? Una combinación monstruosa de dos peces solubles que no forman más que un solo ser innominable.

004.jpg

El hecho de que dos entidades cuánticas que han entrado en interacción se combinen para formar una sola entidad conduce directa o indirectamente a las dos grandes paradojas de la física cuántica.
Estas dos paradojas fueron expuestas en 1935 a fin de poner de manifiesto los problemas planteados por la nueva física; la primera paradoja fue expuesta por Einstein y dos de sus colegas, la segunda por Schrödinger. La primera, conocida como “paradoja de Einstein-Podolsky-Rosen” o “paradoja EPR”, se refiere a la objetividad de la existencia del espacio (o del flujo del tiempo); es pues mucho más radical que la teoría de la relatividad que se limitaba a combinar el espacio y el tiempo. Las experiencias realizadas sobre esta paradoja EPR condujeron efectivamente a poner en tela de juicio esa objetividad. En cuanto a la segunda paradoja, la “paradoja del gato de Schrödinger”, es la ilustración del debate entre idea listas y materialistas que ha permanecido en el estadio de la discusión teórica. Nos ocuparemos con más detalles de la paradoja EPR a partir del párrafo siguiente, pues dicha paradoja deriva directamente de la combinación de entidades cuánticas que entraron en interacción; en el caso del gato de Schrödinger la relación es menos directa y su tratamiento más delicado, razón por la cual nos ocuparemos de ella sólo en el capítulo quinto.
Ilustremos ahora la paradoja de Einstein-Podolsky-Rosen. El pescador acompañado por su hijo acaba de apresar otra vez dos pececillos en un arroyo y los lanza aún vivos en una charca bastante especial. En efecto, esa charca se encuentra situada en un montículo y en su fondo presenta dos desagües que conducen el agua hasta dos pequeñas charcas vacías situadas más abajo; esos conductos de desagüe están cerrados cada uno por una pequeña esclusa.
El pescador arroja los dos pececillos al agua; éstos inmediatamente se disuelven en una extraña combinación de dos peces solubles. Luego el pescador y su hijo alzan cada una de las esclusas. El agua corre hacia las dos pequeñas charcas y por último cada una de esas pequeñas charcas habrá de contener un pez soluble cuando en la charca principal ya no haya ni agua ni peces (en realidad, los dos peces continúan formando un solo ser, es decir, están unidos por un lazo misterioso “fuera del espacio” que nosotros evidentemente no podemos representar; en rigor de verdad, sería mejor decir que cada charca contiene una parte de la combinación de los dos peces solubles).
El pescador lanza su línea de pesca en la pequeña charca de la derecha, en tanto que su hijo sin hacer nada se tiende en el suelo cerca de la charca de la izquierda. Pero cuando el pez de la charca de la derecha muerde el anzuelo y es sacado del agua, inmediatamente el pez de la charca de la izquierda salta también del agua y es proyectado junto al hijo del pescador que no tiene más que recogerlo en la hierba.

005.jpg

Esta es la célebre experiencia de Aspect, realizada, no con peces, sino con fotones, es decir, corpúsculos de luz y con especificaciones experimentales diferentes aunque análogas. Otros hombres de ciencia llevaron a cabo la misma experiencia con protones, es decir, núcleos de átomos de hidrógeno. ¡Y dio resultado!
Fueron precisamente la experiencia de Aspect y otras experiencias análogas las que establecieron definitivamente que las entidades cuánticas se comportan como nuestros peces solubles y no como objetos normales. Esas experiencias llevaron a los físicos a reconsiderar todo el concepto de espacio, tema al que dedicaremos un capítulo entero.
Pero antes de llegar a ese punto debemos abandonar estas figuras e imágenes para dar una exposición más convencional de la historia y las bases de la física cuántica, lo que haremos en los dos capítulos siguientes; en ellos retomaremos lo esencial de un artículo que habíamos publicado en abril de 1982 en la revista Science et Vie.

Capítulo 2
El nacimiento de una nueva física

A fines del siglo XIX la mayor parte de los científicos pensaban que a la historia de la física sólo le faltaba un epílogo. Desde el movimiento de los planetas hasta las ondas electromagnéticas, todo se explicaba por la leyes de Newton y de Maxwell. Claro está que todavía quedaban dos o tres puntos oscuros, pero nadie dudaba de que serían rápidamente aclarados. Y en efecto lo fueron, sólo que lejos de poner el punto final esperado a la cuestión, hicieron problemático todo lo que se consideraba entonces como definitivamente establecido. Se desmoronaba todo un mundo e iba a nacer otro.
El parto fue trabajoso. Al principio, los iniciadores de la nueva física no se sentían en modo alguno cómodos. Tenían que manejar conceptos y razonamientos profundamente diferentes de aquellos que conocieran hasta entonces. Y, para comenzar, lo mismo que los viajeros que llegaban ante las puertas de Tebas, debían resolver un primer enigma: ¿qué es eso que se comporta por la mañana como una onda y por la tarde como un corpúsculo? Para responder a esta pregunta debieron inventar una nueva manera de describir el mundo: la física cuántica.
Hoy en día esta teoría es utilizada por los físicos de todo el mundo y produjo resultados espectaculares en múltiples dominios; la supraconducción, los transistores, los semiconductores se deben directamente a esta teoría. Hasta la bomba atómica le debe en parte su existencia. Para comprender en qué consiste esta teoría lo mejor será seguir su génesis, es decir, ver por qué camino echó a andar un puñado de hombres de ciencia que a comienzos de este siglo llegaron a transformar radicalmente las concepciones que se tenían de la “realidad”.

§. Ondas y corpúsculos
A fines del siglo pasado, la casi totalidad de los fenómenos físicos respondía a dos tipos de explicaciones: o bien la teoría del electromagnetismo de Maxwell que daba cuenta de los efectos magnéticos, de las interferencias luminosas, etc., o bien la teoría de la atracción universal de Newton, base de la mecánica y más particularmente de la astronomía. Después de haberse enfrentado, estas dos teorías habían terminado por dividirse los diversos dominios de la física al crear los conceptos fundamentales de onda y de corpúsculo. El concepto de corpúsculo permitía idealizar los objetos reales representándolos con un punto (y, por lo tanto, con una posición; un conjunto de posiciones constituía una trayectoria) y atribuyendo a ese punto una masa correspondiente a la cantidad de materia reunida (planeta o electrón).
En cuando al concepto de onda (véase el recuadro) o de campo, se refería no ya a un movimiento “de” la materia (como en la trayectoria de una bola) sino a un movimiento “en” la materia. Por ejemplo, cuando las olas se propagan desde el mar hacia la costa, las moléculas de agua no avanzan en dirección a la costa, sino que grosso modo se limitan a subir y bajar describiendo círculos o elipses que comunican su movimiento a sus vecinas: así, progresivamente se transmite energía y no materia.

¿Qué es una onda?
Supongamos que un helicóptero se mantiene fijo por encima de una vasta extensión de agua perfectamente tranquila y que el piloto se divierte dejando caer uno a uno y a intervalos regulares, no demasiado próximos, adoquines en el agua. El primer adoquín provocará en la superficie del agua un pliegue circular que se dilatará al adquirir amplitud. Ese pliegue es una onda circular. (En realidad, se observará un grupo de algunos pliegues concéntricos más o menos importantes; nosotros hemos supuesto que se trataba de uno solo a los efectos de la claridad de la exposición.) La sucesión de adoquines provocará una sucesión de pliegues, de manera que un leño que estuviera a alguna distancia del punto de impacto comenzará a subir y a bajar al ritmo de la llegada de las ondas. El conjunto de esos pliegues formará lo que se llama un tren de ondas circulares. La distancia entre dos ondas sucesivas se llama longitud de onda y el número de ondas que pasan por un punto durante una unidad de tiempo se llama frecuencia. A menudo se representan la longitud de onda y la frecuencia con las letras griegas λ y ν (lambda y nu).
Si los intervalos entre los impactos de los adoquines son suficientemente cercanos para que una nueva onda llegue a un lugar cualquiera en el momento en que se aleja la onda anterior, el fenómeno estará bien representado por el dibujo siguiente.

006.jpg

Si consideramos ahora una fuente sonora “puntual”, es decir, extremadamente pequeña, comprobamos que ella emite un tren de ondas sonoras análogo con la diferencia de que esas ondas ya no son circulares en una superficie de dos dimensiones (la superficie del agua) sino que son esféricas en un volumen de tres dimensiones (el aire), lo cual hace que su representación sea más delicada. Por fin, en el caso de una fuente luminosa “puntual”, las ondas son igualmente esféricas pero aquí se presenta una dificultad adicional: mientras que las ondas en la superficie del agua corresponden a un movimiento de las moléculas de agua y mientras las ondas sonoras corresponden a un movimiento de las moléculas de aire, la luz no tiene un soporte material.
Esto fastidiaba mucho a los hombres de ciencia del siglo XIX que
terminaron por suponer, siguiendo al francés Augustin Fresnel, la existencia de un medio material muy tenue, el éter, que sería el soporte de las ondas luminosas. En 1905 la teoría de la relatividad de Albert Einstein determinó el abandono de la hipótesis del éter.

Partiendo de estas premisas, la física explicaba los fenómenos de interacción sobre la base de este doble esquema de corpúsculo y onda. Dos corpúsculos pueden obrar el uno sobre el otro, ya directamente (por impacto), ya indirectamente (por un campo). Concretamente, dos electrones pueden o bien entrar en colisión o bien pasar suficientemente cerca el uno del otro para que sus respectivas trayectorias sean desviadas por medio del campo electromagnético (dos cargas negativas se rechazan): ésta es por lo menos la imagen heredada de aquella física del siglo pasado. De la misma manera, un asteroide puede ser desviado por el campo gravitatorio de un planeta o bien estrellarse contra uno de sus semejantes.
Bien asentada sobre esta dicotomía, la física llamada “clásica” (por oposición a lo que habría de ser la física “cuántica”) funcionaba a satisfacción general salvo en lo tocante a algunos raros detalles.
Ahora bien, fue justamente uno de esos detalles el que hubo de provocar la primera resquebrajadura en el hermoso edificio de la física tradicional.

§. La catástrofe ultravioleta
Alrededor de la década de 1880 muchos físicos se interesan por la irradiación emitida por un cuerpo calentado. Comprueban que el color (es decir, la longitud de onda) de la irradiación varía con la temperatura: un trozo de hierro calentado es sucesivamente rojo oscuro, rojo anaranjado, amarillo, blanco a medida que se eleva su temperatura. ¿A qué corresponden esos colores? En realidad, lo que percibe nuestro ojo es la superposición de irradiaciones de diferentes longitudes de onda emitidas por el cuerpo calentado; el conjunto de esas irradiaciones constituye el “espectro” del cuerpo según la temperatura a que ha sido llevado. Si la potencia de una irradiación dada es netamente mayor que la de sus vecinas es esa irradiación la que percibimos con prioridad.
En el caso del hierro, por ejemplo, alrededor de los 600 ºC (grados de Celsius) domina el rojo; alrededor de los 2.000ºC el metal parece blanco porque todos los componentes de la luz visibles se suman. A bajas temperaturas se emite asimismo una irradiación, pero nuestro ojo no la percibe porque esa irradiación se sitúa en el infrarrojo. Más allá de los 2.000ºC la mayor parte de la irradiación también se nos escapa porque entonces se sitúa en el ultravioleta. Estas diferentes comprobaciones sirven de base a partir de 1893 a los trabajos de los físicos alemanes Friedrich Paschen y Wilhelm Wien, trabajos que culminan en la ley formulada por Wien en 1896: la longitud de onda de la luz cuya potencia en la irradiación emitida por un cuerpo negro es la mayor e inversamente proporcional a la temperatura. De modo que tenemos primero el infrarrojo, luego el rojo, etc. hasta el ultravioleta y aun más allá.
Completando esta ley, el físico inglés Lord John Rayleigh propone en junio de 1900 una segunda ley que determina la potencia irradiada en el caso de una temperatura y una longitud de onda dadas: “La potencia irradiada es proporcional a la temperatura absoluta e inversamente proporcional al cuadrado de la longitud de onda”. En otras palabras, la irradiación térmica es tanto más intensa cuanto más corta es la longitud de onda. En un primer momento la experiencia corrobora esta ley: en los casos de longitudes de onda que van desde el infrarrojo al verde los resultados corresponden a las previsiones. Pero luego la situación se echa a perder. En el caso del azul, el del violeta y más aún en el del ultravioleta, la fórmula de Rayleigh ya no se verifica: la experiencia está en contradicción flagrante con la teoría que lleva a valores demasiado grandes, casi infinitos, en las longitudes de onda muy pequeñas. El físico austríaco Pal Ehrenfest llamará a esta situación la “catástrofe ultravioleta”. La expresión es ciertamente exagerada pero significa con claridad que, por primera vez, uno de los artículos de fe de la física clásica, la teoría de la irradiación, es sorprendido en flagrante delito de error.
A fin de superar esta “catástrofe ultravioleta”, el físico alemán Max Planck enuncia en diciembre de 1900 una curiosa hipótesis: refiriéndose a las vibraciones que traducen el calor de un cuerpo, Max Planck postula que dichas vibraciones no se reparten según todos los valores posibles (suministrados por la ley ordinaria de frecuencia que rige el azar), sino que, por el contrario, obedecen a una ley determinada. Si E representa la energía de una vibración y f su frecuencia, existe cierta constante h de suerte que E/f es siempre h o dos veces h o tres veces h o algún otro múltiplo entero de h. No se produce vibración en otras cantidades de energía. Esta es una hipótesis propiamente revolucionaria pues por primera vez se introduce la idea de discontinuidad en el dominio de la irradiación, es decir, de las ondas. En lugar de considerar que los intercambios de energía entre el objeto calentado y la irradiación que éste emite se realizan de manera continua, como un líquido que se vertiera' de un recipiente a otro. Max Planck imagina que dichos intercambios se realizan de manera discontinua, por saltos, por trozos, como si en lugar de líquido el recipiente vertiera bolillas. Por lo demás, esas bolillas no son del mismo tamaño: a medida que se eleva la frecuencia (del infrarrojo al ultravioleta), dichas bolillas son cada vez mayores.
En suma, Planck formula el principio de que los intercambios de energía entre materia e irradiación se realizan por paquetes, por cantidades definidas (de ahí el nombre de quantum atribuido a cada uno de esos paquetes elementales y el plural quanta). Además cada cuanto contiene una energía proporcional a la frecuencia de la irradiación. Esta visión de las cosas tiene la ventaja de eludir la catástrofe ultravioleta pero al precio de pasar por alto las leyes más sagradas de la física tradicional. Es algo así como afirmar que un hombre sólo puede andar a zancadas de por lo menos veinte centímetros, que es incapaz de dar pasos más pequeños y que si da pasos mayores éstos son siempre un múltiplo de la zancada mínima (40 cm., 60 cm., 80 cm., etc.).
Por más que su valor sea muy débil (h = 6,62 × 10-34 julio-segundo), la constante de proporcionalidad inventada por Planck (y que desde entonces lleva su nombre) causará gran desazón entre los físicos... y ¡hasta en el propio Planck! Esta intrusión brutal de la discontinuidad en el hermoso encadenamiento de la física tradicional le parece a Planck, en el mejor de los casos, un “artificio de cálculo” y, en el peor de los casos, una herejía. Durante largos años Planck trata de modificar su teoría para conservar su resultado (la supresión de la catástrofe ultravioleta) pero eliminando los cuantos. Por fin Max Planck habrá de capitular y reconocer que “es absolutamente imposible, a pesar de los mayores esfuerzos realizados, hacer encajar (su) hipótesis en el marco de una teoría clásica cualquiera sea ésta”.

§. Interviene Einstein
Apenas el mundo científico comienza a asimilar esta “perniciosa” teoría cuando en 1905 vuelve a cobrar actualidad la cuestión de los cuantos. Aquel año un empleado de la oficina de patentes y títulos de Berna, un tal Albert Einstein, de veintiséis años, hace una comunicación sorprendente: demuestra que el efecto fotoeléctrico tampoco puede comprenderse si no se admite que la luz que lo produce está formada por cuantos discontinuos de energía.
El efecto fotoeléctrico, lo mismo que la catástrofe ultravioleta, formaban parte de esos “pequeños detalles oscuros” que los físicos de fines del siglo XIX esperaban explicar prontamente dentro del marco de las teorías clásicas de Newton y de Maxwell. Desde la experiencia histórica de Hertz (1887) se sabía que la luz ultravioleta tenía la propiedad de extraer corpúsculos cargados negativamente (es decir, electrones) de la superficie de una placa de metal. Ahora bien, si el número de los electrones extraídos era proporcional a la intensidad de la irradiación incidente, es decir, proporcional a la cantidad de luz suministrada, la velocidad a que se desprendían los electrones (dicho de otra manera, su energía cinética) no dependía absolutamente de aquélla. Dependía únicamente de la composición del espectro de la luz que iluminaba la placa: cuanto más corta era la longitud de la irradiación mayor era la energía cinética de los electrones extraídos. Además había una longitud de onda máxima por encima de la cual no se extraía ningún electrón. En realidad, había aquí un misterio que la física clásica no había llegado aún a explicar.
En su comunicación, Einstein retoma la hipótesis de Planck y la adapta a la luz. Einstein supone que una luz monocromática, es decir, una luz que sólo tiene una irradiación de frecuencia única f está formada de millones de corpúsculos portadores de un mismo cuanto de energía. Cuando uno de esos corpúsculos da contra la placa metálica, comunica su cuanto de energía a un electrón, el cual gasta una parte de esa energía para sustraerse a la atracción de su núcleo y transforma el resto en energía cinética, a saber, en velocidad. Siempre fiel a la doctrina de Planck, Einstein agrega que el cuanto de energía poseído por el corpúsculo de luz es tanto mayor cuanto más elevada es la frecuencia de la irradiación (o que su longitud de onda, inversamente proporcional a la frecuencia, es más corta).
Apelando a una metáfora, podría compararse el efecto fotoeléctrico con un juego que consistiera en lanzar pelotas de tenis a un blanco: cada vez que una pelota da en el blanco, éste pone en marcha un mecanismo que envía monedas en dirección del tirador, monedas que son proyectadas más o menos lejos según la fuerza con que la pelota da en el blanco. Las pelotas de tenis representan los corpúsculos de luz y las monedas los electrones. Cuantas más pelotas de tenis den en el blanco (traduzcamos: cuanto mayor sea la intensidad del flujo luminoso) más monedas (electrones) se recogen; pero si se lanzan las pelotas demasiado suavemente (bajas frecuencias) las monedas no van muy lejos o ni siquiera son proyectadas; en cambio, si las pelotas son arrojadas con vigor (altas frecuencias), las monedas pueden llegar hasta el tirador.
Pero volvamos a Einstein; éste llega a la conclusión de que la energía cinética de los electrones está dada por una fórmula muy simple:

E = h × f - W

fórmula en la cual h es una constante, f la frecuencia de la irradiación y W el gasto de energía que debe realizar el electrón para desprenderse del metal.
En 1915, el físico norteamericano Robert Millikan se propone verificar la validez de esta fórmula. Estudia experimentalmente la energía cinética de los electrones emitidos por un mismo metal iluminado por irradiaciones monocromáticas diferentes. ¡No sólo la hipótesis de Einstein es exacta sino que el valor numérico de la constante h es idéntico al valor de la constante de Planck!
De modo que hasta la luz tiene una estructura discontinua: está formada por granos de energía (que a partir de 1923 se llamarán “fotones”). Esta nueva ilustración de la teoría de los cuantos, lejos de apaciguar los ánimos, acrecienta la confusión. Desde Huygens, es decir, desde el siglo XVII, se conjeturaba que la luz era un fenómeno ondulatorio análogo al de las ondas que se propagan en la superficie del agua. Y precisamente gracias a esa teoría Fresnel había logrado explicar las interferencias y el hecho de que dos rayos luminosos puedan atravesarse sin deformarse. Pero ahora, para interpretar el efecto fotoeléctrico, se considera la luz como un flujo de corpúsculos. ¿Cómo explicar entonces, en términos de la física clásica, que corpúsculos puedan crear interferencias, cruzarse sin chocar o sin que sus trayectorias se desvíen? Se resolvió un problema, pero surge una cantidad de otros problemas.

§. El átomo de Bohr
Lo cierto es que el virus cuántico continúa produciendo estragos; se introduce en el corazón mismo del átomo ayudado en esto por un joven físico danés, Niels Bohr. Desde muchos años atrás se habían dejado de considerar los átomos como los últimos elementos constitutivos de la materia, como las parcelas más pequeñas que pudieran existir. En 1897, el físico inglés, Joseph John Thomson, había demostrado experimentalmente que era posible extraer de un átomo pequeños corpúsculos (“partículas”) cargados negativamente que dejaban tras sí una carga positiva. Entonces Thomson había imaginado el átomo como una esfera colmada de sustancia positiva y guarnecida de pequeñas “pepitas” negativas (los electrones), los cuales, de conformidad con las leyes de la electricidad, eran atraídos por la carga positiva mientras se rechazaban entre sí, lo cual aseguraba la cohesión del conjunto. Este modelo resultó muy útil hasta el día en que otro físico británico, Ernest Rutherford, lo cuestionó (véase el parágrafo siguiente).
En 1910, en el célebre laboratorio Cavendish de Cambridge, Rutherford tuvo la idea de proyectar partículas alfa (núcleos de átomos de helio) sobre una delgada hoja de oro a fin de explorar la consistencia de la materia. Según el modelo de Thomson, las pesadas partículas alfa, como balas que perforaran una nube de polvo deberían atravesar sin dificultad —y sin desviación significativa— las ligeras esferas de sustancia positiva cargadas de pepitas negativas. Pero no ocurrió nada de esto; por el contrario, algunas partículas se desviaron mucho y algunas fueron completamente reflectadas. Esas desviaciones sólo podían explicarse por colisiones con otros elementos de gran masa. Rutherford propuso pues otro modelo de átomo comparable al sistema solar, sólo que aquí la atracción eléctrica reemplazaba a la atracción gravitatoria. La masa y la carga positiva estaban concentradas en un núcleo central (análogo al sol) alrededor del cual gravitaban (como planetas) electrones de carga negativa.
Esta representación planetaria muy ingeniosa tenía así y todo un defecto: una carga eléctrica cuyo movimiento no es rectilíneo ni uniforme, sino que es “acelerado” (que es el caso de un movimiento circular, aún a velocidad constante) emite radiaciones y pierde energía; los electrones, por lo menos en teoría, estaban condenados a aplastarse sobre el núcleo al cabo de una cienmillonésima de segundo. Ahora bien, en la realidad no ocurría nada de esto.
Muy intrigado por esta anomalía, Niels Bohr, que visitaba en Cambridge el laboratorio de Rutherford, decidió reconsiderar la representación planetaria del físico inglés a fin de eliminar de ella el aspecto contradictorio. Y así introdujo a su vez la discontinuidad en el seno mismo del átomo. Bohr postula que el radio de la órbita circular no puede variar de manera continua, sino que por el contrario hay que atribuirle valores determinados en los que interviene la constante de Planck. Esto significa que los electrones que gravitan alrededor del núcleo sólo pueden hacerlo en órbitas bien precisas y particularmente que les es imposible descender por debajo de una órbita llamada “fundamental”. De manera que no corren el peligro de estrellarse contra el núcleo. Imaginemos una escalera: el electrón puede mantenerse en un peldaño o bien puede subir al peldaño superior si se le suministra la energía necesaria (en la forma de un fotón) o bien puede descender al peldaño inferior liberando energía (en la forma de un fotón); pero en ningún caso puede permanecer entre dos peldaños. En este modelo cada peldaño está marcado por un número característico de la relación entre el radio orbital y la velocidad del electrón.
Al principio, una simple construcción del espíritu sin justificación aparente, la teoría de Bohr tendrá posteriormente un éxito extraordinario. Entre otras cosas permitirá explicar las líneas del espectro (radiaciones luminosas de frecuencias bien precisas) emitidas por diferentes cuerpos químicos: cuándo un electrón situado en una órbita elevada desciende a una órbita inferior, emite un fotón; la emisión de una línea coloreada de frecuencia f corresponde pues a saltos de electrones desde la órbita exterior hacia una órbita más interna. Estos saltos se llaman “saltos cuánticos”.
Al correr de los años, el átomo de Bohr adquirirá consistencia y un aparato formal importante. Otros números habrán de caracterizar la órbita de un electrón; uno habrá de describir la ligazón más o menos fuerte del corpúsculo con el núcleo, otros los aspectos magnéticos, un tercero habría de describir el “espín”. ¿Qué es el espín? Siempre con referencia al modelo planetario, resultaba tentador llevar más lejos la analogía y suponer que, puesto que la tierra gira no sólo alrededor del sol sino también en tomo de sí misma, el electrón debía sin duda hacer lo propio. Eso es lo que sugirieron en 1925 los holandeses George Uhlenbeck y Samuel Goudsmit: esta nueva propiedad del electrón fue bautizada como el “espín” (del inglés to spin = dar vueltas). Sin embargo, esta imagen del electrón que gira sobre sí mismo como un trompo fue abandonada bastante rápidamente y el espín fue considerado como una propiedad “cuántica” que sólo tenía una relación muy abstracta con la noción de rotación. Por lo demás, hubo de advertirse que todas las “partículas” poseían un espín y que esta propiedad era mensurable, lo mismo que la masa o la carga eléctrica (el espín no puede ser sino un múltiplo entero o semientero de la constante de Planck dividida por 2π).
Por ingenioso que fuera el modelo atómico propuesto por Bohr, siempre subsistía en él un desequilibrio nacido de la mezcla de física clásica y de física cuántica. Los electrones obedecen a las leyes de Newton mientras están en sus órbitas y a las leyes de Planck y de Einstein cuando saltan de una órbita a otra. ¿Cómo explicar esta dualidad? ¿Cómo conciliar estos hechos inconciliables?

§. La idea de Louis de Broglie
En 1923 el francés Louis de Broglie tiene una idea genial: puesto que en el caso de los fotones las ondas pueden considerarse como corpúsculos, ¿por qué, se dice de Broglie, no sería válido lo inverso? Propone entonces que se asocie a todo corpúsculo material (a toda “partícula”) una onda de longitud de onda λ = h/p (h es la constante de Planck y p la cantidad de movimiento del corpúsculo, es decir, el producto de su masa por su velocidad). La idea es tan audaz para la época que con la excepción de Einstein los pocos físicos que reparan en ella la consideran perfectamente descabellada; algunos hombres de ciencia extranjeros hasta hablan burlonamente de la “comedia francesa”. ¡El futuro habrá de desmentirlos rotundamente!
Al explicar su tesis, de Broglie precisa que en realidad la onda asociada al corpúsculo no es una onda monocromática (que tuviera una extensión ilimitada en el espacio) sino que se trata de un grupo de ondas, un paquete de ondas, cuyo máximo de amplitud se desplaza con la velocidad de corpúsculo. En otras palabras, así como un sonido, por ejemplo, resulta de la superposición de un conjunto de ondas (la onda fundamental y las armónicas), la onda de de Broglie debe considerase como un conjunto de longitudes de onda que abarcan λ = h/p y que van de un mínimo λmin a un máximo λmáx . Ahora bien, ocurre que cuando un gran número de ondas superpuestas se desplaza a velocidades ligeramente diferentes, casi en todas partes la depresión de una compensa la cresta de la otra, de suerte que las ondas se anulan, salvo en un lugar en el que las crestas al agregarse las unas a las otras forman un enorme abultamiento semejante a una ola gigantesca que avanza por la superficie tranquila del océano. Es precisamente ese abultamiento lo que, según los cálculos de Louis de Broglie, se desplaza a la velocidad de la partícula.
Esta audaz teoría no deja de interesar a Einstein, pero, ¿cómo probar que ella no es tan sólo una hábil construcción del espíritu? La confirmación experimental, contundente, se producirá en 1927 por casualidad. Aquel año dos jóvenes investigadores norteamericanos, Clinton Davisson y Lester Germer, observan fortuitamente que un haz de electrones reflejado por la superficie de un cristal de níquel da sobre una placa fotográfica manchas de difracción (interferencias) análogas a las que había encontrado en 1912 el físico alemán Max von Laue en el caso de los rayos X. Si electrones pueden determinar interferencias, ello quiere decir que también se comportan como ondas. De manera que Louis de Broglie no se había equivocado.
Esta confirmación del aspecto ondulatorio de una partícula que no es el fotón representa un paso decisivo en el camino hacia la unidad de la física. También en el plano práctico, la “mecánica ondulatoria” de Louis de Broglie tendrá desarrollos interesantes: la difracción de los electrones se utilizará juntamente con la de los rayos X en los estudios sobre la construcción de las moléculas. Una de sus más bellas aplicaciones es el microscopio electrónico.
Pero entonces, se preguntará el lector, si la hipótesis de Louis de Broglie es exacta, si toda partícula, si todo cuerpo material está asociado a una onda, ¿cómo la física clásica pudo durante tantos siglos prescindir de esta noción? ¿Cómo los físicos, los químicos, los astrónomos pudieron enunciar leyes aparentemente exactas? La respuesta es sencilla: la longitud de onda asociada a objetos macroscópicos (los que se ven a simple vista, por oposición a los objetos microscópicos) es por fuerza ínfima, puesto que en la formula λ = h/p, p es extremadamente grande, de manera que el aspecto ondulatorio de su movimiento es indiscernible. Por eso, la física clásica es siempre un excelente enfoque en el estudio de los movimientos en nuestra escala; las únicas excepciones son los supraconductores y los superfluidos de que nos ocuparemos más adelante.
Pero volvamos a la onda de Louis de Broglie. Así como leyes ópticas de Descartes (reflexión, refracción) debieron ser reemplazadas por nuevas ecuaciones —las de Fresnel— cuando la teoría ondulatoria de la luz prevaleció sobre la teoría geométrica, de la misma manera ahora había que encontrar la expresión matemática precisa de la onda asociada a toda partícula, expresión que debía dar cuenta de los efectos de difracción y de interferencia. Dos nombres están relacionados con este trabajo de ajuste de la física cuántica: el de Erwin Schrödinger y el de Werner Heisenberg. Los dos propusieron instrumentos matemáticos que permitieron construir el edificio de la física cuántica. Por más que las diferencias de formulación hayan ocultado por algún tiempo la evidencia, había nacido una teoría única y prodigiosa.

El átomo desde la Edad de Oro a la Era Cuántica
En el siglo VI a. de C., Tales y algunos filósofos griegos fundan la primera escuela científica en Mileto, en Asia Menor. Allí se plantearon sin duda las primeras cuestiones sobre la naturaleza de la materia. Posteriormente Demócrito y Epicuro concibieron los “átomos ganchudos” para explicar la cohesión de la materia (fig. 1). 007.jpgLa física permaneció adormecida hasta el siglo XVII. En 1696, Nicolaas Hartsoeker propuso diferentes formas de átomos según la materia considerada (véase por ejemplo en la fig. 2, una representación de un átomo de cloruro de mercurio). Poco después, Hooke y Newton construyeron modelos de fuerzas interatómicas; “algo” debía de ligar esos átomos... pero sólo el modelo de Newton resultaba atrayente.008.jpgHubo que esperar hasta 1758 para que un jesuita yugoslavo, Roger Boscovich, lanzara la idea de fuerzas repulsivas a corta distancia, idea tan intuitiva que ciento cincuenta años después Lord Kelvin se declaró discípulo de Boscovich.
A comienzos del siglo XIX la química triunfa. Provisto de un catálogo de 36 clases de átomos, Dalton esbozó la primera teoría molecular. Llega el fin del siglo y Thomson descubre los electrones (fig. 3).
El átomo ya no es pues indivisible, ya no se lo considera como el elemento más pequeño constitutivo de la materia, sino que por el contrario se lo considera constituido él mismo por elementos más pequeños: los electrones y “una sustancia positiva”. Algunos años después, Bohr, siguiendo a Rutherford, introduce la idea de un electrón que gira en una órbita circular alrededor de un núcleo central que concentra toda la masa atómica (fig. 4).

010.jpg

Este modelo perfeccionado por Sommerfeld (fig. 5) resistió un decenio hasta que Louis de Broglie asoció a las órbitas de Bohr a ondas de materia; el electrón ya no se representó como una bolita que gira en una órbita, sino que se lo representó como una vibración (fig. 6).

011.jpg

La teoría del átomo cambió radicalmente: ¡El electrón podía considerarse, pues, como una onda! Por fin, Heisenberg, Schrödinger y Dirac afinaron las nociones clásicas (fig. 7).

012.jpg

Ahora ya no hay ni onda ni partícula. Se concibe el átomo como un núcleo rodeado de una nube electrónica (que equivale al electrón “clásico”). No se sabe dónde se encuentra ese electrón ni cuál es la naturaleza de su posible trayectoria. Sólo se sabe que la probabilidad de encontrarlo a cierta distancia del centro es proporcional a la densidad de la nube. En la figura 7, la probabilidad máxima es pues la de que el electrón se encuentre en la zona punteada alrededor del núcleo.
El átomo recorrió desde la antigüedad un largo camino en el que fue perdiendo poco a poco toda correspondencia con una imagen cualquiera para convertirse en una entidad matemática.

Capítulo 3
Lo esencial de la teoría

En 1926 Erwin Schrödinger, físico austríaco, enuncia la ecuación de onda que rige el comportamiento de las partículas materiales. Aplicada a las ondas de Louis de Broglie, esta ecuación permite no sólo describir el comportamiento de un electrón, sino sobre todo reconstituir rigurosamente el espectro de cada átomo, es decir, el conjunto de las irradiaciones luminosas que el átomo emite en frecuencias bien precisas. En adelante, los electrones se consideran como vibraciones eléctricas distribuidas alrededor del núcleo; partiendo de la combinación de esas vibraciones se pueden prever, mediante el cálculo, las emisiones de luz posible y hasta se pueden determinar las intensidades de las líneas del espectro, cosa que en vano había tratado de lograr la antigua teoría de Bohr.
El éxito de la ecuación de Schrödinger (aun en nuestros días se la conoce con ese nombre y se la utiliza ampliamente) hace renacer las esperanzas de los físicos: ¡por fin podrán tratar los fenómenos atómicos mediante procedimientos clásicos! ¡Es una buena ecuación! ¡Aquí hay algo sólido! El antagonismo onda-corpúsculo parece definitivamente zanjado en favor de la onda. En realidad, las partículas sólo serían ondas agrupadas en “paquetes” que parecen puntuales en nuestra escala.
Muy diferente es el trabajo de Werner Heisenberg. En 1925, este joven físico alemán de 26 años da la primera formulación matemática coherente de la física cuántica. Para él, es inútil tratar de representarse el átomo mediante un sistema planetario dé núcleos y órbitas o mediante cualquier otra imagen material. Puesto que del átomo sólo se conocen las frecuencias y las intensidades de la luz que emiten, hay que partir de estos hechos. Por razones de comodidad Heisenberg decide utilizar matrices, es decir, tablas de números, de manera que cada átomo se convierte entonces pura y simplemente en una tabla de números.
Todo el mundo utilizó alguna vez una matriz. Se trata de una tabla cuadrada o rectangular con cierto número de casillas, cada una de las cuales tiene una cifra. El ejemplo más común es la tabla de multiplicar de. los nueve primeros números enteros: se presenta en la forma de un cuadrado con diez líneas de alto con el cero y diez columnas a lo ancho; en la intersección de las líneas y de las columnas se encuentra el resultado de la multiplicación. Otro ejemplo de matriz es el de las tablas de distancias entre ciudades, que conocen bien todos los automovilistas. Utilizadas por fin de otras maneras las matrices sirven de instrumentos matemáticos: es el “cálculo de las matrices”. Heisenberg transcribe la frecuencia y las intensidades de la luz emitida por el átomo en esas matrices para matemáticos. Sus tablas permiten, por ejemplo, calcular los diferentes niveles de energía de un átomo (Bohr habría dicho: los saltos de electrones de una órbita a cualquier otra órbita). En suma, la teoría de las matrices sustituye los elementos físicos pero puramente hipotéticos del átomo de Bohr por un grupo de cantidades que representa lo único que se conoce realmente, es decir, la irradiación proveniente de la región en la que se supone que se encuentra el átomo. El sentido de la abstracción de Heisenberg es tan agudo que se ha llegado a llamar a su teoría “mecánica de las matrices”.
Pero por abstracta que sea esta “mecánica de las matrices” no deja de tener una cualidad enorme: se ajusta perfectamente bien a los resultados experimentales a pesar de su aspecto extraño y que no deja de asombrar al profano. Mientras en la física clásica la multiplicación de dos cantidades (como la velocidad y la posición) es conmutativa, es decir, que el resultado no depende del orden de los factores (3 × 2 = 2 × 3), en la teoría de Heisenberg el producto de una matriz correspondiente a las velocidades por una matriz correspondiente a las posiciones no da el mismo resultado que el producto inverso: A × B ≠ B × A. Para comprender esta propiedad del cálculo de las matrices hay que considerar las matrices como operadores que se hacen obrar sucesivamente sobre una cantidad dada. Ejemplo: 10 multiplicado por 2 más 5 (= 25) no da el mismo resultado que 10 más 5 multiplicado por 2 (= 30).

§. Principio de indeterminación
Todo físico tradicional habría quedado desconcertado por esta extravagancia y habría revisado su teoría, pero Heisenberg encuentra en cambio aquí el fundamento de su “principio de incertidumbre”. Enunciado en 1927, este principio estipula que es imposible en microfísica atribuir a una partícula en un instante dado una posición y una velocidad determinadas: cuanto más definida está la posición menos se conoce la velocidad, y viceversa. Hagamos notar que en nuestros días se prefiere hablar de “principio de indeterminación”; en efecto, esta imprecisión se debe más a la naturaleza misma de las partículas que a la imperfección de nuestros métodos de medición. Por eso, como lo propuso Mario Bunge en 1967, es mejor hablar de “cuantones” que de partículas, pues el término partículas tiene para el público en general el mismo sentido que corpúsculo o que “punto material”.
Este principio de indeterminación está en total contradicción con la física clásica. Imaginemos, por ejemplo, que tomamos una bolita muy pequeña (la esferilla de 0,3 mm3 en que termina un bolígrafo puede representar aproximadamente el tradicional “punto material” de la mecánica clásica) y supongamos que lanzamos esa bolilla hacia un objetivo situado bastante alto pero demasiado lejos para que la bolilla pueda alcanzarlo: al principio la bolilla se elevará al alejarse hacia adelante y luego caerá por acción de la pesantez. Si conocemos la posición y la velocidad de la bolilla inmediatamente después de haberla lanzado, así como las fuerzas exteriores que obran sobre ella (la pesantez en este caso), las ecuaciones de la mecánica clásica permiten calcular con extrema precisión la trayectoria que ha de seguir la bolilla, es decir, su posición y su velocidad en cada instante.
Ahora bien, esa bolilla está compuesta de 2.000 millones de millones de partículas (protones, neutrones, electrones). Para el físico clásico cada uno de esos cuantones (cada una de esas partículas), que representa idealmente un “punto material” obedece, lo mismo que la bolilla, a las leyes de Newton. En realidad no es así. Si uno lograra lanzar un cuanton (en el vacío a fin de que no sea absorbido) con la misma velocidad y en la misma dirección de la bolilla, el cuanton mostraría una molesta tendencia a desplazarse cada vez más al correr el tiempo, una tendencia a perder la localización precisa que le atribuye a cada instante la mecánica clásica.
En efecto, un cuanton obedece no a las reglas de la física clásica, sino a las de la física cuántica.
La consecuencia más evidente del principio de incertidumbre (o de indeterminación) de Heisenberg es el hecho de que debemos renunciar a todo intento de recrear nuestro universo visible en el universo invisible de los átomos. En los comienzos de la física cuántica se tenía la costumbre de decir que en el dominio de lo infinitamente pequeño el físico se encuentra más o menos en la situación de un hombre que quisiera estudiar una desconocida ave nocturna. Para hacerlo tiene dos posibilidades: o bien proyecta una luz sobre el pájaro y entonces puede describir perfectamente su morfología, pero no podrá describir su comportamiento pues el pájaro, deslumbrado, permanecerá inmóvil; o bien no se vale de la luz y entonces puede observar en la semipenumbra el comportamiento del animal, pero no su morfología. Al fin de cuentas, la mejor manera de proceder será tal vez adoptar un sistema intermedio: iluminar débilmente el ave esperando que su comportamiento no se vea demasiado perturbado. En la escala atómica el problema parece idéntico: si uno quiere observar un corpúsculo hay que lanzar luz (fotones) sobre él. El corpúsculo sufrirá entonces un choque que modificará su comportamiento. En efecto, toda operación de medición de un sistema microfísico provoca automáticamente una alteración de ese sistema.
Al principio, Heisenberg había interpretado en ese sentido sus relaciones de incertidumbre, pero éstas tienen una causa más general. Actualmente los físicos explican esas relaciones por el hecho de que las partículas (cuantones) tienen propiedades análogas a la velocidad y a la posición, sólo que son propiedades más vagas, que adquieren consistencia únicamente en el momento de una medición. Si se realiza la misma medición en un gran número de cuantones que se encuentran en un estado idéntico se comprobarán resultados variables en el interior de cierta playa. Las relaciones (de incertidumbre o de indeterminación) de Heisenberg traducen la amplitud de las playas en cuestión.

§. Los pilares de la física cuántica
Ecuación de onda de Schrödinger, por un lado, mecánica de las matrices y principio de Heisenberg, por otro, representan dos teorías que compiten entre sí. Sus respectivos autores no se estiman en modo alguno. “Cuanto más considero la parte física de la teoría de Schrödinger más repugnante me parece”, proclama Heisenberg. “La lectura de los escritos de Heisenberg me ha repelido si no ya asqueado”; afirma por su lado Schrödinger. Los teóricos raramente son suaves entre sí, salvo cuando sus doctrinas se prestan mutuo apoyo... Por fin, un físico inglés, Paul Dirac, habrá de reconciliar a los dos adversarios al unificar sus teorías.
Así, alrededor de 1927, puede afirmarse que el edificio de la física cuántica está terminado en cuanto a lo esencial. Fue necesario que transcurriera un buen cuarto de siglo para conseguirlo: desde la noción de cuanto introducida por Planck, hasta la síntesis formal de Dirac. Pero ahora es un edificio sólido y útil que da cuenta de un gran número de fenómenos que hasta entonces eran misteriosos.

Los pilares sobre los que descansa esta nueva física son: las matrices y el principio de incertidumbre de Heisenberg, la onda de de Broglie y la de Schrödinger, el principio de correspondencia y el principio de complementariedad de Bohr.


§. El desacuerdo de Bohr y Einstein
Pero fundar una física que funcione es una cosa y explicar el mundo que se oculta detrás de sus leyes es otra. El problema de una realidad objetiva que existe o no fuera de la observación habrá de crear un profundo desacuerdo entre Bohr y Einstein. Para Bohr, que se atiene a los principios de la física cuántica, el electrón tiene una posición o una velocidad sólo en el momento en que es observado. Poco importa que, entre dos observaciones, el electrón haga diez cabriolas, quince loopings y treinta cambios de dirección. En realidad, esto equivale a afirmar que el concepto de trayectoria ya no tiene sentido o, por lo menos, que ya no es necesario en la física cuántica.
En cambio Einstein se niega a abandonar la idea de una realidad física que existe independientemente de toda observación. En 1926, en una carta al físico alemán Max Born, Einstein decía:
“La mecánica cuántica violenta el respeto. Pero una voz interior me dice que todavía no es el nec plus ultra. La teoría nos aporta muchas cosas, pero no nos acerca al secreto del Viejo (Dios). De todas maneras estoy convencido de que por lo menos El no juega a los dados”. Detrás de la humorada se percibe el desengaño de quien fue sin embargo uno de los pioneros de la teoría cuántica. Pero esta teoría tomó una orientación que a Einstein le choca: no puede aceptar, por ejemplo, que los físicos deban contentarse con probabilidades ni que la noción de realidad exterior sea declarada sin interés.”

El desacuerdo entre Bohr y Einstein se hace evidente en la quinta conferencia del Instituto Solvay, celebrada en Bruselas en octubre de 1927 que reúne a la flor y nata de los físicos de la época: Bohr, Heisenberg, Einstein, Dirac, Born... Cada cual expone su punto de vista sobre la teoría de los cuantos y así se perfilan dos corrientes que habrán de precisarse con el correr de los años.
Para Einstein y más aún para sus partidarios el aspecto impreciso e indeterminado de la física cuántica no puede satisfacer a un científico y muestra que debe de haber algo por debajo de ese aspecto: sería menester volver a encontrar bolitas u ondas, en fin, algo que podamos representarnos. Si todavía no se las puede ver, ello se debe a que nuestros medios de observación son insuficientes. Se trata de las “variables ocultas”, que habremos de considerar luego en este libro. Pero digamos enseguida que, por lo menos en la forma que se las concebía en aquella época, esas “variables ocultas” no existen; así quedó de manifiesto por el resultado de la experiencia de Aspect.
Para la corriente ortodoxa (Bohr, Heisenberg), denominada también Escuela de Copenhague y adoptada por la mayor parte de los físicos actuales, la física cuántica satisface el principal criterio de una teoría, puesto que permite prever los resultados de las experiencias (por lo menos en términos de probabilidades). Es pues un instrumento de trabajo adecuado. Por otra parte, como toda teoría, la física cuántica' propone una formulación coherente de la “realidad”: un electrón (o el estado de todo sistema de cuan- tones) puede describirse matemáticamente por una función de onda. Esta designación abarca una especie de ficha de señales y comportamientos del electrón. Tratemos de ilustrarlo con un ejemplo concreto. Imaginemos que un hombre, al regresar a su casa a las once de la mañana, se entera de que su mujer ha salido alrededor de las diez y se ha llevado consigo el automóvil. Como el hombre no sabe dónde podrá encontrarla se propone calcular dónde se encontrará su mujer con los medios de que dispone. Toma un mapa y comienza por delimitar una zona más allá de la cual su mujer no ha tenido materialmente tiempo de ir: en una hora, teniendo en cuenta la densidad del tránsito y la potencia de la máquina, no puede haber ido más allá de un círculo con una radio de sesenta kilómetros alrededor de la ciudad. Una vez definida esa zona, el hombre atribuye a cada punto situado en el interior de ella (piscina, tienda, campo de deportes, casa de amigos) una tasa de probabilidad de presencia de su mujer, tasa mayor o menor según el lugar, la meteorología del día, los gustos y las preocupaciones de su consorte, etcétera.

§. El contenido de la función de onda
De la misma manera, la función de onda describe al electrón como si estuviera situado en una zona del espacio (por ejemplo, alrededor de un núcleo atómico) y nos hace conocer exactamente las diferentes probabilidades de su presencia en este o aquel lugar de la zona. Existe sin embargo una diferencia importante entre el comportamiento del electrón y el ejemplo que acabamos de dar para ilustrarlo. Si, en el ejemplo de ese matrimonio, el marido puede vacilar entre la piscina y la visita a un monumento, por lo menos está seguro de que su mujer no puede encontrarse en los dos lugares de la zona considerada con sólo tasas de probabilidad diferentes.
Por más que ninguna descripción clásica pueda explicarla, esta noción es capital en física cuántica. Para determinarla aun mejor permítasenos recurrir a las imágenes expuestas al comienzo del libro. En una charca barrosa y opaca se mueve un gran pez que se desplaza en todas las direcciones pero que permanece constantemente invisible. Desde la orilla de la charca, un pescador sólo percibe en la superficie unas olitas cuya altura y dirección le informan en todo momento sobre el trayecto probable del pez. Sin embargo, mientras éste no haya sido pescado, el hombre se ve obligado a considerar que el pez se encuentra en todas parte a la vez, con probabilidades mayores o menores según el momento y el lugar. En cambio, desde el momento en que el pez muerde la carnada, todas esas posibles posiciones quedarán reducidas a una sola.
Esto es lo que en física cuántica se llama la “reducción del paquete de ondas”, pero cuidado: antes de morder el anzuelo, un pez “cuántico” ocupará toda la charca y habrá lugares de ella' en que el pez estará más concentrado y otros en que estará más diluido.
Claro está, la probabilidad de encontrar el pez en un determinado lugar de la charca es proporcional a la concentración del animal en ese lugar. Pero la función de onda no contiene sólo esta información contracción/probabilidad de presencia. Contiene asimismo otra información que podría llamarse pulsación/energía. Para representársela puede uno imaginar que la sangre de nuestro “pez soluble” realiza un recorrido completo por su aparato circulatorio en un cierto intervalo de tiempo, que luego comienza un nuevo circuito y así sucesivamente. Hay otra manera de ver las cosas: puede uno suponer que en ese intervalo de tiempo el pez cambia de color continuamente y que pasa del rojo al anaranjado, .luego al amarillo, luego al verde, al azul y al violeta antes de reasumir el color rojo. Esos intervalos de tiempo que caracterizan la energía de los cuantones son extremadamente pequeños. Por ejemplo, en el caso del electrón del átomo de hidrógeno en su estado fundamental hay 7 x 1015 intervalos de tiempo por segundo.
Consideremos con un poco más de detalles el caso del electrón del átomo de hidrógeno. Se puede imaginar como que el electrón se encontrara en una charca esférica cuyo centro estaría ocupado por un protón (“núcleo” del átomo de hidrógeno) 1.836 veces más pesado que él. El átomo puede tener varios niveles de energía; el más bajo corresponde al estado fundamental aquí mencionado, los otros corresponden a estados llamados “excitados”. En el estado fundamental, el electrón está concentrado alrededor del protón, es decir, que ocupa esencialmente la región central de la charca. Si el nivel de energía aumenta, el electrón se “diluirá” para ocupar una zona más amplia y al mismo tiempo su pulsación se hará más lenta, es decir, disminuirá su energía “cinética” (la energía cinética de un cuerpo en movimiento es proporcional a su masa y al cuadrado de su velocidad; aquí hay que poner entre comillas la palabra cinética pues el electrón no es una bolilla que gira alrededor del protón); sin embargo, la energía total del átomo (energía cinética más energía potencial) habrá aumentado.
El hecho de que la función de onda contenga dos informaciones se debe a que dicha función es en realidad una combinación de dos funciones diferentes, una función doble en cierto modo (los matemáticos hablan de una función compleja).
Dejemos de lado por ahora este aspecto energético y consideremos la “probabilidad de presencia” en la función de onda. Para ser completamente honestos y porque la física cuántica desafía toda ilustración concreta debemos precisar lo siguiente: si, para Bohr y los adeptos de la doctrina ortodoxa, no es posible determinar con exactitud la trayectoria recorrida por un cuanton entre dos instantes sucesivos (así como el pescador no puede prever la trayectoria del pez), esa trayectoria está sin embargo matemáticamente definida por la función de onda. La evolución de esa función describe sin equívoco alguno la evolución en el tiempo y en el espacio del paquete de ondas. ¿Hay entonces contradicción? En modo alguno, con la condición de aceptar el concepto de imprecisión en la precisión: cuando la física cuántica se interesa por el estado futuro de una partícula (de un cuanton), sólo puede prever probabilidad de hallar esa partícula en un cierto volumen espacial, pero ese volumen mismo está perfectamente circunscrito. Para decirlo de una manera más general, conservando esta noción de imprecisión en la precisión, puede afirmarse que la teoría cuántica es capaz, gracias a la función de onda, de prever en todo momento la evolución de un sistema microfísico, pero que, a partir del momento en que uno quiere verificar experimentalmente esta evolución, introduce una perturbación en el sistema, que modifica entonces su evolución.

§. La reducción del paquete de ondas
Precisemos bien este último punto: entre dos observaciones, la función de onda que describe el cuanton obedece rigurosamente a la ecuación de Schrödinger. Pero en el momento de la observación esa ecuación deja bruscamente de ser válida y la función de onda se reduce a una de las posibilidades que ella describe. Una vez hecha la observación, la función de onda evoluciona a partir de ese “estado reducido” y obedece de nuevo a la ecuación de Schrödinger, lo cual en general hace que aparezcan nuevas posibilidades y esto ocurre hasta la siguiente observación del cuanton.
Terminemos este capítulo con un ejemplo particularmente espectacular. Un átomo errante en el vacío interestelar se desexcita y emite un fotón. Ese fotón está representado cuánticamente por una onda esférica surgida del átomo, se desarrolla a la velocidad de la luz y puede ocupar una considerable superficie en el espacio. Si por ejemplo el átomo se encuentra a un año luz de la tierra, la superficie en cuestión, cuando la onda llegue a la tierra, será de alrededor de 1027 kilómetros cuadrados. Supongamos que en la tierra un observador haya instalado una célula fotoeléctrica que por casualidad detecta ese fotón y produce una señal que puede registrarse. Entonces la onda desaparece instantáneamente y ya ningún otro observador podrá detectar el fotón.

013.jpg

Esta “reducción del paquete de ondas” se realiza instantáneamente y sin traspaso de energía; no hay que considerar la onda esférica como una distribución uniforme de la energía del fotón sino que hay que ver en ella una “onda de probabilidad” mucho más abstracta (véase' el recuadro siguiente sobre la experiencia de las ranuras de Young). Pero justo antes de la detección, si cada centímetro cuadrado de la gigantesca superficie a que acabamos de aludir estuviera equipado con una célula fotoeléctrica, cada célula tendría la misma probabilidad (muy débil) de detectar el fotón. Esta situación descrita actualmente en gran número de libros de física cuántica y en el excelente curso desarrollado por Eyvind Wichmann en la Universidad de California, chocaba profundamente a ciertos físicos “einsteinianos” que sostenían que el fenómeno sólo era válido estadísticamente, es decir, que un gran número de fotones surgidos del mismo lugar se distribuían al azar sobre la superficie, pero que antes de ser mensurado, cada fotón estaría bien localizado. Según esta “interpretación estadística” existiría en el caso de cada fotón individual una descripción individual que permitiría asignarle una posición en todo momento, descripción más completa pues que la suministrada por la función de onda. Como ya lo señalamos, la mayor parte de los partidarios de esta interpretación estadística designaron muy lógicamente con la expresión “variables ocultas” los parámetros suplementarios que permitirían esta descripción más completa. Por ejemplo, en el caso que estamos considerando, la variable oculta sería la dirección tomada por el fotón en el instante de su emisión.
Como veremos en el capítulo siguiente la experiencia de Aspect refutó esta hipótesis de las variables ocultas, por lo menos en su forma simple aquí evocada; subsisten sólo “teorías de variables ocultas no locales” que son tan insólitas como la física cuántica misma.

La experiencia de las ranuras de Young
Un hombre con los ojos vendados dispara con una carabina contra un muro de piedra en el que se han practicado dos aberturas verticales idénticas, muy estrechas y bastante próxima la una de la otra; el hombre está a igual distancia de esas dos aberturas. Detrás de esa primera pared y paralelamente a ella hay un segundo muro de madera lisa que absorbe las balas que pasaron a través del primer muro y sobre el cual se ven netamente los impactos sucesivos. La mayor parte de las balas queda detenida por el primer muro, otras pasan por la primera abertura directamente o rebotan contra uno de sus bordes, otras por fin hacen lo mismo con la segunda abertura. La acumulación de los impactos en la segunda pared, al cabo, por ejemplo, de un millón de tiros sucesivos, permite trazar una curva que da el número de impactos por unidad de superficie (por metro cuadrado, por ejemplo):
Se reemplaza el segundo muro por uno nuevo de madera y se cierra la primera abertura. El hombre dispara otra vez un millón de veces. Luego se abre esta primera abertura, se cierra la segunda y el tirador efectúa otro millón de disparos.

014.jpg

Por fin, vuelve a encontrarse la misma curva que en la experiencia primera; esa curva es la suma de la curva que se obtiene con la primera abertura cerrada y de la curva que se obtiene cerrando únicamente la segunda. Dicho de otra manera, la probabilidad de que una bala llegue a un punto dado del segundo muro, cuando las dos aberturas están en función, es la suma de las probabilidades de que esto sea así cuando una o la otra de las dos aberturas está cerrada, lo cual se puede resumir con la fórmula P = P1 + P2.
Consideremos ahora la célebre experiencia realizada por primera vez en 1903 por el médico y físico inglés Thomas Young. El hombre que dispara con la carabina está reemplazado por una fuente luminosa monocromática, es decir, que emite luz de una longitud de onda fija y precisa. En lugar del primer muro (y mucho más cerca de la fuente luminosa) se utiliza una pantalla perforada por dos ranuras verticales en tanto que una placa fotográfica hace las veces de la segunda pared (Young se había valido de una pantalla simple). Si se hace actuar la fuente durante un tiempo suficiente para impresionar la placa pero lo bastante breve para no sobreexponerla, se observará sobre esa placa una alternancia de bandas verticales más o menos claras o más o menos oscuras que permiten trazar una curva que representa la intensidad de la luz llegada a la placa: éste es el fenómeno de las interferencias.
Pero si ahora se reemplaza la placa fotográfica por otra y luego “se obtura alternativamente la ranura nº 1 y la ranura nº 2, se obtienen dos curvas cuya suma en modo alguno vuelve a dar la curva inicial.

015.jpg

Para pasar de ambas curvas correspondientes a la abertura de una sola ranura a la curva global correspondiente a la abertura de las dos ranuras hay que aplicar una fórmula matemática más complicada que una simple suma: la intensidad global es la suma de las intensidades parciales, aumentada en un término que oscila entre más de dos veces y menos de dos veces la raíz cuadrada del producto de esas intensidades. Lo que conduce a este resultado es el carácter ondulatorio de la luz.
Pero se sabe también que la luz está compuesta de fotones, los cuales se representan a menudo como corpúsculos. Las posibles colisiones o interacciones entre los millones de fotones que componen la luz ¿son responsables de este fenómeno de interferencias? Para saberlo basta con reducir suficientemente la intensidad de la fuente luminosa a fin de que ésta emita los fotones uno por uno. Se comprueba entonces que los fotones producen cada uno un impacto casi puntual bien localizado en la placa fotográfica: quiere decir pues que son corpúsculos. ¡Pero si las dos ranuras permanecen abiertas, la acumulación de los impactos al cabo de un tiempo prolongado reproducirá la figura de interferencias!

016.jpg

Dicho de otra manera, un fotón no se comporta de la misma manera cuando una sola ranura está abierta o cuando lo están las dos, lo cual es incompatible con la idea de un corpúsculo que pasa por una sola ranura a la vez. Hay que admitir que el corpúsculo puede pasar por las dos ranuras a la vez y decir con Dirac que: “Un fotón sólo interfiere consigo mismo”.
Se hizo la misma experiencia con electrones y aquí se obtienen los mismos resultados y en modo alguno los que se obtienen con las balas de fusil. El electrón no es de ninguna manera esa bolilla que nos complacemos en imaginar, sino que, es, lo mismo que el fotón, una “onda de probabilidad”.

Capítulo 4
De la paradoja EPR a la experiencia de Aspect

En mayo de 1935, Albert Einstein y sus colegas Boris Podolsky y Nathan Rosen publicaban un artículo resonante que proyectaba dudas sobre la validez de la física cuántica. Verdad es que la física cuántica sobrevivió, pero las dudas sembradas por los tres físicos igualmente persistieron. Einstein, Podolsky y Rosen (EPR) querían probar que la teoría cuántica era un artefacto, un puzzle al que le faltaba la pieza principal, en suma, una teoría incompleta.
Desde 1927, Einstein había manifestado reticencias respecto del concepto de “deducción del paquete de ondas”, pero la controversia que mantenía con los adeptos a la física cuántica se refería al caso de un solo cuanton. Con sus dos colegas, tuvo la idea de considerar el caso de dos cuantones ligados por un pasado común y esto permitió a los tres físicos plantear claramente el problema por primera vez y enunciar la paradoja que, según ellos, probaba el carácter incompleto de la física cuántica.

§. Extrañas parejas
Considérese, escribían los tres físicos en sustancia, un sistema formado por dos cuantones que acaban de entrar en interacción y que luego se separaron. Según la teoría, ese sistema está descrito por una función de onda única que expresa ciertas relaciones de conservación. Se sigue de ello que si se mide la velocidad (o la posición) de un cuanton, se conoce automáticamente la velocidad (o la posición) del otro y esto ocurre aparentemente sin perturbarlo. Los tres autores llegaban a la conclusión de que las velocidades y las posiciones de dos cuantones estaban bien definidas antes de la medición a causa de un “principio de realidad” enunciado por ellos del modo siguiente: “Si, sin perturbar de ninguna manera el sistema, uno puede predecir con certeza el valor de una cantidad física, existe un elemento de realidad física que corresponde a esa cantidad física”. Para la física cuántica, por el contrario, esas velocidades y esas posiciones son indeterminadas antes de la medición y es la medición realizada en el primer cuanton lo que simultáneamente hace que se concreten las velocidades (o las posiciones) de los dos cuantones. Pero, según Einstein y sus colegas, si se puede concebir que la medición efectuada en el primer cuanton fija la velocidad (o la posición) de ese cuanton, resulta paradójico y hasta francamente absurdo sostener que dicha medición fija al mismo tiempo la velocidad (o la posición) del segundo, que puede encontrarse a muy grande distancia del lugar donde se efectúa la medición. De manera, concluían los autores, que la hipótesis cuántica no se sostiene, pues esa velocidad (y esa posición) existen antes de la medición y están determinadas por parámetros suplementarios (las “variables ocultas”) que la física cuántica no tiene en cuenta: por consiguiente, esta teoría es incompleta.
Consideremos un ejemplo: al encontrarse a baja velocidad un electrón y su antipartícula, el positrón, se aniquilan y producen dos fotones gamma que se alejan en dos direcciones opuestas. Todas las direcciones son a priori igualmente probables: este-oeste, norte-sur, arriba-abajo, etc. Pero si el fotón 1 es detectado al oeste puede inferirse que el fotón 2 está en el este; si, por ejemplo, un detector colocado a tres metros al oeste del lugar de la desintegración detecta al fotón 1, un detector colocado a seis metros al este detectará poco después al fotón 2. Si se dispone de un gran número de pares de electrón-positrón, se comprobará que esto ocurre en todos los casos en que funciona el detector situado al oeste. Esto no tiene nada de sorprendente dirá un físico clásico: al producirse la desintegración el fotón 1 es dirigido hacia el oeste y el fotón 2 hacia el este según el esquema siguiente:
017.jpgDe ninguna manera, responderá el físico cuántico: en el momento de la desintegración ninguna dirección se asigna a los fotones 1 y 2.
La detección misma es lo que fija esa dirección: Un breve cuento puede aclarar el debate de estos físicos: parejas de animales están encerradas en una jaula circular y opaca situada en el centro de un vasto recinto.
En todo el perímetro de la jaula se han instalado puertas que se cierran por sí solas, de manera que sus ocupantes sólo tienen que empujarlas para salir, por lo menos cuando las puertas no tienen corridos los cerrojos; una campanilla estridente les indica que se han descorrido los cerrojos de las puertas.

018.jpg

Entonces los visitantes del lugar ven salir a los animales, pareja por pareja. Pero cualquiera que sea la puerta elegida por uno de los miembros de la pareja, el otro sale siempre por la que está simétricamente opuesta. En esto estriba toda la originalidad y la atracción de esta especie. Un curioso que asiste al espectáculo explica a la multitud que cuando suena la señal los miembros de la pareja se dan la espalda y salen de la jaula. De ninguna manera, replica otro papanatas, cuando uno de los dos franquea una abertura, el otro al ver la luz del día se precipita en la dirección opuesta. Este es un argumento que un tercer personaje refuta al precisar que el argumento sería válido si los dos animales salieran a intervalos diferentes. Como salen al mismo tiempo, continúa diciendo, y en la medida en que no se ve nada de lo que ocurre en el interior de la jaula, la solución más sensata es considerar sólo lo que se observa; desde el instante en que un animal sale por una puerta, es seguro que su compañero saldrá por la puerta opuesta, pero resultaría excesivo deducir de ello su comportamiento en el interior de la jaula.

§. La idea de Bohm y la desigualdad de Bell
Para considerar un ejemplo más científico, digamos que las mediciones “oeste-este” esbozadas en la hipótesis de una desintegración electrón-positrón no permiten decidir entre la interpretación clásica y la interpretación cuántica, puesto que en este caso ambas parecen explicar igualmente bien el fenómeno en cuestión. Hay que estimar combinaciones más complicadas de velocidades y de posiciones y aun así los resultados son demasiado imprecisos (por más que en 1980 el físico norteamericano Bartell haya propuesto un dispositivo que él considera suficientemente preciso). Por eso, en 1951 el físico anglonorteamericano David Bohm sugirió abandonar esas variables continuas, que son la velocidad y la posición, y utilizar más bien aquellas que sólo pueden tomar uno u otro de dos valores, por ejemplo, las relacionadas con el espín de los electrones, protones y neutrones. La idea era excelente pero todavía faltaba probarla. La prueba la estableció el físico irlandés John Bell en 1964 en la forma de una desigualdad que hace entrar en juego las variables propuestas por Bohm. Esa desigualdad iba a permitir pasar de la discusión teórica a la experimentación y en última instancia decidir entre la física clásica y la física cuántica. En efecto, Ya física cuántica predice que esa desigualdad puede ser violada en ciertas condiciones experimentales, en tanto que la física clásica afirma que dicha desigualdad debe verificarse siempre.
La desigualdad se funda en un razonamiento de la teoría de los conjuntos cuyo punto de partida puede ilustrarse de la manera siguiente: en una población cualquiera, el número de mujeres que fuman es menor que el número de las personas —hombres y mujeres— que son rubias y que fuman más el número de mujeres que no son rubias. Más sencillamente, este enunciado traduce la evidencia- de que toda mujer que fuma es rubia o no lo es. El dibujo siguiente permite visualizar la desigualdad: en el cuadrado los hombres ocupan la parte izquierda, las mujeres la parte derecha, los rubios figuran en lo alto y los no rubios en la parte baja; por fin, los fumadores están en el interior del círculo y los no fumadores fuera de él.

019.jpg

Pero supongamos que nos encontramos frente a una población de marcianos como los que imaginó el escritor norteamericano de ficción científica Ray Bradbury (Crónicas marcianas, 1950). Esos marcianos ignoran nuestras categorías y poseen una pasmosa plasticidad: cuando se encuentran con un humano, pueden manifestarse, en función de los deseos de ese ser humano, como una mujer morena o como un hombre que fuma o como una mujer rubia que no fuma, etc. Además se comunican entre sí por telepatía. Apartándonos del texto de Bradbury supongamos ahora que esos marcianos son dueños de los aspectos que toman y que sólo manifiestan dos de sus apariencias a los observadores humanos; el marciano “hombre rubio” no dirá si fuma, el marciano “mujer que fuma” no dejará ver el color de sus cabellos, el fumador (o la fumadora) rubio/a no revelará su sexo, etc. Como se comunican entre sí por telepatía, los marcianos podrán componérselas astutamente para que un equipo de estadísticos humanos llegue a una conclusión absurda: ¡en Marte hay más mujeres que fuman que rubios (hombres y mujeres) que fuman y mujeres que no son rubias!
Semejante conclusión echará por tierra la hipótesis inicial de que todo marciano es hombre o mujer, rubio o no rubio, fumador o no fumador. Esta hipótesis de partida es en realidad la hipótesis dé las “variables ocultas”; según esta hipótesis todo marciano debería obligatoriamente, cuando está sometido a la. observación humana, revelarse hombre o mujer, rubio o no rubio, fumador o no fumador, en virtud de características inmutables que le son propias y no a causa de su fantasía o la del observador.
Volvamos a las poblaciones “clásicas”, es decir, no marcianas. Partiendo de estas consideraciones de la teoría de los conjuntos, Bernard d’Espagnat dio la demostración más clara y más estética que pueda alcanzarse de la desigualdad de Bell, a la que deben obedecer esas poblaciones. (“Théorie quantique et réalité”, pour la Science, enero de 1980). Desgraciadamente existen otras variantes de la desigualdad de Bell y la variante demostrada por d’Espagnat es diferente de la utilizada en la experiencia de Aspect. Por eso, en el apéndice hemos dado una demostración menos agradable pero directamente utilizable.

§. La experiencia de Aspect
Después de la publicación de los trabajos de John Bell, diferentes equipos realizaron experiencias con “poblaciones”, no de seres humanos ni de marcianos, sino de cuantones producidos por pares que se alejaban el uno del otro en dos direcciones opuestas; las experiencias tendían a verificar si, de conformidad con las predicciones de la física cuántica, la desigualdad de Bell podía ser violada. La primera experiencia data de 1972 y fue realizada por los norteamericanos John Clauser y Stuar Freedman. La experiencia indicó una violación de la desigualdad de Bell, lo mismo que la mayor parte de las que la siguieron. Pero a esas experiencias les faltaba precisión. Alain Aspect propuso entonces en 1975 una experiencia rigurosa e irrefutable.
Los cuantones utilizados son esencialmente protones o fotones. La producción de los pares de protones se realiza en condiciones tales que los dos protones que se alejan el uno del otro tienen, si se los mide siguiendo una misma orientación, espines opuestos. En el caso de los fotones se utiliza otra propiedad, la polarización lineal, pero el principio es el mismo: así como ocurre con el espín de un protón, la polarización podrá afectar el valor +1 ó -1. Aspect utilizó fotones y en el caso de su experiencia las polarizaciones de los dos fotones que se alejan son paralelas.
Faltaba producir esos fotones “gemelos”: para obtenerlos Aspect inyectó átomos de calcio en un recipiente cilíndrico donde se ha hecho el vacío. En el interior de ese recipiente brotan dos rayos láser que ceden energía a los átomos que pasan entre ellos. Electrones del calcio se excitan y luego se desexcitan emitiendo cada vez dos fotones. Esos fotones son emitidos en todas las direcciones, sólo que algunos de ellos penetran en dos tubos dispuestos en el cilindro que conducen a aparatos que miden su polarización.
En su versión más simple, esos aparatos no pueden sino dejar pasar al fotón, de ahí el resultado +1 o bien detenerlo, de ahí un resultado -1. Una versión más refinada envía al fotón incidente ya en una dirección, ya en otra, de ahí también un resultado +1 ó -1. El aparato que mide la polarización del fotón 1 (para abreviar diremos el aparato 1) puede tener una de las dos orientaciones A y A’; el resultado de la medición se llamará a en el caso de la orientación A y a’ en el caso de la orientación A’. Entonces tendremos a = +1 ó a = -1 y a’ = +l ó a’= -1. Asimismo, el aparato 2 puede tener dos orientaciones B y B’, y los resultados de las mediciones se llamarán b y b’.
Hay pues cuatro experiencias sucesivas:

020.jpg

021.jpg

Supongamos ahora que se pueda realizar un dispositivo de muchas orientaciones que permita reducir simultáneamente a y a’, b y b’:

022.jpg

y consideremos la expresión matemática:

a×b — a×b’ + a’×b + a’×b’,

que escribiremos de manera más abreviada suprimiendo los signos de multiplicación:

ab — ab’ + a’b + a’b’

Sabiendo que a, a’, b y b’ no pueden tomar sino los valores +1 y -1, se demuestra fácilmente que

ab — ab’ + a’b + a’b’ = + 2 ó -2

Por ejemplo, si a = 1, a’ = 1, b = 1 y b’ = 1, ab - ab’ + a’b + a’b’ = + 2
Si a= 1, a’ = 1, b = — 1 y b’= - 1, ab - ab’ + a’b + a’b’ = - 2

023.jpg

El lector escéptico podrá o bien probar todas las posibilidades o bien multiplicar la expresión ab — ab’ + a’b + a’b’ por ella misma y hallar el valor 4. Se resume este resultado diciendo que el valor absoluto de ab — ab’ + a’b + a’b’ es igual a 2, lo cual se escribe:

ab - ab’ + a’b + a’b’ = 2

Desgraciadamente es imposible medir de un golpe de polarización (o el espín) del cuanton 1 o del cuanton 2 en dos orientaciones diferentes. De suerte que en la expresión ab — ab’ + a’b’ + + a’b’, la a de ab’ no es la misma que la a de ab, la b de a’b no es la misma que la b de ab, la a’ de a’b’ no es la misma que la de a’b y la b’ de a’b’ no es la misma que la de ab’. Podemos pues tener, por ejemplo, a = 1 en ab y a = — 1 en ab’, y la relación ab — ab’ + a’b’ = 2 ya no es verdadera. Sin embargo, en virtud de algunos refinamientos suplementarios (véase el apéndice) se la puede volver a utilizar para llegar por fin a la desigualdad dé Bell en la variante utilizada por Aspect:

E (ab) - E (ab’) + E (a’b) + E (a’b’) «£ 2.

En esta expresión, E (ab) designa el valor promedio de ab, es decir, la suma de todos los productos de las mediciones simultáneas en la orientación A y la orientación B, suma dividida por el número de esas mediciones. Esta es la fórmula que probó Aspect: en 1981, él y su equipo comprobaron la mayor violación jamás observada de la desigualdad de Bell:

E (ab) - E (ab’) + E (a’b) + E (a’b’) = 2,70

La física cuántica “ganaba” frente a la física clásica.
Sin embargo, Aspect se había planteado otra cuestión. La desigualdad de Bell depende, en efecto, de un postulado aparentemente razonable que nosotros formulamos en el apéndice de esta manera: “No hay razón alguna para que el funcionamiento de la fuente de Guantones dependa de la orientación de los aparatos de medición 1 y 2. Ninguna de las fuerzas de interacción actualmente conocidas podría explicar semejante dependencia”. Si este postulado no se verifica, la demostración que hemos dado ya rio es válida y la desigualdad de Boíl puede ser violada sin que ello implique la existencia de un misterioso vínculo “telepático” entre cuantones.
Y después de todo, ¿no existirá tal vez esa fuerza de interacción desconocida? ¿No enviarán quizá también los aparatos 1 y 2 señales misteriosas para informarse de sus orientaciones respectivas y luego arreglárselas para simular las predicciones de la física cuántica? Sea ello lo que fuere, la fuerza desconocida o las misteriosas señales no podrían trasladarse más rápidamente que la luz, según la relatividad de Einstein. De manera que si se puede cambiar la orientación de los aparatos de medición después de haber abandonado los fotones su fuente, por una parte, se habrá eliminado la influencia posible de esta orientación sobre la fuente, y, por otra parte, los aparatos no podrán comunicarse entre sí antes de que los fotones hayan llegado a ellos. Esto es precisamente lo que llevó a cabo Alain Aspect en 1982. Interpuso en el trayecto de los fotones un dispositivo de cambio de dirección extremadamente rápido, capaz de enviar el fotón 1 a un aparato en la orientación A o a un aparato en la orientación A’, y el fotón 2 a un aparato en la orientación B o a un aparato en la orientación B’:

024.jpg

La dirección impuesta al fotón cambiaba cien millones de veces por segundo. La distancia a que cada aparato de medición estaba de la fuente era de seis metros y medio. El tiempo que ponía un fotón para ir de la fuente al aparato de medición era pues (en segundos) 6,5 dividido por 300 millones (la luz recorre 300 millones de metros por segundo), es decir, aproximadamente dos veces el tiempo empleado por el dispositivo de cambio de dirección para pasar de una dirección a otra. Así quedaba roto el posible lazo entre la fuente y los aparatos de medición.
Estos resultados fueron obtenidos durante el verano de 1982: también aquí la desigualdad de Bell está violada y quedan confirmadas las predicciones de la física cuántica.

§. Las consecuencias
¿Qué conclusión sacar de la experiencia de Aspect? Puesto que quedaron eliminadas las posibles influencias de los aparatos de medición sobre la fuente o de un aparato sobre otro y puesto que está violada la desigualdad de Bell, ello significa que el estado del cuanton 1 (o 2) no está determinado antes de la medición (no hay variables ocultas locales). Y esto corresponde a lo que afirma la física cuántica: la propiedad polarización (o espín) = +1 ó -1 es adquirida aleatoriamente por el cuanton cuando éste es medido. (Después hablaremos de otro tipo de teoría referente a “variables ocultas no locales”, teoría que también está muy alejada de la física clásica.)
Pero veamos algo más curioso. Supongamos que A y B sean perpendiculares en el caso de la experiencia de Aspect (o paralelos y de la misma orientación en el caso de protones). Se comprueba entonces que si se halla a = 1, entonces siempre b = -1, y que si se halla a = -1, entonces b = 1. Supongamos que la medición del fotón 1 se realice un poco antes que la del fotón 2 (una de las numerosas etapas de la experiencia de Aspect fue realizada con el aparato 1 muy próximo a la fuente, en tanto que el aparato 2 estaba situado a varios metros de distancia: también aquí quedaron confirmadas las predicciones cuánticas). Como es la medición lo que, según la física cuántica, da un valor a la polarización del fotón 1, eso quiere decir que la medición da al mismo tiempo un valor a la polarización del fotón 2 que se encuentra a varios metros del aparato 1. Como veremos luego, esto condujo a ciertos físicos a considerar problemática (explícita o implícitamente) la idea de espacio y a otros, menos numerosos, a hacer lo propio con la idea de tiempo.

Capítulo 5
Las ondas de átomos y el gato de Schrödinger

Reducción del paquete de ondas, paradoja EPR, decididamente las partículas elementales (protones, neutrones, electrones, etcétera) tienen propiedades realmente singulares y muy diferentes en todo caso de las propiedades de los objetos que nos rodean. Pero, por los menos los átomos, formados por combinaciones de protones, de neutrones y de electrones, ¿no comienzan a parecerse a objetos clásicos? La respuesta es negativa. Claro está, en la práctica puede uno considerar que tal es el caso pues es un enfoque muy satisfactorio y eficaz. Y sin embargo, los objetos que conocemos, los seres vivos, no son conjuntos de microobjetivos sino que son combinaciones de entidades elementales, las cuales no son objetos. La mejor prueba de ello está dada por esos sistemas que, aunque macroscópicos, tienen un comportamiento cuántico: los supraconductores y los superfluidos.

§. El carácter indiscernible
En un conductor, en un cable de cobre, por ejemplo, la electricidad circula, desde luego, pero con pérdidas considerables. En los supraconductores la electricidad puede circular sin ninguna pérdida a causa de una particularidad cuántica: el carácter indiscernible de los cuantones. Esto significa que es imposible poner etiquetas a los cuantones; si dos cuantones idénticos (dos protones, por ejemplo) llegan a mezclarse transitoriamente, cuando se separan ya no podrá decirse cuál tenía el número 1 y cuál tenía el número 2. Para comprender esta idea basta con considerar dos olas de igual amplitud y de igual velocidad que en la superficie del mar van una al encuentro de la otra:

025.jpg

Cuando llegan al mismo punto, se forma transitoriamente una ola de amplitud doble:

026.jpg

Luego (y aquí simplificamos voluntariamente), esa gran ola se separa en dos olas A y B que se alejan la una de la otra:

027.jpg

Evidentemente se puede decir que B es la ola 1 que pasó el punto del encuentro y continúa su camino. Pero también puede decirse que en el momento del encuentro, 1 y 2 chocaron entre sí y rebotaron y que B es la ola 2 que retrocede. Las dos interpretaciones son igualmente válidas. Como no hay transporte horizontal del agua sino que únicamente hay movimientos verticales en el momento del paso de una ola, no se puede “marcar” las olas con colorantes diferentes: las olas no son agua, sino que son movimientos en el agua. Y, así, el carácter ondulatorio de los cuantones implica el carácter indiscernible de cuantones idénticos.
Una consecuencia de este carácter indiscernible es la de que los cuantones (como no son objetos a los que se puedan poner etiquetas cuando se los clasifica por grupos y presentan propiedades comunes, como por ejemplo, una misma velocidad) no obedecen a las leyes estadísticas habituales. De ahí el comportamiento insólito de la materia en el caso de los supraconductores (utilizados por la industria) y de los superfluos (sin utilidad práctica por el momento), comportamiento que trataremos de precisar valiéndonos de dos ilustraciones.
En un patio de recreo habitualmente los alumnos dan pruebas de una agitación turbulenta e indisciplinada. Unos ríen, otros juegan a las canicas, otros se cuentan historias, algunos solitarios leen o papan moscas, una pequeña pandilla se entrega a otros juegos, etc. Desde el techo de la escuela sólo se ven movimientos desordenados y fortuitos. En cierto modo, así se comportan en momentos ordinarios los electrones más exteriores de los átomos de un trozo de metal.
Pero supongamos que el director hace sonar su silbato y entonces los alumnos se dan la mano de dos en dos e inician una marcha en la misma dirección con paso rítmico. El aspecto del patio de recreo cambia bruscamente y ahora se percibe un movimiento ordenado. Reemplacemos el patio por el trozo de metal y la señal del silbato por un enfriamiento a una temperatura muy baja (en el caso del plomo, por ejemplo, —266º C, 7º por encima del cero absoluto); así se ha obtenido un supraconductor. Los electrones se agruparon por parejas y esos pares de electrones se colocaron en un mismo estado de pulsación (en el tercer capítulo hemos definido este concepto) y tienen un comportamiento coherente. Hay que tener en cuenta que los electrones deben agruparse por pares para presentar ese comportamiento coherente; si permanecieran aislados no lo presentarían. Es como si los alumnos se vieran obligados a darse la mano de dos en dos para poder caminar en la misma dirección. Esto se debe a que los electrones (así como, por lo demás, los protones y los neutrones) obedecen a cierta estadística cuántica cuando están aislados, en tanto que los pares de electrones así como los fotones (efecto láser) obedecen a otra estadística cuántica (por suerte no hay más que dos).
Para ilustrar los superfluidos recurriremos a otra imagen: imaginemos una playa al borde del mar recorrido por apacibles ondulaciones. Esas ondulaciones son movimientos en el agua y necesitan el soporte del mar para existir. De pronto una de esas ondulaciones, no mayor que las demás, decide tener una existencia autónoma y abandona el mar llevándose consigo una cantidad de agua correspondiente a su volumen. La ondulación recorre la playa, salpica a los veraneantes, sube por el malecón, pasa por el estacionamiento de los automóviles y se pasea por el campo antes de ir a inmovilizarse en la plaza de una aldea...
Este extraño comportamiento se parece mucho al del helio superfluido. Se debe al hecho de que los átomos de helio, compuestos de dos protones, dos neutrones y dos electrones, obedecen a la misma estadística que los fotones y los pares de electrones. El helio, normalmente gaseoso, se hace líquido a —296 ºC, pero a —271 ºC (2 grados por encima del cero absoluto) cambia aún más radicalmente de estado y toma propiedades sorprendentes debidas a la adquisición de coherencia de sus átomos. Derramado en un vaso, el helio superfluido lo abandona inmediatamente subiendo por las paredes del vaso. Corre más rápidamente dentro de un tubo muy fino que dentro de un tubo ordinario, lo cual es completamente contrario a la mecánica de los fluidos. Es imposible calentarlo localmente: la temperatura es la misma en toda su masa. Si por fin se lo vuelca en un recipiente del que no puede escapar, permanecerá rigurosamente inmóvil en relación con las estrellas, a pesar de la rotación de la Tierra y de los movimientos que se impriman al recipiente. El fenómeno es tanto más espectacular que la supraconducción por cuanto es visible: la onda de helio es su propio soporte, en tanto que la onda de pares de electrones estaba oculta en el metal. Se puede decir que aquí nos encontramos frente a una onda líquida y no ya a una onda en un líquido.

§. Las experiencias de difracción
De manera visible en ciertas circunstancias, los átomos no obedecen pues a las mismas leyes estadísticas que los objetos. Otra ilustración del hecho de que los átomos no son objetos, se obtiene en las experiencias de difracción por un cristal. Dichas experiencias son análogas a la experiencia de las ranuras de Young, descrita en el capítulo 3 de este libro; se realizaron con fotones y luego con electrones, pero en el caso de los átomos, esas ranuras deberían ser tan finas y deberían estar tan cerca la una de la otra que resulta imposible realizarlas. Se recurre entonces al hecho de que los átomos de un cristal están dispuestos de una manera absolutamente regular los unos en relación con los otros; se envían los átomos que se quieren estudiar contra el cristal para que reboten. Los átomos que rebotaron constituirán poco a poco (en un dispositivo de detección) anillos concéntricos pero nunca irán a colocarse entre dos anillos. Se obtiene pues una figura de interferencia formada por anillos concéntricos, así como los fotones y los electrones que pasaban por las ranuras de Young constituían figuras de interferencia formadas por líneas paralelas. Mediante el cálculo se puede encontrar exactamente la configuración de los anillos observados, pero para esto hay que admitir que cada átomo se despliega sobre toda la superficie del cristal antes de rebotar, algo parecido a lo que ocurría con cada fotón o cada electrón que pasaba por las dos ranuras a la vez en el caso de las ranuras de Young.
En 1930-1933 se realizó la experiencia con átomos de helio y moléculas de hidrógeno. Luego, en 1976 y 1979, se la realizó con átomos de neón. Este último caso es el más espectacular pues el átomo de neón comprende nada menos que diez protones, diez neutrones y diez electrones. Ahora bien, el despliegue en la superficie del cristal no va en modo alguno acompañado con una dispersión del átomo de neón en sus componentes elementales, puesto que ese átomo será luego detectado en un lugar y sólo en un lugar y podrá ser utilizado de nuevo como átomo de neón: lo que se despliega sobre todo el cristal es pada componente elemental. Precisemos bien que tal despliegue debe considerarse como un despliegue probabilista: entre el momento en que el átomo fue lanzado hacia el cristal y el momento en que es de nuevo detectado, el átomo pasa por un estado potencial de onda de probabilidad, a la manera del pez cuántico de nuestro primer ejemplo, pez que se disuelve de nuevo transitoriamente en la charca si el pescador se divierte lanzándolo de nuevo al agua para volver a pescarlo. ¿Se puede hablar aún de objeto en el caso de una entidad que pasa de una existencia potencial no localizada a una existencia concreta localizada e inversamente?
El hecho de que átomos y hasta conjuntos de átomos (moléculas de hidrógeno por ejemplo) manifiesten estas propiedades desconcertantes está muy vinculado con las paradojas más pasmosas de la física cuántica, la paradoja del gato de Schrödinger y la paradoja del amigo de Wigner. En efecto, la interpretación de estas paradojas depende de la respuesta que se dé a la siguiente pregunta:
¿Puede un aparato de medición, es decir, un conjunto de millones y millones de átomos, no ser concreto, puede encontrarse en un estado potencial representado por una onda de probabilidad?

§. La superposición de estados
Estas dos paradojas son lo que se llama “experiencias de pensamiento”. En la práctica tienen menos peso que los hechos experimentales indiscutibles a que nos hemos referido, pero en teoría su importancia es aun mayor pues se refieren nada menos que al problema de la existencia del espíritu y/o de la materia.
Antes de exponer estas paradojas debemos examinar lo que se llama en física cuántica “superposición de estado”. Ante todo volvamos a considerar la experiencia de las ranuras de Young (véase el recuadro anterior.)

028.jpg

Un fotón emitido en dirección de una placa perforada por dos ranuras suficientemente cercanas pasa por las dos ranuras a la vez. Al salir de esas ranuras, según la terminología cuántica, el fotón está en la superposición del estado “pasé por la ranura 1” y del estado “pasé por la ranura 2”. Es esta superposición, expresada en la función de cada fotón, lo que explica que se observen interferencias en la placa fotográfica, aun cuando los fotones sean emitidos uno a uno.
Como comparación podríamos considerar el caso del pasajero del metro parisiense que quiere trasladarse de la estación Étoile a la estación Nation en caso de huelga o desperfectos en la línea Vincenne-Neuilly y la red regional; dicho pasajero puede elegir entre dos posibilidades: pasar por Barbés-Rochechouart (al norte) o por Denfert-Rochereau (al sur). Claro está, el pasajero “clásico”, pasará ya por una ya por la otra de estas dos estaciones. Pero el pasajero “cuántico” pasará por las dos a la vez y realizará el trayecto en la superposición de los estados “Barbés-Rochechouart” y “Denfert- Rochereau”:

029.jpg

Consideremos ahora el caso de protones en las experiencias relativas a la paradoja EPR. Cada protón, antes de ser medido, se encuentra en un estado indeterminado, superposición del estado “espín positivo” y del estado “espín negativo” (empleamos la voz “espín” como abreviatura de la expresión “componente del espín en una dirección dada”). Hay una posibilidad sobre dos de que el resultado de la medición sea positivo (o negativo). Esta superposición existe también en otros tipos de experiencias con protones.
Supongamos ahora que construimos un dispositivo que se dispara si recibe un protón de espín positivo, pero que no funciona en el caso de un protón de espín negativo. Se le envía un protón “indeterminado”, en la superposición de estados que acabamos de describir. ¿Qué ocurrirá? Según la teoría cuántica, si el dispositivo en cuestión es un sistema cuántico (y no hay ninguna razón para que no lo sea, puesto que está constituido por cuantones), el conjunto protón + dispositivo va a constituir un solo sistema que conservará la indeterminación del protón. Esto se desprende de la ecuación de Schrödinger. En otras palabras, ese conjunto estará en una superposición de estados “dispositivo que funcionó” y “dispositivo que no funcionó”; esta superposición de estados está expresada por una función de onda muy complicada a causa del carácter macroscópico del dispositivo. Para que no se encuentre en esta superposición de estados sería menester que la ecuación de Schrödinger cesara bruscamente de ser válida, sería menester que hubiera “reducción del paquete de ondas”, es decir, en este caso eliminación de una de las dos posibilidades.
Podemos dar una imagen muy imperfecta de esta situación: el automovilista normal se detiene ante la luz roja y pasa cuando ve la luz verde. ¿Qué hace si llega frente a un semáforo en el que a causa de algún desperfecto están encendidas a la vez la luz verde y la luz roja, en tanto que la amarilla está apagada? Todo depende de que el automovilista sea audaz o prudente, y entonces decide pasar o permanecer detenido. Un automovilista “cuántico”, obedeciendo a la ecuación de Schrödinger, ¡debería a la vez pasar adelante y detenerse frente a las señales!

§. El martirio del gato
Consideremos ahora la paradoja del gato de Schrödinger. Un gato está encerrado en una caja; en esa caja hay un frasco de veneno volátil y un martillo puede caer sobre el frasco y romperlo; el martillo está conectado a un dispositivo de disparo accionado por un protón. Se envía a ese dispositivo un protón de espín indeterminado y al cabo de una hora se observa el interior de la caja a través de un pequeño tragaluz; evidentemente el gato está muerto o vivo.
Pero si se quiere describir lo que pasó mediante el formalismo de la física cuántica, tropieza uno con un serio problema. En efecto, como acabamos de ver, el conjunto formado por el protón y el dispositivo estará descrito por una función de onda muy complicada que representa la superposición de los estados “dispositivo que funcionó” y “dispositivo que no funcionó”. Asimismo el conjunto formado con el martillo, el frasco y por fin con el gato estará descrito por una función de onda de una complejidad inusitada. Pero entonces el gato se encuentra en un estado inconcebible, que es una superposición del estado “gato vivo” y del estado “gato muerto”, como se ve en el dibujo siguiente extraído del artículo de Bryce DeWitt “Quantum Mechanics and Reality” publicado en septiembre de 1970 en la revista norteamericana Physics Today:

030.jpg

Esta paradoja permite plantear de manera manifiesta y notable el problema llamado de la medición cuántica. En efecto, en uno u otro momento hay que reducir el paquete de ondas, es decir, pasar de la superposición de dos estados a un solo estado. Aparentemente no hay más que dos soluciones. Presentemos primero la más agresiva sostenida especialmente por el propio Nobel de física norteamericano de origen húngaro Eugene Wigner y que nosotros llamaremos solución idealista. Cuando un observador dotado de conciencia mira por la claraboya y ve el gato, entonces, en virtud de un acto trascendente de la conciencia, cesa la superposición de los estados:

031.jpg

Apresurémonos a señalar una primera dificultad de esta primera interpretación. Supongamos que la claraboya no es accesible al observador sino que está obturada por un aparato fotográfico que, después de haber pasado la hora fatídica, toma una serie de fotografías del interior de la caja. Luego un dispositivo automático de reconocimiento de las formas (eso existe) analiza esas fotografías y si éstas son idénticas (el gato ya no se mueve) el dispositivo llega a la conclusión de la muerte del gato. Una máquina de escribir conectada al dispositivo escribe entonces sobre un papel “El gato está muerto”. El observador toma el papel sin mirarlo, lo mete en un sobre con los ojos cerrados, se marcha y sólo tiene conocimiento de su contenido un año después. Resulta muy difícil sostener que esa adquisición de conocimiento, remontando el curso del tiempo, desencadene toda una serie de hechos que acabamos de describir.
La otra solución es la solución materialista que existe con dos variantes. Según la primera, el dispositivo de lanzamiento reduce el paquete de ondas pues el paso de lo microscópico (protón indeterminado) a lo macroscópico (el dispositivo) hace desaparecer los efectos propiamente cuánticos. Según la segunda variante no hay en realidad reducción del paquete de ondas, sino que el dispositivo está concebido de manera tal que la ecuación de Schrödinger hace evolucionar rápidamente la función de onda a fin de que desaparezcan todos los estados posibles salvo uno. Hagamos notar en seguida que esta solución materialista suscita también ella objeciones que consideraremos después: posibilidad de acción instantánea a la distancia, incapacidad o gran dificultad para precisar el momento en que se hace concreta la onda de probabilidad.
Pero terminemos esta historia del gato de Schrödinger diciendo que el hecho de considerar al gato como un aparato de medición tal vez no sea sensato. Algunos de los sostenedores de la hipótesis idealista piensan en efecto que un gato es un ser vivo de una complejidad suficiente para tener una conciencia capaz de reducir los paquetes de ondas. Para el hecho mismo de que se plantee el problema muestra una dificultad suplementaria de la hipótesis idealista: ¿en qué nivel de complejidad hay que colocar la barrera entre seres vivos que no reducen el paquete de ondas y seres vivos capaces de reducirlo? En todo caso, un parapsicólogo norteamericano llamado Helmut Schmidt (que nada tiene que ver con el ex canciller alemán) pretendió en 1970 haber hecho la experiencia con un gato que condenaba, no a morir, sino a tener más o menos frío. Según Schmidt, el gato había modificado el funcionamiento de un generador aleatorio basado en la radiactividad a fin de tener calor; el gato habría pues reducido los paquetes de ondas en el sentido que le era favorable. Huelga decir que este género de resultados debe recibirse con circunspección.
Consideremos ahora el caso del amigo de Wigner. En este caso, sólo se toman en consideración aparatos de medición y observadores humanos, lo cual evita plantearse el problema indicado en el párrafo anterior. Para simplificar las cosas se puede tomar el ejemplo del gato de Schrödinger, pero quitando el gato, la caja y el veneno y considerando el martillo como la aguja indicadora de un aparato de medición. Si el martillo está en alto el espín del protón ha sido “visto” como negativo; si el martillo está bajo, como positivo. Entonces Wigner dice: Estoy seguro de que existo. Si miro el martillo, por el acto mismo de adquirir conocimiento de su posición, reduzco el paquete de ondas y fijo esa posición. Pero si es un amigo quien mira el martillo y me indica su posición, o bien soy yo el que reduce el paquete de ondas global martillo + amigo, con lo que impongo a mi amigo ver el martillo en la posición que acaba de indicarme y entonces puedo obrar en el pasado sobre la conciencia de mi amigo que de algún modo está subordinada a la mía y en última instancia mi amigo no existe (solipsismo); o bien es mi amigo quien reduce ese paquete de ondas y mi amigo es muy diferente de un aparato de medición que, por ser Un conjunto material, obedece estrictamente a la ecuación de Schrödinger y que por lo tanto (según Wigner) no puede ser la causa de una reducción del paquete de ondas: existen conciencias y (tal vez) conjuntos materiales, y en todo caso las conciencias no son reducibles a los conjuntos materiales (más bien serían, si es lícito que nos permitamos este juego de palabras, reductoras de conjuntos materiales en la medida en que se puede identificar un conjunto material con un “paquete de ondas”). Desde luego que Wigner rechaza el solipsismo. Bernard d’Espagnat retomó parcialmente las tesis de Wigner y designó con los términos “intersubjetividad” esa propiedad colectiva que tendrían las conciencias de (tal vez) reducir los paquetes de ondas y de (seguramente) comunicarse los resultados de sus observaciones.

Capítulo 6
¿Existe el mundo?

¿Qué es el espíritu? ¿Qué es la materia? ¿Tienen siquiera un sentido semejantes preguntas? Lo cierto es que se las formula desde hace siglos, si no ya milenios, y que la nueva física lleva a formularlas de nuevo, sólo que de una manera radicalmente diferente, casi matemática: ¿implica la reducción del “paquete de ondas” la existencia de una entidad no material?

§. El problema de la medición
Las paradojas del gato de Schrödinger y del amigo de Wigner nos permitieron ver que dos interpretaciones de la física cuántica se oponen radicalmente. Una asigna al observador un papel primordial y más precisamente a su conciencia o a su espíritu; esto es lo que hemos llamado el “idealismo cuántico”; esta interpretación está sostenida sólo por una minoría pequeña, pero lo fue por físicos prestigiosos. Llevada a su extremo, semejante posición puede conducirnos a consideraciones por lo menos inquietantes: el mundo material no existiría independientemente del observador...
La otra interpretación, más difundida, no asigna ningún papel al espíritu; se trata del “materialismo cuántico” (los físicos que la sustentan prefieren la designación de “realismo”). Existen otras dos interpretaciones que, en realidad, pueden definirse empero en relación con las dos primeras: el “operacionalismo” de la Escuela de Copenhague, que está en clara mayoría y que se niega a decidirse entre una y otra posición y que sostiene que el problema no tiene sentido; y el “sincretismo”, que intenta la síntesis del materialismo y del idealismo al postular la existencia de una realidad más profunda de la cual materia y espíritu no serían más que dos aspectos complementarios.
Por “materialismo” entendemos una doctrina que admite la existencia de la materia y sólo de ella, y por “idealismo” una doctrina que o bien admite la existencia de una entidad no material llamada espíritu o bien considera problemática la existencia de la materia. Estas definiciones no corresponden exactamente a la clasificación filosófica generalmente adoptada en Francia. En este capítulo nos ocuparemos luego de esta clasificación, pero antes debemos examinar en detalle la cuestión que suscita el enfrentamiento de idealistas y materialistas “cuánticos”. Esta cuestión cuya expresión concreta está suministrada por las paradojas expuestas por Schrödinger y Wigner, se conoce como “problema de la reducción del paquete de ondas” o también el “problema de la medición”; para resolverla se han propuesto diferentes “teorías de la medición”, pero por el momento ninguna ha logrado imponerse. (Si, haciendo caso omiso del movimiento general de la física, uno cree en las teorías de variables ocultas no locales, se puede evitar este problema; pero, como veremos en el capítulo siguiente, estas teorías pueden tener ellas una interpretación materialista o una interpretación idealista.)
Aclaremos pues el problema. Antes de ser observado, un cuanton no ocupa una posición bien definida en el espacio (consideremos el ejemplo del fotón por un átomo interestelar que expusimos al final del tercer capítulo). Cuando uno mide esa posición el cuanton aparece en un lugar y en sólo uno. La función de onda que le confería un cierto despliegue probabilista en el espacio se reduce a una función de onda perfectamente localizada: se concreta una sola de las posibilidades representadas por la función de onda inicial. Primera cuestión: ¿es propio de las mediciones este fenómeno? ¿No puede darse independientemente de toda medición, es decir, de toda intervención humana puesto que una medición necesita una preparación y un registro (automático o realizado por un observador) del resultado? Seamos aún más concretos: una medición cuántica es el resultado de una interacción entre un cuanton y un aparato de medición. ¿Por qué no habría reducción del paquete de ondas en el caso de otras interacciones en las que en modo alguno interviene el experimentador? Después de todo, en el universo se dan sin cesar interacciones, tanto en el seno de las estrellas como en el interior de las bacterias.
La respuesta de la teoría cuántica es simple: cuando dos sistemas cuánticos aislados (es decir, descritos cada uno por una función de onda) entran en interacción ya no forman más que un solo sistema descrito por una sola función de onda que contiene el conjunto de las posibilidades de los dos sistemas. Aquí no se trata de reducción sino que se trata de una creciente complejidad. Y lo peor es que si el sistema global se separa de nuevo en dos subsistemas que se alejan el uno del otro, no se podría describir cada subsistema por una función de onda independiente, sino que siempre habrá una función de onda global para el conjunto de los dos; ésta es en verdad la propiedad verificada por la experiencia de Aspect.
Pero, ¿en qué difiere un aparato de medición de cualquier otro objeto macroscópico? Si se quiere estimar una propiedad de un cuanton con un aparato de medición hay que hacer entrar en interacción ese cuanton con el aparato. ¿Por qué la función de onda global del conjunto habría de reducirse a una sola de las posibilidades que ella describe, siendo así que en toda otra interacción se llega a una función de onda global que contiene el conjunto de las posibilidades de cada uno de los sistemas que entraron en interacción? Se han bosquejado varias respuestas a esta cuestión pero ninguna de ellas ha logrado el consenso general.

§. Los idealistas
Primera respuesta: el idealismo a la manera de Wigner. Antes de hacer su descripción explícita, cedamos la pluma al propio Wigner quien en 1961 escribió: “Es la entrada de una impresión en nuestra conciencia lo que altera la función de onda, pues ella modifica nuestra evaluación de las probabilidades según las diferentes impresiones que esperamos recibir en el futuro. Es en ese momento cuando la conciencia entra en la teoría de manera inevitable e inalterable. Si se habla desde el punto de vista de la función de onda, sus cambios están acompañados por la entrada de impresiones en nuestra conciencia... En física cuántica, el ser consciente tiene por fuera un papel que es diferente del de un aparato de medición inanimado”. En el mismo año Wigner declara en un coloquio: “Los físicos descubrieron que es imposible dar una descripción satisfactoria de los fenómenos atómicos sin hacer referencia a
la conciencia”. Esta idea había sido ya emitida en 1939 por otros dos físicos, el francés Edmond Bauer y el alemán Fritz London: “No es una interacción misteriosa entre el aparato y el objeto lo que produce una nueva función de onda del sistema durante la medición. Es tan sólo la conciencia de un yo que puede separarse de la función de onda anterior y constituir, en virtud de su observación, una nueva objetividad al atribuir al objeto una nueva función de onda”. Pero de todas maneras fue Wigner quien le dio un contenido técnico relativamente preciso.
Describamos ahora ese contenido y detallemos la interacción de un cuanton con un aparato de medición. El conjunto cuanton + aparato (después del desarrollo de esta interacción) está representado según la ecuación de Schrödinger por una función en la que expresan muchas posibilidades; supongamos que haya sólo dos posibilidades: la aguja indicadora del aparato está levantada o baja. Para Wigner, la aguja se encuentra en la superposición de los estados levantado y bajo (lo cual no quiere decir que esté a mitad de camino entre ellos). Si miro la aguja, dice Wigner, mi ojo que es material y por lo tanto obedece a las leyes de la física cuántica, se colocará también él en una superposición de dos estados. Mi nervio óptico, que también es material, transmitirá a mi cerebro una corriente eléctrica doble correspondiente a esta doble posibilidad, y las células involucradas de mi cerebro van a colocarse también ellas en un estado doble. Entonces Wigner dice: para terminar con este estado irreal hay que hacer intervenir a una entidad que no obedezca las leyes de la física; esa entidad es el espíritu consciente, lo único capaz de reducir los paquetes de ondas.
Esta interpretación radicalmente contraria a las ideas tradicionales parece sin embargo poseer el mérito de la claridad. Pero ya este caso simple plantea un problema respecto del tiempo. En efecto, transcurre cierto tiempo entre el momento en que la aguja indicadora reacciona a la interacción cuanton/aparato de medición y el momento en que el observador adquiere conciencia de esa reacción (trayecto de los fotones hasta el ojo, reacción de los pigmentos fotosensibles, paso al nervio óptico, tratamiento de la información visual en las células cerebrales). Si la reducción del paquete de. ondas sólo se produce en el momento de adquisición de conciencia, ¿cómo se retransmite la información al aparato de medición a fin de que la aguja asuma la posición levantada o baja? Nadie puede pensar que la conciencia emita entonces, en dirección del aparato, cuantones de una energía suficiente para obligar a la aguja a tomar
su posición. Ha de considerarse o bien la desaparición instantánea y sin liberación de energía de una de las dos soluciones, o bien la emisión de una señal (cuya naturaleza falta precisar) que se remontaría en el curso del tiempo y fijaría la posición de la aguja en el preciso momento en que ésta reacciona a la interacción entre cuan- ton y aparato de medición.
Esto ya es muy difícil de tragar, pero los idealistas llegan a posiciones casi insostenibles en el caso del registro automático. En efecto, en muchas experiencias el observador puede ser reemplazado por un dispositivo automático del registro y entonces el registro es independiente del conocimiento de todo observador durante un año, por ejemplo. En ciertas experiencias de colisiones de partículas se emplean dispositivos que deciden registrar o no la colisión según sean sus resultados: esos dispositivos registran, por ejemplo, una sola colisión de entre un centenar, como término medio, y aun así los registros pueden ser examinados sólo un año después. La solución de los idealistas extremos es la siguiente: el espíritu puede remontarse en el curso del tiempo y desencadenar el fenómeno un año antes de que se adquiera conciencia de él (observemos al pasar que este fenómeno ya nada tendría que ver con la conciencia, pues sería perfectamente inconsciente). Nos vemos obligados a decir de estas acrobacias mentales lo que Diderot decía del idealismo absoluto, del “inmaterialismo” desarrollado a comienzos del siglo XVIII por el filósofo irlandés George Berkeley: “Sistema extravagante, sistema que, para vergüenza del espíritu humano y de la filosofía es el más difícil de combatir aunque sea el más absurdo de todos”.

§. Los materialistas
En el extremo opuesto está la filosofía de los “materialistas cuánticos” resumida de manera excelente por Fritz Rohrlich, especialista de la teoría cuántica relativista del campo, en un artículo publicado en septiembre de 1983 por la revista norteamericana Science con el título muy significativo de “Hacer frente a la realidad cuántica”. Rohrlich dice: “Algunos sacan de todo esto la conclusión de que el universo no existe independientemente de los actos de observación y de que la realidad es creada por el observador. Pero la gran mayoría de los físicos no comparte este punto de vista... El mundo de los electrones, protones y todo lo demás existe, aun cuando no lo observemos y se comporta exactamente como dice la física cuántica. La cuestión está en que la realidad física en el nivel cuántico no puede definirse en los términos clásicos como intentaron hacerlo Einstein, Podolsky y Rosen... Esto no hace del mundo cuántico algo menos real que el mundo clásico y nos enseña que la realidad de la experiencia ordinaria en el mundo clásico es sólo una pequeña parte de lo que es”.
Desde luego, esta filosofía debe ser apuntalada por una teoría de la medición coherente y hay que ver si, como lo sostiene Rohrlich: “La descripción del proceso de medición recibió bastante atención, clarificación y especificación. Ejemplos han sido tratados a fondo explícitamente”. ¿Cuál es pues la respuesta materialista a la cuestión de la reducción del paquete de ondas?
En realidad, la respuesta no es única. Existe con dos variantes principales. Examinaremos primero la que apareció posteriormente y que en la actualidad goza de cierta predilección entre los especialistas. La respuesta se articula alrededor de las siguientes proposiciones:
Contrariamente a la hipótesis de Wigner, esta variante materialista apela a una matemática muy elaborada y resulta difícil dar sus detalles por la razón adicional de que se proponen diferentes modelos adaptados a una u otra experiencia. Su primera cualidad estriba en que parece una hipótesis extremadamente razonable. Ciertamente no se le pueden hacer los reproches dirigidos a la solución idealista. Sin embargo, también ella está sujeta a críticas. En primer lugar, por el momento la falta de generalidad, puesto que hay que elaborar un modelo para cada tipo de experiencia... y además algunos de esos modelos por lo menos se prestan a discusión. En segundo lugar, si se quiere que desaparezcan todas las posibilidades contenidas en la función de onda con la excepción de una sola, un cálculo que aplique rigurosamente la teoría cuántica muestra que el aparato de medición debe ser teóricamente infinito (sin embargo, si es no infinito sino simplemente de dimensiones normales, la hipótesis de la subsistencia de una sola posibilidad es una excelente aproximación dentro del marco de los modelos considerados). Por fin y sobre todo, en el caso de experiencias como la de Aspect, la evolución rápida de la evolución de onda del conjunto cuanton + aparato llega a fijar un valor a la polarización (o al espín) no sólo del cuanton mensurado sino también del otro cuanton que en teoría puede hallarse a millones de kilómetros. En cierto- sentido, es más difícil atribuir una posibilidad de acción tan extravagante a un aparato de medición (objeto material cuyas limitaciones se conocen) que a una hipotética entidad no material de la que se puede decir cualquier cosa.
La otra variante materialista principal consiste en admitir la reducción del paquete de ondas por obra del aparato de medición (se entiende una reducción efectiva y no una seudorreducción como en la primera variante que expusimos) y en atribuirla al carácter macroscópico del aparato que de alguna manera determinaría que desaparecieran los efectos propiamente cuánticos. Se han realizado diversos intentos, a menudo apelando a la idea de irreversivilidad, para tratar de precisar este concepto sin resultados realmente concluyentes. Por lo demás esta variante tropieza con las mismas objeciones que la anterior. Sin embargo el carácter instantáneo de la reducción conviene tal vez un poquito mejor a la experiencia de Aspect, pues la interacción entre cuanton y aparato sólo viola la noción de espacio en una duración cero.
Existen otras variantes menos corrientes. Una, por ejemplo, supone que la interacción de un número pequeño de cuantones puede determinar la reducción del paquete de ondas en ciertas circunstancias: el carácter macroscópico del aparato de medición sólo interviene entonces para amplificar el fenómeno. Otra consiste en decir que, en el momento de cada medición, el universo se separa en tantas ramas como resultados posibles: por ejemplo, en el caso de una aguja indicadora de dos posiciones habrá una rama del universo en la que los observadores (que se desdoblan también ellos) la verán levantada y una rama en la que la verán baja. Luego volveremos a considerar este punto.
Observación incidental: cualquiera que sea la variante materialista, puede ocurrir que objetos macroscópicos naturales funcionen como aparatos de medición si la casualidad los hace parecer a semejantes aparatos. En efecto, como según esta respuesta materialista es el aparato de medición el que reduce el paquete de ondas independientemente de la presencia del observador, todo conglomerado de materia que presente las mismas características tendrá esa misma propiedad de poder reducir el paquete de ondas.
Otra observación más importante, válida tanto en el caso de la solución idealista como en el de la solución materialista: la experiencia de Aspect muestra que dos sistemas cuánticos que han entrado en interacción están representados por una función de onda global y que cada sistema, considerado independientemente, no puede estar representado por una función de onda. Ahora bien, un aparato de medición está constituido por cuantones que ya sufrieron interacciones al cobrar existencia (por ejemplo, en el momento del big bang). En teoría, no se lo puede considerar pues como aislado ni representarlo por una función de onda (a diferencia de los cuantones que son sometidos a medición y que se “preparan” de manera tal que puedan ser representados por una función de onda). Algunos físicos han tratado de tener en cuenta este hecho en la elaboración de una teoría de la medición; pero tornaron a encontrar las dificultades que acabamos de exponer.

§. Los demás
Como ya lo indicamos, no está uno condenado a elegir entre el materialismo y el idealismo; y en realidad la interpretación más difundida de la física cuántica no elige entre una y otra posición. Esta interpretación es la de Bohr y Heisenberg, llamada también interpretación de la Escuela de Copenhague. Los filósofos la llaman positivista o empirista u operacionalista. Según esta interpretación, la física cuántica se refiere, no a la realidad, sino al conocimiento que tenemos de la realidad. Ese conocimiento está descrito por la función de onda y es normal que la función de onda esté perturbada (reducida) en ocasión de una medición, puesto que en ese caso precisamente modificamos nuestro conocimiento de la realidad. La física cuántica permite simplemente a los observadores que disponen de aparato de medición representar correctamente las observaciones. Es vano y carece de significación tratar de explicar por qué la física cuántica funciona; basta con comprobar que funciona y aplicar su formalismo.
Esta interpretación tuvo el gran mérito de permitir que la física avanzara sin plantearse cuestiones durante varios decenios. Pero los curiosos han vuelto a la carga, especialmente con motivo de las experiencias realizadas alrededor de la paradoja EPR. La interpretación de la Escuela de Copenhague no los satisface y esperan llegar a la realidad subyacente de este formalismo, en el caso de que haya alguna. Muchos de ellos reprochan a esta interpretación la circunstancia de que no es más que un idealismo disfrazado.
También se puede evitar la elección entre materialismo e idealismo suponiendo la existencia de una realidad misteriosa de la cual materia y espíritu serían dos de sus manifestaciones. También en esta dirección marchan David Bohm, partidario de una teoría de “variables ocultas no locales”, y otros físicos que se atienen estrictamente a la teoría cuántica, como Fritjof Capra en los Estados Unidos y Bernard d’Espagnat en Francia, aunque este último está sin embargo muy próximo al idealismo. Se puede designar con la expresión “sincretismo cuántico” este intento de síntesis; en efecto, el sincretismo designa a la vez una doctrina que trata de combinar religiones aparentemente incompatibles y la aprehensión global pero confusa de un todo.

§. Un poco de filosofía
De manera que la física más elaborada, el remate extremo de la ciencia, vuelve a formular las interrogaciones tradicionales de la filosofía que se creían abolidas por obra del desarrollo mismo de la ciencia y el aparente triunfo del materialismo más simple, es decir, el materialismo local y determinista. El “problema de la medición” no es sino el resurgimiento de un viejo debate que opuso a los filósofos en el curso de los siglos. Sin duda, ese debate es inherente a la naturaleza humana misma: el desarrollo de la personalidad durante la niñez, por interacción con el ambiente material y humano y gracias a la adquisición del lenguaje, culmina en la constitución —o en la revelación— de un yo que inevitablemente tratará de definirse en relación con el mundo exterior. Y así aparecen los grandes problemas metafísicos y se elaboran diversas concepciones filosóficas del mundo.
En el proceso de esta elaboración surgió un vocabulario especializado y se constituyó, por lo menos en Francia, una especie de lenguaje normativo dominante, que habremos de exponer antes de decir por qué no lo hemos respetado. En ese lenguaje, explicado en la mayor parte de los manuales escolares y de las enciclopedias, materialismo se opone a espiritualismo, realismo a idealismo y monismo a dualismo.
Según el materialismo, nada existe fuera de la materia. El espíritu no es más que un epifenómeno, una propiedad de la materia que alcanzó cierto grado de complejidad. (Damos por supuesto aquí que hay un acuerdo en el uso corriente sobre la significación de las palabras espíritu y materia, de las que no pretendemos dar una definición precisa... tarea que, por lo demás, estaría más allá de nuestros medios.) La forma más extrema de materialismo llega a formular proposiciones de este tipo: “El pensamiento es al cerebro lo que la orina a los riñones”. Para el espiritualismo, en cambio, el espíritu existe independientemente de la materia y es superior a ella; es el espíritu el que rige el universo.
Según el realismo, dando a este término el sentido que adquirió en el siglo XIX, el mundo existe tal como lo vemos, aun cuando nosotros no estemos presentes para verlo. Los planetas continúan girando alrededor del sol, los ríos continúan derramando sus aguas en el mar y los pajarillos continúan cantando. El idealismo, por el contrario, sólo tiene por segura la existencia de nuestros pensamientos y de nuestras sensaciones, de manera que puede o bien rechazar rotundamente la existencia de un mundo material que sería exterior a nosotros (ésta es la tesis de George Berkeley) o bien asimilarse al espiritualismo tal como lo hemos definido (el “idealismo trascendental” de Immanuel Kant).
El monismo supone la existencia de una sola variedad de ser, ya la materia (materialismo), ya el espíritu (idealismo de Berkeley); el dualismo en cambio cree en la existencia de la materia y del espíritu. Observemos que la palabra dualismo tiene otros sentidos, por ejemplo, la oposición del bien y del mal en el maniqueísmo.
Estas definiciones parecen claras, sin embargo no les falta ambigüedad y, a nuestro juicio, pueden ser reemplazadas por una simple alternativa. En primer lugar, desde un punto de vista histórico, los seis términos en cuestión aparecieron bastante tardíamente, en tanto que las ideas que ellos expresan existían desde mucho tiempo atrás. La palabra materialismo apareció sólo en 1675 bajo la pluma del físico anglo-irlandés Robert Boyle; y sin embargo esta teoría se remonta al filósofo griego Leucipo (siglo V antes de nuestra era); el materialismo de los antiguos era conocido con el nombre de atomismo. En cuanto al propio Boyle era creyente y fue su contemporáneo Thomas Hobbes quien, sin utilizar la palabra materalismo, desarrolló las tesis del materialismo moderno. El término espiritualismo designaba a principios del siglo XVIII una variedad de misticismo; luego se llamó “espiritualista” al idealismo de Berkeley y sólo en 1831 la palabra “espiritualismo” fue empleada en filosofía con un sentido actual. Por lo demás, a principios del siglo XVIII los filósofos que se oponían al desarrollo del moderno materialismo se llamaban a sí mismos idealistas (el término data de esta época) y no espiritualistas.
El término realismo, desde su aparición en el siglo XVI, asumió varias significaciones a veces contradictorias. En efecto, en el siglo XVI esta palabra se inventó para designar la filosofía de Platón, que empero puede considerarse como el primero de los idealistas o de los espiritualistas. En cambio, en el siglo XIX el término tomó un sentido prácticamente idéntico a materialismo y se opuso al idealismo que, según vimos, había sido acuñado alrededor de 1700 para enfrentar al materialismo.
El vocablo monismo fue creado por el filósofo alemán Christian von Wolff a principios del siglo XVIII, pero sólo fue utilizado ampliamente a partir de fines del siglo XIX. La introducción de la palabra dualismo en filosofía se debe también a von Wolff.
Cabe ahora hacer las observaciones siguientes:
§. Físicos y filósofos
Por todas estas razones decimos retener tan sólo los términos materialismo e idealismo Al preferir materialismo o realismo, nos hemos negado a someternos a un modo predominante actualmente entre aquellos físicos que hacen filosofía. En efecto, cuando son materialistas, esos físicos prefieren designarse como realistas. Esto se debe tal vez a que la materia misma parece cada vez menos materialista. La materia de los físicos cuánticos, ya sean materialistas, ya sean idealistas, no corresponde en efecto al sentido común como pudimos comprobar en todo lo expuesto anteriormente. El materialismo cuántico parece atenuado y algún tanto fantasmagórico comparado con el materialismo puro de fines del siglo XIX. Por lo demás, la ambigüedad del concepto de realismo permite a un físico indiscutiblemente antimaterialista como Bernard d’Espagnat presentarse como el verdadero realista en virtud de un “realismo remoto” que se opondría al “realismo próximo” de los materialistas. Ciertamente se puede considerar la posibilidad de deslindar idealismo y realismo llamando idealistas a los que creen en la existencia del espíritu y sólo en él (definición diferente de la que hemos adoptado nosotros) y llamando realistas a los que creen en la existencia de la materia cualesquiera sean sus opiniones en lo tocante al espíritu. Pero esta división no tiene ningún interés, pues en este sentido el propio Wigner, que propone una solución dualista, es un realista.
Además de evitar ciertas sutilezas ambiguas o superfluas, la terminología de clasificación que hemos adoptado permite reagrupar a los filósofos y a los físicos en cuatro grandes familias, de las cuales citaremos algunos representantes indicando en bastardilla el nombre de los físicos:
¿Quiere decir que no hay nada nuevo bajo el sol? No, se han dado pasos decisivos y, por ejemplo, el materialismo “cuántico” tiene poco en común con el de los siglos que precedieron al nuestro. Los conceptos de determinismo y de espacio sufrieron un duro golpe. Sobre este punto encontramos en el Breve tratado de metafísica de Denis Huisman y André Verges, que data de 1961, estas afirmaciones un poco demasiado seguras: “No es cuestión de renunciar a la exigencia constitutiva del determinismo. Si en el estado actual de nuestras técnicas la posición del electrón es en ciertos casos indeterminable, dicha posición no está necesariamente indeterminada en sí misma ni es indeterminable para los métodos que la ciencia pueda descubrir en el futuro”. Los filósofos deberán aprender a reflexionar teniendo en cuenta las adquisiciones de la ciencia y deberán dejar de plantearse dudosos a priori. En cuanto a la objetividad de la noción de espacio (o quizá del flujo del tiempo) ha sido fuertemente cuestionada por las experiencias sobre la paradoja de Einstein-Podolsky-Rosen. Si el debate filosófico tradicional prosigue a través de la física cuántica, es un debate completamente renovado y la variante corrientemente llamada “racional” del materialismo, es decir, la variante local y determinista ha quedado radicalmente eliminada.

Capítulo 7
Las teorías de variables ocultas no locales

Ya hemos hablado de “variables ocultas”, especialmente en el capítulo dedicado a la paradoja EPR y a la experiencia de Aspect. También hemos precisado que esta experiencia había eliminado la hipótesis de las “variables ocultas locales”, pero dejaba espacio para la hipótesis de las variables ocultas “no locales”. Una fabulilla nos permitirá comprender mejor estos dos conceptos.

§. Papúes en París
Como consecuencia de unos acuerdos entre Francia y Papuasia, Nueva Guinea, una tribu papú delega a veinte etnólogos a nuestro país a fin de que estudien nuestra civilización. Esos etnólogos lo ignoran todo sobre la tecnología moderna pero son “fuertes en matemáticas” y todos tienen relojes precisos y bien sincronizados. Cada etnólogo está instalado en el hogar de una familia parisiense diferente. La primera noche, diez de esas familias van con su invitado al cinematógrafo para ver diez películas diferentes, en tanto que los diez restantes papúes ven un filme de Belmondo por el Canal 2.
Por la mañana siguiente nuestros etnólogos tienen una primera reunión de trabajo. Los diez primeros cuentan la velada que pasaron: los llevaron a salas oscuras, se sentaron y al cabo de un rato tuvieron la sorpresa de ver en la pared que tenían frente a sí escenas diversas: una intriga policial en un caso, un episodio de la historia de Francia en otro, juegos eróticos en el tercer caso, un western en el cuarto caso, etc. Para nuestros etnólogos se trata de una especié de teatro de dos dimensiones, cuya fuente es una variable oculta, misteriosa, fuente empero diferente de una sala oscura a otra; se trata pues de una variable oculta local (en este caso, el aparato de proyección). En cuanto a los otros diez etnólogos cada uno de ellos permaneció sentado en la sala principal de su alojamiento en compañía de sus anfitriones y frente a una caja provista de una claraboya de vidrio opaco. El dueño de casa apretó un botón, la caja se iluminó y apareció un espectáculo en la claraboya. Los aparatos de televisión no fueron encendidos todos simultáneamente. En algunos casos aparecieron las noticias televisadas, en otros anuncios publicitarios. Pero a las 20 h. 35’ todas las cajas funcionaban; a las 20 h. 36’ 7” apareció una joven que anunció el espectáculo; a las 20 h. 37’ 19” comenzó la película; Belmondo se mostró por primera vez a las 20 h. 39’ 47”; el primer tiro se disparó a las 21 h. 7’ 17”; a las 21 h. 15’ 03” el espectáculo se interrumpió y fue reemplazado por este texto: “Dentro de algunos instantes continuará nuestro programa”; el espectáculo tomó a comenzar a las 21 h. 17’ 35” y terminó con la palabra “fin” a las 22 h. 19’ 58”. Los diez etnólogos están absolutamente de acuerdo sobre las horas; cada uno de esos hechos apareció simultáneamente en todas las cajas. Como los aparatos se encendieron en diferentes instantes, no se trata de programas preestablecidos que estuvieran en el interior de cada caja y fueran lanzados en el mismo momento. Nuestros etnólogos llegan a la justa conclusión de que las cajas funcionan obedeciendo a la influencia de una variable oculta no local, es decir, extendida en el espacio (en este caso las ondas electromagnéticas que transportan la información televisada).
Sin embargo, si nuestros etnólogos hubieran poseído relojes aun más precisos habrían podido comprobar que había diferencias de algunas millonésimas de segundo entre los acontecimientos cuya aparición fijaron con sus cronómetros. Esas diferencias se deben al hecho de que las diversas casas no están situadas a la misma distancia de la estación emisora de la Torre Eiffel y al hecho de la velocidad limitada (aunque muy grande) de la luz y de las ondas electromagnéticas, que es de 300.000 kilómetros por segundo. Para un físico, esta variable oculta no es una variable no local: la no localidad se da únicamente si los acontecimientos son rigurosamente simultáneos y si puede excluirse la explicación por la transmisión de información a la velocidad de la luz.

§. Retomo a la física
Debemos ahora retomar a conceptos más áridos y a un vocabulario más matemático. En términos generales, las teorías de variables ocultas (y su generalización probabilista que son las teorías “estocásticas”; véanse los párrafos siguientes) se atienen firmemente a la idea de que toda partícula es efectivamente un punto material, una especie de bolita cuya posición está determinada en todo momento: es pues inútil hablar de “cuantones”. Para las teorías de variables ocultas propiamente dichas, cada partícula tiene asimismo una velocidad bien determinada; las teorías estocásticas no tienen esta exigencia y admiten que es imposible definir una velocidad en las partículas. Si volvemos a considerar nuestro ejemplo del pez en la charca, el pez tiene una posición bien precisa antes de ser pescado; para estas teorías, no hay “reducción del paquete de ondas”.
La experiencia de Aspect eliminó las teorías locales (de variables ocultas o estocásticas): sólo permanecen en la liza las teorías no locales que están casi tan alejadas de la física clásica como de la teoría cuántica. Digamos sin embargo algunas palabras sobre las teorías de variables ocultas locales que son las más fáciles de comprender a fin de mostrar cómo las ideas fáciles y el sentido común no cuajan. El ejemplo más simple es el del fotón emitido por un átomo interestelar situado a un año luz de la tierra, ejemplo que mencionamos en el capítulo tercero. Según las teorías de variables ocultas locales es exacto que si un gran número de átomos situados aproximadamente en el mismo lugar emiten simultáneamente un fotón, el conjunto de esos fotones se distribuirá por la superficie de una esfera que tendrá como centro ese lugar y que se desarrollará a la velocidad de la luz. Pero cada fotón habrá sido emitido en una dirección bien definida:

032.jpg

La variable oculta en este caso es evidentemente la dirección tomada por cada fotón en el momento de la emisión. Se trata de una variable oculta local definitivamente ligada a cada fotón tomado por separado (por lo' menos mientras no encuentre obstáculos), variable independiente tanto de lo que puedan hacer los otros fotones como de todo aparato de detección instalado por un observador terrestre o extraterrestre.
Pero es mucho más difícil precisar concretamente las variables ocultas locales que podrían explicar la experiencia de las ranuras de Young (véase el recuadro anterior). Por nuestra parte, nosotros no lo hemos logrado. David Bohm, que es un físico de muy alto nivel, tuvo que apelar a variables ocultas no locales para explicar esa experiencia. En efecto, si se limita uno a las variables ocultas locales, un fotón (o un electrón), concebido como un corpúsculo casi puntual, está destinado o bien a pasar por una ranura y a llegar a un determinado punto de la placa fotográfica o bien a pasar por la otra ranura y a llegar a otro punto de la placa. Ahora bien, la experiencia demuestra que cuando las dos ranuras están abiertas, el dibujo final obtenido en la placa fotográfica al cabo de un tiempo T no es absolutamente la superposición de los dos dibujos obtenidos cuando uno obtura una ranura durante ese mismo tiempo T, luego la abre y obtura la otra ranura durante el tiempo T.' El fotón (o el electrón) no muestra pues el mismo comportamiento cuando las dos ranuras están abiertas o cuando está abierta una sola; el fotón “conoce” de alguna manera el estado (abierto o cerrado) de las ranuras, lo cual implica una influencia a la distancia. Volvemos a dar aquí en la discusión desarrollada en relación con la paradoja EPR y de la experiencia de Aspect: ¿Qué es esa influencia misteriosa? Si no se propaga más rápidamente que la luz, se puede suponer que es transportada por variables ocultas locales, pero es imposible precisarlas explícitamente por falta de conocimiento sobre esta influencia. Si la influencia es instantánea, hay que desarrollar una teoría de variables ocultas (o estocástica) no locales o reconocer la propiedad y exactitud de la física cuántica.
De todas maneras el problema ha quedado zanjado por la experiencia de Aspect: la explicación por las variables ocultas locales no da resultado ni siquiera en su generalización estocástica. Falta examinar ahora las teorías no locales de variables ocultas o estocásticas. Un primer inconveniente consiste en el hecho de que hay muchas teorías que se contradicen unas a otras. Un segundo inconveniente es el de que la matemática empleada sea, no ya más difícil, sino más embrollada que la de la física cuántica, aunque no por eso alcanza mayor eficacia, el lema común de quienes proponen estas teorías parece ser “¿Por qué hacer las cosas simples cuando se las puede hacer complicadas?” Una vez dicha esta maldad, expondremos así y todo sumariamente la más sólida y la más célebre de las teorías de variables ocultas no locales, la de David Bohm, antes de decir algunas palabras sobre las teorías estocásticas.

§. De Broglie y Bohm
La teoría de Bohm (habría que decir más precisamente “la primera teoría de Bohm”) data de 1951; fue elaborada partiendo de ideas expuestas desde 1926 por Louis de Broglie, que las abandonó al año siguiente. Hagamos notar que de Broglie se interesó de nuevo por esas ideas cuando comenzó a circular la teoría de Bohm y cuando el físico francés Jean-Pierre Vigier se asoció a ella en 1952. Según esta teoría, existe en el espacio un “potencial cuántico” además de los campos de fuerza reconocidos por la física clásica y por la física cuántica; a diferencia de esos campos de fuerza, el potencial cuántico no transporta energía y no podemos detectarlo directamente, pero las partículas sufren sus efectos y se sirven de ellos de alguna manera para comunicarse entre sí. Por ejemplo, en las experiencias alrededor de la paradoja EPR, las dos partículas que se alejan están vinculadas permanentemente por ese potencial; la medición practicada en una de las partículas modifica instantáneamente el potencial sufrido por la otra, de ahí la correlación observada entre los resultados de las mediciones. En el caso de la experiencia de las ranuras de Young, la obturación de una de las ranuras modifica instantáneamente el potencial cuántico y, por lo tanto, el trayecto del fotón (o del electrón), de ahí la explicación del hecho de que ese trayecto depende del número de ranuras abiertas. El potencial cuántico es la variable oculta, no local de la teoría de Bohm; ese potencial obra sobre las partículas así como las ondas electromagnéticas emitidas desde la Torre Eiffel obran sobre los aparatos de televisión en nuestro apólogo franco-papú, con dos diferencias: sus variaciones se propagan a una velocidad infinita (y no a la velocidad de la luz) y ese potencial no transporta energía.
Puesto que se puede explicar tanto la experiencia de Aspect como aquella de las ranuras de Young con la ayuda de esta primera teoría de Bohm, ¿por qué no adherirse a ella? Primero, porque a los físicos no les gusta crear nuevas entidades físicas cuando pueden prescindir de ellas. Los físicos no aprecian en modo alguno ese “potencial cuántico” al que serían sensibles las partículas, pero que no transporta energía y es absolutamente indetectable (salvo de manera indirecta por sus efectos en las partículas). Pero esta primera teoría de Bohm ya no resulta viable cuando partículas, que se desplazan a velocidades, próximas a la velocidad de la luz, entran en colisión y se aniquilan para dar nacimiento a otras partículas (como lo probó el norteamericano Belinfante con una demostración matemática muy compleja). Aquí hay que hacer intervenir la relatividad einsteiniana; ahora bien, la teoría de Bohm no pudo conciliarse con la relatividad, a diferencia de la física cuántica, que gracias a la “teoría cuántica relativista del campo” describe bien estos fenómenos de colisión y además predice la existencia de las dos estadísticas cuánticas mencionadas en el quinto capítulo de este libro; esto no ocurre ciertamente con la primera teoría de Bohm.
Después de haber sostenido esta teoría de Bohm, de la que se valió para defender su filosofía materialista, Jean-Pierre Vigier trata ahora de desarrollar una teoría relativista sin abandonar el concepto de “potencial cuántico” y utilizando elementos provenientes de una teoría “estocástica” propuesta en 1966 por el matemático Edward Nelson, teoría que permite volver a encontrar la ecuación de Schrödinger. Antes de exponer sucintamente las ideas de Vigier debemos precisar un poco lo que se entiende por “teorías estocásticas”. Se trata de teorías que describen evoluciones probabilistas en el tiempo; se las utiliza para una gran cantidad de cosas (incluso en economía y en biología) y en particular en física se las utiliza en el caso del “movimiento browniano”. Hablemos pues de ese movimiento para dar un ejemplo de los fenómenos que se pueden describir matemáticamente con una teoría estocástica.

§. ¿El orden por el desorden?
En 1827, el botánico inglés Robert Brown, al examinar en el microscopio granos de polen dispersos en una gota de líquido, comprobó que esos granos realizaban, independientemente los unos de los otros, movimientos incesantes completamente desordenados. La explicación del fenómeno se halló a fines del siglo XIX: las moléculas del líquido, que son invisibles, están en agitación permanente la cual es tanto mayor cuanto más alta es la temperatura; se trata de la agitación térmica. Un grano de materia colocado en un líquido será sin cesar bombardeado por esas moléculas. Si es lo bastante grande recibirá más o menos la misma cantidad de golpes de cada lado y no se moverá. Pero si es muy pequeño recibirá muchos menos golpes, y según las leyes de la estadística, los golpes procedentes de cierto lado serán mucho más numerosos: el grano de materia partirá pues en la dirección opuesta y con tanta mayor velocidad cuanto más liviano sea. Se puede representar este fenómeno del modo siguiente:

033.jpg

Un poco más lejos los golpes provendrán de otro lado y el grano de materia tomará otra dirección, y así sucesivamente. Por fin se tendrá un trayecto completamente errático y desordenado:

034.jpg

Por analogía con este movimiento browniano, Vigier supone que el vacío está en realidad colmado de millones y millones de pequeños corpúsculos subcuánticos, totalmente inaccesibles a nuestros sentidos y a nuestros medios de observación actuales (así como las moléculas del líquido son invisibles en el caso del movimiento browniano) y que pueden golpearse uno a otro de manera instantánea o en todo caso con mayor rapidez que la velocidad de la luz. Entonces se pueden explicar las experiencias EPR de la manera siguiente: cuando la polarización (o el espín) de la primera partícula es sometida a medición, una onda de choque que se propaga casi instantáneamente recorre ese “vacío lleno” en dirección de la segunda partícula y fija su polarización (o su espín) de manera que. quedan respetadas las leyes de la física cuántica.
Otros físicos tratan de desarrollar la teoría estocástica de Nelson de un modo más abstracto y más elegante, pero renunciando (como el propio Nelson) al determinismo. Todos estos intentos son interesantes pero no permiten un verdadero progreso en el dominio relativista y no tienen en modo alguno la eficacia de la teoría cuántica relativista del campo que, por ejemplo, realizó la unificación de la fuerza electromagnética y de la fuerza “débil” (a la que se deben ciertas formas de radiactividad) y predijo la existencia de partículas extremadamente pesadas descubiertas en 1982- 1983.

§. Todavía Bohm
Frente a estas dificultades, Bohm se lanzó a una empresa muy ambiciosa de reconstrucción de la física, fundada en la idea de que el orden “desplegado” del mundo, el orden que vemos, expresado por ejemplo en el movimiento de los planetas, sería en verdad la expresión de un orden “implicado” en el cual los conceptos de tiempo y espacio ya no tendrían validez. Como este intento no logró su fin por el momento y como apela a nociones extremadamente abstractas (especialmente en sus aspectos matemáticos), nos contentaremos con dar la imagen con la cual Bohm trata de representar lo que él entiende por “orden implicado”. Esta imagen es la del holograma.
Todo el mundo sabe lo que es una fotografía corriente. Supongamos que se haya fotografiado un árbol. Si se corta la fotografía en cuatro partes y se conserva el cuarto superior derecho-, sólo se verá una parte del árbol.

035.jpg

Supongamos ahora que se haya realizado un holograma de ese árbol. Ese holograma está inscrito en una placa. Si uno toma la placa y la mira, no ve nada en ella. Si se la mira en el microscopio sólo se ve una confusión incomprensible de líneas claras y oscuras, pero si se la ilumina con una luz conveniente (luz láser, por ejemplo), se ve de nuevo el árbol y hasta se lo ve en relieve. Si se corta la placa en cuatro partes y si se conserva el cuarto superior derecho, al iluminárselo convenientemente se verá de nuevo el árbol entero (apenas un poco más vago).

036.jpg

De manera que cada lugar de la placa posee una información sobre el árbol entero y de la misma manera, según Bohm, cada región del espacio-tiempo, por pequeña que sea, contiene una información sobre el orden implicado del universo entero.
Por lo demás, puede considerarse la primera teoría de Bohm como un esbozo de esta teoría en gestación: aquel potencial cuántico indetectable pero que rige sin transportar energía el comportamiento de las partículas, potencial extendido por todo el espacio y que puede variar en forma instantánea, presenta en efecto alguna analogía con el orden implicado ahora sugerido.
Desde un punto de vista filosófico, ya habíamos señalado que Vigier interpreta la primera teoría de Bohm en un sentido por completo materialista y mecanicista. El propio Bohm no tiene las mismas concepciones filosóficas. La última parte de su libro La totalidad y el orden implicado(Wholeness and the Implicate Order, Routledge and Kegan, Londres, 1980) lleva el título de “La materia, la conciencia y su base común”. Según Bohm, la realidad profunda no es ni espíritu ni materia, sino que se trata de una realidad de una dimensión superior que es la base común de espíritu y materia y en la cual prevalece el orden implicado.
Digamos por fin que una interpretación aún más “idealista” de las variables ocultas no locales es la propuesta por el físico norteamericano Jack Sarfatti. Según él, esas variables ocultas no locales podrían desempeñar el papel de variables “psíquicas” y dar la explicación de ciertos fenómenos parapsicológicos como la telepatía y la psicokinesis (acción a la distancia sobre la materia). En efecto, las variables ocultas no locales pondrían en relación, de manera no clásica, sistemas aparentemente separados y, por ejemplo, una transferencia de esas variables entre sujeto consciente y objeto material explicaría los fenómenos (extremadamente dudosos) de la torsión de metales o de desplazamiento de objetos a la distancia.
¿Qué conclusiones podemos sacar de esta rápida visión panorámica? La primera teoría de Bohm, que continúa siendo la más sólida de las teorías de variables ocultas, tropieza con el escollo de la relatividad. Quizá los trabajos actúales de Bohm nunca lleguen a su meta; por otra parte, son más un intento de reconstruir la física que el desarrollo de una teoría sobre variables ocultas no locales. Y por otro lado, todas estas teorías nos llevan a las mismas interrogaciones filosóficas que la física cuántica. Hay que recordar que los físicos continúan trabajando en esto, pero que los éxitos actuales de la física cuántica y en particular de la teoría cuántica relativista del campo nos llevan a pensar que en todo caso se llegará a una posible interpretación de la física cuántica atendiendo a variables .ocultas no locales (o a estímulos estocásticos) y no a un cuestionamiento de esta física.

Capítulo 8
Las interpretaciones cuánticas propiamente dichas

Ya hemos esbozado una clasificación filosófica de las interpretaciones de la física cuántica y señalamos materialismo, idealismo y síntesis o negativa a elegir entre las dos alternativas; es decir señalamos tres posibilidades. Pero también puede proponerse una clasificación completamente diferente, más física, clasificación que ofrece también ella tres posibilidades: cuestionamiento del concepto de espacio, cuestionamiento del concepto de tiempo y cuestionamiento de la idea de unicidad del universo. En última instancia, si se asocian estas posibilidades con las teorías de variables ocultas no locales, que indiscutiblemente consideran problemática la idea de espacio, tenemos doce posibilidades de interpretación de la física cuántica.

037.jpg

Se las puede resumir en el siguiente cuadro; en sus casillas hemos colocado los nombres de algunos físicos que manifestaron explícitamente su elección; los nombres puestos en bastardilla son premios Nobel.
Como se ve, tres casillas quedan vacías; ello significa que hasta ahora ningún físico juzgó conveniente desarrollar la interpretación correspondiente. Se comprueba también que el nombre de Einstein no aparece; sin duda Einstein se habría horrorizado de todas estas soluciones... Y sin embargo parece que no hay otras.
Las teorías de variables ocultas no locales han sido descritas sumariamente en el capítulo anterior, de manera que ahora nos atendremos a la física cuántica propiamente dicha para comprobar cómo los físicos, ya materialistas, ya idealistas, ya situados entre las dos posiciones, se ven obligados a considerar problemáticas nociones aparentemente tan evidentes como el espacio, el tiempo o la unicidad del universo.

§.¿Existe el espacio?
Lo primero que se pone en tela de juicio es la noción de espacio. Este cuestionamiento se realiza en virtud de un concepto (en la medida en que se lo puede concebir) designado por los términos “no separabilidad” o, menos frecuentemente, “inseparabilidad”. (Observemos al pasar que los físicos estrictamente cuánticos, en Francia por lo menos, prefieren hablar de “no separabilidad” en los casos en que los partidarios de las teorías de variables ocultas no locales hablan de “no localidad”.) La no separabilidad expresa el hecho al que nos referimos en el capítulo sexto de este libro y demostrado por la experiencia de Aspect, de que dos sistemas cuánticos qué entraron en interacción están descritos por una función de onda única, cualquiera sea el alejamiento ulterior y que eso se prolonga hasta que uno de los dos es objeto de una medición.
Mientras ninguno de los dos sistemas haya sido sometido a medición, el hecho de que ambos estén descritos- por una función de onda única es turbador, pero no dramático. En efecto, esos dos sistemas son potencialidades, nosotros estábamos a punto de decir hipótesis o comodidades matemáticas. Pero cuando el primero de los dos sistemas es sometido a medición, el resultado obtenido en el- aparato que acaba de operar va a fijar (en virtud de orientaciones convenientes de los aparatos de medición) obligatoriamente e instantáneamente el resultado que se encontrará en el segundo aparato, resultado que sin eso habría sido aleatorio. La no separabilidad se traduce pues en una violación concreta y visible del concepto de espacio. Sobre esto están de acuerdo los materialistas, los idealistas o los operacionalistas de la escuela de Copenhague.
Citemos en primer lugar a Michel Paty, físico francés materialista (en el sentido “cuántico”) pero que se define como un realista: “Algunos... no pueden pensar un sistema físico sin referencia al espacio, pero parece que ésta es una posición discutible; presenta el inconveniente de tomar el espacio como una categoría a priori, lo cual nos lleva en cierto modo a una posición kantiana sobre el conocimiento” (L’inséparabilité quantique en perspective, Fundamenta Scientiae, 1982). ¿Cómo no relacionar estas frases con la fórmula de Bernard d’Espagnat, partidario de un sincretismo muy próximo al idealismo, según el cual las consideraciones de no separabilidad “llevan a pensar que el espacio no es en definitiva más que un modo de nuestra sensibilidad” (A la recherche du réel, 1979)?
La respuesta que Bohr dio en julio de 1935 al artículo de Einstein, Podolsky y Rosen no contiene la expresión “no separabilidad”, que es de invención reciente. Dicha respuesta, por lo demás, no es muy clara y todavía es objeto de interpretaciones diversas. El propio Bohr confesaría posteriormente que se había expresado mal. Sin embargo, en la medida en que se la puede juzgar, esa respuesta parece fundada en la idea de que en las experiencias del tipo EPR, cuantones y aparatos de medición forman un todo indivisible. Al comienzo de su respuesta Bohr declara que en efecto “la interacción finita entre el objeto (es decir, el sistema cuántico que se quiere someter a medición) y los dispositivos de medición, interacción estipulada por la existencia misma del cuanto de acción, acarrea —en razón de la imposibilidad de controlar la reacción del objeto sobre los aparatos de medición, si éstos deben llenar su cometido— la necesidad de renunciar definitivamente a la idea clásica de causalidad y de revisar radicalmente nuestra actitud ante el problema de la realidad física”. Luego, después de una larga discusión técnica, Bohr concluye que “la argumentación de los autores mencionados (Einstein, Podolsky y Rosen) no justifica su conclusión según la cual la descripción cuántica es esencialmente incompleta. Por el contrario, esta descripción puede caracterizarse como la utilización racional de todas las posibilidades de interpretación no ambigua de las mediciones, interpretación compatible con la interacción finita e incontrolable de los objetos y de los instrumentos de medición dentro del marco de la teoría cuántica”. Si trata uno de descifrar estas afirmaciones a la luz de las ideas generales de la Escuela de Copenhague, se puede decir que, para Bohr, únicamente los conjuntos cuantones + aparatos de medición pueden ser tomados en consideración por la física pues únicamente sobre esos conjuntos se pueden definir y obtener resultados susceptibles de ser comunicados a otras personas o de ser tratados matemáticamente. En una experiencia del tipo ÉPR, el conjunto implica efectivamente dos aparatos de medición separados en el espacio, pero se trata así y todo de un conjunto que debe considerarse como indivisible. De ahí un cuestionamiento de la noción de espacio, cuestionamiento implícito pero muy vigoroso, pues no se refiere tan sólo a cuantones sino que se refiere a conjuntos que abarcan objetos de nuestra escala.
En cuanto a los idealistas puros (Wigner, por ejemplo) retoman esta interpretación e incluyen aún más explícitamente a los observadores a quienes les hacen desempeñar el papel fundamental en esos conjuntos indivisibles.
Semejante coincidencia sobre la impropiedad de la noción de espacio es tanto más interesante por cuanto deriva de físicos que sustentan posiciones filosóficas radicalmente diferentes. Esa convergencia muestra que las diferencias filosóficas no les impiden cuestionar todos juntos una de las bases más sólidas de la física tradicional, de la ciencia en general y hasta del entendimiento humano.
Observemos sin embargo que los idealistas (tengan o no conciencia de ello) ponen igualmente en tela de juicio el concepto de tiempo, especialmente en el caso de los registros automáticos de los que se adquiere conocimiento sólo posteriormente.
En el sexto capítulo hemos desarrollado detalladamente este punto cuando examinamos las ideas de Wigner.

§.¿Se puede remontar el curso del tiempo?
Un segundo grupo de físicos, muy reducido puesto que se compone sólo de tres personas que nosotros sepamos, pone en tela de juicio, no la noción de espacio, sino únicamente la del tiempo, pues admite que el tiempo puede ser recorrido en los dos sentidos. Esos físicos son el francés Costa de Beauregard (idealista) y los norteamericanos Cramer y Davidón (materialistas): tampoco aquí las diferencias de filosofía impiden un acuerdo en lo tocante a las bases de la física.
El más conocido es indiscutiblemente Oliver Costa de Beauregard, quien fue el primero en exponer esta hipótesis en 1947 en presencia de Louis de Broglie, que no vaciló en considerarla “literalmente insensata”. Costa de Beauregard publicó su hipótesis en 1953 que, cuando volvió a ponerse de moda la paradoja EPR, encontró el apoyo de Davidon en 1976 y el de Cramer en 1980.
¿En qué consiste precisamente esta hipótesis? Consiste en interpretar la paradoja EPR de la manera siguiente: lo que llamamos un cuanton (un fotón, por ejemplo) está formado por la combinación de una onda “retrasada” que recorre el tiempo en el sentido habitual y de una onda “avanzada” que se remonta en el curso del tiempo. En la experiencia de Aspect, los dos fotones son emitidos por la fuente en forma de ondas retrasadas en un tiempo que nosotros consideraremos el origen y por lo tanto el tiempo t = 0. El fotón 1 llega al aparato de medición 1 en el tiempo t1, de modo que su polarización queda fijada; el aparato 1 emite entonces una onda avanzada que remonta el curso del tiempo para encontrar en el tiempo 0 al fotón 2 en la fuente; la onda puede en ese momento comunicar al fotón 2 la polarización que éste debe tener para que las leyes cuánticas se verifiquen:

038.jpg

Como, según la relatividad, el fotón que es medido en primer término no es el mismo para los diferentes observadores que se desplazan los unos en relación con los otros, se plantea un problema en el caso de la experiencia de Aspect y de experiencias análogas: se dice que la medición efectuada “en primer término” obra igualmente sobre “el cuanton”, pero ¿cuál es la medición efectuada en primer término si el tiempo es relativo? La interpretación de Costa de Beauregard tiene el mérito de solucionar este problema.
Costa de Beauregard adopta el punto de vista de Wigner en lo referente a la “reducción del paquete de ondas”. Piensa que la polarización del fotón sólo queda fijada si un observador ve el resultado de la medición: como las ondas avanzadas se remontan en el curso del tiempo, esto permite al observador obrar efectivamente en el tiempo t1 (o t2 en el caso del fotón 2) y en última instancia en el tiempo O. Davidon y Cramer rechazan esta interpretación idealistas y piensan que es el hecho de encontrar un aparato de medición (y más generalmente según Cramer, un “absorbedor”) lo que obliga al cuanton 1 a determinarse y luego lo que obliga a su parte de onda avanzada a remontarse en el curso del tiempo para informar al cuanton 2 de su estado. Cramer intentó esbozar una teoría cuántica relativista fundada en esta hipótesis con la ayuda de una antigua idea de John Wheeler y Richard Feynman.
Ocurre que ciertos modelos de cálculo de la teoría cuántica relativista del campo también apelan a la alteración del sentido del tiempo. Veamos con un poco más de detalle de qué se trata.
Lo mismo que la teoría desarrollada por Heisenberg en 1925, esta teoría hace intervenir matrices que en este caso se llaman matrices de difusión. Dichas matrices permiten prever las probabilidades de que un sistema de partículas (cuantones) pase a un segundo sistema de partículas, cuando las partículas del primer sistema entran en colisión o sufren una perturbación debida a un campo de fuerzas (transitoriamente reemplazamos la designación de cuanton por la de partícula, pues la disciplina que se ocupa de estos fenómenos se llama física de las partículas elementales). El segundo sistema puede contener partículas nuevas creadas en la interacción, en tanto que por lo menos alguna de las partículas iniciales pueden haber desaparecido. Las matrices de difusión son tremendamente complicadas y contienen, entre otras cosas, términos que expresan la aniquilación de ciertas partículas y la creación de otras partículas. En 1949, el célebre físico norteamericano Richard Feynman (premio Nobel en 1965) propuso un método que permite calcular más fácilmente los términos de esas matrices con la ayuda de diagramas o gráficos sobre los cuales se colocan fórmulas establecidas de una vez por todas. Ahora bien, en ciertos casos ¡esos gráficos comprenden porciones en las que el tiempo es recorrido al revés!
Demos aquí un ejemplo simplificado y expuesto a menudo por el propio Feynman. Un electrón que se desplaza libremente en el vacío penetra de pronto en una zona restringida del espacio, en una especie de caja, en la que impera un fuerte campo electromagnético. La trayectoria del electrón se modificará según el dibujo siguiente, en el cual el eje Ox representa esquemáticamente la dirección del movimiento (el espacio, si se quiere) y el eje Ot el tiempo:

039.jpg

Pero para calcular correctamente el término correspondiente de la matriz de difusión hay' que agregar la contribución de otro fenómeno que se representa así:

040.jpg

La interpretación convencional de este fenómeno es la siguiente: en B se crea un segundo electrón que sale de la caja y se crea un positrón (electrón positivo) que se dirige hacia A donde habrá de aniquilarse con el primer electrón. Pero el cálculo de esta contribución, para que dé buen resultado, debe hacerse con la siguiente interpretación: el primer electrón llega a A en el tiempo t2, “luego” se remonta en el tiempo hasta el punto B al que llega en el tiempo t1, más pequeño que t2, y por fin sale de la caja. ¡El positrón está asimilado a un electrón que remonta el curso del tiempo!
¿Hay algo físico, real, en este modo de cálculo? En su primer artículo, Feynman había sostenido la interpretación realista de su proposición, pero ahora parece haber vuelto a posiciones más prudentes. Las opiniones de los especialistas están divididas. Según Jauch y Rohrlich, únicamente la suma de las dos contribuciones cuenta, y “la separación en diagramas individuales, aunque extremadamente útil, no tiene en general sentido físico”. Según ’tHooft y Veltman, en cambio, “los gráficos de Feynman contienen más verdad que el formalismo subyacente”.
Sea lo que fuere, Costa de Beauregard se apoya en esta particularidad de los gráficos de Feynman para justificar su interpretación de la paradoja EPR. En todo caso, como se refiere a un modo de cálculo nada habitual, que consiste en remontar el curso del tiempo, la analogía es inquietante.
La principal desventaja de esta interpretación, que pone en tela de juicio el concepto de tiempo, es tal vez el hecho de que haya sido propuesta por Olivier Costa de Beauregard, pues éste es un ferviente partidario de la parapsicología y no oculta sus opiniones, de modo que los demás físicos que pudieran sentirse inclinados por su interpretación tienen miedo de que se los tome por iluminados. Sin embargo la interpretación misma no tiene tal vez ninguna relación con la parapsicología y, según vimos, es defendida en los Estados Unidos por auténticos materialistas. El hecho de admitir la reducción del paquete de ondas por obra de la conciencia del observador es lo que permite a Costa de Beauregard establecer un lazo con la parapsicología y hasta valerse de esta disciplina (si es lícito llamarla así) para explicar la física cuántica. Si se rechaza esta manera de ver la reducción del paquete de ondas, en las ideas de Costa de Beauregard encontramos sólo una explicación materialista entre otras.

§.¿Hay universos paralelos?
Existe un último grupo de físicos que desarrollaron la teoría de los universos paralelos. Este grupo es también muy restringido. La teoría se remonta al norteamericano Hugh Everett (1957) a quien le prestó inmediatamente apoyo John Wheeler. Pero Wheeler, también norteamericano, cuya especialidad consiste en proponer las hipótesis físicas más fantásticas, probablemente sostuvo esta teoría sólo porque lamentaba haber sido vencido en su propio terreno y entonces pasó a intentos de interpretación geométrica, cuyo principio es reemplazar la geometría visible del universo (de tres dimensiones más una de tiempo), por geometrías invisibles mucho más complicadas, lo cual implicaba una vez más poner en tela de juicio el concepto de espacio o de espacio-tiempo. La posición de Wheeler, en lo que se refiere a los universos paralelos, fue asumida en 1970 por los norteamericanos Neill Graham y Bryce Dé Witt: los tres nombres corrientemente relacionados con esta tesis con los de Everett, Graham y De Witt.
El problema que tratan de resolver estos tres físicos es esencialmente el de la reducción del paquete de ondas, que nosotros expusimos en los capítulos quinto y sexto de este libro. Recordemos brevemente sus términos. Un cuanton que se quiere someter a medición está representado por una función de onda que obedece a la ecuación de Schrödinger; el aparato de medición, compuesto por una multitud de cuantones, está igualmente representado por una función de onda mucho más complicada que obedece a la misma ecuación (esta ecuación sin embargo no tiene la misma forma en el caso del cuanton y en el caso del aparato de medición). Cada una de estas dos funciones describe un conjunto de posibilidades a la característica que se quiere medir. En el momento de la medición, el cuanton entra en interacción con el aparato y el conjunto está representado por una función de onda aun un poco más complicada que obedece a la ecuación de Schrödinger. Ahora bien, en esta ecuación aparentemente nada obliga a la función de onda a reducirse a una de las posibilidades que ella describe. Supongamos que se quiera medir el espín de un protón (o más precisamente el componente del espín que sigue una dirección dada). Antes de la medición, el espín está indeterminado y la función de onda del protón contiene dos posibilidades. ¿Cómo se explica que después de la medición la aguja indicadora del aparato indique un valor del espín y sólo uno puesto que, según la ecuación de Schrödinger, las dos posibilidades deben subsistir? Hay que admitir pues que la ecuación de Schrödinger queda violada y deja de ser válida en el caso del fenómeno llamado “reducción del paquete de ondas”, para volver luego a adquirir su validez. De ahí los intentos de explicación idealista (Wigner) o materialista (Balinfante, Cini, etc.) del fenómeno de la medición.
Everett, Graham y De Witt proponen entonces una solución radical: en el momento de la medición no se produce la reducción a una sola posibilidad sino que se produce la división del conjunto cuanton + aparato de medición en dos conjuntos, es decir, la creación de dos universos, uno en el que el espín del protón es positivo y el otro en el que el espín es negativo. Como el resultado indicado por el aparato de medición puede ser mirado por observadores, se produce también desdoblamiento de esos observadores. Everett, Graham y De Witt precisan bien que la conciencia nada tiene que ver en esto; los observadores son simples autómatas que no se dan cuenta de sus desdoblamientos sucesivos (o de sus fraccionamientos en tres, en cuatro, etc., si hay más de dos posibilidades) en el caso de todas las operaciones de medición que se realizan en el universo o en el caso de todos los fenómenos naturales que presentan las mismas características materiales que las operaciones de medición. Síguese de ello que esta teoría debe considerarse una teoría materialista, probablemente la más extravagante de todas.
Por más que haya sido concebida en función de la paradoja del gato de Schrödinger, es decir, para resolver el problema de la medición, la teoría de los universos paralelos da una explicación relativamente parca de la paradoja de Einstein-Podolsky-Rosen basada en “ramas de universo”. Consideremos el caso de dos protones con espines opuestos que se alejan el uno del otro y se dirigen hacia dos aparatos de medición de orientaciones paralelas y supongamos que el aparato 1 funciona el primero. Entonces el universo se escinde en dos ramas, una en la que el resultado de la medición de ese aparato es +1, la otra en la que el resultado es —1. Pero puesto que los espines son forzosamente opuestos, una medición efectuada con el aparato 2 dará automáticamente —1 en la primera rama del universo y + 1 en la segunda, es decir, esta nueva medición no se resolverá en una nueva escisión en ramas paralelas. Hay una sola escisión (relativa al conjunto formado por los dos protones), de ahí que haya dos ramas de universo, y no una escisión en el caso del protón medido en primer término y luego una escisión en el caso del segundo, lo cual habría determinado cuatro ramas de universo.
A pesar de sus aspectos evidentemente fantásticos, esta teoría descansa sobre una base matemática que no está desprovista de solidez. El universo real global está representado por una sola función de onda de una complejidad enorme, que nunca se “reduce” sino que se escinde sin cesar en ramas, cada una de las cuales representa un universo tal como lo concebimos nosotros. La matemática de esta función de onda global es de tal condición que las diferentes ramas no pueden entrar en interacción, de suerte que no tenemos conciencia de la existencia de las otras ramas (ni, por lo tanto, de los otros nosotros mismos). La matemática es tal que en cada rama obran las leyes habituales de la física cuántica, incluso la reducción del paquete de ondas, lo cual explica las dificultades que encontramos cuando queremos describir nuestra rama sin tener en cuenta otras.
Después de haber suscitado mucho interés y controversias en la década de 1970, esta teoría parece haber quedado algún tanto olvidada. Ya no se oye hablar de Everett ni de Graham. En cuanto a De Witt, se orientó, como Wheeler, hacia intentos de interpretación geométrica de la física cuántica. De una manera general, a los físicos no les gusta lo superfluo y la “superabundancia de universos” les choca por lo menos tanto como el “vacío lleno”, caro de Vigier. Pero aunque aparentemente no haya más trabajos sobre esta teoría de los universos paralelos, ella figura en casi todos los libros que versan sobre física cuántica a causa de su profunda originalidad y a causa de que resulta tan difícil refutarla como adherirse a ella. No se cree en esa teoría, pero se la admira.
Cuestionamiento del espacio y del tiempo, universos paralelos… ¿no es bastante raro?

Capítulo 9
Orientalismo y parapsicología

Las rarezas del mundo de los cuantos constituyeron otras tantas brechas a través de las cuales irrumpieron las creencias más diversas. Se trate de la parapsicología o se trate del misticismo, la esperanza es sencillamente la misma. En el primer caso, se busca una justificación científica en la teoría cuántica. En el segundo caso, la teoría cuántica es usada para apuntalar los misterios y las elipsis de una religión que, naturalmente, soporta a su vez las vaguedades de la teoría; un físico diría que el problema es self consistent.
Hombres de ciencia, entre los más grandes, se sintieron atraídos por visiones “orientalistas” del mundo. Cuando en 1947 Niels Bohr fue hecho caballero eligió como blasón suyo el símbolo taoísta del Yin y del Yang.
David Bohm, ferviente admirador de la civilización india, hace notar a menudo que la misma raíz lingüística formó las palabras maya (“ilusión” en sánscrito) y “metro” (“medida” en griego). Erwin Schrödinger se orientó también hacia el hinduismo: después de haber criticado los aspectos idealistas de la física cuántica (paradoja del gato), Schrödinger termina por proponer una metafísica idealista.
No puede reprochársele a Schrödinger su visión del mundo más que lo que se le puede reprochar a Einstein su idea de Dios; pero en los dos, la física, aún expresando una posición filosófica, era bien diferente de la religión. Para ciertos hombres de ciencia, en cambio, el interés principal de la teoría cuántica está en el hecho de que ella puede suministrar una base científica a su religión.
041.jpgLa fascinación que experimentan estos investigadores por esta o aquella mística o aquella filosofía oriental tiene en general su origen en una comprobación: la existencia de ideas comunes entre filosofía o mística oriental y la ciencia moderna. Estas coincidencias no son tan extraordinarias, puesto que las cuestiones sobre la naturaleza del hombre y del universo no han cambiado mucho desde hace siglos; sólo han cambiado en su forma. Sin embargo, es cierto que en el pensamiento chino o indio se encuentran turbadoras analogías con diversos postulados cuánticos. Además, el taoísmo o los textos védicos presentan una descripción del mundo más elaborada, elástica, menos ingenua que la visión cristiana; en suma, pueden ser más atractivos para quien quiere combinar experiencias científicas y experiencia mística.

§. Fritjof Capra: física y taoísmo
Entre quienes se sintieron tentados por esta mezcla, está Fritjof Capra, profesor de física de las partículas elementales en la Universidad de California; se hizo conocer por un libro publicado en los Estados Unidos en 1975 y en Francia en 1979, El Tao de la física (véase la bibliografía). La filosofía a la que se refiere Capra, el taoísmo, representa una aprehensión de la naturaleza por la observación del Tao (la vía).
El filósofo chino Zhuang-Zi cuenta que el rey de Wei, al observar cómo su carnicero descuartizaba un novillo con destino a la mesa, advirtió que el hombre sólo daba tres hachazos. El rey le preguntó cómo se las componía para hacerlo y el carnicero le respondió: “Porque estudié el Tao del novillo toda mi vida. Yo, que estudié el Tao del animal, puedo hacer el trabajo en tres golpes sin estropear mi hacha. Otros lo hacen en cincuenta golpes y embotan el filo de su hacha”. Al poner como título de su libro El Tao de la física, Capra expresa que una comprensión intuitiva, casi mística de la naturaleza puede (asociada al saber del físico) dar acceso a la realidad del mundo, realidad de la cual materia y espíritu serían dos aspectos. Este es un empeño ambicioso y sobre todo criticable por lo menos en su demostración: en primer lugar Capra se olvida de que los taoístas desconfían de la razón y de la lógica de la peste; luego, su trabajo se resuelve en colocar estas filosofías (pues también apela al budismo y al hinduismo) sobre la física, así como se da dorado a un metal para atraer la mirada.
Desde un punto de vista científico, los temas que Capra desarrolla no son muy convincentes. Apenas hace alusión al debate materialismo-idealismo en el que precisamente sus posiciones filosóficas habrían encontrado una aplicación. Sencillamente dice que “el contraste entre las dos clases de descripción —los términos clásicos en el caso del dispositivo experimental y las funciones de probabilidad en el caso de los objetos observados— lleva a profundos problemas metafísicos que todavía no se han resuelto. Por otro lado, ¡ignora soberbiamente la paradoja de Einstein-Podolsky-Rosen!
En realidad, Capra es un especialista de la teoría cuántica relativista del campo y la parte científica de su libro se refiere esencialmente a este aspecto. Se trata de un dominio extremadamente difícil y nosotros no tenemos la pretensión de juzgar el valor científico de Capra. Sin embargo, dos de sus tesis se prestan a discusión. En primer término, interpreta los gráficos de Feynman, de los que hablamos en el capítulo anterior, de manera realista, es decir, Capra atribuye un valor físico a cada gráfico, siendo así que otros especialistas sostienen que se trata de artificios de cálculo y que únicamente la combinación de los gráficos que describen una reacción está provisto de ese valor físico. Luego, sostiene la tesis del bootstrap, es decir, la idea de que todas las partículas “fuertes” (protones, neutrones, mesones pi) están contenidas las unas en las otras en estado potencial. Ahora bien, esta tesis fue cuestionada por la mayor parte de los físicos que trabajan con las partículas elementales.
Por último, la atracción del libro se debe mucho a las representaciones de Buda, de ciertas divinidades, de símbolos rituales que lo recorren. Esto permite a Capra entregarse al juego de las analogías. La mayor parte de ellas carece de interés: por ejemplo, Capra coloca en su libro una página de ecuaciones cuánticas junto a una página en sánscrito, cuya única característica común consiste en ser incomprensibles para el común de los mortales. Pero otras analogías son más notables. Lao-tseu, fundador del taoísmo, define el vacío, por oposición al universo sensible, como algo lleno de potencialidades. Pero la interpretación en imágenes de la teoría cuántica relativista del campo describe el vacío como una agitación, como una efervescencia, de partículas “virtuales”, cuyas apariciones, interacciones y desapariciones están representadas por ciertos gráficos de Feynman (esta interpretación defendida por Capra entre otros es considerada problemática por aquellos físicos que sólo ven en esos gráficos un instrumento de cálculo). De manera más general, se podría imaginar una correspondencia entre el vacío taoísta y los campos cuánticos relativistas y hasta los campos de la física cuántica no relativista, puesto que las partículas reales mismas, pueden considerarse como partículas que pasan por un estado potencial cuando no son observadas.
En el hinduismo y en el budismo se pueden encontrar también correspondencias con ciertas interpretaciones de la física cuántica. Por ejemplo, el sabio brahmán Sankara (788-820) considera que sólo aprehendemos apariencias procedentes de una “ilusión” (maya), en virtud de la cual se expresan el “principio supremo” (Brahma), lo cual se parece a un sincretismo de fuerte tendencia idealista. Y el budismo de Mahayana (o budismo del gran vehículo) se abstiene de juzgar en cuanto a la objetividad de la existencia del mundo, lo cual se parece singularmente a la actitud de la Escuela de Copenhague.
Pero, ¿cómo ir más allá de estas comprobaciones de coincidencias? Ya dijimos que Capra quiere dar una respuesta uniendo física y misticismo, pero para llegar a ese fin, su manera de utilizar los pensamientos chinos o indios apela a una actitud idéntica a la criticada por un filósofo chino respecto del budismo: “Si se esfuerzan tan sólo por comprender lo alto sin estudiar lo bajo, cómo podrán comprender lo alto!”

§. Los parapsicólogos
Otro aspecto extraño: los fenómenos paranormales. Volvamos, pues, a Olivier Costa de Beauregard: es director de investigaciones en el Centro Nacional de Indagación Científica; independientemente de la polémica que mantiene desde años atrás con Jean-Pierre Vigier sobre la paradoja EPR, Costa de Beauregard defiende fervientemente la parapsicología. Sus convicciones se publicaron en forma de conversaciones en un libro titulado La física moderna y los poderes del espíritu [La physique moderne et les pouvoirs de l’esprit (Le hameau, 1980)] Costa participó, lo mismo que Capra, en el coloquio que despertó ciertas resonancias en los medios de comunicación y provocó la irritación de muchos científicos.
Ese coloquio se desarrolló en Córdoba, en octubre de 1979. Allí, por iniciativa de France Culture, se reunieron físicos, neurólogos, psiquiatras, filósofos y escritores. Los debates fueron objeto de una publicidad bastante amplia en la televisión y en la prensa. Del coloquio resultó un voluminoso libro, Sciencie et Conscience (Stock, 1980), que reproduce la mayor parte de las intervenciones. La lectura de este libro causa una impresión de extrema confusión y, en particular, la mayoría de las intervenciones de los que no eran físicos parece derivar del más puro galimatías. En cuanto a los físicos presentes, además de Capra y de Costa de Beauregard ya citados, estaban dos grandes figuras: Brian Josephson, premio Nobel, y David Bohm de quien hemos tenido ocasión de hablar ampliamente; también se hallaban presentes dos feroces críticos del “irracionalismo”, Jean-Pierre Vigier y el italiano Franco Selleri. El coloquio sirvió sobre todo para que estos físicos obtuvieran cierta publicidad en cuanto al debate que desarrollan desde hace años en las revistas científicas especializadas.
Pero volvamos a la parapsicología. Como ya vimos, Costa de Beauregard desarrolló una interesante interpretación de la paradoja EPR fundada en la idea de cuantones que recorren el tiempo en los dos sentidos: esa interpretación fue sostenida después por dos físicos norteamericanos enteramente materialistas. Pero Costa de Beauregard es “idealista” en lo que se refiere al problema de la medición cuántica y además cree en los fenómenos parapsicológicos, y no vacila en proclamarlo. De manera que en los medios tradicionales no está en olor de santidad y esto determina, por consiguiente, que su interpretación de la paradoja EPR, por más que sea enteramente materialista, sea combatida con fuerza en nombre de ese mismo materialismo; pocos físicos están dispuestos a prestarle apoyo o siquiera a tomarlo en serio.
Costa de Beauregard pretende que la física cuántica, combinada con la relatividad, suministra una base teórica a los fenómenos paranormales tales como la precognición (premoniciones), la telepatía y la psicokinesis (acción del espíritu sobre la materia). Vigier piensa más o menos lo mismo, pero combate la física cuántica ortodoxa así como combate la parapsicología. La mayoría de los físicos, en cambio, no pone en duda la física cuántica, pero en modo alguno piensa que esta física implique la existencia de fenómenos paranormales: esta posición está defendida en Francia especialmente por Jean-Marc Lévy-Leblond, Michel Paty y el propio Alain Aspect.
Desde un punto de vista más “experimental”, Costa de Beauregard se apoya en los trabajos de ciertos parapsicólogos a quienes conoce personalmente, como el metalúrgico Charles Crussard, el etnólogo Rémy Chauvin y los físicos norteamericanos Russel Targ y Harold Puthoff. Visiblemente Costa de Beauregard tiene confianza en ellos y no piensa que puedan ser charlatanes sin escrúpulos. Pero, como ocurre habitualmente en este dominio, los documentos utilizados en las experiencias no son sometidos a una crítica detallada. De manera que sus resultados no pueden ser sino dudosos, aun cuando a veces se diga uno que no todo es color de rosa en “el racionalista”: frente a la ingenuidad, a la falta de rigor o frente al mercantilismo de muchos parapsicólogos encontramos a menudo la intolerancia, el dogmatismo y la mala fe de sus detractores.
Hemos citado los nombres de Targ y de Puthoff. Son dos directores de investigación del prestigioso Stanford Research Institute (California). Targ es especialista de láser y plasmas y Puthoff especialista de electrónica cuántica, sobre la cual escribió una obra de referencia (Pantell y Puthoff, Fundamentáis of Quantum Electronics, John Wiley and Sons, Nueva York, 1969). Estos dos físicos cuánticos volvieron a convertirse, a partir de 1973, a los estudios experiméntales realizados en parapsicología y desarrollaron en particular un tipo de experiencias telepáticas en las que un sujeto “receptor” debe describir el paisaje visto por un sujeto “emisor”. En octubre de 1974 publicaron un artículo en la muy seria revista científica británica Nature, artículo que determinó una larga polémica epistolar en esa misma revista. En 1977, los autores publicaron un libro bastante voluminoso, Mind Reach, traducido al francés con el título de Aux confins de l’esprit (Albín Michel, 1978). Digamos que este libro está bien presentado, pero es poco concluyente. En realidad, el mejor capítulo es aquel en que Targ y Puthoff demuelen con humorismo a quienes los habían criticado de manera dogmática y apasionada en diversas revistas científicas, pero ese capítulo no permite disipar las dudas que pueda tener sobre el valor de sus experiencias.
El británico Brian Josephson, que obtuve el premio Nobel de física en 1973, a los treinta y tres años, va aún más lejos y no vacila en retomar la tesis ocultista del “cuerpo astral”, de origen hindú, según la cual nuestro cuerpo físico estaría duplicado por otro cuerpo que se extiende a través del espacio y el tiempo y que sería responsable de los supuestos fenómenos de telepatía, de clarividencia y de precognición.
En Francia, la Unión Racionalista y el astrofísico Jean-Claude Pecker fustigan vigorosamente a todos estos heréticos. Los “racionalistas” tienen ciertamente el derecho de ser más que escépticos frente a este género de fenómenos; y, como dice el sentido común popular, si eso fuera cierto se sabría. Pero, ¿por qué hablar de racionalismo y de irracionalismo? “Racional” ¿quiere decir algo más que “habitual” o que “eficaz”?

Conclusión

Teoría “salvaje”, subversiva y devastadora, la física cuántica echó abajo el civilizado edificio levantado en el curso de los siglos por la ciencia tradicional. Esta teoría nos hace entrar decididamente en el mundo de la ficción científica. Las revoluciones republicanas, marxistas, islámicas y de otro género pueden llegar a parecer un día insignificantes frente a la revolución cuántica. Nuestra organización sociopolítica y nuestros modos de pensamiento se modifican o van a ser modificados por esta teoría tal vez más que por cualquier otro acontecimiento.

§. La bomba atómica, “invento cuántico”
En primer lugar, la bomba atómica, que nos dio la posibilidad de destruir el planeta y que atormenta nuestros espíritus aun cuando lo neguemos, es un invento “cuántico”, tanto por su base teórica como por la personalidad de sus inventores.
Las bombas atómicas utilizan uranio 235 o plutonio 239 (se han sugerido algunos otros cuerpos que son empero demasiado raros y que de todas maneras funcionan según el mismo modelo). Ahora bien, la reacción en cadena en el uranio 235 o en el plutonio 239 sólo es posible a causa de ciertos fenómenos típicamente cuánticos. En efecto, según la física clásica, cuanto más fuertemente dé un neutrón contra un núcleo de uranio 235 o de plutonio 239, más probabilidades tiene de romperlo. En realidad, ocurre lo contrario y esto se debe esencialmente al carácter ondulatorio de los neutrones. En efecto, cuanto menos rápido es un neutrón, más extendido está en el espacio y es más susceptible de ser capturado por un núcleo. El resultado de dicha captura es en general núcleo inestable que se rompe en el caso del uranio 235 o del plutonio 239 (pero no en el caso del uranio 238). Estas dos razones explican por qué una reacción en cadena puede desarrollarse en el uranio 235 y en el plutonio 239.
Sin embargo, hay que precisar que, a diferencia de los imanes supraconductores, la bomba atómica no es un caso de aplicación exclusiva de la física cuántica. Se puede decir que es un coctel de efectos cuánticos (carácter ondulatorio de los neutrones), de efectos relativistas (conversión de la diferencia de masa en energía) y de física clásica (porque no se saben hacer los cálculos que exigiría la aplicación estricta de la física cuántica).
Esta contribución teórica está singularmente reforzada por el hecho de que ciertos físicos cuánticos, especialmente Niels Bohr, fueron los promotores intelectuales de la bomba atómica y de que un número aun mayor de esos físicos, algunos de ellos de los más célebres, formaron el esqueleto de los equipos encargados de la realización de la bomba.
La idea de la bomba atómica se remonta al escritor de anticipaciones Herbert George Wells, quien en 1913 publicó un libro: The World Set Free {El mundo liberado), en el que describía una guerra que se desarrollaba en la década de 1950 con “bombas atómicas” del tamaño de una pelota de fútbol lanzadas por aviones y cada una de las cuales podía destruir una ciudad. Wells pronosticó la bomba atómica y ¡no se equivocó en cuanto a la fecha! Un físico húngaro, Leo Szilárd, quedó muy impresionado por ese libro y en 1934 ya era el primero en entrever la posibilidad de una reacción en cadena. Pero la intuición de Szilárd era muy vaga y hubo que esperar hasta el descubrimiento de la fisión en 1938 y hasta que entraron en la palestra los físicos más grandes al año siguiente para que la bomba se concretara... ¡Ay!
Verdad es que el descubrimiento de la fisión no se debió a los grandes teóricos sino que lo realizaron físicos entregados más a la experimentación. En cambio, la concepción y el ajuste de la bomba atómica se debió en lo esencial a genios de la abstracción: Niels Bohr, Enrico Fermi, John von Neumann y Eugene Wigner, en tanto que Werner Heisenberg, después de un comienzo brillante terminaba por fracasar en Alemania. Aunque no haya trabajado en el proyecto, Einstein desempeñó un papel político decisivo. Otros habían quedado descartados por la edad (Max Planck) o por la historia (Louis de Broglie y Paul Dirac, que permanecieron en su país, y Erwin Schrödinger que estaba exiliado en Dublín). Por último, de todos los grandes teóricos, sólo el austríaco Wolfgang Pauli, refugiado en los Estado Unidos y pacifista convencido, se negó conscientemente a toda participación.
Felizmente la nueva física no tiene sólo aplicaciones bélicas. La revolución informática, que está reestructurando nuestra organización social, se apoya en una base material “cuántica”. Los semiconductores y los transistores derivan de la física de los sólidos que se convirtió esencialmente en una disciplina cuántica; en cuanto a los rayos láser y a los supraconductores, son objetos puramente cuánticos.

§.¿El racionalismo puesto en tela de juicio?
Otra alteración importante es la de nuestros hábitos de pensamiento: muchos ven en la teoría cuántica una especie de bomba atómica intelectual dirigida contra las nociones de “sentido común” o hasta de “razón”. Einstein no distaba mucho de compartir esa opinión cuando escribía en 1935 con Podolsky y Rosen y anticipaba la descripción de lo que iba a ser la experiencia de Aspect: “No cabe esperar de ninguna definición razonable de la realidad que permita semejante cosa”. ¡Y sin embargo la experiencia da sus resultados! ¿Se puede llegar a la conclusión de que la física cuántica es “irracional”? Debemos examinar más precisamente el sentido de la palabra “racional” y entonces comprobaremos que ese sentido no es tan evidente como parece a priori.
¿Qué significa “racional”? Si uno no cree que el hombre posee una facultad trascendente llamada razón que le permite decidir a priori sobre lo que es posible y sobre lo que no lo es, sólo quedan tres definiciones de “racional”.
En primer lugar, en su aceptación más difundida, '“racional” puede significar “habitual”. Por eso la idea de que la tierra pueda ser redonda fue considerada irracional durante mucho tiempo: ¡los antípodas debían andar cabeza abajo y con las suelas de sus zapatos pegadas a la tierra para no creer! Y consideremos algo mucho más cercano a nosotros; sólo en 1803 se admitió la existencia de meteoritos después de una lluvia de rocas que fue objeto de una investigación por parte de la Academia de Ciencias: ¡todo el mundo sabe que no hay guijarros en el cielo! También la relatividad einsteiniana, que destruía la idea de un tiempo absoluto, y aún más la física cuántica parecieron “irracionales” a no pocos hombres de ciencia. Por ejemplo, Jean-Pierre Vigier piensa que la física cuántica, por no ser determinista, es irracional. Esta definición no nos parece defendible.
Una definición mejor de racional sería “eficaz”. Entonces “racional es todo aquello que permite hacer observaciones, relacionarlas entre sí y obtener de ellas aplicaciones prácticas. En este sentido, la física cuántica es perfectamente racional y hasta se puede afirmar que hasta el momento nada es más racional que ella.
Tercera definición, extrapolada de la anterior y sin duda la mejor: “racional” sería lo que corresponde a la manera en que marcha el mundo; pero evidentemente se trata de una definición a posteriori que sólo se podrá aplicar en la práctica cuando se conozca definitivamente esa manera de funcionar del mundo. Aunque en este sentido se hayan hecho algunos progresos, en particular desde 1900, parece que aún estamos muy lejos de la meta.
Para terminar esta discusión, digamos que por el momento sería prudente no hablar de racionalismo o de irracionalismo y que sería mejor considerar la ciencia como arracional, pues no puede en modo alguno referirse (hasta que no haya alcanzado sus fines últimos) a una “razón”, razón que precisamente le corresponde definir.
Este arracionalismo de la ciencia no impide el asombro cuando el progreso de los conocimientos choca violentamente con el sentido común. Así, cuando ciertos físicos declaran de buenas a primeras que la paradoja EPR no tiene nada de insólito y que sólo basta con “aprender -a pensar la no separabilidad”, tenemos el derecho de creer que exageran. Un cuentito nos permitiría resumir las actitudes posibles frente a los aspectos paradójicos de la física cuántica.
Una gallina incuba diez huevos. Un chico travieso reemplaza a hurtadillas uno de esos huevos por uno de pata. Cuando nacen los polluelos, la gallina no deja de reparar en que uno de sus polluelos no es exactamente como los demás. La gallina puede entonces elegir entre tres actitudes.
Primero, puede rechazar al patito a picotazos: eso es-lo que hacen todos aquellos que tratan de reemplazar la física cuántica por otra teoría.
También puede decidir: “Es un pollito” e ignorar soberbiamente la diferencia. Esto es lo que hacen los físicos que declaran que no ha ocurrido nada y que basta con “pensar la no separabilidad”.
Por fin, la gallina puede reconocer que ese polluelo no es en modo alguno como los otros, pero así y todo lo adopta. Entonces dice: “Realmente es diferente de los otros, no comprendo por qué, pero allí está y me lo guardo”. A nuestro juicio, ésta es la actitud correcta que debe adoptarse frente a la física cuántica.

§. El fin del materialismo mecanicista
Los cambios que hasta ahora hemos recordado son considerados en general negativos. Cierto es que la bomba atómica tiene defensores que pretenden que sin ella ya habríamos tenido la tercera guerra mundial; pero, evidentemente se trata sólo de una hipótesis, y en cambio el equilibrio mental de mucha gente está gravemente perturbado por la existencia de dicha bomba. Algunos hasta piensan que el desmoronamiento de los valores sociales se debe al sentimiento difuso de precariedad colectiva creado por la bomba. La informatización de la sociedad es mejor percibida, pero inquieta a los espíritus conservadores. En cuanto a la decadencia de lo que se llama el “racionalismo” —sin razón a nuestro juicio, recordémoslo—, no molesta al hombre de la calle pero perturba profundamente a muchos “pensadores” tradicionales.
Pero otro cambio debería considerarse como positivo: nos referimos a la abolición de las manillas materialistas y al surgimiento de nuevas posibilidades filosóficas. En efecto, la ciencia de los siglos XVIII y XIX había culminado en el triunfo del materialismo mecanicista que lo explicaba todo por la acción de minúsculos e indivisibles trozos de materia, acción regulada por diversas fuerzas de interacción. Esta visión bastante primitiva, a la que se atienen todavía casi todos los biólogos, tuvo como consecuencia mostrar la inutilidad de las religiones y de las filosofías que apelan a la existencia de entidades no materiales. El hecho de que tales trozos de materia hayan resultado en realidad sólo abstracciones matemáticas, no locales, es decir, que podían extenderse por todo el espacio, sin obedecer ya al determinismo, asestó un golpe fatal a ese materialismo “clásico”. Por cierto que el materialismo es todavía posible, pero un materialismo “cuántico” que habría que llamar “materialismo fantástico” o “materialismo de ficción científica”. El idealismo, que cree en la existencia autónoma del espíritu vuelve a surgir. Y por fin, una especie de nueva religión que hemos llamado “sincretismo cuántico” está naciendo; es una posición que refiere todo —materia y espíritu— a un absoluto incognoscible, cuya existencia empero puede deducirse de los aspectos extraordinarios de la nueva física.
Si adoptamos esta última hipótesis, nada prueba que ese absoluto esté bien dispuesto respecto de nosotros. Podría criarnos por nuestro espíritu así como nosotros criamos ganado por la carne. Ese absoluto podría ser completamente indiferente; pero los espíritus religiosos rechazan estos malos pensamientos y de esta hipótesis de lo absoluto procuran extraer argumentos para tratar de resucitar las religiones tradicionales. Nada prueba que esos espíritus no tengan razón; nada prueba que estén equivocados.
Sea lo que fuere, una cosa es segura: la situación filosófica —y religiosa— ya no está atascada como hace algunos decenios. Ahora todo se hace posible, y la visión bastante negra, según la cual nosotros sólo seríamos el resultado efímero y sin significación de choques de combinaciones de “bolitas” que van errando por el espacio, ya no es más la visión científica. En el mejor de los casos, el determinismo no es más que un enfoque estadístico, y los elementos constitutivos últimos del universo pueden estar ligados entre sí ignorando las distancias que los separan a nuestros ojos: éstas son las enseñanzas de la física cuántica, confirmadas por las experiencias recientes. Sin embargo, la mayor parte de nuestros contemporáneos, incluso hombres de ciencia que no son físicos, continúan ignorando estos datos fundamentales. La filosofía básica de nuestra civilización continúa, siendo el materialismo mecanicista: las ideas simples (y hasta simplistas) tienen una fuerza terrible y sus fracasos sólo impresionan a los especialistas. Fue menester que transcurrieran decenios para que la hipótesis de Galileo sobre la rotación de la Tierra fuera aceptada y pasaron siglos antes de que la Iglesia anulara su condenación. ¿Cuánto tiempo será necesario que pase para desmoronar las creencias actuales?

Apéndice
La desigualdad de Bell

Recordemos: se consideran dos cuantones 1 y 2 “gemelos” o “antigemelos” (véase el capítulo 4) que se alejan en dos direcciones opuestas. Se mide la polarización (o el espín) del cuanton 1 en un aparato 1 capaz de asumir dos orientaciones A y A’, de ahí dos resultados a y a’ y forzosamente a = +1 ó a = -1, y también a’ = + 1 ó a’ = -1. Lo mismo en el caso del cuanton 2 con un aparato 2 susceptible de asumir las orientaciones B y B’, de ahí resultados b y b’ sujetos a las mismas restricciones. Vimos que si se pudiera someter a medición simultáneamente a, a’, b y b’, tendríamos obligatoriamente la igualdad |ab - ab’ + a’b + a’b’| = 2.
Pero como semejante medición simultánea es imposible, la a de ab’ no es la misma que la a de ab, la b de a’b no es la misma que la de ab, etc., de manera que esta igualdad muy simple ya no es válida.
Supongamos ahora (ésta es la hipótesis llamada de las variables ocultas locales) que el resultado a de la interacción entre el cuanton 1 y el aparato 1 colocado en la orientación A, sea función únicamente de una variable v que representa el estado del cuanton 1 cuando éste abandona la fuente. Esta hipótesis parece perfectamente legítima: como la orientación del aparato 1 está fijada, sólo el estado del cuanton 1 puede influir en el resultado de la medición hecha con ese aparato. En lugar de una sola variable v,. se habrían podido considerar varias, v, v’, v”, etc., si se piensa que el estado del cuanton es algo demasiado complicado para que se lo represente por una sola variable. En todos los casos se escribiría a = a(V) y asimismo a’ = a’(V); V puede representar un conjunto de varias variables.
Del mismo modo los resultados b y b’ serán función únicamente de W, que representa el estado del cuentón 2. Se escribiría b = b(W) y b’ = b’(W); W puede también representar un conjunto de varias variables.
Por fin, se puede reagrupar el conjunto V y W en una sola variable U que representa el estado de los dos cuantones cuando abandonan la fuente. Si esta variable agrupa, por ejemplo, seis variables v, v’, v”, w, w’, w” se dice que es una variable de seis dimensiones. Si v y w bastaran para describir el estado del cuanton 1 y el estado del cuanton 2, U será una variable de dos dimensiones. Por fin, si la propia w es función de v, por ejemplo w siempre igual a - v, U es de una sola dimensión: basta con conocer v o w para conocer el estado de los dos cuantones y se puede elegir por ejemplo U = v.
Ahora vamos a demostrar la desigualdad de Bell en el caso en que U sea de una sola dimensión y luego indicaremos por qué la demostración es válida en el caso de un número superior de dimensiones.
Para fijar las ideas habremos de suponer (lo cual en nada cambia la generalidad de la demostración) que los valores de la variable U están comprendidos entre 0 y 1. Además comenzaremos p. suponer que U sólo puede asumir un número limitado de valores U1, U2,... Un; el menor de esos valores es U1, luego sigue U2, etc. y el mayor es Un. Vemos un ejemplo muy simple con n = 5.

U1 = 0,1  U2 = 0,3  U3 = 0,5  U4 = 0,7  U5 = 0,9

Si se hace funcionar la fuente durante cierto tiempo, la variable U pasará varias veces por el valor U1 (sea m1 ese número de veces), varias veces por el valor U2 (sea m2 ese número de veces), etc. En nuestro caso simple n = 5, U tomará por ejemplo sucesivamente los quince valores:

0,3  0,1  0,1  0,9  0,7  0,1  0,3  0,3  0,5  0,5  0,3  0,5  0,3  0,7  0,5

y entonces se tendrá m1 = 3  m2 = 5  m3 = 4  m4 = 2  ms = 1.
Frecuentemente los hombres de ciencia representan este tipo de fenómenos valiéndose de un dibujo llamado histograma. El principio consiste en trazar dos semirrectas perpendiculares, una horizontal llamada eje de las abscisas, la otra vertical que es el eje de las coordenadas, y en llevar al eje de las abscisas los valores U2, U2, U3 ... Un y al eje de las coordenadas los valores m1, m2, m3, ... mn, para llegar, en el caso simple que hemos considerado, al siguiente dibujo:

042.jpg

Cuando se hace una experiencia física del tipo de la de Aspect se realizan ciertamente más de quince mediciones y se supone que la variable U puede asumir mucho más que cinco valores. En realidad, se supone que la variable U varía de manera continua entre 0 y 1, es decir, que puede tomar una infinidad de valores; y es con esta hipótesis con la que habitualmente se demuestra la desigualdad de Bell utilizando la noción de integral. Pero si se toma un número n suficientemente grande, la hipótesis de una variable U, que asuma un número finito de valores U1, U2, ... Un, es perfectamente válida y nos permitirá llegar a la desigualdad de Bell sin utilizar explícitamente aquella noción.
Para precisar esta idea hemos representado a continuación un histograma típico con n = 50 (U1 = 0,01  U2 = 0,03... U50 = 0,99).

043.jpg

Bien se concibe que si n aumenta más, la curva discontinua hecha de trozos de verticales y de trozos de horizontales, que constituye el límite superior del histograma, terminará por convertirse en una curva continua.
No hay ninguna razón para que el funcionamiento de la fuente de cuantones dependa de la orientación de los aparatos de medición 1 y 2. Ninguna de las fuerzas de interacción actualmente conocidas podría explicar semejante dependencia. Se puede pues considerar que el histograma de los U1, m1 obtenidos cuando se hace funcionar la fuente durante un tiempo lo bastante prolongado es prácticamente el mismo cualquiera sea esa orientación. Los estadísticos saben, por lo demás, calcular el número N de mediciones necesarias para que los histogramas obtenidos en las orientaciones AB, luego AB’, A’B, luego A’B’ sólo difieran entre sí en 1%, o 0,5% ó 0,1% etc. Vamos a suponer que N es lo suficientemente grande para que los histogramas puedan considerarse idóneos. Observemos también que el número de mediciones N es igual a m1 + m2 + ... + mn (N es el número de mediciones por histograma; el número total de mediciones es 4 N).
Consideremos las rebanadas del histograma (los rectángulos) que corresponden a un mismo valor Ui de U (i es igual a 1 ó 2, etc. o n). Hay cuatro rebanadas correspondientes a las cuatro orientaciones. Las cuatro mi pueden ser consideradas iguales en el caso de que N sea lo bastante grande. Por lo demás, como U es fijo e igual a Ui y como a es sólo función de U, U es el mismo cuando 2 está en la posición B y cuando está en la posición B’. Asimismo a’, b y b’ serán constantes para U = Ui. Entonces tendremos:

044.jpg

Pongamos

045.jpg

Tenemos |Qi| = 2 × mi pues el valor absoluto de un producto es el producto de los valores absolutos.
Examinemos ahora la suma general Q1 + Q2 + … + Qn. El valor absoluto de una suma es siempre inferior o igual a la suma de los valores absolutos de sus términos. Por ejemplo: |1 + 2 + 4| = 7, pero (-1) + 2 + (-4) = 3, inferior a siete.
Tenemos pues Q1 + Q2 +... + Qn ≤ 2 × (m1 + m2 + ... + mn) y como N = m1 + m2 + ... + mn, Q1 + Q2 + ... + Qn ≤ 2 × N.
Pero ¿qué es Q1 + Q2 + ... + Qn? Si volvemos atrás vemos que es sencillamente:
la suma de los N resultados de medición ab
menos la suma de los N resultados de medición ab’
más la suma de los N resultados de medición a’b
más la suma de los N resultados de medición a’b’.
Ahora bien, la suma de los N resultados de medición ab, divididos por N, tiende, cuando N se hace muy grande, hacia lo que se llama la “esperanza matemática” de ab, que se escribe E(ab) y que se podrá llamar más sencillamente valor medio de ab. Si, por ejemplo, se arroja un dado, el resultado (designémoslo con X) es 1 ó 2 ó 3 ó 4 ó 5 ó 6. Si se lo lanza un gran número de veces y si el dado es de buena ley, cada resultado aparecerá aproximadamente el mismo número de veces. Tendremos E(X) = (1 + 2 + 3 + 4 + 5 + 6)/6 = 3,5. Se puede decir que el valor promedio de X es de 3,5 aunque X no asuma nunca ese valor.
La misma definición se aplica a los resultados ab’, a’b y a’b’. Por fin hemos llegado a la desigualdad de Bell:

E(ab) - E(ab’) + E(a’b) + E(a’b’) ≤ 2.

Examinemos rápidamente el caso en que U es una variable de más de una dimensión, supongamos de dos dimensiones y, w. El histograma hecho con una serie de rectángulos pegados queda reemplazado por un histograma hecho de paralelepípedos pegados como se ve, por ejemplo, en el dibujo siguiente:

046.jpg

La demostración es exactamente la misma; basta con hacer la suma de todos los paralelepípedos en lugar de todas las rebanadas rectangulares. En el caso de más de dos dimensiones ya no podemos representar la situación con un dibujo, pero los matemáticos no tienen ninguna dificultad en hacer las sumas necesarias.

Bibliografía

Obras científicas
Obras de interés general
Notas
[1] Se la llama asimismo “mecánica cuántica”, aunque la nueva teoría reemplaza toda la física antigua y no ya tan sólo su parte “mecánica”.