Historia de la fisica - Desiderio Papp

A la memoria de mis padres.

Capítulo 1
La física en la antigüedad

Contenido:
1. Conocimientos de los pueblos en el antiguo Oriente
2. Los griegos antes de Aristóteles
3. La física de Aristóteles
4. Arquímedes: El museo de Alejandría
5. Mecánica práctica y óptica en Alejandría

1. Conocimientos de los pueblos en el antiguo oriente
La prehistoria; Mesopotámicos y egipcios

A través de millares de años, el hombre llegó a adquirir un conocimiento instintivo y vago de la autonomía de los fenómenos de la naturaleza; había logrado, guiado por la experiencia y el sentido común, un fondo de saber técnico. El empleo del fuego y el uso del pedernal, los recursos puestos en juego por el hombre prehistórico en la fabricación de armas y arados, las herramientas utilizadas en el tallado de la madera y piedra, y más adelante de los metales, así como la invención de la rueda para sus toscos vehículos, atestiguan que los comienzos de la «física aplicada» preceden en mucho a la adquisición incluso de los más rudimentarios y modestos elementos de la «ciencia física». En medio de una naturaleza hostil, el hombre primitivo tuvo que actuar antes de poder razonar. Cuando el telón se levanta sobre la historia de la civilización y los documentos, tablillas y papiros con caracteres cuneiformes y jeroglíficos comienzan a revelamos conquistas mentales y prácticas de los babilonios y egipcios, éstos se encuentran ya en posesión de un acervo de conocimientos que un muy largo período preparatorio, gracias a la tradición oral, les había dado como herencia.
Más de dos mil quinientos años antes de nuestra era, los babilonios habían adoptado un sistema de unidades para medir la longitud, el volumen, la masa y la duración. Las unidades patrones de peso y capacidad eran —desde tan remota fecha— impuestas por decretos reales. Gracias a su extraordinario interés por la astrología, los mesopotámicos adquirieron una sorprendente habilidad en la determinación de la duración y de las magnitudes angulares. A ellos debemos la división del día en veinticuatro horas y la del círculo en 360 grados. Sus relojes de agua, las clepsidras, transmitidos por los griegos y romanos al Medievo, eran todavía de empleo corriente en tiempo de Galileo. Según nuestros conocimientos actuales, algunos elementos de la cinemática, indispensables para el estudio de los movimientos celestes, eran familiares a los babilonios: conocían la diferencia entre movimiento uniforme y movimiento discontinuo, concebían la velocidad como relación entre el espacio recorrido y el tiempo, distinguían entre velocidad lineal y velocidad angular.
Mientras que la asidua observación del firmamento, cuyo objeto era obtener pronósticos, permitió adquirir a los astrólogos súmenos y babilónicos rudimentarias nociones de la cinemática, faltaba esta actividad a los sacerdotes del valle del Nilo, menos dados al culto y al estudio de los astros. Pero, en cambio, los egipcios superaron la cultura mesopotámica en cuanto a técnica y arte. Admirables arquitectos, cuyas monumentales construcciones habían de perdurar por milenios, los ingenieros de Egipto se servían ya dos mil años antes de nuestra era de máquinas simples, del plano inclinado, de la palanca, de la cuña y del tornillo. Como atestiguan los relieves sepulcrales y otras representaciones artísticas, el empleo de la balanza con brazos iguales, del soplete y del fuelle les era familiar. Los diques que elevaron, los canales que construyeron, la habilidad con que sabían asegurar el riego de los campos, tan importante en el país, sugieren que no les faltaban conocimientos elementales de hidromecánica. Mas la pretendida ciencia secreta en el dominio de la óptica o aun de la electricidad, que durante algún tiempo fue atribuida a los taciturnos hierofantes de Menfis, Heliópolis y Denderah.es solamente una leyenda de la que ningún documento da fe.
Derivados de las exigencias de la vida cotidiana, los conocimientos logrados por las dos grandes culturas orientales, que el Occidente pudo aprovechar gracias a los mediadores griegos, no habían alcanzado en ninguna rama del saber la jerarquía de ciencia.
Inventores de herramientas prácticas, pacientes observadores y calculadores, y sobre todo recopiladores de conocimientos útiles, ni los babilonios ni los egipcios se esforzaron por hacer una síntesis de sus descubrimientos y no tuvieron la curiosidad de preguntarse si detrás del montón de hechos que con tanto esfuerzo habían reunido no se escondía la idea unificadora de un sistema.
A su incapacidad para penetrar más allá de los datos proporcionados por un grosero empirismo, se agrega otra limitación, más grave todavía: el hermetismo de sus investigaciones científicas, estrictamente ligadas a sus creencias religiosas.
Todo cambia cuando los griegos salen al escenario de la historia. Con ellos surge la osadía de liberar de las ataduras de la mitología el estudio de los fenómenos y la noble pasión de buscar su comprensión desinteresada. Su predilección por las hipótesis amplias y las deducciones lógicas los lleva a reunir los hechos en grandes sistemas. Con ellos comienza la historia de la física.

2. Los griegos antes de Aristóteles
Tales y los jónicos; Los descubrimientos de los pitagóricos; El atomismo de Demócrito

Sojuzgado por los invasores medos y ninivitas, el imperio asirio, centro de la cultura mesopotámica, acababa de ser borrado del mapa del mundo, cuando, a principios del siglo VII antes de Jesucristo, en las costas del mar Egeo, Jonia se convirtió en mediadora entre la vieja sabiduría del Oriente y la nueva del Occidente, ya que en esta época iba a revelarse el genio griego, creador de la filosofía y de la ciencia. La floreciente capital de Jonia, Mileto, entonces la mayor ciudad de Grecia, fue el asiento de la escuela, cuyo fundador Tales (floreció hacia 580 a. de J. C.) inició, según el juicio de Aristóteles, la investigación racional de la naturaleza.
Tales y sus discípulos intentaron reducir la complejidad del mundo físico a la metamorfosis de una sustancia única. Sobre la naturaleza de esta materia primordial el maestro y sus discípulos no estaban de acuerdo. Pero poco importa que dicha materia sea el agua, como en la hipótesis de Tales, o una sustancia ilimitada que escapa a nuestros sentidos, como enseñaba Anaximandro (610-547 antes de J. C.), o el aire, como quería Anaxímenes (floreció hacia 540 antes de J. C.), o el fuego etéreo, según afirmaba Heráclito (576- 480 a. de J. C.), lo esencial es que estos pensadores tuvieron la osadía de abstraer el mundo físico, de sustraer la sustancia al juego de las fuerzas naturales y buscar para los fenómenos una explicación accesible a la razón.
Tal vez parezcan hoy infantiles las especulaciones de los jónicos sobre la materia. Sin embargo, el fuego etéreo de Heráclito de Éfeso no era una llama material, sino una fuerza motriz universal, un concepto afín a la energía de nuestra física. Este profundo pensador concibe al universo bajo su aspecto dinámico, como una eterna serie de cambios, anticipando una idea lo suficiente amplia como para incluir a la vez la teoría cinética de los gases y la evolución darwiniana de las especies vivientes. Hasta donde los escasos fragmentos que subsisten de sus escritos permiten afirmar, Heráclito era un espíritu sorprendentemente moderno: ponía en guardia a los filósofos aconsejándoles no entregarse demasiado a los datos de los sentidos, puesto que éstos son testigos falaces (χαχοι μαρτνροι). Esta opinión fue también la de Parménides de Elea (nacido hacia 540 a. de J. C.), en otros aspectos antagonista del pensamiento de Éfeso.

02.jpg
Aristóteles

Los cambios que creemos observar en la naturaleza, enseñaba Parménides, sólo son impresiones ilusorias de nuestros sentidos. La diversidad y multiplicidad de los fenómenos es irreal, y detrás de ellos se esconde una realidad eterna e inmutable. En tanto que Heráclito procura explicar el mundo físico en base de perpetuos cambios, Parménides trata de reducir el universo a una esencia constante. La dualidad de estas antítesis se resuelve en unidad en la física de nuestros días. El físico busca y encuentra magnitudes constantes en medio de las características variables de los fenómenos.
Aún no se había eclipsado la nombradía de los filósofos jónicos cuando otra escuela, la de Crotona, en Italia, acababa de adquirir gran reputación. Su fundador, Pitágoras de Samos (569-470 antes de J. C.), era jónico. Para escapar del tirano Polícrates, dejó su ciudad natal y se estableció en la Italia meridional, donde rodeado por un núcleo de entusiastas alumnos, hizo de Crotona un centro de la sabiduría griega.
En oposición al positivismo de los jónicos, Pitágoras enseñó la inmaterialidad del alma y la metempsicosis; sus adeptos, entregados incondicionalmente a las palabras del maestro, formaron una especie de cofradía religiosa sujeta a severas reglas. La escuela subsistió durante varios siglos en Italia meridional y en Sicilia, y los alumnos terminaron por convertir a Pitágoras en un iluminado y aun en un semidiós. «Hay tres especies de seres razonables —declaraban—: los hombres, los dioses y aquellos que se asemejan a Pitágoras.»
Los descubrimientos que la tradición atribuye a Pitágoras son en realidad los de su escuela, sin que podamos atribuir el mérito a un hombre particular.
«Los pitagóricos —escribe Aristóteles— consideran el número como el principio, como la sustancia de que se compone la existencia.» En efecto, el sabio de Samos y sus adeptos reconocían que las diferencias cuantitativas de las cosas pueden ser traducidas en diferencias cuantitativas; este descubrimiento es de capital importancia, puesto que está en la base de todas las descripciones que la física matemática puede dar de los fenómenos.
Un hallazgo en el dominio de la acústica contribuyó probablemente a convencer a los pitagóricos de la exactitud de su idea maestra. Con ayuda del monocordio encontraron que cuerdas igualmente tensas dan la nota fundamental, la cuarta, la quinta y la octava, si sus longitudes se relacionan como los números 1, 3/2, 4/3, 2.
Su axioma apriorístico que simples relaciones numéricas rigen el universo, los condujo a sobrestimar enormemente el alcance de su descubrimiento acústico y hacer del firmamento una especie de caja de música, asimilando los intervalos planetarios a los intervalos musicales. Se conoce el extraordinario éxito de la cosmología, cuyo eco puede ser seguido, a través de veintiún siglos, hasta Kepler y aun más acá.
Los pitagóricos reflexionaron también acerca de los problemas ópticos e intentaron dar una teoría de la visión. El ojo envía en línea recta sus rayos visuales, los cuales alcanzan el cuerpo percibido y, a consecuencia del choque que reciben de éste, excitan la sensibilidad del ojo ¿Por qué los objetos pequeños, colocados a cierta distancia, son invisibles? Porque los rayos visuales son divergentes, y cuanto más se alejan del ojo, tanto más espacio dejan entre ellos, responden los pitagóricos.
Los pitagóricos, aunque fuesen los primeros en reconocer la cardinal verdad de que vivimos en un mundo susceptible de expresión matemática, sólo enriquecieron modestamente el acervo de nuestros conocimientos positivos en física. El centro de gravedad de su contribución a la ciencia se asienta en sus descubrimientos geométricos y en el alcance de su doctrina básica, cuya influencia es una fuerza viva y sensible incluso en nuestros días.
No menos profunda y perdurable que la influencia de la tesis pitagórica ha sido la de la escuela atomística, fundada por Leucipo y su discípulo Demócrito. Nada sabemos del maestro, cuya misma existencia ponen en duda algunos historiadores, pero estamos mejor informados sobre su ilustre adepto Demócrito de Abdera (aproximadamente 460-400 a. de J. C.). Igual que Tales, realizaba largos viajes que le pusieron en contacto con los sabios de Egipto, Persia y la India. Como gastó su patrimonio en costosos viajes de estudio, al retornar a su ciudad natal se vio obligado a vivir de la modesta pensión que le acordaron sus compatriotas. Espíritu universal y uno de los pensadores más agudos de la antigüedad, trató en sus escritos, de los cuales sólo nos han llegado algunos fragmentos, los problemas más diversos, desde la física y la cosmología hasta la zoología y la medicina. «Reflexionó sobre cuanto se puede saber» dice Aristóteles hablando del sabio de Abdera.
En oposición a los eleáticos, los protagonistas de la escuela de Abdera afirmaron, según el testimonio del estagirita, la realidad del vacío. Dividir la materia —afirmaban— equivale a eliminar los intersticios vacíos existentes entre sus partículas; si fuera posible poner al descubierto todos esos intersticios, los fragmentos dejarían de ser divisibles. Estas partículas últimas, indivisibles, de la materia, son los átomos. En continuo movimiento, infinitos en número, empujados por un destino ciego, los átomos constituyen —enseña Demócrito— toda la sustancia del universo.
Las propiedades de los cuerpos se explican por la forma geométrica, posición y tamaño de sus invisibles átomos. Las transformaciones de la materia no son otra cosa que cambios de disposición, un reajuste de los átomos, cuyos perpetuos movimientos están en la base de todos los fenómenos del mundo físico y aun psíquico.
Los átomos son duros, homogéneos, incompresibles e indestructibles; no poseen color ni sabor, dado que esas propiedades sólo son accidentales, subjetivas. Los movimientos de los átomos son incausados: existen desde la eternidad; en el hierro o en la piedra, los átomos sólo pueden vibrar, mientras que en el fuego o en el aire recorren grandes distancias. No sabemos si Demócrito atribuyó peso a los átomos, pero los epicúreos, adeptos a la escuela encabezada por Epicuro de Samos (342-270 a. de J. C.), así lo hicieron.
La doctrina de la escuela de Abdera es la cuña filosófica tanto del atomismo como del cinetismo de la materia. Su repercusión fue profunda y su eco en la historia de la química, y de la física ha sido más perdurable que el de cualquier otra doctrina de la antigüedad. Combatidas por Aristóteles y los peripatéticos, defendidas por los epicúreos grecolatinos, entre ellos por el genial poeta Lucrecio, las ideas de Demócrito jamás dejaron de actuar como fermento y nunca fueron completamente olvidadas, ni siquiera en la Edad Media. En los siglos XVII y XVIII el atomismo contó con numerosos adeptos entre los físicos y químicos, y cuando en los albores del siglo XIX Dalton dio base experimental a la doctrina meramente intuitiva de Demócrito, no hizo más que iniciar una nueva fase de una evolución continua, cuyos principios se remontan al gran abderense.
La obra de Demócrito constituye una enciclopedia tan vasta y sistemática como la de Aristóteles. Por desgracia, solamente poseemos algunos fragmentos conservados merced a las críticas de sus adversarios. «Actualmente —dice con razón Partington— son muchas las personas que cambiarían con placer casi todos los diálogos de Platón por una parte de la obra del abderense.»

3. La física de Aristóteles
Vida y personalidad de Aristóteles; Las dos categorías de la materia; Doctrina del lugar natural; Descubrimientos cinemáticos; El problema del vacío; Aristóteles y la óptica.

Pensador más enciclopédico que todos los que le precedieron, Aristóteles (384-322 a. de J. C.), el gran sistematizador del saber antiguo, es quizá, tanto por la riqueza de sus conocimientos como por la sagacidad de sus juicios, el espíritu más universal que la historia conoce. Codificador de la lógica y de la ética, biólogo, cosmólogo y físico, dejó profundas huellas de su genio en cuanto temas trató. Hijo del médico Nicómaco, Aristóteles nació en Calcídica, en la pequeña ciudad de Estagira.
A los dieciocho años de edad fue admitido en la Academia de Platón, donde permaneció dos decenios como discípulo dilecto del maestro. Después de la muerte de Platón, pasó algunos años en la corte de Hernias, personaje interesante que de esclavo en su juventud terminó su carrera como tirano de la ciudad de Atarne, en Asia Menor.
En el año 342 le confió Filipo de Macedonia la educación de su hijo Alejandro, cuyas conquistas debían cambiar con el tiempo la faz del mundo.
Cuando Alejandro sucedió a su padre en el trono, su preceptor volvió a Atenas.
En este momento tenia Aristóteles casi cincuenta años y la mayor parte de su obra estaba todavía por hacer. En los jardines de Lykaios estableció su célebre escuela, llamada más tarde peripatética, por la costumbre que tenía el maestro de enseñar paseando. Mal visto por muchos atenienses y prácticamente extraño en la ciudad-estado, Aristóteles no gozó en Atenas de la veneración y la tranquilidad que habían rodeado a Platón. A la muerte imprevista de Alejandro Magno, Aristóteles, amenazado por la venganza de sus adversarios políticos, hubo de abandonar Atenas y refugiarse en Calcis, donde murió a la edad de sesenta y tres años.
Como hombre de ciencia, Aristóteles es en primer término, un naturalista: el primer gran biólogo de la historia. «Linneo y Cuvier —decía Darwin— los dos ídolos de mi juventud, sólo son, en realidad, escolares si los comparamos con el viejo Aristóteles.» ¡Sin embargo, su método de investigación y sus concepciones, que le permitieron lograr en la embriología notables descubrimientos y crear una clasificación de los seres vivientes que no fue sobrepasada hasta el siglo XVIII, le guió con mucho menos seguridad en sus investigaciones sobre problemas de la mecánica y de la física, las observaciones meramente cualitativas le bastaron para darle una base empírica en zoología, pero no pudieron prestarle los mismos servicios en física; por otra parte, sus convicciones vitalistas y finalistas, que a menudo trasladaba de la naturaleza orgánica a la inorgánica, lo llevaron forzosamente a inferir conclusiones erróneas.
A pesar de que hacía abundante uso del método inductivo —contra lo que a veces pretenden algunos autores de manuales—, Aristóteles, padre de la lógica formal, tenía inclinación a sobrestimar el alcance de las deducciones lógicas, a partir de premisas preconcebidas y a olvidar un poco que la lógica, privada del apoyo de la experiencia, queda reducida a una dialéctica de la prueba, sin poder conducir a verdaderos hallazgos. No obstante estas deficiencias, la mecánica de Aristóteles no es por completo estéril y contiene algunos conocimientos nuevos y positivos.
Los objetos del universo, según Aristóteles, se dividen en dos categorías: En el cielo, en la naturaleza supralunar, los cuerpos son indestructibles, eternos, inmutables; si cambian, pasan por fases que se repiten indefinidamente con perfecta regularidad; a estos cuerpos invariables les concede Aristóteles un movimiento cuyos elementos serían invariables: el movimiento uniforme y circular.
En la Tierra y en sus vecindades coloca Aristóteles la materia propiamente dicha, sujeta a verdaderos cambios. Profundizando una idea de los eleáticos, el estagirita admite que cada cuerpo tiene su lugar natural: los cuerpos livianos, fuego y aire, tienden por su naturaleza inmanente a ir hacia arriba; los cuerpos pesados, agua, piedras, metales, hacia abajo. La ascensión de los cuerpos livianos y el descenso de los graves son movimientos naturales, en oposición a los movimientos forzados (el de una piedra arrojada) que se efectúan contrariando la tendencia de buscar el lugar predeterminado.
Por diferentes que sean el movimiento natural y el forzado, ambos necesitan un agente motor, que siempre debe estar, sin intermediario, con lo movido. Sin el contacto con su motor, ningún cuerpo podría moverse. En el caso del movimiento natural, el motor es eterno (está en el cuerpo); en el movimiento forzado, el motor es perecedero, casual. Aristóteles aplica esta hipótesis al análisis del tiro oblicuo, compuesto por tres clases de movimientos: forzado, mixto y natural.
La parte ascendente de la trayectoria es una curva, la parte mixta recta, la parte descendente nuevamente una curva. Si el tiro es vertical, la parte mixta se reduce a cero. ¿Cómo conciliar el fenómeno del tiro con el postulado según el cual el motor debe estar en contacto con el móvil? Desde el momento en que cesa el contacto del proyectil con el instrumento que lo lanzó, el aire se cierra detrás del proyectil y los transporta, explica el estagirita. Igualmente, es el aire el que actúa, según Aristóteles, en la caída libre, como factor de aceleración.
Por cierto, las leyes fundamentales de la cinemática aristotélica — mezcla de ideas metafísicas y de toscas observaciones— no resistieron la crítica de los innovadores renacentistas, y ninguna pasó a la mecánica de Galileo.
Empero, los errores básicos de su mecánica no impidieron al estagirita realizar algunos descubrimientos verdaderos. En el análisis del tiro vertical, reconoce la uniformidad de la aceleración, negativa cuando el cuerpo asciende, positiva cuando cae.
El estudio de la palanca le permite observar que de dos fuerzas iguales que elevan por medio de ese instrumento una carga, la mayor exige un desplazamiento menor; de este modo entrevé el principio de las velocidades virtuales. Estudiando el problema de la sensibilidad de balanzas con brazo largo y brazo corto, llega al principio del paralelogramo de movimientos, que enuncia de la siguiente manera:
«Un cuerpo que se mueve según una determinada razón, lo hace a lo largo de una recta representada por la diagonal del paralelogramo formado por dos rectas que están en dicha razón.»
Aristóteles hace uso, aunque solamente en un caso especial, del momento estático. Del mismo modo, es él quien enuncia que «haciendo actuar una misma fuerza, la velocidad del cuerpo liviano es a la del cuerpo pesado, como el pesado es al liviano», teorema que contiene el núcleo del futuro principio cartesiano de la constancia del producto de la masa y de la velocidad.
Una cuestión que se plantea Aristóteles, sin poder resolverla, revela que barajaba pensamientos sobre la energía cinética, sin llegar, por supuesto, a ese primordial concepto. ¿Cómo ocurre, se pregunta Aristóteles, que un hacha en reposo no puede hendir la madera, mientras la misma hacha lo hace si se le imprime una velocidad, aunque sea moderada?
En oposición a la escuela de Demócrito, Aristóteles enseña la estructura continua de la materia y no admite la realidad del vacío. La velocidad de los móviles, razona Aristóteles, es inversamente proporcional a la resistencia del medio en que se mueven. El vacío, donde la resistencia es nula, permitiría, pues, movimientos con velocidad infinita; conclusión absurda que lleva al lógico a rechazar como premisa la existencia del vacío.
La doctrina de la irrealidad del vacío, apoyada por los escolásticos de la Edad Media, continuó hasta mediados del siglo XVII, es decir, hasta Torricelli y Guericke, y llegó a perturbar a Galileo. Adversario del atomismo, Aristóteles adoptó la teoría de los cuatro elementos formulada por Empédocles (siglo V a. de J. C.).
Aire, fuego, tierra y agua —los elementos empedoclianos— no son, sin embargo, los últimos constituyentes, sino más bien cualidades que confieren, en la naturaleza sublunar, a la materia primaria, que es la única realidad física, apariencia sensible. Además, Aristóteles agrega al cuarto elemento de Empédocles un quinto elemento: el éter, constituyente primordial de la sustancia eterna e inmutable de la naturaleza celeste. La teoría aristotélica de los elementos —ligeramente modificada por los alquimistas medievales— fue indiscutida en lo sustancial hasta Boyle, en el siglo XVII, y no desapareció antes de la «revolución química» de Lavoisier, en el siglo XVIII.
Aristóteles sabía que el aire es pesado y vio su opinión corroborada por la experiencia con un odre inflado; sin embargo, no podía explicar por qué el odre, inflado y más pesado, flota sobre el agua, mientras que el odre desinflado y, por consiguiente, más liviano, se hunde.
Como los pitagóricos, se interesó vivamente por los problemas de la acústica, y es el primero en reconocer que los instrumentos musicales (cuerdas, silbatos) producen sonidos poniendo el aire en movimiento. Conocía el fenómeno de la reflexión de los sonidos. Su tentativa para explicar la altura de los sonidos no fue, sin embargo, feliz: creía que los agudos se propagan más rápidamente que los graves.
Las opiniones de Aristóteles sobre la naturaleza de la luz y el fenómeno de la visión originaron fantásticas interpretaciones. Dos historiadores alemanes intentaron convertir al estagirita en padre de la teoría ondulatoria, otorgándole el mérito de haber asimilado la luz a ondulaciones del éter. En realidad, Aristóteles, al rechazar la teoría pitagórica de la visión, admite que la intervención del medio entre el ojo y el objeto percibido es esencial en el fenómeno de la visión. En tanto que ese medio que Aristóteles llama διαφανής (transparente) está en estado potencial —en estado de reposo—, hay oscuridad y el objeto no puede ser percibido. Excitado por el fuego o por el éter, el διαφανής pasa al estado activo —al estado de movimiento— y el objeto se vuelve visible.
Ningún pensador de la antigüedad tuvo influencia tan decisiva como Aristóteles sobre la evolución del pensamiento científico. Endiosado por las centurias que siguieron al eclipse del genio griego, y adoptado en el siglo XIII por la Iglesia católica como «el filósofo» por antonomasia, su prestigio terminó por convertirse en autoridad inflexible, que no fue eliminada hasta la revolución renacentista.
A pesar de algunos descubrimientos que hemos indicado, la física es la parte más débil de la inmensa obra de Aristóteles, y su enseñanza, erigida en dogma por el Medievo, pesó hasta la época galileana como un lastre sobre el progreso de la física. Mas si los acólitos de Aristóteles se sirvieron de éste como de un arma contra la libertad de investigación, sería injusto endosar la responsabilidad de olio al gran pensador de Estagira.

4. Arquímedes
El museo de Alejandría; Vida y personalidad de Arquímedes; La ley de la palanca; La hidrostática de Arquímedes; La influencia de Arquímedes.

Las décadas que siguen a la muerte de Aristóteles coinciden con el eclipse de la luz de Atenas, como centro de filosofía y ciencia. La desaparición de Alejandro Magno (323) desagregó el imperio del conquistador, y con la admirable ascensión del Egipto helenizado surge una nueva capital intelectual, heredera de Atenas: Alejandría.
Bajo la sabia dominación de los Tolomeos, Alejandría, con su célebre museo y su rica biblioteca, se convierte en el cerebro del mundo.

03.jpg

Arquímedes
Acogidos en el museo y mantenidos con fondos del Estado, los sabios podían entregarse, libres de toda preocupación material, a la investigación, desinteresada. Fue en el museo de Alejandría, en los comienzos del período alejandrino (siglo III a. de J. C.), donde enseñaron Euclides, el primer sistematizador de la geometría, Aristarco, el genial precursor de Copérnico, y Eratóstenes, matemático y eminente geógrafo.
En Alejandría realizaron sus obras los grandes ingenieros Ctesibio, Filón y Herón. Es también allí donde encontramos en la última etapa de la historia de la gloriosa escuela en el siglo II antes de Jesucristo a Claudio Tolomeo, justamente célebre como astrónomo, físico y geógrafo. Todas estas personalidades son hombres de ciencia, en el sentido moderno de la palabra, en oposición a los que les precedieron, que eran más bien filósofos. Sobre el suelo alejandrino la ciencia se separa de la filosofía para convertirse en un conjunto de disciplinas particulares. La física, y sobre todo la mecánica, dejan de ser dominio de especulación metafísica. Comienza la época de los especialistas.
La figura más eminente del período alejandrino es Arquímedes de Siracusa (287-212 a. de J. C.), el mayor matemático y mecanista de la antigüedad. Vástago de una familia noble, probablemente emparentado con el rey Herón de Siracusa, Arquímedes pasó la mayor parte de su vida en su ciudad natal, lo cual no le impidió mantener estrechas relaciones con la escuela de Alejandría. Algunos de sus más importantes escritos, redactados en forma de cartas, están dirigidos a sus amigos alejandrinos, al geógrafo Eratóstenes, al geómetra Conón y al astrónomo Dositeo.
¡Qué diferencia entre los pesados tratados de Aristóteles y las memorias maravillosamente lúcidas de Arquímedes, sorprendentemente modernas, tanto por su método como por su fondo! En efecto, el siracusano se nos aparece hoy lejos del estagirita y más cerca de los grandes hombres del Renacimiento, como Leonardo y Galileo.
Muchas anécdotas que nos han legado Plutarco, Tito Livio y algunos otros historiadores, anécdotas bien conocidas, ponen de relieve su extraordinaria personalidad. Pensador distraído, absorto por completo en sus problemas [1], investigador entregado apasionadamente a los estudios teóricos, ingeniero desdeñoso de sus admirables invenciones, tal es el cuadro que los escasos datos que nos han llegado permiten formarnos del más grande teórico y técnico de la antigüedad. Pero si estamos poco informados de su vida, conocemos mejor, gracias a Plutarco, las circunstancias de su muerte.
Cuando las tropas del general romano Marcelo atacaron a la ciudad de Siracusa, asediándola por mar y tierra, las máquinas de guerra ideadas por Arquímedes desempeñaron la parte principal en la defensa de la plaza. Después de tomada la fortaleza, el sabio, absorto en sus problemas geométricos, fue muerto por un soldado Se sabe que pidió al soldado que se disponía a herirlo que no borrara los círculos que había trazado en la arena. Así murió: geómetra hasta el último momento. Sus compatriotas, según parece, no tardaron en olvidarlo; a Cicerón, siglo y medio después, siendo cuestor en Sicilia, lo fue muy difícil encontrar la tumba del sabio siracusano, oculta bajo las malezas. El orador romano la había encontrado coronada, conforme a los deseos de Arquímedes, por un cilindro circunscrito a una esfera, a fin de esquematizar a los ojos de los profanos el descubrimiento arquimédico de las relaciones respectivas (3:2) entre los volúmenes y superficies de ambos sólidos.
Uno de los más lúcidos genios matemáticos de todos los tiempos, Arquímedes se adelantó en dos mil años a su época con sus trabajos geométricos, que tratan acerca de superficies de figuras limitadas por contornos curvilíneos y volúmenes de sólidos forma dos por superficies curvas; empleó integraciones y pasos a límite, anticipando principios esenciales del cálculo infinitesimal, cuya invención hizo en el siglo XVII la gloria de Newton y Leibniz.
Como en sus descubrimientos matemáticos, cuya apreciación no entra en el cuadro de nuestro tema, también en la mecánica es precursor de tiempos nuevos; es el primer investigador que combina, con rigor metódico, deducciones matemáticas con resultados experimentales. Esta fértil unión lo llevó a encontrar leyes fundamentales de la estática, de la cual es el verdadero fundador.
En su monografía Sobre el equilibrio de los planos, Arquímedes formula principios de la estática en términos matemáticos y enuncia el principio de la palanca. Sin duda, ya era conocido por Aristóteles, y antes de él por Platón, que la fuerza que actúa a mayor distancia del fulcro mueve el sistema más fácilmente. Sin embargo, media un abismo entre esta regla tosca y la exposición formal, susceptible de análisis riguroso, dada por Arquímedes a la ley de la palanca.
El siracusano infiere esta importante ley del principio del centro de gravedad, base axiomática de su estática de los postulados empleados en su estática surgen inmediatamente las proposiciones de que dos pesos iguales colocados a igual distancia del centro de rotación (punto de apoyo de la palanca) están en equilibrio, mientras los mismos pesos colocados a distancia desiguales no se equilibran, y el peso que está a mayor distancia desciende. De estas proposiciones deduce Arquímedes que el centro de gravedad de un sistema formado por dos pesos desiguales se encuentra sobre la línea que reúne los centros de gravedad de ambos y que esos pesos desiguales están en equilibrio cuando sus distancias del punto de rotación son inversamente proporcionales a los pesos. Esta última afirmación es precisamente el principio de la palanca en todo rigor.
Agreguemos que algunos historiadores, entre ellos Ernesto Mach, no han encontrado impecable el pasaje de la proposición inicial a la proposición final y reprocharon a Arquímedes haber utilizado implícitamente el hecho conocido de que el efecto de un peso (P) a la distancia (L) del eje está medido por el producto, hecho no contenido en su postulado. Es probable que Edmundo Hoppe tenga razón cuando sugiere que la deducción de este teorema estaba incluida en la obra perdida de Arquímedes, Sobre la balanza, que contenía la definición del centro de gravedad, definición que se buscaría en vano en las obras actualmente existentes del gran siracusano.
La ley de la palanca es enunciada en la forma de un teorema geométrico, pero no cabe duda de que Arquímedes, constructor de máquinas, verificó su certeza por medio de la experiencia. El entusiasmo que lo conmovió al descubrir que una pequeña fuerza aplicada a un brazo de palanca muy largo puede equilibrar una gran fuerza que actúa sobre un brazo muy corto, se refleja en su célebre frase: «Dadme un punto de apoyo y levantaré el globo terráqueo» [2].
Íntimamente ligado a sus estudios sobre los principios de la estática es su proceder mecánico expuesto en su tratado Sobre el método, para encontrar áreas y respectivamente volúmenes de configuraciones curvas. El método consiste en descomponer, por ejemplo, en una infinidad de planos, dos sólidos cuyo volumen se desea comparar y en determinar las relaciones de equilibrio de esos planos; considerando cada uno de los cuerpos como la suma de estos planos, la relación de sus equilibrios permite obtener la relación de sus volúmenes.
Mientras que en estática Arquímedes tiene precursores, no cuenta con ninguno en hidrostática. Su tratado Sobre los cuerpos flotantes bastaría por sí sólo para hacer del autor el más eminente de los físicos de la antigüedad. Parte de un postulado que define al líquido y muestra en seguida que cada líquido en reposo debe tener una superficie esférica cuyo centro coincide con el centro de la Tierra. Las proposiciones que siguen establecen las condiciones de equilibrio de cuerpos sumergidos en un líquido, examinando el caso de un sólido del mismo peso —a igual volumen— del líquido, y luego el caso de cuerpos más livianos y respectivamente más pesados — a igual volumen— que el líquido.
Estas proposiciones contienen el enunciado del célebre principio de Arquímedes que exige la igualdad de la pérdida de peso con el peso del líquido desalojado. El establecimiento de este principio básico de la hidromecánica equivale en realidad a la aplicación, a los cuerpos flotantes, de la futura segunda ley newtoniana del movimiento y resuelve por completo la cuestión de hasta qué nivel un barco se sumerge en el agua.
La tradición atribuye a un problema práctico el origen de la investigación que condujo a Arquímedes a formular su fundamental ley hidromecánica. El rey Hierón se creyó defraudado por un artesano al cual había remitido, para que fabricara una corona, un peso determinado de oro, y sospechaba que había reemplazado parte del precioso metal por plata. La cuestión fue planteada a la sagacidad del gran geómetra. Preocupado por tal problema, Arquímedes se encontraba en el baño cuando se dio cuenta de que su cuerpo, sumergido, desalojaba cierta cantidad de agua y perdía cierto peso, lo cual le dio la clave del problema. Todo el mundo conoce la anécdota transmitida por Plutarco y el arquitecto romano Vitruvio a la posteridad: Transportado de alegría, Arquímedes corrió desnudo por la calle gritando: ¡ Ευρηχα, Ευρηχα!, es decir: ¡Lo encontré! ¡Lo encontré!
Las aplicaciones prácticas de sus descubrimientos no eran ajenas al espíritu del gran teórico. Varias de sus invenciones, la polea compuesta, el tornillo hidráulico, espejos ustorios [3], máquinas de guerra— prueban que fue un ingeniero de méritos extraordinarios. Empero, esto genio, tal vez el mayor de la antigüedad incluso en mecánica práctica, no nos dejó ningún escrito acerca de sus inventos técnicos, considerados por él como indignos de un geómetra [4].
La posteridad no reservó a la obra de Arquímedes el mismo destino que a la de Aristóteles. Éste comenzó a imponerse a los espíritus a principio de nuestra era, para dominar después en las largas centurias del Medievo.
Al contrario, la repercusión de los escritos de Arquímedes, si bien poderosa hasta la decadencia de la escuela de Alejandría, desapareció después de la extinción del genio griego, y su influencia fue mínima, a pesar de la veneración que por él tuvieron los árabes y algunos cristianos de la Edad Media. Solamente con el Renacimiento surgen genios afines a Arquímedes, como Stevin y Galileo, capaces de prolongar la trayectoria que él había trazado. La luz de las ideas del siracusano comienza a brillar, cuando se eclipsa el relumbrón del estagirita.

5. Mecánica práctica y óptica en Alejandría
Clepsidra de Ctesibio; Termoscopio de Filón; Herón: su Mecánica y su Neumática; La ley de la reflexión de la luz; Tolomeo y sus investigaciones ópticas.

Más que investigadores, los antiguos egipcios —como hemos dicho— eran grandes constructores, hábiles arquitectos de monumentos gigantescos como las pirámides, de estatuas colosales como la de Mnemón, de templos grandiosos como el de Karnak.
Enamorados de teorías y desdeñosos de las ciencias prácticas, los griegos sufrieron en Egipto la influencia de esa inclinación hacia la técnica, y en ninguna parte la alianza entre la investigación desinteresada y el saber aplicado fue más fecunda que en el Egipto helenizado.
En Alejandría, la importancia acordada a los estudios mecánicos, a las aplicaciones de toda categoría, no dejó de aumentar desde el siglo de Arquímedes y hacia el crepúsculo de la época alejandrina (los dos primeros siglos de nuestra era) se volvió preponderante.
Ctesibio, contemporáneo de Arquímedes, inicia la serie de grandes representantes con que contó la floreciente escuela de ingenieros en Alejandría. Construyó un órgano hidráulico, bombas contra incendio, varios autómatas y perfeccionó el reloj de agua: en m clepsidra el agua salía de un recipiente para caer en otro, y a medida que en éste aumentaba el nivel, subía un flotador que movía el índice de las horas. Filón, probablemente discípulo de Ctesibio, inventó el termoscopio, el primer termómetro que registra la historia. Una gran esfera de metal estaba unida por un tubo con un vaso de vidrio, lleno de agua. Expuesto a los rayos del Sol, el aire se dilataba en la esfera, pasaba al vaso y producía burbujas en el agua. Los termómetros abiertos al aire, construidos por Galileo y otros italianos a comienzos del siglo XVII, tienen su origen en el termoscopio de Filón. Las obras de este sabio, de la principal de las cuales sólo nos han llegado fragmentos, son citadas a menudo por Herón.
El más eminente de los ingenieros de Alejandría, Herón, jefe de una famosa escuela técnica, fue un escritor casi enciclopédico sobre temas mecánicos, físicos y matemáticos. Quizá haya florecido en torno de 100 antes de nuestra era; debemos, sin embargo, agregar que los historiadores no están de acuerdo sobre la época en que floreció. Su legendaria nombradía y el excepcional éxito de sus obras tuvieron la consecuencia de que la posteridad le atribuyera un gran número de trabajos apócrifos. Mas no cabe duda de que es autor de tres libros de Mecánica, de dos de Neumática y de uno de Catóptrica, obras que justifican plenamente su gran renombre como investigador e inventor.
La Mecánica de Herón es un libro de texto escrito para ingenieros más interesados por los problemas prácticos de su profesión que por las investigaciones teóricas. El autor describe máquinas simples y máquinas compuestas. En sus dispositivos emplea combinaciones de ruedas dentadas, engranajes a cremallera, la transmisión de fuerza mediante un tomillo a un eje perpendicular al suyo, y hace el uso más amplio y variado de la palanca. Resolvió el problema planteado por Arquímedes de levantar mil talentos con la ayuda de cinco talentos y dio respuesta a la pregunta de Aristóteles de cómo repartir las cargas sobre varios puntos de apoyo.
Sabía que sus máquinas no realizaban un ahorro de trabajo y reconoció con claridad la validez del principio que se llamaría posteriormente « de los desplazamientos virtuales». Cuanto más débil —afirma Herón— es la fuerza motriz en proporción al peso que debe moverse, tanto más largo es el tiempo empleado, de manera que tiempo y fuerza están en relación inversa.
Todavía más interesante que la Mecánica, resulta, gracias a sus excursiones teóricas, la Neumática de Herón, donde el ingenioso alejandrino sigue a veces las huellas de Estratón de Lampsaco. Herón es el primer investigador que tuvo noción de la elasticidad y de la presión del aire, fenómenos que no fueron claramente explicados hasta el siglo XVII.
El aire comprimido por una presión exterior se dilata si la presión deja de actuar. El calentamiento produce también dilatación del aire. Herón aplica esta propiedad en su máquina a aire caliente, destinada a elevar agua. Niega, como Aristóteles, la existencia del vacío continuo, pero concede que éste existe entre las moléculas de las sustancias sólidas, líquidas o aeriformes. Por otra parte, Herón enseña que se puede realizar artificialmente el vacío, y lo prueba prácticamente con sus aparatos de succión y su botella con derrame constante de agua. Otros aparatos de Herón utilizan el vapor como fuente de fuerza motriz: en su «eolípila», la reacción provocada por los chorros de vapor que salen de una esfera producen la rotación de la misma. La primitiva turbina del alejandrino es la primera aplicación que conocemos del vapor para obtener movimiento. Su genial iniciativa no tuvo, sin embargo, consecuencias prácticas.
«Un mundo de esclavos —dice con razón Sherwood— no requería el poder del vapor, y durante dieciséis siglos la idea del alejandrino permaneció en el olvido.»
Herón utiliza, también la presión hidrostática, y es el primero en emplear mercurio en lugar de agua para transmitir la presión.
Muchos de los mecanismos descritos por Herón, comprendida la turbina de vapor, no son más que juguetes. Como la mano de obra, la de los esclavos, no costaba casi nada, la rudimentaria industria de la época no requería verdaderas máquinas. Numerosos aparatos de Herón, como los que describe en su obra Sobre los autómatas, sirvieron de distracción o permitieron a los sacerdotes producir aparentes milagros. Una invención eminentemente útil es, por el contrario, su odómetro: un sistema de engranajes que permite leer sobre un cuadrante el número de vueltas que da la rueda de un carro y medir la longitud del camino recorrido. Su dioptra, el teodolito de la antigüedad, da una admirable muestra del arte mecánico de Herón: instrumento universal de medida, que puede prestar servicios a los geodestas y a los astrónomos, permitía, gracias a tornillos micrométricos, una precisión de enfoque y de lectura que no fue sobrepasada hasta mediados del siglo XVI [5].
Sin duda, Herón debió muchas felices ideas a sus precursores, especialmente a Arquímedes, Ctesibio y Filón, pero además de ser un compilador, enriqueció y completó los hallazgos de sus maestros. Esto es lo que hizo también en el dominio de la óptica. La propagación rectilínea de los rayos luminosos, la igualdad de los ángulos de incidencia y de reflexión, pertenecían desde mucho tiempo al acervo de los conocimientos y se encuentran consignados en los escritos sobre óptica atribuidos a Euclides. Herón estudió espejos planos, convexos, cóncavos, y logró refundir sus dos leyes en una sola.
El rayo —escribe en su Catóptrica— sigue siempre el camino más corto. Sea o no reflejado, el rayo siempre satisface esta condición.
El fenómeno del rayo refractado, cuyo conocimiento, según algunos autores, está documentado desde el siglo V antes de nuestra era, no dejó de atraer la atención de los investigadores. Colocad un anillo en un vaso de modo que lo oculto el borde del vaso; llenando éste con un líquido, el anillo aparece gracias a la reflexión de la luz. Esta experiencia, ideada probablemente por Arquímedes, está relatada como cosa familiar a todos por Cleomedes (floreció hacia el año 50 a. de J. C.).
Sin embargo, un progreso real en el conocimiento del fenómeno no fue realizado antes de Claudio Tolomeo (floreció hacia el año 130 d. de J. C.). Sistematizador de la astronomía, eminente geógrafo, este último gran alejandrino, se destacó también en la física. Fue el primero en realizar en el libro quinto de su Óptica — un estudio detenido sobre la refracción de la luz. Su aparato de medida consistía en un disco graduado provisto de dos reglas que giraban en torno del centro del disco. Colocaba las dos reglas, de las cuales una estaba sumergida en agua, de modo que parecían formar una línea recta; al sacar el disco que lleva los reglas, de adentro del líquido, podía leer sobre la graduación el ángulo de refracción correspondiente a un ángulo dado de incidencia, los valores que así obtuvo, para el agua y para el vidrio, son de notable exactitud. Si bien no logró descubrir la ley de la refracción, que incluso Kepler buscaría en vano, reconoció en cambio que el rayo, al pasar a un medio más denso, se acerca a la vertical que en el punto de incidencia cae sobre la superficie refringente. Tampoco escapó a su atención que para el paso del rayo al medio menos denso debía existir un ángulo límite. Por otra parte, conocía el fenómeno de la refracción atmosférica y advirtió que el valor de ésta, cero en el cénit, crece con la distancia cenital de los astros.
La obra de Herón y Tolomeo señala la última fase de la física griega, ésta no encuentra ya ningún representante digno de los grandes investigadores que le dieron lustre en épocas pasadas. Sin duda, la escuela de Alejandría, aunque no podría evitar finalmente la decadencia, perduró largo tiempo después de la desaparición de Tolomeo, mas sus fuerzas creadoras se agotaron gradualmente y terminó por nutrirse de las fuentes del pasado.
Loa dos primeros siglos de nuestra era asisten a la espléndida ascensión de Roma y ven a las águilas imperiales señorearse del Mundo.
En oposición a los griegos, los romanos, eminentes legisladores, elocuentes oradores, no poseían la noble pasión de las búsquedas desinteresadas, ignoraban el encanto de las construcciones abstractas del espíritu.
Se contentaron con bordear por medio de especulaciones poéticas o filosóficas algunos problemas de la ciencia griega, como Lucrecio Caro (95-55 a. de J. C.), portavoz de las ideas democríteas, como Plinio el Viejo (23-79 d. de J. C.), hábil recopilador y vulgarizador de hallazgos griegos.
Sus ingenieros siguieron las huellas de los mecanicistas alejandrinos sin aumentar el patrimonio científico que la Hélade les había dejado como herencia. La historia de los romanos transcurre sin dejar huellas en la historia de la física.

Capítulo 2
La física en la Edad Media

Contenido:
1. Los árabes y la transmisión de la ciencia griega al Occidente
2. La ciencia occidental

1. Los árabes y la transmisión de la ciencia griega al occidente
Al-Hazen y Al-Khazirii

En el año 529 el emperador Justiniano dispuso clausurar la Academia de Atenas, trazando con su simbólica medida un límite a la milenaria existencia de la sabiduría antigua. En realidad, la venerable Academia de Platón, tanto como las escuelas de Alejandría, se encontraban por esa época en plena decadencia: la turba de los comentadoras había sustituido a los buscadores de nuevas verdades. Hacia el mismo tiempo (525) Dionisio el Exiguo introducía la costumbre de contar los años a partir del nacimiento de Cristo: otro procedimiento simbólico que señala el comienzo de la era cristiana, no solamente en la computación del tiempo, sino más todavía, en la historia del espíritu. Sobre las ruinas de las instituciones del mundo romano se eleva poderosa la nueva organización de la Iglesia que concentra en su seno, por espacio de un milenio, todos los esfuerzos intelectuales.
Desinunt ista, non pereunt ; las palabras de Séneca tienen aquí su verdadero lugar: la sabiduría antigua dejó de existir, sin haber desaparecido. Su recuerdo no se había extinguido entre los pueblos orientales de habla griega que formaban el imperio bizantino. En efecto: la cultura bizantina no merecería tal nombre si no hubiera conservado preciosos manuscritos de la edad de oro de la sabiduría griega, si no hubiera mantenido vivo el conocimiento de la lengua clásica y si no hubiera servido como lazo de unión entre la ciencia griega y la de loe árabes, cuyo papel había de ser salvar del olvido el tesoro de los conocimientos helénicos y transmitirlos a Europa.
La intervención de las árabes en los destinos de las ciencias es uno de los milagros de la historia. En el siglo VII sus tribus semi-nómadas —pastores o agricultores—, animadas por un espíritu belicoso, no tenían ningún contacto con la cultura griega y no representaron ningún papel digno de mención en la historia.
Más todo cambia de pronto con la aparición de Mahoma. Las tribus árabes estaban entregadas, más o menos, a la anarquía moral y social, cuando surgió ese visionario, que supo encender el fuego de una nueva fe (hégira 622), forjando un estado teocrático, llamado a lanzar sobre el mundo un brillante resplandor, momentáneo pero de extraordinaria potencia.
Con sorprendente rapidez el primitivo núcleo árabe de fieles asimiló diferentes razas semíticas y no semíticas, reunidas desde entonces, en la gran confraternidad del Islam. Los sucesores del Profeta conquistaron Siria, Persia y Egipto, extendieron la guerra santa a España y franquearon los Pirineos, amenazando el corazón del Occidente, cuando Carlos Martel, en la sangrienta batalla de Poitiers logra contener, justamente cien años después de la muerte del Profeta (732), su marcha triunfal.
«La tinta del sabio es tan preciosa como la sangre del mártir», declaró el Profeta y enseña el Corán. El culto que esos conquistadores rendían a la espada no era exclusivo, pues estimaban también la pluma, y sus ansias de dominación se completaban con mi sed de saber. Desde el siglo XIII los árabes hicieron un admirable esfuerzo para asimilar la ciencia griega y más aún para enriquecer ese patrimonio. Los príncipes abasíes, inspirándose en el ejemplo de los tolomeidos, aceleraron, por la eficaz protección acordada a los sabios, el importante proceso de traducción y asimilación del saber griego.
Ellos aprovecharon los servidos de los cristianos nestorianos, que expulsados hacía mucho de Bizancio y establecidos en Mesopotamia se convirtieron, gracias a su conocimiento del griego y de las lenguas semíticas a la vez, en los principales mediadores entre la vieja cultura helénica y los jóvenes pueblos del Islam. El séptimo califa abasí, Al-Mamún, que reinó entre los años 813 y 833, reunió en su capital, Bagdad, «ciudad de las maravillas», una rica colección de obras griegas y fundó una floreciente escuela de traductores. De una protección no menos generosa que la de Bagdad gozaron los sabios e investigadores en la corte de Córdoba, admirable centro de cultura intelectual de los califas occidentales Abderramán III (912-961) y Al-Hakim II (912-926). Tres siglos después de la muerte del Profeta, la lengua árabe había llegado a ser la de las ciencias, y la ciudad de Córdoba, el «Bagdad occidental», asiento de ochenta escuelas y una biblioteca que con sus centenares de miles de manuscritos era comparable a la de Alejandría.
Si los árabes sólo hubieran llenado el hiato de siglos que separa el crepúsculo del saber antiguo y la aurora del nuevo, su mérito ya sería notable. Sin embargo, no se contentaron con ser meros agentes de transmisión de la ciencia griega, sino que añadieron a este bagaje la contribución debida a sus propios esfuerzos. Por cierto, en sus filas no surgió un genio creador como Arquímedes o Hiparco, ni siquiera un sistematizador como Euclides y Tolomeo, pero su éxito en el álgebra, en las observaciones astronómicas son innegables y sus descubrimientos en la química son copiosos. Aunque la mecánica los atrajera menos, lograron, gracias a los trabajos de Al-Biruni (floreció hacia el año 1000) y de Al-Kliazini (principios del siglo XII), ampliar los resultados de Arquímedes sobre los pesos específicos. En la persona de Al-Hazen dieron un gran físico al mundo.
La figura más descollante de la ciencia árabe es Al-Hazan ibn al-Haitam de Basora, el Al-Hazen (965-1038) de los latinos. Sobre su vida casi nada sabemos. Nació en Irak, entró al servicio del califa fatimí Al-Hakim y murió en El Cairo. Fue, sin duda, un hábil ingeniero y un astrónomo de renombre, cuya obra sobre los planetas encontró amplia difusión. Mas su título de inmortalidad, lo constituyen los estudios sobre problemas ópticos reunidos en su obra Kitab al-manazir, que muestra su independencia de espíritu y de habilidad experimental superior a la de sus maestros griegos. Al- Hazen rechaza la opinión de Euclides, de Tolomeo y de otros eruditos de la antigüedad, los cuales admitían que el ojo envía rayos visuales al objeto visto; éste y no el ojo, enseña Al-Hazen, es el foco luminoso. Cada punto del objeto iluminado envía a todas direcciones rayos rectilíneos que forman un cono cuyo vértice es el punto aclarado y la pupila es la base. Estos rayos producen en el ojo la imagen. ¿En qué parte del ojo? En el cristalino (la lente del ojo), afirma el físico árabe, desconociendo el papel de la retina, que no será explicado antes de Kepler. En cambio, da una descripción exacta del ojo, en el cual distingue tres medios refringentes y cuatro membranas.
En una serie de experiencias, Al-Hazen verifica, con espejos planos, convexos, cóncavos, cilíndricos, cónicos y esféricos, la ley de la reflexión. Es el primero en enunciarla en su forma completa:
«La normal a la superficie reflectora en el punto de incidencia se encuentra siempre en el mismo plano que el rayo incidente y reflejado»,
establece el físico árabe. Su sagacidad de matemático está demostrada en la solución de problemas de óptica geométrica, y no es inferior a su arte de experimentador. Uno de dichos problemas se enuncia así: «Dada la posición del punto luminoso, hallar sobre la superficie de espejos esféricos, cónicos y cilíndricos, el punto de reflexión que permita para una posición dada el ojo ver la imagen del punto luminoso.» Este es el famoso «problema de Al-Hazen», que lleva analíticamente a una ecuación de cuarto grado; Al-Hazen lo resuelve mediante la intersección de un círculo con una parábola.
Los fenómenos revelados por espejos esféricos y parabólicos cautivaron particularmente su interés. Encontró la aberración esférica y estableció la concurrencia en un punto de los rayos paralelos en espejos parabólicos cóncavos.
Al-Hazen dedica cuidadosos estudios a la verificación de las experiencias de Tolomeo sobre la refracción de la luz. Sin duda, permanece ignota también al sabio árabe la ley que el precursor alejandrino había buscado en vano, pero reconoce que los planos de incidencia y de refracción coinciden y encuentra el lugar de la imagen engendrada por los rayos refractados en el punto de intersección del rayo refractado (o su prolongación) y de la perpendicular desde el objeto hasta la superficie refractora. Sus experiencias de refracción con segmentos esféricos le permiten reconocer el poder amplificador de los lentes, sin pensar —que sepamos — en una aplicación práctica.
Varios problemas de la óptica atmosférica atrajeron su atención; parte de la hipótesis según la cual la luz crepuscular persiste mientras haya un rayo de Sol que se refleje en un estrato de la atmósfera, y concluye de la duración del crepúsculo, la altura de la atmósfera, que considera de 15 kilómetros.
De sus otras contribuciones a la óptica nos limitaremos a indicar algunas: es el primero en estudiar la cámara oscura, así como el primero en distinguir entre sombra y penumbra. En oposición a los pensadores de la antigüedad, Al-Hazen es el primero en enseñar que la velocidad de la luz es finita, anticipando así un descubrimiento reservado a un lejano porvenir.
Las investigaciones de Al-Hazen encontraron gran repercusión. Su obra maestra, enriquecida con un comentario de Al-Farisi (1300) y traducida al latín y otros idiomas, ejerció profunda influencia, cuyas huellas se pueden seguir hasta los estudios ópticos de Kepler.
Sin alcanzar la importancia de Al-Hazen, Al-Khazini (primera mitad del siglo XII) merece ser incluido entre los grandes físicos, por sus admirables determinaciones de pesos específicos. Es el único representante de la «ciencia árabe», al cual la mecánica es deudora de algunos progresos. Sin duda, Al-Khazini debe mucho al sabio universal —matemático, geógrafo y astrónomo— Al-Biruni (973-1048), cuyos métodos y resultados mejoró, sin embargo, considerablemente.
Esclavo griego, Al-Khazini tuvo la suerte de encontrar un amo bondadoso que le permitió instruirse. Su obra, un tratado de mecánica y de hidrostática que lleva el poético título de Balanza de la sabiduría (Mizan al-Hihna) se cuenta, con razón, entre los más notables escritos del Medievo.
No cabe negar que Al-Biruni y Al-Khazini son discípulos de Arquímedes y de los alejandrinos, mas ellos elaboraron con más claridad el fundamental concepto del peso específico, que definieron como la relación del peso absoluto con el peso del agua desalojada. No ignoraban que la densidad del agua decrece con temperatura creciente, y su observación de que la diferencia de densidad entre el agua caliente y el agua fría alcanza 0,04167 muestra el cuidado con que procedieron en sus mediciones.
Para determinar los pesos específicos, Al-Khazini construyó varias balanzas, una de las cuales, particularmente sensible —con un brazo de 2 metros de longitud y con cinco platillos— era la «balanza de la sabiduría». Los resultados obtenidos para metales, los líquidos y piedras preciosas, son muy satisfactorios, como muestra la tabla siguiente:

Peso especifico
SustanciaAl-KhaziniValor actual
Oro19,0619,26
Mercurio13,5813,59
Cobre8,608,85
Hierro7,747,79
Estaño7,327,29
Plomo11,3211,35
Zafiro3,963,90
Esmeralda2,002,73

Agreguemos que Al-Khazini sabía que el peso de los objetos cambia con su distancia del centro de la Tierra: resultado notable, aunque las premisas que le sirvieron de base eran falsas.

2. La ciencia occidental
Rogelio Bacon y Pedro Peregrino

Omnes scientiae theologiae ancillae: hasta fines del siglo XII el Occidente cristiano es estéril desde el punto de vista de la física. Durante esta larga serie de siglos, los esfuerzos intelectuales convergen en el seno de la Iglesia. Subordinados a sus finalidades, los investigadores ceden su lugar a los eruditos, los descubridores de hechos nuevos a los compiladores y a los comentadores, y las querellas de los gramáticos reemplazan las búsquedas originales. La autoridad de Aristóteles, maestro supremo, vela sobre todas las empresas del espíritu e impone a los pensadores no sólo la lógica sutil del estagirita, hábilmente aplicada a las materias teológicas, sino también su mecánica y su física. Los autores de enciclopedias, que reúnen la totalidad del saber de la Edad Media, se entregan a la ilusión de que la ciencia es un bien conquistado, un libro cerrado.
Ignoran por completo la embriagante aventura del espíritu que conocería el Renacimiento cuando lanzara audazmente el navío de sus experimentos sobre el inmenso océano de las verdades inexploradas.
La infiltración de los clásicos griegos y de las obras árabes en el pensamiento de la cristiandad occidental se hizo gradualmente más sensible desde principios del siglo XIII. Las universidades de Bolonia, de París, de Montpellier, de Oxford y algunas otras están definitivamente constituidas y dan impulso a las investigaciones. La filosofía, y con ella la ciencia, comienza a separarse de la teología. Es el momento en que surgen dos personalidades que aportan nuevas ideas a la ciencia en general y algunos progresos a la física en particular.
Rogelio Bacon (1214-1294), hijo de gentes pudientes, nació en Ilchester (Inglaterra) y fue contemporáneo del mayor filósofo de la escolástica, Tomás de Aquino. Bacon se formó en Oxford bajo la influencia del matemático Adam Marsh y del físico Roberto Grossetête, conocedor del griego y del árabe. Después de haberse doctorado en París, volvió a Inglaterra e ingresó en la orden de los franciscanos. Católico iluminista, se acercó a las ciencias en búsqueda del camino que lleva a Dios. Sus ideas, que se adelantaban a la época, no tardaron en despertar las sospechas de sus superiores eclesiásticos. Obligado a regresar a París, fue vigilado severamente por sus hermanos de orden y castigado con la prohibición de enseñar sus doctrinas. Sin embargo, cuando Clemente IV, papa de amplia visión, ascendió a la silla de San Pedro, autorizó a Bacon a publicar sus trabajos. De acuerdo con la anuencia del pontífice, Bacon le envió en 1267 la exposición de sus doctrinas, su Opus majus, que contiene sus investigaciones en física, seguido bien pronto por otros dos libros, Opus minus y Opus tertium.
Por desgracia, la muerte prematura del papa privó a Bacon de su protector. Fue encarcelado una vez más (1278), y sólo recuperó la libertad en el año 1292, poco antes de su muerte.
Conocedor del tratado de Al-Hazen, Bacon se dedicó particularmente a la óptica. El poder de aumento de los lentes atrajo su atención y recomendó su uso a los ancianos y a los personas de vista débil. Su descripción de la trayectoria del rayo luminoso en los lentes, aunque defectuosa, puede ser considerada como una grosera aproximación a la realidad [6]. Efectuó experimentos con la cámara oscura y notó que la imagen del Sol es siempre redonda, sin importar que sus rayos entren en el aparato por un agujero redondo o anguloso. La inversión de la imagen no escapó a su atención. Su teoría del arco iris —cuya altura (42°) conocía—, que explica por la refracción de la luz al atravesar las gotas de agua, señala un paso adelante en el conocimiento de este fenómeno [7].
Agreguemos que Bacon es el primero en concebir, en su Opus majus y la gravedad como atracción hacia el centro del globo terráqueo, y es igualmente el primero en explicar el calor como un movimiento que tiene por asiento el interior de los cuerpos.
A pesar de estas contribuciones, Bacon no es, en realidad, un hábil experimentador, y menos aún un gran teórico. Sin embargo, no son los descubrimientos que aportó a la física o a la química los que le aseguran fama duradera, sino su actitud general frente a la ciencia, sus opiniones sobre los métodos de investigación, opiniones por otra parte sorprendentemente modernas, en relación al medio que lo rodeaba. La erudición del Doctor Mirabilis —sobrenombre que sus contemporáneos le dieron— era grande, pero en vez de aceptar ciegamente las aseveraciones de Aristóteles o de otros, sostuvo la necesidad de experimentar, para verificar las antiguas afirmaciones y adquirir nuevos conocimientos. Insiste sobre la necesidad de comprobar experimentalmente las conclusiones alcanzadas a priori.
La lógica sirve de seguro andamio para la prueba argumental, pero únicamente la experiencia es juez competente de la certeza de los hechos. Su intuición reconoce la importancia de las matemáticas en la investigación de las ciencias. Sed sola mathematica manet nobis certa et verificata in fine certitudinis et veri tatis (Sólo la matemática es y permanece cierta y verificada para nosotros hasta el límite de la certeza y de la verdad), dice el fraile franciscano, en la época de Tomás de Aquino.
La obra de Bacon es la expresión de las dudas y certezas de una época de transición. Con todo su amor por la ciencia, este pensador del siglo XIII estima que la teología es la cúspide y la última finalidad de todo conocimiento, convencido de que una investigación bien llevada sólo podía confirmar los dogmas de la Iglesia. Por otra parte, es el anunciador de tiempos futuros, gracias a su independencia respecto de Aristóteles y merced a la importancia que en el proceder de la investigación asignó a la experiencia. Su visión sobrepasó a su tiempo en siglos. Previó —aunque muy vagamente— conquistas venideras: carros con propulsión mecánica, máquinas voladoras, el empleo de los explosivos y varias otras cosas. Este último aspecto de su labor, contribuyó sin duda a convertirlo ante los ojos de la posteridad en un venerable mago.
Entre los investigadores de su época, Bacon concede los mayores elogios a Pedro Peregrino de Maricourt.
«Lo que otros —dice Bacon— ven oscura y penosamente, cual murciélagos en el crepúsculo, él, maestro del experimento, mira a la luz del día. Merced al experimento adquiere conocimientos de las cosas de la naturaleza, tanto en la medicina como en la química; conoce, en verdad, todos los fenómenos del cielo y de la tierra.»
Su estancia en París había puesto a Bacon en contacto con el sabio picardo, al que glorifica con tanto entusiasmo en su Opus tertium. Pedro Peregrino había participado en la primera cruzada de San Luis, pasó más tarde, como ingeniero militar, al servicio de Carlos de Anjou, y terminó por establecerse en París.
Era un misántropo, nos dice su brillante alumno Bacon, temía la multitud y desdeñaba la gloria. Mientras los demás sabios discutían sobre problemas metafísicos, Pedro Peregrino pasaba su vida en el laboratorio. De sus trabajos —que parece fueron numerosos— sólo nos ha llegado uno: su célebre carta dirigida, en 1269, a un amigo: Epístola De magnete, el primer tratado científico sobre las propiedades del imán.
El elocuente elogio de Bacon no permite dudar de que Pedro Peregrino de Maricourt enriqueció con sus experiencias los conocimientos de su época sobre este tema capital. ¿Cuáles son, sin embargo, los hechos que tomó de sus predecesores, y cuáles son sus propios descubrimientos? Cuestión difícil, por no decir imposible de resolver.
El conocimiento de la piedra imán se remonta a la antigüedad; la propiedad que tiene el hierro magnetizado de atraer a otros trozos de hierro no escapó a la atención de los observadores griegos, como prueba un pasaje del diálogo Ion, atribuido —con razón o sin ella— a Platón. ¿Cuándo se suma a este modesto fondo de conocimientos el uso de la brújula bajo su forma más primitiva? Parece que los navegantes chinos empleaban ya en el siglo II de nuestra era la aguja imantada artificial —flotando sobre agua o suspendida por un hilo— como indicador de dirección [8].
Pasaron, poco más o menos, mil años hasta que el conocimiento de este dispositivo, transmitido quizá primero a los hindúes y después a los árabes, fue introducido en los países occidentales, donde el uso de la brújula es certificado hacia el año 1200 por numerosos autores.
Veamos, en tanto, la aportación de la epístola de Pedro Peregrino. Reduce a una esfera una piedra imán y coloca sobre su superficie agujas de hierro; la dirección de cada una de éstas define una línea. Los dos puntos de intersección de todas estas líneas son los polos del imán. Coloca su imán sobre un platillo que flota en agua y, aproximando otra piedra imán, reconoce la repulsión de los polos del mismo signo y la atracción de los de signo distinto. Verifica la inducción magnética.
Al romper una aguja imantada, descubre que los dos trozos forman igualmente agujas imantadas, cada una con la misma polaridad que la aguja original. Da instrucciones para la construcción de brújulas; una de ellas es apoyada sobre un gorrón y lleva un círculo graduado y una alidada.
¿Por qué su piedra imán se orienta en una dirección determinada? Los polos celestes la atraen, admite Pedro Peregrino; pero en otro pasaje de su instructiva epístola afirma que los imanes deben sus propiedades al magnetismo terrestre, cuya existencia es el primero en entrever [9].

Capítulo 3
Precursores de la ciencia moderna

Leonardo de Vinci: Sus investigaciones mecánicas y físicas; Simón Stevin: La imposibilidad del perpetuum mobile; Guillermo Gilbert; Comienzos de la magnetología y electrología,

El siglo XIV no aporta a la física ningún representante de gran talla ni ningún notable descubrimiento, pero durante él ocurren algunas iniciativas en la mecánica, iniciativas que no serán olvidadas, pues anticipan —aunque en forma vaga— algunos elementos de la futura dinámica de Galileo [10].
La primera gran figura que encontramos en los albores de los tiempos nuevos pertenece a la segunda mitad del siglo XV: es Leonardo de Vinci (1452-1519), tal vez el genio más universal que la historia conoce. Pintor, escultor, arquitecto, ingeniero, físico, biólogo, se adelantó a su centuria con admirables descubrimientos en las más distintas ramas del saber. Para él, como después para Galileo, la ciencia está por hacerse, la verdad por encontrarse. Había asimilado, poco más o menos, toda la ciencia conocida en su tiempo. La clarividencia de sus intuiciones, la asombrosa agudeza de su inteligencia y sobre todo la universidad sin precedentes de su genio, lo hacen aparecer para la posteridad como un ser casi sobrehumano. Si su labor científica queda eclipsada, incluso hoy, por su labor artística, sólo es porque hace poco tiempo que fueron arrancadas al olvido sus notas manuscritas, dejadas a su discípulo Francisco Melzi.
Hijo natural de un jurista y de una campesina, alumno predilecto del gran pintor Andrés Verrocchio, entró sucesivamente al servicio de las cortes de Florencia, Milán y Roma. A invitación de Francisco I, que lo llenó de favores, se trasladó a Francia, donde murió, en el castillo de Saint-Cloux.
Dar un resumen, aun muy sintético, de la amplia variedad de las investigaciones de Leonardo excede los límites de nuestro tema. Nos limitaremos a señalar algunos de los resultados de sus investigaciones en la mecánica y en la física, el único aspecto de su polifacética actividad que nos interesa aquí.
Como arquitecto e ingeniero, Leonardo de Vinci fue llevado, en razón de los problemas prácticos que debió resolver, al estudio de la mecánica. El teorema central de su estática es el principio de las velocidades virtuales, cuyo contenido, en los razonamientos de Leonardo, equivale a afirmar que las fuerzas que actúan en una máquina en equilibrio son indirectamente proporcionales a sus velocidades virtuales. Posee el concepto del momento estático [11], del cual deduce el equilibrio de las fuerzas que actúan sobre la palanca. A ésta la considera como la máquina primaria y las demás sólo son modificaciones y formas complejas de la misma. Al utilizar la ley de la palanca logró determinar, mejor que sus predecesores, la condición de equilibrio de dos pesos iguales colocados sobre dos planos con desigual inclinación. Su demostración implica, una vez más, el principio de las velocidades virtuales. Agreguemos que Leonardo conoce los diferentes tipos de equilibrio (estable, neutro, inestable); sabe determinar la componente de una fuerza según una dirección dada; posee clara noción del trabajo y entrevé, anticipando investigaciones de Stevin, la imposibilidad del perpetuo móvil, a pesar de que durante algún tiempo procuró realizarlo.
A través de una serie de experimentos, buscó las leyes de la caída de los cuerpos; compartió el error peripatético de que la velocidad de la caída depende del volumen y del peso de los cuerpos. Si bien no llegó al objetivo propuesto, tiene el mérito de haber reconocido que las leyes de la caída libre debían verificarse también en el descenso frenado sobro un plano inclinado, lo cual constituye un importante preludio a las investigaciones de Galileo [12].
Las tareas prácticas de Leonardo exigían un conocimiento de los fenómenos de elasticidad y rozamiento. Descubrió, en cuanto al primero, que la elasticidad de tracción es igual a la elasticidad de compresión; en cuanto al segundo, encontró que el rozamiento de deslizamiento es independiente de la magnitud del área de contacto. Estas leyes, escondidas en los manuscritos inéditos de Leonardo, cayeron en el olvido y sólo fueron establecidas hacia fines del siglo XVII, la primera por el inglés Hooke, la segunda por el francés Amontons, doscientos años después de su descubrimiento por el gran italiano.
Constructor de canales, Leonardo se dedicó también a investigaciones hidromecánicas. Estudió el derrame del agua a través de orificios de distintas características y la propagación de las ondas sobre superficies líquidas. Probablemente fue el primero en llamar la atención acerca del fenómeno de la interferencia de ondas líquidas. Le debemos la primera descripción de la ascensión de líquidos en tubos delgados y la extensión de la ley de los vasos comunicantes a dos líquidos con pesos desiguales; puso de manifiesto que las alturas son inversamente proporcionales a las densidades de los líquidos.
De las ondas líquidas pasa Leonardo a las ondas sonoras; reconoce que el eco se explica por la reflexión del sonido. De la observación del eco concluye una velocidad determinada de las ondas acústicas, cuya propagación en el agua estudia igualmente. Compara la reflexión del sonido a la de la luz, pues en ambos fenómenos el ángulo de incidencia es igual al de reflexión. En su teoría de la visión, Leonardo asimila el ojo a una cámara oscura.
Más numerosos todavía que los descubrimientos de Leonardo en mecánica y en física son sus planos y proyectos de índole técnica. Ideó máquinas elevadoras, distintas clases de cañones de tiro rápido y de retrocarga, instrumentos de música mecánicos, trajes y escafandras para buzos, odómetros, un compás proporcional y parabólico, un dinamómetro, un higrómetro y otros aparatos. Sin duda, la mayoría de sus invenciones quedaron en estado de proyecto. Pero en sus manuscritos, ilustrados con admirables dibujos, nada se describe que no sea técnicamente construible. Algunas de sus ideas técnicas se adelantan en siglos a su época. Sabía que la densidad del aire caliente es menor que la del aire frío y propuso utilizar el primero para llenar un globo capaz de ascender en la atmósfera, anticipando así en casi trescientos años la idea llevada a la práctica por los hermanos Montgolfier.
Diseñó distintos tipos de máquinas voladoras e inventó un paracaídas, que se ha desarrollado según el mismo principio por él concebido. Sus estudios sobre la resistencia del aire, la estabilidad de las máquinas voladoras y la posición del centro de gravedad en las mismas preludian el nacimiento de la aeronáutica como ciencia. El conjunto de su obra técnica agrega a sus otros títulos de gloria el del ingeniero más sobresaliente de su época y aun de su siglo.
Mas por admirables que sean sus descubrimientos, inventos e intuiciones, Leonardo de Vinci no ocupa en el desarrollo de la física —y en general de la historia de las ciencias— el lugar que se podría pretender. Este superhombre, que habría podido abrir el camino de tantas resonantes conquistas, no publicó ningún tratado científico y prefirió dejar a la posteridad sus lúcidas intuiciones y magníficos hallazgos en notas escritas con la mano izquierda y difícilmente descifrables. La repercusión de sus ideas, que hubieran podido producir una profunda modificación en la evolución de la ciencia, no fue profunda, confinada al reducido círculo de sus discípulos y de algunos sabios que pudieron consultar sus manuscritos [13].
Los años en que vivió Leonardo de Vinci coinciden con acontecimientos trascendentales, que debían repercutir profundamente en la historia intelectual de la humanidad. Algunos meses después del nacimiento de Leonardo los turcos se apoderaron de Constantinopla, capital del último resto del que fue imperio romano. Conocedores del griego y portadores de preciosos manuscritos, los sabios helenos, que huían de la patria esclavizada, se establecieron en Italia y otros países occidentales, dando poderoso impulso al estudio de la antigua sabiduría. Al resucitado pensamiento de la antigüedad da alas el arte de imprimir, que comienza a difundirse cuando Leonardo tenía unos diez años. Cuando Colón descubrió América, Leonardo entraba en la quinta década de su vida, y Magallanes emprendía la primera circunnavegación del globo terráqueo justamente el año de la muerte de Leonardo. Al mismo tiempo comienza Copérnico a reunir los elementos de su gran obra, que arrebatará a la Tierra sus supuestas inmovilidad y posición central del universo.
Estos acontecimientos configuran un importante aspecto de la aurora del Renacimiento o introducen la liberación del espíritu de las limitaciones que lo impuso la Edad Media. La autoridad de Aristóteles y Tolomeo, ídolos de las centurias pasadas, cede poco a poco ante la de Arquímedes y Aristarco, primeros guías de una nueva y milagrosa exploración del mundo.
Como Leonardo, también Simón Stevin (1548-1620) sigue las huellas de Arquímedes. Su obra señala la cúspide de la mecánica, limitada exclusivamente a la estática. En este aspecto, el agudo flamenco es el último gran representante de la escuela del genial siracusano.
Nació en Brujas, dieciséis años antes de que viera la luz Galileo; en su juventud fue tenedor de libros, empleo que abandonó para realizar largos viajes que lo llevaron hasta Suecia. Se estableció luego en La Haya, donde sus éxitos como constructor de fortificaciones y diques le valieron gran reputación y la amistad del príncipe Mauricio de Nassau, gobernador de los Países Bajos. Ardiente patriota flamenco tuvo la poco feliz ocurrencia de publicar en su lengua vernácula sus principales obras, que permanecieron veinte años —hasta su traducción al latín (1605-1608)— como escritos herméticos para la mayoría de los investigadores contemporáneos.
Para construir diques, tarea profesional de Stevin, eran indispensables máquinas que elevaran pesadas cargas. ¿Qué máquina podría prestar mejores servicios que un móvil perpetuo, capaz de trabajar ilimitadamente y sin gastos? En efecto, el ingeniero Stevin, como antes de él, Leonardo y muchos otros, procuró inventar una máquina engendradora de movimiento eterno o continuo. La época del gran flamenco no conocía ninguna ley de la física que excluyera la posibilidad del móvil perpetuo o movimiento continuo: ni utópico ni irracional era querer realizarlo. Ignoramos cuántos modelos construyó Stevin antes que su paciencia se hubiera agotado. Más, en oposición a sus predecesores, supo sacar del fracaso de sus ensayos una conclusión preñada de útiles consecuencias. Aceptó como principio la imposibilidad del móvil perpetuo —la imposibilidad del trabajo nacido de la nada— y se propuso deducir leyes del nuevo axioma.
Stevin eligió dos planos inclinados que reposan sobre una base horizontal y que, unidos por su arista superior, forman un prisma triangular. Rodeó el sistema con una cadena cerrada, compuesta de eslabones pesados que pueden deslizarse sin rozamiento a lo largo de los planos inclinados. Una mirada sobre la figura nos muestra que sobre el plano izquierdo actúa una fuerza doble de la que obra sobre el plano derecho. Puesto que hay exceso de peso de un lado, parece que la cadena debiera ponerse en movimiento. Si esto ocurriera, habríamos logrado realizar el móvil perpetuo, pues por mucho que dure el movimiento, siempre habrá doble número de eslabones sobre el plano izquierdo que sobre el plano derecho. De la imposibilidad del movimiento continuo resulta que nuestra cadena quedará en reposo, pues n eslabones sobre un lado equilibran 2n sobre otro.
Wonder en is gheen wonder (Una maravilla, y sin embargo no es ninguna maravilla), escribió Stevin sobre su teorema.

04.jpg
Figura 1

En efecto, el peso de los eslabones obra tanto menos cuanto menor es la inclinación del plano. Por consiguiente, los pesos colocados en planos inclinados, uno con respecto de otro, se mantienen en equilibrio con tal que sean proporcionales a las longitudes de los planos. Si uno de los planos es perpendicular a la base, entonces el trozo vertical de la cadena representa la fuerza que mantiene la carga sobre el plano oblicuo: la fuerza es, pues, a la carga, como la altura del plano inclinado a su longitud. El mismo procedimiento que llevó a Stevin a estos teoremas le permitió llegar al principio más general del paralelogramo de las fuerzas (1585), enunciado, bajo su forma moderna, en 1687, por el matemático francés Pedro Varignon.
La imagen de los dos planos inclinados rodeados por la cadena sin fin figura en la portada del libro de Stevin, quien la hizo poner allí deseoso, sin duda, de subrayar los alcances del camino seguido en sus búsquedas. Tenía razón de estar orgulloso de su método: implica, en efecto, el primer ejemplo de un experimento pensado, bien ideado y llevado con rigor — more geométrico— a importantes conclusiones.
La historia de la física clásica y nueva ofrece más de un ejemplo del éxito de este procedimiento. Irrealizables en verdad, más o menos vinculados con hechos empíricos, los experimentos pensados están justificados si llevan, como el de Stevin, el sello de la certeza intuitiva.
La imposibilidad axiomática del móvil perpetuo guió a Stevin también en sus investigaciones de las condiciones de equilibrio en los líquidos. Supongamos, dice Stevin, que en un recipiente lleno de agua una cierta cantidad de líquido descendiera; su lugar sería inmediatamente ocupado por otra cantidad de agua que descendería a su vez. Un movimiento perpetuo sería la consecuencia; consecuencia evidentemente absurda. Stevin admite, por otra parte, que el equilibrio no sería perturbado si una parte del líquido se solidificara. De este modo, logra deducir el principio de Arquímedes y descubrir la importante «paradoja hidrostática»: el hecho capital de que la presión sobre el fondo del recipiente es independiente de la forma de éste y sólo depende del área del fondo y de la altura de la columna líquida, siendo medida por el peso del prisma líquido que descansa sobre el fondo [14].
Agreguemos que Stevin determina también la condición de equilibrio estable e inestable de los cuerpos flotantes.
Otros felices hallazgos de Stevin podríamos mencionar. Nos bastará indicar que se aproximó más que sus predecesores al principio de los desplazamientos virtuales, y que se adelantó a Galileo, enseñando (1580) que los cuerpos livianos y los posados caen con la misma velocidad. Aunque el nombre de Stevin no resplandece con el halo que la historia convencional rodea a algunos investigadores renacentistas, no cabe duda que en la larga sucesión de siglos que media entre Arquímedes y Galileo, el sagaz holandés aportó una comprensión más profunda de los problemas de la mecánica que cualquiera de sus rivales.
Mientras Stevin en Holanda convertía un axioma negativo en eficaz instrumento para buscar hechos nuevos y positivos, en Inglaterra Guillermo Gilbert (1544-1603) abría a la investigación experimental los campos hasta entonces casi inexplorados del magnetismo y de la electricidad. Médico de la reina Isabel, amigo del canciller filósofo Francisco Bacon, Gilbert fue en las postrimerías del siglo XVI uno de los sabios más respetados de su país. Su Tratado sobre magnetismo (De muguete, 1600) — libro que por la claridad de su método y por la riqueza de su contenido mereció la admiración de Galileo y Descartes— permaneció durante más de un siglo como la obra fundamental acerca de esa doble fuerza de la naturaleza.
Como hizo Pedro Peregrino más de trescientos años antes, Gilbert reunió los conocimientos que su época poseía sobre los fenómenos magnéticos, y agregó a los mismos el valioso caudal de sus propios experimentos. Es el primero en proveer de armaduras a imanes para reforzar su acción, así como el primero en reconocer que la inducción confiere al acero magnetismo permanente. Muestra que el magnetismo se pierde por incandescencia, y comprueba que una barra de acero no aumenta de peso al ser imantada [15]. El magnetismo —concluye— es, por consiguiente, imponderable. Confirma el descubrimiento de Pedro Peregrino, y reconoce que los trozos de un imán son asimismo imanes, cada uno de los cuales posee dos polos. Estudia la inclinación y declinación de la aguja magnética y trata de explicar por qué su valor varía con la posición geográfica del lugar.
La Tierra, se pregunta Gilbert, ¿no sería un inmenso imán? Si así fuera, la acción de sus polos magnéticos daría cuenta del fenómeno de la inclinación. Para, verificar esta hipótesis, el incansable experimentador construye un imán esférico, su famosa Microgé[16], y al aproximar a su imán una pequeña aguja magnética, móvil en torno de su centro de gravedad, muestra que ésta se comporta cual una aguja de inclinación suspendida en el plano de un meridiano de la Tierra. Una primera y global explicación de por qué la aguja magnética se orienta en la dirección norte-sur y la causa de la inclinación [17], estaban, pues, encontradas, aunque Gilbert creyera que los polos magnéticos del globo se confunden con los geográficos. En el magnetismo terrestre, que atribuía a la presencia de minerales magnéticos en el suelo, Gilbert veía la causa de todos los fenómenos magnéticos que muestran el hierro y el acero. Esta convicción parecía corroborada por su descubrimiento de que una barra de acero se imanta si se la coloca en la posición indicada por la aguja de inclinación. Buscó en los imanes —siempre guiado por experimentos con su Microgé y la pequeña aguja que colocaba en su proximidad—, el asiento de la fuerza magnética; ésta no solamente reside en el interior del imán, sino también en el espacio que lo circunda, cuyo conjunto de invisibles emanaciones —hoy diríamos líneas de fuerza— forma un campo magnético —orbis virtutis—, afirma Gilbert. Una idea magnífica surgió aquí por primera vez, idea grávida de fecundas consecuencias, y que, sin embargo, hubo de esperar más de doscientos años para ser ampliamente desarrollada por Ampère y Faraday.
Gilbert dedicó un importante capítulo de su tratado al estudio de la electricidad. Analizó el conocimiento de la antigüedad al respecto, que se reducía, como se sabe, al fenómeno estudiado por el pensador jónico Tales, de que el ámbar fuertemente frotado atrae cuerpos livianos. Repitió con las sustancias más comunes la experiencia de Tales, y comprobó que lo obtenido con el ámbar y el ágata se lograba también con el vidrio, el azufre, la sal, la resina y el alumbre. Para estudiar las propiedades de cuerpos eléctricos, Gilbert construye el primer electroscopio: una liviana aguja metálica, colocada por su centro sobre un gorrón. Reconoce que el aire húmedo dificulta, sus experimentos y descubre la destrucción de la electricidad en un cuerpo por la acción de la llama. Quizá algunos de sus ensayos eléctricos nos hagan ahora sonreír; sin embargo, la humanidad requirió dos mil años para llegar del fenómeno de Tales a las fecundas observaciones del gran experimentador Guillermo Gilbert.

Segunda Parte
El triunvirato Galileo-Huygens-Newton

Capítulo 4
Galileo

Infancia de Galileo; Años estudiantiles; El isocronismo de los oscilaciones pendulares; Profesor en Pisa; Crítica a la cinemática de Aristóteles; El método galileano; Galileo en Padua; La noción de inercia; Trayectoria de los proyectiles; Aceleración y fuerza; Composición de movimientos; Principio de los desplazamientos virtuales; El año 1610: Telescopio y descubrimientos astronómicos; Galileo en Florencia; Lucha por el sistema copernicano; El proceso.; Los Discorsi; La caída libro; Otros problemas; Altura y velocidad del sonido; La velocidad de la luz; Muerte de Galileo.

Un espectáculo de fuerza espiritual y hermosura artística, que la humanidad no vio desde la extinción del genio griego, ofrece Europa a la retrospección histórica en el crepúsculo del siglo XVI. Un profundo cambio, incapaz de producirse en un milenio, se opera en el transcurrir de pocas décadas y agranda poderosamente la cosmovisión del hombre. Las tinieblas que cubrieran durante más de diez siglos la faz del viejo mundo ceden al sol ascendente de una nueva época de milagrosa fecundidad.
En tres dimensiones y simultáneamente, los límites que estrecharon el pensamiento son abolidos. Acá y allá, en los monasterios, en las universidades, en escondidas bibliotecas, acaban de aflorar las obras maestras de la antigua sabiduría, propaladas por el arte de imprimir, y abren una perspectiva en el tiempo, prolongada hasta los griegos. Atrevidos navegantes, guiados por la brújula, surcan mares desconocidos, llevan más lejos los jalones del espacio explorado y acaban con la ignorancia del hombre frente a la Tierra. Bien pronto se dirigirá el primer anteojo, en manos de Galileo, hacia el firmamento, para percibir —más allá del universo tolemaico— mundos celestes nunca vistos por seres humanos. A la conquista del espacio terrestre se agrega la del espacio celeste.
Italia se encuentra en el foco de esta nueva luz. Allí convergen los rayos de la primavera espiritual. Roma y Florencia son los centros donde renace el arte; Padua es el de la ciencia rejuvenecida. En esta ciudad la física se libra del yugo medieval, allí se opera la grandiosa síntesis de las tentativas felices, pero poco seguras de sí mismas, emprendidas por Rogerio Bacon, Leonardo de Vinci, Cardano, Benedetti y Stevin. Lo vislumbrado más o menos vagamente, lo comenzado sin término por los sagaces precursores, se acaba ahora, gracias al genio de un solo hombre.
Por cierto, el titán no tenía que descubrir el triple hontanar —filosófico, matemático y experimental— de donde fluye todo conocimiento de la naturaleza. De la fuente filosófica había espigado ya con abundancia la física de Aristóteles, de la fuente matemática se nutría la estática de Arquímedes, y finalmente, el valor de la experiencia era bien conocido a los árabes y precursores ingleses e italianos de Galileo. Sin embargo, estos tres procedimientos separados eran impotentes para ofrecer bases a la ciencia. Aunque cada uno pueda difundir cierta claridad, aislados son demasiado débiles para guiar la investigación. El haber reunido en un cegador haz luminoso los rayos dispersos, el haber juntado la triplicidad del procedimiento especulativo, matemático y experimental en una e inseparable unidad, ésa es la obra imperecedera de Galileo.
Nació Galileo Galilei el 15 de febrero, en Pisa, algunos días antes de la muerte de Miguel Ángel y en el mismo año de 1564 en que en la lejana Albión vio la luz Shakespeare. El padre de Galileo era un apreciado músico; descendiente de una familia florentina, considerada pero empobrecida, debió luchar toda su vida con las necesidades materiales, lo cual dificultaba mucho la educación de sus seis hijos. Galileo tenía once años cuando la familia volvió a Florencia, y el joven fue colocado en la escuela del monasterio de Vallombrosa. Las dotes excepcionales del alumno parecieron haber atraído la atención de los frailes, dado que ensayaron hacerle entrar en la orden.
El padre deseaba que el hijo abrazase una carrera lucrativa, pero la supuesta y diabólica intención paterna de haber querido hacer del futuro físico un comerciante en telas, es una leyenda desmentida por Viviani, discípulo y primer biógrafo de Galileo. Vicente Galileo no buscaba arrebatar su hijo a la ciencia, y eligió la medicina, rama que estimó más productiva. Así ocurrió que, a fines de 1581, Galileo fue enviado para estudiar el arte de Galeno a la Universidad de Pisa. Durante cuatro años fue educado en olor de medicina, como otros físicos — Fermat y Avogadro— lo fueron en el de derecho, y otro aún —Pascal— lo fue en el de santidad.
Los primeros años en el Estudio pisano -hoy diríamos Universidad— convencen al estudiante de que su vocación no lo destina a curar enfermos. Las lecciones de filosofía aristotélico-escolástica que debe seguir, y cuya caducidad entrevé la perspicacia del joven, ejercen poca atracción sobre este fogoso espíritu en busca de su camino. Las discusiones públicas que sostiene, revelan ya al futuro y temible crítico de las ideas en boga, sancionadas por la ciencia oficial. A los diecinueve años el león muestra por primera vez las garras y realiza el primer descubrimiento. Al observar las oscilaciones de una lámpara en la catedral de Pisa—cuenta Viviani—, Galileo reconoce el isocronismo de las oscilaciones pendulares. Falto de un instrumento para medir el tiempo, se ayuda —como lo hiciera antes Cardano— con su pulso y comprueba sorprendido que la duración de las oscilaciones es igual, cualesquiera sean sus amplitudes, y concibe la idea de que el péndulo podida servir para construir un reloj de alta precisión, idea que Huygens había de realizar un día. Más tarde, cuando experimentos repetidos le aportaron la certidumbre de su feliz intuición y le mostraron, además, que el período de oscilación no varía ni con el peso ni con la naturaleza del péndulo, Galileo escribirá:
«Tomó dos bolas, una de plomo y otra de corcho; la primera cien veces más pesada que la segunda, ambas suspendidas de hilos finos y de igual longitud. Alejó la una y la otra de la vertical y las dejó escapar al mismo tiempo; las dos descendieron a lo largo de las circunferencias de círculos descritos por los hilos, con radios iguales, sobrepasando la vertical. Después rehicieron el mismo camino y repitieron más de cien veces las mismas idas y venidas. Demostraron en forma evidente que el péndulo pesado se mueve en el mismo tiempo que el liviano. Ambos oscilan con ritmo igual... al alejar el péndulo de plomo 40° de la vertical, y dejándolo en libertad, corre y sobrepasa la vertical, aproximadamente en otros 50°, describiendo un arco de casi 100º. Al volver sobre la marcha anterior describe otro arco más pequeño, continúa sus oscilaciones y después de un gran número de ellas queda por fin en reposo. Cada una de estas oscilaciones se efectúa en tiempos iguales tanto la de 40°, como la de 50°, la de 10° o la de 4°, de aquí se deduce que la velocidad del péndulo disminuyo siempre, puesto que en tiempos iguales, describe sucesivamente arcos de más en más pequeños.»
En realidad, Galileo exageraba. Los períodos de oscilación sólo son iguales para pequeñas amplitudes, mas, a pesar de ello, la ley del isocronismo pendular estaba descubierta.
¿Lo determinó esta primera prueba de su genio a descuidar sus estudios de medicina para dedicarse a las matemáticas? No lo sabemos. Lo seguro es que la elección del estudiante entre Hipócrates y Euclides está definitivamente hecha. Galileo profundiza el conocimiento de los Elementos del geómetra griego, aprovechando las lecciones privadas del matemático Ostilio Ricci. En temprana edad atisba claramente que no son los razonamientos escolásticos, sino las matemáticas, los que pueden proporcionar la clave para concebir los fenómenos de la naturaleza. Esta idea dirigirá sus investigaciones a lo largo de toda su vida:
«La filosofía —afirma— está escrita en un magno libro, siempre abierto ante nuestros ojos: el universo. Imposible es entenderlo sin aprender previamente la lengua, sin conocer los caracteres en que está escrito. Su idioma es el de las matemáticas, y las letras son los triángulos, los círculos u otros figuras geométricas, medios sin los cuales no es dado a ningún ser humano comprender una sola palabra; sin ellos, el espíritu deambula en un oscuro laberinto.»
El padre ve desvanecerse el acariciado sueño de aliviar las angustias económicas de la familia gracias a los honorarios del hijo médico. Un año después de haber iniciado los estudios matemáticos, Galileo deja la Universidad de Pisa y vuelve a Florencia. No ha conquistado ningún grado académico, mas ha descubierto su vocación. Continúa el estudio de Euclides, completa sus conocimientos de Aristóteles y de Platón, y sobre todo se vuelca con verdadera pasión en la lectura de Arquímedes. La entusiástica admiración que testimonia frente al genial creador de la estática, le acompañará toda su vida. Los trabajos de la estudiosa espera y preparación en la casa paterna llevan el incontestable sello arquimédico: su bilancelta —una balanza hidrostática— y sus investigaciones sobre el centro de gravedad en sólidos —fruto de los años florentinos— revelan que el tiempo pasado en meditar los problemas del gran siracusano no fueron horas perdidas. Un noble amante de las ciencias, el marqués Guidobaldo dal Monte, sabio comentador de varios tratados de Arquímedes, personaje influyente de la corte toscana, reconoce en estos escritos las promesas de un futuro genio e interviene en su favor. El milagro se cumple: a pesar de que a Galileo le faltan títulos académicos, el protector logra procurarle una cátedra en el Estudio pisano. El joven Galileo —tiene veinticinco años— ve que se van cumpliendo sus aspiraciones: vuelve a Pisa, esta vez como profesor de matemáticas.
La mezquina retribución de 60 escudos anuales que la Universidad asigna a su matemático (mientras que el profesor de medicina cobra 2.000 escudos) podría sin duda frenar los vuelos de un espíritu menos activo que el de Galileo, ya que su estrechez económica está agravada por la hostilidad más o menos abierta de un sofocante ambiente dominado por obcecados pedantes. No obstante, la estancia en Pisa es decisiva en su vida, época fértil en iniciativas y descubrimientos. Galileo corrobora la regla, muy general, de que la fase más fecunda en la vida de un investigador es el fin de su tercera década. Durante su profesorado en Pisa y en los primeros años de Padua nacen los principios de la nueva mecánica, ideas fundamentales y rebeldes, que madurarán durante más de cuatro décadas antes de alcanzar, en su retiro forzado de Siena y Arcetri, forma definitiva.
Galileo se aplica algunos meses después de su llegada a Pisa a problemas que debían quedar cual núcleo central de su obra como físico: los del movimiento. Una densa red de errores peripatéticos, tejida con especulaciones apriorísticas, escondía la naturaleza física de las leyes del movimiento. Necesario era eliminarla antes de poder describir las leyes. ¡Tarea difícil y aun peligrosa, vista la aplastante autoridad del estagirita! Aristóteles afirmó que cada cuerpo, si no es obstaculizado, trata de ocupar su lugar natural: los cuerpos livianos, fuego y aire, tienden por su naturaleza inmanente a ir hacia arriba; los cuerpos pesados, agua, piedras, metales, hacia abajo. La ascensión de los cuerpos livianos y el descenso de los graves son movimientos naturales, en oposición a los movimientos forzados (el de una piedra arrojada, por ejemplo), que se efectúan contrariando la tendencia de buscar el lugar predeterminado. Por diferentes que sean el movimiento natural y el forzado, ambos necesitan un motor que siempre debe estar, sin intermediario, con lo movido. Sin el contacto con su motor, ningún cuerpo podría moverse. En el caso del movimiento natural, el motor es eterno (está en el cuerpo); en el del movimiento forzado, el motor es perecedero, casual. Si un cuerpo grave cae, su velocidad adquirida crece, hecho que no escapó a la atención del estagirita. ¿Cómo explicar este incremento de la velocidad? El aire es, asegura Aristóteles, el que se cierra detrás del cuerpo en caída y le confiere un impulso, actuando como factor de aceleración. Agreguemos, para terminar, un importante corolario de la doctrina: los cuerpos más pesados —con la tendencia a alcanzar su lugar natural— caen más rápidamente que los cuerpos menos pesados.
Esta última aseveración es atacada por Galileo en sus lecciones de Pisa. La refutación de la ley peripatética es para él el punto arquimédico, a partir del cual desgoznará, poco a poco, toda la ilusoria cinemática de Aristóteles. Demuestra la igualdad de los tiempos de caída para cuerpos livianos y pesados; la demuestra con un razonamiento de carácter enteramente peripatético, batiendo al adversario con sus propias armas. Si Aristóteles, sostiene Galileo, estuviera en lo cierto, entonces un cuerpo compuesto por la reunión de uno pesado y otro liviano, debería caer con mayor velocidad que cada una de sus partes, por ser más pesado que cada una de ellas. Sin embargo, en el cuerpo compuesto la parte liviana y lenta obstaculiza a la pesada y rápida, de modo que el cuerpo entero debería caer con menor, velocidad que la parte pesada. Así, la suposición aristotélica conduce a una flagrante contradicción. Por otra parte, consideremos dos cuerpos del mismo peso: éstos caen, según Aristóteles, con igual rapidez; no puede, por lo tanto, influir para nada el que estén reunidos en un solo cuerpo, y éste, aunque de doble peso, deberá caer con una velocidad igual a la de sus dos partes, cada una de ellas más liviana que el todo.
En realidad, Galileo no precisaba estos razonamientos para reconocer que los tiempos de caída de los graves son independientes de sus pesos y de sus densidades. Los resultados indicados —de sus estudios sobre el movimiento pendular— lo llevaron, gracias a una sutil ocurrencia, a concluir que el postulado aristotélico debía ser falso. Un péndulo oscilante, se dijo, describe arcos de círculo. Un arco se puede imaginar formado por una infinidad de minúsculos segmentos rectilíneos, cada uno de ellos comparable a un infinitesimal plano inclinado. Así, el péndulo oscilante no hace más que descender y después subir a lo largo de planos inclinados. ¿No podríamos asimilar, se pregunta Galileo, la caída inclinada a la caída vertical? Entonces, como el peso del péndulo no hace variar la duración de la caída, resulta que esta duración no depende del peso de los graves que se precipitan.
Galileo se encuentra, pues, en posesión de la ley, cuando emprende —probablemente en 1590— su famosa experiencia, haciendo caer de la torre inclinada, en Pisa, esferas con radios iguales, pero de diferentes pesos. El éxito del espectacular experimento, ejecutado en presencia de profesores, estudiantes y una muchedumbre de curiosos, fue poco concluyente.

05.jpg
Galileo Galilei

Bien sabía Galileo que la resistencia del aire, al restar en distintos grados velocidad a los móviles, perturba el desarrollo de la caída libre hasta enmascarar la ley, que no se verifica con exactitud más que en el vacío. Por cierto, estos groseros experimentos estaban lejos de convencer a sus adversarios; por el contrario, permitieron a uno de ellos, Jorge Corresio, emplearlos como argumento en la lucha contra la tesis galileana. Galileo mismo les atribuía poco valor demostrativo, a tal punto, que en los veinte gruesos volúmenes que reúnen hoy —en la ejemplar edición del profesor Antonio Favaro— las obras del gran toscano, no se encuentran más que dos cortas referencias que recuerdan estos experimentos. Si el joven Galileo halló el coraje para contradecir los postulados fundamentales de la cinemática aristotélica, no fue porque podía invocar el testimonio de experiencias, sino porque razonamientos —en el caso del péndulo y de la caída— de orden geométrico le demostraron la caducidad de la física peripatética.
En suma, como lo veremos más adelante con mayor claridad, no es, pese a lo que digan los manuales, la pretendida trascendencia del experimento la que separa a los métodos galileanos y aristotélicos.
Ambos parten de postulados apriorísticos, ambos van por el camino de los razonamientos deductivos, y llegan, sin embargo, a resultados diametralmente opuestos. Sus conclusiones deben ser diferentes, dado que el estagirita elige su axioma inicial a fin de explicar el fenómeno, en tanto que el toscano elige el suyo a fin de describir el mismo fenómeno. Aristóteles procura aclarar la causa, el porqué del acontecimiento físico, Galileo busca asir el cómo de su desarrollo. Las suposiciones de Aristóteles son inaccesibles a la observación («los graves deben caer por su naturaleza inmanente»), las de Galileo son susceptibles de verificación experimental («los graves deben caer con velocidades independientes de sus pesos»). Sin embargo, Galileo no pone en juego la experiencia para encontrar la ley, la invoca sólo para verificarla, ya encontrada con razonamientos deductivos. No se peca subrayando demasiado esta característica del método galileano, puesto que fue desconocida por muchos historiadores que proclamaron perentoriamente a Galileo como inventor de la física experimental. El ilustre toscano no inventó el llamado método experimental de la investigación. Sus precursores — Benedetti, Stevin y otros— lo emplearon, y algunos de sus contemporáneos y discípulos —como Gilbert, Guericke y Torricelli— lo utilizaron con mayor éxito y más frecuentemente que él. La revolucionaria innovación metodológica introducida por el gran italiano en la ciencia —su discrepancia con Aristóteles— no consiste en la apoteosis de la experiencia con menosprecio de la especulación deductiva, sino, como hemos dicho, en la magistral síntesis del triple método de sus precursores —filosófico, matemático y empírico— en una e indivisible unidad.
«Quien no comprende el movimiento —afirmó Aristóteles- no comprende la naturaleza.»
¿No es, pues, un sacrilegio la hazaña del joven pisano, su demostración de que el idolatrado estagirita no había asido los elementos fundamentales del movimiento natural, y que sus libros, sobre los que juraban los pedantes del Estudio de Pisa, contenían evidentes errores? En efecto, el abismo entre las tesis de Galileo y las de Aristóteles no podía ser más profundo:

Aristóteles Galileo
1. Si cayeran los graves en el vacío, se moverían con movimiento uniforme 1. Si cayeran los graves en el vacío, se moverían con movimiento acelerado.
2. El aire que se cierra detrás de los móviles le imprime un aumento de velocidad.  2. El aíre que opone resistencia a la caída de los graves disminuye la velocidad de sus movimientos.
3. La velocidad en la caída es directamente proporcional al peso de los graves en caída. 3. La velocidad en la caída es independiente del peso de los graves en caída.

A estas irreductibles antítesis formulada en Pisa, se agregarán pronto, en Padua, otras dos:
4. La velocidad en la caída es directamente proporcional al espacio recorrido. 4. La velocidad en la caída es directamente proporcional al tiempo transcurrido.
5. La acción continua de una fuer za, es indispensable para mantener el movimiento de un cuerpo. 5. Un móvil se mantiene por sí mis mo en movimiento, la acción de la fuerza cambia el movimiento preexistente.

Falso sería creer que Galileo rehúsa al genio de su adversario el respeto debido. Ningún pensador de la antigüedad ni de los tiempos modernos fue tan universal como el estagirita; ninguno abarcó campos tan variados y vastos como Aristóteles. Así corno su obra sobrepasa a toda otra por su casi sobrehumana extensión, por su universalidad enciclopédica, también la sobrepasa por el número de errores - muchos de los mismos inevitables en su tiempo— que contiene. Galileo es un sincero admirador del auténtico espíritu de Aristóteles; lo que combate no es al estagirita, es a la ceguera de sus acólitos escolásticos, es a la falsa creencia de que la ciencia podría ser un libro cerrado, un sistema de dogmas definitivos, inquebrantables en todos los tiempos.
«Estimo —escribe ya anciano Galileo en una carta— que ser verdadero filosofo aristotélico consiste principalmente en filosofar, conforme a !as enseñanzas aristotélicas, procediendo según el método, las suposiciones y principios, sobre los cuales se funda el razonamiento científico... Estoy seguro de que si Aristóteles retomara al mundo, me recibiría entre sus discípulos, a causa de mis pocas contradicciones, más decididamente que a ciertos otros, que para sostener cada uno de sus dichos como cierto, van espigando de sus textos conceptos que no se les habrían ocurrido.»
Estos «espigadores de textos», peripatéticos ortodoxos, son justamente quienes ocupan las cátedras en Pisa. Su hostilidad vuélvese cada día más abierta, y finalmente toda la Facultad, a excepción de uno de sus miembros, se vuelca contra el intruso rebelde. La posición de Galileo hácese insostenible; renuncia antes de vencerse su contrato. Su estancia en Pisa duró tres años.
Venecia, la libre república, lo atrae; allí el clima no es hostil a las ideas innovadoras; la tiranía espiritual de los escolásticos tiene menor asidero. Galileo es favorecido por la suerte: la cátedra de matemáticas en la Universidad de Padua, dependiente de la Señoría veneciana, está vacante. Secundado por su amigo y protector Guidobaldo dal Monte, Galileo es nombrado para ocuparla. Su discurso inaugural entusiasma a profesores y estudiantes; más tarde, cuando hable sobre los milagros del cielo, el aula magna de la Universidad apenas podrá contener a la multitud de oyentes, cuyo número va a llegar a dos mil. El ambiente es acogedor. Muchos de sus colegas son sabios de reputación mundial, como el profesor de medicina Jerónimo Fabrizio, llamado el «Colón del cuerpo humano», maestro de Guillermo Harvey, el joven que un día demostrará la circulación de la sangre. Entre los discípulos de Galileo se encuentran futuros matemáticos de primera fila: Cavalieri, Castelli y otros.
Como una pesadilla al despertar, se disipan en esta atmósfera de espíritus hermanos los malos recuerdos de Pisa. En los dieciocho años de la época paduana, los más felices y activos de la vida de Galileo, su prestigio va creciendo hasta alcanzar fama universal. De Francia y de Inglaterra, de Alemania y de la lejana Polonia, acuden los alumnos para escuchar las palabras del incomparable maestro. La luz de la nueva ciencia galileana comienza a irradiarse de la república veneciana a todos los países de Europa.
Los problemas que Galileo resuelve durante el período paduano son de extraordinaria variedad y de turbadora riqueza. Los conceptos mecánicos vislumbrados en Pisa se desarrollan ahora con claridad y precisión siempre crecientes.
Una de las nociones básicas de la mecánica, cuando no la noción básica por excelencia, cuya ausencia en la ciencia griega hizo fracasar durante siglos las tentativas de crear la dinámica, la encuentra Galileo en los primeros años de Padua: la noción de la inercia, el principio de que los cuerpos tienden a conservar su estado de reposo o de movimiento en tanto que una fuerza no los obliga a dejarlo. Verdad es que no enuncia la clásica ley que más tarde encabezará la doctrina newtoniana del movimiento, pero reconoce con toda claridad el hecho trascendental de que la conducta, futura de un cuerpo, su comportamiento físico, depende de la inercia que posee. Por supuesto, le falta todavía el concepto de «masa», y mide la inercia por el peso. Los ingenieros de hoy, a trescientos años de Galileo, ¿no proceden igual?
La ausencia de la noción primordial de la masa —este atributo intrínseco de la materia, que no la abandona en ninguna posición o condición— impide a Galileo extender el principio de inercia a todos los cuerpos, estén o no sometidos a la gravitación terrestre.
Esta hazaña estaba reservada a Isaac Newton. A Galileo no se le escapan los límites de la validez de su mecánica, y nos advierte repetidamente que sus leyes valen sólo para movimientos en la proximidad de la superficie terrestre.
La clarividencia con que reconoce Galileo que el destino de un móvil está indisolublemente ligado a su inercia, la ilustra el empleo que de ello hace para determinaría trayectoria de un proyectil, admitiendo que permanece uniforme la velocidad horizontal de la bala después de haber abandonado el cañón del fusil. La bala, proyectada horizontalmente, seguiría, asegura él, moviéndose en línea recta.
La gravedad que actúa sobre el proyectil desearía atraerlo hacia abajo, pero sin poder aumentar o disminuir la razón según la cual progresa horizontalmente; de donde resulta que cualquiera que sea la trayectoria o la dirección del movimiento en un momento dado, la distancia recorrida horizontal mente será la medida del tiempo transcurrido desde el comienzo del movimiento. El cálculo en alianza con la construcción geométrica muestra que la curva descrita tendrá las propiedades de una parábola. Este notable descubrimiento es uno de los primeros y resonantes éxitos de Cableo en Padua.
El haber resuelto el problema del tiro horizontal no satisface a Galileo: estudia el tiro oblicuo y establece posición y dimensión de la parábola para todas las direcciones posibles del proyectil; prueba que el alcance del tiro en un plano horizontal es máximo si el ángulo de elevación es de 45°, y que el alcance es el mismo para dos elevaciones que difieren de 45° en igual magnitud, una en más y otra en menos. Además, afirma que dos proyectiles, dejado el uno caer libremente y el otro lanzado horizontalmente desde la misma altura, tocarán un plano horizontal al mismo tiempo.
Galileo introduce en la mecánica la noción de aceleración, dando a esto fundamental concepto su sentido actual. Para analizar un movimiento variable, como la caída o el lanzamiento, la noción tradicional de la velocidad no basta, es menester modificarla y generalizarla. Si un cuerpo se mueve uniformemente, su velocidad, el cociente de su camino por el tiempo empleado en recorrerlo, s/t, permanece constante, cualesquiera que sean el espacio y el tiempo considerados. Sin embargo, el movimiento variable no permite este procedimiento, que daría para la velocidad los valores más diversos. Comprendida de este modo, la velocidad perdería toda significación determinada. En tanto, si se considera al movimiento en un elemento de tiempo muy pequeño, se le podrá concebir como uniforme y definir la velocidad en un instante dado como el límite hacia el cual tiende el cociente s/t, cuando el elemento de tiempo se vuelve infinitamente pequeño, límite representado en la notación moderna por

eq01.png

En un movimiento uniformemente acelerado, la variación de la velocidad con el tiempo, el cociente v/t, será constante por definición:
«Llamará — nos dice Galileo — movimientos uniformemente acelerados, a aquellos que desde el comienzo confieren iguales incrementos de velocidad en tiempos iguales.»
Si se consideran movimientos no uniformemente acelerados, el cociente v/t guarda un valor determinado, sólo si t es suficientemente pequeño para poder concebir el incremento de velocidad como uniforme. La noción de aceleración se extenderá del mismo modo que se debió extender la de velocidad, y se definirá la aceleración como la razón entre un aumento infinitamente pequeño de la velocidad, dv, y el tiempo dt durante el cual se produjo. En nuestra actual notación, la aceleración para un movimiento rectilíneo estará, pues, representada por:

eq02.png

precisamente, es el sentido dado tácitamente por Galileo al concepto de aceleración. Secciona en su pensamiento el tiempo en elementos infinitesimales y aplica prácticamente al tiempo la doctrina de límite que Arquímedes aplicó al espacio. Por supuesto, llega a sus resultados sin el cálculo diferencial, aún no descubierto, cuyos principios esenciales emplea, sin embargo. Si las matemáticas puras le hubieran atraído más que sus aplicaciones a la mecánica, quién sabe si el gran toscano habría logrado inventar el cálculo fluxional, que había de ser mérito imperecedero de Newton y Leibniz.
Galileo ha precisado el sentido de la noción de aceleración, mas no la creó. En tanto, es el creador del concepto de fuerza.
Verdad es que no lo define, pero le asigna en sus razonamientos, cálculos y experiencias sobre los movimientos acelerados, el mismo sentido que nosotros y lo concibo como determinante de la aceleración. La noción abstracta de fuerza aparece en el pensamiento de Galileo con toda claridad, está libre de antropomorfismo, y no está oscurecida, como en sus sucesores, por la falsa analogía de sensación muscular, ni identificada con un nebuloso agente metafísico; es pura y simplemente una abstracción matemática. Haber conocido que la fuerza no determina ni posición, ni velocidad, pero produce aceleración, es una de las glorias más imperecederas del ilustre toscano.
Como vimos a propósito de las investigaciones sobre movimiento de proyectiles, la composición de los movimientos es familiar a Galileo. Si a un cuerpo en movimiento, afirma, se imprime otro movimiento, los dos coexisten sin perturbarse.
El tránsito de este problema al de la composición de las fuerzas se efectúa en sus razonamientos sin dificultad. Ya antes Simón Stevin, cuyas investigaciones hemos bosquejado en el capítulo anterior, comprobó que tres fuerzas representadas en magnitud y dirección por los lados de un triángulo se equilibran. El sabio flamenco se limitó, sin embargo, al aspecto estático del problema, y es Galileo quien reconoció la trascendencia del principio para la dinámica. El enunciado moderno —las fuerzas que actúan sobre un punto y que están representadas en magnitud y dirección por los lados de un paralelogramo, pueden ser reemplazadas por una única fuerza dada por la diagonal del paralelogramo— del paralelogramo de las fuerzas, es obra del matemático francés Pedro Varignon (1687).
El teorema de la composición de las fuerzas no es el único en evidenciar un contacto entre el espíritu inventivo de Stevin y el genio de Galileo. Más donde el sabio flamenco ha visto sólo casos más o menos aislados, Galileo forja leyes de la naturaleza. En sus investigaciones sobre problemas de la estática, Stevin reconoció que en un sistema de poleas en equilibrio, los productos de cada uno de los pesos por las magnitudes de sus respectivos desplazamientos son iguales. Galileo extiende este descubrimiento a otras máquinas simples (la palanca, el torno, el tomillo), lo generaliza y profundiza.
A su clarividencia no escapa que los determinantes del movimiento no son solamente los pesos, sino también sus alturas de caída, las magnitudes de sus desplazamientos medidas según la vertical.
Sean P, P1, P2... los pesos actuantes de un sistema y a, a1 a2... las alturas verticales de los desplazamientos simultáneamente posibles (virtuales), contadas positivamente hacia abajo, y negativamente hacia arriba, entonces, la suma

Pa + P1 a1 + P2a2 +...

será la determinante de la ruptura del equilibrio, suma que se llamará más tarde trabajo. Galileo reconoce que el sistema estará en equilibrio si

Pa + P1 a1 + P2a2 +... = 0

En la Meccaniche, síntesis de sus lecciones profesadas en Padua, al examinar las máquinas simples, enuncia la ley:
«Siempre lo ganado en fuerza se pierde en tiempo. Principio verdadero para todos los instrumentos que podrán ser imaginados.»
Es precisamente el principio de los desplazamientos virtuales, cuya validez general para todos los casos de equilibrio demostrará después (1717) Juan Bernoulli y el cual Lagrange, en su Mecánica analítica, transformará un día (1788) en punto de partida y base de la estática.
Galileo se encuentra en posesión de todos los descubrimientos bosquejados, que serán piedras angulares de la mecánica futura, cuando sobrevienen dos acontecimientos que dan un giro imprevisto a su carrera. Las noticias de sus investigaciones sobre problemas de la dinámica se difunden muy lentamente y necesitan mucho tiempo para ser comprendidas por los sabios: en 1647 —cinco años después de la muerte de Galileo— la Sociedad Real de Londres discute todavía si dos péndulos de igual longitud, pero hechos con dos sustancias diferentes, oscilan o no en tiempos iguales. Por el contrario, sus sorprendentes hallazgos astronómicos, iniciados por dos acontecimientos, uno terrestre y otro celeste, actúan casi inmediatamente con la fuerza de una sensación mundial y le aportan, a la vez, los éxitos más clamorosos y las amarguras más profundas de su vida.
El 9 de octubre de 1604 la aparición de una nueva estrella en el firmamento asombra al mundo de los sabios. Visible durante dieciocho meses en la constelación de la Serpiente, la misteriosa estrella es un desafío a la doctrina peripatética. ¿Cómo conciliar el turbador fenómeno con la teoría de la inmutabilidad del cielo proclamada por Aristóteles? Por cierto, el estagirita admite la posibilidad de que las bajas regiones celestes puedan ser teatro de cambios cósmicos: cometas y meteoros — cuerpos perecederos y fugitivos— cruzan estas zonas inferiores, donde circulan igualmente los planetas.
Mas la esfera superior, la de las estrellas fijas, es —afirma Aristóteles— incorruptible, inmutable para toda la eternidad. ¿Brillaba en la baja región del cielo el enigmático astro que parecía probar con su presencia que el firmamento puede ser escenario de dinámicos e insospechados acontecimientos? Galileo demuestra que la intrusa no posee paralaje, es decir, que su posición aparente no evidencia ninguna diferencia, cualquiera que sea el punto terrestre desde el cual se la observe. Ahora bien: las paralajes decrecen con la distancia, y en la época de Galileo sólo las de planetas —cuerpos cercanos— eran mensurables; las estrellas fijas —cuerpos lejanos— no tenían paralajes determinables. La conclusión del hecho se impone, y Galileo la ofrece en tres conferencias dadas ante un inmenso auditorio: la nueva estrella se encuentra más allá de la esfera de los planetas, en la esfera superior del universo; ésta no puede, pues, diga lo que diga el estagirita, estar cuajada en eterna inmovilidad. Su fe en el sistema tolemaico, heredero de la cosmografía aristotélica, sistema que Galileo enseñó en sus primeros años de Padua, está desde ahora profundamente sacudida.
Se inicia el año 1609, año decisivo, preñado de trascendentales acontecimientos. A Venecia llegan las nuevas de la invención del telescopio, construido por los holandeses Francisco Lippershey y Zacarías Janson y presentado el 2 de octubre de 1608, como instrumento utilizable para fines militares, a los Estados Generales neerlandeses. Un gentilhombre francés, Jacobo Badouère, ve en París un modelo en los escaparates de un óptico. Al pasar por Venecia, encuentra a Galileo y le asegura haber visto con el anteojo holandés, barcos lejanos, sobre el Sena, cual si estuvieran cerca.
«Oído esto —escribe Galileo— volví a Padua y me puse a pensar sobre el problema, resolviéndolo en la primera noche. Razonó del modo siguiente: Ese artefacto consta, bien de uno o bien de varios vidrios. De uno solo no puede ser, pues su figura o es convexa, o es cóncava, o es de caras paralelas; pero esta última no altera los objetos; la cóncava los disminuye; la convexa los aumenta, pero los hace indistintos; por lo tanto, un solo vidrio no basta para producir el efecto. Pasando, pues, a dos vidrios y sabiendo que el de caras paralelas nada altera, concluí que el efecto tampoco se podía producir por su acoplamiento a uno de los otros dos. Por consiguiente, me limitó a experimentar qué ocurre combinando el convexo y el cóncavo, y vi que así lograba lo buscado... Al día siguiente fabriqué el instrumento. Me dediqué en seguida a fabricar otro más perfecto, que seis días después llevó a Venecia, donde con gran maravilla fue visto por casi todos los principales gentileshombres de la república.»
Del jardín de su pequeña casa de la Via dei Vignali, en Padua, Galileo dirige hacia el firmamento su telescopio: montañas y valles sobre la superficie de la Luna se revelan por primera vez a los ojos del hombre; la Vía Láctea se descompone en una legión de innumerables y pequeñas estrellas; en la cabeza y en el cinturón de Orión aparecen astros invisibles a simple vista. El planeta Venus le muestra sus fases, semejantes a las de la Luna. Enfoca a Júpiter con su instrumento y descubre, en la memorable noche del 7 de enero de 1610, a tres de sus satélites, a los que se agrega en la semana siguiente un cuarto. Mira a Saturno y ve su enigmático triple aspecto (tergeminus), como si dos gruesos satélites muy cercanos lo acompañaran. Cinco décadas más tarde, Huygens dilucidará el misterio del anillo que cerca al extraordinario planeta. Por fin, con su telescopio apunta hacia la superficie del Sol y percibe sobre ese globo de fuego puro manchas tan grandes como «Asia y África juntas»; además, las manchas se desplazan, mostrando la rotación del globo solar. Gracias a su telescopio, Galileo revela en el firmamento más realidades milagrosas en algunos meses que los antiguos babilonios, egipcios, griegos y sabios medievales en otros tantos millares de años.
El primer relato de sus descubrimientos, el Mensajero del cielo (Sidereus nuncius), publicado en la primavera del mismo año, excita un enorme interés; los 550 ejemplares de la primera edición se agotan en pocos días. Galileo es nombrado —en recompensa por las mejoras introducidas al anteojo— profesor vitalicio del Estudio de Padua y se le asigna un salario que hasta entonces la república de Venecia no había pagado nunca a un matemático.
Los peripatéticos, estupefactos, procuran negar la realidad de estos descubrimientos que amenazan con el derrumbe total de los pilares de su doctrina. El padre Clavius, reputado astrónomo, declara que los fenómenos celestes vistos por Galileo no son más que ilusiones ópticas y afirma que para ver los satélites de Júpiter es menester fabricar un anteojo que los produzca. Sin duda, Clavius reconoce pronto su error y confiesa caballerescamente haber visto las montañas de la Luna con el telescopio. Más otros aristotélicos son menos tratables y persisten en su actitud hostil hasta negarse, como el filósofo paduano Cremonino y uno de sus colegas de Pisa, a mirar a través del telescopio
«Habrías reído estrepitosamente —escribe Galileo a Kepler— si hubieses oído las cosas que el primer filósofo de la Facultad de Pisa dijo contra mí, en presencia del gran duque; cómo se esforzaba, con ayuda de la lógica y de mágicos conjuros, en discutir la existencia de las nuevas estrellas y arrancarlas por fuerza del cielo.»
Como los textos de Aristóteles —fueron sus argumentos— ignoraban a los pretendidos milagros galileanos, ellos no podían ser reales.
«No les bastaría —asegura Galileo a su discípulo Costolli— el testimonio de la misma estrella si bajase a la Tierra y hablase de sí misma.»
En el otoño del mismo año de 1610, que tantos admiradores y enemigos le valió, Galileo deja Padua para volver a Florencia. El gran duque Cosme II de Toscana acaba de nombrarle su primer matemático y filósofo adjunto a su persona. Cubierto de honores entra como triunfador en la capital toscana y no sospecha los peligros a cuyo encuentro marcha, por dejar la libre república de Venecia y cruzar los Apeninos. En realidad, en este momento nada indica el trágico conflicto que va a oscurecer el ocaso de su vida. Los astrónomos eclesiásticos del Colegio Romano ratificaron la certeza de sus descubrimientos y el papa Pablo V le concede, en marzo de 1611, una enaltecedora audiencia; los altos dignatarios de la Iglesia observan a través del telescopio los fenómenos descubiertos por el gran toscano, al que prodigan atenciones y muestras de alabanza. El cardenal Dal Monte escribe al gran duque de Toscana, que si se viviera como en los siglos de la república romana, se levantaría ya en Roma un monumento a Galileo.
No cabe duda de que Galileo, en el momento de su pasaje por Roma, es ya un copernicano convencido. Sus descubrimientos astronómicos, irreconciliables con la astronomía de Tolomeo, le demostraron claramente la caducidad del sistema geocéntrico. ¿Cómo explicar las fases de Venus, reveladas por el telescopio, sino por el hecho de que este planeta, como Copérnico lo había enseñado, es un cuerpo opaco que gira en torno del Sol, del cual recibe su luz? Los satélites de Júpiter revelaron con toda evidencia que la Tierra no podía ser el único centro de movimiento, como lo exigía la astronomía tolemaica; las lunas jovianas, al circular en tomo de su planeta, representaban, en escala reducida, un modelo visible del sistema solar de Copérnico. Así, el universo mismo proporcionó argumentos para la nueva doctrina y Galileo se adhiere a ella abiertamente, desde los primeros años de su regreso a Florencia. No ve ninguna contradicción entre su convicción copernicana y su fe sinceramente católica:
«La Biblia —escribe en 1613 a su discípulo Castelli— no puede equivocarse, pero sí sus intérpretes. El estilo de la Sagrada Escritura trata de adaptarse a la fuerza de comprensión del pueblo. Por esto, hay muchos pasajes en que son permitidas interpretaciones que se apartan del texto original... Hay que distinguir entre verdad o inter pretación de la Biblia. En las cosas sagradas hay que someterse incondicionalmente a la Biblia, pero en las cosas naturales debe dirigirse la explicación de la Escritura hacia los seguros resultados de la investigación científica.»
Esta carta, difundida por sus amigos en varias copias, parece ser uno de los motivos de la acusación presentada en 1615 contra Galileo ante el prefecto de la Congregación Romana del Índice. La decisión condena a la doctrina heliocéntrica como contraria a la enseñanza de las Escrituras, ordena correcciones y supresiones en la obra de Copérnico y pone en el índice todos los escritos que la defienden. Galileo es amonestado, y promete abandonar la doctrina prohibida.
Mas he aquí que las cosas cambian súbitamente de aspecto en 1623. El cardenal Maffeo Barberini —Urbano VIII— asciende a la silla de San Pedro. El nuevo pontífice, que siempre demostró su amistad para con el gran toscano, lo recibe en cordiales audiencias.
Galileo se siente al abrigo de los ataques de sus adversarios; estima el momento propicio para realizar el proyecto acariciado desde largos años: exponer a la luz de la nueva ciencia los argumentos que militan en favor de la doctrina de Copérnico. Somete su obra a la censura romana, obtiene la licencia y en 1632 aparece su Dialogo intomo ai due massimi sistemi del mondo, la primera y magnífica vulgarización de la tesis heliocéntrica, libro profundo y lleno de espíritu. Con extraordinaria, habilidad dialéctica el sistema copernicano es presentado como hipótesis discutida apasionadamente por tres interlocutores: Salviati, pensador agudo, sutil defensor de la tesis de Copérnico; Sagredo, sagaz e imparcial observador, crítico —sin ideas preconcebidas— de las dos doctrinas opuestas, y Simplicio, inquebrantable peripatético, obstinado vocero de las ideas aristotélicas.
La mayor parte de los argumentos precopernicanos —como, por ejemplo, la desviación hacia Oriente de los graves en su caída, poniendo de manifiesto la rotación del globo— podrían ser impresos sin retoques aun hoy día. Uno de ellos adquiere particular importancia en la historia de la física.
Galileo se pregunta si podemos discernir mediante algún experimento mecánico sobre la superficie del globo, si la Tierra está en reposo o se mueve en torno del Sol. Evidentemente no, responde Salviati, dado que en el interior de un sistema en movimiento uniforme los acontecimientos mecánicos se desarrollan del mismo modo que si el sistema se encontrara en estado de reposo.
«La piedra que cae del mástil de una nave —asegura Galileo — golpea en el mismo lugar, muévase la nave o esté quieta.»
Un discípulo de Galileo, el filósofo francés Pedro Gassendi, verificará en 1649 la exactitud de esta aseveración. La indemostrabilidad, por experimentos mecánicos, de movimientos uniformes de traslación, enunciada con tanta claridad por Galileo, constituye el principio que hoy llamamos de la relatividad clásica. En el siglo XIX, Clerk Maxwell se preguntará si fenómenos ópticos no podrían conducir a la demostración de la traslación de la Tierra. ¿Acaso los rayos de luz podrían efectuar lo que una piedra en la caída o un péndulo oscilante no puede realizar? En los umbrales del siglo XX, Einstein da la respuesta negativa al extender el principio galileano a los fenómenos luminosos y al afirmar que todos los acontecimientos físicos, sean mecánicos u ópticos, transcurren en un sistema con movimiento uniforme del mismo modo que transcurrirían si el sistema estuviera en reposo; por consiguiente, al igual que la mecánica, también la óptica deja sin determinar el discernimiento entre la inmovilidad tolemaica y la traslación copernicana de la Tierra. Del principio galileano así generalizado, Einstein hace una de las tesis básicas de su teoría de la relatividad restringida, enunciada en 1905.
La repercusión del Dialogo, del cual se imprimen 1.000 ejemplares, es inmediata: actúa con la fuerza explosiva de una bomba. Las ideas de Copérnico sepultadas desde nueve décadas en la obra casi olvidada del astrónomo polaco, ignoradas fuera del estrecho círculo de los sabios, se encuentran súbitamente, gracias al apasionante libro, expuestas a la luz de los debates públicos.
Los adversarios de Galileo estiman llegada la hora para abatir al gigante. El «perjuro» que había prometido en 1616 abandonar la doctrina herética, es citado a Roma. Un pobre viejo —Galileo tiene setenta años— comparece ante el tribunal de la Inquisición.
¿Es verdad que los enemigos de Galileo lograron convencer al papa de que el toscano lo encarnaba en el Simplicio de su Dialogo, portavoz del obstinado aristotelismo? No lo sabemos. Pablo III, al hablar del ilustre artista Benvenuto Cellini, declaró: «El genio está por encima de la ley».
Urbano VIII no concede al más grande de los sabios italianos el mismo privilegio que su liberal predecesor había acordado a un cincelador. Mas si es verdad que no mostrará clemencia, también lo es que no admitirá se aplique contra Galileo la violencia, como lo pretendiera una leyenda sin fundamentos.
Se conoce el último acto del doloroso drama: en la mañana del 22 de junio de 1633, arrodillado ante sus jueces, Galileo abjura de sus errores y herejías, renegando de todas sus doctrinas. La fiera frase Eppur si muove, no escapa de sus labios temblorosos, fue inventada en pleno siglo XVIII, en los tiempos de los enciclopedistas franceses. A partir del momento de la sentencia, Galileo permanece hasta el fin de sus días prisionero virtual del Santo Oficio. Se le asignó como residencia el palacio de su discípulo, el arzobispo de Siena, Ascanio Piccolomini; más tarde pudo trasladarse a su villa en Arcetri. A sus amigos se los permitió visitarle.
A Galileo le quedan todavía ocho años de vida. En su frágil cuerpo mora aún un espíritu indómito y poderoso. En su retiro forzado concreta la totalidad de sus investigaciones sobre los problemas de la mecánica y de esta magnífica síntesis nace su obra máxima: Discorsi e dimostrazioni matematiche intorno a due nuove scienze, publicada en 1638 lejos de Roma, en la libre Holanda, por la famosa casa editorial de los Elzevir. Los tres personajes del Dialogo, Salviati, Sagredo y Simplicio, se reúnen, para discutir con sagacidad galileana, esta vez, los problemas mecánicos. Sus conversaciones se reparten en cuatro jornadas, a las que se agregaron póstumamente dos más. Si es posible datar el nacimiento de una ciencia, es en el año 1638, con la aparición de los monumentales Discorsi, cuando nace la física moderna. Esta obra cumbre de Galileo es el primero y verdadero libro de texto de la física.
Al corazón de la obra nos conducen las proposiciones de la tercera y cuarta jornadas, ofreciendo una exposición magistral de la dinámica galileana. Aquí es donde Galileo estructura la nueva ciencia del movimiento. Uniforme o uniformemente acelerado, el movimiento está definido, como lo vimos, con exactitud y elegancia; el concepto de la aceleración y de la inercia es creado y manejado con admirable seguridad; la composición del movimiento es presentada con el ejemplo práctico del análisis de la trayectoria de los proyectiles. En muchas páginas el italiano cede el paso al latín, como para subrayar su importancia y realzar su solemnidad. En verdad, asistimos a un momento único: por primera vez, un fundamental fenómeno mecánico —la caída libre— está descrito matemáticamente, y su ley, buscada durante largos siglos por erróneos caminos, es hallada al fin.
La velocidad del cuerpo en caída libre crece: la observación lo enseña a primera vista. Pero ¿cómo aumenta la velocidad? Para encontrar la respuesta, el gran experimentador parte de una hipótesis, digámoslo francamente, de una hipótesis metafísica: la clásica convicción de que la naturaleza realiza en sus leyes relaciones simples:
«En nuestras investigaciones del movimiento natural, nos conduce casi de la mano la advertencia de la costumbre de la naturaleza, que se sirve en todas sus operaciones de los medios más primordiales y más sencillos.»
Galileo se pregunta, pues, cuál es la relación simple que liga la velocidad adquirida por el cuerpo en la caída, con otros elementos de su movimiento. Evidentemente, la velocidad crece con el espacio recorrido y también con la duración de la caída. De las dos suposiciones que se ofrecen, Galileo admite primeramente que la velocidad adquirida (ds/dt) crece proporcionalmente al espacio recorrido. Esta suposición la expresaríamos hoy, con la notación moderna, así:

eq03.png

donde v es la velocidad, s el espacio recorrido, t la duración de la caída y a una constante. La integración de la expresión muestra que para describir un movimiento que comienza en tiempo 0, con s =0, la fórmula sólo podrá servirnos en el caso límite a = 0, en el cual, sin embargo, s saltaría del valor 0 inmediatamente al infinito. La caída sería por ello un transporte instantáneo; el cuerpo, para recorrer el espacio, no necesitaría tiempo. Precisamente es la conclusión que Galileo saca de la suposición indicada.
Ahora bien: Galilea no poseía el cálculo infinitesimal. ¿Cómo hizo para encontrar el resultado correcto? Llegó a él con un razonamiento erróneo, puesto en boca de Salviati:

«Según nuestra hipótesis, al camino recorrido 2 s correspondería doble velocidad que al camino simple h. Por consiguiente, ambos serán recorridos en igual tiempo, lo cual sólo es posible si el tiempo es igual a 0.»
Parece que los dioses conceden a los genios, de cuando en cuando, el privilegio de encontrar la verdad, aunque yerren en sus razonamientos. Sea como fuere, lo esencial es lo correcto del resultado. Galileo rechaza la suposición como absurda y de las dos hipótesis posibles adopta la segunda: la proporcionalidad de la velocidad adquirida por el cuerpo que cae con la duración de la caída. Deduce de la hipótesis la relación que debería subsistir entre el espacio recorrido y el tiempo empleado para recorrerlo. En su razonamiento compara el movimiento de caída con el movimiento uniforme, y llega a la conclusión de que se puede considerar el espacio recorrido en la caída como si hubiera sido recorrido en movimiento uniforme, con velocidad igual a la mitad de la velocidad final. Se puede, pues, para determinar el espacio recorrido, sustituir el movimiento de caída por otro movimiento uniforme, siempre que a éste se le asigne una velocidad cuyo valor sea la mitad del que corresponde a la velocidad en el final del tiempo de caída. Siendo la velocidad adquirida por hipótesis proporcional al tiempo (v = gt), los espacios recorridos (s) en la caída deben estar en la misma relación que los cuadrados de los tiempos (t) empleados en recorrerlo. se tendrá, pues:

eq04.png

donde g es la velocidad adquirida en la unidad de tiempo: la aceleración.
Sus rudimentarios medios no permitieron a Galileo una verificación directa; su clepsidra era impropia para medir pequeños intervalos temporales. Debe retrasar el movimiento de la caída, y recurre, como se sabe, al plano inclinado. Sin embargo, con este artificio encierra en su problema de la caída un nuevo problema aún no resuelto: la relación de la caída vertical y la inclinada. Sale de la dificultad al admitir que las velocidades adquiridas en el plano dependen sólo de la altura verticalmente recorrida y no de las inclinaciones de los planos. La exactitud de esta hipótesis la demuestra primero Galileo por medio de la intuición y después por un experimentó real. Pregúntase qué ocurriría si la velocidad de un cuerpo en caída, llegado al suelo, fuera repentinamente invertida y dirigida hacia lo alto. El cuerpo comenzaría a ascender, y su velocidad, que antes crecía proporcionalmente al tiempo, disminuiría en la misma relación y se haría nula en el momento en que el cuerpo hubiera ascendido tanto tiempo como el que había descendido: se encontraría al fin de su ascensión al mismo nivel que al comienzo de su caída. El comportamiento del cuerpo ¿sería diferente si su caída no es vertical pero sí inclinada? Evidentemente, no, se dijo Galileo, dado que si una bola rodando a lo largo del plano inclinado pudiera adquirir una velocidad que la hiciera ascender —sobre otro plano inclinado— a un nivel superior del que cayó, entonces sería menester concluir que el peso de los cuerpos puede producir su ascensión, conclusión cuya absurdidad es manifiesta. Por consiguiente, la hipótesis de que la velocidad en la caída inclinada está determinada únicamente por la altura vertical recorrida, no es otra cosa que la consecuencia lógica del hecho de que los graves —en virtud de su peso— deben descender y no ascender. Conclusión evidente, que legitima la hipótesis inicial y permite a Galileo inmediatamente enunciar:

la aceleración de un cuerpo que cae en un plano inclinado, es a la aceleración de la caída libre como la altura del plano es a su longitud.
En posesión de esta relación, se puede —gracias al plano inclinado— someter las leyes de la caída a una verificación experimental y Galileo, al medir el tiempo empleado por bolas rodantes para recorrer espacios determinados sobre planos inclinados, ve ratificada sus conclusiones por la experiencia.
Acabamos de contar las fases de las investigaciones sobre la caída libre, no sólo porque su importancia como primer fenómeno dinámico matemáticamente descrito justifica esta digresión, sino porque muestra con un clásico ejemplo, cómo en el proceder de Galileo se ensamblan en una e indivisible unidad los tres métodos que los investigadores del pasado utilizaron aislados. Galileo parte de una suposición meramente filosófica, la trata matemáticamente y somete la ley encontrada a la instancia verificadora de la experiencia.
Los problemas discutidos en los Discorsi se extienden a casi todos los dominios de la física conocidos en esa época: la estática de los gases y de los líquidos, la elasticidad, la acústica y la óptica, son enriquecidas con importantes contribuciones del poderoso pensador. Muchos de estos problemas serán considerados de nuevo y desarrollados por los sucesores de Galileo y nosotros volveremos a encontrarnos con ellos más adelante; aquí nos contentaremos con señalar brevemente algunos.
Investigando la resistencia que cuerpos sólidos oponen a la ruptura, Galileo reconoce que un cilindro hueco resiste más que un cilindro macizo de igual base, y encuentra así el motivo de por qué los huesos de los animales y los troncos de muchas plantas están vacíos. Igualmente, determina el perfil superior de una viga con base plana y horizontal, para que ofrezca el máximo de resistencia; comprueba que si un resorte recto se encurva, adquiere la forma de una parábola.
Galileo demuestra que el aire es pesado; cuestión discutida pero no resuelta por los pensadores de la antigüedad. Aristóteles, es verdad, afirma que si una vejiga está inflada con aire pesa más, en tanto que Tolomeo sostenía que pesa menos; Simplicio, el comentador del estagirita, creyó que pesa lo mismo, esté inflada o vacía. Ninguno recurrió a verdaderos experimentos. Galileo descarta las especulaciones estériles o indica dos métodos para determinar el peso del aire, primero midiendo el aumento de peso por compresión del aire en un balón, después, midiendo la disminución del peso por la expulsión del aire del balón bajo el influjo calórico.
Galileo es el primer físico que describe ondas estacionarias producidas en la superficie del agua, gracias a la interferencia de ondas provocada por las vibraciones excitadas en el vidrio del recipiente. Investiga la resonancia y encuentra que una cuerda hace vibrar a otras que están al unísono, a la octava y a la quinta, y compara este fenómeno con la transmisión del movimiento de un péndulo oscilante a otro en reposo (pendoli simpatici). Señala —es su más importante contribución a la acústica— que las alturas de los sonidos dependen del número de las vibraciones en la unidad de tiempo: sobre este punto, rectifica también un error de Aristóteles, quien creía que la diferencia entre sonidos agudos y graves corresponde a la velocidad de propagación, mayor en los primeros y menor en loa segundos. Si sus rudimentarios medios no permitieron a Galileo determinar la velocidad del sonido, tiene el mérito de haber sido el primero en ensayarlo. Su discípulo Borelli continuó sus ensayos sin mayor éxito; más tarde, los investigadores franceses Pedro Gassendi y Marino Mersenne reconocen que el sonido se propaga con la misma velocidad, provenga de un martillazo o de un cañonazo, así como que su velocidad es la misma en todas las direcciones. Mas los valores numéricos que dichos investigadores asignan a la velocidad del sonido representan sólo una grosera aproximación, y es ya en los albores del siglo XVIII cuando los experimentadores de la Academia Francesa Cassini, Maraldi y De la Caille llegan a resultados más satisfactorios, estableciendo en 330 metros por segundo la velocidad en el aire de las ondas sonoras.
Así como ensayara medir la velocidad del sonido, Galileo imagina también una experiencia para determinar otra velocidad enormemente superior: la de la luz. Loa pensadores griegos, incluso Herón, ensoñaban que los rayos luminosos se propagan instantáneamente. Galileo rechaza esta opinión:
«Sagredo.— Pero ¿qué naturaleza y qué magnitud debemos atribuir a la velocidad de la luz? ¡No podríamos decidir esta cuestión mediante un experimento?
»Simplicio. — Las experiencias diarias muestran que la propagación de la luz es instantánea; cuando vemos disparar una bala de cañón a gran distancia, su fogonazo llega a nuestros ojos instantáneamente, mientras que el sonido lo percibimos después de un intervalo notable.
»Sagredo. —Bien, Simplicio; lo único que podemos inferir de esta experiencia familiar es que el sonido, para alcanzar nuestros oídos, viaja más lentamente que la luz; esta experiencia no me informa de si la luz se propaga instantáneamente o si, siendo inmensamente rápida, emplea un tiempo muy pequeño en llegar a nuestros ojos.»
Aunque Galileo afirme, por boca de Sagredo, que la velocidad de la luz debe ser inmensamente grande, cree poder determinarla con la experiencia siguiente: Dos observadores situados a cierta distancia uno del otro, están provistos de linternas, cuya luz puede interceptarse con una pantalla. El primer observador quita repentinamente la pantalla de su linterna, y tan pronto como el segundo recibe la luz, descubre la suya. El intervalo medido por el primer observador, desde el instante en que partió la luz de su linterna hasta el momento de la llegada de la señal de retomo, debe representar el tiempo que requiere la luz para recorrer la distancia de ida y vuelta. En el experimente galileano, realizado más tarde por los académicos florentinos, la distancia que separaba a los observadores era de dos leguas. Sin duda, Galileo ha subestimado la enorme velocidad de la luz, creyendo poder medirla sobre cortos recorridos con medios primitivos. No obstante, su idea es genial. Cuando Fizeau se propone, en el siglo XIX, medir la velocidad de la luz sobre un recorrido terrestre, no hará otra cosa que modernizar la idea de Galileo: elimina el segundo observador, reemplazándolo por un espejo y midiendo el tiempo que la luz de su linterna necesita para el viaje de ida y vuelta, por medio del conocido artificio de su rueda dentada (véase capítulo 10). Pero no fue preciso esperar hasta la experiencia de Fizeau para saber que la luz no se propaga instantáneamente. Olaf Römer (véase capítulo 6) logra calcular su velocidad gracias a las ocultaciones de los satélites jovianos descubiertos por Galileo.
¿No es una dolorosa tragedia que el luminoso genio esté condenado en sus últimos cuatro años, a vegetar en perpetua oscuridad? Los ojos que escrutaron tantos portentosos fenómenos celestes quedan cegados por implacables cataratas.
«De hoy en adelante —escribe en una carta— el cielo, el mundo y el universo, que con mis milagrosas observaciones y claras demostraciones había ampliado cientos y miles de veces, más que lo comúnmente creído por los sabios de los siglos pasados, se reducen para mí al estrecho espacio en que estoy viviendo. Así lo quiso Dios y así ha de placerme a mí.»

Asistido por sus dos fieles discípulos Viviani y Torricelli, Galileo fallece el 8 de enero de 1642.
«El descubrimiento y empleo del razonamiento científico por Galileo —declara con razón Alberto Einstein[18]marca el verdadero principio de la física.»
Al aparecer Galileo en la historia, sólo hay fuera del estrecho dominio de la estática, especulaciones filosóficas sobre los fenómenos naturales y observaciones incoherentes y aisladas. Donde sus predecesores no ven más que casos más o menos particulares, el genio de Galileo da la ley en su generalidad y la describe matemáticamente. Después de él, la ley física puede revestir su natural estructura, la de una función matemática. Sin la obra trascendental de Galileo, la de Newton no sería imaginable: las leyes básicas sobre las cuales el gran legislador de la dinámica construye el edificio de la ciencia newtoniana, están implícitamente contenidas en la mecánica de Galileo.
Con Galileo no sólo se introduce un nuevo método de investigación, sino que se inicia en la filosofía natural una idea enteramente nueva que se impone con creciente rigor a las generaciones siguientes: la idea cardinal de que el mundo físico es una interacción de fuerzas calculables y de cuerpos mensurables. No se exagera al afirmar que en los siglos que siguieron al gran toscano, la historia de las ciencias exactas es esencialmente la realización de este trascendental pensamiento.

Capítulo 5
Discípulos y contemporáneos de Galileo

Contenido:
1. La Academia del Cimento
2. Kepler, Descartes y Grimaldi
3. Desde Guericke hasta Boyle

1. La academia del Cimento
El termómetro; Aggiunti, Renaldini y Borelli; Torricelli: El vacío y el barómetro; Pascal: La presión atmosférica; Investigaciones hidro-mecánicas; Mersenne y la cuerda vibrante.

Ideas sancionadas por largos siglos no se dejan suplantar en algunos años; el espíritu humano también tiene su ley de inercia. No hay, pues, que extrañarse de que las investigaciones de Galileo necesitaran tiempo para expandirse entre los sabios de Europa. A pesar de ello, la idea conductora del método galileano se impuso a los investigadores en un intervalo sorprendentemente breve. Lo prueban los lemas elegidos por las dos sociedades científicas fundadas en las décadas que siguieron a la muerte de Galileo. La Academia del Cimento (1657) pone en la portada de sus publicaciones las palabras Provando e riprovando (experimentando y rechazando), y la Sociedad Real, de Londres (1662), adopta el principio Nullius in verba, documentando con este lema que rehúsa adherirse ciegamente a la doctrina de cualquier autoridad y que sus miembros se proponen someter sus opiniones científicas al supremo veredicto del experimento.
A estas dos instituciones se agrega pronto la tercera: la Academia de Ciencias, de París (1666), y después una cuarta: la Academia Leopoldiana (1672), de Alemania, cuyos trabajos están igualmente dirigidos por las exigencias del método galileano. Las investigaciones colectivas de los nueve miembros de la Academia del Cimento prolongan directamente la obra de Galileo. Muchos de sus experimentos tan sólo materializan las sugestiones del gran toscano. Aunque Galileo no mencione en ninguno de sus escritos su termoscopio, sus discípulos Castelli y Viviani describen el instrumento construido por su maestro para medir la temperatura. Una pera de vidrio, llena de aire, terminada en un estrecho tubo, fue sumergida por su extremo abierto en un líquido. Una gota de agua colocada en el tubo separaba el aire interior del exterior e indicaba por su posición los grados de calor. Fue, pues, un instrumento abierto al acceso del aire, y sus indicaciones, sujetas tanto a la presión atmosférica como a la temperatura, no podían ser sino muy groseras. Sobre todo, la graduación de la escala era arbitraria. Con sus deficiencias, el termoscopio de Galileo no superó en forma sensible a los instrumentos similares de los griegos, ideados por Filón y Herón. Los investigadores de la Academia del Cimento introdujeron en el rudimentario instrumento notables mejoras: llenaron el tubo con alcohol y lo cerraron por lo alto al acceso del aire. Como los académicos florentinos trabajaban en común, se ignora cuál fue el inventor del termómetro, atribuido al gran duque de Toscana Fernando II, protector de la Academia. Cáelos Renaldini (1615-1698), uno de los más hábiles experimentadores de la Academia del Cimento, reconoció la necesidad de adoptar dos temperaturas fijas para la graduación del termómetro y eligió, modificando una sugestión del francés Dalancé, el punto de fusión del hielo y el punto de ebullición del agua, verificados como constantes por las experiencias de Roberto Hooke.
La proposición de Renaldini, de dividir la escala en 12 grados no prosperó; la actual división centesimal fue propuesta por el astrónomo Andrés Celsius en una memoria leída en la Academia de Ciencias de Suecia en 1742. La proposición de Celsius representó una reforma de la graduación de 80° adoptada en 1730 por el zoólogo francés Renato de Réaumur, quien eligió como punto fijo para su termómetro de alcohol la temperatura de congelación del agua en lugar del hielo fundente. La forma actual del termómetro de alcohol y de mercurio es debida al físico alemán Gabriel Daniel Fahrenheit (1686-1736); tres décadas antes de Celsius inventó otra graduación de la escala: eligiendo la temperatura de una mezcla refrigerante como 0, la fusión del hielo como 32, y la del calor de la sangre humana como 96; la temperatura del vapor de agua en ebullición es en esta escala de 212°. Las sustancias termométricas en los instrumentos de la Academia del Cimento, como en los posteriores de Fahrenheit son líquidos, cuya dilatación fue admitida como proporcional al aporte de calor: suposición que se verifica tan sólo aproximadamente para líquidos, en tanto que es, con mucho, más correcta para gases. La ventaja que el empleo del aire como sustancia termométrica puede ofrecer, fue indicada por el médico francés Juan Rey (1632); su compatriota, el físico Guillermo Amontons (1663-1705) fue el primero en construir, en 1688, un termómetro de aire, superior en exactitud a los instrumentos florentinos.
Los miembros de la Academia del Cimento, provistos de sus termómetros, someten numerosos fenómenos calóricos al examen experimental. Comprueban que diferentes líquidos, agua, alcohol y mercurio, en cantidad y temperatura iguales, no funden la misma cantidad de hielo. Llegan a la conclusión de que distintas sustancias tienen diferentes capacidades calóricas, pero no logran hacer una clara distinción entre temperatura y cantidad de calor. ¡Hecho curioso: aunque sus experimentos los hayan conducido muy cerca de la fundamental distinción, debemos esperar hasta mediados del siglo XVIII el momento en que José Black la introducirá en la ciencia! Los florentinos investigan también la radiación calórica y describen interesantes experiencias ideadas para probar su reflexión.
Los sabios de la Academia del Cimento demuestran que la dilatación de los líquidos bajo el influjo calórico es superior a la de los sólidos. Uno de sus miembros, Francisco Aggiunti (1600-1635), hace interesantes observaciones sobre los fenómenos de capilaridad y refuta a Pascal, quien admitió la igualdad de los niveles de los líquidos en vasos comunicantes, cualesquiera fuesen sus diámetros. Otro miembro de la Academia, el napolitano Juan Alfonso Borelli (1608-1679), matemático, astrónomo y médico de alta reputación, completa las observaciones de Aggiunti con el descubrimiento de una importante ley: establece que las alturas de ascensión de un líquido están en razón inversa a los diámetros de los tubos capilares .
Además, Borelli se dedica a investigaciones mecánicas y aplica el método galileano a la descripción de los movimientos musculares del cuerpo humano. Estudia las leyes mecánicas de la natación en los peces y del vuelo de los pájaros. No es el menor de los méritos de este sagaz investigador el haber afirmado en su libro sobre los satélites jovianos (1666) —independiente y simultáneamente con Newton— que el movimiento de estos cuerpos celestes está mantenido por la atracción que emana de la masa del planeta Júpiter.
Entre los discípulos de Galileo se distingue particularmente Evangelista Torricelli (1608-1647), por la trascendencia de su obra. Adepto devoto, asiste a su maestro en los tres últimos meses de la vida de aquél, y le sucede como matemático en la corte toscana; su muerte prematura lo arrebata demasiado pronto —a la edad de treinta y nueve años— a la ciencia. El más notable descubrimiento de Torricelli resuelve un problema que el gran toscano dejó planteado.
Aunque Galileo, como hemos visto, había pesado el aire y no ignoraba que en los tubos de aspiración de las bombas, el agua no seguía al pistón más allá de 18 varas, no pensó en relacionar estos dos hechos y atribuir el segundo al efecto de la presión atmosférica. Su adhesión a la doctrina griega de que la naturaleza aborrece el vacío —el horror vacui— impidió a su poderoso espíritu ver claro. ¿El horror de la naturaleza frente al vacío tendría en los tubos de las bombas su límite con 18 varas? No, declara Galileo; lo ocurrido es que la columna de agua, alcanzada esta altitud, se quiebra bajo su propio peso.
El sabio genovés Juan Bautista Baliani y el académico florentino Rafael Magiotti no se contentaron con esta respuesta; sospechaban que sobre la altura que el agua en el sifón es incapaz de sobrepasar, subsistía —a pesar de lo sostenido por los griegos— un verdadero vacío y que la altura de la columna de agua en el sifón contrabalancea la presión del aire exterior. Para verificar estas suposiciones, Torricelli, en 1644, reemplaza la columna de agua cuya gran altura, casi once metros, era inconveniente para los experimentos, por una columna de mercurio, cuya elevación, catorce veces inferior, se prestaba mejor para tales ensayos. Llenó un tubo de pequeña sección y de 1,20 metros de largo, con mercurio y lo sumergió por el extremo abierto en una cubeta llena con el mismo metal. La columna de mercurio descendió aproximadamente hasta 76 centímetros, dejando por encima de ella un vacío en el tubo, el vacío torricelliano, como se llamó más tarde.
Torricelli reconoció que la altura de la columna de mercurio equilibraba y medía la presión atmosférica y comprobó además que ésta, en un lugar dado, presentaba variaciones. El principio del barómetro estaba descubierto. Los miembros de la Academia del Cimento soldaron el reservorio de mercurio al tubo y construyeron los primeros barómetros, en los cuales Magellan y Fortin no tuvieron más que introducir algunas mejoras. Instrumentos más sensibles que los torricellianos, los barómetros aneroides, sólo fueron construidos dos siglos después, por Bourdon y Vidi.
Los experimentos de Torricelli fueron bien pronto conocidos fuera de Italia, principalmente en Francia, gracias al sabio padre mínimo Marino Mersenne (1588-1648), quien mantuvo una extensa correspondencia con los investigadores de su país y del extranjero, informando a unos sobre las nuevas que recibía de otros; desempeño así el papel de una verdadera revista de los progresos de la física y propagó las ideas galileanas. Su compatriota el matemático y filósofo Blas Pascal (1623-1662) concibió el proyecto de comparar con la ayuda de mediciones barométricas la presión atmosférica en el pie y en la cumbre de una montaña; la primera debía ser superior a la segunda, si las ideas de Torricelli eran ciertas. Périer y sus compañeros, encargados por Pascal de ejecutar la experiencia ascendieron, en 1648, a la cima del Puy-de-Dôme, con una altura de 974 metros. Su espera no fue infructuosa. La columna del barómetro marcó en la cumbre 8,5 centímetros menos que en el valle. El experimento, repetido en París, en la torre de Saint-Jacques, confirmó los resultados de Puy-de-Dôme; se impuso la conclusión: la columna mercurial del barómetro, al medir la presión atmosférica, mide también la altura de los lugares. Esta idea no fue un auténtico fruto del espíritu del filósofo jansenista; Torricelli la había indicado y Descartes igualmente señalado, antes de que Pascal la soñase. En este caso, como en algunos otros, Pascal mostraba pocos escrúpulos para apropiarse ideas que no le pertenecían, mas no cabe duda de que desde este momento se iniciaron búsquedas para encontrar la fórmula que permitiría deducir de las observaciones barométricas la altura de un lugar. El astrónomo inglés Edmundo Halley (1656- 1742) llegó a una primera aproximación. Las alturas crecen, afirmó, en progresión aritmética, en tanto que las presiones atmosféricas disminuyen siguiendo una progresión geométrica.
Investigaciones más ricas en consecuencias que las experiencias barométricas están vinculadas con la obra de Pascal, en el dominio de la hidrostática, aunque no fue él, sino el gran físico flamenco Simón Stevin quien descubrió la famosa paradoja hidrostática, atribuida al versátil y vivaz pensador francés. Stevin reconoció como hecho capital que la presión de los líquidos sobre el fondo de los vasos es independiente de las formas de los mismos y crece en razón directa de la profundidad; el peso de la columna líquida que descansa sobre el fondo mide la presión. Pascal profundizó la idea de su predecesor. Demostró quo la transmisión isotrópica de la presión en los líquidos en equilibrio se deduce necesariamente del principio de los desplazamientos virtuales y dio a la ley un enunciado sugestivo:
«Si un recipiente lleno de agua y cerrado por completo tiene dos aberturas, una de las cuales sea cien veces mayor que la otra, al colocar en cada una un émbolo bien ajustado, un hombre que hunda este émbolo igualaría la fuerza de cien hombres que empujaran al que es cien veces mayor y vencería a noventa y nueve.»
La prensa hidráulica construida en 1795 por el ingeniero inglés Bramah materializa la aplicación técnica de esta idea stevino-pascaliana.
Torricelli también pone su sagacidad fisicomatemática al servicio de los problemas hidromecánicos. La cantidad y velocidad de agua que fluye por el orificio de un vaso —cuestiones que ya habían atraído la atención de los pensadores griegos y romanos— reciben gracias al sabio faentino soluciones tan exactas como elegantes. Más que en otros trabajos de Torricelli, se pone aquí de manifiesto el espíritu galileano, la influencia de las no olvidadas lecciones del gran toscano. Torricelli muestra que el chorro de agua que sale de un vaso obedece a leyes de la caída libre o a las del lanzamiento. La velocidad del agua que sale es la misma que tendría si cayera de la altura de la columna de agua y es proporcional a la raíz cuadrada de esta altura; las cantidades del líquido son proporcionales al producto de la velocidad por el tamaño del orificio. Si éste está perforado en la pared lateral del vaso, la trayectoria del chorro tomará la forma de una parábola. Por supuesto, la resistencia del aire perturba al fenómeno y el padre Mersenne, que se aplicó al estudio de este detalle, encuentra en ello el porqué de que los chorros de las fuentes no alcancen el nivel del agua en el reservorio, como lo exigiría la ley de los vasos comunicantes.
El infatigable Mersenne enriqueció también la acústica con adelantos, los más valiosos quo esta disciplina recibió en el curso del siglo XVII, aun cuando tan sólo haya prolongado y completado la herencia del ilustre toscano. Mersenne confirma la tesis galileana de que la altura de los sonidos está determinada por el número de las vibraciones del cuerpo sonoro en la unidad de tiempo. Pero ¿de qué depende esto número? Mersenne encuentra la respuesta con dos leyes:

2. Kepler, Descartes y Grimaldi
Vida y personalidad de Kepler; Sus leyes planetarias; Sus descubrimientos ópticos; Maurolico y la teoría de la visión; Snellius: La ley de la refracción; Descartes: Su fracaso como físico; El arco iris; Fermat: El valor mínimo del tiempo óptico; Grimaldi descubre la difracción de la luz.

En el mismo año de 1609 que dio a Galileo su telescopio e inició la serie de sus admirables descubrimientos sobre el firmamento, descubrimientos sólo conciliables con el sistema heliocéntrico, apareció en Praga la Astronomía nova de Kepler, obra de grandes alcances que llevó a la mecánica celeste más allá de Copérnico.
Juan Kepler (1571-1630), sietemesino, recibió de la naturaleza, al igual que Newton, un débil cuerpo, en el que, sin embargo, moraría uno de los espíritus más fogosos que conoce la historia de las ciencias. Hijo de padre borracho y de madre alejada de sus deberes, tuvo una infeliz infancia.
Al enfermizo niño la viruela dejó en el rostro un aire de imbecilidad. Los primeros estudios de Kepler fueron irregulares; frecuentemente debía interrumpirlos para servir como mozo en la taberna de su padre o para realizar trabajos rurales. La voluntad y sed de saber del joven triunfan sobre estos obstáculos.
En el seminario de Tubinga, foco de la teología luterana, descubre pronto su vocación gracias a la sagacidad de uno de sus maestros, el astrónomo Miguel Maestlin: Kepler no será teólogo, pero sí matemático. Graz, capital de Estiria, le ofrece una modesta situación como profesor de la escuela superior de la ciudad. Los deberes de Kepler son múltiples: docente del Gimnasio, matemático, meteorólogo, astrólogo, redactor del calendario oficial. Esta polifacética actividad no absorbe sus mejores fuerzas: Kepler publica en 1596 su Misterium cosmographicum, obra que le vale la amistad de Galileo y llama la atención del gran astrónomo Tycho Brahe, en ese momento primer matemático y astrólogo del emperador Rodolfo II en Praga.

06.jpg
Juan Kepler

Al comenzar las persecuciones contra los protestantes en Austria, Tycho recibe a Kepler en su observatorio. De ayudante, pronto se vuelve maestro. Después de la repentina muerte de Tycho, ocurrida en 1601, Kepler es nombrado matemático imperial de la corte de Praga. Tycho no sólo le legó su cargo, sino algo más valioso: el caudal de sus preciosas observaciones, que Kepler se propuso utilizar a su manera.
Tycho, incomparable observador, fue un teórico miope. Había rechazado el sistema de Copérnico para emitir otra hipótesis, cópula infeliz entre la vieja y la nueva doctrina: supuso que si bien los planetas se movían alrededor del Sol, éste en cambio giraba en torno de la Tierra, la cual, por lo tanto, estaba inmóvil en el centro del universo. Kepler, seducido por la majestuosa sencillez de la imagen heliocéntrica estaba convencido, a priori, de su certeza.
«Lo he afirmado —escribió— como cierto, en lo más profundo de mi alma, y contemplo su hallazgo con un increíble y embriagador deleite.»
En las observaciones de Brahe sobre el planeta Marte buscó, por consiguiente, apoyo para el acariciado sueño. Redujo las posiciones aparentes fijadas por Tycho a las posiciones reales, tal como corresponden al sistema copernicano, y ensayó después hacer pasar un círculo por las posiciones así obtenidas.
Mas las posiciones marcianas se rehusaron obstinadamente a obedecer y evidenciaron discrepancias hasta de 8' con el círculo hipotético. Kepler, incansable, repitió las infructuosas tentativas muchas veces. ¿Es posible, se preguntó, que el infalible Tycho haya cometido tales errores? En lugar de rechazar las observaciones de Tycho como inexactas, Kepler tuvo el coraje de rechazar los círculos como forma de las órbitas planetarias y encontró después de una larga serie de cálculos y ensayos, que las posiciones de Marte concordaban con una elipse, en uno de cuyos focos estaba colocado el Sol. La primera ley kepleriana estaba descubierta, aunque únicamente para Marte, en tanto que Kepler no dudó en afirmar que valía para todos los planetas. Éstos se mueven más rápidamente en la proximidad del Sol que alejados de él, de modo que el radio vector de cada planeta barre áreas iguales en tiempos iguales , como lo exige la segunda ley kepleriana.
Sin duda, en este feliz hallazgo, Kepler estuvo favorecido no sólo por su agudeza matemática y su inagotable paciencia, sino también por la suerte. La trayectoria de Marte, gracias a su marcada excentricidad, se prestó particularmente bien a la demostración de las órbitas elípticas de los planetas. Además, los instrumentos imperfectos de Tycho vinieron a su ayuda: si medios más rigurosos que los del gran dinamarqués le hubieran permitido observaciones más precisas, éstas hubiesen puesto en evidencia las perturbaciones de las trayectorias que los planetas sufren por sus mutuas atracciones, perturbaciones que se superponen a la elipse fundamental y la deforman. Kepler no habría logrado unir con una elipse estas posiciones perturbadas.
Las dos leyes, enunciadas en Astronomía nova (1609), no satisficieron a Kepler, convencido de la existencia de una simple relación numérica entre los tiempos de revolución y las distancias de los planetas. Con la fe de un cruzado buscó esta ley, que —para sus ojos— debía garantizar la intrínseca armonía de la estructura geométrica del universo. Adoptó una centena de suposiciones, y las rechazó, después de interminables cálculos, una tras otra. Por nueve años continuó, sin tablas logarítmicas, sin máquinas calculadoras, sin otra ayuda que su incansable ardor, hasta el 18 de marzo de 1618, el día en que, obedeciendo a una súbita inspiración, formuló la hipótesis que se convertiría en su tercera ley:
los cuadrados de los tiempos de revolución de los planetas son proporcionales a los cubos de sus distancias medias al Sol.
Calculador tan genial como infatigable, Kepler no solamente era un investigador, sino también un iluminado. Soñador y místico del siglo galileano, encarnó una única y singular mezcla del pensamiento medieval y renacentista. Sus divagaciones son más numerosas que sus descubrimientos: escucha la música de las esferas y transcribe parte al pentagrama, en la misma y gruesa obra: Harmonices mundi libri quinqué (1618), donde enuncia su tercera y admirable ley. Más allá de lo enseñado por los teólogos luteranos de Tubinga, mantiene sus relaciones personales con Dios, como también lo hará otro gran alemán del siglo XVII, Otón de Guericke.
Dios es un matemático, su universo un perfecto sistema geométrico y Juan Kepler el primer ser humano a quien el Todopoderoso acordó la gracia de revelar el oculto mecanismo. No vacila en escribir en el placentero éxtasis de su descubrimiento:
«Como cierto he encontrado que toda la gama de las armonías existe en toda su extensión y en todos sus detalles en los movimientos celestes... Me entregaré a mi sacra ira... Si me creéis, me alegraré, y si os enojáis, lo soportaré; los dados están echados y el libro escrito para ser leído ahora o en la posteridad, no me importa cuándo. Esperará miles de años a su lector, si Dios mismo ha esperado seis mil años al observador de su obra.»
Kepler no olvidó de preguntarse dónde podría asentarse la fuerza que impulsa a los planetas en su trayectoria; reconoció que emana del Sol, que ejerce una atracción (virtud o vis prensandi) sobre los planetas, atracción recíproca, que actúa igualmente entre la Tierra y la Luna y provoca el flujo y reflujo de los mares. La atracción ¿decrece lineal o cuadráticamente con la distancia? Kepler roza este problema en el cuarto libro de su Epítome (1621), duda entre las dos suposiciones y no llega a formular la ley que hará la gloria de Newton.
Diecisiete años elaboró Kepler las observaciones de Tycho para extraer los tesoros que escondían. Poco tiempo después de publicar su Astronomía nova, deja Praga para trasladarse a Linz, donde termina sus Tabulae Rudolphinae, magnífico ejemplo de la aplicación de sus leyes, que permitieron desde entonces calcular y predecir las posiciones de los planetas. Víctima por segunda vez de la intolerancia religiosa, en 1626 fue expulsado de Austria y el resto de su vida transcurre en medio de los contratiempos de la guerra de los Treinta Años. La mala suerte no lo abandona: pierde cuatro de los seis hijos de su segundo matrimonio. El emperador no le paga regularmente las sumas que le debe, y la deuda se eleva finalmente a doce mil florines.
Para librarse del incómodo acreedor, Fernando II lo manda a Silesia, a la residencia del condotiero Wallenstein, con la promesa de que éste le pagará. El famoso aventurero no necesita un astrónomo, pero sí un astrólogo, más que nunca en este momento en que su estrella empieza a declinar. Kepler, para obtener su dinero, se ve obligado a trasladarse a Regensburgo para dirigirse a la Dieta imperial. Al término del peligroso y cansado viaje muere, el 15 de noviembre de 1630, lejos de los suyos. A pesar de ello, sería falso convertir al primer y gran legislador de la mecánica celeste en una víctima de la proverbial pobreza de los sabios, pues dejó una apreciable herencia.
Kepler enriqueció la óptica con importantes investigaciones. A sus problemas dedicó dos obras, un grueso volumen y un folleto, la Dióptrica, cuyas 80 páginas contienen más ideas y sugestiones que las 400 del primero. La ley fundamental de la fotometría la debemos a Kepler.
«La intensidad de la luz —enunció— es inversamente proporcional a la superficie iluminada y lo es también al cuadrado de la distancia al foco luminoso. »
Admirable es ver cómo Kepler logra, sin poseer la ley exacta de la refracción, crear los fundamentos científicos de la teoría de los instrumentos ópticos. Parte del teorema:
« Para ángulos de incidencia inferiores a 30°, la desviación del rayo refractado es proporcional al ángulo de incidencia. »
Se podría traducir la idea kepleriana

eq05.png

donde d es el ángulo de desviación, i el ángulo de incidencia, r el de refracción. Kepler admite que el valor de la constante, para cristales ordinarios, es igual a 1/3 y calcula después la distancia focal:
  1. Para un rayo que pasa del aire al cristal, a través de una lente planoconvexa, es igual al triple del radio de curvatura.
  2. Para un rayo que pasa del cristal al aire, a través de una lente planoconvexa, es igual al doble del radio de curvatura.
  3. Para una lente biconvexa es igual al radio de curvatura.
En efecto, estos resultados son exactos para cristales cuyo índice de refracción fuese n = 1,5 que corresponde al valor 1/2 admitido por Kepler para la constante.
Más tarde el eminente discípulo de Caldeo, Francisco Buenaventura Cavalieri (1598-1647), en posesión de la ley de refracción, establece para el cálculo de la distancia focal una fórmula más amplia, valedera para lentes con caras de diferentes curvaturas. Sea f la distancia focal, r1 el radio de curvatura de una cara, r2 el de la segunda: Cavalieri encuentra

eq06.png

La ecuación moderna, que tiene en cuenta el espesor de lentes y las refracciones variables, será un regalo de fin del siglo XVII y llevará el nombre de Edmundo Halley.
En su Dióptrica, Kepler da, un año después del Mensajero celeste de Galileo, la completa descripción del telescopio astronómico provisto de un ocular biconvexo; el instrumento es construido más tarde por el padre jesuita Cristóbal Scheiner (1575-1650), según los datos keplerianos. El fenómeno de la reflexión total es también un descubrimiento de Kepler. se pregunta qué ocurriría si un rayo, al pasar del cristal al aire, encontrara la superficie limitante de modo que forme un ángulo de incidencia mayor que el valor crítico de 42°. Como el ángulo de refracción en el paso del aire al cristal no puede —cualquiera que fuese el ángulo de incidencia— sobrepasar los 42°, el rayo será impotente para salir del cristal y será totalmente reflejado.
Gafas y telescopios con los que Kepler halló las leyes, ¿para qué sirven sino para el ojo humano? Uno de los grandes méritos de Kepler es haber creado la primera teoría moderna de la visión. Los griegos y en su huella los sabios medievales, que conocían perfectamente los tres medios refringentes del ojo, el humor acuoso, el cristalino y el humor vítreo, creyeron, como lo enseñaba Aristóteles, que las imágenes nacen en el cristalino. Francisco Maurolico (1494- 1575) rectificó el fundamental error.

07.jpg
Renato Descartes

El cristalino, afirmó Maurolico, actúa como una lente biconvexa de vidrio: refracta los rayos según su eje; la imagen se forma, pues, detrás del cristalino. Pero ¿dónde? Maurolico no lo supo decir. Sobre la retina, contesta Kepler. Los rayos, explica, reflejados por un objeto, son refractados en el ojo de modo que se separan sobre la retina y forman una minúscula imagen invertida. En el ojo de un miope se separan antes de la retina; en la fio un présbita, detrás. Por consiguiente, es fácil corregir estas deficiencias mediante gafas adecuadas. También aquí el padre Scheiner prolonga la obra del gran investigador alemán con una serie de experiencias sobre ojos bovinos y humanos. Determina exactamente la actividad de las sustancias refringentes y de la pupila, elucida el mecanismo de la inversión de la imagen retiniana y da la primera descripción de la acomodación ciliar, entrevista vagamente por Kepler.
Como acabamos de ver, Kepler no poseía la ley general de la refracción: la encontró el investigador holandés Wilibrordo Snellius (1591-1626), matemático de la famosa Universidad de Leiden, al demostrar que la relación de los dos caminos recorridos en el mismo tiempo por el rayo en los dos medios es constante. La relación de estos dos caminos es la de las cosecantes de los ángulos de incidencia y de refracción

eq07.png

El valor de la constante depende sólo de las sustancias consideradas. Por largo tiempo se atribuyó el descubrimiento a Renato Descartes, pero en realidad, el filósofo francés no hizo más que traducir la relación de cosecantes en relación de senos, dando a la ley su forma actual:

eq08.png

donde n es la constante característica del cuerpo refringente, llamada hoy índice de refracción.
Renato Descartes (1596-1650), poderoso genio, creador de la geometría analítica, filósofo cuyo prestigio eclipsó en Francia incluso la gloria de los pensadores griegos, no es más que una estrella de tercera magnitud en el firmamento de la física. En su célebre Discurso sobre el método, Descartes prescribió el camino a seguir para realizar descubrimientos, y él mismo no logró ninguno.
La historia no conoce investigador al que las reglas tan pomposa y solemnemente expuestas por Descartes hayan conducido a un importante hallazgo. Este fracaso es explicable, pues es una utopía el intentar establecer un método para hacer descubrimientos; en realidad, para ello existen tantos métodos como descubridores. El panmatematicismo, exagerado al extremo por Descartes, no es un procedimiento para descubrir, sino para demostrar. Son hechos tan diferentes como el día y la noche. El afán del pensador francés para crear la soberanía del espíritu lógico sobre la imaginación y el azar del hallazgo es un esfuerzo platónico al que la historia negó todo éxito.
Que así es lo prueba el fracaso de Descartes como físico: negador del vacío en las mismas décadas de las experiencias de Torricelli y Guericke, y promotor de una fantástica teoría cosmológica de los torbellinos, todavía enseñada en Francia cien años después de los Principia de Newton, Descartes por su autoridad llegó a obstaculizar más que a favorecer el desarrollo de la física.
Descartes utiliza la ley de la refracción para formular una teoría del arco iris, problema que tentó a muchos investigadores desde que Rogerio Bacon, a mediados del siglo XIII, intentara explicarlo como efecto de la refracción de la luz en las gotas de agua. Maurolico llega, en el siglo XVI, a una descripción más satisfactoria, atribuyendo el arco iris a la refracción y reflexión de la luz.
Es el juego de los dos fenómenos en el interior de las gotas, aseguró, el que produciría el arco complementario. Reconoce que los colores del arco iris son idénticos a los de la luz refractada por un prisma. Descartes aplica al fenómeno los poderosos medios de su cálculo; determina, gracias a la ley de la refracción, el ángulo que el arco iris debe subtender desde el ojo del observador y encuentra que los rayos emergentes forman con los rayos incidentes un ángulo de 41° en el arco principal, y un ángulo de 52° en el arco secundario: resultados conformes a la observación.
Por supuesto, una teoría del arco iris debe dar cuenta de sus colores. Las ideas propuestas para elucidar el problema por el padre jesuita De Dominis y por el filósofo francés nos resultan hoy extrañas por su excentricidad.
Según los razonamientos de Marco Antonio de Dominis (1566-1624) el color de un rayo depende de la longitud del camino que recorre en el medio absorbente. Al pasar la luz por un prisma, los rayos que penetran cerca de las aristas y sólo atraviesan poco vidrio, se vuelven rojos, en tanto que aquellos que atraviesan mucho cristal, pasando cerca de la base, salen como rayos violetas. Lo mismo ocurre a la luz en las gotas de agua: los rayos reciben sus siete colores, que forman el arco iris, según la longitud del camino que deben recorrer en el interior de la gota.
Descartes concibe la luz como mi flujo de partículas no elásticas, dotadas con una velocidad de traslación v, igual para todos los rayos y con una velocidad de rotación w, diferente según los colores: w = v da nacimiento en el ojo de la luz verde; w < v engendra la luz violeta; w > v origina la luz roja. Esta extraña hipótesis tiene el mérito de reconducir la multiplicidad de los colores a tres colores fundamentales; además, las partículas que rebotan al encontrar un espejo, y cuyo flujo se quiebra al pasar de un medio al otro, explicarían las leyes de la reflexión y de la refracción.
Una importante consecuencia de la hipótesis cartesiana tropezó con la viva contradicción del matemático francés Pedro Fermat (1601-1665). Si las partículas luminosas entran en un medio refringente, sus velocidades cambian. ¿Se propagan más o menos rápidamente al pasar de un ambiente rarificado a otro denso? Un proyectil, razonó Descartes, pierde por el choque con una plancha dura menos velocidad que en el choque con una plancha muelle. Por consecuencia, concluye él, la velocidad de la luz es superior en un medio denso que en uno rarificado.
Descartes muestra que esta suposición permite deducir la ley de la refracción. A pesar de ello, una conclusión correcta no prueba que la premisa sea conforme a la realidad. Si Descartes estuviera en lo cierto, los corpúsculos luminosos deberían encontrar en un medio denso menos resistencia que en otro rarificado. Irritado por tal suposición, Fermat la rechaza y parte de una premisa que permite —sin hacer ninguna hipótesis sobre la naturaleza de la luz— llegar a la ley de la refracción.
Los fenómenos naturales, afirma Fermat, se cumplen con el máximo de economía. Si el rayo luminoso es reflejado, hay, como lo demostró Herón de Alejandría, una economía de espacio, siendo el camino del rayo entre dos puntos dados el más corto posible. Si el rayo es refractado, hay economía de tiempo, siendo la trayectoria quebrada del rayo que pasa de un medio a otro por dos puntos dados, a y b, siempre tal que el tiempo invertido por la luz es menor que el correspondiente a cualquier otro camino entre los puntos a y b. Este principio está de acuerdo por una parte con la ley de refracción, y por otra conduce —en oposición a lo supuesto por Descartes— a la conclusión de que la velocidad de la luz es menor en un ambiente denso. Agreguemos que Huygens se adhiere a la tesis de Fermat, y Newton a la de Descartes. Sólo en el siglo XIX se liquida definitivamente el litigio, cuando Foucault mide con una serie de notables experimentos la velocidad luminosa en medios más densos que el aire. Fermat y Huygens ganarán la causa contra Descartes y Newton.
Las investigaciones de Snellius, Descartes y Fermat han aclarado la ley de la refracción, fenómeno conocido en la antigüedad y aun estudiado, algunas décadas antes del nacimiento de Cristo, por Cleomedes. Pero justamente en el año de la muerte de Fermat (1665) apareció en Italia un libro que traía la nueva de un fenómeno óptico insospechado hasta entonces. La obra póstuma del padre jesuita Grimaldi -Physico-mathesis de lumine— sorprendió a sus lectores con el curioso descubrimiento de que la luz sumada a la luz puede producir oscuridad.
Francisco María Grimaldi (1618-1663), profesor de matemáticas en Bolonia, uno de los más hábiles experimentadores de la época, es el descubridor de la difracción de la luz, término creado por él para designar la inflexión que sufre el rayo al pasar rasante al borde de un objeto opaco. Hizo penetrar la luz por una minúscula abertura en una cámara oscura y colocó en el cono de los rayos un pequeño objeto con aristas agudas. Al examinar la sombra proyectada por el objeto en una pantalla, advirtió que la sombra física es siempre más grande que lo que sería la sombra geométrica, determinada por la propagación rectilínea de la luz. Observó, además, franjas alternativamente oscuras y claras, éstas incoloras en el medio y orladas de azul hacia la sombra, esfumadas en rojo en la parte opuesta. Comprobó que las franjas claras se presentaban incluso dentro de la sombra, si el objeto es sutil, como una aguja de coser, un cabello, o un hilo de araña. Los bordes coloreados de las franjas indujeron a Grimaldi a pensar que la luz blanca está compuesta por rayos de diferentes colores.
De los experimentos hechos con un cono luminoso, el físico boloñés pasó a los efectuados con dos conos, haciendo en la pared de la cámara dos aberturas muy cercanas una de la otra, para que una parte de sus imágenes se superponga sobre la pantalla. Notó que la parte común de los dos discos es más clara, pero encerrada entre dos arcos oscuros. Hizo proyectarse la luz sobre una lámina metálica surcada por estrechas hendiduras muy próximas las unas de las otras y vio dibujarse sobre la pantalla un espectro coloreado. Así, fue Grimaldi el primero en utilizar la redecilla de difracción, que debería encontrar en el siglo XIX tantas y tan admirables aplicaciones.
Grimaldi observa y describe magistral mente todos estos fenómenos, pero es incapaz de explicarlos. El teórico no iguala al experimentador. Afirma en su libro que un cuerpo iluminado puede volverse oscuro cuando se agrega nueva luz a la que ya recibía, mas no llega a indicar el porqué de tan extraño fenómeno. Sus consideraciones sobre la naturaleza de la luz son discusiones escolásticas. A pesar de ello, no está lejos de la solución del enigma cuando compara las franjas de difracción a arcos que trazan las ondas engendradas por una piedra que cae al agua. Sólo fue menester esperar algunos años para ver surgir, gracias al ingenio de Huygens, la teoría ondulatoria de la luz.

3. Desde Guericke hasta Boyle
Guericke y el vacío; Inventa la máquina neumática; Sus estudios eléctricos; Boyle: Su ley; Las investigaciones de Mariotte


Lejos de Florencia, donde los académicos del Cimento demostraron la realidad de la presión atmosférica y en la misma década en que Torricelli crea el barómetro, un físico alemán, independientemente de los italianos, concluye en Magdeburgo (Prusia) una serie de experiencias que conducirán a la invención de la bomba de vacío.
Otón de Guericke (1602-1686), constructor de fortalezas, alcalde de Magdeburgo, representante diplomático de su ciudad durante el período más tempestuoso de la guerra de los Treinta Años, y Juan Kepler son los dos más eminentes hombres de ciencia de la Alemania del siglo XVII. Con el gran astrónomo Kepler, comparte Guericke la fe mística en la sapiencia divina, que se manifiesta al hombre siempre que éste logra descubrir un arcano de la naturaleza. Esta esotérica creencia lo impulsa de una experiencia a otra, a través de todas las dificultades, hasta el éxito final.
Los pensadores escolásticos negaron el vacío y, apoyándose en Aristóteles, argumentaron que Dios no puede actuar en la nada; como Dios es omnipresente, el vacío —igual a la nada— no podría existir. Descartes profesa la misma opinión. Si Dios, enseña, retirara, por un milagro, de un recipiente toda materia e impidiera a otra materia ocupar el lugar, las paredes del recipiente se juntarían, dado que una extensión no puede subsistir sin sustancia. El Todopoderoso, opinó Guericke, no precisa materia para actuar; el vacío no es, por consiguiente, irreconciliable con las leyes divinas de la naturaleza. Guiado más bien por este pensamiento que por el deseo de demostrar la presión y elasticidad del aire, Guericke emprende durante los años 1632 a 1641 sus célebres experimentos.
Con ayuda de una bomba intenta extraer por completo el agua que llena un tonel de madera. Pero no se cumple su esperanza de que una vez eliminada el agua, el interior del tonel quedaría vacío, puesto que el aire penetra del exterior por la materia porosa que forma al tonel. Por lo tanto, reemplaza al recipiente de madera por una esfera de cobre y la pone, abriendo la llave, en comunicación con la bomba:
«Al principio —escribe Guericke en su libro Experimenta nova— el pistón se movía fácilmente, pero de pronto su manejo hacíase cada vez más difícil y finalmente la fuerza conjunta de dos hombres atléticos alcanzó apenas para arrastrar el émbolo. Creíamos ya haber extraído casi toda el agua, cuando, ante el terror de todos, la esfera fue aplastada con una violenta detonación.»
El aplastamiento de la esfera y la terrible detonación ¿no eran una prueba de que la naturaleza no tolera el vacío? ¿No tenía razón Descartes al predecir que las paredes del recipiente vacío de materia se juntarían? ¿De dónde vino la fuerza que aplastó la esfera metálica? Guericke, convencido de que la fuerza provenía de la presión del aire exterior, repitió la experiencia con otra esfera de cobre y de paredes más gruesas. Esta vez la esfera resistió hasta el final, resistió hasta que el pistón ya no se dejó mover y la última gota de agua fue extraída del recipiente. La esfera estaba vacía y encerraba el verdadero vacío, cuya existencia filósofos y sacerdotes habían negado durante dos mil años.
Guericke, alentado por el éxito, en los experimentos que siguieron, no llenó primero al recipiente de agua, sino que retiró el aire directamente. Separó el recipiente de la bomba y lo hizo independiente por medio de una válvula, y de este modo construyó la primera máquina neumática: el arquetipo del instrumento que, más que cualquier otro, debería permitir a los siglos XIX y XX penetrar en las profundidades de la materia y elucidar su íntima constitución. Una de las venerables máquinas de Guericke está conservada en el Museo Germánico en Münich.
«Tiene — así la describe Hoppe [19] — una bomba con dos llaves, el pistón es movido por una palanca, una válvula está intercalada entre el recipiente y el cuerpo de la bomba, y una segunda válvula asegura la comunicación con el aire exterior.»
Con ayuda de su máquina, Guericke examinó una serie de interesantes fenómenos presentados por el vacío: comprueba que una bujía privada de aire se extingue, y llega a la conclusión de que la llama toma, para mantenerse, materia del aire; registra que en el vacío los peces y pájaros mueren y que un racimo de uvas permanece fresco más de diez meses; nota que una vejiga cerrada se infla en el vacío y explota; observa que el sonido de un timbre colocado en el recipiente de su máquina se hace tanto más débil cuanto menos aire hay en el recipiente y desaparece por completo en el vacío.
Aplica por primera vez el principio hidrostático de Arquímedes a los gases, en la construcción de su baroscopio, que es una ampolla de vidrio vaciada y suspendida en el brazo de una balanza sensible y equilibrada por un peso movible. Si por las variables presiones atmosféricas el aire se hace más pesado, la ampolla se eleva; si el aire se vuelve más liviano, la ampolla baja. Su manómetro, aunque rudimentario, sirvió más tarde para las primeras mediciones de la fuerza expansiva del vapor.
La obra de Guericke, el voluminoso libro Experimenta nova, fue publicada en 1672, pero sus importantes resultados ya habían sido difundidos, gracias a los escritos de su brillante discípulo el padre jesuita Gaspar Schott y al resonante éxito de la demostración pública de los experimentos de Guericke en el Congreso de Ratisbona en 1654.
El emperador Fernando II y los príncipes alemanes asistieron al interesante espectáculo, para ver cómo una esfera hueca, formada con dos hemisferios yuxtapuestos y sin aire, no podía ser separada más que por la fuerza de dieciséis caballos. Los espectadores fueron vivamente impresionados por la detonación que acompañó a la separación.
Guericke consagró los últimos años de su vida al estudio de la electricidad; sus experiencias enriquecen notablemente los conocimientos adquiridos sobre tan fundamental dominio por su eminente precursor, el inglés Gilbert, cuyas investigaciones magnetológicas y electrológicas hemos bosquejado en el capítulo 3.

08.jpg
Otto von Guericke

Guericke montó una gran esfera de azufre sobre un eje metálico colocado en una armazón de madera. Con una mano hizo girar el eje y con la otra presionó la esfera; notó que la esfera no sólo atraía objetos livianos —delgadas plumas—, sino que también los repelía. La atracción se volvía a ejercer cuando la pluma había estado en contacto con otros objetos.
Sin conocer el concepto de carga eléctrica, observó así que las cargas del mismo signo se rechazaban. Al suspender un hilo encima de la esfera cargada, ésta confería el poder atractivo al hilo: Guericke descubrió la electrización por transmisión. Igualmente, fue el primero en observar una débil luz que rodeaba en la oscuridad a la esfera y las chispas que acompañaban a varias operaciones de su máquina, que, por rudimentaria que fuese, era la primera capaz de producir cargas eléctricas. Con sus investigaciones, el físico alemán enriqueció considerablemente la joven ciencia eléctrica, cuyas bases habían sido dadas en Inglaterra; por el contrario, las ingeniosas contribuciones de Guericke a la estática del aire, reciben su ulterior desarrollo gracias a dos ingleses: Hooke y Boyle.
Roberto Hooke (1635-1703), sabio universalista y hábil experimentador, introdujo en la máquina neumática de Guericke valiosas mejoras: reemplazó la vetusta palanca que accionaba el pistón por una cremallera movida con una rueda dentada, dotó al recipiente de una cubierta movible y dio al importante instrumento la forma que aun hoy poseen muchos de los pequeños aparatos. Hooke fue un investigador con las más distintas inquietudes. Construyó, para no mencionar sino algunos de sus numerosos méritos, el higroscopio de barba de avena, instrumento para determinar la humedad atmosférica. Hizo observaciones con el microscopio compuesto, cuyo verdadero inventor es desconocido: unos lo atribuyen a Galileo, otros al óptico holandés Zacarías Jansen, el mismo que comparte la gloria de su compatriota Lippershey, constructor del primer telescopio.
Hooke, descontento con sus auténticos méritos, aunque fueran considerables, tuvo la manía de adjudicarse casi todos los descubrimientos importantes de sus contemporáneos, y vivió en continua lucha con los sabios de Inglaterra y otros países.
Durante varios años fue ayudante de Boyle, quien profundizó los descubrimientos de Torricelli y Guericke sobre la compresibilidad del aire.
Roberto Boyle (1627-1691), fecundo en ideas novedosas como físico y como químico, quitó definitivamente los caducos soportes de la doctrina aristotélica de los cuatro elementos, definió con claridad la básica noción del elemento químico y aclaró los conceptos no menos fundamentales de mezcla y combinación. ¿No es una curiosa contradicción que el sagaz pensador, temible adversario de los alquimistas, creyera en los demonios y malos espíritus?

09.jpg
Roberto Boyle

Con el barómetro colocado en el recipiente de su máquina neumática, Boyle mostró que la presión del aire disminuía con cada golpe de pistón, observó que el agua tibia bullía en el aire rarificado y que el hielo se evaporaba sin licuarse. Sus experimentos le probaron que las atracciones magnéticas y eléctricas siguen ejerciéndose dentro del recipiente de su máquina y que el calor engendrado por reacciones químicas se produce tanto en el vacío como en el aire. Otra serie de experimentos le mostró que los objetos negros expuestos a los rayos del Sol se calientan más rápidamente que los blancos, y que es más difícil inflamar con un espejo cóncavo el papel blanco que el negro. Por interesantes que sean estas observaciones, el mérito capital del físico Boyle es el descubrimiento de la ley que lleva su nombre.
Boyle preparó un tubo en forma de U, con una rama larga y abierta y la otra corta y cerrada. Al verter mercurio por el orificio, el aire fue empujado hacia la rama corta; en tanto que el nivel del mercurio era el mismo en ambas ramas, el aire se encontró bajo la presión atmosférica. Al agregar mercurio, la presión aumentó y el volumen del aire encerrado en la rama corta se redujo. Boyle encontró que duplicando la presión, el volumen del aire decrecía a la mitad; una presión triple no le dejaba más que un tercio de su volumen original. La experiencia podía ser invertida, y confirmó a Boyle la certeza de su descubrimiento: la presión (P) es inversamente proporcional al volumen (V) ocupado por el aire —en general por un gas perfecto— en iguales condiciones de temperatura. Por lo tanto, el producto de la presión por el volumen

PV = constante.

Boyle supo que su ley sólo era aproximadamente valedera; mas, tal como fue, esta trascendental ley prestó más tarde su base a la teoría cinética de los gases y permitió a la física asentar su cartabón en un invisible universo: el de las moléculas.
Boyle hizo conocer su famoso experimento el 11 de septiembre de 1661, en una sesión de la Sociedad Real, en Londres. Quince años más tarde, el clérigo francés Edmé Mariotte (1620-1684), a la vez físico y fisiólogo, enunció en su Discurso sobre la naturaleza del aire la misma ley. Es imposible establecer si llegó a ella independientemente de las investigaciones de su predecesor, pero es seguro que supo formularla más claramente que Boyle y contribuyó a difundirla fuera de Inglaterra. Fue el primero que aplicó la ley a la solución de mi importante problema: determinar la disminución, en alturas crecientes, de la presión atmosférica. El peso específico del aire decrece progresivamente hacia lo alto. Como el cálculo diferencial aún no había sido hallado, Mariotte divide la atmósfera en 4.032 capas horizontales, calcula la altura de cada una y obtiene por suma la altura correspondiente a cualquier presión dada. El agudo clérigo dio también la primera explicación correcta de cómo las gotas de lluvia se forman en las nubes, de los vapores que ascienden de los océanos y de los continentes.

Capítulo 6
Huygens

Su vida; Problemas del péndulo real; El centro de oscilación; Conservación de la energía mecánica; Achatamiento del globo; La ley de la fuerza centrífuga; Choque de cuerpos elásticos; La fuerza viva; ¿Trabaja la naturaleza según la unidad del tiempo, o según la del espacio; Descartes contra Leibniz; Erasmo Bartholin: La doble refracción de la luz; Römer: La velocidad de la luz; La teoría ondulatoria de Huygens

Por importante que sea la obra de los académicos florentinos y de otros discípulos italianos de Galileo, no fue en la patria del gran toscano donde surgió después de la muerte de éste un genio que le fuera comparable, sino en Holanda, país que ha dado a la física tantos investigadores de alto vuelo.
Cristián Huygens, el «Arquímedes neerlandés», recibió del destino no sólo excepcionales dotes de espíritu, sino una fortuna considerable que le permitió dedicar su vida entera a la ciencia. Hijo de un destacado estadista y poeta, nació en La Haya el 14 de abril de 1629 y dio ya de niño incontestables pruebas de un genio precoz, frecuente entre los grandes matemáticos.
En un opúsculo juvenil, su primera publicación, demostró el error cometido por Gregorio de San Vicenzo en su pretendida cuadratura del círculo, error que los más distinguidos geómetras de la época fueron incapaces de descubrir. Largos viajes por Alemania, Francia e Inglaterra le permitieron ampliar sus horizontes y profundizar sus conocimientos. A los veintiocho años creó el cálculo de probabilidades y lo expuso en su escrito Razonamientos sobre el juego de dados ; un año más tarde construyó el reloj de péndulo, uno de sus imperecederos méritos. Hazañas astronómicas corroboran su creciente fama: descubre los anillos de Saturno y el primero de los satélites del lejano planeta; observa las bandas horizontales sobre la superficie de Júpiter; reconoce que Marte gira aproximadamente en veinticuatro horas alrededor de su eje, y percibe las manchas polares de este planeta; encuentra la nebulosa gaseosa en la constelación de Orion; mejora el telescopio al introducir el micrómetro para medir pequeñas distancias angulares. Todos estos éxitos los alcanza antes de los treinta años.
Colbert, ministro de Luis XIV, lo invita a fijar su residencia en París, donde es elegido miembro de la nueva Academia e integra, con el italiano Cassini y el dinamarqués Römer, el personal del Observatorio que acaba de ser fundado. Los quince años pasados en Francia (1666-1681) representan el período más fructífero de su vida: sus espléndidas investigaciones sobre la dinámica y la óptica, en parte ya bosquejadas en Holanda, maduran y adquieren en el ambiente científico de la capital del Rey Sol su forma definitiva.
Los signos cada vez más visibles de la intolerancia frente a los protestantes lo obligan, antes de la revocación del Edicto de Nantes, a volver a Holanda. Como sus dos grandes contemporáneos y amigos, Newton y Leibniz, Huygens permaneció también soltero. Murió en La Haya a la edad de sesenta y seis años, poco después de haberse oscurecido su poderoso espíritu.
La principal obra de Huygens, Horologium oscillatorium (1673), es una magistral síntesis de sus investigaciones mecánicas y contiene además una serie de teoremas geométricos sobre la rectificación de las curvas, la teoría de las evolutas. La descripción del reloj de péndulo no ocupa más que el primero y el último capítulo. Huygens tomó la corona y el cono de los relojes existentes y les aplicó el péndulo de modo que por una parte dirija la marcha del reloj y por otra reciba del cono el impulso necesario para su propio movimiento.
Si bien varios predecesores del gran holandés habían ya ensayado con mayor o menor éxito reunir péndulo y reloj, Huygens fue el primero en dar una teoría exacta del péndulo físico.
Las investigaciones de Galileo consideraron sólo el péndulo ideal, matemático, sin masa apreciable; el gran toscano estableció el isocronismo de las oscilaciones y comprobó que su período en dos péndulos es proporcional a las raíces cuadradas de las longitudes de los mismos.
Sin embargo, sólo fue Huygens quien se planteó el problema mucho más complicado del péndulo real, físico. La dinámica de Galileo se aplicaba a mi cuerpo único; la dinámica de varios cuerpos, que actúan los unos sobre los otros, sólo comienza con los trabajos del gran holandés.
Un cuerpo sólido, pesado, suspendido por un eje, que no pasa por su centro de gravedad, forma un péndulo físico, compuesto por infinidad de partículas, cada una de las cuales puede ser considerada como si fuera un péndulo matemático. Cada una de las partículas, si estuviera sola, tendría una duración de oscilación propia; como las partículas están reunidas entre ellas y el cuerpo se mueve como un todo, la duración de las oscilaciones tendrá un valor único, común a todas las partículas.
Consideremos dos partículas: una, cerca del eje, representa un péndulo corto; la otra, lejos del eje, constituye un péndulo largo. En tanto que están aisladas, la primera oscilará rápidamente y la segunda con lentitud; reunidas en una sola, el péndulo rápido estará atrasado, el lento acelerado y el período de oscilación resultante de su unión será intermediario entre los dos valores.
Entre los péndulos matemáticos cuyo conjunto forma el péndulo físico, habrá, pues, uno —de longitud intermediaria entre los más cortos y los más largos— cuyo período de oscilación será igual al del péndulo físico; la longitud de este péndulo sencillo se llama la longitud reducida del péndulo físico.
Llevando esta longitud sobre el péndulo compuesto, se encontrará un punto que oscila como si estuviera solo, libre de todo vínculo. Este punto es el centro de oscilación.
Si se conoce el centro de oscilación de un péndulo físico dado, éste podrá ser tratado como un péndulo matemático.
A fin de localizar el centro de oscilación, Huygens parte de dos principios:
  1. Cualesquiera sean las acciones recíprocas de las partículas del péndulo—sea que conserven su unión, sea que la pierdan—, el centro de gravedad del péndulo no podrá jamás alcanzar mayor altura que aquella de dolido descendió.
  2. El centro de gravedad describe arcos iguales durante su ascenso y descenso. A estos dos principios añade Huygens el hecho de que la altura a la cual un punto determinado del péndulo asciende por encima de su nivel más bajo es proporcional al cuadrado de la velocidad que adquiriría al caer a ese nivel.
Por otra parte, la velocidad de una partícula dada del péndulo es proporcional a la distancia que la separa del eje de suspensión. Llevado por tales razonamientos, Huygens deduce que la distancia (l) entre el centro de oscilación y el punto de suspensión:

eq09.png

es el cociente de dos magnitudes que hoy llamamos momento de inercia del péndulo y momento estático de su masa. Reconoce que el punto de suspensión y el centro de oscilación son intercambiables: su reversión no altera el período de oscilación pendular.
La importancia de los principios indicados que Huygens introduce en sus razonamientos para determinar el centro de oscilación, es aún más trascendental que el resultado mismo. En efecto, estos principios equivalen a afirmar que la energía mecánica se conserva: una ley de máximo alcance —aunque aplicada a un caso especial— surge aquí por primera vez en la historia del pensamiento físico. No es menos significativa la introducción de la cantidad Σmr2, suma del producto de las masas de las partículas y de los cuadrados de sus respectivas distancias del punto de suspensión: cantidad que proporciona la clave para el cálculo de todo movimiento rotatorio, llamada por Euler momento de inercia.
En posesión de la fórmula que permite calcular el centro de oscilación, el problema del péndulo físico es reconducido al del péndulo matemático, y Huygens procura hallar la expresión exacta del período de oscilación de esto. En el caso de un péndulo circular, las oscilaciones sólo son isócronas para pequeñas amplitudes. Sin embargo, si el arco de círculo no se presta a un verdadero isocronismo, independiente de las amplitudes de oscilación, ¿no existe otra curva que corresponda a esta exigencia? Huygens encuentra la curva: es una cicloide. Con el vértice dirigido hacia abajo es tautócrona: cualquiera sea el punto de la curva del que una partícula pesada cae, siempre llegará en el mismo intervalo de tiempo al punto más bajo de su trayectoria; por lo tanto, un péndulo ideal debería ser tal, que su disco describiera cicloides. Para tal péndulo, la relación entre el período de oscilación y el tiempo de la caída libre de una altura equivalente a la mitad de la longitud del péndulo, es igual a la existente entre la circunferencia y el diámetro. Esta relación permite a Huygens llegar inmediatamente a la fórmula buscada. El período de oscilación ( t) del péndulo matemático será:

eq10.png

donde l es la longitud del péndulo, y g la aceleración de la gravedad.
La fórmula permite calcular para un punto dado del globo el valor de g. Si éste fuese constante en toda la superficie de la Tierra, también debería serlo la longitud de un péndulo que bate el segundo. Justamente, fue lo que Huygens supuso, y causó gran sensación cuando el investigador francés Juan Richer (1671), al efectuar mediciones geodésicas en Cayena, advirtió que su reloj, reglado en París, atrasaba cada día varios minutos; debió acortar la varilla del péndulo en Cayena y alargarla al llegar a Francia. La opinión de Richer, de que la causa del fenómeno habría que buscarla en la figura de la Tierra achatada en sus polos, fue compartida por Huygens. El gran holandés reveló también el motivo del achatamiento del globo, demostró con experimentos que la fuerza centrífuga transforma la esfera en un elipsoide de revolución, con tal de que la materia sea poco resistente y la rotación bastante rápida. En el ecuador, según el cálculo de Huygens, la aceleración centrífuga es la 1/289 parte de la aceleración debida a la pesantez..
Cuatro años antes de la publicación de su gran obra, Huygens comunicaba, por una carta a la Sociedad Real de Londres, dos anagramas que contenían el núcleo de su teorema sobre la fuerza centrifuga.
Fieles a una costumbre que hoy nos parece extraña, los sabios del siglo XVII gustaron esconder sus descubrimientos detrás de las letras de abracadabrantes rompecabezas. Esto es el más significativo de los dos anagramas:

abcdefghilmnopqrstux
30607100513232063441
90135120615200240650

Cada línea de cifras representa una línea en el enunciado latino del teorema, y cada cifra indica el número de veces que la letra colocada sobre la cifra debe repetirse en la línea.
En su Horologium oscillatorium revela Huygens, por último, la significación de su enigmático mensaje. Aunque el latín neerlandés no sea ciceroniano, tiene el mérito de permitir el cálculo de la fuerza centrífuga:
«Si mobile in circumferentia circuli foratur ea celeritate, quam adquirit cadendo ex altitudine, quae sit quartae parti diametri aequalis; habebit vim centrifugam suae gravitati aequalem; hoc est, eadem vi funem quo in centro detinetur intendet, atque cum ex eo suspensum est.»
En castellano:
Si un móvil recorre la circunferencia de un círculo con la misma velocidad que adquiriría al caer de una altura igual al cuarto del diámetro, su fuerza centrífuga sería igual a su peso, es decir, estirará el hilo que lo detiene con la misma fuerza que si estuviera suspendido de él.
Traduzcamos esta proposición a nuestro idioma actual: Sea f la fuerza centrífuga que actúa sobre la partícula m, la cual gira sobre una circunferencia con radio r, y sea, como Huygens lo exige,f = mg ; según las leyes de la caída libre v 2 = 2 gs ; entonces, si la altura de la caída (s) es igual a la mitad del radio del círculo, tendremos v 2 = 2 g r/2, de donde se sigue que f = mv 2/r, que es precisamente la fórmula fundamental de la fuerza centrífuga.

10.jpg
Cristian Huygens

En el mismo año de 1669, en que Huygens envió sus anagramas sobre la fuerza centrífuga a los investigadores de la Sociedad Real, encontró la clave de un problema —el choque de cuerpos elásticos— que lo había atraído vivamente por más de una década. Galileo y su contemporáneo el médico austríaco Marco Marci, profesor en Praga, buscaron la ley del fenómeno, y un rival del gran holandés, el arquitecto inglés Cristóbal Wron, le prodigó los recursos de su sagacidad.
Marci verificó con experimentos que un cuerpo elástico, al chocar con otro idéntico en reposo, pierde su movimiento y lo comunica al segundo; Galileo agregó quo un cuerpo en reposo es puesto en movimiento por otro más pequeño, quo acaba de chocar con él. Huygens muestra que el acercamiento antes del choque y el alejamiento después del mismo se producen con igual velocidad relativa. Establece como ley axiomática que en el choque de cuerpos los productos de sus masas por los cuadrados de las velocidades permanecen invariables. Su notable resultado significa, pues, el enunciado de la conservación de Σmv 2. En su genial análisis del movimiento pendular, Huygens tropezó, como hemos dicho, con la misma idea que esconde el primer núcleo de la futura ley sobre la conservación de la energía.
En este punto, el camino cognoscitivo de Huygens se cruza con el de otros dos ilustres pensadores: Renato Descartes y Godofredo Guillermo Leibniz (1646-1716). El filósofo francés admitía que el producto de la masa por la velocidad mv —la cantidad del movimiento o impulso— poseería, el privilegio de permanecer invariable a través de todas las transformaciones mecánicas. Su fértil imaginación atribuye a esta pretendida constancia un profundo sentido metafísico, y ve en ella una prueba especial de la divina sabiduría:
«Conocemos —escribe en sus Principios de la filosofía— que es una perfección de Dios no sólo el ser inmutable en su naturaleza, sino el actuar de un modo que no cambia jamás... Él ha movido distintamente las partes de la materia cuando las ha creado y las mantiene a todas con la misma ley que les impuso en el momento de su creación. Él conserva incesantemente en la materia igual cantidad de movimiento.»
Descartes reclamaba la constancia del impulso, puesto que vio en el producto mv una medida de la fuerza.
Leibniz protesta contra este razonamiento y observa que en las máquinas en equilibrio las cargas están en razón inversa a la velocidad de los desplazamientos; este hecho podría engendrar la idea de que el producto de la masa por la velocidad mediría la fuerza. En realidad —sostiene Leibniz—, es el producto de la masa por el cuadrado de la velocidad, mv2 —la fuerza viva—, el que mide la «capacidad de acción» de un móvil, y es la suma de las fuerzas vivas, Σmv2y la que permanece —asegura— invariable en todas las transformaciones mecánicas del universo.
Juan Bernoulli (1667-1748) generaliza aún más el principio, afirmando la constancia de 2mv2 en todas las transformaciones de la naturaleza, sean mecánicas u otras. A pesar de la victoria de Leibniz sobre Descartes en el problema de aquel algo que se conserva en las metamorfosis mecánicas, su discusión sobre « la verdadera medida de la fuerza» era —lo sabemos desde D’Alembert— batallar con molinos de viento.
La famosa disputa giraba, sin que ninguno de ellos se diera clara cuenta de ello, en torno a la alternativa de si la fuerza —o, más correctamente, la capacidad de acción de un móvil— ha de medirse por el tiempo empleado ( ft ) o por el camino recorrido (fs); con otras palabras: si la naturaleza trabaja a tanto por unidad de tiempo, como quiso Descartes, o a tanto por unidad de espacio, como sostuvo Leibniz.
Las dos proposiciones se equivalen, a pesar de tener distintos sentidos. Al multiplicar la fuerza por el tiempo, obtendremos el impulso cartesiano, ft = mv ; multiplicando la fuerza por el espacio, llegamos a la igualdad fs = ½mv 2, fórmula que equivale a la mitad de la fuerza viva leibniziana y representa la energía cinética.
El año de 1669, que vio nacer dos teoremas fundamentales de Huygens —el de la fuerza centrífuga y el de la fuerza viva—, fue marcado por un importante descubrimiento que después hubo de adquirir una influencia decisiva sobre las ideas de éste en el dominio de la óptica.
El médico dinamarqués Erasmo Bartholin (1625-1698) acababa de publicar sus sorprendentes investigaciones sobre el espato calizo de Islandia, cristal romboédrico, que le permitió describir el fenómeno inesperado de la doble refracción. Observó que el rayo luminoso al penetrar en el cristal se divide en dos: uno, el rayo ordinario, sigue la ley de la refracción; el otro, el extraordinario, está exento de ello.
Bartholin sospecha que la constitución molecular podría ser la causa del fenómeno, pero es incapaz de explicarlo. Otro descubrimiento de mayor alcance todavía logra su discípulo el astrónomo dinamarqués Olaf Römer (1644-1710), que llega, gracias a los eclipses de los satélites jovianos, a determinar la velocidad de la luz.
Las lunas de Júpiter forman un verdadero cronómetro celeste. Durante el recorrido de sus trayectorias en torno al planeta, los satélites se sumergen a intervalos regulares en la sombra proyectada por el mismo, midiendo así el tiempo.
Domingo Cassini y Römer observaron ciertas irregularidades en los tiempos de las inmersiones y emersiones del primer satélite. Cuando la Tierra se alojó en su órbita del sistema joviano, el reloj estaba retrasado; cuando la Tierra se acercó, el reloj se adelantaba. Las diferencias de tiempo así comprobadas, las atribuyó Römer a las diferencias de los caminos que la luz debe recorrer para llegar a la Tierra, y dedujo de ello, en 1676, el valor aproximado de la velocidad de la luz.
El resultado por él encontrado es inferior al valor real, mas su razonamiento es correcto y de diáfana claridad: el eclipse del satélite joviano se produce, si el planeta se encuentra en conjunción con el Sol, n segundos después del momento que fue registrado para su eclipse en la oposición con el Sol. Puesto que la distancia de Júpiter a la Tierra es en la conjunción un diámetro de órbita terrestre mayor que en la oposición, resulta que la velocidad de la luz debe ser igual al cociente del diámetro orbital por n segundos.
Los descubrimientos de Bartholin y Römer sirvieron a Huygens para reunir sus propias ideas sobre la naturaleza y el modo de propagación de la luz, en la teoría expuesta primero en una conferencia dada en París en 1678 y después publicada en Holanda en 1690, en su libroTraité de la lumière, que forma la base histórica de la teoría ondulatoria.
Semejante al sonido, afirma Huygens, la luz también es un movimiento vibratorio; en tanto que las ondas sonoras se propagan en el aire, el lugar de las ondas luminosas es el éter, materia extremadamente sutil y de perfecta elasticidad que impregna a todos los objetos y llena también al vacío.
Cada foco luminoso es una fuente de ondas, que las comunica al éter circundante de manera similar a la que una bola de billar transmite su impulso a otra. Cada punto del éter alcanzado por una onda vuélvese centro de nuevas ondas, cuyas interacciones recíprocas determinan la propagación global.
La sagaz idea de que la luz sería una perturbación del éter que se extiende y progresa en el espacio surge por primera vez. Huygens explica la reflexión y refracción con su teoría. En los medios densos la luz se propaga, dada su mayor resistencia, más lentamente que en los medios rarificados: principio idéntico al de Fermat y que permite a Huygens deducir la ley de la refracción.
Logra admirablemente dar cuenta del enigma de la doble refracción en el espato de Islandia: la estructura del cristal condiciona la división del rayo en dos. La onda del rayo ordinario es esférica, la del rayo extraordinario es un elipsoide de revolución. El eje menor del elipsoide de revolución —admite Huygens— es paralelo al eje óptico del cristal; a lo largo de este eje la velocidad de propagación es para ambos rayos la misma.
En las demás direcciones la velocidad de las ondas del rayo extraordinario es superior, y crece con el ángulo formado por su dirección y el eje. El radio de la onda esférica está en relación de 8 a 9 con el eje mayor de la onda elipsoidal.
Por supuesto, el poder aclaratorio de la teoría tiene sus límites. Para la propagación rectilínea de la luz, Huygens no encuentra una explicación satisfactoria y, sobre todo, los fenómenos de polarización presentados por un rayo que atraviesa dos cristales de Islandia con secciones principales paralelas o cruzadas, quedan para la teoría por completo enigmáticos. Se comprende el motivo de la deficiencia: las ondas luminosas de Huygens son, como las del sonido, longitudinales. Hasta los comienzos del siglo XIX hay que esperar, para ver, con Fresnel, reemplazadas las ondas huygenianas por ondas transversales.
Huygens, brillante teórico, fue a la vez un técnico de genio. El reloj de péndulo no es más que una de las numerosas pruebas de su arte como mecánico: mejoró los relojes de bolsillo con la introducción de un muelle en espiral para regular la marcha, inventó una máquina de pólvora, precursora de los modernos motores de explosión. Como medio de propulsión sirvióse de la pólvora para cañones, cuyos gases —en el cilindro de su máquina— levantaban el pistón, que descendía después bajo la acción de la presión atmosférica. Dionisio Papin, discípulo y colaborador de Huygens, reemplazó los gases de la pólvora por el vapor de agua (1690) e introdujo en el dispositivo una válvula de seguridad (1705), creando así el primer modelo de la máquina de vapor.
Pensador profundo, Huygens reconoció la trascendental preponderancia que la mecánica, fundada por Galileo y por él, adquirirá en la interpretación del mundo físico.
«En la filosofía verdadera —escribió—, las causas de todos los fenómenos naturales se conciben en términos mecánicos. Si no deseamos abandonar la esperanza de comprender los fenómenos, debemos adoptar este principio.»
Palabras proféticas, destinadas a permanecer durante doscientos años —hasta linos del siglo XIX— como el credo mismo de la investigación científica.

Capítulo 7
Newton

Llevado por gigantes.; Su maestro: Barrow.; El gran año de 1666.; El cálculo infinitesimal.; Conducido por Kepler.; La ley gravitacional y la Luna.; Estupenda fecundidad de la ley.; El tímido león.; Su amigo Halley.; Los Principia.; Definiciones y leyes básicas de la mecánica.; Concepto de la masa.; La acción a distancia.; Hipótesis newtonianas.; Descomposición de la luz blanca.; Colores del espectro.; Los anillos de Newton.; Newton, iniciador de la interpretación ondulatoria de los colores.; ¿Por qué se adhirió Newton a la teoría corpuscular?; Apoteosis, vejez y muerte.

«El porvenir —escribe Galileo en su última obra— conducirá a una ciencia más amplia y mejor, de la cual nuestra labor no es sino el comienzo; espíritus más profundos que el mío explorarán los más ocultos rincones de esa ciencia.» Esta previsión del gran toscano fue cumplida por Newton. Acabó la construcción del majestuoso templo de la mecánica clásica; lo acabó en tal forma, que desde él hasta el umbral de los tiempos presentes, ningún principio verdaderamente nuevo surgió. Dos siglos no hicieron en este dominio sino completar el desarrollo formal y matemático de la doctrina newtoniana, que hasta la primera década del siglo XX parecía destinada a la eternidad. Nec fas est proprius mortali attingere divos (No está dado a ningún mortal el aproximarse más a los dioses), reza el homenaje de sus contemporáneos[20]; Genus immanum ingenio superávit (Por el poder de su espíritu sobrepasó al género humano), le elogia el reconocimiento de la posteridad [21]. Sin embargo, él mismo declaró:
«Si pude ver más lejos, es porque gigantes me elevaron sobre sus espaldas.»
Estos gigantes se llamaron Galileo, Kepler y Huygens.
Isaac Newton, hijo de un granjero, nació un año después de la muerte de Galileo, y cien años más tarde de la de Copérnico, el día de Navidad de 1642 (según el calendario juliano), en Woolsthorpe, condado de Lincoln. Fallecido el padre antes de nacer el hijo, la madre se volvió a casar bien pronto y el niño fue confiado a los tres años de edad a los cuidados de la abuela. En oposición a Huygens, Leibniz y Gauss, el futuro coloso no fue un niño prodigio. Durante sus primeros años, es verdad, se destacó por su habilidad mecánica al construir relojes solares y molinos de viento. Pero ni en la escuela de la aldea ni en la Grammar-School de Grantham reveló su genio. Ingresó en 1661 en el Trinity College de Cambridge, donde pronto descubrió su vocación. Tuvo la suerte de encontrar en el profesor de matemáticas doctor Isaac Barrow un maestro que supo formar al alumno sin igual. Las lecciones de este eminente matemático sobre ciertos conceptos geométricos que hoy están en la base misma del cálculo diferencial e integral, indicaron el camino que conduciría a Newton, en pocos años, a su mayor hazaña en las matemáticas. Barrow, sabio de alto valor, poseía también preciosas calidades humanas; se inclinó ante la superioridad de su discípulo y se contentó con ser la estrella matutina que se esfuma ante el Sol naciente. A la edad de treinta y nueve años, Barrow renunció a su cargo para cederlo al joven Newton (1669), que ocupó la cátedra durante un cuarto de siglo. Barrow, después de haber dejado el College, se dedicó exclusivamente a la teología. Cosa curiosa: el maestro modelo transmitió al inmortal discípulo su pasión por los problemas de la filosofía religiosa. Newton consagró muchos años de su edad madura a ejercitar su sagacidad en la exégesis de las profecías de Daniel y del Apocalipsis de San Juan.
Antes de inaugurar sus lecciones sobre óptica en el Trinity College, una epidemia —la peste bubónica— que azotó a Inglaterra de 1665 a 1667, obligó a Newton a abandonar Cambridge, puesto que la Universidad había cerrado sus puertas, y buscar refugio en la casa paterna de Woolsthorpe. En este tranquilo retiro fue donde Newton encontró las ideas directrices de tres descubrimientos, cada uno de los cuales por sí solo le habría asegurado duradera fama: inventó el cálculo infinitesimal, descubrió la ley de la gravitación universal y probó experimentalmente la naturaleza compuesta de la luz blanca. Estas tres hazañas las realizó antes de los veinticinco años.
Una apreciación del primero de sus descubrimientos —por decisiva que sea junto a sus alcances en las matemáticas, su importancia como instrumento de investigación científica—, está fuera de la historia de la física. Sólo señalaremos que Newton creó su cálculo infinitesimal, su método de fluxiones, antes que su ilustre rival Leibniz e independientemente del agudo pensador alemán. El punto de partida, el camino seguido y la finalidad buscada son muy distintos en el proceder de los dos inventores. Newton considera su cálculo de fluentes y fluxiones como un precioso instrumento para sus búsquedas foronómicas y dinámicas; vio en su método un arte individual, hasta secreto, que se abstiene de emplear en sus Principia para exponer resultados obtenidos, sin embargo, con la ayuda de su procedimiento fluxional. Por el contrario, el cálculo infinitesimal es para Leibniz no sólo un medio, sino también un fin: trata de crear un método general con un claro y transparente algoritmo. Deplorable es que estos dos titanes del pensamiento hayan amargado las décadas de su vejez con una apasionada discusión sobre la prioridad de sus ideas. Más, cualquiera que sea el mérito de Newton, no fue él, sino Leibniz quien, en el transcurso de los siglos, ganó la batalla: es su método, son sus símbolos los que se mantuvieron y forman ahora la base del cálculo infinitesimal.
El segundo gran descubrimiento que el joven Newton logró en el tranquilo retiro de Woolsthorpe es de mayores alcances que su hallazgo matemático: la ley que funde la mecánica terrestre y celeste en una indivisible unidad, la ley de la gravitación universal.
Ingrata tarea es tratar de destruir una ingeniosa leyenda. A pesar de ello, es menester decir que la famosa fábula de la manzana, inventada por Enrique Pemberton, amigo de Newton, acicalada y difundida por el espiritual Voltaire y confirmada por otro amigo de Newton, el arqueólogo Guillermo Stuckeley, no corresponde a la realidad. No era menester que una manzana al caer recordase a Newton la fundamental identidad de la fuerza que actúa en la caída de los graves y en el movimiento de los planetas; esta identidad había sido tiempo ha claramente reconocida y atrajo vivamente a varios pensadores de la época. Fermat y Borelli sospecharon antes que Newton que una atracción recíproca, común a los cuerpos celestes y terrestres, dirigía los movimientos planetarios, y el astrónomo francés Ismael Bulialdo, en su Astronomía philolaica (1645), indicó —más de dos décadas antes que Newton— que la fuerza actora entre el Sol y los planetas tenía que ser inversamente proporcional a los cuadrados de sus distancias. Por último, Roberto Hooke, el eterno querellante, había bosquejado pensamientos similares. Estas ideas fueron más o menos vagas y, sobre todo, sin demostración alguna. Ninguno de los investigadores soñó someter su hipótesis a la prueba del cálculo y todos estaban igualmente lejos de intuir que la ley de la gravitación podría convertirse en la clave misma de la dinámica celeste y terrestre.
Los verdaderos precursores de Newton han sido Galileo, Huygens y sobre todo Kepler. El principio de inercia entrevisto por Galileo y generalizado por Huygens revela en el movimiento de los cuerpos celestes la presencia de una continua aceleración desviadora, y las leyes empíricas de Kepler se explican inmediatamente por las características de la fuerza determinante de esta aceleración. En efecto: de la primera ley —de la forma elíptica de las órbitas — se sigue que la fuerza atractiva varía en razón inversa al cuadrado de la distancia entre Sol y planeta o entre Tierra y Luna. La segunda ley —la de áreas constantes— sugiere que la aceleración está dirigida hacia un foco de la trayectoria elíptica, y la tercera ley permite admitir que la fuerza atractiva entre Sol y planeta es proporcional a la masa de este último, siendo la constante de proporcionalidad igual para todos los planetas. Al admitir, por último, que la atracción es proporcional también a la masa solar, todas estas conclusiones se sintetizan en la famosa fórmula:

eq11.png

donde G es una constante numérica que depende de las unidades empleadas para medir masas y distancias.
El camino deductivo permite reencontrar las características métricas de la gravitación, pero nada revelaría de su naturaleza si Newton no identificara la aceleración conferida a los satélites por el cuerpo central con la aceleración comunicada a los objetos terrestres por la pesantez. Prueba la realidad de la concordancia con el ejemplo de la Luna.
La misma aceleración que rige la caída de piedras prohíbe a los satélites alejarse en línea recta de la Tierra, en tanto que su velocidad tangencial le impide caer sobre el globo. Por estar la Luna a una distancia de 60 radios terrestres y por ser la longitud del radio del globo aproximadamente 4.000 millas inglesas, Newton deduce que la Luna cae en línea recta hacia la Tierra con una aceleración de 0,0088 pies por segundo2 (0,00268 m/seg2). Admite como cierta su ley y concluye que la aceleración sobre la superficie de la Tierra tendría que ser de 60 2 = 3600 veces mayor que la aceleración del movimiento lunar, o sea 32 pies (9,74 m) por segundo2, resultado que se encuentra en pleno acuerdo con la experiencia.
Hay que admirar lo osado del pensamiento newtoniano, el sorprendente vuelo de su imaginación científica, que una vez adquirida esta prueba asciende a una suprema generalización, a la hipótesis de que
la fuerza atractiva descrita por su fórmula actúa entre dos puntos masivos , cualesquiera que sean, dondequiera que estén en el espacio cósmico.
Por primera vez sucede en la historia de la ciencia que una ley numérica se muestra valedera tanto para los acontecimientos terrestres como para los fenómenos celestes. El universo adquiere con la ley de Newton una racionalidad autónoma, sin relación alguna con el orden espiritual, o a cualquier otro motivo que no sea él mismo. Desde entonces las cosmologías de los griegos, la de Platón y Aristóteles, como la de los teólogos, de San Agustín y sus sucesores, se vuelven sombras irreales. Newton, espíritu profundamente religioso, no era consciente del aspecto revolucionario de su descubrimiento, que tan sólo aparece claramente con los mecanicistas franceses del siglo XVIII, Lagrange y Laplace, quienes hacen de la ley newtoniana el eje de su imagen del mundo, concebido como una inmensa máquina cíclica, ajena a la intervención de la Providencia y realizadora de movimientos perfectamente determinados en cada punto del espacio y en cada instante del tiempo.
En posesión de la ley, Newton demuestra sus admirables alcances y su estupenda fecundidad. De la atracción que ejercen sobre sus satélites, deduce las masas de la Tierra, de Júpiter y de Saturno; de la masa de los planetas remóntase a la del Sol; determina los pesos específicos de las sustancias que forman a los planetas y al Sol: hazañas con que ni siquiera soñaran sus predecesores. El enigma de las mareas, cuya relación con el movimiento lunar tantos investigadores, incluso Kepler, intentaron en vano interpretar, se encuentra de un golpe resuelto gracias a la aceleración comunicada por el satélite y el Sol a las masas móviles de los mares terrestres. Otro enigma, casi dos veces milenario, la precesión de los equinoccios, recibe por fin su explicación por la atracción lunisolar sobre el abultamiento del globo en su zona ecuatorial. Como seductora ilustración del tremendo poder aclaratorio de su ley, Newton demuestra que un cuerpo celeste sometido a la gravitación puede describir no sólo una elipse, sino también otras curvas cónicas, hipérbolas o parábolas, de modo que los cometas —hasta entonces cuerpos por completo misteriosos— obedecen, no menos que los planetas, a la ley omnipresente, que elucida también las perturbaciones que sufren las trayectorias de los planetas por la atracción mutua de sus masas. En suma, el gran inglés aporta la prueba de que los intrincados movimientos de todo el sistema solar pueden ser deducidos de una simple ley, que abarca en una fórmula fenómenos tan dispares como son la retrogradación de los nodos de la Luna y la desviación de una plomada de su vertical en la proximidad de una montaña. Todos estos detalles, como muchos otros, reunidos en una grandiosa demostración, los expone Newton en su Sistema del mundo matemáticamente tratado, que forma el tercer libro de los Principia.
Entre el descubrimiento de la ley de la gravitación universal y su publicación median dos décadas. ¿Por qué Newton dejó transcurrir veinte años antes de proclamar el más importante de sus hallazgos? No faltan suposiciones para explicar el extraordinario atraso. Una es la de que un error inicial, cometido en el cálculo, a causa del valor inexacto del radio terrestre, habría decidido a Newton a abandonar por varios años el estudio de este problema. Aunque esta leyenda esté muy difundida, no es probable que corresponda a los hechos, puesto que varias determinaciones bastante exactas del radio terrestre —como las de Snellius y de Gunter— estaban en 1666 a disposición de Newton. Otra versión pretende que los ataques del insoportable Hooke, que reclamaba los más hermosos experimentos ópticos de Newton como suyos, habrían descorazonado al ultrasensible y tímido león. Sin duda, la aversión de Newton a exponerse a controversias públicas es incontestable; difícilmente soportaba que se le contradijera. A pesar de ello, es probable que la tardía publicación de su obra maestra tenga otros motivos y más naturales: las dificultades para solucionar ciertos problemas del cálculo integral, indispensables a la formulación definitiva de la ley, lo detuvieron en su camino. Para dar cuenta del movimiento de una piedra en caída o de la Luna en su trayectoria es necesario evaluar la atracción total de una esfera homogénea sobre una partícula material situada fuera de ella; cada una de las partículas de la esfera atraerá a la partícula masiva con una fuerza que variará —según las masas presentes y sus respectivas distancias— de una partícula a otra. ¿Cómo sumar para llegar a la atracción total, las acciones separadas, cuyo número es infinito? Después de varios años de labor, el problema fue resuelto, gracias al magnífico descubrimiento de Newton de que la atracción de la esfera actúa como si toda su masa estuviera concentrada en el centro. Sólo la posesión de este teorema le permitió extender su ley establecida para masas puntiformes e irreales, a masas con volúmenes determinados, a los cuerpos reales del universo.
El astrónomo Edmundo Halley (1656-1742), cuyo nombre nos es periódicamente recordado por un famoso cometa, tiene el mérito de haber decidido (1685) a Newton a comunicar su descubrimiento a la Sociedad Real, y a reunir sus investigaciones mecánicas en un cuerpo de doctrina. Como la Sociedad Real de Londres no podía costear los elevados gastos de publicación de la monumental obra Philosophiae naturalis principia mathematica, cuya aparición en el verano de 1687 hizo de ese año una fecha para siempre memorable en la historia de las ciencias, dichos gastos fueron sufragados por Halley, amigo desinteresado de Newton.
Los Principia son el clásico libro de texto de la mecánica, en los que se enuncian las proposiciones fundamentales por primera vez. Con esta obra imperecedera nace la física matemática, como nació con los Discorsi galileanos la física experimental. ¡Qué profunda diferencia entre los libros de ambos titanes, iguales en tamaño, tan desiguales en su condición espiritual! A Galileo lo seguimos en la marcha de su pensamiento, nos revela las etapas intermedias y aun erróneas de su investigación, nos muestra con admirable sinceridad los senderos que hubo de recorrer para alcanzar la meta. Tal ojeada en los arcanos de su crear nos la permitió Galileo, pero Newton nos la prohíbe. En los Principia nada indica las perplejidades y dudas del espíritu en su búsqueda. Sobre toda su lucha reina el olímpico silencio de los dioses. Newton presenta ya listas las verdades por él encontradas, como si de su cerebro hubieran saltado armadas cual Palas Atenea de la cabeza de Júpiter.
Como Euclides, Newton antepone a su obra definiciones y leyes axiomáticas; su método es esencialmente geométrico-deductivo. Sin duda, sus leyes y definiciones estaban ya en parte comprendidas en las investigaciones de Galileo y Huygens. El gran inglés no las ha descubierto, pero es el primero en formularlas rigurosamente y en forjar con ellas los cimientos de toda la mecánica. Ni Galileo ni Huygens podían discernir cuáles son las leyes y conceptos primordiales que permiten construir la mecánica. Newton supera a sus precursores con su maravilloso sentido para los conceptos indispensables a la mecánica. Toma los ladrillos de los otros, pero es él quien levanta el palacio.
La primera de las tres leyes básicas de la mecánica newtoniana —la del estado de reposo o del movimiento uniforme y rectilíneo de un cuerpo inerte— fue reconocida por Galileo en sus consideraciones sobre planos inclinados, según vimos oportunamente. La segunda ley —la proporcionalidad entre fuerza y aceleración (mutatio motus) — fue entrevista igualmente por Galileo y empleada por Huygens en sus deducciones. Por último, la tercera ley —el principio de igualdad entre acción y reacción— pertenece por completo al gran inglés. Su sagaz crítico, Ernesto Mach, lo considera como la más importante contribución de Newton a la arquitectura de la mecánica. Sin embargo, el mérito de haber extendido la noción de fuerza nos parece todavía más trascendental.
El concepto central de la mecánica es el de la fuerza. Ella es la que hace de la mecánica algo distinto de una mera geometría aplicada. Si es incontestable que Galileo y Huygens reconocieron en la caída libre y en fenómenos semejantes que la fuerza es la determinante de la aceleración, sólo Newton es quien la capta en su completa generalidad. Concibe toda acción que tiende a cambiar el estado de un móvil, sea debida a la pesantez terrestre, a la atracción solar o aun al magnetismo, como fuerza. Las aceleraciones que la gravedad puede imprimir al mismo cuerpo varían según las posiciones que éste tenga en el espacio, y revelan la variabilidad del peso. Newton reconoce que detrás del peso variable se esconde una característica invariable del cuerpo, su masa. Los conceptos de peso y masa se separan por primera vez con toda generalidad y claridad en la mecánica.
Por experiencias con péndulos de la misma longitud y distintos materiales, Newton prueba que la aceleración de la gravedad (g) es independiente de la constitución química de los cuerpos; el peso (p) puede representarse por el producto de la masa y de la aceleración gravídica, p = mg, y siendo las masas proporcionales a los pesos, pueden ser medidas por éstos. Este notable resultado muestra, como afirma Newton, que la gravedad debe proceder de una causa que actúa, «no de acuerdo con la superficie mayor o menor de los cuerpos, sino según la cantidad de materia contenida en ellos».
Menos afortunada sin duda es su definición de masa; sería, según Newton, la cantidad de materia de un cuerpo determinada por el producto de la densidad y el volumen. El círculo vicioso implicado en esta discutida definición es evidente, dado que la densidad no es otra cosa que la masa en la unidad de volumen. Pero, sea como fuere, la definición newtoniana designa, a pesar de todo, unívocamente a la masa como un coeficiente numérico característico del cuerpo, del que Poincaré dirá un día, con razón, que tiene la virtud cardinal de entrar cómodamente en el cálculo. Además, se puede escapar al círculo vicioso definiendo, como lo hizo Mach, la masa de la siguiente manera:

Sea el cuerpo A la unidad, y diremos que un cuerpo es de masa m, cuando este cuerpo actuando sobre el cuerpo A le comunique una aceleración igual a m veces la aceleración que recibe por la reacción del cuerpo A sobre él.
Esta definición nos conduce automáticamente a la tercera ley de Newton, a la afirmación de que a cada acción corresponde siempre una reacción de igual magnitud y dirección opuesta. La dependencia entre esta proposición y la definición newtoniana de la fuerza es visible. Dado que Newton mide la fuerza por la cantidad de movimiento adquirido en la unidad de tiempo, de ello se sigue que dos cuerpos actuando el uno sobre el otro adquieren en el mismo intervalo de tiempo cantidades de movimiento iguales y opuestas, y se comunican, por consiguiente, velocidades inversamente proporcionales a sus masas. Para apoyar la validez de su tercera ley, Newton expone entre experimentos reales uno imaginario. Supone a la Tierra, en la que cada partícula gravita hacia todas las otras, cortada por un plano en dos partes. Si la presión de una parte sobre la otra no fuera igual a la contrapresión, el globo debería moverse en el sentido de la mayor de las dos acciones.
Formuladas las definiciones y establecidas las leyes básicas, Newton llega a su aplicación y demuestra el alcance general por los servicios que pueden prestar en la descripción de los movimientos más diferentes, sean la caída libre de Galileo o las oscilaciones del péndulo cicloidal de Huygens.
Considera también movimientos en medios resistentes y examina, entre muchos otros, la propagación de las ondas sonoras; plantea la primera fórmula para la velocidad del sonido, que encuentra igual a la raíz cuadrada del cociente de la elasticidad e y de la densidad del medio d, o sea

eq12.png

La expresión representa para la velocidad del sonido en el aire tan sólo una primera aproximación, a la cual Laplace aportará en 1816 la indispensable corrección (1). Newton extiende sus investigaciones a la mecánica de los fluidos; considera el movimiento circular de cuerpos líquidos; niega la compresibilidad del agua; explica la ascensión de un líquido en los tubos capilares por la atracción mayor entre las partículas de vidrio y el líquido, que entre las del líquido. [22]
Investiga el roce interno (viscosidad) de los líquidos y da la primera medida de la resistencia por los acortamientos de los arcos de oscilación del péndulo. Estos ejemplos podrían ser decuplicados y no darían, sin embargo, más que una vaga idea de la riqueza de los problemas tratados en los dos primeros libros de los Principia.
Las demostraciones que Newton aporta en apoyo de sus tesis, utilizan, en general, sólo los medios de la geometría euclidiana y son extensas y pesadas. Fue menester todo su genio para alcanzar con recursos tan primitivos tan magníficos resultados. «Sorprendidos —dice Whewell con razón— miramos nosotros, los nietos, este inamovible instrumento como una monstruosa maza, objeto de museo entre trofeos de tiempos pasados, y nos preguntamos quién era ese hombre que ha manejado como armas aquello que no podemos llevar nosotros como carga» [23].
Los dos primeros libros de los Principia forman un majestuoso preludio al tercero, el punto culminante de la mecánica newtoniana, su Sistema del mundo, cuyo contenido esencial hemos indicado ya. Desde la cima escalada, en el capítulo final de su obra, Newton echa una mirada retrospectiva sobre el largo camino recorrido: rotas yacen las tablas de la ley cartesiana del universo, los torbellinos desaparecieron; resuelto está el enigma de cómo los cuerpos celestes corren en el espacio, sometidos a la única ley de la gravitación universal. En medio de estas meditaciones surge la célebre frase: Hypotheses non fingo, como respuesta a la cuestión planteada por la causa desconocida de la gravitación:
«Seguro es que (la gravitación) debe de proceder de una causa que penetra hasta los centros del Sol y de los planetas, sin sufrir la menor disminución de su poderío... Pero hasta ahora no logró deducir la causa de las propiedades de la gravitación, y no forjo hipótesis.»
Falso sería creer que Newton se atuvo a la solemne abjuración de la hipótesis, que hubo de engendrar tantos comentarios como un versículo bíblico. Al igual que Galileo y Huygens, el gran inglés recurrió al imprescindible medio de investigación que es la hipótesis y encontró sus leyes —como los otros legisladores de las ciencias— buscando el plano de contacto de la realidad construida por su intelecto, con aquella otra proporcionada por los datos de la experiencia. Sus hipótesis son numerosas y no todas afortunadas. Si es verdad que se abstuvo de explicar la gravitación, la concibió como una fuerza a distancia, y admitió que un punto masivo actúa donde no está. La hipótesis de la acción a distancia fue descartada primeramente a mediados del siglo XIX, en los dominios de los fenómenos electromagnéticos, en los que Faraday la reemplazo por el concepto más fecundo de carneo; en la segunda década del siglo XX, hubo de ceder su propio dominio, la gravitación, a Einstein, que la vinculó a una propiedad métrica —la curvatura— del espacio-tiempo, determinada por la presencia de la masa. Otra hipótesis newtoniana, el valor absoluto de la longitud y la duración, apenas sobrevivió al siglo XIX, pues en 1905 tropezó con la demostración de Einstein de que la longitud de una barra y la marcha de un reloj varían con la velocidad del sistema en el que barra y reloj se encuentran. Poco antes, José Juan Thomson y Kaufmann probaron experimentalmente —con electrones acelerados— que la masa admitida por Newton como característica constante, invariable del cuerpo, es también una función de la velocidad del mismo y crece con ella. Por supuesto, no se debe desconocer que estas hipótesis cardinales de Newton —por lo demás prácticamente valederas en tanto que la velocidad del sistema no se acerca a la de la luz— eran indispensables para fundamentar la dinámica. El terreno donde Newton aventura hipótesis menos sólidas no es la mecánica, sino la óptica.
Desde su memorable retiro en Woolsthorpe, Newton se dedicó a los problemas ópticos. En el mismo año de 1666, tan decisivo para el descubrimiento de la ley de gravitación, se procuró un prisma para estudiar «el notable fenómeno de los colores».
«Oscurecí mi pieza —escribió más tarde[24] — e hice un pequeño orificio en las persianas para dejar entrar una cantidad conveniente de luz solar. Coloqué mi prisma en la proximidad de la abertura, de modo tal que la luz se refractara en el prisma, hacia la pared opuesta. Desde el principio resultó un entretenimiento muy agradable el ver así producido un haz luminoso de vividos e intensos colores.»
Sin embargo, sólo seis años más tarde, en enero de 1672, hizo Newton, en una carta dirigida al secretario de la Sociedad Real de Londres, la primera comunicación pública de su descubrimiento. Con cuidadosas experiencias demostró que la luz blanca al atravesar un prisma es dispersada en rayos coloreados y que éstos, al pasar por un segundo prisma, no se dejan descomponer; puso de manifiesto que los rayos monocromáticos poseen diferentes grados de refrangibilidad, desde el violeta, que es el más refrangible, hasta el rojo, que tiene el menor índice de refracción. Una extensa serie de experiencias le convence de que los colores prismáticos son homogéneos.
«Los refracté con prismas, y los reflejé sobre cuerpos que bajo la luz solar eran de otros colores. Los interceptó con delgadas capas de aire comprendidas entre dos placas de vidrio superpuestas, los transmití a través de ambientes coloreados... Jamás conseguí producir ningún otro color con ellos. Aunque por contracción o dilatación se hayan hecho más vividos o más apagados, o por pérdida de algunos rayos se hayan vuelto oscuros, jamás los he visto cambiar de especie.»
A la descomposición de la luz blanca Newton hace que la siga su composición, mostrando que basta hacer converger los rayos de los colores espectrales para volver a obtener la luz blanca. Su espíritu inventivo no se contenta con una experiencia e imagina varias. Hace pasar rápidamente un peine en ambos sentidos a lo largo de 1^ escala espectral y obtiene la sensación de blanco; por la rotación del conocido círculo de colores prueba que la unión de los mismos engendra en el ojo el efecto del color blanco.
Newton reúne sus experiencias en el primer libro de su magistral tratado Óptica publicado en 1704. Conducido por el pensamiento pitagórico de una íntima relación entre los sonidos de la escala musical y los colores del espectro, Newton divide la gama espectral en siete colores; aunque arbitraria, la división newtoniana se mantiene aun hoy. En medio de la magnífica interpretación del «notable fenómeno de los colores», contenida en el libro, surge, sin embargo, un error. Newton supone que el poder dispersivo es proporcional a la refracción y concluye que sería imposible en una lente suprimir la dispersión de la luz que produce los colores, sin impedir al mismo tiempo la refracción de la cual depende el poder amplificador de los telescopios de refracción. Por ello, estaba convencido de que la naturaleza de la luz impide la construcción de lentes acromáticos. Tres décadas después de la muerte de Newton, el óptico londinense Juan Dollond refutó, en 1757, la opinión del gran inglés. Con la combinación de una lente convexa, de cristal crown, con otra cóncava de cristal flint, resolvió el problema de refractar los rayos luminosos sin dispersarlos y creó el anteojo acromático, cuya posibilidad había defendido ya Euler diez años antes con argumentos teóricos. La convicción de Newton de que dispersión y difracción serían gemelas e inseparables tuvo una consecuencia práctica. Newton aconsejó a los astrónomos —para evitar las desventajas de la aberración cromática— el empleo del telescopio de espejo, e introdujo (1668) un notable perfeccionamiento en el modelo ideado por Jaime Gregory. Un espejo parabólico proyectó la imagen —en el reflector de Gregory—, sobre otro pequeño espejo elíptico, que a su vez la rechazó en dirección de un agujero practicado en el espejo parabólico. Newton suprime el inconveniente de taladrar la superficie reflectora y barrena lateralmente el tubo del telescopio. Un espejo plano inclinado 45° con respecto al eje del instrumento refleja la imagen hacia el costado, donde puede ser observada con un ocular biconvexo. Para demostrar el valor práctico de su invención, Newton construyó dos modelos de su telescopio, uno de los cuales se conserva hoy, como inestimable reliquia, en la biblioteca de la Sociedad Real de Londres.
El hermoso fenómeno de anillos coloreados engendrados por minúsculas capas de aire o por delgadas láminas, llamado todavía hoy anillos de Newton, es el asunto principal del segundo libro de la Óptica. Newton se revela en estas investigaciones como un incomparable maestro del experimento. Produce sus anillos con luz blanca y monocromática, los examina con luz reflejada y luz transmitida, describe el fenómeno tal como se presenta en pompas de jabón y en láminas de mica. A estos fenómenos les da Newton en sus razonamientos una extraordinaria importancia, puesto que asimila las superficies coloreadas de todos los cuerpos a películas delgadas y reduce el problema general de los colores permanentes al de sus anillos. El hecho de considerar la luz como un flujo de proyectiles y de intentar explicar los anillos interferenciales por la insuficiente imagen corpuscular, nada quita al valor de las observaciones de Newton ni al de las ingeniosas mediciones que realiza para descubrir la ley que rige la formación de los anillos. Pone en contacto una placa de vidrio con una gran lente planoconvexa de radio conocido y determina después, a partir de los diámetros de los anillos, las minúsculas distancias entre ambos cristales, los espesores de las capas de aire engendradoras de los anillos. Sus resultados son traducibles sin dificultad del idioma de su hipótesis corpuscular al de la teoría ondulatoria del siglo XIX. Newton encuentra el espesor de la capa de aire en el primero de los anillos oscuros igual a 1/88739 partes de una pulgada. Esta cifra significa en su idioma la mitad del intervalo entre dos «disposiciones» consecutivas de las partículas luminosas de ser fácilmente transmitidas o reflejadas en el límite de un medio. La mitad del intervalo de las «disposiciones» en el lenguaje newtoniano se llama hoy media longitud de onda. Ahora bien: para el rayo amarillo el valor moderno de la media longitud de onda es 1/85100 partes de una pulgada. Admirable es la certeza de estos resultados, exactos —a pesar de los medios rudimentarios de la época— a tal punto que permitieron cien años más tarde a Young y Fresnel, apoyarse en ellos para el cálculo de la longitud de las ondas luminosas.
¿Qué significan en la teoría newtoniana de la luz las misteriosas «disposiciones»? La fuente luminosa, afirma Newton, emite partículas de diferentes tamaños, que poseen, pasando de un medio al otro, «disposiciones» para ser reflejadas o de penetrar en el medio. Estas disposiciones o estados tienen un carácter periódico; sus intervalos (espaciales) son grandes para los rayos rojos y pequeños para los violetas. Newton reconoce, pues, con toda claridad, que una propiedad periódica es intrínseca a la naturaleza de la luz. Más que los fundadores y defensores de la teoría ondulatoria, más que Huygens, que ni aun tocó el problema del espectro, más que Grimaldi y Hooke, que fracasaron, el corpusculista Newton es el verdadero iniciador de la futura interpretación ondulatoria de los colores .
¿Cómo explicar que Newton se adhirió al antiguo concepto de la naturaleza granular de la luz? ¿Cómo explicar que su genio, después de haber vacilado entre las dos teorías opuestas, se inclinara finalmente a considerar la luz como una lluvia de partículas? La propagación rectilínea de los rayos que la hipótesis ondulatoria parecía incapaz de describir no basta para motivar la decisión del gran inglés por la hipótesis contraria. En realidad, los motivos son más profundos. Saturado de la idea de su gran descubrimiento, la gravitación, Newton tuvo la comprensible tendencia de interpretar los fenómenos magnéticos, eléctricos y sobre todo los luminosos, con una imagen más o menos semejante a aquella que le dio tantos y tan espléndidos éxitos en el dominio del movimiento de las masas. Esta posibilidad, prohibida por la teoría ondulatoria, le fue ofrecida por la hipótesis corpuscular, que permite el juego de la atracción entre las partículas de la luz y las de la materia. He aquí, como ejemplo, lo sostenido por Newton [25] al explicar la doble refracción del cristal de Islandia:
«La refracción extraordinaria del espato de Islandia tiene toda la apariencia de efectuarse gracias a alguna clase de fuerza atractiva, inmanente a ciertos lados de ambos rayos y a las partículas del cristal. Pues si no fuera cierta clase de fuerza inmanente a algunos lados de las partículas cristalinas y no inmanente a los otros lados, la que inclina y quiebra los rayos hacia el lado de refracción extraordinaria, los rayos que inciden perpendicular mente sobre el cristal no se refractarían hacia aquel lado más que hacia otro cualquiera.»
De igual modo explica la difracción de la luz, en los experimentos de Grimaldi y en los propios, por una atracción entre la materia de los bordes agudos de los objetos y entre las partículas luminosas. Pero esta atracción —y es el núcleo del asunto— posee una periodicidad definida. Así, la realidad de la naturaleza oscilatoria de la luz se transparenta en los admirables experimentos de este genial defensor de la hipótesis corpuscular. Esta incontestable doble faz de su teoría óptica, esta primera y precoz tentativa de una síntesis entre el movimiento de un proyectil y una propagación periódica nos parece hoy casi una prefiguración de las ideas contemporáneas, como si fuera una audaz anticipación de la reconciliación entre corpúsculos y ondas realizada en nuestros días por la mecánica ondulatoria.
En realidad, la convicción corpuscular de Newton es flexible; sólo sus discípulos le prestarán la rigidez de un dogma y lo mantendrán como sagrada herencia durante ciento cincuenta años. Se verá al newtoniano Juan Bautista Biot defenderla a todo precio, en la segunda década del siglo XIX, cuando las experiencias de Fresnel habían ya demostrado la caducidad de la hipótesis.
Cuando Newton, en 1704, publicó su Óptica, no era ya el sencillo matemático del Trinity College. Gracias a la eficaz protección de su amigo Carlos Montagu, conde de Halifax, canciller del Tesoro, fue nombrado inspector (1695) y finalmente director de la Casa de la Moneda (1699), con la principesca recompensa de 1.500 libras anuales. Todos los honores que Inglaterra pudo dar a un gran hijo los recibió Newton: la Sociedad Real de Londres le elige presidente, la reina le da el espaldarazo de caballero y el cargo de director de la Casa de la Moneda lo hace rico; pero la gloriosa época, la de los grandes descubrimientos, pertenece desde entonces al pasado: Newton se dedica ahora a estudios químicos y a meditaciones teológicas.
Como era célibe, su sobrina cuidaba de su casa. Tuvo una larga y feliz vejez. Sus adversarios, el magnífico Huygens, el amargado Hooke, el incrédulo Mariotte [26] habían muerto y, fuera de su controversia con Leibniz acerca de la paternidad del cálculo. infinitesimal, nada turbó la quietud de sus últimos veinticinco años. Pocas semanas antes de su muerte presidió aún una sesión de la Sociedad Real. Falleció el 20 de marzo de 1727, a la patriarcal edad de ochenta y cinco* años; lo sepultaron en el panteón londinense, junto a los reyes de Inglaterra, en la abadía de Westminster. Su lápida invita en latín con un patético epígrafe a la posteridad: «Alégrense los mortales de que haya existido tal y tanto ornamento del género humano.»
Mejor que esta apoteosis rinden homenaje a la grandeza de su espíritu las sencillas palabras de Enrique Poincaré: «Por lejos que llegue el telescopio, no alcanza el límite sometido a las leyes de Newton.»

Tercera Parte
La época postnewtoniana

Capítulo 8
La física del siglo XVIII

Contenido:
1. Los grandes mecanicistas
2. Los fenómenos del sonido
3. Problemas del calórico
4. Los primeros electricitas

1. Los grandes mecanicistas
La herencia newtoniana; Euler y las ecuaciones del movimiento; Un genial precursor del siglo venidero: Daniel Bernoulli; El poder del análisis: Luis Lagrange; Maupertuis y la divina sabiduría; Laplace prueba la estabilidad del sistema solar; Maskelyne y Cavendish miden la densidad del globo; Comienzos de la fotometría; Bradley descubre la aberración de la luz.

La obra del gran triunvirato, Galileo, Huygens y Newton y la de los ilustres hombres que los rodearon, aportó tal riqueza al conocimiento del mundo físico, que después de la gloriosa época del siglo XVII, hubo de transcurrir cierto tiempo para permitir al espíritu un segundo vuelo hacia semejantes alturas. El siglo XVIII no conoce en el dominio de la física ningún genio tan vasto y capaz de soportar la comparación con uno de los tres iniciadores. Hay que esperar hasta los tiempos de Faraday para ver surgir un investigador cuyo poder alcance el de estos titanes del pasado. A pesar de ello, las décadas que siguen a la muerte de Newton, lejos de ser un período de decadencia, son de intensa labor: enriquecen los dominios del calor y la electricidad con valiosos descubrimientos, desarrollan la acústica, crean la física del globo y, sobre todo, redondean la mecánica de Newton. En este último campo se encuentran los más ilustres espíritus del siglo XVIII.
Aumentar la herencia newtoniana, generalizando el empleo del análisis en el tratamiento de problemas mecánicos y físicos, es el rasgo sobresaliente de toda esta época, puesta a la sombra del inmortal inglés, cuyos Principia aparecen a los investigadores ochocentistas como la obra cumbre de la mente humana. La posibilidad ofrecida por el endiosado Newton de forjar con el análisis un poderoso instrumento de investigaciones mecano-físicas, es realizada por una serie de matemáticos, entre los cuales destacan los grandes nombres de Euler, Daniel Bernoulli, Lagrange y D’Alembert.
Leonardo Euler (1707-1783) nació en Basilea y pasó los mejores años de su vida en San Petersburgo y Berlín, como matemático de dos belicosos soberanos, Catalina la Grande y Federico el Grande, que a pesar de su mutua hostilidad, estaban de acuerdo en admirar el genio de Euler. La historia no conoce ningún matemático más fecundo que este incansable suizo y sólo pocos que hayan sobrepasado su sagacidad. Como Galileo en la vejez, este gran clarividente se quedó ciego.
Newton se abstuvo, como indicáramos, de emplear convenientemente el método fluxional en sus Principia. Euler, a los veintinueve años, aplica el cálculo infinitesimal a todos los problemas importantes de la mecánica. Mientras que Newton hablaba de partículas y corpúsculos, nociones mal definidas, Euler introduce el concepto fundamental del punto material portador de masa y centro de fuerza. Tiene en cuenta la relatividad de todos los movimientos, y su sistema de coordenadas se desplaza con los móviles; la descripción foronómica está librada de la inmovilidad de los ejes fijos. La velocidad, magnitud sólo numérica, escalar, en la mecánica de Newton, se vuelve en la de Euler una magnitud dirigida, vectorial. Crea el cálculo vectorial vislumbrado por Stevin, que permite desde entonces adicionar y sustraer, gracias a sus componentes rectangulares, velocidades y fuerzas como si fueran magnitudes escalares. Euler resuelve una fuerza en sus componentes, relacionándolas con tres coordenadas perpendiculares, X, Y, Z, y llega a las ecuaciones del movimiento de una partícula:

eq13.png

donde A representa el peso de la partícula, y g el camino que recorre en libre caída durante el primer segundo; de modo que A/2g es igual a la masa del móvil. Lagrange no tuvo más que reemplazarlo por m para obtener las componentes de fuerza de sus famosas ecuaciones del movimiento. Al efectuar el reemplazo, se llega a las expresiones actuales, a las medidas de las tres componentes de la fuerza:

eq14.png

El problema del movimiento en medios resistentes, que vivamente ocupó a Newton, es el objeto de importantes trabajos de Euler; examina las oscilaciones pendulares en el aire y en ambientes líquidos; trata de determinar —por medio del análisis— las trayectorias en el aire de los proyectiles de armas de fuego, problema que interesa sobre todo a su protector el rey de Prusia. Euler establece las ecuaciones del trompo y aplica los resultados a la rotación del globo, cuyo eje se comporta, en varios sentidos, como el de un trompo. El análisis le sirve para describir las condiciones de equilibrio y de movimiento de líquidos, para calcular la carga máxima de barras sólidas y para formular una teoría de las cuerdas vibrantes. En casi todos estos problemas el camino de Euler se cruza con el de su amigo y compatriota, otro gran hijo de Basilea, Daniel Bernoulli.
Daniel Bernoulli (1700-1782), profesor de anatomía, después de botánica y finalmente de física en la Universidad de Basilea, fue el más meritorio de los nueve matemáticos que la sin par dinastía de los Bernoulli dio a la ciencia. Comparte con Euler el raro privilegio de haber obtenido diez veces el premio de la Academia Francesa. Su padre, Juan, había generalizado el principio de la conservación de la energía mecánica, y es precisamente este principio el que Daniel Bernoulli coloca a la cabeza de su Hidrodinámica (1738), donde desarrolla las fórmulas fundamentales que permiten calcular la velocidad de la corriente en los líquidos y gases. Empero, su más auténtico mérito es la genial idea esbozada en el Capítulo 10 de su obra; merecería un lugar destacado en las filas de los grandes físicos, aunque sólo hubiera escrito estas pocas páginas, base histórica de la trascendental doctrina que se llamará en el curso del siglo XIX teoría cinética de los gases. Bernoulli explica la elasticidad de los gases por la incesante agitación de las moléculas que se desplazan independientemente las unas de las otras en línea recta; comparables a minúsculas bolas elásticas, las moléculas chocan unas con otras y bombardean las paredes del recipiente. La suma de estos impactos moleculares se nos manifiesta como la presión del gas. Ésta crece con el aumento de la temperatura, que es inseparable de la velocidad de las moléculas.

«Fácil es ver que la presión debe ser proporcional al cuadrado de esta velocidad (molecular), puesto que si la velocidad crece, el número de los impactos y la intensidad de ellos también aumentan, y cada una proporcionalmente a la presión.»
La presión está ligada al cuadrado de la velocidad de las moléculas: esta idea tan fecunda, enunciada con toda claridad, permanece sepultada un largo siglo entre las amarillentas páginas de la obra de Bernoulli. En una época que consideraba al calor como materia, la audaz intuición de Bernoulli estaba condenada al olvido. Más de cien años hubieron de pasar antes de que Joule dedujera, de la magnitud medible de la presión, la otra magnitud inaccesible a la misma, la velocidad, que poseen las moléculas gaseosas a una temperatura dada. Bernoulli es el iniciador de la teoría que a mediados del siglo XIX abrió al cálculo el mundo invisible de las moléculas. El sagaz pensador se anticipó a su época por varias de sus ideas. Mucho antes que Coulomb, Bernoulli probó experimentalmente que la atracción y repulsión eléctricas son inversamente proporcionales al cuadrado de las distancias de las cargas.
Con mucha más rapidez que las ideas de Euler y de Bernoulli se impusieron los trabajos de Lagrange, que supo adquirir en vida la aureola de un clásico. Dos países reclaman al famoso hijo. José Luis Lagrange (1736-1813) nació en Turín, de padre francés y madre italiana. Sigue a Euler como matemático de Federico el Grande; después de la muerte del rey de Prusia Lagrange se establece en París, donde íntima amistad lo liga al químico Lavoisier. En tanto que Lavoisier, cuyos méritos científicos no eran inferiores a los de Lagrange, fue guillotinado, la reputación del sagaz analista fue tan preponderante que los jacobinos le perdonaron haber sido el favorito de María Antonieta y lo cubrieron de honores.
La obra de Lagrange prolonga la mecánica de Newton y le confiere la forma analítica que podría calificarse como definitiva, si esta palabra no estuviera borrada del diccionario de las ciencias. Su Mecánica analítica permanece como fuente y modelo de los manuales durante más de cien años; el gran Hamilton lo llama un poema científico, y el severo crítico de Newton, Mach, le prodiga el elogio de haber realizado inmensos adelantos en la economía del pensamiento. En efecto, el mérito saliente de la obra de Lagrange es haber condensado la mayor cantidad de relaciones en pocas fórmulas de gran generalidad, que permiten tratar todos los problemas particulares según esquemas simples y claros. Sin duda, mucho tomó de Euler, pero no fue el profundo suizo, sino el ágil francés el que hizo de la pesada mecánica newtoniana una confortable máquina de pensar. No aclaró, como erróneamente se ha pretendido, la naturaleza de los fenómenos mecánicos, mas aseguró la dominación práctica de sus problemas.
Lagrange abandona el dominio del punto masivo, antes de él la preocupación casi única de los mecanicistas, y estudia sistemas materiales. Su originalidad está en establecer ligazones entre un punto y otro. Estas relaciones, por supuesto, no tienen realidad material: imaginemos una barra rígida uniendo a dos bolas. Si esta barra se convirtiera en una varilla que se volviese a su vez de más en más delgada hasta desvanecerse en una fuerza inmaterial, ella se habría convertido en una ligazón de Lagrange. El sagaz francés reconduce toda la estática a un único principio: el de los desplazamientos virtuales. Como de la estática deduce la dinámica, toda su mecánica está basada en el teorema de los desplazamientos virtuales, profundizado gracias a la íntima unión con el célebre principio de D'Alembert. Busquemos con Lagrange la ley general del movimiento de varios cuerpos que actúan los unos sobre los otros de cualquier manera; sus acciones estarán representadas, precisamente, por fuerzas de ligazón. Si se imagina, dice Lagrange, qué fuerzas comunicarían a cada partícula en sentido contrario el movimiento que debería tomar, es evidente que el sistema permanecerá en reposo; en consecuencia, estos movimientos provocados por las fuerzas comunicadas destruirán a los que las partículas habían recibido y los que hubiesen seguido sin sus acciones recíprocas. El principio se podrá, pues, resumir así: en un sistema donde los cuerpos actúan unos sobre otros, las fuerzas comunicadas y las destruidas se equilibran.
Señalemos rápidamente otro principio, tratado igualmente por Lagrange: el de la menor acción, establecido por Pedro Maupertuis (1698-1759) y formulado exactamente por Euler. Inclinado a ver detrás de las leyes físicas la lógica de la divina sabiduría, Maupertuis supuso que en el universo, el más perfecto de los mecanismos, todos los fenómenos deberían obedecer a un supremo principio de economía, y encontró que el producto de la cantidad de movimiento (p) por el camino ( s ) es mínimo durante el movimiento de una partícula; su trayectoria entre los puntos A y B hará, pues, mínima a la integral curvilínea

eq15.png

Más intuitivo es el enunciado con que Euler revistió al principio: si un cuerpo está obligado a permanecer en una superficie dada (por ejemplo, en la superficie esférica del globo), el movimiento que recibe de un impulso cualquiera es tal, que entre sus puntos de partida y de llegada su camino será el más corto posible: toda otra trayectoria sería más larga y exigiría más tiempo. Veremos más tarde al matemático irlandés Hamilton conferir a este principio extraordinarios alcances.
Como su mecánica, la astronomía de Newton también pedía un rejuvenecimiento con ayuda de los medios de las matemáticas, tan acrecidos por esta época. La parte principal del inmenso trabajo tocó al genio de Pedro Simón Laplace (1749-1827), que aplicó la ley gravitacional a todos los detalles entonces conocidos del sistema solar. Hijo de un campesino, Laplace, gracias a su flexibilidad en las opiniones políticas, terminó su carrera como marqués de la Restauración, después de haber sido ministro de Napoleón. En oposición a Newton, que fue un director modelo de la Casa de la Moneda, el Newton francés demostró con su ejemplo que un brillante matemático no es siempre un hábil administrador.

11.jpg
Pedro Simón Laplace

«Resolver el gran problema mecánico del sistema solar y alcanzar una coincidencia tan estrecha de la teoría con la observación, que las ecuaciones empíricas se vuelvan superfluas», fue el grandioso propósito que realizó la obra titulada Mecánica celeste, cuyo autor, Pedro Simón Laplace, consagró casi toda su vida a los problemas planteados en dicha obra, ya que inició su estudio a los veinticuatro años y no los terminó hasta dos años antes de su muerte, en 1825, fecha de publicación del último tomo de su monumental obra. Laplace emprende la determinación de las perturbaciones que sufren las trayectorias de todos los planetas del sistema solar a consecuencia de las mutuas atracciones de sus masas: grave problema, puesto que implica el porvenir de la familia planetaria. Júpiter, cuya aceleración aparentemente irregular era ya conocida desde Halley, ¿terminará por caer en el Sol? La Luna, que evidencia un aumento de su velocidad de traslación, ¿se precipitará sobre la Tierra cual gigantesco meteorito? El atraso en el movimiento orbital de Saturno, ¿terminará por hacerle retroceder hacia espacios cada vez más alejados del universo? Éstas y análogas cuestiones requerían una respuesta. La posición relativa de los planetas cambia continuamente, de modo que producen los unos sobre los otros perturbaciones, cuyos efectos siguen ciclos periódicos. Sin embargo, fuera de estas inofensivas perturbaciones, hay otras que parecen temibles: perturbaciones inherentes a los elementos orbitales del planeta, que provocan alteraciones en los elementos orbitales de otros. Los cambios acíclicos, seculares, son en verdad pequeños en un siglo, pero por ser acumulativos se acrecientan con el correr de los evos cósmicos. Laplace, siguiendo sugestiones de Lagrange, llega a demostrar una ley general: sea para cada planeta, M la masa, D el eje de la órbita y E la excentricidad orbital; formemos con estas magnitudes el producto

M x E2 x √D

y sumemos los productos para todos los planetas; entonces la suma resultante permanecerá invariable, si no se tiene en cuenta las inofensivas desigualdades periódicas [27].
La impresión que la demostración de Laplace causó sobre los astrónomos y físicos de la época fue extraordinaria. Newton se vio obligado a recurrir a la intervención divina que de tiempo en tiempo pondría en orden al sistema solar perturbado para preservarlo de la destrucción. Mas Laplace prueba la estabilidad del sistema solar, en el cual el conjunto de las excentricidades permanece constante; demuestra que todo ocurre como si los planetas, al seguir sus trayectorias perturbadas, girasen con oscilaciones más o menos grandes a lo largo de trayectorias ideales. De este modo, Laplace crea la imagen de un mundo libre de la intervención de la Providencia: el universo solar aparece desde entonces como un mecanismo cíclico comparable a un reloj que se da cuerda a sí mismo y repite perpetuamente los mismos movimientos, un mecanismo sin comienzo ni fin, capaz de evolucionar, gracias a las leyes mecánicas, automáticamente del tiempo -∞ al tiempo +∞.
¡Qué extraña ironía de la historia, que de los descubrimientos del piadoso Newton surgiera, en la doctrina de los mecanicistas, el concepto materialista y ateo del universo!
Las dos mecánicas —la analítica de Lagrange y la celeste de Laplace— gozan durante casi un siglo del prestigio de evangelios científicos y todos se abandonan a la ilusión de que los fenómenos naturales serían sin excepción explicables por el movimiento de puntos materiales obedientes a las leyes de la dinámica. Sólo en el umbral del siglo XX se desvanece el acariciado sueño de interpretar todos los fenómenos por las leyes de la mecánica clásica.
Uno de los perdurables méritos de Laplace es el introducir en el tratamiento de sus problemas mecánicos el concepto de potencial creado por Euler y Lagrange. La fecunda noción recibió más tarde importantes aplicaciones en la dinámica de los fluidos y en la teoría del electromagnetismo. A pesar de la aplastante labor que le diera su Mecánica celeste, Laplace encontró tiempo para iniciar un nuevo método calorimétrico y dedicarse a investigaciones sobre capilaridad. Supuso una acción recíproca entre las partículas de la pared del tubo y las del líquido, y mostró que la altura de dos columnas líquidas depende de la curvatura de los tubos. Como fiel discípulo de Newton, Laplace fue, en óptica, partidario de la hipótesis corpuscular.
Newton había indicado que la masa de una montaña debería, por su atracción, desviar la plomada. El físico francés Pedro Bouguer (1698-1758), al realizar mediciones geodésicas en Perú, comprobó la certeza de la aserción newtoniana y determinó una desviación mensurable. Bastaría, pues, conocer la masa de una montaña y la desviación por ella producida, para evaluar el peso y la densidad del globo. La forma geométrica de la montaña escocesa Shehellian y su densidad conocida permitieron convertir la idea en experiencia; el astrónomo Neville Maskelyne emprendió en 1774 las mediciones: encontró una desviación de la plomada igual a 11,7" y calculó que la densidad de la Tierra debería ser 4,7 veces superior a la del agua. Fue una primera y grosera aproximación. Un valor más exacto pronto lo halló el eminente físico y químico Enrique Cavendish (1731-1810) gracias a su balanza de torsión. Cavendish midió la atracción de dos gruesas esferas de plomo, cada una de 158 kilogramos, sobre dos bolillas de platino; éstas formaban los extremos de una varilla de madera suspendida por su centro de un delgado hilo metálico. Las bolas fueron atraídas por las esferas, la varilla se movía hasta que la torsión del hilo impidió la continuación del movimiento; después de varias oscilaciones, la varilla quedó en una posición de equilibrio distinta a la primitiva. El valor de las elongaciones y el período de oscilación permitieron deducir la atracción ejercida por las esferas de plomo; comparando luego esta atracción con la terrestre, se calcularon masa y densidad del globo. El resultado obtenido por Cavendish para la densidad media de la Tierra, 5,48, no difiere en mucho de los valores modernos. Hacia el fin del siglo XIX, el alemán Jolly y el inglés Poynting introdujeron un método más sensible, midiendo la atracción de una gran masa sobre un cuerpo colocado en el platillo de una balanza. Jolly (1878) logró determinar el aumento del peso sufrido por el cuerpo de prueba bajo la atracción de una esfera que pesaba 5.775 kilogramos. Masas todavía más grandes —esferas de plomo con 100.000 kilogramos— emplearon en sus experimentos Richarz y Krigar-Menzel (1898); los resultados de estos experimentos y otros análogos oscilan en torno al valor 5,5, que adoptamos ahora como densidad media de la Tierra. Para la constante de gravitación, es decir, la atracción que dos masas de un gramo separadas por una distancia de un centímetro ejercen la una sobre la otra, las mediciones suministraron 6,6 x 10-8 dinas.
Mencionamos ya el nombre del físico francés Pedro Bouguer; él y el suizo Juan Enrique Lambert (1728-1777) enriquecieron la óptica, poco cultivada en el curso de este siglo, con una serie de importantes investigaciones y crearon los fundamentos de la fotometría. Bouguer determinó la pérdida que sufre la luz al pasar por diferentes medios y enunció como ley que « la intensidad de la luz transmitida decrece en progresión geométrica, cuando el espesor de la capa de aire atravesada crece en proporción aritmética ». Estudió también la disminución en la intensidad de la luz por reflexión, observando la luz de una bujía que cayó bajo el mismo ángulo, sobre dos espejos; comparó la imagen directa en uno de ellos, con la imagen reflejada por el otro en un tercer espejo. A fin de que las dos imágenes aparecieran con la misma intensidad, era menester desplazar la bujía, y este desplazamiento dio la medida de la pérdida de intensidad por reflexión. Al determinar la pérdida para diferentes ángulos de incidencia, Bouguer descubrió que tenía el valor mínimo para la reflexión total. Los experimentos de Lambert demostraron que la iluminación de una superficie dada es inversamente proporcional a la distancia del foco luminoso y proporcional al seno del ángulo formado por los rayos incidentes y la superficie iluminada. Los fotómetros ideados por Bouguer y Lambert permanecieron largo tiempo en uso, y aunque mejorados por Potter y Foucault, sólo fueron superados a mediados del siglo XIX, cuando Bunsen (1844) construyó un aparato más sencillo y práctico.
Un descubrimiento óptico que hizo profunda impresión sobre los contemporáneos, logró en 1728 el astrónomo inglés Jaime Brad ley (1693-1762). Al observar la estrella gamma del Dragón notó enigmáticas variaciones en la posición del astro; después de largas reflexiones encontró la explicación del fenómeno en la composición del movimiento de la luz con el movimiento orbital de la Tierra. Una ingeniosa leyenda cuenta que el astrónomo, navegando en un barco a vela por el Támesis, vio que el gallardete de la embarcación, a cada cambio de dirección de ésta, indicaba una dirección distinta a la del viento que soplaba con regularidad. Esta simple observación lo condujo a interpretar el intrigante fenómeno: si se dirige un telescopio hacia una estrella de tal manera que su luz incida sobre el centro del objetivo, la imagen del astro se formaría en el centro del ocular si el telescopio estuviera inmóvil. Sin embargo, en el corto tiempo que el rayo luminoso emplea para recorrer el largo del interior del telescopio, la Tierra había avanzado algo sobre su órbita y llevado consigo, por supuesto, al telescopio, pero no así al rayo luminoso. Por esta razón, la estrella no formará su imagen en el centro del ocular y no la veremos en su dirección verdadera, sino que aparecerá en el campo visual desviada hacia la dirección del movimiento orbital de la Tierra. Este cambio de posición de los astros —aberración de la luz— debido a la velocidad finita de los rayos y a la traslación del globo, suministró a Bradley una prueba del movimiento orbital de la Tierra y además un medio para determinar la velocidad de la luz y corregir la primera aproximación de Römer.
Como en los problemas de la mecánica, en los de la óptica la autoridad de Newton permanecía absoluta en el transcurso de este siglo. La hipótesis corpuscular sostenida por el gran inglés contaba con una adhesión casi universal, y a pesar de ello, se manifestaban dudas, aunque poco seguras de sí mismas. Euler preguntó cómo reconciliar la imagen granular de la luz con la existencia de cuerpos transparentes. Las partículas luminosas sólo pueden atravesarlos pasando por sus poros; como los rayos los atraviesan en todas direcciones, una sustancia transparente debería consistir sólo en poros.

2. Los fenómenos del sonido
Brook-Taylor: Las vibraciones de la cuerda; Sauveur y los armónicos; Las sirenas de Cagniard de la Tour; Los experimentos de Chladni; Propagación del sonido en distintos medios; El eco; Llamas sonoras.

Los fenómenos del sonido cautivaron particularmente el interés de los investigadores de la época postnewtoniana. Mientras que Euler, Daniel Bernoulli y Lagrange resolvían numerosos problemas mecánico-matemáticos planteados por cuerdas y varillas oscilantes o por tubos sonoros, Sauveur, Chladni y otros pidieron a los experimentos respuesta a las cuestiones dejadas pendientes por el siglo anterior.
¿Cuál es el número de vibraciones que una cuerda realiza bajo una tensión determinada? El inglés Brook-Taylor (1685-1731), cuyo nombre es recordado en matemáticas por su famosa serie, dio la fórmula

eq16.png

que liga el número (n) de las vibraciones con la longitud (l), con la sección (q) de la cuerda, el peso tensor ( P) y la aceleración (g) de la gravedad. El imprescindible Euler mostró la utilidad práctica de la fórmula de Taylor. Hasta entonces se ignoraba cómo determinar el número de vibraciones de un sonido dado, había que contentarse con distinguir los intervalos de los sonidos, y era menester un oído afinado para no equivocarse. Pero Euler pone una cuerda al unísono con un sonido conocido y sustituye en la fórmula de Taylor los valores del peso, de la tensión y de la longitud de la cuerda, llegando de este modo a obtener, por primera vez, el número de las vibraciones de un sonido determinado. Algún tiempo antes de la publicación de Taylor, su compatriota el laudista londinense Juan Shore (1711) inventó los diapasones, destinados a adquirir gran importancia en los experimentos acústicos.
En el mismo año que Shore logró su invención, el investigador francés Sauveur concluyó una serie de publicaciones que elucidaron el fenómeno de los sonidos armónicos, ya entrevisto, pero no explicado, por el padre Mersenne. José Sauveur (1653-1716) era casi sordo y fue la enfermedad la que despertó su interés por las experiencias acústicas. Estudió la relación de los sonidos que una cuerda o un tubo puede emitir junto a la nota fundamental. Aplicó a la cuerda caballetes de papel para encontrar los puntos en que no vibra —los nodos— y puso de manifiesto los sonidos —los armónicos— cuya longitud de onda es 2, 3, 4… veces inferior, y por consiguiente su frecuencia es 2, 3, 4… veces superior a la de la nota fundamental. Al sonar simultáneamente dos tubos de órgano, Sauveur descubrió y explicó las pulsaciones (battements). Si uno de los tubos produce un sonido con 32 vibraciones, otro con 40 por segundo, el fin de la cuarta vibración del primer sonido coincide con el de la quinta vibración del segundo sonido, los dos sonidos se suman y se produce una pulsación, que se repite 40 - 32 = 8 veces por segundo. Así, el número de las pulsaciones producidas por el acoplamiento de un sonido conocido con otro desconocido, puede servir para calcular el número de las vibraciones de este último.
Gracias al descubrimiento de Sauveur, el método de Brook-Taylor no fue único para determinar la frecuencia de un sonido. Sólo cien años más tarde, en la segunda década del siglo XIX, el ingeniero francés Carlos Cagniard de la Tour (1777-1859) brindó un instrumento más cómodo para contar el número de las vibraciones de un sonido cualquiera: su sirena es un disco giratorio atravesado por agujeros oblicuos y equidistantes que producen, por medio de un fuelle, un sonido cuya altura dependerá del número de los agujeros y de la velocidad de rotación de la sirena, indicada por un contador.
Sauveur ensayó determinar con una serie de experimentos el límite trazado por la altura del sonido a su perceptibilidad para el oído humano. Sus medios no permitieron encontrar resultados correctos. Fue con la ayuda de la sirena de Cagniard de la Tour como el médico francés Félix Savart (1791-1841) llegó, hacia 1830, a demostrar que las vibraciones sonoras superiores a 15.000 por segundo se vuelven más y más débiles, y con 48.000 terminan por desaparecer. Fijó el límite inferior de perceptibilidad a 16 vibraciones por segundo, mientras que su compatriota Despretz estimó que las vibraciones inferiores a 32 por segundo ya escapan al oído.
Entre los numerosos investigadores que buscaron el límite de la perceptibilidad acústica se encuentra también Ernesto Chladni (1756-1827). Este apasionado amante de la música, que viajó por Alemania de una ciudad a otra dando lecciones, es el verdadero fundador de la acústica experimental. Hay pocos problemas acústicos accesibles a los medios de la época que no haya tocado. Descubrió las vibraciones longitudinales de cuerdas, varillas y placas, demostró que los sonidos longitudinales están siempre, en algunas octavas, por encima de los sonidos transversales. Estudió las relaciones entre las vibraciones que el frote y el toque producen en una varilla, y encontró que la razón entre los dos modos de oscilación está expresada por 3/2; más tarde Poisson llegó, gracias al análisis, a la cifra exacta ½√2
El más famoso de los descubrimientos de Chladni son las figuras que llevan su nombre. Figuras de polvo que obtuvo en 1777 el físico alemán Lichtenberg por vibraciones eléctricas, incitaron a Chladni a producirlas en placas circulares y hexagonales con vibraciones acústicas. De una placa vibrante, sea de metal, sea de vidrio, se pueden sacar infinitos sonidos, cuyas relaciones son muy complicadas. Las figuras sonoras de Chladni evidenciaron la relación entre el sonido obtenido y los movimientos vibratorios de la placa.
Por primera vez en la historia los sonidos se volvieron visibles. Chladni presentó sus figuras —fueron casi doscientas—, en 1807, al Instituto de Francia; Napoleón quedó tan impresionado, que hizo entregar al descubridor una recompensa de 5.000 francos.
La explicación teórica del fenómeno tentó a los fisicomatemáticos, entre ellos los más eminentes» como Lagrange, Cauchy, Kirchhoff y por fin Wheatstone; sin embargo, ninguna de las ecuaciones propuestas fue por completo satisfactoria.
Chladni estudió también la propagación del sonido en tubos de órgano, llenando los mismos con gases distintos. Comprobó que la velocidad del sonido es más elevado en el hidrógeno (1.280 metros por segundo) que en el aire y más débil en el ácido carbónico (270 metros por segundo).
Ya Newton, como hemos indicado, había establecido una fórmula para la velocidad de las ondas sonoras en medios gaseosos. Los experimentos de Chladni pusieron de manifiesto el carácter aproximado de la regla newtoniana, rectificada en el transcurso de los acontecimientos por Laplace. Un problema apasionadamente discutido fue la propagación del sonido en los líquidos; como se negó la compresibilidad del agua, pareció lógico concluir que el agua no conduce las vibraciones sonoras. El sabio abate Nollet, en París, se sumergió él mismo en el Sena y salió con la convicción de que las señales sonoras eran perfectamente audibles y no cambiaban más que su intensidad. Experiencias con agua desprovista de aire probaron luego la caducidad de la objeción de que sería el aire contenido en el líquido el conductor del sonido. A pesar de ello, la velocidad del sonido en el agua fue sólo establecida exactamente en la tercera década del siglo XIX: Colladon y Sturm transmitieron tañidos de campanas en el lago de Ginebra, y encontraron la velocidad igual a 1.435 metros por segundo. En ciertos sólidos como el hierro y la madera de abeto, el sonido se propaga más rápidamente. Chladni comparaba los sólidos con tubos abiertos y llegó de este modo a números que no distan mucho de los valores modernos.
Un enigma acústico, dos veces milenario, la reflexión de las ondas sonoras tal cual se presentan en el fenómeno del eco, fue elucidado por Chladni y formulado matemáticamente por Euler. El filósofo Bacon de Verulam había reconocido en el siglo XVI que el número de las sílabas repetidas por el eco depende de la distancia de la pared reflectora. Se oirá el eco, aseguró Chladni, si el sonido reflejado llega al observador después del sonido directo; la resonancia se producirá si el sonido reflejado prolonga el sonido directo. Estas sencillas observaciones condujeron a la teoría matemática del fenómeno verificada por la experiencia.
Las vibraciones sonoras que excita una llama de hidrógeno encerrada en una campana de vidrio fueron observadas en 1777 por el inglés Higgins y por el suizo Deluc, más éstos fueron incapaces de explicar el sorprendente fenómeno interpretado por Chladni. Los choques de aire producidos por la explosión de hidrógeno, afirma Chladni, engendran el sonido; las vibraciones son de la misma naturaleza que las del sonido de una flauta. Los golpes alternativos del aire soplado en la embocadura del instrumento, al condensarse y rarificarse, producen ondas sonoras; hay, pues, una perfecta analogía entre los sonidos de la flauta y los de la llama, de la cual hasta se pueden, reglando su longitud, obtener armónicos.
Gracias a los experimentos del incansable Chladni y al análisis de Euler y Bernoulli, la mayoría de los fenómenos fundamentales de la acústica fueron aclarados en gran medida en el siglo XVIII. Las vibraciones sonoras, longitudinales y transversales fueron estudiadas, sus velocidades en los medios más distintos quedaron determinadas y los factores que reglan la altura y la intensidad del sonido aparecieron con nitidez; sin embargo, la tercera característica, el timbre, que diferencia a dos sonidos de igual altura e intensidad, pero pertenecientes a instrumentos diversos, permaneció enigmática hasta los trabajos de Helmholtz a mediados del siglo XIX.
Si la época postnewtoniana sabía perfectamente que el sonido es producido por vibraciones, ignoró qué era lo que vibraba. Las opiniones sobre el ambiente en que se propagan los sonidos son confusas a tal punto, que en 1768 se oye al sagaz Lambert afirmar que las partículas del éter mezcladas con el aire transportan las oscilaciones del sonido de un punto del espacio al otro. Esta incertidumbre no desaparece definitivamente antes de los comienzos del siglo XIX.

3. Problemas del calórico: Black, Watt y Rumford
Comienzos de la calorimetría; Black y el calor latente El concepto del calor específico; Watt y su máquina de vapor; ¿Calor-sustancia, o calor-movimiento?; Experimentos de Rumford en el arsenal de Münich; Descubrimiento de los rayos infrarrojos por Herschel y de los ultravioletas por Ritter.

Las búsquedas de la época galileonewtoniana sobre los fenómenos térmicos tuvieron un carácter cualitativo: el calor era considerado como una sustancia cuyas propiedades era necesario explorar en primer término. El siglo XVIII hereda y mantiene los «imponderables» de sus antecesores: el calor, igual que la luz y la electricidad es para él una sustancia sin peso que pasa de un cuerpo a otro sin que su cantidad sufra modificación alguna.

12.jpg
José Black

Las ideas del clarividente Daniel Bernoulli, su hipótesis de la identidad entre temperatura y movimiento molecular, queda al finalizar la época —hasta los experimentos de Rumford— como una mirada casi aislada en el enigma del calor. Cualesquiera hayan sido las opiniones sobre la íntima naturaleza del calor, el siglo XVIII tiene el mérito de haber creado el concepto de cantidad de calor y haberla medido.
En sus ensayos termométricos, no escapó a los físicos de la Academia del Cimento florentina que cantidades iguales de líquidos distintos, aunque a la misma temperatura, no son capaces de fundir la misma cantidad de hielo. Anotaron en 1641, en el diario de su Academia, el hecho inesperado, sin obtener, sin embargo, la conclusión que parecía imponerse. ¿Habría una diferencia entre grado y cantidad de calor, como sostenía el sabio sueco Klingenstjerna? Fue el arte experimental del inglés Black el que aclaró las confusas ideas.
El médico y químico escocés José Black (1728-1799) fue uno de los más hábiles experimentadores que Inglaterra dio a las ciencias en las décadas postnewtoniana. En la interpretación de sus experimentos demostró extraordinaria sagacidad y cierta independencia con respecto a muchas ideas preconcebidas de la época. Black demostró que cantidades definidas de calor desaparecen con el cambio del estado físico, en la fusión y en la evaporación, y puso de manifiesto que las mismas cantidades de calor reaparecen en el cambio opuesto, en la congelación y en la condensación. Al factor que desaparece y reaparece lo llamó calor escondido o latente (concealed heat).
Black observó que al mezclar pesos iguales de agua con distintas temperaturas, la temperatura de la mezcla es la media de la temperatura de los componentes. Pero este hecho tan evidente no se verificó cuando agregó agua a 79° C. a igual cantidad de hielo; éste se fundió, mas la temperatura, en lugar de elevarse a (79º + 0º)/2 = 39,5°, permaneció obstinadamente en 0º.

«Hay pocos hechos — dice Crewe [28] con razón — en toda la física que sean más sorprendentes que el descubrimiento de Black: una libra de hielo a 0º mezclada con una libra de agua a 79°, da dos libras de agua a 0º.»
De este modo, el calor desaparece, se vuelve inaccesible a la medida termométrica, y se hace latente. Lo mismo ocurre con el calor en la evaporación de los líquidos. Además, Black encontró que una masa dada de agua necesita para su vaporización una cantidad de calor capaz de elevar en un grado centígrado la temperatura de una masa de agua superior en 445 veces a la dada. Sus observaciones condujeron a Black a admitir que hay dos unidades naturales del calor: la cantidad de calor requerida para transformar la unidad de hielo en unidad de agua sin cambio de temperatura, y otra unidad, requerida para elevar en un grado centígrado la temperatura de la unidad de masa del agua: unidad que se llamará más tarde caloría.
Algunos años antes de los notables experimentos de Black, el sabio ruso Jorge Richmann (1747) estableció la temperatura (t) que asume la mezcla de dos cuerpos homogéneos, tomados a diferentes temperaturas (t1, t2) y en cantidades diversas (ml, m2).
Encontró

eq17.png

Black, e independiente de él, el físico alemán Wilke, extendieron las investigaciones a sustancias no homogéneas y de distintos estados de agregación; demostraron que pesos iguales de cuerpos diversos exigen cantidades diferentes de calor, para elevarse a la misma temperatura: el agua absorbe cinco veces más calor que el hierro, y treinta veces más que el mercurio, para adquirir la misma temperatura.

13.jpg
Jaime Watt

Desde entonces, la idea del calor específico se impuso. El calor específico, que varía de una sustancia a la otra, no parecía en primer término ligado a ninguna característica sobresaliente, física o química, de los cuerpos. Hubo de esperarse hasta la segunda década del siglo XIX, a los trabajos de los franceses Dulong y Petit, para descubrir detrás de la máscara de las variaciones la ley que liga los calores específicos con los pesos atómicos de las sustancias elementales.
Las experiencias de Black impresionaron profundamente a Jaime Watt (1736-1819), mecánico de la Universidad de Glasgow, donde Black profesaba.
Su demostración de que la evaporación de una pequeña cantidad de agua necesita una gran cantidad de calor, atrajo vivamente el interés del joven mecánico, que se propuso mejorar el débil rendimiento de la rudimentaria máquina de vapor de Newcomen. Esta máquina, como su antecesora, la de Papin, servía para elevar agua. Un balancín provisto de una cadena estaba unido por un extremo al vástago de una bomba hidráulica, y por el otro al émbolo móvil de un cilindro. El vapor impulsaba el pistón hacia lo alto; una inyección de agua fría introducida en el cilindro producía una depresión permitiendo al aire exterior impulsar el pistón hacia abajo en el cilindro. Válvulas reguladas por el balancín abrían y cerraban automáticamente el paso del vapor. Tal era la famosa máquina en 1763, cuando el azar puso un modelo en manos de Watt. El exorbitante desperdicio de energía por las alternancias del calentamiento y enfriamiento del cilindro no escaparon al brillante discípulo de Black. Para eliminar la pérdida de energía revistió el cilindro con madera, le agregó una cámara refrigerante, el «condensador», dotada de una bomba para quitar después de cada operación el agua caliente y el vapor. La presión atmosférica no tenía ya que empujar el émbolo y era el vapor el que lo hacía subir y bajar. Las bombas de alimentación, el regulador centrífugo, fueron otras tantas innovaciones introducidas por Watt en el rejuvenecido modelo. En resumen, la máquina de Watt obtuvo con la misma cantidad de vapor mucho más trabajo que la de Newcomen. Imposible es desconocer la eficacia de las enseñanzas de Black en los ingenios técnicos de Watt: el condensador, destinado a absorber el calórico latente del vapor, es una idea blackiana.
A pesar de su crítico y penetrante espíritu, Black no logró liberarse por completo de las doctrinas corrientes en su época. La hipótesis de la naturaleza material del calor encontró en él un ardiente defensor. Sus ideas favoritas se ajustaron perfectamente a este concepto que no hubiera podido rechazar sin sacrificios. Black trata el calor como verdadera sustancia que pasa de un cuerpo a otro, sin que su cantidad —que supo tan hábilmente medir— sufra una modificación; si el calor deja de manifestarse a nuestra sensación o a la columna termométrica, sigue existiendo, no obstante, en estado latente. Indestructible y no creable, el calor parece desde entonces a un elemento químico; por supuesto, un elemento imponderable, y como tal figura en la tabla presentada por Lavoisier de los cuerpos elementales. Sin duda, las consideraciones de Lavoisier frente a la materialidad del calor son débiles; en realidad, tanto Lavoisier como Laplace opinaron con ciertas reservas, vacilando entre las dos tesis opuestas: calor-fluido y calor-movimiento.
El calor no tiene peso, afirman casi todos los físicos del siglo XVIII. Rumford demuestra con una balanza sensible que no hay cambio ponderable en la transformación de una masa de agua en hielo o del hielo en agua, aunque la cantidad calorífica en juego bastaría para elevar la temperatura de diez onzas de oro del punto de congelación hasta el rojo incandescente. Por cierto, el calor —concluye Rumford— es imponderable, pero ¿es una sustancia? Rumford lo niega y es el primero en probar lo contrario con experimentos.
Benjamín Thompson, conde de Rumford (1753-1814), aventurero de genio, hijo de un granjero yanqui de Nueva Hampshire, coronel del ejército inglés, ministro de la Guerra del príncipe alemán Carlos Teodoro de Baviera, diplomático astuto, favorito de las damas, era sobre todo un hábil observador y pensador con originales ideas. Los últimos años de su vida los pasó como investigador celebrado en Londres y en París, y en esta última ciudad se casó con la viuda de Lavoisier.
En el arsenal militar de Münich, la atención de Rumford fue atraída por la enorme cantidad de calor que desarrolla el barrenamiento de los tubos de cañón. Los tubos se calentaban al igual que los barrenos y las virutas. ¿De dónde viene tal calor?, se preguntó Rumford. Si el calórico fuera una sustancia, su súbita aparición debería estar acompañada por el enfriamiento del ambiente de donde fue tomada, mas ninguno de los materiales empleados en el barrenamiento evidenciaba una disminución de temperatura. Admitamos, reflexionó Rumford, que el calórico sustancial estuviera escondido en la masa del bronce y exprimido como el agua de una esponja por la presión de la mecha. En tal caso, sería menester suponer que una cantidad finita de bronce oculta una cantidad infinita de sustancia calórica, dado que el calor fluye del tubo tanto tiempo como se lo perfora. Rumford no se contentó con estas filosóficas reflexiones y acudió al experimento. Puso el bloque de bronce en un recipiente con agua y midió el calor engendrado por el barrenamiento: después de treinta minutos la temperatura del bloque se elevó de 17° a 54°. La mecha quitó durante este tiempo 837 granos de metal. ¿Cómo suponer, y así lo quisieron los defensores de la materialidad del calor, que por modificación del calor específico de una masa tan débil, las 113 libras del bloque hayan podido sufrir una elevación de temperatura equivalente a 37o? Después de dos horas las 26 libras de agua fría del recipiente comenzaron a hervir. ¿No era la caducidad de la hipótesis del calórico material evidente de este momento?

«El calor —declaró Rumford el 15 de enero de 1798 en sesión de la Sociedad Real de Londres— no puede, por cierto, ser una sustancia material. Me resulta difícil, cuando no imposible, representármelo si no lo considero como movimiento.»
Reconoce con claridad que el trabajo de los caballos al girar el torno engendró en sus experimentos el calor. Es, pues, el primero en haber medido, aunque groseramente, la relación numérica entre trabajo mecánico y calor, la magnitud fundamental que veinticinco años más tarde, en los experimentos de Joule, se llamará equivalente calórico.
La tesis de Rumford encontró inmediatamente un poderoso apoyo en los ensayos del químico inglés Humphry Davy. Mostró éste en 1799, que dos pedazos de hielo frotados en el vacío el uno contra el otro, a una temperatura de -2o C se fundieron, dando agua a una temperatura de +2o C. La objeción de los adversarios de que el calor engendrado por el frotamiento provendría de una modificación del calor específico de la materia separada —vale decir en este experimento del agua— se encontró refutada, dado que el calor específico del hielo es en mucho inferior al del agua.
Otras ideas de Rumford fueron menos afortunadas: admitió que líquidos y gases no conducen el calor, cuyo transporte en estos medios no se operaría más que por corrientes. La incertidumbre que rodeaba el problema desapareció sólo con los convincentes ensayos de Despretz, en 1833, que probaron que una columna de agua conduce el calor al igual que una barra de metal.
En suma, la época postnewtoniana realizó en el dominio de los fenómenos térmicos dos considerables progresos. Separa, gracias a Black, definitivamente, cantidad y grado de calor, y aporta, con Rumford, la primera prueba de su naturaleza cinética. Antes de que el siglo XVIII finalizara, precisamente en su último año, otro importante descubrimiento acaece y abre los dominios casi inexplorados de las radiaciones calóricas. Durante milenios, desde la antigüedad hasta el Renacimiento, la humanidad creyó que rayos de calor y rayos de luz son inseparables uno del otro. Los discípulos florentinos de Galileo demostraron la existencia de rayos calóricos distintos de los luminosos. Por medio de un espejo esférico de hielo, el padre Mersenne llegó a encender pólvora y probó, con espectaculares experimentos, que rayos calóricos y luminosos obedecen a la misma ley de reflexión. Unos y otros se propagan en línea recta y su intensidad decrece con el cuadrado de la distancia, afirmó Lambert en 1779. Por último, el astrónomo inglés Guillermo Herschel (1738-1822), al examinar en 1800 los colores a lo largo del espectro solar, con un termómetro sensible, se percató de que la mayor elevación de temperatura se encuentra más allá del rojo, en la parte invisible del espectro, y descubrió así los rayos infrarrojos. Los experimentos de Herschel impulsaron al físico alemán J. Guillermo Ritter (1776-1810) a preguntarse si no hay rayos más allá de la otra extremidad del espectro, es decir, más allá del violeta. Antes, el químico sueco Guillermo Scheele había observado que el violeta ennegrecía más rápidamente que los otros rayos del espectro al cloruro de plata. Ritter vio que el ennegrecimiento se efectúa con la máxima rapidez más allá del violeta, y encontró, en 1801 —un año después del infrarrojo de Herschel—, los rayos ultravioletas. Así, en los albores del siglo XIX el espectro se extendió en ambos sentidos, hacia lo invisible, más allá de los herméticos siete colores de Isaac Newton.

4. Los primeros electricistas
Gray: La conductividad eléctrica; Dufay: Electricidad vítrea y electricidad resinosa; Franklin: Teoría unitaria; La máquina electrizante; Kleist y Musschenbroek: La botella de Leiden; El pararrayos de Franklin; Aepinus descubre la electricidad de los cristales; El electroscopio; La balanza de torsión; Coulomb y su ley.

Con más fuerza que otras ramas de la física, atrajeron la curiosidad de los investigadores, en el transcurso del siglo XVIII, los fenómenos eléctricos. Exploraron el extenso dominio de la electricidad estática y tropezaron con un considerable número de hechos que asombraron y espantaron a los buscadores. Cada vez más se arraigó en ellos la convicción de encontrarse en un terreno igual, cuando no superior en importancia, al de los fenómenos térmicos. Hacia fines del siglo aparecen las primeras leyes cuantitativas. Con los nuevos conocimientos pacientemente acumulados por los experimentadores, la electricidad pierde en la época postnewtoniana el misterio que campeaba en los estudios de los tiempos de Gilbert y Guericke.
Dos años después de la muerte de Newton, Esteban Gray (16961736) participó a la Sociedad Real de Londres un notable hallazgo: descubrió una nueva propiedad de la electricidad: su conductibilidad. Gray había electrizado por frotamiento un tubo de vidrio puesto en contacto por medio de una larga cuerda de cáñamo con una pequeña bola metálica y vio a ésta atraer cuerpos livianos; si suspendía la cuerda mediante un clavo del techo de la cámara la bola no ejercía ninguna atracción; sin embargo, recuperaba en seguida la facultad perdida si la cuerda estaba suspendida con hilos de seda. La experiencia, seguida por otras análogas, llevó a Gray a la distinción de cuerpos conductores y no conductores. Repite sus experimentos con varios conductores, entre otros con un niño colocado sobre una mesilla que pendía de cuerdas de seda: aproximándole, sin tocarlo, una varilla de cristal frotada, comprueba que el cuerpo del niño atrae ligeros trozos de metal; de este modo descubre la electricidad por influencia. Gray reconoció también la conductividad de los líquidos e inventó la banqueta aisladora. Su muerte prematura privó a la Sociedad Real de un experimentador de altas cualidades.
El hecho de que los conductores de Gray fueran idénticos a los cuerpos no eléctricos de Gilbert y los cuerpos eléctricos de éste los no conductores de Gray, no podía escapar durante mucho tiempo a la observación de los investigadores. El sabio francés Desaguliers fue el primero en notarlo, y su compatriota Dufay sacó las conclusiones que los nuevos conocimientos imponían.
Francisco Cisternay Dufay (1698-1739), espíritu universal, botánico, geómetra, químico y físico, probó que, contrariamente a la opinión de Gilbert, todos los cuerpos son electrizables por frotamiento; el ilustre inglés no lograba electrizar ciertas sustancias a causa de su conductividad. Tenidas en la mano y frotadas, cedían al cuerpo del operador su electricidad. Estas mismas sustancias, aisladas, se electrizan como las otras. Dufay examinó la conductividad de los metales, la de cuerpos de animales y demostró que la llama también conduce la electricidad. Vio que una lámina de oro, electrizada con una varilla de vidrio frotada, era repelida por ésta, en tanto que era atraída por otra de resina frotada. Esta experiencia se volvió el punto de partida de una conclusión de gran importancia:
«Hay —escribe Dufay en 1734— dos clases diferentes de electricidad, muy distintas entre sí: una que llamo electricidad vítrea y otra resinosa. La primera es la del vidrio, cristal de roca, piedras preciosas, pelo de animales, lana y muchas otras sustancias; la segunda es la del ámbar, goma laca, seda, hilo, papel y otros cuerpos. L a característica de ambas electricidades es que un cuerpo cargado con electricidad vítrea repele a todos los demás cargados con la misma electricidad y, por el contrario, atrae a los que poseen electricidad resinosa»[29].
El descubrimiento de dos clases de cargas pareció sugerir una teoría dualista de la electricidad, formulada, más explícitamente que por Dufay, por el físico inglés R. Symmer; supuso, en 1759, la existencia de dos fluidos eléctricos que al estar mezclados en iguales cantidades en un cuerpo, determinarían el estado neutro; el frotamiento perturbaría la relación cuantitativa de las cargas, provocando el predominio de una de ellas. Las cargas opuestas del cuerpo frotado y del frotador parecían militar en favor de la doctrina, a la que no faltaron, sin embargo, contradictores.
Benjamín Franklin (1706-1790), sobresaliente en igual modo como estadista e investigador, propuso una teoría unitaria, más simple que las de Dufay y Symmer. Cierta cantidad de un único fluido determinaría el estado normal, neutro, del cuerpo; un exceso o defecto produciría electricidades de distinta clase. El frotamiento, afirmó Franklin, modificaría la distribución del fluido en el cuerpo frotado y en el frotador: el uno pierde electricidad, el otro la gana. La chispa que puede saltar entre ellos es el retorno al estado de equilibrio. Conforme a estas suposiciones, Franklin sugirió (1747) llamar a la electricidad vítrea positiva, a la resinosa negativa. Términos que, a pesar de su infortunada elección, se mantuvieron. La mayoría de los fenómenos eléctricos conocidos entonces se explicaban tanto por una como por la otra hipótesis. A pesar de ello, una experiencia de Franklin mismo parecía contradecir su propia teoría. En la imagen unitaria la descarga consistiría en el hecho de que el cuerpo positivo, que posee electricidad en demasía, la transmite al negativo, que tiene poca. Más cuando Franklin hizo pasar una chispa a través de un libro, vio que el agujero que hizo la chispa en ambas caras del libro presentaba bordes vueltos hacia el exterior. Otro fenómeno, las figuras de polvo que cargas puntuales (parciales) dibujan sobre placas no conductoras, las «figuras de Lichtenberg» (1777), parecía testimoniar en favor de la hipótesis dualista, ya que las figuras presentaban distintos aspectos de acuerdo con el signo de la carga eléctrica. En suma, la hipótesis dualista conquistó el asentimiento de los contemporáneos. La moderna teoría electrónica invierte el veredicto. Los actuales conceptos semejan más a la doctrina de Franklin. Si un cuerpo está electrizado, su equilibrio electrónico se halla perturbado. Esta idea fundamental es común a la tesis de Franklin y a la teoría actual.
Más importante que las especulaciones teóricas de Franklin son sus éxitos experimentales. Éstos están íntimamente ligados a las considerables mejoras introducidas en la máquina electrizante de Guericke. La primitiva bola de azufre frotada con la mano se vio completamente transformada, en el curso de la primera mitad del siglo XVIII; se puede seguir la metamorfosis de etapa en etapa: Hauksbee reemplazó la esfera de azufre por una de vidrio; Hansen la hace girar con ayuda de una transmisión mediante poleas; Bose la provee de un tubo de hierro laminado —el primer «conductor»— terminado con una mecha de cáñamo para recoger la carga; Winkler le agrega el frotador de cuero, que Cantón recubre con amalgamas mercuriales, y por fin,, en 1753, la bola o cilindro de vidrio desaparece, sustituida, gracias al suizo Planta, por un disco de cristal. Grandes modelos de esta máquina, como el de Van Marum, en Holanda, provisto de dos conductores y cuatro frotadores, produjeron enormes chispas hasta de medio metro de longitud, y permitieron realizar experimentos espectaculares, encendiendo sustancias inflamables, sólidas y líquidas.
Poco tiempo antes, en 1745, el clérigo alemán E. Jürgen Kleist procuró electrizar el agua. En la botella de vidrio que contenía el líquido introdujo un clavo que cargó poniéndolo en contacto con un conductor. Recibió un violento golpe, cuando tomó la botella en la mano y tocó la extremidad libre del clavo. En Leiden, lejos de Pomerania, donde vivía el sabio sacerdote, el físico holandés Pedro van Musschenbroek y su amigo Cunaeus, tropezaron meses más tarde, independientemente de Kleist, con el mismo fenómeno.
La idea sobre la cual se basa el condensador —como lo llamara más tarde Volta— estaba implícita en estas primeras experiencias de Kleist y Musschenbroek. Faltaba sólo reemplazar la armadura interior, el agua, y la armadura exterior, la mano del experimentador, por dos hojas de estaño separadas por la pared del frasco. Así hicieron los físicos ingleses Juan Bevis y Guillermo Watson (1748) creando la botella de Leiden.
¿Dónde reside la carga en la botella de Leiden?, se preguntaron Winkler y Franklin. Si se la descarga y se espera algunos minutos —observó Winkler—, se puede producir una segunda chispa, aunque menos fuerte que la primera. La carga residual así descubierta, contradecía la suposición de que la electricidad estuviese adherida a las armaduras de estaño. Franklin hizo ver, con una clásica experiencia, que había de buscarse el asiento de la electricidad en un cierto estado de tensión del cristal aislador de la botella —en el futuro dieléctrico de Faraday—. Si por la comunicación de ambas armaduras, la descarga suprime la causa de esta tensión, el cristal no vuelve sino lentamente a su estado inicial. Franklin construyó una botella con armaduras movibles: dos cubiletes metálicos con el vaso de vidrio interpuesto. Después de ser cargada y ya aislada, quitó sucesivamente y con la mano ambas armaduras descargándolas. Al reconstruir la botella mostró que se puede sacar de ella una chispa casi tan poderosa como si no hubiese descargado las armaduras. También realizó experimentos análogos con un condensador de tabla de vidrio, la famosa «tabla de Franklin», ideado, sin embargo, no por el inventivo americano, sino por el inglés Smeaton.
Extraordinaria curiosidad suscitaron los experimentos de Franklin sobre la electricidad de las tormentas. La analogía que presentaban las poderosas chispas de la botella de Leiden y el estruendo de su descarga con el rayo y el trueno, no habían escapado a la atención de los investigadores que le precedieron. En la primera década del siglo, el médico inglés Wall sospechó la secreta relación entre los fenómenos eléctricos y el rayo; más tarde, el físico alemán Winkler opinó que ambos eran idénticos. Estas hipótesis, más o menos vagas, carecían de prueba. Ésta fue dada por Franklin, quien tuvo la feliz idea de aplicar el poder compensador de las puntas —indicado por varios observadores— a la exploración de las nubes tempestuosas. Tan pronto como logró demostrar la descarga de un conductor aislado por una punta unida a tierra, concibe el proyecto de colocar en una elevada plataforma una antena terminada en punta y unida por un hilo conductor con una gran esfera aislada, de la cual, al aproximarse una tormenta, podrían sacarse chispas. Al mismo tiempo (1750) propone proveer a las cúspides de altos edificios y los mástiles de los barcos, con antenas terminadas en una punta de oro y unidas por un conductor con el suelo, o el agua, respectivamente. Más inmediato que la repercusión de estas consideraciones fue el efecto de su famoso experimento en el verano de 1752. Durante una tempestad hizo remontar una cometa de seda provista de una punta metálica y sujeta con una cuerda conductora, que terminaba en una clavija de hierro; ésta llevaba un hilo de seda que Franklin tomó con la mano. De la clavija metálica pudo sacar innumerables chispas. La identidad de la electricidad celeste con la terrestre y la naturaleza eléctrica del rayo quedaron desde entonces demostradas: el rayo de Júpiter obedeció a las leyes de la física. El penetrante olor que acompaña en la atmósfera a las poderosas descargas —descrito por los antiguos observadores como olor de azufre— fue atribuido por Franklin a su verdadero motivo: a un cambio provocado por la electricidad en la constitución del aire. Más tarde, Schönbein (1840) reconoció en este cambio la formación del oxígeno triatómico, el ozono. Además, con su cometa, Franklin exploró la electricidad atmosférica y encontró cargas también en ausencia de nubes.
La teoría de Franklin sobre las nubes y su pararrayos ofrece un característico ejemplo del hecho frecuente en la historia: que los inventores a menudo no comprenden el íntimo mecanismo de los instrumentos que han creado. Franklin estaba convencido de que las nubes no pueden estar negativamente cargadas, pero la experiencia le mostró bien pronto lo contrario; creía que las puntas de sus pararrayos roban a las nubes tempestuosas su electricidad; sabemos que ocurre lo contrario. La nube roba la electricidad de signo opuesto —producida por influencia en el suelo— y la arranca a través de las puntas del pararrayos hacia sí misma. El gran matemático D’Alembert parece haber compartido el error de Franklin, como lo testimonian las hermosas y patéticas palabras con que recibiera en 1783 al ilustre americano en la Academia Francesa: Eripuit cáelo fulmen, sceptrumque tyrannis ( Arrancó el rayo al cielo y el cetro a los tiranos).
Al mismo tiempo que Franklin exploraba las chispas del cielo, un sabio alemán que vivía en Rusia, Francisco U. T. Aepinus (1724-1802) hizo interesantes descubrimientos sobre la electricidad de los cristales. La turmalina, cristal que los colonizadores holandeses trajeron de Ceilán, poseía la curiosa propiedad —conocida hacía siglos por los indígenas— de atraer, si era calentada, partículas de ceniza. Los experimentos de Aepinus hicieron ver que la atracción sólo se produce si el cristal está desigualmente calentado; sus dos extremidades manifiestan entonces electricidades de signos opuestos. Si sólo se calienta un extremo de la turmalina —observó Cantón—, el otro permanecerá eléctricamente neutro. ¿Era la turmalina el único cristal que poseía propiedades piroeléctricas? Cantón descubrió que éste era también el caso del topacio, Wilson agregó la esmeralda brasileña, y bien pronto la lista de los cristales piroeléctricos se enriqueció. Desde entonces el frotamiento dejó de ser la única manera de electrizar materia. Apenas concluido el siglo XVIII, el cristalógrafo francés abate Haüy encontró que los mismos cristales electrizables por calentamiento, lo son también si se los comprime. La electricidad producida por presión en los cristales recibió luego el nombre de piezoelectricidad.
Todos estos hechos acumulados por pacientes exploradores elucidaron un vasto campo de fenómenos electrostáticos, sin comportar más que observaciones cualitativas. Las leyes numéricas permanecían largo tiempo fuera del alcance de la investigación. Las tentativas para medir la velocidad de la electricidad emprendidas por el médico francés Le Monnier (1746) y el experimentador inglés Watson (1748) estaban condenadas, por supuesto, a fracasar; se contentaron con reconocer que la velocidad era inconmensurable. Más éxito tuvieron los ensayos de medir la fuerza de las cargas. Cantón (1754) suspendió dos esterillas de médula de saúco, aisladas, con hilos de seda, para deducir de la distancia entre las dos esterillas —que una vez cargadas se rechazaban— la fuerza de la carga. Volta utilizó en 1781 dos pajillas suspendidas de una bolita de latón fijada en la tapa, en el interior de un vaso de vidrio. Fue el primer modelo del electroscopio moderno, al que seis años más tarde el físico inglés Abrahán Bennet dio su forma actual, reemplazando las pajillas por dos delgadas láminas de oro.
En un siglo testigo de la estupenda fecundidad de la ley newtoniana, y dado a profunda admiración del genio del gran inglés, la semejanza entre la atracción gravitatoria y eléctrica debía, tarde o temprano, sugerir el pensamiento de que la ley de ambas podría ser análoga, cuando no idéntica. Daniel Bernoulli, Priestley y Cavendish llegan conjuntamente, hacia 1770, a afirmar esta hipótesis y el sacerdote inglés Juan Mitchell prevé la misma ley omnipresente para la interpretación de la atracción y repulsión magnéticas. Sin embargo, ninguno de ellos dio una prueba valedera; la demostración de la ley —tanto para las cargas eléctricas como para los polos magnéticos— es el mérito de Coulomb.
Carlos Augusto Coulomb (1736-1806), ingeniero militar, constructor de las fortalezas francesas en la Martinica, se dedicó en sus ocios a estudios sobre la brújula. Como experimentaba con agujas suspendidas por hilos, tuvo que estudiar —para poder medir— las fuerzas de torsión y determinar sus coeficientes para varias sustancias. Una vez obtenidos estos resultados, Coulomb verificó, gracias a las torsiones ocasionadas por las oscilaciones de una aguja magnética al hilo de suspensión, la fuerza que se ejerce entre dos polos magnéticos y encontró la ley del tipo newtoniano

eq18.png

¿Es Cou lomb el inventor de la balanza de torsión que acababa de utilizar tan hábilmente? ¿Acaso sería menester dejar el mérito de la invención al sacerdote inglés Mitchell, a quien Cavendish, en su memoria sobre la medición de la densidad del globo [30], atribuyó la paternidad del importante instrumento? Seguro es que Coulomb alcanzó independientemente de su rival el principio de su balanza, y que fue el primero en aplicarla a investigaciones eléctricas. Su aparato consistía en una liviana varilla suspendida de un recipiente de cristal por un fino alambre de plata, cuyo coeficiente de torsión era conocido. Con tan sencillo medio, verificó la ley —enunciada en 1785— de que la atracción y repulsión entre dos partículas eléctricas es directamente proporcional al producto de sus cargas, y lo es inversamente al cuadrado de la distancia. Descubrimiento de gran importancia que aun las investigaciones de Faraday, medio siglo después, sobre la influencia de los aisladores, dejan intacto y sólo agregan una constante propia del material, sin cambiar la esencia de la ley culombiana.
Los estudios de Coulomb sobre la repartición de la electricidad en los conductores llevaron a la conclusión de que la carga está sólo adherida a la superficie. Sin duda, varios físicos —entre ellos Esteban Gray— habían expresado antes que Coulomb la misma opinión, mas también aquí la experiencia, a la vez exacta e intuitiva, pertenece a éste. Coulomb mostró que una esfera hueca, car gada y aislada no ejerce ninguna acción eléctrica sobre bolillas de prueba colocadas en su interior. La ausencia de la fuerza interna suministraba un apoyo más a la ley del cuadrado inverso, ya que Newton había demostrado que una capa uniforme de materia gravitatoria no podría ejercer ninguna acción sobre un cuerpo situado en su interior y que ninguna otra ley de fuerza, salvo la del cuadrado inverso, podría dar cuenta de este hecho. Por último, Coulomb hizo ver experimentalmente que la densidad eléctrica de un conductor no depende de su sustancia, sino de su forma.
Las investigaciones de Coulomb cierran las numerosas incursiones hechas por el siglo XVIII en el inmenso dominio de la electricidad estática. En su última década, el teatro de los acontecimientos se desplaza de los tres países —Francia, Inglaterra y Alemania— que participarán sobre todo en los progresos, hacia un cuarto, Italia. Dos nuevas figuras surgen: Galvani y Volta, y con ellos nuevos fenómenos, que dan a las búsquedas una imprevista dirección.

Cuarta Parte
La física del siglo XIX

Capítulo 9
La corriente eléctrica desde Galvani hasta Ohm

Contenido:
1. Las ranas de Galvani y la pila de Volta
2. Efectos magnéticos y térmicos de la corriente

1. Las ranas de Galvani y la pila de Volta
Búsqueda de la electricidad animal; El error de Galvani; Volta descubre la corriente; La realidad de su pila y lo falso de su teoría; Paso de la corriente a través del agua; Nicholson, Carlisle y Bitter; Experimentos de Davy; La teoría de Grotthus.

El siglo XIX concluye la magna obra de la física clásica, cuyos cimientos colocaron Galileo, Huygens y Newton. La riqueza de ideas y descubrimientos que dicho siglo aporta a todas las ramas de la investigación es tanta, que hasta oscurece el resplandor de la centuria de los tres iniciadores. Las primeras décadas del siglo XIX crean las ciencias de la electrodinámica y del electromagnetismo, desarrollan en la óptica la teoría ondulatoria, encontrando en ella la llave maestra de los fenómenos luminosos entonces conocidos, y rompen el fuego —primero en el terreno fronterizo con la química— en favor de la estructura atomística de la materia; hacia la mitad del siglo XIX nace también la termodinámica; el principio de la energía está descubierto y extendido a todos los fenómenos de la naturaleza, cuya fundamental unidad se concibe cada vez más claramente. La teoría electromagnética de la luz funde en uno los dominios poderosamente acrecentados de la óptica y de la electricidad. Hacia fines de esta época, los fenómenos de descarga en el vacío abren el nuevo e insospechado campo de las radiaciones. Por último, la estructura granular de la electricidad se afirma y el electrón, átomo de la electricidad negativa, es puesto en evidencia.
Considerable como la importancia de sus descubrimientos es el prestigio de las grandes figuras que llenan —desde Volta y Fresnel hasta Hertz y Röntgen— los días de esa centuria. Algunos, como el experimentador Faraday o el teórico Maxwell, soportan la comparación —por la originalidad y el peso de sus contribuciones— con los sobresalientes genios de la época iniciadora. La belleza y la armonía del edificio que levantaron produce sobre los pensadores, hacia 1900, la impresión de que en sus rasgos capitales sería definitivo, y que podría resistir indefinidamente los embates de los siglos.
Los comienzos de las centurias no son en la historia más que líneas divisorias artificiales en el continuo flujo de ideas y acontecimientos. Mas el siglo pasado crea una excepción: la pila voltaica, cuya invención anuncia los tiempos nuevos, nace en 1800, descrita por primera vez en una famosa carta de Volta, datada el 20 de marzo de ese año. Sin embargo, sus orígenes se remontan a investigaciones anteriores de Galvani: las mismas observaciones que condujeron en el pensamiento de éste a una teoría errónea, en los experimentos de Volta llevaron a un admirable hallazgo.
Luis Galvani (1737-1798), anatomista de la Universidad de Bolonia, fue uno de los numerosos sabios que en ese período se dedicaron a estudios sobre la electricidad animal.

14.jpg
Luis Galvani

Las experiencias hechas sobre peces eléctricos, la comparación de sus violentas sacudidas con la conmoción de las descargas de la botella de Leiden, despertaron un vivo interés, y los hallazgos de los ingleses Walsh y Hunter, que disecando el siluro y el gimnoto eléctrico, encontraron sus órganos eléctricos (1773), nutrieron las esperanzas de los buscadores de lograr semejantes descubrimientos sobre otros animales.
No fue, pues, puro azar que en el laboratorio de Galvani las ranas disecadas se encontraran en la proximidad de máquinas eléctricas. Los discípulos del anatomista notaron (1780) que las patas de las ranas se contraían al sacar chispas de la máquina eléctrica y tocar simultáneamente los nervios crurales con un bisturí.
Al examinar Galvani con más atención el curioso fenómeno, averiguó que sólo se producía si durante la descarga de la máquina las extremidades de un nervio y de un músculo estaban unidas por un metal conductor. Para obtener convulsiones más violentas con chispas más fuertes, Galvani suspendió las patas de ranas de la antena del pararrayos de Franklin y comprobó el éxito de su experimento. Sus observaciones lo convencieron más tarde de que la condición característica del fenómeno era un arco conductor formado por dos metales y unido por sus extremidades libres con el nervio y músculo de la rana, dando así un circuito completo. Llegado a este punto, si Galvani no hubiera estado seducido por la falsa analogía entre sus ranas y los peces eléctricos, habría podido abreviar en una década las búsquedas que condujeron a la hazaña de Volta. Pero quería escudriñar la sede de la electricidad en los nervios y músculos de sus batracios, y cuando logró reproducir sus experimentos con órganos de diferentes animales, creyó haber descubierto la universalidad de la electricidad animal.
Alejandro Volta (1745-1827), hábil experimentador y sagaz pensador, era profesor en Pavía cuando Galvani publicó en 1791 la descripción de sus experimentos.
Los reprodujo y encontró que las ranas son excelentes electroscopios, sin que sus nervios sean necesarios para provocar las convulsiones eléctricas; dos metales y el músculo bastan para producir el efecto. La sustancia de los metales ¿es indiferente al éxito de la experiencia?, se preguntaba Volta, y reconoció que la intensidad del efecto es variable: fuerte, si se ponen en contacto ciertos metales, como el estaño y el cobre; débil en caso de otros conductores, como el hierro y la plata. Volta varía las condiciones de sus ensayos eliminando el músculo de rana. Pone sobre la punta de su lengua una hoja de estaño en contacto con una moneda de plata colocada en el medio de la lengua y descubre la sensación de un gusto particular; el sabor es distinto —comprueba— si se permutan los metales: no es ya ácido, sino alcalino.

15.jpg
Alejandro Volta

Coloca sobre uno de sus ojos una hoja de estaño y en su boca una moneda de plata, y al establecer el contacto de los dos metales, ve la apariencia de una chispa. Desde entonces sospecha la irrealidad de la electricidad animal y reemplaza el contacto de los músculos de ranas en la experiencia de Galvani con el del papel, cuero y por último trapos mojados: la electricidad en el último caso se manifiesta de manera incontestable. En este momento, su gran invención está virtualmente hecha. Con dos metales y el trapo húmedo la pila eléctrica está creada y —acontecimiento de inmensas consecuencias— la electricidad dinámica hace su aparición.
A pesar de ello, los partidarios de Galvani no se consideran desarmados. La conclusión de Volta, de que el contacto de metales engendraría la electricidad y que sería únicamente su corriente la contractora de los músculos del batracio, la rechazan Valli, Carminati y Aldini; éstos pretenden obtener la contracción tocando con una varilla de crista músculos y nervios de la rana. Galvani muere en 1799, justamente un año antes de la victoria de su gran adversario; lleva consigo a la tumba la convicción de que sólo la electricidad vital explicaría el enigmático fenómeno que había descubierto.
En realidad, Volta ignoraba tanto como Galvani el origen de la fuerza electromotriz en su aparato. ¡Volta comprendía el íntimo mecanismo de su pila tan poco como Franklin a su pararrayos! Mantuvo la opinión de que la fuente energética en su aparato sería el contacto de los metales, del cual se seguiría la posibilidad de un rendimiento ilimitado, eterno, posibilidad que el gran físico de Pavía ha afirmado expresamente [31].
Estamos a cuatro decenios de la ley de la conservación de la energía. Las observaciones hechas por el italiano Fabbroni y el inglés Ash en 1795, hubieran podido dirigir inmediatamente la atención de Volta hacia los procesos químicos en su pila. Estos sabios habían dejado un trozo de cinc sobre plata húmeda y vieron oxidarse el cinc; lo mismo ocurría con el plomo sobre mercurio, con el hierro sobre cobre; mas estos hechos no encontraron en el momento la apreciación que merecían. Por otra parte, la electricidad de contacto —en el espíritu de Volta el secreto de su pila— no era una idea por completo quimérica. Cinco decenios más tarde, en 1851, lord Kelvin, gracias a su sensible electrómetro, pudo demostrar su realidad. Desde luego, el efecto era mínimo, comparado con las acciones químicas cuya teoría desarrollaron poco a poco Ritter, Davy y Faraday. Estos trabajos no parecían agotar el problema del hontanar eléctrico de la pila: se originaron largas discusiones que habían de sobrevivir al siglo XIX.
Pero el hecho decisivo no era la teoría de Volta: lo fue su pila. Descontento con el rendimiento de su primer aparato, hecho con discos metálicos y paños húmedos intercalados, Volta extendió sus indagaciones a los líquidos y estableció cuáles combinaciones entre metales y líquidos resultan eléctricamente activos. De sus estudios surgen dos modelos: una columna de discos metálicos, los unos de cobre o plata, los otros de cinc, en igual número, separados por capas de cuero o cartón embebidas en una solución alcalina. En verdad, una batería cuyo conjunto suministraba una diferencia de potencial resultante de la suma de los elementos integrados y recogida en los discos terminales. En otro modelo, Volta introduce en una serie de vasos llenos de salmuera o ácido diluido, placas de cinc y de plata que no se tocan, pero que están ligadas de un vaso al otro por grapas metálicas.
¿Cuál es la naturaleza de la corriente producida por la pila? Idéntica es, afirma Volta, a la de la electricidad estática. Al cargar un electroscopio por medio de una pila, el físico de Pavía hace ver que la aproximación de una varilla de lacre frotada, acrece o disminuye la separación de las hojas, según la extremidad de la pila utilizada en la operación. Todo ocurre como si en lugar de pila se hubiese utilizado la varilla de lacre. El químico inglés Guillermo Hyde Wollaston (1766-1828) agrega a esa demostración otra: la chispa de una máquina de electricidad estática descompone el agua tanto como la pila voltaica.
Pocos descubrimientos suscitaron un interés tan general como la pila de Volta, y tal vez ninguno conoció un éxito tan rápido. La célebre carta de Volta dirigida a José Banks, presidente de la Sociedad Real de Londres—un magistral tratado sobre teoría, construcción y empleo de la pila— fue pronto difundida en casi todos los países de Europa. Un poderoso medio es puesto en manos de los investigadores desde ese momento y con esmero principian las búsquedas que revelarán, una tras otra, las propiedades electrolíticas, magnéticas y térmicas de la corriente. La curiosidad popular está fuertemente estimulada por la maravillosa invención, de la cual se esperan —como un siglo más tarde del descubrimiento de las sustancias radiactivas—* verdaderos milagros. En la ciudad alemana de Cassel los médicos pretenden (1804) haber curado ciegos y sordos con la mágica batería de Volta.
El afortunado inventor recibió todos los honores debidos a su genio. Napoleón, entonces primer cónsul de Francia, lo invitó a París; una medalla de oro fue estampada para agasajar al ilustre visitante. La Academia de París y la Sociedad Real de Londres lo nombran su miembro. Más durable que todos estos homenajes, inmortaliza sus méritos la decisión del Congreso Internacional de Electricistas, reunidos en 1881 en París, que eligió el nombre del físico de Pavía para designar la unidad de fuerza electromotriz.
Con ser la más importante de sus contribuciones, la pila no es la única. Volta se anticipó a Guillermo Marduch y a Felipe Lebon, en la preparación del gas para alumbrado, y a Gay-Lussac y a Dalton en la determinación del coeficiente de dilatación térmica del aire y del vapor de agua. Todos estos trabajos y otros en el dominio de la electricidad, son anteriores a la invención de la pila. Después de su obra maestra, el espíritu del « Princeps Electricorum», como lo llamó Van Marum, se agotó.
Tan pronto como la carta de Volta llegó a Londres, Guillermo Nicholson (1753-1815), ayudado por Antonio Carlisle (17681840), construyó una pila de 17 elementos para estudiar el paso de la corriente a través del agua. Nicholson y Carlisle notaron que de una gota de agua vertida sobre el disco superior de la pila ascendían burbujas de gas, cuando en ella se sumergía el hilo conductor del disco inferior. Sospechan la presencia de hidrógeno, lo recogen y comprueban que el gas arde y mezclado con el aire explota. ¡En verdad es hidrógeno! Sin duda las corrientes descomponen el agua. La conclusión, atrevida en este momento, parece confirmada por el joven experimentador alemán Juan Ritter (1777-1810), que observa simultáneamente con sus colegas ingleses la formación del oxígeno e hidrógeno liberados por la corriente. La prueba decisiva la aporta Humphry Davy (1778-1829), el gran químico de la Real Institución de Londres. En 1802 descompone por completo el agua, recoge los dos gases separadamente, los mide y establece la relación volumétrica del hidrógeno y oxígeno. Es el comienzo de una brillante serie de éxitos. Davy somete en 1808 a la acción de una poderosa batería de 250 elementos un trozo de potasa cáustica, observa en el electrodo positivo un desprendimiento de oxígeno y en el negativo pequeños globos con reflejos metálicos: el potasio. Separa también de la soda fundida, considerada hasta ese día como elemento simple, sodio metálico y obtiene bien pronto, gracias a la electrólisis, bario, calcio, magnesio y estroncio. Tan magníficos resultados exigen una recompensa. La Real Institución regala en 1810, a su eminente químico, una batería artesa de 2.000 elementos, en ese momento el más poderoso generador eléctrico de Inglaterra y tal vez del mundo. Davy produce con su gigante pila un arco cónico y cegador, al que da el nombre de arco voltaico. Examina, como hizo Ritter antes que él, la elevación de temperatura de diversos metales bajo la acción de una intensa corriente, y presume que la rapidez del calentamiento en un metal debe ser inversamente proporcional a su conductividad. Determina las diferencias de ésta partiendo del tiempo necesario para alcanzar en cada caso una temperatura dada, y establece una escala de conductores metálicos, desde la plata, el mejor de sus conductores, hasta el hierro, el peor. Su batería es lo bastante eficaz para fundir todos los metales, aun con gran facilidad el platino. El cuarzo y el zafiro se licúan, y el diamante desaparece por completo. Estos hechos inesperados asombran a los observadores, incapaces de explicarlos por el concepto entonces admitido del calórico sustancial. ¿Cuál es además la relación entre el calor y la corriente que vuelve incandescente al hilo conductor? El problema queda sin respuesta satisfactoria hasta la descripción cuantitativa del fenómeno dada en 1841 por Joule.
Una hipótesis que liga los fenómenos eléctricos con los químicos es bien pronto encontrada. Un mozo de veinte años, el barón alemán C. J. D. Grotthus (1785-1822), se adelanta a Davy y propone una teoría de la electrólisis —difundida por el Philosophical Magazine—, hipótesis cuya idea fundamental, sencilla e intuitiva, servirá de guía a la mayor parte de las numerosas teorías que le seguirán:

«La columna de Volta —escribe en 1805— es un imán eléctrico; cada uno de sus elementos posee un polo negativo y otro positivo. La consideración de esta polaridad me sugirió la idea de que sería posible establecer una análoga polaridad entre las moléculas elementales del agua, solicitadas por un único agente eléctrico, y confieso que ello elucidó mi problema. Supongamos que en el momento de la generación del hidrógeno y del oxígeno se realiza en estos cuerpos químicos una separación en forma que el primero adquiere un estado positivo y el segundo otro negativo. De esto se infiere que el polo del cual fluye la electricidad resinosa atraerá al hidrógeno y rechazará al oxígeno, mientras que el polo animado por electricidad vítrea atraerá el oxígeno y rechazará el hidrógeno. De este modo, cuando la corriente atraviesa una cantidad de agua, solicita a cada uno de los componentes de ésta con una fuerza atractiva y con otra repulsiva, cuyas acciones opuestas determinan la descomposición del líquido.»
Davy opina que las atracciones químicas y eléctricas están producidas por la misma causa, «obrando en un caso sobre las partículas y en otro sobre las masas». Da a la hipótesis una forma más general, extendiéndola a otros líquidos fuera del agua. Más deja a Faraday la tarea de sustituir estas interesantes perspectivas con una magistral descripción cuantitativa del fenómeno.

2. Efectos magnéticos y térmicos en la corriente
El experimento de Oersted: La desviación de la aguja magnética; Investigaciones de Ampère: Fundación de la electrodinámica; Su teoría del magnetismo; Arago: El electroimán y el «magnetismo de rotación»; Seebeck y Peltier: Efectos térmicos; La ley de Ohm.

Mucho antes del descubrimiento de la corriente, los físicos se preguntaban si los fenómenos eléctricos y magnéticos eran esencialmente distintos. El rayo parecía conferir a los objetos metálicos propiedades magnéticas, y Franklin ensayó magnetizar agujas por medio de las chispas de la botella de Leiden. La pila de Volta dio viva actualidad al problema, y las búsquedas se multiplicaron. Romagnosi (1802) en Italia e Izam (1804) en Francia creyeron haber notado pequeñas desviaciones en la brújula bajo la influencia de corrientes. Estas observaciones más o menos vagas y confusas recibieron una rotunda confirmación el 21 de julio de 1820, día en que el físico dinamarqués Oersted envió a las sociedades científicas de Europa un folleto en latín, pequeño en sus seis páginas, pero grávido de contenido. La memoria, con su largo título: Experimentum circo, effectum conflictus électrici in acum magneticam , hace época en la historia de las ciencias.
Juan Cristián Oersted (1777-1851), profesor en la Universidad de Copenhague, observador de genio, pero experimentador poco hábil, trató desde 1812 de hacer perceptible la acción de la comente sobre la brújula magnética. Por desgracia, a los comienzos no dispuso más que de pilas débiles y además creía que era menester poner incandescente el hilo conductor para conseguir una desviación de la aguja. En estas circunstancias sólo podía recoger resultados inciertos. Cuando por último, después de largos años pasados en vanos tanteos, el efecto se produjo con toda claridad —en el curso de una experiencia realizada ante sus alumnos—, nadie fue más sorprendido que él mismo, lo que dio origen a la leyenda de que su descubrimiento era hijo del mero azar. Veamos el relato de un testigo ocular, Cristóbal Hansteen, discípulo de Oersted [32]:
«Oersted trató siempre de colocar el alambre conductor de su pila en ángulo recto sobre la aguja magnética, sin notar movimientos perceptibles. Una vez, después de su clase, en la que empleaba una fuerte pila para otros experimentos, nos dijo: “Ensayemos colocar el alambre paralelo a la aguja” Hecho esto, se quedó perplejo al ver la aguja oscilar con fuerza (casi en ángulo recto con el meridiano magnético). “Invirtamos —dijo después— la dirección de la corriente.’' Y entonces la aguja se desvió en la dirección contraria. De este modo fue hecho el gran descubrimiento. No sin razón se dijo que tropezó con su hallazgo por azar. No tuvo, al igual que los demás, idea alguna de que la fuerza podría ser transversal. Mas, como Lagrange anota a propósito de Newton, no olvidemos que tales accidentes ocurren sólo a quienes los provocan.»
Para la desviación de la aguja, Oersted formuló la regla:
«El polo sobre el cual entra la electricidad negativa es desviado hacia el Oeste; el polo bajo el cual ella entra, lo es hacia el Este.»

Del comportamiento de la aguja llega Oersted a la trascendental conclusión de que el efecto magnético no puede estar confinado en el alambre conductor, sino que está dispersado en todo el espacio circundante. Esta intuición, el primer indicio de la existencia del campo magnético, revela particularmente el genio de su agudo espíritu.
La impresión producida por el descubrimiento de Oersted fue profunda y los meses de 1820 que siguieron a la famosa publicación del físico dinamarqués están caracterizados por una extraordinaria riqueza de importantes hallazgos. Los experimentos de Oersted son repetidos en el Congreso de los investigadores suizos en Ginebra; entre los congresistas se encuentra el astrónomo parisiense Francisco Arago (1786-1853). Vuelto a París, se le ve febrilmente ocupado, con su amigo Gay-Lussac, en una serie de experiencias. Comprueban que las corrientes no sólo desvían la aguja imanada, sino que imanan también el acero. El efecto se acentúa si se repliega el alambre en espiral y se introduce la varilla de hierro siguiendo el eje de la hélice. Con ello se tiene ya el principio del electroimán, destinado a brillante porvenir, y Guillermo Sturgeon (1825) no hace, para su construcción, más que recoger la idea de Arago. Éste anuncia a la Academia su descubrimiento el 22 de septiembre de 1820. Días antes Ampère entra en escena con una comunicación no menos sensacional.
Andrés María Ampère (1775-1836), entonces profesor suplente de astronomía en la Sorbona, uno de los fisicomatemáticos más agudos del siglo XIX, une a sus dones de matemático una imaginación intuitiva, comparable a la de Faraday. Como experimentador, es en mucho superior a Oersted, cuyo descubrimiento estudió a fondo. Con los rudimentarios aparatos de que disponía era menester su genio para establecer las leyes fundamentales de las acciones dinámicas de las corrientes, que fueron objeto de las memorias presentadas a la Academia, de semana en semana, en las sesiones desde el 18 de septiembre hasta el 2 de noviembre. Ampère comprende inmediatamente cómo en las experiencias de Oersted el sentido de las corrientes determina el de la rotación de la aguja imanada y da la conocida regla del nadador, más general que la que dio el físico dinamarqués: un observador está colocado en la dirección de la corriente, de modo que ésta entra por los pies y sale por la cabeza del mismo; si el observador vuelve la cara hacia la aguja, verá el polo norte de ésta desviarse hacia su izquierda. Al mismo tiempo que la Academia recibe las memorias de Ampère, su colega Juan Bautista Biot (1779-1862), ayudado por el joven médico Félix Savart (1791-1841), formula la ley matemática de la desviación de la aguja, estableciendo que la acción de la corriente rectilínea es perpendicular al plano que pasa por el polo y por la corriente, y que es inversamente proporcional a la distancia del polo a la corriente.
Ampère, llevado por la idea de que las corrientes eléctricas se atraen o rechazan, como lo hacen las cargas eléctricas en reposo, demuestra que dos corrientes paralelas y del mismo sentido se atraen, en tanto que las de sentido contrario se rechazan; reconoce que la mutua acción de dos corrientes lineales no paralelas tiende a disminuir el ángulo que forman. Observa los fenómenos de rotación que se producen en circuitos eléctricos. Con las leyes de Ampère queda fundada una nueva ciencia: la electrodinámica.
En el pensamiento de Ampère, una corriente es asimilable a un imán; por consiguiente, éste debería ser reemplazable por ella. Experimentalmente demuestra la certeza de su idea; emplea, para obtener un efecto más intenso, en lugar de una circunvolución de alambre, un solenoide, o sea una bobina recorrida por una corriente, y comprueba que ésta se comporta como un imán. Su éxito lo conduce a la hipótesis de que el magnetismo es el resultado de minúsculas corrientes que circulan en tomo a las moléculas. En el hierro o en el níquel existen —afirma— infinidad de corrientes moleculares orientadas, antes de la imanación, al azar en todas las direcciones; si se imanan estos metales, todas las corrientes moleculares se dirigen en el mismo sentido; en el acero las corrientes permanecen paralelas y una imanación constante persiste, mientras que en el hierro vuelven a su posición desordenada desde que la fuerza magnetizante deja de actuar. La hipótesis de Ampère entraña la interesante consecuencia de que un imán recorrido por una corriente debería rotar en torno de su eje si la corriente no atraviesa más que la mitad del imán. En efecto: Ampère logra mostrar que un imán calzado con platino y flotando libremente en posición vertical en mercurio, gira bajo la acción de la corriente enviada del polo que sobresale al mercurio.
De igual manera que el ferromagnetismo, Ampère explica el magnetismo del globo también por la existencia de pequeñas y numerosas corrientes telúricas dispuestas en planos paralelos, de modo que sus efectos se adicionan. Compara la Tierra a un inmenso solenoide. En una palabra: Ampère reduce el estado magnético en todas sus manifestaciones a corrientes moleculares, liberando así a la física de la hipótesis de los fluidos magnéticos en boga desde mediados del siglo XVIII. La doctrina de Ampère fue algo modificada por Guillermo Weber (1852), pero sus ecos se encuentran en los modernos conceptos electrónicos.
Las investigaciones de Ampère sobre las acciones dinámicas de las corrientes recibieron su coronamiento por el revestimiento matemático que el gran teórico les dio: éste fue el trabajo de cuatro años, publicado en 1826 en la magistral memoria Teoría matemática de los fenómenos electrodinámicos, únicamente deducida de la experiencia. Maxwell, el gran Maxwell, encantado con la lectura del tratado, llamará al autor el Newton de la electricidad.
«El libro de Ampère, — escribe el genial escocés en 1873 — es de una precisión sin par. Gracias a él se pueden deducir los fenómenos de una fórmula única, que perdurará a través de todos los tiempos como la fórmula cardinal de la electrodinámica.»
He aquí la fórmula única que expresa la fuerza actora entre dos elementos de corriente:

eq19.png

esta fuerza es proporcional al producto de las intensidades (ii') y de las longitudes de los dos elementos (dsds'), e inversamente proporcional al cuadrado de su distancia (r), y por último, directamente proporcional a una función de los ángulos (ν y ν') que la recta de unión de ambos elementos forma con la dirección de los mismos, y del ángulo (e) que dichas direcciones forman entre sí. La conclusión terminal de la obra de Ampère es la ley fundamental de la electrodinámica y aun la base de esta ciencia. Los símbolos de su fórmula permiten prever todas las interacciones de dos corrientes, con la misma exactitud con que los astrónomos calculan los eclipses solares.
La vida de este gran hombre estuvo ensombrecida por dolores y amarguras: su juventud transcurrió bajo el signo de una terrible tragedia: su padre, condenado por el tribunal revolucionario, murió en la guillotina; su mujer le fue arrebatada en la flor de la edad por una implacable enfermedad; su segundo matrimonio fue un martirio. Tándem felix (Por fin feliz), dice la lápida del torturado genio.
Espíritu universal, Ampère también se distinguía como poeta y filósofo. Su ensayo sobre la filosofía de las ciencias nada ha perdido en vigor y frescura.
Las consecuencias prácticas de la obra de Ampère son tan considerables como su valor teórico. Desde sus primeros trabajos reconoció en el experimento de Oersted el medio para medir la corriente y se propuso la construcción del aparato apropiado. El físico alemán Schweigger se le adelantó con su multiplicador, el primer modelo de galvanómetro, nombre dado por Ampère al instrumento que después se hizo indispensable. Ampère es el primero en sugerir el señalamiento a distancia por corrientes, proyectando emplear para la transmisión de cada carácter un hilo especial. Aunque la idea, demasiado complicada, no fue prácticamente realizable, desde los trabajos de Ampère la invención del telégrafo eléctrico no significó ningún nuevo principio, y pudo ser realizada después de las tentativas de Gauss, Weber y Steinheil en Alemania, por el norteamericano Juan Finlay Morse en 1837, algunos meses después de la muerte de Ampère.
Ampère y Arago estuvieron cerca del capital descubrimiento que hará más tarde la gloria de Faraday. Ampère observó que basta establecer o suprimir la excitación de un electroimán para comunicar impulsiones a un anillo de cobre situado en su proximidad. Más sugestivo aún resultó el experimento de Arago. Hizo girar bajo una aguja imanada un disco metálico paralelo a ella, y comprobó que la aguja es arrastrada por el movimiento de rotación a pesar de la ausencia de toda ligazón mecánica. En la retrospección histórica nos parece como si el disco rotativo, al arrastrar a la aguja, hubiera tenido que conducir a Arago sobre la pista del fenómeno de la inducción; sin embargo, Arago se contentó con clasificar su observación entre otras análogas, como «magnetismo de rotación», dándole una errónea interpretación, y Ampère, absorbido por otras investigaciones, no se ocupó de ello»
El año 1821, que siguió al descubrimiento de Oersted, año tan fértil en acontecimientos, no había terminado aún cuando en Berlín Tomás Juan Seebeck (1770-1831) tropezó con el fenómeno de las corrientes térmicas. ¿Tenía razón Volta al pretender que el contacto de metales sería la fuente de la corriente en su púa? Éste fue el problema que Seebeck quiso aclarar. Puso un disco de bismuto en contacto con otro de cobre, unió a ambos con los alambres de un galvanómetro y esperó que una corriente se produjera; mas la aguja indicadora del galvanómetro sólo se movía cuando apretaba con la mano una de las dos soldaduras de los metales. Reconoció que el origen de la corriente fue la pequeña elevación de la temperatura debida al calor de su mano, y encontró también que la corriente se invertía enfriando el lugar de contacto entre los dos metales. Anunció a la Academia de Berlín el nuevo hecho: en un circuito compuesto por dos metales diferentes, se produce corriente eléctrica cuando las dos soldaduras no están a la misma temperatura. A este hecho se le da el nombre de efecto Seebeck, fenómeno que constituye la base de las pilas termoeléctricas. Trece años más tarde, el relojero parisiense Juan Carlos Atanasio Peltier (1785-1845) descubre el fenómeno recíproco: el cambio de temperatura —generación o absorción de calor— que el paso de la corriente provoca en un circuito formado por dos metales diferentes, fenómeno que recibe el nombre de efecto Peltier. La elevación de temperatura producida en conductores bimetálicos por el efecto Peltier es difícil de discernir, porque se superpone al otro calentamiento engendrado en todo conductor por el paso de una corriente. Con más nitidez se manifiesta el enfriamiento; el físico ruso Enrique Federico Emilio Lenz (18041865) logró congelar agua con el efecto Peltier. La síntesis teórica del efecto Seebeck y el efecto Peltier se cumple en la teoría general de los fenómenos termoeléctricos creada en 1851 por lord Kelvin.
Los considerables adelantos que ampliarán rápidamente los conocimientos sobre las propiedades de las corrientes exigían mediciones cada vez más precisas. Las vagas ideas que subsistían sobre la «cantidad» y la tensión de la electricidad debieron ceder el paso a nociones más claras y mejor definidas. Esta importante tarea fue realizada en paciente labor por el físico alemán Jorge Simón Ohm (1787-1854).
Las tentativas de Ritter y Davy, sus ensayos para determinar la conductividad de los metales, fueron proseguidos por Ohm. En lugar de acudir a los efectos térmicos producidos por el paso de la electricidad, se dirige al galvanómetro, cuya desviación considera proporcional a la corriente que fluye en el conductor. Para evitar la irregularidad de las corrientes voltaicas, las sustituye por pilas termoeléctricas de cobre y bismuto, en las cuales somete una de las soldaduras a la temperatura del agua hirviente y la otra a la del hielo en fusión. Hábilmente varía las condiciones experimentales y compara en su memoria Die galvanische Kette (1827) la tensión de la corriente eléctrica a la pendiente por la cual se desliza una corriente de agua. La analogía le sugiere introducir la noción de caída, que es, en su pensamiento, la diferencia de tensión entre dos puntos alejados por una longitud igual a la unidad. Cuando la tensión está elevada, es menester desarrollar más trabajo para transportar la electricidad de un punto a otro, de modo que la fuerza electromotriz puede definirse como el trabajo efectuado por la unidad de la cantidad de electricidad al pasar de un punto a otro. La ley, formulada finalmente por Ohm, es sensiblemente idéntica a la actual: A una temperatura dada, la intensidad de la corriente que circula entre dos puntos del hilo es proporcional a la tensión (diferencia de potencial) aplicada. El coeficiente de proporcionalidad es lo que llamamos resistencia eléctrica del trozo de hilo. Dos décadas más tarde, el alemán R. Kohlrausch (1848) completó los resultados de Ohm al mostrar que en hilos de diferentes metales, las caídas de tensión son proporcionales a la resistencia específica del alambre conductor y a su longitud, e inversamente proporcionales a su sección. Algunos años antes, el inglés Wheatstone (1844) imaginó el conocido montaje —el puente de Wheatstone— para determinar la resistencia. En 1847, Kirchhoff —de veintitrés años entonces— fijó la repartición de la corriente distribuida sobre una red de varios conductores, y encontró que la conductancia del conjunto es igual a la suma de las conductancias de los trozos. A despecho de su carácter elemental, estas fundamentales relaciones sólo pudieron ser aclaradas después de largos y pacientes esfuerzos. Los méritos de Ohm, cuyo nombre designa hoy la unidad de resistencia, fueron poco reconocidos por sus contemporáneos: pasó su vida como profesor en un liceo de Colonia y sólo cuando era ya anciano —dos años antes de su muerte—, recibió una cátedra universitaria. Aunque su contribución a la ciencia no posea ni los alcances ni el resplandor de la obra de Volta o Ampère, es una de las grandes figuras de la edad heroica de la electrodinámica.

Capítulo 10
Victoria de las ondas luminosas

1. La óptica innovada
Malus descubre la polarización de la luz; Experimentos de Young: La interferencia; Fresnel: Ondas transversales; Explica la difracción y la polarización; La sombra de pequeños discos; Consecuencias, incluso paradójicas, confirmadas; Dificultades del éter elástico; Velocidad de la luz: La rueda dentada de Fizeau y los espejos giratorios de Foucault; Propagación de la luz en el agua; El éter ¿es móvil, o inmóvil?; Niepce y Daguerre: Invención de la fotografía; Melloni: Identidad de los rayos luminosos y calóricos; El efecto Doppler.

Entre los oficiales del ejército napoleónico, cuyas hazañas, según las orgullosas palabras del conquistador, cuarenta siglos contemplaban desde lo alto de las pirámides, se encontraba el subteniente Luis Esteban Malus (1775-1812), cuya venturosa historia nos transmitió Arago. Respetado por las balas y curado milagrosamente de la peste bubónica, escapó de los infiernos del país del Nilo y volvió a París. La Academia había instituido un premio para el autor de una teoría capaz de explicar el fenómeno de la doble refracción que sufre un rayo al penetrar en ciertos cristales. Malus se cree en condiciones de resolver el problema y comienza a experimentar. En un atardecer, mirando a través de un cristal de espato calizo hacia una ventana del palacio de Luxemburgo bañada por la luz solar, ve una sola imagen en lugar de las dos que esperaba. Repite el experimento con la luz de una bujía reflejada sobre vidrio y sigue viendo una sola imagen. Desde luego, en ciertas circunstancias discierne dos imágenes de intensidades diferentes, y se percata de que el máximo de una coincide siempre con el mínimo de la otra.
Newton había ya sospechado que un rayo luminoso podría poseer diferentes propiedades según su dirección, y es precisamente lo que Malus comprueba: mira un punto brillante a través de su cristal e intercepta uno de los dos rayos refractados, para observar al otro con un segundo cristal. Ve sucesivamente, a medida que hace girar este segundo cristal, aparecer y desaparecer los dos rayos refractados, cuya intensidad es complementaria. Malus había leído bien a su Newton. ¿No había comparado el gran inglés, en la cuestión XVIII de su Óptica, el comportamiento de la luz en los cristales doblemente refringentes con el de los imanes?
«Semejante — decía Newton — al magnetismo, que sólo puede ser producido o disminuido en sus efectos en el hierro o en los imanes, es esta virtud de refractar el rayo perpendicular. Es mayor en el espato de Islandia, menor en el cristal de roca y nulo en otros cuerpos.»
Malus recuerda estas palabras, considera como polos las posiciones del cristal para el brillo máximo de cada rayo, que designa entonces como polarizados y da al fenómeno el nombre de polarización de la luz.
Malus reconoce que la polarización es una propiedad general de la luz, y muestra que se puede reproducir la diferencia física que evidencian los dos rayos en el cristal de espato, haciendo reflejar un haz de luz sobre un espejo, a condición de que el ángulo de incidencia sea convenientemente elegido. Con un famoso experimento que asombra a muchos contemporáneos, prueba cómo se puede hacer desaparecer un rayo luminoso tanto con espejos cruzados como con el doble cristal de espato. Inútil sería esperar del hábil experimentador una satisfactoria explicación del fenómeno que acababa de descubrir; de antemano estaba convencido de la naturaleza granular de la luz, y la teoría de emisión amparada por la autoridad de Newton no podía ser en su espíritu objeto de ninguna duda. Pudo reclamarse de Juan Bautista Biot, corpusculista a toda prueba, que construyera bien pronto una hipótesis en la cual atribuía a las partículas lumi nosas arbitrarias características para explicar no sólo el descubrimiento de Malus, sino también la polarización cromática, observada en 1813 por Arago y casi simultáneamente por David Brewster, en delgadas láminas cristalinas. Laplace compartía análogo punto de vista. Todas estas teorías postulaban una atracción entre el medio refringente y las moléculas luminosas, atracción que actuaría sobre el rayo extraordinario sin modificar el ordinario; exigieron además polos de fuerzas y ejes de fuerzas. Con todos estos artificios, la teoría no logró prever el eje de polarización. A pesar de ello, se hicieron todos los esfuerzos para mantener las caducas suposiciones. El célebre Tratado de Huygens, tan sorprendente por su perspicacia, las observaciones de Grimaldi, las clarividentes ideas de Hooke, todo aquello que recordaba la naturaleza ondulatoria de la luz, estaba olvidado o conscientemente ignorado.
Más allá del canal de la Mancha, algunos años antes del descubrimiento de la polarización, un joven médico, Tomás Young (1773-1829), atacó vigorosamente la teoría emisionista, acudiendo a viejas experiencias de Grimaldi, y dio por último una clara y sencilla explicación.
Los haces de dos fuentes luminosas adicionadas una a la otra, pueden producir menos iluminación que cada una de ellas por separado. Young muestra la realidad de este hecho, paradójico en la teoría corpuscular, por un experimento que se volverá clásico y llevará su nombre. Con la punta de una aguja, practica en una pantalla negra dos minúsculos agujeros muy próximos. Acercando la pantalla al ojo, mira un pequeño y distante foco luminoso, percibiendo anillos alternativamente brillantes y oscuros. ¿Cómo explicar los efectos de ambos agujeros, que por separado darían un campo iluminado y combinados se aniquilan en ciertas zonas produciendo sombra? Young aclara la alternancia de las franjas por la imagen de las ondas acuáticas. Si dos series iguales de ondas provocadas en la superficie de un lago —dice Young— se encuentran, ninguna de las series de ondas destruirá a la otra, pero sus efectos se combinarán. En cada punto de la superficie del agua, el estado vibratorio resultante dependerá de la manera como se refuerzan o se debilitan los efectos de las ondas superpuestas. Si las ondas suman sus «elevaciones», hallándose en concordancia de fase, la vibración resultante será intensa; si, por el contrario, se encuentran en fases opuestas, se debilitarán mutuamente y si el máximo de elevación de una coincide con el máximo de depresión de otra, la vibración resultante será nula. Habrá líneas a lo largo de las cuales las moléculas de agua permanecerán inmóviles.
«Ahora bien —asevera —: semejantes efectos se producen cada vez que dos porciones de luz se cruzan: lo llamo la ley general de la interferencia de la luz.»
Palabra y concepto de interferencia están creados, y a ciento veinte años de la muerte de Huygens su fecunda idea de la luz como oscilación está resucitada. Young concibe la luz como el estado vibratorio de un sutil fluido, el éter, que llena el espacio y penetra a toda materia. Compara la propagación de la luz con la del sonido; sus ondas luminosas son, pues, longitudinales. Explica los anillos coloreados de Newton con la nueva imagen: estos anillos se obtienen, como vimos, al poner en contacto una placa de vidrio con una lente de poca curvatura. Las variaciones de espesor en la capa de aire entre la lente y la placa —afirma Young— son las causas de las diferencias de fase entre los rayos luminosos. Cada color tiene una longitud de onda característica. Esta misma experiencia permitirá, por consiguiente, medir la longitud de onda que corresponde a cada color. Young encuentra en una pulgada de longitud 37.640 ondas rojas y 59.750 ondas violetas; calcula el número de vibraciones por segundo para las primeras en 463 billones, y para las segundas en 735 billones. Más tarde se propone examinar las ondas infrarrojas y ultravioletas, pero sus medios son demasiado rudimentarios para efectuar# mediciones más exactas.
Las ideas de Young no encontraron en Inglaterra, y menos aún en Francia, el eco que su autor había esperado. Los resultados que presentara Young eran empíricos. Los conocimientos del médico londinense, aunque fuera un buen observador, no bastaron para dar a su teoría una forma matemática. Además, bien pronto se vio que la explicación de Young para el fenómeno de la difracción, sufrida por un rayo luminoso al pasar por una estrecha abertura, contradecía los hechos medibles. En tanto, Malus sorprendía al mundo de los físicos con el descubrimiento de la polarización. Las ideas de Young fueron impotentes para rendir cuenta de este fenómeno. Había interpretado la división del rayo en el espato de Islandia por la hipótesis de la desigual elasticidad del éter en el interior del cristal. Mas esta hipótesis era incapaz de aclarar por qué los dos rayos tienen propiedades físicas distintas. La tesis de Young parecía insostenible; sus adversarios, Brougham y Brewster en Londres, Biot y Laplace en París, ven ya sus causas ganadas. En este momento aparece en Francia el hombre del destino, que tenderá un hilo de Ariadna en el laberinto de los hechos confusos y asegurará la victoria de las ondas.
Augusto Juan Fresnel (1788-1827), ingeniero de puentes y caminos en una pequeña ciudad alejada de París, partidario de los Borbones, perdió su empleo cuando Napoleón, escapado de su prisión de la isla de Elba, vuelve a ocupar durante cien días, en 1814, el pequeño trono. Fresnel fue confinado en una pequeña aldea de Normandía, vigilado por la policía. Aquí es donde comienza las investigaciones que harán ilustre su nombre. En este momento está poco enterado de los nuevos hallazgos de la óptica; a fines de 1814 ignora todavía qué es la polarización de la luz, pero ocho meses más tarde realiza investigaciones sobre este fenómeno que asombran por su originalidad y exactitud. A partir de 1815, las memorias suceden a las memorias y los descubrimientos a los descubrimientos, con una rapidez de la cual la historia casi no ofrece ejemplos.
¿Cómo podría consistir la luz en un flujo de partículas moleculares?, se pregunta Fresnel en su primera memoria. Una molécula luminosa que atraviesa la atmósfera debería sufrir continuamente repulsiones que contrariarían su movimiento. ¿Cómo puede ser que todas las repulsiones no destruyen su velocidad y que la partícula luminosa, al dar movimiento a tantos millones de moléculas, no termina por perder la suya?
La explicación de los fenómenos luminosos hay que pedirla a la teoría ondulatoria, cuya estupenda fecundidad muestra Fresnel desde su primer trabajo. Fresnel estudia la inflexión de la luz en el borde de objetos opacos —la difracción— y comprueba que las franjas alternativas, sombreadas y brillantes, se pueden observar directamente, no sobre una pantalla, sino en el espacio, con ayuda de lupa, como se observa un «insecto clavado en un alfiler».
Las franjas en la sombra de un hilo iluminado por una fuente puntiforme de luz blanca, le revelan que las bandas exteriores no caminan en línea recta, a medida que se alejan del hilo. ¿Qué curva describirá su camino? Fresnel considera los dos bordes del hilo como dos fuentes sincrónicas de luz y demuestra que las franjas brillantes y opacas, los puntos del máximo y del mínimo de luz, dibujan hipérbolas.
En su segunda memoria prueba que la teoría ondulatoria explica sin dificultad la reflexión de la luz. Si se examina la reflexión de un haz sobre una superficie plana, no habrá luz más que en la dirección simétrica a la dirección de incidencia perpendicular a esta superficie, dado que en las demás direcciones un punto cualquiera (p) recibe la luz de dos rayos incidentes, separados ambos por una distancia tal que al llegar después de su reflexión con respecto a la p, están en discordancia de fase y se aniquilan mutuamente. La aplicación de su teoría a la refracción le conduce a concluir que la velocidad de la luz es inferior en el agua y en el vidrio que en el aire, contrariamente a la opinión de Newton y conforme a la tesis de Fermat.
Cuando Fresnel formula las conclusiones de sus primeras investigaciones no conoce los trabajos de Young e ignora el tratado de Huygens. Su explicación de la difracción difiere en un punto esencial de la tesis de su rival inglés: Young creía que las franjas están engendradas por la interferencia de los rayos directos y. de las ondas reflejadas por el borde del objeto opaco. Fresnel rectifica el error; recoge el viejo principio de Huygens y muestra que todo se explica si se admite que cada elemento de la superficie de onda puede actuar como fuente de ondas secundarias. Estas ondas, en número infinito y en fases diversas, son las que interfieren: las unas se refuerzan, las otras se debilitan: de aquí las famosas franjas de Young. Las franjas nada tienen que ver con una interacción entre las pretendidas partículas luminosas y las moléculas de los bordes de objetos opacos, como lo quieren los corpusculistas. Fresnel lo prueba con su ingeniosa experiencia de dos espejos separados por un ángulo de casi 180°. Un haz luminoso proveniente de una estrecha abertura es reflejado y dividido por los dos espejos en dos haces que se cortan en una dada región del espacio. En la parte común aparecen franjas sombrías y brillantes. Las fuentes cuyos rayos interfieren son en este experimento dos imágenes virtuales: por consiguiente, nada material, y a pesar de ello, las rayas interferenciales se dibujan con toda nitidez sobre la pantalla. ¿Podíase poner en duda el claro testimonio de los hechos en favor de la teoría ondulatoria? En el jurado de la Academia que hubo de pronunciarse sobre la tesis de Fresnel se encontraba el astrónomo Poisson, ferviente corpusculista, quien dedujo por cálculos que si la tesis de Fresnel fuera verdadera, tendría una paradójica consecuencia escapada a la atención del autor: un disco muy pequeño, iluminado por un rayo, debería producir una sombra cuyo centro estaría iluminado. Esta consecuencia pareció en el primer momento tan improbable, que Poisson estuvo convencido de haber hallado el argumento decisivo para reducir al absurdo las ideas de su adversario. La sorpresa de los corpusculistas fue grande cuando Arago demostró con experiencias que en realidad existe el punto luminoso en el centro de la sombra. Fresnel obtuvo (1819) el premio de la Academia, y la teoría de las ondas, aunque lejos de su victoria definitiva, se anotó una batalla ganada.
Desde este día emprende Fresnel, con una sagacidad rayana en la adivinación, la explicación de gran número de fenómenos manifestados por la luz polarizada. Su teoría, tal como es en ese momento, no basta para cumplir la tarea. Felizmente, un descubrimiento le indica cómo completar y acabar la teoría: Observó que dos rayos polarizados en el mismo plano se interfieren, mas no lo hacen si están polarizados perpendicularmente el uno al otro. El descubrimiento lo lleva a pensar que en un rayo polarizado debe ocurrir algo perpendicularmente a la dirección de la propagación, y establece —apoyado en esta idea por Young— que ese algo no puede ser más que la vibración luminosa misma. Por consiguiente, las vibraciones en la luz no pueden ser longitudinales, sino que deben ser perpendiculares a la dirección de propagación: deben ser transversales.
Las vibraciones que se efectúan a la luz natural según todos los acimutes del plano perpendicular a la línea de propagación, están contenidas en un solo acimut en la luz polarizada. El comportamiento de la luz observado por Biot (1817) en láminas de cuarzo y en varios líquidos, puso de manifiesto la rotación del plano de polarización. Fresnel interpreta la 'polarización rotatoria por una doble refracción circular, cuya realidad demuestra experimentalmente. Descubre la polarización circular producida por triple reflexión en el cristal de Saint-Gobain, y describe la polarización elíptica de rayos reflejados por superficies metálicas. Desarrolla su hermosa interpretación de la doble refracción, valedera tanto para cristales uniáxicos como biáxicos; en los primeros, como el espato de Islandia, uno de los dos rayos refractados obedece a la ley de Snellius, en los segundos, como el topacio, ninguno de ellos la obedece y ambos rayos son extraordinarios. Fresnel sustituye la superficie de onda, tal como la concibió Huygens, por otra con dos capas, por una superficie que matemáticamente es de cuarto grado, y llega a describir por completo con una hipótesis ambos fenómenos. Su hipótesis parece, sin duda, de una osadía desconcertante y entraña singulares consecuencias: en los cristales birrefringentes, para cierta dirección del haz incidente, el haz refractado en el cristal debería estar constituido por un cono hueco de rayos luminosos. Esta curiosa refracción cónica —calculada como exigencia de la tesis de Fresnel por el matemático irlandés Rowland Hamilton en 1832— fue encontrada experimentalmente y en el mismo año, por su compatriota Humphrey Lloyd. ¿Puede imaginarse confirmación más brillante de una teoría?
Fresnel ya no vivió el triunfo de sus ideas; minado por la tuberculosis, agotado por el enorme esfuerzo intelectual, la muerte lo arrebató a la ciencia a la edad de treinta y nueve años, sin haber podido imponer sus ideas a adversarios como Laplace y Biot, y ni aun a su amigo Arago. «Los cumplimientos de estos tres eminentes hombres —escribió Fresnel poco antes de su muerte— no me han dado más que una flaca satisfacción junto al placer que he sentido viendo algunos de mis cálculos corroborados por el veredicto del experimento. »
En realidad, la victoria de la teoría ondulatoria estaba ya decidida: en la década que sigue a la muerte de Fresnel, sus adversarios pierden rápidamente terreno, y hacia 1850, la óptica fresneliana está universalmente aceptada. Sólo mucho más tarde, a principios de nuestro siglo, surgen nuevos fenómenos —como el efecto fotoeléctrico y otros— que dirigen la atención de los físicos hacia una renovada imagen corpuscular de la luz, hacia la imagen cuántica de la energía luminosa, mas sin que esto entrañe un abandono, ni por un solo instante, de las interpretaciones ondulatorias de Fresnel. Muchas de sus magníficas deducciones se encuentran, casi sin cambios, en nuestros tratados actuales.
La negativa de Laplace y Biot a adoptar la imagen fresneliana de las vibraciones transversales estaba motivada por las propiedades contradictorias que era menester atribuir al éter, portador de las ondas luminosas. En efecto: las vibraciones transversales sólo se propagan en cuerpos sólidos, pero no en líquidos y gases. El éter elástico de Fresnel debería poseer por una parte la rigidez de un cuerpo sólido para permitir la propagación de las ondas luminosas, y por otra, debería ser más sutil que los gases conocidos, para no ofrecer resistencia apreciable al movimiento de los átomos. La red de las contradicciones resulta todavía más inextricable si se tiene en cuenta que el cociente de la elasticidad del medio propagador por su densidad debe equivaler al cuadrado de la velocidad de las ondas; de aquí resulta, según los cálculos de lord Kelvin, que la rigidez del éter tendría que sobrepasar a la del acero. ¿Cómo concebir el enigmático fluido sin peso, sin densidad, y a pesar de ello con acerada dureza? Mientras se mantuvo la imagen de un éter elástico, los múltiples esfuerzos —incluso las sagaces tentativas de lord Kelvin— de hacer un modelo de este fluido con características contradictorias estaban condenados a permanecer estériles.
Fresnel admitió que la densidad del éter es variable, en tanto que su elasticidad permanece constante; por el contrario, el cristalógrafo alemán Francisco Ernesto Neumann supuso que la densidad sería uniforme y la elasticidad variaría. Según Fresnel, las vibraciones luminosas se efectúan perpendicularmente al plano de polarización; según Neumann, tales vibraciones se realizan paralelamente a ese plano. Una larga discusión surgió de esa antítesis y dividió a los físicos en dos campos. Maxwell fue quien zanjó la dificultad con el sorprendente veredicto de que ambos tenían razón, y no la tenía ninguno: la onda luminosa se compone de dos vibraciones; una, la oscilación eléctrica, se verifica perpendicularmente al plano de polarización de la luz; la otra, la magnética, se efectúa en este mismo plano. Con la teoría del gran inglés, la luz deja de ser el movimiento de partículas de un fluido con características irreconciliables: el éter elástico es sustituido por el éter electromagnético, cuyas perturbaciones periódicas se nos manifiestan como fenómenos luminosos.
El poderoso interés que las conclusiones de Fresnel y los éxitos de la teoría ondulatoria supieron despertar hacia los fenómenos ópticos, engendró el deseo de medir la velocidad de la luz con mayor exactitud que la permitida por las observaciones astronómicas de Römer y Bradley. Arago indicó un método para determinar esta magnitud sobre la Tierra, sin poder realizar su idea. Hipólito Fizeau (1819-1896) concretó el proyecto (1849) con una experiencia que jamás será olvidada. Hizo pasar la luz de una potente lámpara por los intersticios de una rueda dentada. El rayo cayó sobre un espejo colocado a 8.633 metros y fue reflejado en su primitiva dirección de modo que se pudo observar con un anteojo. Si la rueda estaba en reposo, el rayo volvía a atravesar el mismo intersticio por el que antes había pasado, y el espejo aparecía iluminado. Si la rueda giraba con una velocidad v tal que mientras la luz iba al espejo y volvía, el diente ocupaba el puesto del intersticio precedente, deteniendo la luz que retomaba, entonces el campo de visión aparecía oscurecido. Aumentando la velocidad de rotación, la imagen del espejo reaparecía, y su brillo era máximo cuando la velocidad valía 2v, a partir de la cual volvía a disminuir. Para 3v se producía el segundo eclipse, y así sucesivamente. La rueda de Fizeau tenía 720 dientes y el primer eclipse del espejo se producía cuando la rueda daba 12,6 vueltas por segundo. Del cálculo resultó que la luz recorre 313.274 kilómetros por segundo. El valor fue rectificado en 1850 por León Foucault (1819-1868), que logró encerrar en los estrechos límites de un laboratorio el trayecto de la luz, cuya velocidad medía con un espejo giratorio fijado al eje de una turbina. Después de una quíntuple reflexión en espejos cóncavos, distantes sólo cuatro metros, su experimento le permitió deducir una velocidad de 298.000 kilómetros por segundo. Es notable la concordancia de su resultado con la cifra obtenida, en la tercera década de nuestro siglo, en los numerosos experimentos de Michelson que asignaron a la velocidad de la luz 299.800 kilómetros por segundo.
El estrecho espacio en el que Foucault operaba le hizo posible determinar la velocidad de la luz en el agua. El interés inherente al resultado era extraordinario, dado que iba a servir de criterio entre las teorías corpuscular y ondulatoria de la luz. Como ya dijimos, la primera doctrina requería que la velocidad en el agua fuese mayor que en el aire; lo contrario era exigido por la segunda. Foucault encontró que la velocidad de la luz es en el agua 1 /4 inferior a su valor en el aire: la victoria de las ondas estaba definitivamente decidida.
La exactitud notablemente acrecentada en la medición de la velocidad de la luz dio alas a la esperanza de poder decidir experimentalmente si el éter lumínico es arrastrado por los medios en movimiento, o si es indiferente para la velocidad de la luz que el medio esté animado o en reposo. Fizeau ensayó en 1859 decidir el problema acudiendo al método interferencial. Hizo incidir la luz de una poderosa fuente sobre dos espejos de modo que los rayos ahora divididos, atravesaban un gran tubo en forma de U, en cuyo interior circulaba una corriente de agua, teniendo, por consiguiente, en ambas ramas direcciones opuestas. En una de las ramas la luz arrastrada debía, pues, aumentar su velocidad, y en la otra disminuirla, de modo que uno de los rayos debía llegar más tarde que el otro a la pantalla puesta detrás del tubo; la diferencia en el tiempo de marcha dio sobre la pantalla franjas interferenciales.
El resultado del experimento fue asombroso. Se esperaba que en el caso del éter móvil, la velocidad del agua en la correspondiente rama del tubo se sumara a la de la luz, mas el cuadro de interferencia evidenció un valor intermediario, mayor que la velocidad de la luz en el agua y menor que la suma de las velocidades de arrastre y de la luz en el agua. Frente a la elección entre arrastre y no arrastre, la naturaleza parecía haberse decidido por un arrastre parcial. El enigma sólo encontró solución a principios del siglo XX, gracias a la teoría de la relatividad de Alberto Einstein: la ley galileana de la adición de velocidades, bien comprobada en la escala restringida de las velocidades moderadas, pierde su validez si se intenta aplicar a velocidades enormemente mayores, cercanas a la de la luz: la velocidad resultante, en lugar de igualar la suma de las velocidades componentes, será más pequeña que ésta.
Las décadas que presenciaron el desarrollo de la teoría ondulatoria y asistieron a los orígenes de la nueva óptica vieron el nacimiento de un capital descubrimiento: la fotografía. Hacía mucho tiempo que se conocían las acciones químicas de la luz sobre sales de plata, cuya descomposición bajo los rayos solares fue observada en los albores del siglo XVIII por el médico alemán H. Schulze y estudiada por el químico sueco Scheele. La descomposición del cloruro y nitrato de plata expuestos a la luz y su posible aplicación para la obtención de imágenes atrajo la atención de los investigadores hacia 1800 en todos los países de Europa. Charles en Francia, Wedgwood en Inglaterra, Ritter y el gran poeta Goethe en Alemania, hicieron experiencias sin resultados prácticamente concluyentes. Después de este preludio aparece en París el oficial de caballería Nicéforo Niepce (1765-1833), que logra producir en la cámara oscura la primera imagen permanente el 9 de mayo de 1816, que pasará a ser el día del nacimiento de la fotografía. Niepce dispuso sobre una placa de plata una delgada capa de betún; los rayos eran detenidos por las partes oscuras del modelo, mas a través de las partes claras descomponían el betún que se volvía insoluble. Al lavar la placa con una mezcla de éter de petróleo y esencia de lavanda, para disolver el betún de los lugares donde la luz no había actuado, obtuvo la imagen del modelo. Descontento con el rendimiento de su método, Niepce se asoció al pintor Luis M. Daguerre (1789-1851), que buscaba el enigma del mismo problema. Éste utilizaba una placa sensibilizada con yoduro de plata, cuerpo que después de muchos ensayos sustituyó por el bromuro de plata suspendido en gelatina. Entre tanto, el astrónomo inglés Juan Herschel descubrió que el hiposulfito de sodio empleado como fijador permitía conseguir placas inalterables a la luz. Su compatriota Guillermo Enrique Fox Talbot (1839) introdujo el uso de papel cubierto por una capa de cloruro de plata que era impresionada dentro de una cámara oscura. La imagen revelada con ácido gálico y con una solución de bromuro de potasio, aparecía negativa y servía para obtener un número cualquiera de copias positivas. Niepce no vivió el triunfo de la idea que promoviera. El 9 de agosto de 1838 presentó Arago al Instituto de Francia el gran descubrimiento, reclamó para los herederos de Niepce y para Daguerre una recompensa nacional y propuso que no se permitiera sacar patente de invención, sino que Francia ofreciera la «daguerrotipia» como regalo a la humanidad. Tales son los modestos y laboriosos orígenes de la fotografía, destinada a rendir a la ciencia servicios por pocas invenciones igualados y por ninguna sobrepasados.
Los rayos químicamente eficaces, sean visibles o invisibles, en la parte violeta y ultravioleta del espectro, se propagan en ondas fresnelianas: sobre esto no había duda. Mas los rayos calóricos, cuyo dominio se extiende en lo invisible más allá del rojo, como se sabía desde 1800 gracias a Herschel, ¿son también ondas? Sin duda, los rayos de un cilindro de hierro calentado se dejan converger por una lente; obedecen —Herschel lo demostró— a las mismas leyes de refracción que la luz. No obstante, la analogía no pareció perfecta y evidente. Ampère y Biot tienen el mérito de haber sido los primeros que enunciaron la hipótesis de que los rayos luminosos y calóricos son ondas del mismo éter y que las radiaciones del espectro son todas de la misma especie. Las experiencias transformaron rápidamente la suposición en certeza. Bérard y Forbes descubrieron la doble refracción de los rayos calóricos y lograron producir la polarización de los rayos infrarrojos. No faltó más que hacerlos interferir para probar su naturaleza ondulatoria, lo cual hicieron Fizeau y Foucault (1847) con la ayuda del ya clásico espejo de Fresnel. Si aún quedaban dudas, pronto fueron disipadas por las investigaciones del físico italiano Macedonio Melloni (1788-1854), que comprobó definitivamente la identidad de los rayos calóricos y luminosos y demostró que la sal gema es transparente para los rayos calóricos, así como que, por el contrario, el negro de humo los absorbe por completo.
Una vez verificadas las relaciones entre luz y calor, era natural preguntarse si no había analogías entre luz y sonido, dado que ambos son ondas. El físico austríaco Cristián Doppler (1803-1853) llamó la atención sobre el hecho de que la altura del sonido no sólo depende de su longitud de onda, sino también del movimiento de la fuente sonora, fenómeno que fue llamado efecto Doppler. En efecto: si un silbato se aproxima, el oído recibe en un segundo más vibraciones, y si el silbato se aleja, el oído percibe menos vibraciones que las emitidas por el silbato. Basta con instalar una trompeta de nota bien determinada sobre una locomotora, como lo hizo el meteorólogo holandés Cristóbal Buys-Ballot en 1845, para comprobar las variaciones de la nota musical y verificar el efecto Doppler, que hoy los automovilistas observan cada día. Mas Doppler no se detuvo aquí. Su principio, aseguró, es valedero para las vibraciones luminosas tanto como para las sonoras. Si un astro se nos aproxima en dirección del rayo visual, el número de oscilaciones que el ojo recibe por segundo crece y la luz de la estrella se toma más azul, en tanto que si el astro se aleja, su luz vuélvese más roja. El efecto Doppler, destinado a convertirse en uno de los instrumentos más eficaces de la astrofísica, pudo verificarse en sus alcances ópticos desde la séptima década del siglo pasado, gracias al magnífico desarrollo de la espectroscopia, cuya historia vamos pronto a bosquejar.

Capitulo 11
La edad heroica de la espectroscopía

Fraunhofer descubre líneas oscuras en el espectro solar; Mide su longitud de onda; Infructuosos tanteos durante tres décadas; Bunsen: El análisis espectral por emisión; Kirchhoff aclara el enigma de las líneas de Fraunhofer; La ley de Kirchhoff; Análisis de las líneas de absorción; Kirchhoff interpreta el espectro solar; Huygens: Nacimiento de la astrofísica; Medición de las rayas espectrales; Balmer y Ritz: Distribución de las líneas en el espectro; Radiación del cuerpo negro: Las leyes de Stefan y de Wien; Hacia el cuanto de Planck;

La historia de la espectroscopia se inicia con el hundimiento de una vieja, casa en un barrio pobre de Münich. Entre las víctimas sepultadas por las ruinas, los rescatadores encontraron como sobrevivientes a un huérfano de catorce años, J. Fraunhofer (1787-1826), hijo de un vidriero. Por raro azar, el elector de Baviera, José Maximiliano, presenció la catástrofe e impresionado por el milagroso salvamento del adolescente, le regaló una bolsa con 18 ducados de oro. Rara vez 18 ducados dieron mejores intereses. Permitieron al joven, entonces aprendiz en una fábrica de espejos, comprar libros y estudiar física. Los mejores telescopios de la época salieron más tarde de manos de este gran maestro de la óptica. En el curso de un ensayo con un prisma de excepcional claridad, Fraunhofer tropezó en 1814 con el mayor hallazgo de su vida: el prisma había extendido la luz solar en un amplio espectro que el sabio observó a través del telescopio de un teodolito. Vio con sorpresa el espectro atravesado verticalmente por numerosas líneas oscuras.
Por cierto, no era el primero en ver esas enigmáticas rayas; dos años antes que él, el físico y químico inglés Guillermo Hyde Wollaston (1766-1828) las percibió a lo largo de las bandas de los cuatro colores principales del espectro. Las tomó por las líneas divisorias que separan un matiz de otro y no les prestó atención. Fraunhofer contó más de quinientas rayas, y designó a las más aparentes con letras del abecedario, creando de este modo la base de una nomenclatura que sus sucesores no tuvieron más que ampliar.
A cada raya, reconoció, corresponde una refrangibilidad exactamente determinada. Al examinar las líneas para diferentes posiciones de su aparato y distintas posiciones del Sol, vio que aquéllas no se movían; probablemente, sospechó Fraunhofer, son inherentes a la fuente misma de la luz. Su interés fue desde este momento poderosamente estimulado: hizo pasar los rayos de la Luna y del planeta Venus a través de un prisma. Sus espectros aparecieron cruzados por las mismas líneas que había encontrado en la luz solar.
Los espectros de varias estrellas desfilan sobre la pantalla en los meses siguientes; algunas de estas estrellas, como la Cabra, muestran reproducciones, aunque más débiles, de las líneas solares; otras patentizan un diseño distinto.

16.jpg
Roberto Guillermo Bunsen

Justamente en esta época, hacia 1818, llegan de Francia noticias sobre las investigaciones de Fresnel; la evidente interpretación dada por el físico francés a la difracción impresiona profundamente al óptico bávaro, firmemente convencido del acierto de la teoría ondulatoria. En una serie de observaciones reemplaza el prisma por placas de cristal y de metal, sobre las cuales ha trazado estrías muy próximas las unas de las otras, hasta trescientas en un milímetro. Estas redes de difracción le sirven para, medir la longitud de onda de las líneas oscuras del espectro.
Admirable es la exactitud de sus mediciones, cuyos errores son inferiores a un 1 por 1000. Fraunhofer no se limitó a observar las fuentes luminosas celestes; las llama de las bujías. y de las lámparas de aceite le presentan espectros continuos y sin límites. No escapó a su atención que la introducción de una sal en la llama hacía aparecer en el espectroscopio rayas brillantes y vio que la raya amarilla dibujada por la llama del sodio se escindía en dos líneas al pasar a través de un prisma más poderoso.
Las buscó en el espectro solar y no tardó en percatarse de que la raya doble se marcaba exactamente en el mismo sitio donde se encontraban en el espectro solar dos rayas negras, que lo habían intrigado desde el día de su descubrimiento y que había designado con la letra D. Presentía la importancia de la enigmática coincidencia, sin lograr interpretarla.
Otras investigaciones de orden práctico le absorbieron y las misteriosas líneas le servían como señales de referencia en sus búsquedas de los índices de refracción de diferentes clases de cristales. Su arcano no lo perturbó más. Como Fresnel, Fraunhofer murió de tuberculosis y a la misma edad que el genial francés: a los treinta y nueve años.
Tres decenios hubieron de transcurrir después de la muerte del descubridor antes de que Bunsen y Kirchhoff llegaran a descifrar el enigma de las rayas oscuras de Fraunhofer y crear el magnífico instrumento de exploración que es el análisis espectral. Durante ese tiempo muchos investigadores rozan el descubrimiento, que siempre se desliza de sus manos. Talbot y J. Herschel reconocen que una misma sustancia que colorea la llama del alcohol, emite siempre las mismas rayas.

«Cuando en el espectro de una llama -enuncia Talbot- aparecen ciertas y determinadas rayas, éstas son seguras características del metal contenido en la llama.»
Wheatstone amplía las observaciones estudiando la luz del arco eléctrico, y encuentra rayas diferentes según los metales empleados en los electrodos. Miller hace atravesar rayos solares por vapores de yodo y bromo para examinar las líneas de absorción. Atisbos de conocimientos nacen sin dar una certeza. Foucault, tan hábil en otros experimentos, tantea esta vez en la oscuridad y no llega más allá de la especie de la raya D del sodio.
Sigue el sueco Angström los ingleses Swan, Stokes, Brewster El último reconoce que ciertas líneas oscuras en el espectro solar son engendradas por la absorción de los rayos en la atmósfera terrestre. Mas todos estos sabios sólo hacen hallazgos aislados e incoherentes; por último, en 1859, surge el capital descubrimiento de Bunsen y Kirchhoff: enuncian con claridad la ley y logran las primeras aplicaciones.

17.jpg
Gustavo Roberto Kirchhoff

El químico R. G. Bunsen (1811-1899), experimentador tan inventivo como incansable, y el brillante teórico de la física G. Kirchhoff (1824-1887), ambos profesores de la vieja y renombrada Universidad de Heidelberg, se completaron del modo más feliz y su colaboración no pudo ser más fértil. Las llamas coloreadas por sustancias dadas llamaron la atención de Bunsen que se esforzó en obtener de ellas un medio seguro para identificar cuerpos químicos.
Evidentemente, era menester ante todo disponer de una llama realmente pura. La del alcohol, con las inevitables impurezas introducidas por la mecha, no se prestaba; el gas de alumbrado parecía más adecuado.
De los ensayos de Bunsen para mezclar aire con gas de alumbrado sin explosión, salió en 1884 el mechero que lleva su nombre, fuente de una llama constante, pura, sin luminosidad, auxiliar indispensable desde entonces en los laboratorios.
Bunsen no se contenta con observar a simple vista les colores engendrados por diferentes sustancias en la llama de su mechero: los examina, siguiendo el consejo de Kirchhoff, a través de prismas. Los resultados le condujeron muy pronto a reconocer que las rayas brillantes emitidas por vapores metálicos e incandescentes son independientes de la temperatura, independientes también de los elementos con los cuales los metales están combinados y ofrecen características seguras y constantes de los cuerpos químicos, aunque se presenten en cantidades mínimas.
Basta menos de una diezmillonésima de gramo de sodio para producir la doble raya amarilla que sigue indicando todavía la presencia de este elemento cuando la química analítica no llega a descubrir el más leve vestigio del mismo. El estudio de las rayas emitidas por varios cuerpos, sea en la llama, sea en el arco voltaico o sea en la chispa eléctrica, convencieron a Bunsen de la seguridad de su método, muy pronto brillantemente confirmado por el descubrimiento de dos nuevos elementos.
El rubidio y el cesio, encontrados por Bunsen, en 1860 y 1861 respectivamente, recibieron sus correspondientes nombres por las rayas espectrales que permitieron encontrarlos. El análisis espectral por emisión estaba fundado. Exigía ser completado para convertirse en un instrumento cuyo alcance -una vez más como en los tiempos de Newton- se extiende de la Tierra a las lejanías del cielo. La trascendental amplificación de la eficacia del análisis espectral significó la solución del enigma todavía abierto de las líneas de Fraunhofer y fue la obra de Kirchhoff.
Producir en el laboratorio, artificialmente, líneas de Fraunhofer en el espectro, fue el primero y decisivo éxito que dio la clave del problema. Kirchhoff y Bunsen ejecutaron la hazaña de manera que una vez realizada parece muy sencilla. Kirchhoff encendió una intensa llama engendradora de un espectro continuo: en el trayecto de los rayos colocó una lámpara de alcohol con solución de sales de sodio, emisora de la característica doble raya amarilla.
Instantáneamente, las líneas amarillas y brillantes se convirtieron en líneas negras D, idénticas a las del espectro solar. Si en lugar de sales de sodio tomaba cloruro de litio, veía la raya roja característica del litio volverse oscura. Reconoció que basta colocar llamas coloreadas, fuentes de líneas brillantes, entre una fuente luminosa suficientemente intensa y la pantalla de un espectroscopio para ver que las llamas absorben los rayos de la misma longitud de onda que emiten, e introducen en el espectro, en su lugar, rayas negras.

"Concluyo -escribió Kirchhoff en octubre de 1859 a la Academia de Berlín- que las líneas oscuras del espectro solar que no están producidas por la atmósfera terrestre, se originan por la presencia en la candente atmósfera solar de aquellas sustancias que en el espectro de una llama presentan líneas brillantes en el mismo lugar. Podemos admitir que las líneas brillantes del espectro de una llama, que coinciden con las líneas D, se deben siempre al contenido de sodio de las mismas. Las líneas oscuras D en el espectro solar permiten concluir, por ello, que se encuentra sodio en la atmósfera del Sol."
Como los gases de la envoltura solar son más fríos que el astro, un elemento dado de la atmósfera solar es incapaz de reemplazar por su propia radiación los rayos que ha absorbido. Así nacen las líneas oscuras en el espectro solar, lagunas que traducen la ausencia en la luz de rayos de elementos dados, y su presencia en el Sol.
El enigma de las líneas de Fraunhofer estaba, pues, resuelto, y al mismo tiempo abierta la posibilidad del análisis químico del Sol, posibilidad considerada algunas décadas antes por el filósofo francés Augusto Comte, como un sueño fuera del alcance humano. Mas aquí no se detuvo Kirchhoff; dos meses después de su primera comunicación a la Academia de Berlín procedió a la generalización y a la prueba rigurosa de la ley que había encontrado.
Introdujo una nueva noción, la del cuerpo perfectamente negro, susceptible de absorber por completo los rayos de todas las longitudes de onda y no reflejar ninguno. Tal cuerpo, un radiador integral, no existía en ese momento más que en la imaginación de Kirchhoff, y fue realizado técnicamente más tarde, en 1895, por Wien y Lummer. Una vez definido el cuerpo negro, Kirchhoff demostró la validez de la igualdad

eq20.png

donde e es el poder emisivo, a el poder absorbente de un cuerpo cualquiera, y E y A los poderes de emisión y absorción del cuerpo negro. Como éste absorbe todos los rayos, A es igual a la unidad, de modo que el cociente de los poderes de emisión y absorción de un cuerpo dado e/a es una constante bien determinada. Y Kirchhoff enuncia su ley:
para las radiaciones de la misma longitud de onda, a la misma temperatura, la relación entre el poder de emisión y el poder de absorción es siempre la misma.
La idea, convertida en realidad por el descubrimiento de Kirchhoff y Bunsen, de que es dado al hombre penetrar la naturaleza química de sustancias separadas de nosotros por infranqueables abismos del espacio, pareció no sólo a Augusto Comte, el profeta desmentido, sino a los testigos mismos de la hazaña, increíble y utópica.
Divertido es leer las palabras de Kirchhoff en una carta escrita en 1859 a su hermano Otón:
"Mi tentativa, el análisis químico del Sol, parece a muchos muy atrevida. No estoy enojado con un filósofo de la Universidad por haberme contado, mientras paseábamos, que un loco pretende haber descubierto sodio en el Sol. No pude resistir la tentación de revelarle que ese loco era yo".
Con la ley de Kirchhoff, la interpretación de los espectros recibió una sólida base, y el desciframiento de las señales espectrales pudo iniciarse, apoyado de una parte por el conocimiento cada vez más profundo de los espectros de emisión de los elementos químicos, y de otra parte por el creciente poderío de los aparatos.
Al espectroscopio de Kirchhoff y Bunsen se asoció la red de difracción; con los progresos de la máquina de dividir, el físico americano Enrique Rowland creó en 1882 las redes formadas por estrías de sorprendente sutileza, hasta 1.100 en un milímetro. Rowland aplicó también la división en surcos a espejos cóncavos.
Kirchhoff trazó un mapa del espectro solar, asignando a un gran número de líneas los elementos químicos que las engendran. El sueco A. J. Angström le siguió; fue el primero que describió las rayas solares en términos de longitud de onda. En el mismo año, 1868, el astrónomo inglés Guillermo Huggins dirigió el espectroscopio hacia Sirio y aplicando el efecto Doppler midió el corrimiento de las líneas, provocado por el alejamiento del astro.
Así evaluó por primera vez la velocidad radial de una estrella. Pocos meses antes, todavía en el mismo año de 1868, un eclipse total de Sol dio una evidente prueba de la certidumbre del descubrimiento de Bunsen y Kirchhoff: durante pocos segundos la fotosfera del Sol estuvo cubierta por la Luna y repentinamente aparecieron, en lugar de las líneas oscuras, las correspondientes líneas brillantes del espectro relámpago emitidas por la atmósfera solar, que gracias al eclipse, era la única que resplandecía. Una nueva ciencia nació: la astrofísica.
En las décadas que siguieron a la hazaña de Kirchhoff y Bunsen, dicha ciencia puso, en medida creciente, al alcance de la exploración fisicoquímica, no sólo el Sol y las estrellas, sino que también el ojo espectroscópico penetró hasta el interior de las nebulosas, alejadas de la Tierra por varios millones de años luz.
Contrariamente a lo esperado, ningún cuerpo químico desconocido en la naturaleza terrestre dibujó sus rayas sobre las placas de los espectrógrafos. Cuando en 1869 las líneas del helio fueron señaladas por el inglés J. Lockyer y atribuidas de primera intención a un elemento que sólo existiría en el Sol, se terminó por encontrarlo (1895) como formando parte integrante de la atmósfera del globo.
El análisis espectral reveló la analogía química entre los astros y elevó al rango de certeza la concordancia sustancial de la Tierra con las estrellas más remotas de la Vía Láctea y aún de las galaxias lejanas. La demostración de la unidad material del cosmos explorable es la sublime lección, históricamente la primera, que nos fue concedida por el espectroscopio, gracias a Kirchhoff y a Bunsen.
Sin embargo, este éxito, a pesar de lo magnífico, sólo es uno de los numerosos aspectos de los conocimientos abiertos por el desciframiento de las líneas espectrales. Éstas nos suministran también mensajes de procesos en el mecanismo atómico engendrador de las rayas espectrales. Son como el eco lejano de los cambios de configuración que se cumplen en el universo de lo infinitamente pequeño.
Casi la totalidad de los progresos realizados en el transcurso del siglo XX, en la exploración del interior atómico, los debemos a la profundizada interpretación de las rayas espectrales. ¡Haber extendido los alcances de la investigación a la vez a las lejanías del macrocosmo y a las profundidades no menos insondables del microcosmo es la trascendencia de la obra de Kirchhoff y Bunsen, comparable, en su majestuosa amplitud, a los descubrimientos de Newton!
La hermosa simplicidad de los espectros, tal como se manifestaron en las experiencias de los dos iniciadores, debió pronto ceder el paso a la comprensión de que el espectro depende no sólo de los cuerpos en presencia, sino también de la manera en que están excitados.
El espectro de un elemento dado cambia según sea vaporizado en un arco voltaico o excitado a la radiación por descargas eléctricas. A los simples espectros de llama se agregaron los espectros de arco y los de chispa, a mayor temperatura que ellos, los últimos estudiados desde 1865 por los alemanes Julio Plücker y Guillermo Hittorf.
Aquí comenzó una larga serie de trabajos descriptivos destinados a fijar exactamente los espectros de emisión de los diferentes elementos, varios de los cuales, como los del hierro, revelaron su extrema complejidad. Imposible es seguir aquí la crónica de las laboriosas y pacientes investigaciones que condujeron, sobre todo gracias a Kayser y Runge, en Bonn, y más tarde a Exner y Eder, en Viena, a verdaderas enciclopedias de las rayas espectrales.
Una vez medidas, después de un gigantesco trabajo, las rayas espectrales, y asignadas a cada elemento las suyas, surgió la cuestión de si la distribución de las líneas características de un elemento dado, dispersadas en toda la longitud del espectro, no está sometida a un orden rítmico. Podíase presumir que una cierta periodicidad les era propia. Una cuerda vibrante guarda en sus sonidos un cierto número de notas que pueden abarcarse en una fórmula. La simple fórmula que la teoría había establecido para las vibraciones sonoras, ¿sería imposible encontrarla para las vibraciones luminosas?
El sabio suizo J. J. Balmer (1825-1898) no fue el primero en proponerse esta tarea, pero sus émulos no tenían su inagotable paciencia ni compartían su inquebrantable convicción de que la ley buscada existía. Balmer, maestro de dibujo, tan artista como sabio, estaba persuadido de la omnipresencia de relaciones armónicas en los fenómenos físicos y no admitía que el espectro pudiera ser una excepción. Su perseverancia suiza acabó por triunfar en 1885, cuando tropezó, después de muchos cálculos, con la relación numérica que rige entre las rayas del hidrógeno en la parte visible del espectro.
La fórmula empírica de Balmer describe con extraordinaria exactitud la longitud de onda de las rayas del hidrógeno.

eq21.png

donde k es una constante y m puede tomar valores enteros a partir de tres. Kayser y Runge reemplazaron en la ley de Balmer la longitud de onda por la frecuencia y obtuvieron la fórmula que se traduce en la notación actual por:

eq22.png

donde R es una constante y n un número entero superior a 2; a cada valor de n corresponde una raya. Las frecuencias de las rayas del hidrógeno obedecen admirablemente a la fórmula de Balmer. En su descubrimiento se escondían además conocimientos que el investigador suizo estaba lejos de sospechar.
Su hallazgo se convirtió pronto en un verdadero instrumento de profecías. La fórmula, generalizada ya en nuestra siglo por Walter Ritz (1908) permitió prever no sólo una, sino un conjunto de series de rayas de hidrógeno en el espectro ultravioleta e infrarrojo.
La experiencia ha justificado magníficamente los pronósticos y por lo menos en el espectro del más sencillo de los átomos, el de hidrógeno, el caos cedió al orden rítmico y todas sus rayas reunidas en una fórmula se sometieron a la ley de Balmer Ritz.
Además, se reveló que las líneas de otros elementos también obedecen a fórmulas semejantes, aunque más complejas. Son representables por diferencias de expresiones cuadráticas. Particularmente, la constante R de la ley se encuentra en la serie de rayas espectrales de todos los elementos; es un dato universal y fundamental, como lo ha demostrado el físico sueco Rydberg, cuyo nombre quedó vinculado con la constante R.
Al establecer una relación fija entre emisión y absorción de la radiación, Kirchhoff abrió, como acabamos de ver, el camino al magnífico surgimiento de la espectroscopia; su ley aclaró muchos problemas, mas también hizo nacer otros. Los cuerpos negros que absorben por completo rayos de todas las longitudes de ondas, los emiten también de todas, estando pues, dotados del máximo poder emisivo. Éste depende sólo de la temperatura. ¿Cuál es la ley de esta dependencia? La ley que vincula la radiación total del cuerpo negro con la temperatura. Apoyado en las mediciones de J. Tyndall y de otros, el físico austriaco J. Stefan (1835-1893) dedujo en 1879 que la radiación total del cuerpo negro es proporcional a la cuarta potencia de su temperatura absoluta.
Una vez determinado el número de calorías irradiadas en un segundo por un centímetro cuadrado de cuerpo negro, la ley de Stefan permitió calcular la temperatura del Sol, en cifras redondas, en 6000 ºC, a condición de que el Sol sea un cuerpo negro, que absorba toda radiación, condición que parece, según recientes experiencias, conforme en la realidad.
¿Cómo está distribuida la radiación del cuerpo negro sobre las diferentes longitudes de onda del espectro? Este problema ya preocupaba a Kirchhoff. Si se calienta un trozo de carbón o hierro, junto a los rayos infrarrojos y rojos, que son los primeros en aparecer, surgen con la temperatura creciente amarillos, azules y violetas. El dominio de los rayos emitidos se desplaza, pues, de la baja a la alta frecuencia. G. Wien estudió esta relación, encontrando en 1894 la ley del corrimiento que lleva su nombre: con temperatura creciente el máximo de la intensidad de radiación se desplaza de las longitudes de onda mayores a las menores, de modo que el producto de la temperatura absoluta por la longitud de onda correspondiente al máximo es una constante.
La ley de Stefan es un hallazgo empírico; el físico austriaco L. Boltzmann le dio el apoyo necesario, conforme a la teoría electromagnética de la luz, sólidamente asentada por Maxwell. Mas el éxito se reveló bien pronto precario. Ninguno de los pensadores del siglo XIX que se volvieron hacia el problema de la radiación del cuerpo negro fue capaz de dar una satisfactoria interpretación de la repartición espectral de la energía. Mientras que la característica curva en campana obtenida experimentalmente presentó un máximo cuya posición estaba reglada por la indicada ley de Wien, la teoría exigía una curva cuyas ordenadas crecen hasta el infinito, cuando la longitud de onda aumenta. La naturaleza reveló una vez más que sus leyes no siempre se acomodan a los razonamientos de nuestro espíritu.
Sólo el siglo XX libera a la física del atolladero a que la condujera la patente contradicción entre teoría y experiencia. Con la nueva centuria nace la nueva doctrina; el 14 de diciembre de 1900 sugiere Max Planck (1858-1947) la innovadora idea de considerar la emisión radiante como un proceso discontinuo que se efectúa mediante elementos aislados de energía, poseedores de una determinada magnitud.
Tal elemento, el cuanto, es proporcional a la frecuencia del rayo, siendo el factor de proporcionalidad una constante universal de la naturaleza, la famosa constante h que debía más tarde inmortalizar el nombre de su descubridor. Así, la energía de un cuanto está dada por la fórmula

eq23.png

La lucidez de este pensamiento aclaró de golpe el enigma de la radiación del cuerpo negro, explicando inmediatamente la variación de la curva en campana, cuyos caprichos habían desconcertado a los investigadores. Tal éxito no fue más que la primera proeza de la nueva teoría. En la hipótesis de Planck se escondía el fértil germen de la mayoría de las inauditas y maravillosas ideas que debieron transformar, hasta hacerla irreconocible, la imagen del mundo físico. Una de sus más resonantes victorias debía ser la explicación de las rayas espectrales por la cambiante configuración de los electrones intraatómicos.
La ley de Balmer-Ritz describió admirablemente las rayas del hidrógeno, pero nada reveló de por qué un elemento irradia cierta línea y no otra; dejó por completo en sombras el misterioso lazo que une a radiación con el átomo radiador. Sólo cuando el agudo danés Niels Bohr (1913) introdujo el cuanto en el interior atómico, dando a los electrones circulantes trayectorias regidas por la constante de Planck y cuando supuso, con una atrevida hipótesis, que el electrón emite luz al saltar de una órbita a la otra, logró obtener de las diferencias energéticas de las órbitas la frecuencia de la radiación emitida. Como por encanto aparecieron en su cálculo las frecuencias de las líneas espectrales. Pero en este momento la edad heroica de la espectroscopia hacía mucho tiempo que pertenecía al pasado.

Capítulo 12
El átomo y la naturaleza del calor: desde Dalton hasta Boltzmann

Contenido:

1. Investigaciones de Dalton y Gay-Lussac sobre los gases
2. La conservación de la energía y sus descubridores
3. Termodinámica y cinetismo de la materia

1. Investigaciones de Dalton y Gay-Lussac sobre los gases
El cero absoluto; Dalton descubre el peso atómico; La hipótesis de Prout; La tabla periódica de Mendeléiev; Avogadro y su ley; Pedro Dulong: El calor atómico; La teoría de Fourier; Sadi Carnot y la irreversibilidad de los procesos térmicos.

El impresionante monumento que en la abadía de Westminster, en Londres, adorna el sepulcro de Jaime Watt, anuncia que el ilustre inventor «aumentó las fuerzas de los humanos». No parece que la humanidad haya estado demasiado entusiasmada con el regalo que el genial mecánico de Glasgow le ofreciera; vaciló durante más de veinte años antes de aceptarlo. Sólo en los comienzos del siglo XIX se reconoce el valor de la obra de Watt y se inicia la era de la máquina de vapor. Su creciente importancia despierta el deseo de profundizar en el conocimiento de las leyes que ligan la expansión del vapor y de los gases con la temperatura.
A pesar de ello, en la misma Inglaterra, no fue esta exigencia práctica, sino problemas meteorológicos los que decidieron a Juan Dalton (1766-1844), maestro de escuela en Manchester, a emprender una serie de investigaciones sobre la dilatabilidad de vapores y gases. La meteorología fue la verdadera pasión de este gran hombre, aunque haya recogido laureles en otros dominios. A los veintidós años hizo su primera observación y a los setenta y ocho, un día antes de su muerte, la última. Para examinar vapores se sirvió de tubos barométricos que calentaba a diferentes temperaturas, dejando ascender el líquido vaporizado por encima de la columna mercurial. Estableció que a cada temperatura corresponde una presión determinada del vapor, independiente del volumen y de la cantidad de líquido que resta. La característica presión del vapor a una temperatura dada no cambia aunque un gas llene simultáneamente el espacio. Dalton comprobó que la presión del gas, regida por la ley de Boyle-Mariotte, y la presión del vapor, que depende sólo de la temperatura, no se perturban, sino que se suman. El vapor no saturado obedece a la ley de Boyle-Mariotte.
Dalton, descontento con los inciertos resultados de sus precursores, midió la dilatación de los gases a presión constante, cuidando de que estuvieran secos, lo cual no había hecho antes de él el físico francés Amontons. Las mediciones convencieron a Dalton de que la dilatación calórica de los gases es de igual intensidad para todos; el coeficiente de dilatación, independiente de la temperatura, de la presión y de la naturaleza química del gas, es una constante. Sin conocer las investigaciones del químico de Manchester y simultáneamente con él, el químico francés Luis José Gay-Lussac (1778-1850) llegó al mismo descubrimiento; el coeficiente de dilatación (1/273) fue más tarde (1840) establecido con exactitud por el alemán Gustavo Magnus. En realidad, la ley de Gay-Lussac-Dalton, tanto como la de Boyle-Mariotte, sólo se verifican en primera aproximación y definen un estado gaseoso ideal.

18.jpg
Luis José Gay-Lussac

Los gases reales se alejan más o menos del estado perfecto. El físico francés Enrique Víctor Regnault (1810-1878) determinó, con una paciencia solamente igualada por su habilidad, la dilatación y compresión particular a cada gas, y sus diferencias con las leyes teóricas. El coeficiente de dilatación de los gases adquirió décadas después gran importancia; permitió establecer la temperatura absoluta, sin punto de partida artificial y anclada en el grado de calor, llamado por Dalton cero absoluto, en que los gases no ejercen ninguna presión sobre las paredes de sus recipientes. El cero absoluto se halla 273,2° Celsio por debajo del punto de congelación del agua.
Como su idea del cero absoluto, muchas otras proezas de Dalton no revelaron su gran valor cognoscitivo sino tiempo más tarde.

19.jpg
Sadi Carnot

Fue el primero en demostrar que los gases se calientan al comprimirse y se enfrían al dilatarse, insospechada propiedad que debió conducir en los razonamientos de Carnot y Mayer a conclusiones trascendentales. Dalton reconoció con más claridad que sus predecesores el carácter accidental de los tres estados de agregación y su dependencia general de la temperatura.
Por numerosos que sean los descubrimientos del modesto y taciturno maestro, ninguno alcanza la importancia de su obra Nuevo sistema de la filosofía química (1808), que innovó la química y dio base firme e inamovible a la teoría atómica. Todo aquello que los pensadores griegos fabularon sobre los últimos constituyentes de la materia eran mitos semi-filosóficos y semi-poéticos, sin ningún asidero empírico en el mundo físico. Con Daniel Bernoulli, en el siglo XVIII, y con Dalton, en el XIX, aparecen los dos primeros investigadores que saben vincular los hechos observables con la supuesta y oculta existencia de las partículas infinitesimales y establecen un contacto sólido entre el mundo de nuestras experiencias y el universo invisible. Las fundamentales leyes ponderales de la química que acababan de descubrir el francés Luis Proust, el alemán J. B. Richter y Dalton mismo, reclamaban, según reconoció el sagaz pensador de Manchester, la presencia de un número finito de indestructibles e invariables partículas que entran en cada reacción química.
«Al tomar un volumen dado de cualquier gas —escribió Dalton—, podemos estar convencidos de que por más que continuemos la división, el número de las partículas será finito, como en un espacio dado del universo el número de las estrellas y de los planetas no puede ser infinito.»
El hecho de que la proporción ponderal de un elemento, al entrar en un compuesto químico, no puede tomar todos los valores posibles, sino que los pesos de los componentes están entre sí en relaciones simples, se explica, asegura Dalton, si se admite que los elementos químicos están formados por una gran cantidad de átomos, siendo todos los átomos de un elemento rigurosamente idénticos y teniendo cada elemento su propia especie de átomo, con un peso definido y distinto al de otros elementos. El peso característico, reconoce Dalton, es un atributo que los átomos no pueden cambiar ni disimular. Consigo llevan en los compuestos su peso, como indeleble señal que perdura mientras las otras marcas individuales desaparecen. Dalton da la primera tabla de pesos atómicos, eligiendo como unidad el del hidrógeno. Sus cifras no representan, es verdad, más que aproximaciones groseras. Mas su intuición, que le permitió asir una propiedad nuclear, la masa del átomo, cien años antes de que el núcleo mismo se revelara al hombre en las experiencias de Rutherford, aseguraría a Dalton, aunque no tuviera otro mérito, un lugar privilegiado en la historia del pensamiento científico.
Como los pesos atómicos en la tabla de Dalton eran múltiplos enteros del peso del hidrógeno, el médico inglés Guillermo Prout (1786-1850) sacó, en 1815, la conclusión de que los átomos de todos los elementos químicos estarían formados por átomos de hidrógeno y que éste sería el arquetipo de la materia del universo. Los destinos de la atrevida hipótesis, cuya historia sale del cuadro de este libro, ilustran el camino necesariamente tortuoso del espíritu en su búsqueda de lo real físico. El químico belga Juan Servais Stas pasó la mitad de su vida en determinar exactamente los pesos relativos de los átomos, encontrando números fraccionarios, y llegó así a una rotunda negación de la tesis de Prout. ¿Estaba ésta definitivamente refutada? De ninguna manera; los descubrimientos de los ingleses Federico Soddy, José Juan Thomson y Francisco Guillermo Aston, aclararon las causas de las diferencias que separaban los resultados de Stas de los números enteros, y las investigaciones de Rutherford, al abrir el interior del átomo, encontraron en todas partes el núcleo de hidrógeno, el protón, constituyente primordial de los núcleos atómicos de todos los elementos.
La hipótesis de Prout impulsó a buscar una conexión entre los pesos atómicos de los elementos y sus propiedades químicas y físicas. El francés Béguyer de Chancourtois trató, en 1862, de agrupar los elementos sobre una espiral cilíndrica, de modo que los cuerpos con cualidades análogas estuviesen colocados unos encima de otros. Su proposición quedó sin eco. El químico ruso Demetrio Mendeléiev (1834-1907) indicó en 1869 su famosa clasificación, fecunda en consecuencias: si se disponen los átomos según sus masas crecientes, las propiedades físicas y químicas de los elementos se reproducen periódicamente para un cierto aumento de los pesos atómicos. El valor de la «tabla periódica» de Mendeléiev se manifestó pronto. Para colocar en columnas verticales los elementos con propiedades vecinas, Mendeléiev fue llevado a dejar en blanco ciertos espacios que pudieron suponerse como los de elementos entonces desconocidos, pero con propiedades perfectamente definibles, gracias a su lugar en la clasificación. El descubrimiento de estos elementos, cuya existencia estaba prevista por la tabla empírica de Mendeléiev, trajo una resonante confirmación a la certeza de su sistema.
Dalton sólo consideró los pesos característicos que los elementos dados evidencian en sus compuestos con otros. Gay-Lussac examina (1805-1808) los volúmenes y comprueba que los gases siempre se combinan en proporciones sencillas. Este descubrimiento presta un eficaz argumento a la hipótesis atómica, que recibe algunos años más tarde, gracias al físico italiano Amadeo Avogadro (1776-1856), un apoyo todavía más poderoso. La ley de Gay-Lussac y Dalton —la dilatación uniforme de los gases a presión constante— y la ley de Boyle-Mariotte permiten concluir que el número de las moléculas de dos gases diferentes, en dos balones de igual volumen, permanece —si las condiciones de temperatura y presión son las mismas— siempre en una relación inmutable. Avogadro, convencido de que la naturaleza sigue las leyes sencillas, emitió la hipótesis de que esta relación es la más simple que podemos imaginar, y es 1 a 1; es decir, que con temperatura y presión fijas, volúmenes iguales de cualquier gas encierran el mismo número de moléculas. La hipótesis de Avogadro no atrajo la atención de físicos y químicos. Ignorada y rechazada durante más de medio siglo, terminó por convertirse en ley, en uno de los pilares sustentadores de la química y la microfísica y fue confirmada en la misma medida en que los métodos de calcular el número de moléculas se multiplicaron. Avogadro fue el primero en realizar una clara distinción entre átomo y molécula, indiferenciados antes en el pensamiento de Dalton. La partícula más pequeña que puede entrar en las combinaciones químicas es el átomo; el constituyente último que puede subsistir en estado libre es —en concepto de Avogadro— la molécula. La lúcida distinción entre molécula y átomo pasó inadvertida, de suerte que tres años más tarde pudo Ampère redescubrir la fundamental diferencia, sin lograr tampoco imponerla.
De un lado inesperado vino a la joven atomística una ayuda. El médico parisiense Pedro Dulong (1785-1838) había dejado su profesión para dedicarse a estudios fisicoquímicos. Apasionado de la ciencia, la enriqueció por su entrega a experiencias cuantitativas que exigían inagotable paciencia, y a veces —como los ensayos con materias explosivas o vapores sobrecalentados— gran coraje. Nada lo detuvo en la persecución de su meta, ni aun la pérdida de un ojo y de los dedos de su mano derecha. Numerosos son sus méritos, mas ninguno encontró la resonancia del descubrimiento que hizo, ayudado por su amigo, el joven físico Alejo Petit (17911820), al medir el calor específico de los cuerpos sólidos. Para una serie de metales observaron que los calores específicos decrecían al crecer los pesos atómicos; concluyeron que esta propiedad debía ser general y enunciaron en 1819 la ley que lleva sus nombres: los productos de los calores específicos por los pesos atómicos son iguales para todos los elementos químicos. La ley permitió separar netamente los conceptos molécula y átomo y determinar el peso atómico de un elemento dado, una vez conocido su calor específico. El producto que aparece en la ley de Dulong y Petit, recibió del químico alemán Armando Kopp el nombre de calor atómico. Aunque la constancia de esta magnitud no sea valedera sino en una primera y grosera aproximación, el descubrimiento de los dos franceses rindió, en el alba de la atomística, apreciables servicios y apoyó el edificio aún tambaleante de la teoría.
Dulong ensayó también aclarar por experiencias el problema de la dilatación calórica de barras sólidas. No existe una rigurosa proporcionalidad entre la elevación de la temperatura y la dilatación de los sólidos, y su falta hace difícil establecer una ley exacta. Dulong hubo de contentarse con reglas aproximativas. Gran interés despertaron los estudios sobre la dilatación térmica en los cristales de Eilhardt Mitscherlich (1794-1863), quien después de haber pasado su juventud descifrando manuscritos persas, se hizo químico. A excepción de los cristales regulares, el coeficiente de dilatación no es el mismo en todas las direcciones del espacio cristalino y diferente según los ejes. El espato calizo, que desde los lejanos días de Erasmo Bartholin preocupaba por sus singularidades ópticas a los físicos, causó una nueva sorpresa: posee, según demostró Mitscherlich, un coeficiente de dilatación negativa: se contrae si es calentado.
Problemas más difíciles que la dilatación calórica de barras brindó su conductibilidad térmica. Todavía hoy no sabemos bien cómo el calor es transmitido de una porción a otra del cuerpo, y si ello se efectúa por vibraciones de átomos o por movimientos electrónicos. Menos aún se sabía en los comienzos del siglo XIX. Se precisaba el genio de un matemático como José Fourier (1768-1830) para poder describir el incomprendido fenómeno sin recurrir a ninguna hipótesis sobre el proceder íntimo de la transmisión térmica, y aun sin la necesidad de una suposición sobre la naturaleza del calor. Su análisis modelo llegó, en 1822, a un notable resultado: la cantidad de calor que pasa por segundo a través de una barra con sección de un centímetro cuadrado, es proporcional al gradiente de la temperatura. Esta última noción requiere una definición: el gradiente térmico es la caída de temperatura, por cada centímetro del conductor, medida en la dirección en que fluye el calor. La ley de Fourier se distingue por su vasta generalidad. Lejos de limitarse a los fenómenos calóricos, describe la difusión entre líquidos y se aplica también a la conductibilidad eléctrica. En efecto: Ohm, al establecer su ley, no hizo más que adaptar la de Fourier, traduciéndola del dominio del flujo calórico al de la corriente eléctrica. La analogía entre los fenómenos de conducción térmica y eléctrica fue ya señalada por Benjamín Franklin, a quien no escapó que los aisladores eléctricos también son calorífugos. Los físicos alemanes Wiedemann y Franz compararon la conducción térmica con la eléctrica y enunciaron, en 1853, la ley que afirma la proporcionalidad de las dos conductibilidades.
En los razonamientos de Fourier, el calor posee la propiedad de fluir, es comparable a un río, o mejor, a una caída de agua. Esta última imagen cobra gran importancia en las Reflexiones sobre la potencia motriz del fuego (1824), obra maestra del joven oficial francés Sadi Carnot (1796-1832), hijo del ministro de la Guerra en la Revolución francesa, Lázaro Carnot. Al buscar las condiciones de rendimiento máximo de la máquina de Watt, Carnot llega a conclusiones que sobrepasan en mucho la meta señalada por el título de su tratado. En todo dispositivo térmico susceptible de producir trabajo, necesariamente se efectúa, explica Carnot, un transporte de calor de la fuente caliente a la fría: en la máquina de Watt pasa, así, el calor de la caldera al condensador. Sólo por tal paso puede el calor producir trabajo, que será, por otra parte, proporcional a la diferencia de temperatura entre los dos manantiales. Carnot muestra que el rendimiento crece cuando la temperatura de la caldera aumenta o la del condensador disminuye. Sólo son productivos los pasos de calor ligados a cambios de volumen, semejantes a la expansión del vapor en el cilindro de la máquina de Watt. Transporte de calor por conducción térmica o por rozamiento significa pérdida de trabajo. Si no se perdiera calor en el paso y el cedido por la fuente caliente fuera igual al ganado por la fría, el funcionamiento de la máquina se convertiría en un ciclo reversible y su rendimiento llegaría al máximo. En realidad, el ciclo de transformación que sufre entre las dos fuentes del dispositivo térmico, un gas o un vapor, el ciclo de Carnot, sólo es perfectamente reversible en una máquina ideal, dado que procesos irreversibles, como conducción y rozamiento, no se pueden eliminar por completo. Cuanto más se aproxima el funcionamiento de la máquina real a la reversibilidad perfecta, tanto mayor será el máximo de su rendimiento.
Llegado a esta conclusión, Carnot se pregunta si el rendimiento de la máquina ideal no está determinado también por otros factores que la diferencia de temperatura de sus dos fuentes. La construcción de la máquina o la especie de vapor o gas, ¿no podría entrañar un aumento o disminución del trabajo efectuado? No, responde Carnot, y demuestra la validez de su negación por esta simple consideración: sean dos máquinas ideales que funcionan a la misma temperatura y supongamos que la primera rinda más que la segunda. Podríamos, pues, emplear parte del trabajo de la primera para hacer marchar la segunda en sentido inverso; el resultado de la doble operación sería que el nivel de temperatura empleado en la máquina propulsora, gracias a la eficacia de la segunda máquina, se mantendría sin necesidad de suministrarle calor y, además, el exceso de la primera y mejor máquina quedaría disponible.
Tendríamos un medio para obtener trabajo sin gastos, produciéndolo de la nada: el perpetuum mobile estaría realizado. Carnot llega así al fundamental resultado: afirmar la desigualdad de poder entre las dos máquinas indicadas equivaldría a afirmar la posibilidad del movimiento perpetuo. La conclusión se impone: la cantidad de trabajo producido por una máquina térmica perfecta, sólo depende de la diferencia de las temperaturas entre las dos fuentes y de la cantidad de calor puesta en juego.
La imposibilidad del perpetuum mobile, entrevista en el alba del renacimiento científico por Leonardo y por Cardano, afirmada en el siglo XVII por Stevin, Galileo, Leibniz y Huygens, forma la base de los razonamientos de Carnot. Acéptalo como verdad indestructible sin asignarle un fundamento; deja abierto el problema de si el principio es un axioma a priori o más bien un hecho empírico deducido de las numerosas tentativas, siempre infructuosas, de producir el verdadero movimiento eterno. Carnot no logra asir la conservación de la energía, de la cual, sin saberlo, no lo separa más que un paso. El obstáculo que le impide dar el paso decisivo es su adhesión a la hipótesis de que el calor sería un fluido indestructible, hipótesis compartida entonces por la mayor parte de los físicos. Fourier, cuya capital obra precede en dos años a la de Carnot, también había considerado el calórico como substancia. Mas para el logro de su propósito, la descripción matemática de la conducción térmica, era indiferente la naturaleza íntima del calor. ¿Lo era también para el problema que Sadi Carnot se proponía resolver?
Carnot comparó la máquina térmica con un molino a agua; al igual que se precisa una caída de agua para hacer marchar un motor hidráulico, es menester una caída del calor para hacer marchar un motor térmico. Esta imagen le lleva a la conclusión de que el calor produce trabajo sólo por su descenso y que llega a la temperatura inferior sin que su cantidad haya disminuido. Basta, pretende Carnot, que el calórico pase del cuerpo caliente al cuerpo frío para producir efectos mecánicos. ¿Cómo fue posible que Carnot, desconociendo la profunda metamorfosis del calor en trabajo y suponiendo que la cantidad de calor pasa por su máquina sin experimentar variación, haya llegado a conclusiones exactas? Este sorprendente hecho se explica porque en la demostración de Carnot sólo se consideran las cantidades de calor que entran y salen a la temperatura superior, sin necesidad de decir algo a propósito de aquellas que salen a la temperatura inferior. Así se produce el milagro de que Carnot llegue a un resultado cierto aunque su hipótesis sea errónea.
Anotaciones publicadas casi medio siglo después (1878) de la muerte del original pensador, prueban que Carnot revisó en los últimos años de su vida la hipótesis y que trató de calcular una cifra para el equivalente mecánico del calor. Su precoz y repentino fin le impidió completar su labor; terminó sus días a los treinta y seis años, víctima del cólera asiático. Su obra, tan rica en ideas, pasó inadvertida y cayó bien pronto en completo olvido, a pesar de los esfuerzos del ingeniero Benito Clapeyron (1799-1864), que en 1834 dio forma analítica a los razonamientos de Carnot y les agregó un comentario de notable claridad. Cuando, a mediados del siglo, lord Kelvin buscó en París un ejemplar del clásico escrito, a duras penas logró procurárselo. Fueron el gran inglés y el físico alemán Clausius quienes recogieron el pensamiento de Carnot y coronaron su obra.

2. La conservación de la energía y sus descubridores
La obra de Roberto Mayer; Su trágico destino; Joule determina el equivalente mecánico; Las ideas de Colding; Helmholtz: Su demostración de la constancia de la energía; El principio de la mínima acción

A menudo, como prueba la historia, un gran descubrimiento es realizado simultáneamente por varios investigadores. La profunda ley que rige en la naturaleza las transformaciones de la energía, había escapado a las búsquedas de Carnot, desviado por la infeliz doctrina del calórico material. Dieciocho años debieron pasar hasta que la ley se manifestara al mismo tiempo al espíritu de tres pensadores, que vivían en tres países distintos, sin conocer los irnos las ideas de los otros. Tal coincidencia no puede ser obra del azar. Un gran número de fenómenos conocidos en la época reclamaban imperiosamente la ley que debía permitir su magnífica síntesis. La equivalencia de la fuerza viva con el trabajo, la conservación de Σmv2 en toda transformación mecánica, era conocida desde los lejanos días de Huygens y Leibniz, generalizada por Juan Bernoulli en el vasto dominio de todos los procesos mecánicos. Entre éstos y los fenómenos calóricos, los razonamientos de Bernoulli y, más aún, los experimentos de Rumford y Davy habían demostrado una íntima conexión. Por último, los efectos térmicos relacionados con la corriente eléctrica, efectos que Ritter, Davy y Seebeck acababan de explorar, pusieron frente a todos los ojos que quisieran ver, incontestables vínculos entre el calor y la electricidad. Así, una cadena ininterrumpida pareció unir los dominios de la mecánica, del calórico y de la electricidad. Todos estos fenómenos de apariencias tan diferentes, pero ligados de manera más o menos escondida, ¿rehusarían someterse al principio a que obedecen los procesos mecánicos? ¿No se podría extender al calor y la electricidad la igualdad «mitad de la fuerza viva = trabajo»? La cuestión estaba en el aire y debía necesariamente presentarse. Aunque ninguno de los tres descubridores hubiera tropezado con la ley, habría sido encontrada años más tarde por otros buscadores. Reconocerlo así, en nada desmerece a los tres pensadores que enunciaron por vez primera la ley más general de la física.
Estos tres investigadores, el médico alemán Mayer, en Heilbronn, el industrial inglés Joule, en Manchester, y el ingeniero dinamarqués Colding, en Copenhague, de distinto vuelo espiritual, no se igualan por su participación en el hallazgo.

20.jpg
Julio Roberto Mayer

Julio Roberto Ma.yer (18141878) se adelanta a sus rivales y tiene la incuestionable prioridad de la idea, expuesta en 1842 en su memoria: Observaciones acerca de las fuerzas de la naturaleza inanimada. Algunas páginas del breve escrito, como otras de su memoria posterior y más completa (1845), pertenecen a los documentos más lúcidos de la historia de la física. Sin duda, sus conocimientos no le permiten dar una forma matemática a su demostración y no apoya con experimentos personales la idea; mas la capta en todos sus alcances y la extiende a un número sorprendente de fenómenos físicos, químicos y astronómicos, sigue las veladas manifestaciones de su ley con la seguridad y clarividencia propias de la intuición del genio. La hazaña es extraordinaria, cuando no única: un modesto médico, en el aislamiento intelectual de una pequeña ciudad, llega a desembrollar las complejas ramificaciones de una ley cuya generalidad sobrepasa en mucho a la de las leyes mecánicas de Newton. La magnitud del mérito hace rudo contraste con la profunda ingratitud de sus contemporáneos. No hubo entre las ilustres figuras de la ciencia en el siglo XIX, ninguna que haya sido tan cruelmente ignorada y aun perseguida como la de Roberto Mayer.
Se conoce el famoso episodio que todos los manuales narran. Mayer, a la edad de veintiséis años, emprende en febrero de 1840 un viaje a Java, como médico de un barco holandés. Durante el largo viaje tiene bastantes ratos de ocio para meditar y leer; sus lecturas, obras de física, no lo satisfacen. Los fenómenos descritos le parecen sin relación intrínseca; a menudo tropieza, en sus libros, con efectos cuyas causas se buscarían en vano, o, por el contrario, causas que parecen carecer de efectos. ¿Cómo explicar el origen del calor de frotamiento? ¿Existe un lazo de unión entre el calor de rozamiento y el calor animal, engendrado, como demostró Lavoisier, por la combustión fisiológica de los alimentos? Tales problemas cruzan su espíritu. Llegado a Java, tiene que sangrar a algunos tripulantes y observa sorprendido que la sangre venosa es más roja bajo el calor de los trópicos que en las zonas templadas. Sin dificultad, Mayer encuentra la clave del enigma: gracias a la temperatura ambiente más elevada, el cuerpo, para mantener su temperatura constante no precisa ser el centro de una combustión tan intensa como en otras latitudes, y por consiguiente la sangre venosa contiene, en el clima caluroso, cierta proporción de oxígeno no utilizado que le confiere su brillante tinte rojo. Por todos los caminos se va a Roma, y Mayer llega de esta accidental observación, por atrevidas y admirables conclusiones, a concebir dos cosas tan distintas, el calor y el trabajo mecánico, como dos aspectos de la misma realidad física, transformables el uno en el otro. Desde ese momento, todas sus reflexiones ganan una firme base: causas y efectos parecen de golpe entrelazarse por una unión hasta entonces desconocida. Allí, en Surabaya, Mayer comienza en 1840 a pensar como lo hacemos nosotros: en el sentido del principio de la energía.
De regreso a Alemania, Mayer envía en julio de 1841 una exposición de su descubrimiento al físico berlinés Poggendorff, director de la revista Anales de Física. El deseo de Mayer de ver difundida su teoría por el reputado órgano no se cumple. Poggendorff no publica la disertación y retiene el manuscrito, dejando sin respuesta todas las reclamaciones del autor. Decenios más tarde, al fallecer Poggendorff, el manuscrito se encontrará entre los papeles del difunto. Éste, aunque historiador de la física, no tuvo la perspicacia de reconocer que el envío del desconocido innovador pasaría, en el juicio de la posteridad, como un importante hecho histórico en el desarrollo de las ciencias.
La no publicación del trabajo de Mayer por la revista de Poggendorff entrañó una ventajosa consecuencia: Mayer escribió una nueva memoria, dando a su teoría una forma más concisa y exacta. La suerte le acompañó esta vez. Apenas redactada, su disertación fue acogida en la revista de los dos famosos químicos Liebig y Wöhler: el principio, aplicado en esta breve síntesis solamente a las fuerzas de la naturaleza inanimada, fue enriquecido por Mayer tres años más tarde (1845) en una segunda y más enjundiosa memoria y extendido a los fenómenos orgánicos. Finalmente, en 1858, en un tercer escrito, fue aplicado al cosmos entero.
Mayer distingue cinco formas de la energía:

  1. energía de la situación;
  2. energía del movimiento;
  3. calor;
  4. energía electromagnética, y
  5. energía química;
y da veinticinco espectaculares ejemplos de los cambios que las formas energéticas sufren en la naturaleza. En oposición a Carnot, Mayer ve que en la máquina de vapor no es la caída del calórico, sino su transformación la que produce trabajo, y reconoce que en la máquina de vapor un número determinado de calorías desaparece, mientras que otro y determinado número de kilográmetros de trabajo aparece. Tampoco escapan a su clarividencia otras relaciones más escondidas. Al igual que la separación de dos cuerpos que se atraen (por ejemplo, levantar un peso), la separación química significa también una acumulación de trabajo; el estar separados (por ejemplo, el carbono y el oxígeno) es una forma de energía y si esta forma (el estar separados) desaparece, en la reunión de los dos elementos, otra forma —el calor aparece. De este modo se explica el antiguo enigma del engendramiento del calor en muchos procesos químicos; la transformación de la energía química en la pila de Volta aclara los efectos térmicos en los hilos conductores. En suma, las formas de energía pasan por perpetuas metamorfosis, sólo su cantidad permanece constante a través de todos los cambios:
«No hay, en realidad —asegura Mayer —, sino una sola y única fuerza [33]. En cambios eternos circula a través de la naturaleza muerta y viviente. Ningún proceso es concebible sin cambio de sus formas.»
Desde su primera memoria, Mayer indica un método para calcular el equivalente mecánico del calor, el número de los kilográmetros engendrados por la transformación de una gran caloría. Un viejo descubrimiento de Dalton y Gay-Lussac le sirve de base: un gas no experimenta variación de temperatura cuando se dilata en el vacío; por el contrario, se enfría cuando se dilata bajo presión, lo que se explica, nos dice Mayer, dado que el calor debe transformarse en trabajo para permitir al gas vencer la presión y expandirse. Así, la comparación de los calores específicos de un gas, bajo presión y volumen constantes, puede suministrar el valor del equivalente. Como Mayer no disponía de valores numéricos precisos para los calores específicos de los gases, su cálculo del equivalente no podía ser exacto, aunque su método haya sido impecable.
Las ideas de Mayer chocaron con la indiferencia y aun con la incomprensión de parte de los físicos. Cuando el principio de la energía, después de las demostraciones de Helmholtz y los experimentos de Joule, comienza, en 1850, a llamar la atención de los investigadores, le fue negada la paternidad de su gran idea.
En la pequeña ciudad de Heilbronn, donde vivía, se le consideró un megalómano que se atribuía méritos de otros. Su alma sensible se quebró bajo el peso de tantas amarguras y en el verano de 1850 intentó suicidarse. Este acto de desesperación indujo a su familia a encerrarle en un manicomio, donde el genial pensador, uno de los más lúcidos que Alemania diera a la ciencia, pasó dos años. Por fin, en la última fase de su vida tuvo un pequeño paliativo a su infortunio: la satisfacción de ver los comienzos de su futura celebridad. El físico inglés Juan Tyndall, sucesor de Faraday en la Real Institución de Londres, defiende los derechos de este desconocido, y en Berlín, el filósofo Dühring, un año antes de la muerte de Mayer, hace en una serie de conferencias el elogio del hombre a quien llama el Galileo de Alemania.
La obra de Mayer es el fruto de una poderosa intuición; el círculo de sus deducciones se cierra sin la ayuda comprobatoria de verdaderos experimentos. La confirmación experimental de la ley descubierta por Mayer es el mérito del investigador inglés Jaime Prescott Joule (1818-1891). Propietario de una cervecería en Salford, un suburbio de Manchester, Joule, alumno de Dalton, se dio a la ciencia con noble pasión.

21.jpg
Armando Helmholtz

Fue un hábil experimentador y pensador de fecundas ocurrencias. El enigma del calor animal fue la etapa inicial de las reflexiones del médico Mayer, y es el calor engendrado en los hilos de la pila voltaica el punto de partida del industrial y físico inglés. Con entera independencia de su émulo alemán, Joule —a la edad de veintitrés años— adivina la existencia de una relación invariable entre la cantidad de sustancias químicas que consume la batería voltaica, la cantidad de calor que caldea los hilos y el trabajo que rinde la máquina accionada por la corriente. Desde este momento —un año después de la memoria fundamental de su predecesor— Joule persigue el valor numérico del equivalente mecánico del calor a través de una larga serie de experimentos: ardua tarea, dadas las dificultades para medir la cantidad de energía calórica, que, naturalmente, tiende a disiparse.
Tres años antes, en 1840, ya Joule estableció la ley que lleva su nombre: la proporcionalidad de la cantidad de calor desprendido por segundo en un mismo conductor, con el cuadrado de la intensidad de la corriente. ¿De dónde viene el calor de los conductores? Ésta era la cuestión que sobre todo interesaba a Joule. ¿Se produce en el conductor, o es simplemente transportado de los elementos galvánicos a los hilos? En el último caso, un enfriamiento paralelo se debería manifestar en los elementos de la pila. Como la experiencia no evidenció ningún enfriamiento en la pila, Joule concluyó que hay en el conductor una producción real del calor, cuya cantidad, supuso, debe tener una relación fija con la cantidad de metal (por ejemplo, cinc) consumido en la batería. Demostró que la cantidad de calor corresponde a la diferencia entre el calor desprendido por una simple solución del cinc en ácido y el producido cuando el cinc es disuelto como elemento de una batería. Pronto advirtió que se desarrollaba menos calor en los hilos cuando la corriente accionaba un motor, y reconoció la proporcionalidad de esta pérdida de calor con el trabajo cumplido.
Para llegar al valor más exacto posible del equivalente, Joule pone en juego numerosos y diferentes dispositivos; varía las condiciones de sus experimentos, considerando casi todas las formas de energía conocidas en su época: mide la elevación de temperatura desarrollada en tubos estrechos por el pasaje de una corriente de agua, o el calor engendrado por la compresión del aire. Realiza los más variados ensayos de frotamiento: hace girar una rueda con paletas en agua, mercurio, aceite, y determina con cuidadosas mediciones el calor correspondiente al trabajo que da la rueda movida por pesos que caen. Por último, una vez más acude a los hilos calentados por corriente eléctrica. Las dificultades para encontrar el valor exacto del equivalente motivan el gran número de los experimentos de Joule. Los primeros resultados obtenidos se diferenciaban mucho entre ellos y exigieron un refinamiento de los métodos. Salió de sus trabajos la cifra 424 kgm/cal., valor muy cercano al que hoy admitimos.
Menos importante que la de Mayer y Joule es la contribución del tercer descubridor, el ingeniero danés Luis Augusto Colding (1815-1889), en la elaboración del principio de la energía. Un año después que Mayer, enuncia (1843) la ley en su generalidad; los fenómenos del mundo físico, asegura, no son más que metamorfosis de una fuerza única que —proteica— permanece siempre igual en su cantidad. Colding también hace experiencias, mide el calor engendrado por frotamiento en diversos metales; mas sus ensayos son menos exactos que los de Joule, cuya riqueza de ideas no posee. Al tratar de desarrollar las consecuencias del principio (1851), asimila la energía a una entidad inmaterial, espiritual, y se pierde sin esperanzas en un laberinto de reflexiones metafísicas.
Las búsquedas de los tres iniciadores habían acumulado un gran número de hechos que atestiguaban la realidad de la conservación energética, pero ninguno de ellos pudo dar principio a una estructura matemática. Tal mérito pertenece a Armando Helmholtz (1821-1894). Al igual que Mayer, Helmholtz inicia su carrera como médico; enseñó anatomía y fisiología antes de ser el reputado físico de la Universidad de Berlín. En su clásica disertación —Sobre la conservación de la fuerza (1847)— aplica el principio de la energía a todas las ramas de la física y propone la conservación de «la fuerza» como una hipótesis admisible. De ella deduce las leyes matemáticas de los fenómenos particulares y examina luego su acuerdo con la experiencia. He aquí cómo procede: demuestra que todos los sistemas mecánicos obedecen a la ley de la conservación, si las fuerzas que obran se ejercen siguiendo las líneas que unen dos a dos los centros de donde emanan las fuerzas y son, en consecuencia, únicamente funciones de las distancias de estos centros. Si admitimos que todos los fenómenos naturales pueden reducirse a la acción de tales fuerzas centrales, se obtienen, como prueba Helmholtz, nuevas e interesantes relaciones para muchos dominios de la física.
A pesar de ser de indudable hermosura matemática, la demostración de Helmholtz no posee hoy el mismo valor persuasivo que a los ojos de sus contemporáneos. Contrariamente a la suposición básica de Helmholtz, la naturaleza no es sólo juego de fuerzas atractivas y repulsivas, cuya intensidad depende de las distancias; el mundo físico conoce también fuerzas que actúan de otro modo. Los alcances de las consideraciones de Helmholtz están más en sus ecuaciones basadas en el principio de la conservación, que vinculan entre sí las variables formas de la energía. Así, reúne con una igualdad la energía dada por la pila voltaica = energía térmica en los hilos + el cambio en la energía cinética de un imán atraído por el circuito de la batería. La validez del principio de la conservación no deja ninguna duda en el espíritu de Helmholtz, pues la ve garantizada por un concluyente hecho empírico: la imposibilidad de los mecanismos con movimiento perpetuo.
Helmholtz reconoció también la relación entre la conservación de la energía y otro principio general: la mínima acción, que Hamilton (1834) había revestido de sugestiva forma matemática, sin aplicarlo a los fenómenos del mundo físico. En realidad, este principio completa la ley de la constancia energética; ésta no nos indica las posiciones sucesivas por las cuales un sistema debe pasar para llegar de su posición primitiva a otra posición determinada. El principio de la mínima acción prescribe —explica Helmholtz (1886)— la evolución del sistema, conduciendo las masas en movimiento a su meta por caminos tales que, para cortos caminos recorridos, la potencia suministrada sea mínima. El sistema selecciona, entre los procesos posibles que podrían conducirle de un estado a otro, aquel para el cual la diferencia de la energía cinética y potencial tenga, durante el tránsito, el menor valor posible.
Helmholtz asigna al principio de la mínima acción un profundo sentido físico. Vio que los fenómenos que no ponen en juego la estructura atomística de la materia son siempre reversibles, siendo la irreversibilidad inherente a todos los acontecimientos en los cuales los átomos entran en escena. La conservación de la energía es el gran principio que abarca la totalidad de los procesos físicos, ya sean reversibles, ya irreversibles. ¿Hay una ley general, se pregunta Helmholtz, que no se aplicaría más que a los fenómenos reversibles, separándolos de los irreversibles? Sí: esta ley es precisamente el principio de la mínima acción.

3. Termodinámica y cinetismo de la materia
Clausius descubre la entropía; Nace la termodinámica; Lord Kelvin: Los modelos, la muerte técnica del cosmos y la escala termodinámica; Teoría cinética: Joule determina la velocidad molecular; Maxwell: Repartición de las velocidades y libre recorrido de las moléculas; Loschmidt calcula el tamaño molecular ; Gases ideales y reales: La ecuación de Van der Waals; Licuación de los gases: Faraday, Andrews, Cailletet y Pictet; Las soluciones: La ley de Van’t Hoff; Movimiento browniano; Boltzmann: Probabilidad y entropía

La ley de la constancia de la energía no basta por sí sola para determinar, sin ambigüedad, los procesos de la naturaleza; se contenta con afirmar la equivalencia cuantitativa de la energía en dos estados dados de un sistema cerrado, sin revelar si el paso de uno al otro es igualmente posible en ambos sentidos. Si Sadi Carnot se hubiera podido liberar de la falsa doctrina del calórico indestructible, si hubiera concebido que el calor es el que en su máquina se metamorfosea en trabajo, no sólo habría podido remontarse de este caso especial de la equivalencia de las dos formas de energía al principio general de la conservación, sino que también se le habría abierto el acceso a otra ley más oculta, vinculada al principio de la conservación. Esta trascendental ley fue descubierta por el físico alemán Clausius y reconocida en sus alcances generales, físicos y filosóficos, por el investigador inglés Guillermo Thomson.
Rodolfo Clausius (1822-1888), sexto hijo de un maestro de escuela que tuvo dieciocho hijos, comenzó como profesor en la Escuela de Artillería, en Berlín, y enseñó más tarde en la Universidad de Bonn. Durante la guerra franco-prusiana, se alistó como voluntario en el servicio sanitario y fue condecorado por los dos gobiernos en lucha. Jamás hizo experiencias, fue un teórico puro. A pesar de su excepcional capacidad matemática, no se dejó llevar por el análisis al terreno de los conceptos vagos, y de los resultados empíricos de otros supo deducir admirables conclusiones. Siempre atento al sentido físico de los símbolos, al tratar matemáticamente el problema de Carnot descubrió la noción capital de la entropía, que había pasado inadvertida a Carnot, Clapeyron y aun a Guillermo Thomson, que se acercó a ella en su primer estudio (1849), sin reconocerla.
El calor pasa de los cuerpos calientes a los fríos, afirmó Carnot. Si se hace pasar, agrega Clausius, en sentido opuesto, de los cuerpos fríos a los calientes, es necesario invertir un trabajo por lo menos igual a aquel que produciría el correspondiente proceso inverso. El calor no puede ascender espontáneamente de la temperatura baja a la superior. Es la ley que Clausius enuncia en su memoria de 1850, fecha del nacimiento de la termodinámica, ley que constituye uno de los pilares sustentadores de dicha ciencia y a la que hoy llamamos su segundo principio, siendo el primero el de la conservación de la energía.
Un año antes, Guillermo Thomson sugirió que sólo una determinada parte de la energía térmica disponible puede ser transformada en trabajo. La demostración de que el segundo principio define esta fracción que, en una máquina ideal, perfectamente reversible, es transformable en trabajo, es el más hermoso resultado de la memoria de Clausius. Al hacer los cálculos relativos al ciclo de Carnot, en el caso de un gas ideal, Clausius reconoce que en la máquina que trabaja entre dos temperaturas dadas, la fracción transformada en trabajo es igual a la diferencia de estas dos temperaturas dividida por la temperatura absoluta más elevada, es decir, por la temperatura contada a partir de -273° C; dado que el rendimiento es independiente de la construcción de la máquina, la conclusión de Clausius tiene un alcance completamente general.
En el curso de sus cálculos, Clausius ve surgir (1854) con frecuencia cierta función, y reconoce que puede expresarse como el cociente de la cantidad de calor por la temperatura absoluta, y ve que el cociente permanece constante en todas las operaciones reversibles. Desde este momento, no lo deja el pensamiento de que el cociente podría tener una importante significación, y busca el sentido físico de la enigmática magnitud. Si Q1 es la cantidad de calor tomada de la fuente a temperatura T1, y Q2 el calor cedido al cuerpo a temperatura T2 entonces, en el caso de un proceso cíclico

eq24.png

y considerando el calor cedido como negativo

eq25.png

en un ciclo reversible la suma de las variaciones del cociente Q/ T

eq26.png

será igual a cero.
Mas en un ciclo no reversible

eq27.png


tendrá un valor mayor que cero. A esta magnitud, Clausius (1865) la llama entropía. Como en la naturaleza no hay ciclos totalmente reversibles, la variación de la entropía será siempre positiva y se podrá enunciar el segundo principio: en cada transformación del mundo físico, la entropía de los cuerpos participantes —la parte no transformable de su energía— crece.
El aumento continuo de la entropía crea para todas las transformaciones reales de la energía una desigualdad entre el estado inicial y final del sistema, y asigna a cada proceso natural una única e irreversible dirección. Thomson extendió las consecuencias de esta evolución unidireccional, que llamó disipación (o degradación) de la energía, al universo entero y supo sacar resonantes conclusiones. Como en todos los procesos el valor de la entropía crece inevitablemente, el cosmos, considerado como sistema cerrado, no puede en ningún momento dado volver a tomar ninguno de sus estados anteriores. Fácilmente puede verse que es así, aseguró Thomson. Con cada cambio físico o químico se produce siempre cierta cantidad de calor, y como ésta no puede convertirse íntegramente ni en trabajo mecánico ni en otras formas de la energía, es claro que la cantidad total del calor, con el transcurrir de los fenómenos, va creciendo continuamente en la naturaleza. Una vez llegado el tiempo en que todas las reservas de energía se hayan metamorfoseado en calor, la tendencia de los cuerpos más calientes a ceder —por radiación o conductibilidad— su calor a los cuerpos fríos, establecerá el último equilibrio de temperatura en el espacio cósmico, excluyendo desde aquel momento*toda posibilidad de cambios e inmovilizando para siempre al universo. Por ello, es la irreductibilidad del calor a las demás formas de energía, la que fatalmente conduce hacia un último equilibrio térmico, hacia la muerte térmica del universo.
Los razonamientos de Thomson provocaron apasionados debates cuando recibieron el apoyo de las deducciones de Clausius. Éste se adhirió a las ideas del físico inglés y generalizó para el cosmos entero los dos principios de la termodinámica, dándoles en su memoria de 1865 el siguiente enunciado:
  1. La energía del universo es constante.
  2. La entropía del universo tiende hacia el máximo.
Los estudios termodinámicos de Clausius y Thomson se completan y entrecruzan. No es fácil asignar a cada uno de ellos la parte de ideas nuevas que les corresponde.
Guillermo Thomson, lord Kelvin (1824-1907), hijo de un matemático, fue un niño prodigio. Matriculado a la edad de diez años en la Universidad, publicó su primera memoria a los dieciséis y a los veintidós fue profesor en la Universidad de Glasgow, donde comenzara sus estudios.
Sólo abandonó su cátedra después de cincuenta y tres años de profesarla. Durante toda su vida se mantuvo fiel a su vieja escuela; cuando fue nombrado par de Inglaterra, eligió como nombre el del riachuelo Kelvin, que corre a los pies de su Universidad. Aunque eminente teórico, aportó también solución a numerosos problemas prácticos: sus instrumentos para mediciones eléctricas, el electrómetro absoluto, el electrómetro de cuadrantes, sus amperímetros, han contribuido poderosamente al desarrollo de la electrotecnia, sacándola del grosero y primitivo empirismo en que se hallaba en 1850.

22.jpg
Guillermo Thomson (Lord Kelvin)

Kelvin es el creador del compás compensado, cuyas indicaciones no son perturbadas por las partes metálicas del navío. Otra invención de orden naval, su tide predicter, permite prever las curvas de las mareas. La más famosa de sus realizaciones técnicas es, sin duda, el siphon recorder, aparato receptor para cablegramas (1867), gracias al cual, después de tantos ensayos infructuosos, las señales eléctricas lograron franquear el océano. Estos éxitos dieron a su genio inventivo celebridad mundial, mas ellos sólo forman una parte —y no la más importante de su obra. El teórico de ideas fecundas iguala y aun sobrepasa al fértil técnico. El interés de Thomson, volcado en sus principios sobre todo en los fenómenos térmicos, termoeléctricos y electrostáticos, se volvió después hacia la cosmología y la física del globo, a las que enriqueció con valiosas investigaciones sobre el magnetismo terrestre y la electricidad atmosférica.
Tal vez ningún problema le preocupó con tanta intensidad como la constitución del éter y de la materia. Su poderosa imaginación, que no se contentaba con fórmulas y reclamaba una visión concreta, se hizo valer particularmente en dominios que parecían reservados sólo a razonamientos matemáticos. Explicar un fenómeno físico equivalía para Kelvin a reducirlo a un modelo, a un aparato más o menos construible, cuyo funcionamiento reprodujera globalmente el fenómeno a interpretar. Para estudiar el potencial de diferentes capas atmosféricas inventó aparatos con evacuación de agua, que fueron aparatos reales. Para comprender el éter propuso un modelo, un aparato imaginario. Parece que, contrariamente a la materia ordinaria, el éter se deja comprimir y deformar, pero rehúsa girar. De estas características trata de dar cuenta el modelo de Kelvin: un ambiente formado por un conjunto de varillas, capaces de correr las unas sobre las otras y portadoras de giróscopos animados por rápidas rotaciones, resistentes, en diferentes medidas, a cambios de orientación. Pariente cercano del éter girostático es el famoso átomo-torbellino de Kelvin. Los átomos deberían su impermeabilidad e indivisibilidad a torbellinos ultrarrápidos y eternos, que reinarían en el seno de la materia. Ni el éter girostático ni el átomo-torbellino sobrevivieron a las últimas décadas del siglo XIX. Descubrimientos inesperados —rayos catódicos, rayos radiactivos— surgieron y llevaron el electrón al proscenio de la física, El mismo Kelvin, ya anciano, no vaciló en abandonar sus modelos favoritos, que no correspondían ya a las exigencias de los nuevos conocimientos.
En otros dominios, lord Kelvin fue el precursor de los tiempos nuevos, que su larga vejez le permitió ver. Aún joven, reconoció (1853), simultáneamente con Helmholtz, que una chispa eléctrica representa una suma de descargas parciales y que en la descarga del condensador deberían producirse oscilaciones eléctricas. Kelvin fue el primero en calcular, a partir de la ley de inducción y de la ley de Ohm, la duración de una oscilación, seis años antes de que Feddersen hubiera logrado fotografiar con espejos giratorios las oscilaciones periódicas de la chispa, y más de treinta años antes de la producción experimental de las ondas eléctricas por Hertz.
Thomson es el promotor del actual sistema cegesimal, que tiene por unidades básicas el centímetro, el gramo y el segundo, adoptado con arreglo a la proposición (1871) del gran inglés. Una de sus más felices sugestiones es la escala termodinámica o absoluta de la temperatura, fundada en el segundo principio termodinámico. Como la transformación del calor en trabajo no depende de las sustancias puestas en juego, siendo sólo función de la temperatura, es posible definir a ésta independientemente de toda sustancia termométrica. Tal escala pone el punto de fusión del hielo a 273° C.; su punto inicial es, pues, el mismo cero absoluto que Dalton y Gay-Lussac, cincuenta años antes, dedujeran del coeficiente de dilatación de los gases.
Los dos principios de la termodinámica se contentan con tratar el calor como una forma de energía, sin considerar su naturaleza íntima. Esta tarea estuvo reservada a la teoría cinética de los gases, cuyo desarrollo es inseparable del descubrimiento de las leyes de la energía. El claro reconocimiento de que el calor puede transformarse en trabajo mecánico, en movimiento, debía sugerir la suposición de que el calor mismo no es otra cosa que movimiento, como Daniel Bernoulli lo había vislumbrado más de cien años antes y el conde de Rumford lo había demostrado en el crepúsculo del siglo XVIII con experimentos concluyentes. El momento de resucitar las ideas de los clarividentes precursores ha llegado, sacando a luz las ricas conclusiones de la teoría que yacía sepultada. Joule y Clausius, Maxwell, Krönig y Loschmidt son los primeros en participar en esta tarea.

23.jpg
Rodolfo Clausius

Moléculas asimiladas a minúsculas bolas elásticas, que se desplazan incesantemente, chocan con otras y bombardean las paredes del recipiente: éste fue el simple modelo que Bernoulli se había formado de la íntima estructura de los gases. La suma de los impactos moleculares equivale a la presión del gas, ligada al cuadrado de la velocidad de las moléculas. Como Bernoulli indicó, esta hipótesis casi evidente da cuenta de la ley de Boyle-Mariotte. Una vez admitido que la temperatura es la medida de la velocidad molecular, fácil era ver que la dilatación del gas calentado a presión constante, tal como lo exige la ley de Gay-Lussac, se encontraba también explicada. Surgió la pregunta de si de la imagen cinética no se podría deducir el orden de magnitud de la velocidad de las moléculas gaseosas en condiciones dadas. En su memoria de 1851, Joule respondió afirmativamente a tal cuestión. Puesto que la presión gaseosa está ligada al cuadrado de la velocidad molecular y depende de la masa de las moléculas presentes en un centímetro cúbico, o sea de la densidad del gas, de estas dos magnitudes medibles --presión y densidad— se puede deducir la velocidad media de los invisibles proyectiles moleculares. Para simplificar el problema, Joule supuso que el gas encerrado en un recipiente cúbico ejerce presión sobre las paredes, como si cada tercio de las moléculas se desplazara en una de las tres direcciones de las aristas del cubo, de suerte que cada costado estaría bombardeado por un tercio de las moléculas. Encontraremos, por consiguiente, que la unidad de superficie de las paredes soporta una presión

p = 1/3 ρc2

donde la presión (p) y la densidad (ρ) son medibles y la velocidad molecular (c) vuélvese inmediatamente calculable. Sin conocer las deducciones de Bernoulli, Joule, con estas sencillas consideraciones, abrió al cálculo la puerta del mundo invisible de las partículas sub-microscópicas. Sin exageración, se puede decir que la mayor parte de todo aquello que sabemos sobre moléculas y átomos se desarrolló a partir de 1851, desde el momento de la hazaña de Joule.
Por supuesto, en el caos de sus desordenados vuelos, la velocidad de cada molécula se diferencia de la de otra, y las leyes del choque elástico no permiten que todas las moléculas tengan en cada instante la misma velocidad. Lo calculado por Joule no fue sino la velocidad media de las moléculas. Maxwell recoge en 1859 la idea de su predecesor y la depura; su ley de la repartición de las velocidades es una de las más hermosas aplicaciones del cálculo de probabilidades a la física. Las moléculas cambian continuamente sus velocidades, pero el número de las moléculas que tienen una velocidad dada permanece globalmente invariable. Existe una velocidad que es más probable que las otras. Los choques continuos que se suceden entre las moléculas con la rapidez de muchos millares por segundo, hacen muy raras las velocidades que se alejan mucho de la velocidad más probable, en un sentido o en otro. Así, todas las velocidades moleculares se acumularán en torno a la velocidad más probable, al igual que los proyectiles de un tirador, buscando alcanzar el centro del blanco, se agrupan en la vecindad del lugar apuntado. En suma, todo ocurre como si todas las moléculas tuvieran la misma velocidad.
Las velocidades moleculares calculadas por Joule, por su émulo berlinés Krönig (1856) y por Clausius (1857) dieron valores que sorprendieron a los físicos. Asignaron a una molécula de aire en condiciones normales una velocidad de 400 a 500 metros por segundo, y a una molécula de hidrógeno una velocidad casi cuatro veces superior; estas altas velocidades parecían inverosímiles. La lentitud de la conducción del calor, la lenta difusión de líquidos que se mezclan, la lenta disipación de una nube de humo en el aire, parecían otras tantas refutaciones a los resultados encontrados. Clausius y Maxwell descartaron las dudas. Cada molécula, aseguran, choca incesantemente con otras y es rechazada en todos los sentidos por las colisiones que sufre. A pesar de la alta velocidad de su movimiento, la molécula emplea mucho tiempo para alejarse de su posición original. Su trayectoria es, pues, una línea en zigzag, compuesta por cortos y desiguales segmentos de rectas. El valor medio de la pequeña trayectoria entre dos choques —el recorrido libre medio de la molécula— puede ser deducido, como Maxwell mostró en 1860, de una magnitud accesible a la medición: del coeficiente de frotamiento interno del gas. Éste no es otra cosa que la cantidad de movimiento de las moléculas transmitida de una capa de gas a otra. Tal transmisión se efectúa sólo entre capas cuya distancia puede ser recorrida por una molécula, y será, por consiguiente, proporcional al recorrido libre de las moléculas y también a su velocidad: η = 1/3 ρcL, donde η es el coeficiente de frotamiento y L el recorrido libre. Habiendo medido a η con una balanza de torsión, Maxwell pudo calcular el recorrido libre molecular; es, en condiciones normales, del orden de un décimo de micrón para las moléculas de aire. El número de choques que una molécula realiza en un segundo es el cociente de su velocidad media por el recorrido libre. Así, una molécula de aire chocará con otras —según los resultados de Maxwell— 5.000 millones de veces por segundo, y desplazándose un centímetro, a consecuencia de las colisiones habrá cambiado 100.000 veces su dirección.
El conocimiento del recorrido libre permite conjeturas sobre el tamaño de las moléculas y su número en la unidad de volumen. Cuanto mayor es el diámetro de una molécula y más elevado su número en un centímetro cúbico, tanto más obstaculizada será la molécula en su movimiento y tanto más disminuido estará su recorrido libre. Si dividimos el espacio ocupado por el gas, como propuso Clausius, en cubos elementales de suerte que cada uno de ellos contenga sólo una molécula, la longitud de la arista (X) de un cubo elemental será igual a la distancia media entre dos moléculas vecinas. El recorrido libre ( L ) se relaciona con la distancia entre dos moléculas, como la superficie de una cara del cubo elemental con la sección de la molécula:

eq28.png

(donde σ es el radio de la molécula). Esta importante relación sirvió al físico vienés José Loschmidt (1821-1895) para calcular en 1865 el tamaño de una molécula de aire; a este primer ensayo siguieron el de lord Kelvin en 1870 y el de Maxwell tres años más tarde. Aunque sus puntos de partida sean distintos, las tres determinaciones se apoyan en la indicada igualdad de Clausius. Según Loschmidt, la molécula de aire tendría un diámetro de 9.10~"8 centímetros, resultado que ofrece, como primera aproximación, un admirable acuerdo con la cifra obtenida por una docena de métodos modernos: 2,5 x 10-8 centímetros. Para el número de las moléculas presentes en un centímetro cúbico de gas, bajo condiciones normales, los cálculos de Loschmidt condujeron a 100 x 1018; el valor moderno es 27 x 1018. Durante su vida, Loschmidt casi no encontró reconocimiento a sus méritos. Su nombre está inmortalizado por la constante física 6,022 x 1023 —número de las moléculas en una molécula-gramo de gas— que se llama en los países germánicos número de Loschmidt; en el resto del mundo lleva el nombre de otro precursor no menos meritorio, el de Avogadro.
Un criterio particularmente concluyente de la utilidad de una teoría es su poder de prever nuevos hechos. Desde sus comienzos, la teoría cinética dio pruebas de su valor heurístico, pues no sólo permitió reconocer escondidas interdependencias entre fenómenos hasta entonces aislados, como frotamiento, difusión y conductibilidad calórica, sino que también condujo a encontrar inesperadas relaciones, tales como el hecho de la independencia entre frotamiento y presión, consecuencia aparentemente paradójica de la teoría, pero corroborada, sin embargo, plenamente por la experiencia. Un gran número de hallazgos empíricos, entonces enigmáticos (por ejemplo, los «caprichos» del calor específico de los gases y de los sólidos, las excepciones de la ley Dulong-Petit), se vuelven comprensibles gracias a la teoría cinética.
El comportamiento de los gases reales, sus desviaciones de las leyes de Boyle-Mariotte y de Gay-Lussac, dejan de ser enigmas, dado que la teoría prevé sus irregularidades, considerando que cuando el volumen de las moléculas en relación con el volumen total del gas ya no es despreciable, las fuerzas intermoleculares —a consecuencia de la fuerte compresión del gas— se hacen valer. Sólo los gases ideales —cuyas moléculas, muy alejadas unas de otras, escapan a sus mutuas acciones— obedecen a las leyes indicadas y se dejan definir por la ecuación de estado de Clapeyron

pv = RT

Sólo para ellos vale con rigor la proporcionalidad inversa de la presión y del volumen, cuyo producto sólo depende de la temperatura absoluta (T) y de una constante (R). Mas el comportamiento de los gases reales no se conforma en todas las condiciones a esta exigencia. El físico francés Víctor Regnault evidenció en 1842 que una presión de algunas decenas de atmósferas basta, en el caso del aire y del anhídrido carbónico, para observar que, con el aumento de la presión, el producto pv disminuye; estos gases son, en las condiciones en que operó Regnault, más compresibles que lo indicado por la ley de Boyle-Mariotte, en tanto que el hidrógeno —como encontró el físico francés es menos compresible. Regnault no efectuó mediciones más allá de 30 atmósferas. Su compatriota Cailletet llevó en 1870 la compresión hasta 200 atmósferas, y Amagat, cinco años más tarde, hasta 3.000 atmósferas. A la última presión, el volumen del nitrógeno se revela cuatro veces mayor que si siguiese la ley de Boyle-Mariotte. La ecuación de Clapeyron no basta, pues, para traducir las propiedades de los gases reales. Con el propósito de dar cuenta de los nuevos conocimientos, el investigador holandés Juan D. van der Waals, apoyándose en la teoría cinética y en las mediciones de Cailletet, presenta en 1873 su nueva ecuación de estado

eq29.png

que pone en evidencia las fuerzas intermoleculares por el cociente a /v2 y el volumen propio de la molécula por la constante b, que representa el valor límite hacia el cual tiende el volumen cuando la presión crece indefinidamente. Paralelamente a esta mejor introspección en la naturaleza de los gases, un viejo problema de orden práctico encontró también su solución: la licuefacción de los gases.
El primer paso lo da el ilustre Farad ay en 1823, ayudante entonces del químico Davy; por un simple dispositivo de laboratorio logra licuar primero el cloro y después otros gases. Sus medios, ya conocidos por Dalton, fueron la presión y el frío. El químico francés A. Thilorier, inventor de recipientes de acero para gases comprimidos, vuelve más práctico el procedimiento del gran inglés y puede obtener en 1835 grandes cantidades de anhídrido carbónico líquido. Empleando mezclas frigoríficas más eficaces que en sus primeros ensayos, Faraday llega en 1844 a licuar considerable número de gases. Sin embargo, ciertos gases, el hidrógeno, el nitrógeno, el oxígeno de carbono y el metano, resisten tenazmente a toda tentativa. Las compresiones más fuertes no producen efecto. En vano es que el médico austríaco Natterer (1854), les aplique una presión de 2.800 atmósferas; a estos gases se les llama permanentes, para distinguirlos de los coercibles.
Faraday comienza a entrever en 1845 la causa de la enigmática permanencia; sus conjeturas son guiadas por las observaciones hechas veinte años antes por el francés Cagniard de la Tour, inventor de la sirena acústica. Éste comprobó que por encima de cierta y determinada temperatura —hoy diríamos temperatura crítica— los líquidos, cualquiera que sea la presión que sufren, se transforman en vapor. Fuertes presiones, observó Cagniard de la Tour, no bastan para mantener el éter etílico en estado líquido, si la temperatura está por encima de 187º; si es verdad para la evaporación de líquidos, se pregunta Faraday, ¿por qué no lo será para el problema inverso, la licuación de los gases? Comienza a sospechar que para lograr la licuación de los gases permanentes no debe aumentarse la presión, sino disminuirse la temperatura. Estas conjeturas son plenamente confirmadas desde 1867 por el médico y químico irlandés Tomás An drews (1813-1885). Si ciertos gases no pudieron ser licuados, es porque sus temperaturas críticas son inferiores a la temperatura más baja obtenida por Faraday y sus émulos (—110º). El descubrimiento de Andrews trazó el camino a seguir. Dos hombres, independientemente uno de otro, dan en 1877 dos procedimientos que permiten la obtención de temperaturas muy bajas y llegan de golpe a condensar los gases permanentes. Luis Pablo Cailletet (1832-1913) logra su propósito gracias al fenómeno de expansión: un gas es fuertemente comprimido en el tubo de su aparato y la compresión repentinamente suprimida; una caída intensa de la temperatura acompaña a la expansión. Su émulo el suizo Raúl Pictet opera por el método de cascadas: la evaporación rápida del gas licuado número 1 produce un descenso de temperatura suficiente para condensar el gas número 2, más difícilmente licuable que el número 1. Los métodos se mejoran —sin que Sea necesario acudir a nuevos principios— por los trabajos de los polacos Z. Wroblewski y K. Olszewski, del inglés J. Dewar y del alemán K. Linde. El último gas que resistía a todos los ensayos fue el helio: su temperatura crítica es la de -268°, sólo 5o por encima del cero absoluto. Su licuación fue realizada en 1908 por el holandés Kamerlingh Onnes. Los medios técnicos para alcanzar temperaturas cada vez más bajas llevaron a los físicos a preguntarse si se podía llegar al cero absoluto. El investigador alemán Walter Nernst (1864-1944), apoyándose en hechos químicos, evidenció en 1906 la inalcanzabilidad de esta meta, agregando con ello a los dos principios de la termodinámica un tercero. Idear un dispositivo que permita enfriar un cuerpo hasta el cero absoluto, asegura el teorema de Nernst, es tan imposible como, según los dos primeros principios, construir una máquina que realice el movimiento perpetuo.
La doctrina cinética de la materia salió, como acabamos de ver, de las consideraciones sobre el comportamiento de los gases, cuya teoría era relativamente fácil de desarrollar. Tarde o temprano, era menester extenderla a los líquidos. Jacobo Enrique Van't Hoff (1852-1911) descubrió en 1885 que en las soluciones las sustancias disueltas obedecen a las leyes de los gases. En efecto, todo gas tiende a llenar el espacio que le es ofrecido y no cesa de disiparse hasta que su repartición sea uniforme. Asimismo, todo cuerpo disuelto tiende a difundirse y llegar a la misma concentración en todas partes. Las materias disueltas ejercen, en forma osmótica, la misma presión que ejercerían en estado gaseoso en igualdad de condiciones de temperatura y volumen. La ley de Van't Hoff tuvo notables consecuencias para la fisicoquímica, y dio también los medios para determinar las magnitudes moleculares en los líquidos.
Por otra parte, la realidad de la agitación molecular en el seno de la materia se manifestó de modo particularmente espectacular justamente en los líquidos, gracias a un fenómeno ya conocido en los tiempos de Clausius y Maxwell, sin que hubiera atraído la atención de los fundadores de la teoría cinética. El movimiento browniano, descrito por el botánico inglés Roberto Brown en 1827, lleva de manera tangible, a la escala de magnitudes perceptibles al hombre, la perpetua agitación de las moléculas. Partículas suspendidas en un líquido muestran, si son bastante pequeñas, trepidaciones tan desordenadas como ininterrumpidas, bien visibles al microscopio. Con calor o con frío, con temperaturas constantes o variables, en líquidos más o menos densos, el fenómeno no descansa en su incesante transcurrir. El matemático alemán Cristián Wiener (1863) y el químico inglés Guillermo Ramsay (1866), célebre descubridor de gases raros, fueron los primeros en encontrar la explicación del movimiento browniano, resultado de los múltiples choques que las moléculas animadas del fluido comunican a las partículas en suspensión; si éstas son voluminosas, los choques se compensan, efecto de la ley del gran número, y las partículas quedan en reposo; por el contrario, los gránulos bastante pequeños, para los cuales la compensación no rige, son desplazados por las moléculas que con ellos tropiezan. El estremecimiento de los gránulos es, pues, la visible imagen, en nuestra escala, de las inobservables trepidaciones moleculares. Mediante cuidadosos experimentos, el físico francés Carlos Gouy confirmó esta interpretación en 1889. Una teoría exacta y rigurosa del fenómeno quedó reservada al siglo XX y fue dada en 1905 y 1906 por Einstein y Smoluchowski.
El movimiento browniano, como todos los fenómenos estudiados a la escala molecular, deja de verificar el segundo principio de la termodinámica. Esta inesperada conclusión salió de la profunda interpretación que los trabajos de Luis Boltzmann (1844-1906) proporcionaron a la ley de la entropía. Clausius y lord Kelvin habían dejado abierto el problema del porqué del misterioso aumento de la entropía. Que esta solución debía buscarse en el carácter particular —distinto a las demás formas energéticas— del calor, no podía ser dudoso. Puesto que cada fenómeno térmico se revela como el efecto estadístico, global, de un inextricable conjunto de movimientos elementales y microscópicos, el cálculo estadístico permite coordinar a su estado global, caracterizado por ciertas posiciones y velocidades de las partículas, una cierta y bien definida probabilidad. Conducido por semejante pensamiento, Boltzmann llegó a la conclusión, sorprendente en el primer momento, de que la entropía en un sistema aislado, debe ser igual al logaritmo de la probabilidad más una constante:

S = K log W + C

siendo K y C constantes y W la probabilidad del estado. En la perspectiva del teorema de Boltzmann, el aumento de la entropía pierde su carácter misterioso. Por ser la entropía proporcional a la probabilidad, su tendencia a crecer pondría de manifiesto el paso del sistema considerado de un estado menos probable a otro más probable. La entropía es, pues, un aspecto del azar que rige al mundo macroscópico, sometido a la ley del gran número. Una o algunas moléculas individuales están libres de la entropía. Ésta sólo actúa sobre el pavoroso conjunto de partículas que desempeña su papel en los fenómenos de nuestra escala y aun más de la escala cósmica. Con este pensamiento de Boltzmann, una escisión se opera, por primera vez en la historia de la física, entre las leyes microscópicas y macroscópicas. Al penetrar en el interior atómico, el siglo XX debe volver aún más profunda la inquietante dualidad.

Capítulo 13
La obra de Faraday

Su juventud: Ayudante de Davy; En la Real Institución; Descubrimiento de la inducción; Las dos leyes de la electrólisis; El ion y el electrón; La intuición de Faraday; Las líneas de fuerza; El papel de los aisladores; La idea del campo: Primera brecha en la física newtoniana; Paramagnetismo y diamagnetismo; Previsiones de Faraday

«Mi mayor descubrimiento es Miguel Faraday», declaró al término de su resplandeciente carrera Humphry Davy. Por cierto, los méritos del eminente químico no son escasos, pero seguro es que el solo hecho de haber reconocido las dotes excepcionales del joven Faraday, de haberle permitido cambiar el taller de empastado donde trabajaba por el laboratorio de la Real Institución (Royal Institut) bastaría para perpetuar la memoria de Davy en la historia de la física. El feliz azar que hizo de Faraday el ayudante de Davy inició las brillantes investigaciones que desarrollaron nuestros conocimientos sobre los fenómenos electromagnéticos, más allá del estado en que los habían dejado las búsquedas de Ampère, Oersted y Arago.
Miguel Faraday (1791-1867), el más ilustre entre los grandes experimentadores del siglo XIX, descubridor de los principios sobre los cuales reposa la mayor parte del macizo edificio de la electrotecnia de hoy, fue hijo de un herrero. Fuera de la enseñanza elemental, el joven Faraday no disfrutó de otra instrucción. Su ejemplo ofrece la prueba más sorprendente, entre muchas otras, de la completa independencia del genio creador de los conocimientos conferidos por la formación escolar. Su falta, como veremos, resultó ventajosa para el desarrollo de Faraday. Empezó como aprendiz de librero; a los diecisiete años aprendió empastado; en esta época comienza a leer libros, que llevaban los clientes, sobre química y electricidad. Su primer contacto con las ciencias despierta poderosamente en él el deseo de ampliar sus conocimientos. Empleó sus ocios en seguir cursos nocturnos y asiste a varias de las magistrales conferencias que Davy daba en la Real Institución. Estas últimas, fortifican su decisión de abandonar el taller para dedicarse al estudio. La fortuna pronto le sonríe: había preparado cuidadosamente las conferencias de Davy y las había provisto de dibujos y comentarios. Envía el volumen al gran químico, con la petición de que le conceda una posibilidad de trabajar a su lado. La respuesta es afirmativa: Faraday entra en la Real Institución, a la cual queda vinculado casi toda su vida (1813-1858). De preparador de laboratorio, en breve plazo llegó a ser ayudante, suplente y, por fin, sucesor de Davy.
Algunos meses después de su ingreso en la Real Institución, Faraday acompaña a su maestro en un viaje de dos años de duración, a través de Francia e Italia; visita los grandes laboratorios de París, Florencia y Roma, conoce a Ampère y Volta. De regreso a Londres se pone a estudiar con febril celo, guiado por Davy. No habría podido encontrar mejor guía que el prestigioso experimentador, que era a la vez un profesor admirable. Seis años bastaron al brillante alumno para independizarse de su maestro. Comienza la carrera de Faraday, el descubridor. Desde entonces su vida semeja una disertación científica conducida con férrea y lógica consecuencia hasta su conclusión final, y su biografía se confunde con la historia de su obra Alumno del gran químico, Faraday se interesa primeramente por los ^problemas químicos; descubre el benzol, hidrocarburo que debía adquirir en nuestros días extraordinaria importancia. Sus hallazgos químicos culminan con la licuación de varios gases (véase página 244), efectuada, como hemos indicado, por simples dispositivos de laboratorio.
Faraday tiene treinta años cuando la electricidad comienza a cautivar su atención. Es el momento en que el hallazgo de Oersted despierta en todas partes la curiosidad de los físicos, y las nuevas de las experiencias de Ampère son la sensación del día. Para estudiar mejor las características del nuevo fenómeno, Faraday repite los ensayos del físico francés y varía las condiciones experimentales. Oersted y Ampère habían obtenido magnetismo por electricidad. ¿Por qué no se podría invertir el procedimiento y producir electricidad por magnetismo? La cuestión se impuso tanto más cuanto que en la teoría de Ampère un imán es asimilable a una corriente y puede ser reemplazado por ella. Un imán es capaz de engendrar magnetismo por influencia en un trozo cercano de acero, efecto que se explica, en el pensamiento de Ampère, por ser el magnetismo un conjunto de corrientes moleculares. Si en el hierro corrientes microscópicas producen magnetismo, es decir, otras corrientes microscópicas, ¿por qué, se pregunta Faraday, una corriente normal, macroscópica, no provocará corrientes similares en un conductor vecino? El hecho de que por influencia una carga eléctrica engendre otra, reforzó aún más la convicción de Faraday de que si se la interrogaba convenientemente, la naturaleza daría una respuesta afirmativa a la última pregunta.
Después de muchas tentativas infructuosas (1825-1828), que llenan muchas páginas del diario de Faraday, sobreviene el otoño de 1831 y con él el descubrimiento de la inducción. Sobre un cilindro de madera, Faraday enrolla dos bobinas de hilo, aisladas, pero cercanas entre sí, y une la primera con una batería voltaica; la otra, con un galvanómetro. En tanto que la corriente fluye por la primera bobina, la aguja del galvanómetro permanece en reposo; mas Faraday observa que en el instante en que cierra o abre la corriente, la aguja del galvanómetro evidencia una pequeña desviación, indicando la presencia de una débil corriente en la segunda bobina. Por mínimo que sea el efecto, el fenómeno está descubierto: la vecindad de la corriente de la primera bobina induce, en el momento de cerrarla y abrirla, en la bobina secundaria, corrientes con direcciones opuestas. Faraday llama inducción voltaica a la producción de corriente por corriente galvánica.
Largo era el camino para llegar a este punto de partida, mas una vez alcanzado, Faraday penetra con extraordinaria facilidad en el dominio desconocido de la electricidad inducida y descubre un fenómeno tras otro. Reconoce la inducción por aproximación o alejamiento, por reforzamiento o debilitación del circuito primario.
Por instructivos que sean estos resultados, todavía el magnetismo no interviene en los experimentos. En 1822 había escrito el joven Faraday en su diario: «¡Produce electricidad por magnetismo!» Ha llegado el momento de la realización de su propósito. Enrolla, primero, sobre un anillo de hierro dulce dos bobinas; en el momento de cerrar y abrir la corriente en una de las bobinas, el galvanómetro indica —esta vez con poderosa desviación— la presencia de corriente inducida en la segunda bobina. Modifica al dispositivo y muestra que al introducir una barra imanada en el interior de una bobina y al retirarla, se obtienen igualmente corrientes inducidas.
Aún no ha terminado el fecundo año de 1831 cuando Faraday logra, el 28 de octubre, conseguir corrientes 'permanentes por inducción, aclarando de golpe los enigmáticos y mal definidos fenómenos del «magnetismo de rotación», que asombraron a Ampère y Arago. Hace girar entre los polos de un potente imán en forma de herradura un disco de cobre perpendicular al plano del imán y recoge la corriente por medio de dos alambres que rozan el eje y la circunferencia del disco; la aguja de un galvanómetro reveló que la intensidad de la corriente crecía con la velocidad de rotación del disco y con la intensidad del campo magnético. La corriente inducida cambió de sentido al invertir los polos del imán o la rotación del disco.
«Con esto está demostrada —escribió Faraday en su Experimental researches— la posibilidad de la producción de corrientes eléctricas permanentes por imanes comunes.»
Entre la primera y débil desviación de la aguja magnética que reveló ^ Faraday el fenómeno de la inducción y este capital éxito, transcurren sólo pocas semanas. Del experimento de Faraday se va en recto camino hacia las máquinas generadoras de corriente, cuyo primer modelo fue ideado —pocos meses después de la publicación de Faraday— por Pixii y mejorado por Clark y Page. Estas insuficientes tentativas condujeron treinta años más tarde a la construcción de la dínamo (1867-1869), obra del alemán Werner Siemens, del italiano Antonio Pacinotti y del francés Zenobio Gramme. Toda la industria eléctrica de nuestros días es tributaria del descubrimiento de Faraday. Motores, transformadores, teléfonos y radios están en cierne en sus experimentos de 1831. La historia de la física conoce pocas hazañas que hayan tenido sobre la civilización una influencia tan profunda.
Con la abundante cosecha del fértil año de 1831, las formas posibles de la inducción no estaban agotadas, y el incansable experimentador les agregó dos más en los primeros meses del año siguiente. Como en sus experiencias de inducción podía utilizar con la misma eficacia imanes artificiales o naturales, Faraday concluyó que el magnetismo terrestre también podría servir para producir corrientes inducidas. Hizo girar una bobina de modo que su eje describiera el meridiano magnético. Su espera no fue vana; el galvanoscopio mostró la presencia de corrientes. La serie de hallazgos en este dominio fue rematada con la inducción unipolar, provocada en el circuito por el desplazamiento de un polo único y cercano. De estos descubrimientos supo sacar interesantes consecuencias de orden teórico y práctico el físico alemán Guillermo Weber. Mientras tanto, el sabio ruso Lenz estableció en 1834 una ley que permite prever el sentido de la corriente en todos los casos de la inducción. El sentido de la corriente inducida es tal que, directamente o por sus efectos, se opone a las acciones que la generan.
En el mismo año que Lenz encontró su ley, notó el físico inglés W. Jenkin un curioso fenómeno que escapó a la atención de Faraday. Observó que la chispa de abertura del circuito es reforzada cuando el hilo es más largo y enrollado bajo la forma de una bobina. La explicación dada por Jenkin no era satisfactoria; pronto reconoció Faraday la causa del fenómeno en la acción inductiva de la corriente —engendrada al abrirla o cerrarla— sobre el propio conductor. Era lógico concluir que las corrientes de inducción pueden dar nacimiento a otras corrientes de inducción, y el norteamericano José Henry (1797-1878) logró demostrar su existencia hasta el quinto orden, determinando también el cambio de sentido de las corrientes. Henry es el verdadero descubridor del fenómeno que hoy llamamos selfinducción o autoinducción. Lo observó antes que Jenkin. Por el contrario, la sugestión de varios historiadores norteamericanos de atribuir a su compatriota el hallazgo de la inducción no tiene fundamento. La publicación de Henry (1832) es posterior a la de Faraday.
A la exploración del vasto dominio de los fenómenos de inducción se agregaron casi inmediatamente, en 1834, las investigaciones de Faraday sobre las acciones químicas de la corriente. Por cierto, no fue un terreno virgen; desde los dos iniciadores, Nicholson y Carlisle, numerosos sabios, entre ellos Ritter, Berzelius, Grotthus y sobre todo Davy, lo habían hollado, mas faltaba que Faraday le aportara la exactitud de su procedimiento experimental, la límpida claridad de sus deducciones, para llegar a la ley fundamental de la electrólisis. Faraday conocía bien el poder sugestivo de los símbolos heredados; para librarse de toda idea preconcebida crea un nuevo lenguaje que le permitirá no prejuzgar en el fenómeno a estudiar. La denominación polo, ¿no sugiere la idea de atracción? La reemplaza por el término neutro de electrodo, llamando al electrodo positivo ánodo, y al negativo cátodo. Sus palabras anión, catión, electrólito, etc., integran la nomenclatura actual. Es más que una innovación formal: las nuevas palabras hacen posible un modo más exacto de expresión y salvaguardan además la independencia de la interpretación.
La cuestión de cómo el electrólito llega al electrodo, problema muy discutido por sus predecesores, no interesa a Faraday. Lo que se propone determinar es la relación entre la cantidad de electricidad y la cantidad de agua que descompone en un tiempo dado. Sus experimentos le evidencian que la descomposición electroquímica es función de la carga eléctrica que pasa de un electrodo a otro; hay, establece Faraday, una proporcionalidad entre la cantidad de electricidad suministrada por la corriente y la masa de sustancia depositada en los electrodos. Este principio, la primera de sus dos leyes sobre electrólisis, sirve a Faraday para idear su voltámetro, que mide la intensidad de la corriente por la cantidad de gas detonante que la comente libera del agua. Para generalizar sus conclusiones sobre la electrólisis, compara la masa de diversas sustancias, obtenidas en un tiempo dado, por la misma cantidad de electricidad. En dos cubetas, con la misma corriente descompone agua y cloruro de estaño. En tanto que en la primera cubeta recoge un peso de hidrógeno igual a 0 grano 49742, en la segunda, encuentra 3 granos 2 de estaño. Faraday comprueba que los dos números están precisamente en la misma relación que los equivalentes químicos de los dos elementos y corrobora el trascendental resultado, con el examen de una serie de otros electrólitos. De aquí concluye que en la electrólisis, a un átomo de sustancia dada, se asocia siempre una y la misma carga eléctrica, llevada por el átomo (o por un grupo de átomos). A este constituyente del electrólito descompuesto y a su carga, da Faraday el nombre de ion, palabra que en griego significa viajero. La ley fundamental de la electrólisis está, pues, descubierta. Faraday establece que el paso de una carga igual a 96540 culombios libera el equivalente gramo de un ion, es decir, la masa atómica dividida por la valencia. Más tarde, mucho después de la muerte de Faraday, los electricistas recurrirán (1893) a la ley de Faraday para definir el amperio, la unidad que mide la intensidad de la corriente. Sin embargo, el alcance del descubrimiento no consiste sólo en su utilidad práctica, pues ésta es sobrepasada por su alto valor cognoscitivo. La constancia de la carga del ion monovalente —reconocida por Faraday— es el primer indicio de la naturaleza granular de la electricidad, proposición cardinal de la moderna teoría atómica. Por primera vez en la historia, está vislumbrada en el descubrimiento de Faraday la partícula elemental, electrón, cuyo concepto domina la física actual. Menester es, en verdad, aguardar hasta la última década del siglo XIX para que la ciencia tenga conciencia del sentido profundo del concepto que está en la base misma de los fenómenos microcósmicos. No obstante, desde las investigaciones de Faraday, el electrón está virtualmente presente en la física y cuando al fin —en los fenómenos de la descarga en el vacío— se manifiesta su existencia, no causará sorpresa. Faraday no dio nombre a la carga eléctrica elemental; fue el físico inglés J ohnston Stoney quien la llamó electrón. En su memorable discurso pronunciado el 16 de febrero de 1881 en Dublín, se refiere a la ley de Faraday.
«La naturaleza nos da una cantidad de electricidad perfectamente determinada, independiente de la diversidad de los cuerpos sobre los cuales actúa, como unidad, según la ley de Faraday... Es la unidad fundamental que nos ofrece la naturaleza misma.»
La abundancia de nuevos conocimientos dados por Faraday reclamaba imperiosamente una interpretación sintética, que abrazara el conjunto de las acciones eléctricas y magnéticas. Faraday la brindó en 1837 con la admirable imagen de las líneas de fuerza. Más que los otros físicos del siglo XIX, Faraday es sobre todo un intuitivo, no piensa con fórmulas, piensa con imágenes. Sus conocimientos matemáticos no sobrepasaban el álgebra elemental; sin embargo, esta limitación, consecuencia de su destino que le había cerrado el camino de la formación universitaria, se convierte en ventaja, ya que le impide construir teoremas analíticos y lo dirige hacia la representación geométrica e intuitiva. Se podría creer que con ello su teoría pierde rigor; mas por el contrario, el edificio que levanta es tan sólido que Maxwell podrá realizar sin modificación la transposición matemática. Su extraordinario poder de visión, su facilidad de traducir fenómenos complicados en sencillas imágenes, asombra a justo título a sus contemporáneos.
«Es sumamente extraordinario —juzga Helmholtz— observar cómo gracias a una especie de intuición, sin emplear fórmula alguna, encontró una serie de teoremas generales, que sólo pueden ser estrictamente comprobados por el más alto poder del análisis matemático... Confieso que muchas veces me encontré mirando desesperadamente sus descripciones de las líneas de fuerza, al buscar la razón de las sentencias que definen la corriente galvánica como eje de fuerza.»[34]
Por supuesto, el concepto de las líneas de fuerza existía mucho tiempo antes de Faraday; aparecen visibles, en torno de un imán, gracias a las conocidas curvas dibujadas por limaduras de hierro, en una hoja colocada sobre el imán. Gilbert, á fines del siglo XVI, ya entrevió la existencia de estas líneas. Por otra parte, los fenómenos de la influencia eléctrica, puestos de manifiesto por Aepinus y Wilke, y el descubrimiento de la ley de Coulomb, en su extraordinaria analogía con la ley de Newton, condujeron, a principios del siglo XIX, a Laplace y Poisson a estructurar la teoría de un campo cruzado por líneas de fuerza y capaz de dar una representación sintética de la atracción y repulsión, debidas a fuerzas ya magnéticas, ya eléctricas o ya gravídicas. Pero esta teoría no fue más que un esquema matemático, las líneas de fuerza sólo fueron ficciones cómodas, sin realidad física. Todo cambia con Faraday; para él, las líneas de fuerza son tan reales como los objetos sensibles; se puede seguir su recorrido en el espacio, y su dirección es la de la fuerza, cuya intensidad está medida por el número de las líneas que atraviesan perpendicularmente a 1 cm 2.
En la teoría de Faraday se pueden asimilar las líneas de fuerza a hilos elásticos que tienden, al contraerse, a aproximar las superficies en que sus extremidades están fijadas. Estas extremidades representan las cargas eléctricas, una positiva y otra negativa. El espacio en torno de un imán está también cruzado por líneas sometidas a dos tensiones opuestas, una —la atracción— que tiende a acortarlas, y otra —repulsión entre las líneas adyacentes— que tiende a ensancharlas. Su concentración es mayor en los polos y se atenúa con la distancia, donde las líneas se suceden en curvas siempre más espaciadas. El conjunto de estas líneas define el campo magnético. Si un conductor corta las líneas de fuerza del campo magnético, la perturbación provoca una corriente inducida. La fuerza electromotriz de la inducción será tanto mayor cuanto más numerosas sean las líneas de fuerza cortadas. A cada cambio de la corriente, afirma Faraday, también corresponde una perturbación de las líneas de fuerza, lo que explica que al cerrar o abrir un circuito primario, se origine una inducción en el conductor secundario. La fecundidad de esta imagen es extraordinaria. Sirve como segura guía en todas las múltiples formas de la inducción.
Las líneas de fuerza en torno del imán o electroimán son curvas cerradas. Las que rodean a una carga eléctrica son rectilíneas o curvas abiertas; su recorrido, que conduce de un cuerpo electrizado a otro, en el cual reside la opuesta electricidad de influencia, no es siempre fácil de seguir.

24.jpg
Miguel Faraday

Faraday lo consiguió con una serie de experiencias. Estas líneas pueden contornear obstáculos. Preverlas a partir de la ley de Coulomb entraña complicadas fórmulas matemáticas, en tanto que la representación de Faraday permite una sencilla e inmediata orientación. A un importante hallazgo lo condujeron estas investigaciones. Encontró el influjo de los aisladores sobre los efectos eléctricos. Descubrimiento de grandes consecuencias, dado que abrió, en un punto vital, una brecha en la fortaleza de la física newtoniana.
Para las formas intuitivas del pensamiento de Faraday eran inconcebibles las fuerzas que actúan a distancia sin intervención del ambiente. Tal ficción, puramente matemática, le parecía, por lo menos en la física eléctrica, carente de sentido. En oposición al concepto de Laplace y Poisson, en oposición a toda la poderosa escuela de los mecanicistas, que tendían —siguiendo la analogía de la gravitación— a atribuir los fenómenos eléctricos y magnéticos a acciones a distancia entre puntos masivos, Faraday rechazó la idea de las fuerzas que actuarían instantáneamente entre dos puntos alejados sin depender de otro factor que la distancia. Sus experimentos contradecían tal suposición, pues revelaron que la magnitud de una acción eléctrica entre dos cuerpos depende también de la sustancia que se encuentra entre ellos. Faraday demostró este importante hecho con ayuda de un condensador con medio aislador — dieléctrico — cambiable, comprobando que la capacidad del condensador variaba según los diferentes dieléctricos empleados. Para una serie de sustancias midió la «capacidad inductora específica», magnitud que caracteriza al medio y que en 1873 recibió de Maxwell el nombre de constante dieléctrica. Si el medio que interviene en los experimentos, razonó Faraday, causa diferencias en la transmisión de la acción eléctrica, ésta no puede ser una acción a distancia y debe transmitirse, concluyó, punto por punto, a través del medio circundante. Estos puntos forman las líneas de fuerza. El asiento de la energía eléctrica no está, pues, en el conductor, sino en el ambiente, en el campo que rodea las cargas.
Tal pensamiento, fundamentalmente nuevo, es de decisiva importancia: fue menester la sagaz imaginación científica de Faraday para ver que no eran las cargas, sino el ambiente, el campo existente entre ellas, lo esencial en la descripción de los fenómenos eléctricos. Un concepto para el cual no había lugar en la física newtoniana, surge aquí, grávido de porvenir. La extraordinaria riqueza del nuevo modo de apreciar, inaugurado por Faraday, se revelará más tarde en las ecuaciones de Maxwell, quien lo extiende al dominio de la óptica y del electromagnetismo, demostrando la fundamental identidad de los fenómenos luminosos y electromagnéticos.
Por una última y magnífica generalización, terminará por invadir con creciente importancia casi toda la física, y englobará en el siglo XX, gracias a Einstein, también a los fenómenos gravídicos. Sin embargo, el concepto del campo, tal cual aparece en la teoría de Faraday, le basta para renunciar a la hipótesis de los dos fluidos eléctricos. No existe para él más que un fluido imponderable, el éter, que, llenando el espacio, es el portador de los campos eléctricos o magnéticos. Un campo eléctrico no es sino un cierto estado del éter; comunicar una carga eléctrica a un cuerpo es en realidad crear un definido estado de tensión, una deformación en el éter.

25.jpg
Jaime Clerk Maxwell

Una vez determinado el papel de los diferentes dieléctricos en el campo eléctrico, Faraday examina el comportamiento de distintas sustancias en campos magnéticos. En sus experimentos se sirve de un trozo de cristal, formado por borato de plomo, y observa (1845) que el cristal llevado a un intenso campo magnético no se coloca, como el cobre, en la línea de unión de los polos, sino perpendicularmente al eje del electroimán. Faraday traza entonces un distingo. Llama paramagnéticos a los cuerpos cuya imanación —como el cobre— es del mismo sentido que el campo magnético, y diamagnéticos a aquellos cuya imanación, igual a su cristal o al bismuto, es de sentido contrario. Los cuerpos paramagnéticos son atraídos por el imán; los diamagnéticos, repelidos. Faraday no encuentra ningún cuerpo insensible a la acción del electroimán, a condición de que la excitación sea suficientemente intensa; demuestra que todos los cuerpos pueden ser clasificados en uno de los dos grupos indicados, y concluye que el magnetismo es una propiedad general de toda materia.
El cristal de borato de plomo —su famoso «vidrio pesado»— que tan bien le sirvió en la investigación del diamagnetismo, lo condujo a otro conocimiento no menos importante. Su intuición le sugería que las líneas de fuerza de un campo magnético deberían actuar, de un modo u otro, sobre la luz. Sus experiencias con docenas de sustancias transparentes fracasaron, mas Faraday no dejó su idea. Por fin, al llevar su vidrio pesado entre los polos de un fuerte electroimán, comprobó que el plano de polarización del rayo luminoso en el cristal experimenta una rotación en el campo magnético. Brota aquí una capital idea en los razonamientos del gran precursor. ¿No será el éter cuyas oscilaciones producen las ondas luminosas idéntico al éter que transmite los efectos magnéticos y eléctricos? El campo magnético, que modifica el plano de polarización, ¿no actuaría también sobre la longitud de onda, el color de la luz? Faraday coloca (1862) una llama de sodio en un fuerte campo magnético; es una de las últimas de las millares de experiencias del inmortal observador. El resultado negativo no lo aleja de su hipótesis. Admirable es la seguridad de su intuición, aun en los casos en que sus recursos experimentales no bastaron ya para corroborar sus presagios. Sus conjeturas se verificaron una tras otra; la actuación del campo magnético sobre la luz será puesta en evidencia por el holandés Pedro Zeeman en 1896; ya antes, el influjo del campo eléctrico sobre fenómenos ópticos, igualmente previsto por Faraday, fue comprobado por el inglés Juan Kerr, al demostrar la doble refracción del rayo luminoso, provocada en sólidos y líquidos por el campo eléctrico.
Los esfuerzos casi sobrehumanos que Faraday exigió durante décadas a su poderoso espíritu, no podían quedar sin repercusión sobre su salud. Hacia los sesenta y cinco años su memoria, infalible hasta entonces, comenzó a negarle sus servicios. Abandonó en 1858 la Real Institución para retirarse a una quinta que el rey le había regalado, donde murió, a la edad de setenta y seis años.

Capítulo 14
Maxwell, Hertz y Lorentz

La ley de Neumann; Las unidades absolutas: Gauss y Weber; Clark Maxwell: La trascendencia de sus ecuaciones; La corriente de desplazamiento; La teoría electromagnética de la luz; El experimento de Rowland; La realidad de las ondas eléctricas: Enrique Hertz; La mecánica de Hertz; Descubrimiento del electrón: Enrique Antonio Lorentz; El efecto Zeeman; Hacia la física del siglo XX

Dejemos Inglaterra, donde Faraday encuentra en la persona de Maxwell a su gran codificador, y transportémonos por un momento a Alemania. Francisco Neumann (1798-1895), mineralogista y físico de la Universidad de Königsberg, estableció las leyes cuantitativas de inducción. Neumann es un investigador sagaz y matemático agudo; no obstante, sus desarrollos son largos y a veces inútilmente complicados; es más fácil enunciar lo esencial de sus resultados que seguir el encadenamiento sinuoso de sus pensamientos. En un circuito cerrado, la corriente es inducida cada vez que el número de las líneas magnéticas de fuerza que cruzan el circuito sufre un cambio. La fuerza electromotriz que actúa en el circuito está determinada por el número de las líneas de fuerza que el circuito gana o pierde por segundo. A sus méritos, que no escasean, Neumann agrega el raro privilegio de haber vivido noventa y siete años, sobrepasando la longevidad de Hittorf y de lord Kelvin, ya que el primero festejó noventa aniversarios y el segundo ochenta y tres.
La teoría de Francisco Neumann procede de ideas de Carlos Federico Gauss (1777-1855), cuya aplicación práctica representa.
El príncipe de los matemáticos enriqueció la física con varias aportaciones, la más importante de las cuales, sin lugar a dudas, es su célebre memoria de 1832 sobre la intensidad del magnetismo terrestre, donde introdujo el sistema de unidades absolutas, indispensable desde entonces para las ciencias. Apoyado en la ley de Coulomb para polos magnéticos, Gauss indicó cómo la unidad del magnetismo puede ser deducida de las tres unidades fundamentales, de espacio, masa y tiempo (centímetro, gramo, segundo), al acudir sólo a las leyes de la física con exclusión de factores arbitrarios. La unidad de fuerza será, pues, la que imprime a la unidad de masa la unidad de aceleración = 1 dina; por consiguiente, la unidad de la cantidad magnética —o de la fuerza de polo— será aquella que sobre una cantidad igual de magnetismo ejerce en la distancia 1 una fuerza 1. El método de la medición gaussiana se sirve de la componente horizontal de la intensidad del campo H, y orilla la gran dificultad conceptual del polo magnético —no limitable exactamente en el espacio— con la introducción del momento magnético M. La observación de las oscilaciones del imán permite determinar el producto HM; la de las desviaciones provocadas por el mismo imán sobre una aguja conduce al valor del cociente H/M; así, el momento magnético y la componente horizontal del magnetismo terrestre están medidos en valores absolutos.
Gauss encontró un fiel y genial colaborador en Guillermo Weber (1804-1890), su colega en la Universidad de Gottinga. Éste prolongó la idea gaussiana de las unidades absolutas y la aplicó a todas las magnitudes eléctricas. Consagró varias décadas de su vida a inventar los instrumentos requeridos y a ejecutar, con precisión inigualada hasta entonces, las mediciones para establecer las unidades todavía hoy empleadas —amperio, culombio, ohmio, voltio— introducidas en 1881 por el Congreso de Electricistas reunido en París. Al igual que Neumann, Weber fue un descollante teórico. Como la ley fundamental de Ampère abraza solamente los fenómenos electrodinámicos, pero no rinde cuenta de las acciones electrostáticas, ni de la inducción voltaica, Weber englobó en una fórmula las acciones mutuas de cargas eléctricas en reposo o en movimiento; en el caso especial en que la distancia de las masas es invariable, la fórmula de Weber se transforma en la de Coulomb; en otros casos permite deducir las leyes de la inducción. En oposición a Faraday, Weber admite la acción de fuerzas eléctricas a distancia; su teoría cayó en el olvido cuando, veinticinco años más tarde, Maxwell dio armadura matemática a la doctrina de Faraday.
En el curso de sus investigaciones sobre las unidades eléctricas, Weber tropezó con un significativo descubrimiento. La relación entre las unidades electromagnética y electrostática de intensidad no es un número puro, como el existente entre dos unidades de tiempo (minuto y segundo), o entre dos unidades de longitud (metro y toesa); por el contrario, su cociente representa una velocidad que Weber, ayudado por R. Kohlrausch, logró medir en 1857. El resultado dio una cifra —41.949 millas geográficas— cuyo orden de magnitud coincide con el de la velocidad de la luz. Todas las mediciones hechas después indican que la coincidencia es rigurosa. Coincidencia reveladora, que debió conducir en los razonamientos de Maxwell a conclusiones trascendentales.
Jaime Clerk Maxwell (1831-1879), alumno de Faraday, el más imaginativo de los teóricos del siglo XIX, era como Kelvin, su pariente espiritual, de origen escocés. A los trece años se matriculó en la Universidad de su ciudad natal, Edimburgo; a los quince se destacó por su primera memoria matemática. Profesó primero en Aberdeen, y después en el King's College de Londres. Sus más fecundos años los pasó en el silencioso retiro de su casa de campo. Allí maduró la monumental obra Treatise on Electricity and Magnetism (1873). En 1871 aceptó una cátedra en la Universidad de Cambridge, cuyo famoso laboratorio físico inaugura; en el apogeo de su actividad, una enfermedad incurable lo robó a la ciencia antes de que pudiera ver la brillante confirmación de sus más queridas ideas, por el veredicto de los experimentos de Hertz.

26.jpg
Enrique Hertz

Su curiosidad de investigador le arrastra algún tiempo hacia la teoría cinética de los gases y la constitución de la materia, pero sin cesar vuelve a los fenómenos eléctricos, que ejercen sobre su espíritu verdadera fascinación. Con poderosa síntesis que fue la admiración de sus contemporáneos y que nos sorprende aun hoy, Maxwell logra reunir en pocas ecuaciones la quintaesencia de un estupendo número de comprobaciones.
Las leyes de Coulomb y la teoría laplaciana del potencial, los descubrimientos de Oersted y Ampère, la ley de Ohm, los resultados de los experimentos de Faraday, todo cabe en las igualdades maxwellianas.
Los estados del éter, tal como se manifiestan por las fuerzas eléctricas y magnéticas medibles, en sus relaciones con las constantes características de los cuerpos materiales, están unívocamente definidas por seis ecuaciones, que prevén además la existencia de ondas eléctricas, análogas a las ondas luminosas, y establecen así una unión entre los dos enormes dominios del electromagnetismo y la óptica, hasta entonces separados. War es ein Gott, der diese Zeichen schrieb?[35], exclamó Boltzmann aplicando las palabras de Goethe a las síntesis del gran inglés. En efecto, la hazaña no tiene precedente en la historia de la física, y es aún más sorprendente por estar realizada con ecuaciones sencillas, que forman en último análisis toda la teoría de Maxwell.
Los razonamientos que conducen al genial escocés a sus resultados no siempre son transparentes, y a veces admiten objeciones. Por momentos se tiene casi la impresión de que las conclusiones hubieran existido listas, a priori, en el espíritu de su creador. No obstante, las ecuaciones son justas y traducen admirablemente los fenómenos reales. Menester sería, dijo Hertz, aceptarlas como hechos fundamentales, aun sin demostraciones. Enamorado como Kelvin de modelos mecánicos, ayuda, según él, indispensable para asir un problema, Maxwell se esforzaba también por construir primero modelos del éter, susceptibles de representar las interacciones magnéticas y eléctricas que se habían revelado en los experimentos de Faraday. Mas esto sólo fue la primera etapa de su pensamiento. Dejó los modelos para dirigirse hacia las descripciones matemáticas. No obstante, en el fondo de sus razonamientos yace una imagen. Maxwell asimila la corriente eléctrica al correr de un fluido incompresible, análogo hl agua de un río, y extiende la validez de esta comparación a los fenómenos donde intervienen aisladores dieléctricos. Consideremos con Maxwell lo que ocurre si ligamos, por ejemplo, los dos polos de una batería eléctrica con un condensador; en el momento de la carga, una corriente recorre la batería y los hilos de conexión. ¿Qué sobreviene en ese instante, en el seno del aislador, entre las dos armaduras del condensador? Nada, declararon los predecesores de Faraday y Maxwell; el aislador, añaden, no es sede de ningún fenómeno, la carga se acumula simplemente sobre las armaduras. Pero Maxwell, quien asimila en todos los casos el correr de la electricidad al de un fluido incompresible, afirma que la corriente, sin detenerse en las placas, circula también en el espacio intermediario. En el momento en que las placas se cargan, se produce de una armadura a la otra un nuevo género de corriente, la corriente de desplazamiento, que está necesariamente ligada al movimiento de la electricidad. En todos los puntos del aislador la energía se acumula bajo la forma de un estado de tensión; estado de tracción en la dirección de las líneas de fuerza, estado de presión en la dirección perpendicular. Se podría decir que lo esencial del fenómeno se produce en el dieléctrico, que desempeña un papel tan importante como el del ánima de un cañón. ¿Cuál es, pues, la diferencia entre los fenómenos que transcurren en el hilo conductor y los que se producen en el ambiente dieléctrico?
«La única diferencia —escribe Maxwell en su Treatise— consiste en que en el dieléctrico una fuerza que llamamos elasticidad eléctrica se opone al desplazamiento y hace retroceder la electricidad, cuando la fuerza electromotriz es suprimida; en tanto que en el hilo conductor la elasticidad eléctrica es constantemente vencida, de manera que se produce una corriente de conducción y que la resistencia depende, no de la cantidad de electricidad desplazada de su posición de equilibrio, sino de la cantidad que atraviesa una sección del conductor, en un tiempo dado.»
El desplazamiento eléctrico es, pues, una nueva cantidad física que entrará en los cálculos de Maxwell. La inmediata consecuencia de la introducción de la corriente de desplazamiento es eliminar el difícil problema de la diferencia entre corrientes abiertas o cerradas; problema que preocupaba a los teóricos y que con Maxwell se pone en claro, pues si se tiene en cuenta la corriente de desplazamiento, no quedan más que corrientes cerradas.
Sin entrar en el desarrollo matemático de la teoría de Maxwell, señalemos sólo sus resultados esenciales. Apoyado en las leyes del electromagnetismo y en su hipótesis de las corrientes de desplazamiento, Maxwell comprueba que cada cambio del campo eléctrico engendra en su proximidad un campo magnético, e inversamente, cada variación del campo magnético origina un campo eléctrico. Dado que las acciones eléctricas se propagan, con velocidad finita, de punto en punto, se podrán concebir cambios periódicos en dirección y en intensidad de un campo eléctrico, como una propagación de ondas. Tales ondas eléctricas están necesariamente acompañadas por ondas magnéticas, indisolublemente ligadas a ellas. Los dos campos, eléctrico y magnético, periódicamente variables, son constantemente perpendiculares entre sí y a la dirección común de su propagación. Son, pues —primera e importante conclusión—, ondas transversales.
Las ecuaciones de Maxwell, donde intervienen —fuera de constantes materiales— las coordenadas del espacio y la variable del tiempo, una vez dada la fuerza eléctrica y magnética en un estado inicial, permiten seguir las oscilaciones del campo electromagnético, análogamente a las ecuaciones de la hidrodinámica que prevén las vicisitudes de un líquido en el espacio y en el tiempo. Lo que estas ecuaciones hacen para el líquido, lo hacen las fórmulas de Maxwell para el éter. Éste, portador de todos los efectos eléctricos o magnéticos, es —en los razonamientos de Maxwell— un ambiente con la elasticidad de un sólido y en el cual las oscilaciones se propagan con una velocidad

eq30.png

siendo k la constante dieléctrica y μ la permeabilidad magnética. En el vacío, donde k = μ = 1, la velocidad será igual a c, medida por el cociente de dos unidades electrostática y electromagnética.
Ahora bien: sabemos que este cociente, determinado experimentalmente por Weber y Kohlrausch, tiene el valor de la velocidad de la luz. Por consiguiente, las ondas electromagnéticas no sólo son transversales como las ondas luminosas, sino que también se transmiten con la misma velocidad. De esta doble analogía, con atrevido y genial vuelo, concluye Maxwell su identidad. La luz, afirma, consiste en una perturbación electromagnética que se propaga en el éter. Ondas eléctricas y ondas luminosas son fenómenos idénticos.
Consecuencia inmediata de la teoría de Maxwell es el establecer una inesperada relación entre dos propiedades características, la constante dieléctrica y el índice de refracción de una sustancia dada.
En efecto, la velocidad de propagación de las ondas

eq30.png

se reduce para un medio no conductor y no magnético a

eq31.png

como c/V es el índice de refracción n, resulta que k = n2; así, la constante dieléctrica de un medio tiene el mismo valor que el cuadrado de su índice de refracción óptica.

27.jpg
Guillermo E. Weber (1804-1891)

Que la famosa relación se cumple en el mundo físico, lo demostró Luis Boltzmann en 1873, pocos meses después de publicada la obra del gran pensador de Cambridge. Fue la primera señal experimental de la certidumbre de la teoría maxwelliana. Además, en seguida se vio claramente que la nueva teoría suprimía la mayoría de las dificultades que planteaban las concepciones mecánicas de Fresnel.
A pesar de ello, la acogida hecha a la genial doctrina del innovador fue fría al principio, incluso en Inglaterra. Lord Kelvin declaró no comprender los razonamientos de Maxwell y no ver bien la utilidad de la teoría electromagnética de la luz. Raros eran los partidarios; entre éstos se destacaba Oliverio Heaviside, quien desde 1885 completó el sistema de las ecuaciones maxwellianas, y sobre todo Helmholtz, cuyas investigaciones procuraron dar a la teoría una base a la vez más amplia y más firme. Los dos protagonistas encontraron un genial aliado en la persona de un alumno norteamericano de Helmholtz, Enrique A. Rowland (1848-1901). Con una célebre experiencia, Rowland hizo evidente en 1876 que la carga electrostática de un disco en rotación rápida desvía en su vecindad a una aguja magnética, del mismo modo que lo hace una corriente eléctrica. Dedujo, pues, que en sus efectos magnéticos no hay diferencia entre una corriente de conducción y otra de convección, producida por el transporte mecánico de un cuerpo cargado. Importante era para la verificación de las ideas de Maxwell realizar la experiencia inversa a la de Rowland: establecer si es cierto que un dieléctrico en rotación rápida en un campo eléctrico origina un efecto magnético. Röntgen dio en 1888 la respuesta afirmativa. Hizo girar un aislador —una placa de vidrio— entre las armaduras cargadas de un condensador y comprobó la desviación de la aguja magnética.
Por elocuentes que fueran todos estos indicios empíricos, faltó al edificio levantado por Maxwell el principal pilar. Ningún experimento evidenció la propagación de una onda electromagnética. La exigencia capital de la teoría, la existencia física de estas ondas, permanecía todavía dudosa aun catorce años después de la publicación de Maxwell. El imperecedero mérito del joven físico alemán Hertz fue el haber eliminado definitivamente las dudas y probado con una serie de experiencias concluyentes, no sólo la realidad de las ondas electromagnéticas, sino también el perfecto acuerdo de sus características con las previstas por las lúcidas conclusiones del gran escocés.
Enrique Hertz (1857-1894), el más brillante discípulo de Helmholtz, profesor de la Escuela Politécnica en Karlsruhe, se vinculó desde 1884 con las ideas maxwellianas y reveló en un sugestivo tratado las lagunas de la vieja electrodinámica de Neumann y Weber, mostrando que las ecuaciones de Maxwell, a las cuales supo dar una forma sencilla y simétrica, interpretaban todos los fenómenos conocidos. Desde entonces, Hertz trató de producir ondas por medios exclusivamente eléctricos. Los ensayos de Feddersen con descargas oscilatorias se le ofrecieron como punto de partida para sus tanteos.
Pero ¡cuántas dificultades hubo de vencer! Admitiendo que las descargas de un condensador dan nacimiento a ondas, éstas deberían tener, aun en los casos más favorables, una longitud del orden de magnitud de un kilómetro, visto que el número de oscilaciones —comprobables con ayuda de espejos oscilatorios— no sobrepasa algunos centenares de millares por segundo. Imposible era, pues, observar tal onda, ya que la débil energía de la descarga generadora no basta para permitir detectar su presencia a un kilómetro de distancia del condensador. Y sobre todo era imposible medir la longitud de juna onda tan larga dentro de los estrechos muros de un laboratorio. Para obtener ondas más cortas, ondas observables, era menester provocar oscilaciones más rápidas. Hertz logra en 1887 llevar a cabo la tarea, con un dispositivo tan genial como simple; su oscilador (o excitador) comprende dos esferas idénticas, provistas de varillas metálicas, terminadas en dos bolitas que se pueden aproximar a voluntad; una bobina de Ruhmkorff, que da corriente alternada de corto período, le permite cargar el aparato bajo una tensión elevada. Las descargas entre las dos bolitas se efectúan cuando la diferencia de potenciales determina una chispa y la rapidez de las oscilaciones alcanza varios centenares de millones por segundo. Para explorar el espacio en torno de su oscilador y descubrir la presencia de ondas eventuales, Hertz imagina su resonador: un anillo de alambre cortado por una pequeña abertura. Las ondas producen minúsculas chispas que saltan en la interrupción, a condición de que el resonador esté bien acordado con el excitador. Interesante es ver a Hertz aplicar la idea de la resonancia a la revelación de las ondas eléctricas, como su maestro Helmholtz la había aplicado a la búsqueda de las ondas acústicas. El éxito justificó su inspiración.
Con su simple dispositivo, Hertz verifica que la propagación de la radiación, cuya presencia revelan las minúsculas chispas en la abertura de su resonador, se efectúa realmente en ondas. Coloca a cierta distancia del excitador una placa de cinc, unida al suelo, que desempeña el papel de espejo reflector. Comprueba que el espacio comprendido entre el excitador y la placa de cinc constituye el asiento de un fenómeno perfectamente análogo a los sistemas de ondas estacionarias, sonoras o luminosas. En efecto, las chispas que brotan de su resonador varían en longitud y en brillo en diferentes puntos del espacio, acusando mínimos y máximos equidistantes: los característicos nodos y vientres de las ondas estacionarias: nodos donde ninguna chispa se revela; vientres donde su intensidad es máxima. Una vez alcanzado este punto, Hertz mide la longitud de onda de las oscilaciones, longitud que simplemente es el cuádruple de la distancia que separa un nodo del vientre consecutivo. En sus primeros experimentos encuentra un valor de 30 metros; después logra producir ondas cien veces más cortas.
Sin duda, las longitudes de onda de la luz visible medidas por Fraunhofer y Fresnel son sólo de algunas décimas de micrón, un millón de veces más pequeñas que las longitudes de onda de la luz invisible de Hertz. Mas vuelve a encontrar, una tras otra, las características de la luz visible en sus ondas. Se dejan refractar por un gran prisma de brea, como la luz con un prisma de cristal. Con espejos cóncavos, Hertz consigue enfocar sus ondas; demuestra también que pueden ser polarizadas y por medio de una rejilla de alambre obtiene una rotación del plano de polarización. Al medir la velocidad de propagación de sus ondas, choca en el estrecho espacio de su laboratorio con dificultades, mas la repetición de la experiencia en una larga galería (1893) conduce a un valor muy aproximado al de la velocidad de la luz. ¡La predicción de Maxwell se había realizado: la existencia de las ondas electromagnéticas era una realidad tangible!
«Fascinador es comprobar —escribió Hertz[36] que los procesos que investigué representan, en escala un millón de veces más amplia, los mismos fenómenos que se producen en la vecindad de un espejo de Fresnel, o entre las delgadas láminas empleadas para exhibir los anillos de Newton.»
Una vez establecida la posibilidad de transmitir ondas eléctricas sin conductor, estaba dado el paso decisivo —inconcebible antes de la hazaña del físico de Karlsruhe— para la invención de la telegrafía inalámbrica, cuyo primer esbozo se escondía en los experimentos de Hertz. Éste, dedicado por completo al aspecto puramente científico de su problema, no soñó con la aplicación práctica del descubrimiento. Sus dispositivos permitieron la transmisión de señales a algunas decenas de metros; el francés Eduardo Branly aumentó sus alcances inventando el primer detector, el cohesor, perfeccionado por el inglés Oliver Lodge y el ruso Jorge Popoff. Guillermo Marconi le dio el poder de accionar un aparato Morse, y creó el sistema emisor de gran rendimiento, dotando al oscilador de chispa fraccionada, ideado por Augusto Righi, con la clásica antena. En 1899 las ondas hertzianas lograron cruzar el canal de la Mancha.
El gran acontecimiento no fue vivido por Hertz, quien en 1889 había dejado Karlsruhe para aceptar la invitación de la vieja y renombrada Universidad de Bonn como sucesor de Clausius. Sus últimos años los consagró a la ingrata tarea de innovar las leyes de la mecánica. Trató de describir los fenómenos del movimiento sin acudir a la noción de fuerza, que le pareció —como antes a Kirchhoff— plena de oscuridades metafísicas. En la mecánica de Hertz sólo entran magnitudes observables, las de espacio, tiempo y masa. Las perturbaciones que los cuerpos sufren en sus movimientos serían debidas a rígidas ligaduras que los unen y cuya existencia considera Hertz como ley fundamental. Los cuerpos libres de ligaduras se desplazan uniformemente en línea recta; si están sometidos por ligaduras, describen trayectorias con curvaturas mínimas. Sus caminos, afirmó Hertz, son «los más rectos posibles». Si un sistema no se conforma al principio del camino más recto es porque, aparte de los movimientos visibles, hay movimientos escondidos. El conjunto, sistema visible + sistema escondido, obedecería siempre al principio fundamental. Por sutil e ingeniosa que fuese, la mecánica de Hertz levantó muchas y fundadas críticas. Hertz no tuvo la posibilidad de contestar a las objeciones. Atacado de grave enfermedad, se vio obligado a cumplir una convocación militar. Su estado empeoró. El más ingenioso de los experimentadores alemanes del siglo XIX murió a la edad de treinta y siete años, víctima del militarismo prusiano.
La obra de Hertz acabó la magnífica estructura del pensamiento de Maxwell. Convirtió sus hipótesis en hechos experimentales. Desde entonces, luz, electricidad y magnetismo aparecieron como vibraciones del éter. El colosal ámbito de los fenómenos electromagnéticos estaba contenido en un sistema de mágicas ecuaciones. Las entusiásticas palabras de Hertz reprodujeron hacia 1890 el eco de la opinión de la mayoría de los físicos: «Se tiene la sensación de que las fórmulas de Maxwell tienen vida propia, como si fueran más inteligentes que nosotros, y aun que su propio creador.» Sin duda, los servicios de la teoría de Maxwell eran numerosos e incontestables, ¿mas no dejaba muchos e importantes problemas sin respuesta? Si bien dicha teoría enseñó que la radiación consistía en ondas electromagnéticas, nada reveló del mecanismo emisor de las ondas luminosas; condujo a una interesante relación entre el índice de refracción de una sustancia y su constante dieléctrica, mas no explicó ni la dispersión de la luz, ni la doble refracción de los cristales, ni la polarización rotatoria de la luz; también permaneció extraña a las leyes de la electrólisis. En una palabra, la teoría de Maxwell dio una descripción global de los fenómenos, sin penetrar en su íntima naturaleza.
Esta limitación tiene profundos motivos: Maxwell considera al éter, portador de los efectos electromagnéticos, como un medio homogéneo y continuo. Sus ecuaciones, que describen los diversos estados de tensión del éter, no acuden a la estructura granular de la electricidad, cuya realidad había entrevisto Faraday en sus investigaciones sobre electrólisis, y cuya decisiva importancia para la representación de los fenómenos eléctricos y magnéticos no había escapado a Weber, a Helmholtz ni a Stoney. Las ecuaciones de Maxwell describen sólo en nuestra escala las interacciones entre los campos electromagnéticos por una parte y las cargas y corrientes eléctricas por otra. Para prever los fenómenos que transcurren en la escala microscópica, en el seno de la materia discontinua, para penetrar la vinculación entre los átomos radiadores y su radiación, era menester extrapolar las fórmulas de Maxwell, teniendo en cuenta la naturaleza corpuscular de la materia y de la electricidad. De tal penetración procede la obra innovadora del holandés Lorentz.
Enrique Antonio Lorentz (1853-1928), profesor de la antigua Universidad de Leiden, digno sucesor del gran Maxwell, junto con la aguda y despierta lógica de un virtuoso matemático, posee el don casi profético de ver escondidas realidades en los símbolos de las ecuaciones que describen los fenómenos físicos. Admite que el fluido eléctrico está formado por partículas elementales, semejantes las unas a las otras y de una masa extremadamente débil. Supone que la carga de estas partículas es igual al cuanto de electricidad, cuya existencia han revelado las leyes electrolíticas de Faraday. Existen dos categorías de partículas elementales con signos contrarios; sin duda, son las partículas de electricidad negativa las que desempeñan el papel esencial en los fenómenos eléctricos y ópticos. Estas partículas últimas de la electricidad negativa reciben, según la feliz sugestión de Stoney, el nombre de electrón.
Sorprendente es, como demuestra Lorentz, el poder aclaratorio del nuevo concepto. Aquello que se nos aparece bajo la forma de corriente eléctrica es el desplazamiento conjunto de los electrones en un alambre conductor: suposición en acuerdo con el experimento de Rowland, con la prueba de que el transporte mecánico de una carga equivale a una corriente. Los metales, en cuyo interior los electrones se mueven libremente, son conductores, mientras que otras sustancias cuyos electrones no pueden alejarse mucho del estado de equilibrio se nos presentan como aisladores. Cuando en un dieléctrico los electrones dejan, bajo la acción de un campo eléctrico, su posición de equilibrio, una fuerza que tiende a reconducirlos nace y limita su desplazamiento. Así se explica la polarización en los malos conductores. En los átomos de los imanes, los electrones giran en órbitas cerradas y las propiedades de estas minúsculas corrientes moleculares interpretan los fenómenos del magnetismo.
Cada electrón en movimiento lleva consigo y a su alrededor un campo electromagnético y, debido a la traslación de tales campos microscópicos, se originan los grandes campos, los únicos que estamos en condiciones de observar y medir. Sólo éstos obedecen a las ecuaciones de Maxwell, cuya sencillez encuentra así explicación: son leyes estadísticas, que abarcan, no a los electrones aislados, sino a un ingente número de los mismos.
Más aún que en la interpretación de los fenómenos eléctricos, la teoría de Lorentz se muestra fértil en recursos en el dominio de la óptica. Las rotaciones de los electrones en el interior del átomo, afirma Lorentz, engendran la radiación; si aquéllas son bastante rápidas, nacen los rayos luminosos, cuya frecuencia sería igual a la de los electrones giratorios. Son los desplazamientos electrónicos en el interior atómico los que originan la emisión de las líneas espectrales: si el electrón del átomo de hidrógeno oscila 457 billones de veces por segundo, la línea roja C es emitida; Lorentz puede aún calcular el diámetro de la trayectoria electrónica que supone circular. Su teoría es reveladora; le permite prever que el campo magnético modifica la trayectoria de los electrones y la frecuencia de la luz que éstos producen. La prueba experimental de esta previsión valió a la teoría su más hermoso éxito: Pedro Zeeman, el gran discípulo de Lorentz, evidenció en 1896 que la famosa raya amarilla D de la llama de sodio, colocada en un intenso campo magnético, se divide en componentes. En lugar de la clásica raya única, aparecen en el espectrógrafo dos, si se observa en la dirección de las líneas de fuerza del campo, y tres rayas en la dirección perpendicular a las líneas de fuerza. Por añadidura, las dos componentes están polarizadas circularmente, una es dextrógira y la otra levógira, en perfecto acuerdo con la prognosis de la teoría.
El efecto Zeeman dio convincente evidencia experimental —históricamente la primera— de la estructura electromagnética del átomo. Además, suministró datos para valorar una magnitud de importancia fundamental: la relación de la carga de un electrón con su masa, e/m, y condujo a la conclusión de que esta carga específica es cerca de 1.800 veces más grande que la del ion de hidrógeno; lo cual significa que la masa del electrón es 1,800 veces inferior a la de un átomo de hidrógeno. Este resultado —como pronto veremos— fue brillantemente confirmado por el estudio de los fenómenos de descarga en el vacío.
La teoría de Lorentz es el coronamiento, el capitel de la física clásica. Con la doctrina del gran holandés aparece como último constituyente, a la vez de la electricidad y de la materia, el electrón, que ocupará desde entonces el proscenio de las investigaciones teóricas y experimentales. ¡La materia es un fenómeno eléctrico! Con esta tesis lorentziana está formulada la idea cardinal de nuestra física, la física del siglo XX. Como en la leyenda griega el globo terráqueo descansa sobre los hombros de Atlante, así reposa el edificio gigantesco de la nueva física sobre la básica idea del investigador de Leiden.
Por supuesto, los fenómenos de la energía radiante no poseen la simplicidad que les imponía la teoría de Lorentz. Las leyes clásicas del electromagnetismo no son aplicables, sin radicales modificaciones al movimiento de los electrones intraatómicos, cuyas vibraciones no son asimilables en todos los casos a las descargas oscilantes, productoras de las ondas hertzianas. Las trayectorias de los electrones no son las órbitas circulares admitidas por Lorentz. No obstante, su teoría encerraba una gran parte de verdad, de la cual el hallazgo de Zeeman dio elocuente testimonio. Para ir más lejos, a la vez en el conocimiento de la energía radiante y en el de la estructura atómica, era menester que apareciese un concepto revolucionario, sin raíz en el pasado, por completo desconocido a los investigadores clásicos: el cuanto de Planck.

Epílogo
Hacia nuevos horizontes: rayos catódicos y rayos X

La descarga en el vacío; Plücker descubre el flujo catódico; Hittorf y Crookes exploran las propiedades de los rayos; José Juan Thomson establece su naturaleza electrónica; Rayos canales; La ventanilla de Lenard; El descubrimiento de Röntgen

Los descubrimientos de Faraday y sus sucesores aclararon en gran medida los fenómenos presentados por la electricidad vinculada a la materia. La exploración del paso de la corriente en el vacío, cuyo estudio profundizado no comienza antes de la segunda mitad del siglo, evidencia la insospechada riqueza de una nueva clase de fenómenos: los de la electricidad libre, sin soporte material en el sentido genérico de la palabra.
Sin duda, la prehistoria de estas investigaciones remóntase a un pasado más lejano: la época frankliniana de la electricidad. Los ingleses Watson (1751) y G. C. Morgan (1785) descargaron botellas de Leiden a través del vacío de Torricelli. Más tarde, Davy (1822) observa la luminosidad verdosa provocada en el cristal por la descarga. Faraday (1835) admira los resplandores coloreados que se manifiestan si la rarefacción del medio en el tubo es bastante intensa. No escapa a su atención el espacio oscuro que rodea al cátodo: the dark space of Faraday. Al bajar la presión hasta un milímetro de mercurio, B. Abría (1843) ve la luz salida del ánodo resolverse en estratos de capas alternativamente brillantes y sombrías.
El verdadero examen de los fenómenos comienza en 1857, cuando Enrique Geissler (1814-1879), hábil mecánico y soplador de vidrio en Münich, inventa la bomba de mercurio y construye el tubo que lleva su nombre. Sus tubos tienen un estrechamiento capilar y por sus extremidades penetran hilos de platino. La presión no era superior en el primer modelo a un décimo de milímetro de mercurio, llegando en los ulteriores a algunas milésimas de milímetro. Paralelamente al progreso de la técnica del vacío, iniciado desde este momento, se suceden decisivos descubrimientos. Tres hombres, cuyos trabajos se completan, Plücker y Hittorf en Alemania y Crookes en Inglaterra, tienen igual parte en el mérito de haber revelado lo esencial, lo nuevo, en la desconcertante complejidad de los efectos que acompañan a la descarga en el tubo de Geissler: la radiación que emana del electrodo negativo, los rayos catódicos.
Julio Plücker (1801-1868), ilustre geómetra, fue profesor en Berlín y después en Bonn, donde dejó sus investigaciones analíticas para consagrarse al estudio de los espectros en los gases. En sus ensayos se sirvió de tubos de Geissler; al establecer una diferencia de potencial suficiente entre los electrodos, observó que son arrancadas partículas del electrodo negativo de platino y depositadas sobre el vidrio. Estas partículas, creyó él, vueltas incandescentes por la separación, producen los fenómenos luminosos en el tubo. Su atención fue atraída sobre todo por la fluorescencia del cristal que se ve frente al cátodo durante la descarga. No sin sorpresa, comprobó que un imán es capaz de desplazar la mancha fluorescente. Sus interesantes observaciones, los primeros indicios de la radiación negativa, datan de 1858 y 1859; Plücker se adelantó, pues, a sus rivales; es el descubridor de los rayos catódicos. Parece, sin embargo, que no reconoció la importancia de su hallazgo; absorbido por sus estudios espectroscópicos, dejó a otros la exploración del dominio que él había abierto.
Guillermo Hittorf (1824-1914), alumno de Plücker en Bonn, su ciudad natal, fue a los veintitrés años profesor en Münster, en una pequeña Universidad de tercera categoría, donde permaneció durante toda su vida. Su aislamiento, lejos de los grandes centros científicos, y más aún la marcada aridez de sus publicaciones, fueron la causa de que sus notables resultados no pudieran despertar todo el interés que merecían. Continuó y completó los estudios de Faraday sobre electrólisis, investigó la conductibilidad eléctrica de las llamas y, sobre todo, exploró las características de los rayos catódicos.
Hittorf observa en 1869 que en un tubo geissleriano con cátodo puntiforme, la parte de la pared donde aparece la mancha fluorescente, se encuentra en el lado opuesto al cátodo; coloca un cuerpo sólido entre el cátodo y la mancha, viendo dibujarse una sombra sobre el cristal. La sombra revela, pues, reconoce Hittorf, la propagación rectilínea de los rayos. Cuando elige una ampolla geissleriana con cátodo, no puntiforme, sino esférico cóncavo, descubre que el flujo catódico, en oposición a los rayos luminosos, no parte en todas direcciones, sino sólo perpendicularmente a la superficie de emisión. Los rayos se juntan, observa Hittorf, en el centro de curvatura del cátodo. Coloca en este centro trozos metálicos, y nota que los rayos calientan a los cuerpos que chocan. Por último, evidencia que bajo la influencia de un imán, cuyas líneas de fuerza son perpendiculares a los rayos, éstos se enrollan en volutas helicoidales. El investigador inglés C. F. Varley (1871) concibe la desviación magnética del flujo catódico como índice de que consiste en partículas del cátodo cargadas negativamente, y el sabio alemán E. Riecke reúne (1881) argumentos teóricos, mostrando que los corpúsculos de carga negativa se comportan en un campo magnético análogamente a los rayos catódicos en la experiencia de Hittorf. Los rayos serían, pues, de naturaleza corpuscular. La hipótesis de Varley y Riecke tropieza, sin embargo, con la objeción de Wiedemann y Hertz (1883). Los rayos catódicos se difunden, como Hertz demuestra, a través de delgadas hojas translúcidas. Hertz, creyendo que los corpúsculos no podían ofrecer tal comportamiento, concluye que los rayos catódicos son, al igual que la luz, ondulaciones del éter. Una larga discusión se inicia; la opinión de Hertz prevalece entre los físicos de Alemania, en tanto que los corpusculistas ven su causa defendida en Inglaterra por Crookes.
Guillermo Crookes (1832-1919) comienza su carrera como químico en Londres y se destaca en 1861 con el descubrimiento, por medio del análisis espectral, del elemento talio. Un laboratorio mucho mejor provisto que el de Hittorf está a su disposición. Perfecciona los tubos geisslerianos, disminuyendo la presión del gas encerrado y somete a nuevas pruebas la descarga todavía misteriosa. Con una serie de elegantes experimentos, varía los ensayos de Hittorf y establece los efectos térmicos del tubo catódico. Hace ver que el platino y el osmio expuestos al impacto catódico se vuelven incandescentes y el vidrio de la ampolla sometido largo tiempo al bombardeo de los rayos termina por ser perforado. Crookes admite que el gas rarificado del tubo constituye un «cuarto estado de la materia», el estado radiante, y cree haber alcanzado el terreno fronterizo donde «materia y fuerza se confunden». Para explicar los fenómenos de descarga, Crookes acude al libre camino de las moléculas, considerablemente alargado en el ambiente rarificado. El espacio sombrío en torno del cátodo corresponde, asegura, al libre camino medio de las moléculas en el gas diluido; en sus límites, donde las moléculas chocan entre sí, comienza el resplandor positivo. Éste no puede formarse si la rarefacción ha progresado a tal punto que el camino libre se extienda de un electrodo al otro. Entonces las partículas proyectadas por el cátodo se lanzan rectilíneamente hasta las paredes del tubo, sin respeto al emplazamiento del ánodo.
La teoría de Crookes contenía una pequeña parte de verdad: subrayaba la naturaleza corpuscular de los rayos, mas la suposición de que el flujo catódico está constituido por las moléculas electrizadas del gas residual, rechazadas por el cátodo, fue reconocida como inadmisible en el momento en que José Juan Thomson llegó a medir la velocidad y la carga específica de los corpúsculos catódicos.
José Juan Thomson (1856-1940), experimentador de genio, que aumentó con sus resonantes éxitos la fama del laboratorio de Cavendish, llegó en 1894, después de muchos y vanos ensayos, a medir la velocidad del flujo catódico, con ayuda de un espejo giratorio. Estableció que la velocidad de las partículas depende de la tensión existente entre los electrodos de la ampolla, siendo proporcional a su raíz cuadrada. El valor encontrado con sus experiencias fue del orden de 10.000 kilómetros por segundo; por consiguiente, más débil que la velocidad de la luz y enormemente superior a la de las moléculas de un gas. Ni Hertz ni Crookes tenían razón: el flujo catódico no es ni vibración de éter, análoga a la luz, ni lluvia de moléculas proyectada por el cátodo. Sin duda, las partículas del flujo llevaban cargas negativas. El físico francés Juan Perrin suministró al año siguiente la prueba directa, introduciendo en la ampolla un cilindro metálico, unido a un electrómetro, y vio a éste acusar una carga negativa. Mas ¿cuál era la naturaleza de las partículas del flujo? Thomson dio la respuesta en 1897. Midió el cociente de la carga de la partícula por su masa, recurriendo a la desviación que los proyectiles catódicos sufren en un campo magnético y en otro eléctrico. El valor del cociente e/ m evidenció con claridad que en una partícula catódica la carga elemental, la del ion monovalente, está ligada a una masa casi dos mil veces inferior a la de un átomo de hidrógeno. Así, la carga específica reveló ser igual a la de los corpúsculos eléctricos elementales, cuya existencia habíase manifestado en el fenómeno Zeeman; en el flujo catódico volvemos a encontrar —tal es la conclusión capital de Thomson— electrones en estado libre.
Entretanto, el físico alemán Goldstein completó con una interesante observación el conocimiento de los fenómenos de descarga en los gases rarificados. Al variar los experimentos de Hittorf, se valió de una ampolla con cátodo perforado y descubrió en 1886, en el espacio situado detrás del cátodo, rayos de una nueva especie que llamó rayos canales, para recordar el modo de obtención. En razón de su carga, los rayos de Goldstein son desviables por campos eléctricos y magnéticos. La desviación fue medida por Guillermo Wien (1897); el valor del cociente e/m dio esta vez a entender que los rayos se componían de partículas positivas, con masas en mucho superiores a las de los corpúsculos catódicos, comparables a las de átomos y moléculas. Mientras que estos resultados, por reveladores que fuesen, sólo despertaron el interés de un reducido círculo de especialistas y dejaron indiferentes aun a la mayoría de los físicos, sobrevino en 1895 un descubrimiento que atrajo poderosamente la atención del mundo entero.
Hertz había demostrado que delgadas láminas metálicas son transparentes para los rayos catódicos; su asistente Felipe Lenard dotó a la ampolla geissleriana de una ventanilla de aluminio, permeable al flujo catódico, que permite estudiar su difusión en el aire libre.
Los rayos producen en el aire —comprobó Lenard— ozono, y son muy absorbibles por la materia; una placa de cuarzo con medio milímetro de espesor basta para detenerlos. Lenard encontró que las placas fotográficas, aunque protegidas de la luz por una envoltura, aparecían borrosas al ser colocadas en la proximidad del tubo. Parecía como si los tubos emitieran rayos que penetrasen a través de las cubiertas. En este momento Lenard estuvo a un paso de un descubrimiento que hubiera podido ser el mayor de su vida; mas, por desgracia, en lugar de discernir lo esencial, creyó que sus experiencias aportaban las pruebas de que los rayos catódicos son vibraciones del éter y se perdió en falsas conjeturas teóricas (1). El hombre que asió lo nuevo ofrecido a los clarividentes por los rayos de Lenard, fue Röntgen.

28.jpg
Guillermo Conrado Röntgen

Guillermo Conrado Röntgen (1845-1923), el primer físico laureado con el premio Nobel, había fracasado en sus estudios en el colegio secundario y no le resultó fácil ingresar como estudiante en la Escuela Politécnica de Zurich. Ayudante del inventivo experimentador Kundt en Zurich, más tarde profesor en Estrasburgo, en Giessen y, por último, en Würzburgo, realizó aquí el descubrimiento que había de inmortalizar su nombre. Demasiado se ha insistido sobre el carácter casual de su trascendental hallazgo y se olvidó que tales azares no se presentan más que a aquellos que saben buscar, y escapan a los demás; el ejemplo de Lenard lo prueba.
Röntgen envolvió la ampolla provista de una ventanilla de Lenard con un cartón negro, eliminando de este modo todos los rayos visibles y ultravioletas. Había oscurecido el laboratorio y vio que una pantalla de platino-cianuro de bario, colocada en la proximidad del tubo, se iluminó cada vez que la descarga se producía en el tubo. Se convenció de que el flujo, que llamó rayos X, no es emitido por la superficie entera de su ampolla, sino por la porción de ésta donde el interior de la pared del cristal es golpeado por los rayos catódicos. Logró mostrar que los rayos X se producen a partir de los obstáculos alcanzados por el flujo catódico. Comprobó que el campo magnético no tiene acción sobre sus rayos. Los dirigió sobre un electroscopio cargado y vio caer las hojas: los rayos X anulan, pues, las cargas y vuelven al aire conductor. Röntgen patentizó que sus rayos se comportan, desde el punto de vista de la refracción y de la reflexión, de otra manera que los catódicos y evidenció, sobre todo, su poder de penetración a través de diferentes sustancias opacas para la luz. Reconoció que la absorción de sus rayos es más intensa en elementos con peso atómico alto que en aquellos con átomos livianos. La sensación que despertó la primera comunicación de Röntgen, hecha en diciembre de 1895, alcanzó su culminación cuando iluminó el 23 de enero de 1896, públicamente, el interior de una mano, la del famoso histólogo de la Universidad de Würzburgo, Alberto Kölliker. Gracias a la desigual transparencia ofrecida por los tejidos orgánicos a los rayos X, se abrieron a la medicina insospechadas perspectivas, cuyos alcances entrevió Röntgen mismo desde sus primeros experimentos.
Por el contrario, la naturaleza física de los rayos permaneció largo tiempo en el misterio. El inglés Stokes, el alemán Wiechert, los holandeses Haga y Wind, sugirieron hacia 1899 la hipótesis de que los rayos X serían vibraciones electromagnéticas, excitadas en el seno de la materia por los impactos catódicos, y poseerían longitudes de ondas varios millares de veces más cortas que las de la luz visible. Mas hubo que esperar hasta 1912, año en que los alemanes Laue, Friedrich y Knipping lograron difractar los rayos X con ayuda de retículos cristalinos y convirtieron en certeza su sospechada naturaleza ondulatoria.

29.jpg
Luis Boltzmann

El año 1895, que vio el descubrimiento de Röntgen y la aparición de la teoría electrónica de Lorentz, es una memorable fecha en la historia de la física. Con estos dos acontecimientos se instaura una época nueva por completo. La creencia, compartida por muchos sabios en la última década del siglo, de que la era de los decisivos hallazgos había pasado y que la física sería más o menos un libro cerrado, fue desmentida, desde las proezas de Röntgen y Lorentz, por una larga serie de sorprendentes hechos, que se sucedieron uno tras otro con vertiginoso ritmo, conduciendo la investigación hacia eriales nunca hollados en el pasado. Unos meses después del descubrimiento de Röntgen, Enrique Becquerel revela en París la existencia de rayos naturales, emitidos por sales de uranio, y los esposos Pedro y María Curie llegan a aislar en 1898 la prodigiosa sustancia que es el radio. El glóbulo inerte e indivisible, el átomo daltoniano, yace desde entonces en los campos de la historia; en su lugar aparece un complejo sistema, dotado de enorme energía, de la cual los proyectiles lanzados por los átomos radiactivos dan a los investigadores asombrosas pruebas. Experimentos con rayos radiactivos llevan a Ernesto Rutherford a su modelo nuclear del átomo. Ya antes Planck había introducido el nuevo concepto de la discontinuidad en los cambios energéticos y Einstein había deducido de la constancia de la velocidad de la luz la relatividad de la longitud y de la duración. Nace una impetuosa corriente de observaciones, experimentos, especulaciones y teorías bajo el signo de la relatividad y, más aún, bajo el de la revolucionaria noción del cuanto. La nueva física da su primer paso.
Estupenda es la riqueza de los nuevos hechos que las cuatro últimas décadas han revelado, admirable la eficacia de los conceptos novecentistas en la descripción cada vez más exacta del mundo físico. Su superioridad sobre la física clásica es incontestable. Sin embargo, por profunda que sea nuestra admiración frente a los arquitectos de la ciencia innovada, siempre ocurre que su obra descansa sobre los cimientos echados por los creadores de la ciencia clásica, los hombres ilustres cuyas inolvidables hazañas llenan la magna crónica de los tres siglos transcurridos entre Galileo y Röntgen.
Lenard es un clásico ejemplo de que la estrechez de espíritu es compatible con la ciencia. Intolerante y campeón de la idea de la superioridad de la «raza» alemana, escribió en su vejez una Física alemana (Deutsche Physik), que en interés de la reputación científica de su autor, nunca debió ser publicada. En su libro histórico Grandes investigadores (Grosse Naturforscher, Münich, 1929), desconoce el mérito de Röntgen, no menciona el nombre de Alberto Einstein y atribuye una parte de los descubrimientos de este último (la igualdad E = mc2), al físico vienés Federico Hasenöhrl.

Apéndices
Selección de textos clásicos

Físicos del Siglo XVII
Galileo Galilei
La caída libre

Después de haber descrito el movimiento uniforme y definido luego el movimiento acelerado, Galileo sigue haciendo dialogar a los tres personajes de su obra: Sagredo, Salviati y Simplicio[37]

Sagredo. —Imaginemos un cuerpo pesado que comienza a moverse, partiendo del reposo completo, de manera tal que la velocidad, desde el primer instante, crezca como el tiempo; y que en ocho pulsaciones el cuerpo haya adquirido 8 grados de velocidad, de los cuales tenía sólo 4 en la cuarta pulsación, 2 en la segunda y 1 en la primera: de esto se deducirá —como el tiempo es divisible sin fin— que si pensáramos las velocidades anteriores reducidas proporcionalmente, no habría velocidad, por pequeña que fuese (o mejor dicho, lentitud, por grande que fuese), a través de la cual el cuerpo no debiera haber pasado desde su salida del reposo. Si con la velocidad adquirida en cuatro pulsaciones (si cesara de aumentar) hubiera recorrido 2 millas en una hora, y 1 milla en una hora con la velocidad adquirida en dos pulsaciones, es menester afirmar que en instantes muy cercanos al principio de su movimiento, este movimiento debe de haber sido tan lento que (si conservara esta velocidad) el cuerpo no habría recorrido 1 milla ni en una hora, ni en un día, ni en uno o mil años y que aun en más tiempo, no se habría movido ni siquiera un dedo: un fenómeno que difícilmente podemos seguir con nuestra fantasía, pues nuestros sentidos nos enseñan que un cuerpo pesado adquiere en seguida gran velocidad.
Salviati. —Esta misma dificultad me ha dado que pensar al principio, pero pronto la he superado. Esto lo conseguí con el mismo ejemplo que usted acaba de mencionar. Usted dijo que el cuerpo, inmediatamente después de salir del estado de reposo, tiene una velocidad considerable. Y yo digo que este mismo ejemplo me enseña a reconocer que, al principio, el movimiento de un cuerpo, por pesado que sea, es muy lento. Poned un cuerpo pesado sobre una base; ésta cede, hasta que es comprimida con todo el peso. Ahora se entiende que, si levantamos el cuerpo 16 2 varas y lo dejamos caer sobre la misma base, al chocar se originará una presión nueva y más fuerte que la de antes por el peso solo. Y el efecto será causado por el cuerpo que cae, es decir, por su peso en combinación con la velocidad adquirida en la caída. Y el efecto será tanto más grande cuanto mayor sea la altura de que el cuerpo cae; es decir, cuanto mayor sea su velocidad al chocar. Ahora bien: la velocidad de un cuerpo que cae, cualquiera sea ella, puede ser determinada con seguridad por la clase e intensidad del choque. Pero decidme, señores, si un martillo, que cae desde 4 varas de altura, golpea sobre un palo, introduciéndolo unos cuatro dedos dentro de la tierra, éste mismo, cayendo desde 2 varas de altura ¿no le moverá menos, y menos todavía desde 1 vara de altura y también desde un palmo de altura? y finalmente, si el martillo cae un solo dedo, ¿qué más hará que si uno lo hubiera colocado sobre el palo sin golpear? Muy poco, por cierto, y el efecto sería completamente invisible si el martillo hubiera sido levantado el espesor de una hoja. Ahora, si el efecto del golpe depende de la velocidad adquirida, ¿quién dudará que cuando el efecto es invisible, el movimiento es muy lento, y más que pequeña la velocidad? Aquí se ve el poder de la verdad, pues el mismo ejemplo que a primera vista parecía demostrar cierta opinión, nos enseña lo contrario al estudiarlo más de cerca. Pero me parece que tal verdad también se puede reconocer por una simple reflexión y sin apelar a tal ejemplo (que es, sin duda, muy convincente). Imaginémonos una piedra pesada en el aire en estado de reposo. Sacándole el apoyo, se le da libertad de movimiento; como es más pesada que el aire, cae hacia abajo, y no con movimiento uniforme, sino despacio al principio y luego cada vez más aceleradamente; y como la velocidad puede ser aumentada o disminuida sin límites, ¿qué podría hacerme suponer que tal cuerpo, que empieza con lentitud infinita (pues esto es la inmovilidad) adquiera de golpe 10 grados de velocidad antes que 4, o estos 4 antes que 2, ó 1, o medio, o un centésimo, o uno cualquiera de los otros infinitos grados más pequeños de velocidad que todavía existen?
Escuchen, por favor. No creo que ustedes tendrán inconveniente en admitir que la adquisición de velocidad de la piedra que cae partiendo del reposo, pueda suceder en el mismo orden que la disminución y pérdida de aquellos grados de velocidad si la piedra hubiera sido arrojada hacia arriba, por una fuerza impulsora, hasta la misma altura; pero si ello es así, me parece indudable que, disminuyendo la velocidad de la piedra que sube, como esta velocidad al final está completamente anulada, la piedra no puede llegar a la inmovilidad antes de pasar a través de todos los grados de lentitud.
Simplicio. —Pero si los grados de lentitud cada vez mayor y mayor son infinitos en número, nunca se agotarán por completo; por eso tal cuerpo pesado que sube nunca podría llegar al reposo, sino que deberá moverse durante infinito tiempo, retardándose siempre, lo que no coincide con la realidad.
Salviati. —Así ocurriría, señor Simplicio, si el cuerpo se moviera, con cada grado de velocidad, durante algún tiempo. Pero sale de cada grado en seguida, sin demorarse en él más que un instante; y como en cada intervalo de tiempo, por más pequeño que sea, hay infinidad de instantes, éstos serán sin duda suficientes para corresponder a los infinitos grados de velocidad decreciente. Por otra parte, que un cuerpo en ascenso no permanece en ningún grado de velocidad durante un tiempo finito, se puede demostrar también de la manera siguiente: suponiendo que ello ocurriera durante un tiempo finito, el cuerpo en cuestión tendría, tanto en el primer instante de un tal intercalo, como en el último, el mismo y único valor de la velocidad, y ascendería, a partir de este segundo valor, exactamente en la misma forma que desde el primer valor hasta el segundo, y por la misma razón llegaría desde el segundo valor al tercero, y, por lo tanto, permanecería en movimiento uniforme hasta el infinito.
Sagredo. —A base de esta reflexión, me parece que podría llegarse a una solución bastante correcta de un problema discutido por los filósofos, a saber, cuál es la causa de la aceleración en el movimiento natural de los cuerpos pesados. Pues veo que en el cuerpo arrojado hacia arriba, la fuerza (virtii) comunicada al principio disminuye sin cesar y eleva constantemente al cuerpo, hasta que adquiere el mismo valor que la gravedad, que actúa en sentido opuesto, y una vez que las dos fuerzas han llegado al equilibrio, el cuerpo cesa de subir y llega al estado de reposo; en éste, el impulso comunicado al cuerpo está anulado solamente en el sentido de que se ha consumido el excedente que al principio superaba el peso del cuerpo y originaba el ascenso del mismo. Mientras ahora la disminución de este impulso exterior continúa, y más tarde se rompe el equilibrio a favor de la gravedad del cuerpo, empieza el descenso, pero muy despacio en contra del impulso comunicado, del cual gran parte queda todavía en el cuerpo; pero como éste disminuye constantemente, como la gravedad predomina cada vez en mayor grado, se origina de esta manera la constante aceleración del movimiento.
Simplicio. —Este pensamiento es sagaz, pero más bien pensado que sólido (saldo). Pues lo que en él parece correcto, corresponde solamente a aquel movimiento natural que ha sido precedido por un movimiento impetuoso y en el cual queda todavía gran parte del impulso exterior; pero donde no existe un tal remanente, sino que más bien el cuerpo se mueve desde un reposo que preexiste durante largo tiempo, aquella reflexión ha perdido su valor.
Sagredo. —Creo que está usted en un error y que la distinción que usted hace es superflua, o mejor, es nula. Pues dígame: ¿no puede un cuerpo arrojado hacia arriba tener mucho o poco impulso, de manera que pueda subir hasta 100 varas, ó 20, ó 4, ó 1?
Simplicio. —Eso es indudable.
Sagredo. —De modo que la fuerza comunicada puede superar tan poco a la resistencia de la gravedad que el cuerpo suba solamente el ancho de un dedo; finalmente, el impulso comunicado puede tener un valor tal que sea exactamente igual a la resistencia de la gravedad; de manera que el cuerpo no sube, sino que sólo queda sostenido. Pues si usted sostiene una piedra, ¿qué otra cosa hace sino impulsarla hacia arriba con la misma fuerza que la gravedad la atrae hacia abajo?, ¿y no mantiene usted siempre esa misma fuerza durante todo el tiempo que sostiene el cuerpo en la mano? ¿Acaso disminuye en todo este tiempo? Pero ¿qué diferencia hay si este apoyo que impide que la piedra caiga, proviene de su mano, o de una mesa, o de una cuerda de la cual la piedra está colgada? Seguramente ninguna. Pues de esto resulta, señor Simplicio, que no importa para nada que la caída esté precedida por un período de reposo corto o largo, o tan sólo instantáneo; pues la piedra queda inmóvil siempre que el impulso obre, en contra de su gravedad, en la medida que era necesaria para producir el reposo.
(Aquí omitimos algunas consideraciones de los tres interlocutores.)
Sagredo. —Reanudando nuestra discusión, me parece que hasta ahora hemos definido el movimiento uniformemente acelerado, al que se refieren las siguientes investigaciones, de esta manera: «El movimiento uniformemente o igualmente acelerado es aquel cuya velocidad aumenta cantidades iguales en tiempos iguales.» ap01.jpg
Salviati. —Una vez establecida esta definición, nuestro autor considera cierta la siguiente hipótesis: «Las velocidades que un mismo cuerpo adquiere con diferentes inclinaciones de una superficie plana, son iguales si las alturas de estos planos son iguales.» El autor llama «altura de un plano inclinado» a la perpendicular que se puede bajar desde el punto más alto del plano al plano horizontal trazado por los puntos más bajos del plano inclinado. De modo que si BA es paralelo al horizonte (fig. 1), sobre el cual se levantan los planos inclinados CA, CD, la vertical CB, perpendicular a la horizontalBA, se llama altura de los dos planos CA, CD. El autor supone que si el cuerpo se mueve a lo largo de CA, CD, al llegar a A y D tendrá igual velocidad, porque tienen la misma altura CB, y que la velocidad es igual a la que el cuerpo habría adquirido en la caída libre desde C hasta B.
Sagredo
. —En verdad, esta hipótesis me parece tan probable, que debería ser admitida sin discusión, a condición de que se hayan eliminado todas las perturbaciones casuales y ajenas, y que el cuerpo tenga la redondez más completa; en pocas palabras, que cuerpo y superficie estén libres de cualquier aspereza. Si se eliminan todos los obstáculos, mi sentido común me dice que un palo pesado, completamente redondo, que cayera a lo largo de las líneas CA, CD, CB, llegaría a A, D, B con velocidades iguales.
Salviati. —Ustedes encuentran esto muy probable; pero aparte de la probabilidad, les multiplicaré en tal forma los argumentos, que casi lo deberán reconocer como forzoso. Supongamos que esta hoja sea una pared levantada sobre una superficie horizontal, y que de un clavo introducido en ella cuelgue una bola de plomo de 1 ó 2 onzas de peso, por medio de un hilo delgado AB (fig. 2) de 2 ó 3 varas de largo. Sobre la pared marquemos una línea horizontal DC, perpendicular al hilo AB, el cual diste más o menos dos dedos de la pared. Si se lleva el hilo AB con la bola hasta AC, y se suelta la bola, ésta, cayendo, describirá el arco CBD, pasando por el punto B con tal velocidad que subirá, recorriendo el arco BD, casi hasta la horizontal CD, faltándole un trozo muy pequeño, pues la resistencia del aire y del hilo le impiden la vuelta exacta. De ahí podemos deducir con seguridad que la velocidad que la bola, al caer a lo largo del arco CB, ha adquirido en el punto B, es suficiente para levantarla, recorriendo un arco igual BD, hasta igual altura. Después de hace* esta prueba repetidas veces, introduzcamos en la pared otro clavo en E o enF, que sobresalga cinco o seis dedos, para que el hilo AC, cuando llegue de nuevo con la bola hasta CB y haya alcanzado el punto B, sea detenido por el clavo E, y la bola esté obligada a describir el arco BO alrededor del centro E ; con esta prueba veremos lo que es capaz de hacer la misma velocidad que antes levantaba el mismo cuerpo hasta el horizontal GD a lo largo del arco BD. Ahora, señores, ustedes verán con placer que la bola alcanza otra vez la horizontal en el punto O ; y lo mismo sucede si el obstáculo está más bajo, por ejemplo en F ; en este caso la bola describe el arco BJ, subiendo siempre hasta la horizontal GD, y si el clavo obstaculizador estuviera tan bajo que el resto del hilo no pudiera ya llegar a la horizontal (lo que sucede evidentemente cuando el clavo está más cerca de B que de la intersección de AB con CD ), el hilo enlazaría el clavo. Este experimento no permite ninguna duda con respecto a la verdad del teorema enunciado.

ap02.jpg

Pues, como los arcos CB, DB son iguales y están colocados simétricamente (símilmente), el momento adquirido al caer a lo largo del arco CB será igual al efecto a lo largo del arco DB ; pero el momento adquirido en B, producido a lo largo de CB, consigue levantar el mismo cuerpo a lo largo del arco BD. Como consecuencia, también el momento producido al caer a lo largo de DB será igual al que antes podía mover el mismo cuerpo de B a D ; de manera que, en general, cualquier momento producido al caer es igual al que puede levantar el cuerpo a lo largo del mismo arco: pero todos los momentos que eran capaces de levantar el cuerpo a lo largo de los arcos BD, BG, BJ, son iguales, ya que siempre eran originados por la caída a lo largo de CB. En consecuencia, también son iguales todos los momentos producidos por la caída a lo largo de los DB, GB, JB.
Sagredo. —Esta explicación resulta tan consecuente, y el experimento es tan apto para comprobar la afirmación, que ésta debe considerarse como demostrada.
Salviati. —Yo creo, señor Sagredo, que no debe preocuparnos el hecho de que queramos aplicar nuestra teoría al movimiento sobre planos, y no sobre superficies curvas, en las cuales la aceleración aumenta en grados completamente diferentes a los que suponemos en superficies planas. Aun cuando nuestro experimento nos enseña que la caída a lo largo del arco GB da al cuerpo un impulso tal que éste puede ser levantado hasta la misma altura a lo largo de cualquier arco BD, BG, BJ, no podemos mostrar con la misma evidencia que igual sucederá si una bola absolutamente perfecta cae a lo largo de superficies planas, inclinadas como las cuerdas de estos mismos arcos. Al contrario, es probable que, como estos planos forman ángulo en el punto terminal B, la bola, después de la caída a lo largo de la cuerda GB, sufra una resistencia de la superficie al subir a lo largo de las cuerdas BD, BG, BJ, por lo cual perderá una parte del impulso al chocar, de manera que no podría llegar ya a la horizontal GD. Si se eliminara el obstáculo que dificulta el experimento, me parece bien comprensible que el impulso (que en sí lleva el efecto de toda la fuerza de caída) debería alcanzar para levantar el cuerpo a la misma altura. Por ahora tomaremos esto como postulado; la certeza absoluta la encontraremos más tarde, cuando veamos que las consecuencias de tal hipótesis se verifican y coinciden exactamente con la experiencia. El autor, después de postular este principio, llega a rigurosas conclusiones, la primera de las cuales va a continuación. ap03.jpg

Teorema I. Proposición I
«El tiempo que un cuerpo emplea en recorrer cierto camino, partiendo del reposo, con movimiento uniformemente acelerado, es igual al tiempo en que este camino sería recorrido por el mismo cuerpo con un movimiento uniforme cuya velocidad fuera igual a la mitad del último y más alto valor que tenía en aquel primer movimiento uniformemente acelerado.»
Representemos los valores de la velocidad, que va creciendo paulatinamente en cada uno de los instantes del tiempo AB (figura 3) con segmentos perpendiculares a AB (el último es EB ). Si trazamos AE y varias líneas equidistantes paralelas a EB, éstas representarán los valores crecientes de la velocidad. Por el punto medio de EB tracemos FG paralela a BA, y GA paralela a FB. El paralelogramo AGFB será igual al triángulo AEB, ya que el lado GF pasa por J, punto medio de AE. En efecto, si sé prolongan hasta GF las paralelas del triángulo AEB, la suma de todas las paralelas contenidas en el rectángulo será igual a la suma de las contenidas en el triángulo AEB ; pues lo que está en JEF es igual a lo contenido en GJA y mientras que el trapecio AJFB es común a ambos. Además, como a cada instante de AB le corresponde una línea y todas las paralelas trazadas por los diferentes puntos de AB dentro de AEB representan los valores crecientes de la velocidad, mientras que las mismas paralelas contenidas en el rectángulo representan igual número de valores de velocidad uniforme, resulta claro que la totalidad de los valores de la velocidad en el movimiento acelerado están representados por las paralelas crecientes deAEB, y para el movimiento uniforme por las del rectángulo A GFB. Puesto que lo que les falta a los valores de la velocidad en la primera parte del movimiento (es decir los valores de AGJ ) está compensado por los valores de JEF. Por lo tanto, dos cuerpos recorrerán el mismo espacio en el mismo tiempo, si uno de ellos parte del reposo con movimiento uniformemente acelerado, y el otro con una velocidad uniforme igual a la mitad del valor máximo alcanzado en el movimiento acelerado, como queríamos demostrar.

Teorema II. Proposición II
«Cuando un cuerpo que parte del reposo cae con movimiento uniformemente acelerado, los espacios recorridos en tiempos determinados están entre sí como los cuadrados de los tiempos.»ap04.jpg Representemos con la línea AB (fig. 4) el transcurso del tiempo a partir del instante A, en la cual hemos imaginado dos pequeños intervalos AD y AE ; sea HJ el camino recorrido por el cuerpo con aceleración uniforme desde el punto de reposo H ; sea además HL el camino recorrido en el primer intervalo AD, y HM en el intervalo AE. Demostraré que los espacios MH y HL están entre sí como los cuadrados de los tiempos EA y AD. Tracemos AG formando un ángulo cualquiera con AB ; por los puntos D, E, tracemos las paralelas DO, EP, y sea DO la velocidad final (maximus gradúa velocitatis) en el instante D ; análogamente, sea PE la velocidad final en el instante final E del intervalo AE. Como ya demostramos que son iguales los espacios recorridos con movimiento uniformemente acelerado y con movimiento uniforme con la mitad de la velocidad final, es evidente que los espacios MH y LH tienen el mismo valor que los recorridos con movimientos uniformes de velocidades 1 /2 PE y 1 /2 OD en los tiempos EA y DA. Si se pudiera demostrar ahora que los espacios MH y HL están entre sí como los cuadrados de EA y DA, el teorema estaría demostrado. Pero en el cuarto teorema del primer libro se demostró que en el movimiento uniforme la razón de los espacios es igual al producto de la razón de las velocidades por la razón de los tiempos: pero aquí las velocidades están entre sí como los tiempos (pues 1 /2 PE es a x/2OD, como PE es a OD, como AE es a AD ); por lo tanto, los espacios están entre sí como los cuadrados de los tiempos, como queríamos demostrar.
De aquí se deduce que los espacios están entre sí como los cuadrados de las velocidades finales, es decir, de PE y OD, puesto que PE es a OD como EA es a DA.

Corolario I
«De lo que precede se deduce que si se toman, a partir del punto inicial del movimiento, intervalos iguales de tiempo, como AD, DE, EF, FO, durante los cuales se recorren los espacios HL, LM, MN, NJ, estos últimos están entre sí como los números impares; es decir, como 1, 3, 5, 7... Pues éste es el valor que tiene la razón de los excesos de los cuadrados de líneas que difieren lo mismo entre sí y cuyos aumentos son iguales a la menor de las líneas: en otras palabras, de la diferencia de los cuadrados de todos los números a partir de 1. Por lo tanto, mientras que en tiempos iguales la velocidad crece como la serie de los números naturales, los espacios recorridos en cada uno de estos tiempos están entre sí como los números impares.»
(Sigue una observación de Sagredo, que omitimos.)
Simplicio. —Realmente me ha gustado más la reflexión simple y clara del señor Sagredo que la demostración de nuestro autor, para mí un poco oscura; de manera que estoy firmemente convencido de que el fenómeno debe ser así, pero solamente a condición de que sea admisible la definición del movimiento ^uniformemente acelerado. Sin embargo, todavía dudo de que la aceleración de la cual la naturaleza se sirve en la caída de los cuerpos sea de esta clase; y por eso yo y otros que piensan como yo juzgaríamos muy conveniente realizar ahora alguno de los experimentos que deben coincidir con las demostraciones, de los cuales se dice que hay tantos.
Salviati. —En efecto: ustedes, como hombres de ciencia, hacen una petición justificada, y así debe ser en todas las disciplinas de la ciencia en que se aplican demostraciones matemáticas a fenómenos naturales; así se ve en todos aquellos que se ocupan de perspectiva, astronomía, mecánica, música y demás; todos ellos consolidan sus principios por medio de experimentos, y éstos forman el fundamento de toda la construcción posterior. No juzguemos superfluo el haber tratado muy detalladamente este primer y fundamental objeto, sobre el cual está basado el inmenso campo de innumerables conclusiones, de las que una pequeña parte es tratada por nuestro autor en el presente libro; ya es bastante que haya abierto la entrada y la puerta hasta ahora cerrada a los espíritus especulativos. El autor no ha dejado de hacer experimentos, y para convencerme de que el movimiento uniformemente acelerado se efectúa en las condiciones antes mencionadas, he procedido repetidas veces, acompañado por nuestro autor, de la siguiente manera: Sobre una regla, o digamos sobre una tabla de madera de 12 varas de largo, media vara de ancho y 3 pulgadas de espesor, en esta última parte angosta, se había labrado una ranura de poco más de 1 pulgada de ancho. Ésta se había trazado bien recta, y, para que su superficie fuese muy lisa, se había pegado en la parte interior un pergamino muy liso y puro; sobre esta ranura se hizo correr una bola de latón, durísima, perfectamente redonda y pulida. Dispuesta la madera, ésta se levantaba de un lado, unas veces 1 vara, otras veces 2 varas; después se hacía caer la bola a lo largo de la ranura y se media el tiempo de caída para todo el recorrido en la forma que se describirá en seguida: repetimos muchas veces el mismo experimento, para averiguar exactamente el tiempo, y no encontramos ninguna diferencia, ni siquiera de un décimo de pulsación. Luego hacíamos recorrer a la bola solamente un cuarto del espacio, encontrando siempre exactamente la mitad del tiempo de caída anterior. Después elegimos otros espacios, comparando el tiempo de caída encontrado con el últimamente obtenido, y con los de dos tercios o tres cuartos o cualquiera otra fracción. Repitiendo esto unas cien veces, encontramos siempre que los espacios están entre sí como los cuadrados de los tiempos: y esto valía para cualquier inclinación del plano, es decir, de la ranura, en la cual corría la bola. Al mismo tiempo encontramos también que los tiempos de caída observados para varias inclinaciones se relacionaban entre sí exactamente en la misma forma que el autor enuncia y demuestra más adelante. Para medir el tiempo, dispusimos un balde lleno de agua en cuyo fondo se había colocado un angosto canal a través del cual fluía un fino chorro de agua, el cual era recogido en un pequeño vaso, durante cada uno de los tiempos de caída observados: el agua recogida de esta manera se pesaba en una balanza muy exacta; de las diferencias de las pesadas obteníamos las relaciones de los pesos y las relaciones de los tiempos, con tal exactitud, que las numerosas observaciones nunca diferían entre sí de manera apreciable ( di un notabile momento ).
Simplicio
. — ¡Cómo me hubiera gustado asistir a estos experimentos! Pero estoy convencido del esmero y la fidelidad del relato de ustedes, me doy por satisfecho y los acepto como completamente seguros y verdaderos.
Salviati. —Pues entonces podemos reanudar nuestra lectura y continuar.

Corolario II
«En segundo lugar se deduce que si desde el punto inicial del movimiento se toman dos espacios cualesquiera, que han sido recorridos en dos tiempos cualesquiera, estos tiempos estarían entre sí como uno de los espacios a la media proporcional de ambos espacios. En efecto: tomemos desde el punto inicial S (fig. 5) dos espacios ST, SY reconstruyamos ap05.jpg luego su media proporcional SX ; entonces el tiempo de caída para ST será al tiempo de caída para SY, comoST es a SX; en otras palabras, el tiempo paraSY será el tiempo para ST, como SY es a SX. Puesto que, como hemos demostrado, los espacios están entre sí como los cuadrados de los tiempos, y puesto que la razón de los espacios YS y ST es igual al cuadrado de la razón de YS a SX, es evidente que los tiempos de caída para SY y ST están entre sí como los espacios YS y SX. »

Escollo
Lo que se ha demostrado para la caída vertical, vale también para la caída en planos de cualquier inclinación; en éstos la velocidad aumenta según la misma ley, a saber, según el aumento del tiempo; es decir, como la serie de los números enteros.
Salviati. —Aquí, señor Sagredo, desearía que me permitiese interrumpir brevemente la lección, aun a riesgo de aburrir al señor Simplicio, para poder explicar todo lo que puedo agregar, de memoria, a lo comprobado hasta ahora y de acuerdo con algunas observaciones y conclusiones de nuestro académico, ¿ara mayor confirmación del comportamiento establecido anteriormente por reflexión y experimentos; pues para las pruebas geométricas es importante demostrar un teorema auxiliar elemental de la teoría de los impulsos.
Sagredo. —Si el beneficio es tanto como usted anticipa, ningún tiempo me parece demasiado largo para dedicarlo con mucho gusto a profundizar nuestros conocimientos en la teoría del movimiento: y yo por mi parte no sólo lo apruebo, sino que le ruego con insistencia satisfacer lo más pronto posible mi deseo de saber; creo que también el señor Simplicio opina así.
Simplicio. —Estoy completamente de acuerdo.ap06.jpg
Salviati. Entonces, con permiso de ustedes, consideremos el hecho muy conocido de que las velocidades de un mismo cuerpo son diferentes para distintas inclinaciones del plano, y que la velocidad tiene el máximo valor cuando éste es perpendicular al horizonte; pero que si el plano está inclinado, la velocidad es tanto más pequeña cuanto más se aparta dicho plano de la vertical. Por ello el impulso (Vimpeto), la capacidad (il talento), la energía (Venergía) o digamos la tendencia a caer (il momento del descenderé) resulta disminuido en el cuerpo por el plano sobre el cual se apoya y resbala. Para entender mejor, sea AB (fig. 6) una línea perpendicular al horizonte GA ; démosle luego diferentes inclinaciones, respecto al horizonte, como en AD, AE, AF, etc. Entonces el cuerpo adquirirá el impulso máximo al caer a lo largo de la vertical AB, uno menor a lo largo de DA, menor aún a lo largo de EA y así sucesivamente, menor aún a lo largo de FA, para desaparecer finalmente por completo a lo largo de una horizontal CA, en la cual el cuerpo se hace indiferente tanto para el movimiento como para el reposo, y no tiene de por sí ninguna tendencia a moverse hacia uno u otro lado, como tampoco opone resistencia alguna al movimiento. Puesto que, del mismo modo que es imposible que un cuerpo se mueva por sí mismo hacia arriba alejándose del centro general de gravedad (centro commune), hacia el cual tienden todos los cuerpos pesados, así también es imposible que se mueva de por sí, ya que en un movimiento de esa clase su propio centro de gravedad no se acerca al centro general de gravedad: razón por la cual el cuerpo no recibe ningún impulso sobre la horizontal, que significa aquí una superficie cuyos puntos distan todos lo mismo del centro general de gravedad, y que efectivamente está libre de cualquier inclinación.
Con respecto a esos cambios de los impulsos, quiero citar aquí lo que está detallada y completamente demostrado en un antiguo Tratado sobre mecánica que nuestro académico había escrito ya en Padua para uso exclusivo de sus alumnos. Allí lo hizo al explicar la relación y naturaleza del maravilloso instrumento del tornillo, a saber, en qué relación se produce el cambio de los impulsos, para diferentes inclinaciones de los planos, como, por ejemplo, la de AF, uno de cuyos extremos ha sido levantado a la altura FG. A lo largo de éste la tendencia a caer sería un máximo; ahora buscamos qué relación hay entre esta tendencia y la tendencia a lo largo del plano FA. Yo afirmo que estas tendencias están en razón inversa a las longitudes mencionadas, y ésta es la proposición que quiero dar antes del teorema que se demostrará más adelante. Es evidente que la tendencia de un cuerpo a caer es igual a la resistencia, o a la fuerza más pequeña que es capaz de impedir su caída y mantenerlo en reposo. Para medir esta fuerza, esta resistencia, me valgo del peso de otro cuerpo. Sobre el planoFA descansa el cuerpo G provisto de un hilo que, pasando por F, lleva un peso H. Consideremos ahora que el trayecto de caída vertical de este último siempre será igual a todo el desplazamiento del cuerpo G a lo largo de la oblicua AF, pero no igual al descenso de G en dirección vertical, en la cual el cuerpo G (como cualquier otro) ejerce su presión; pues si consideramos el movimiento de G en el triángulo AFC, en dirección ascendente de A hacia F> éste está compuesto de uno horizontal AG y de uno perpendicular CF, y como al primero no se opone ninguna resistencia, resulta que la resistencia que se opone al movimiento sólo debe ser vencida a lo largo de la perpendicular GF (pues en el movimiento horizontal no se produce ninguna pérdida, ni tampoco se modifica la distancia al centro común de gravedad de todos los cuerpos, ya que ésta permanece constante en un plano horizontal). De modo que como el cuerpo G, en su movimiento de A hacia F, sólo vence la resistencia vertical CF, y porque el cuerpo H cae, siempre verticalmente, el mismo espacio que sobre FA, y porque este comportamiento siempre se mantiene igual en la subida y en la bajada, tanto que los cuerpos se muevan mucho como poco (ya que están atados entre sí), podemos afirmar con razón que si el equilibrio debe mantenerse y los cuerpos deben quedar inmóviles, los momentos, las velocidades o sus tendencias (propensioni) a moverse, es decir, los espacios que recorrerían en igual tiempo, deben estar entre sí en razón inversa a la de sus pesos (de loro gravità), lo que ha sido demostrado para todos los movimientos mecánicos, de tal modo que se alcanza a impedir la caída de G si H pesa tantas veces lo que G como la razón de CF a FA. Si se hace entonces G respecto a H como FA es a FC, se tendrá equilibrio, pues H y G tendrán iguales momentos y permanecerán en reposo. Pero como ya estamos de acuerdo en que el impulso, energía, momento o tendencia al movimiento, de un cuerpo, es igual a la fuerza o a la resistencia más pequeña capaz de mantenerlo en equilibrio, y como además se ha demostrado que el cuerpo H es capaz de impedir el movimiento de G, entonces el peso menor H, que hace actuar todo su momento en dirección vertical, será la exacta medida del momento parcial que el cuerpo mayor G ejerce a lo largo del plano inclinado FA ; pero el momento total de dicho cuerpo G es G mismo (pues para impedir la caída vertical la fuerza contraria tiene que ser tan grande como si el cuerpo estuviera completamente libre); por lo tanto, el impulso o el momento parcial de G a lo largo de FA, será, con respecto al impulso máximo o total de G a lo largo de FC, como el peso H es al peso G, es decir, de acuerdo con la figura, como la altura FC del plano inclinado es al plano FA mismo, que era nuestro enunciado, teorema que, como veremos, es admitido en la segunda parte del sexto problema en esta memoria.
Sagredo. —De lo que usted ha expuesto hasta ahora, me parece que se puede deducir fácilmente, considerando varias proporciones inversas, que los momentos de un cuerpo a lo largo de planos inclinados de diferente inclinación como FA, FJ, pero de igual altura, están en relación inversa a las longitudes de estos planos. ap07.jpg
Salviati. —Completamente exacto. Establecido esto, quiero demostrar ahora el siguiente teorema: «Si un cuerpo cae, con movimiento natural, desde iguales alturas, a lo largo de planos de diferente inclinación, las velocidades al llegar al horizonte son siempre iguales, si se han eliminado todas las resistencias.» Aquí hay que observar primeramente que si consta que el cuerpo, a cualquier inclinación, se mueve desde el reposo con velocidad creciente, o que los impulsos crecen proporcionalmente con el tiempo (de acuerdo con la definición que el autor ha dado del movimiento naturalmente acelerado), entonces también, como se demostró en el teorema anterior, los espacios están entre sí como los cuadrados de los tiempos, y, por lo tanto, también como los cuadrados de las velocidades; y que igual que los impulsos en el movimiento vertical, así también se formarán los valores de la velocidad adquiridos en el otro caso, porque en cada caso las velocidades crecen durante iguales tiempos en iguales proporciones.
Sea AB (fig. 7) un plano inclinado, AG su altura vertical sobre el horizonte, y GB el horizonte; y como acabamos de ver que el impulso de un cuerpo en la vertical AG es al impulso a lo largo de AB, como AB es a AG, tomemos sobre el plano el segmento AD, tercera proporcional entre AB y AG ; el impulso en la dirección AC es al impulso a lo largo de AB o de AD, como AG es a AD ; por lo tanto, el cuerpo llegará hasta AD, a lo largo del plano inclinado, en el mismo tiempo que emplearía para recorrer la perpendicular AG (ya que los aumentos están entre sí como estos segmentos), y las velocidades en G y D estarán entre sí como AG es a AD ; pero la velocidad en B es a la velocidad en D, como el tiempo de caída a lo largo de AB es al correspondiente para AD, de acuerdo con la definición del movimiento acelerado, y el tiempo de caída paraAB es al correspondiente para AD, como AG, medio proporcional entre BA y AD, es a AD (de acuerdo con el último corolario, del segundo teorema) y, por lo tanto, las velocidades en B y en G son a la velocidad en D, como AC es a AD, con lo cual ambas son iguales entre sí; y éste era el teorema que debíamos demostrar.
Ahora podemos demostrar más fácilmente el siguiente tercer teorema del autor, en el cual éste se apoya en el teorema según el cual el tiempo de caída a lo largo del plano inclinado es al tiempo en dirección vertical como la longitud del plano es a la altura. Pues si BA es el tiempo de caída para el espacio AB, el tiempo de caída paraAD será la media proporcional de estos dos valores, o sea igual aAG, según el segundo corolario del segundo teorema; pero si AO es el tiempo de caída para AD, también será el tiempo de caída para AG mismo, de manera que AD, AG son recorridos en tiempos iguales, y si BA es el tiempo de caída para AB, AG será el tiempo de caída para AC ; de modo que el tiempo a lo largo de AB es al tiempo a lo largo de AC como AB es a AC.
Igualmente se demuestra que el tiempo a lo largo de AC es al tiempo de caída a lo largo de un espacio AE con diferente inclinación, como AC es a AE ; por consiguiente, ex aequali, el tiempo de caída a lo largo de AB es al tiempo a lo largo de AE como AB es a AE, etc.
Por igual deducción se podría, como el señor Sagredo comprenderá en seguida, demostrar directamente el sexto teorema del autor; pero dejemos ahora la digresión, que tal vez le habrá parecido a usted demasiado larga, aunque, sin embargo, fue útil en el presente problema.
Sagredo. —Al contrario, ella tiene mi aprobación más completa y sirve en todo para un conocimiento más profundo del tema.
Problema de los proyectiles [38]
Imaginemos una horizontal o un plano horizontal AB (fig. 8), a lo largo del cual se mueve uniformemente un cuerpo.

ap08.jpg

Al final de él falta el apoyo, y el cuerpo, a consecuencia de su peso, está sometido a un movimiento a lo largo de la vertical BN. Imaginemos a AB prolongándose hacia B, y tomemos ciertos espacios iguales BC y CD, DE. Desde los puntos B, C, D, E tracemos líneas paralelas a BN a distancias iguales. Sobre la primera línea, desde C, tomemos un espacio cualquiera C J, sobre la siguiente un espacio cuatro veces mayor DE, luego un espacio nueve veces mayor EH, y así sucesivamente, espacios correspondientes a los cuadrados. Si el cuerpo llegara desde B hastaC con movimiento uniforme, imaginémonos agregado el segmento CJ condicionado por la caída; en el tiempo BC el cuerpo estará en el punto J. Además, en el tiempo DB, igual a 2 BC, el espacio caído sería igual a 4 CJ, pues en el tratado anterior se demostró que los espacios recorridos con movimiento uniformemente acelerado están entre sí como los cuadrados de los tiempos. En forma similar, EH, recorrido en el tiempoBE, será igual a 9 GJ, pues EH, DF, GJ están entre sí como los cuadrados de las líneasEB, DB, CB. Si se trazan desdeJ, F, H las rectas JO, FO, HL paralelas a EB, entonces HL, FG, JO serán iguales a los espacios EB, DB, GB, así como también BO, BG, BL serán iguales a los espacios GJ, DF, EH. Ahora bien: los cuadrados deHL y FG están entre sí como los espacios LB, BG, y los cuadrados de FG, JO como GB, BO. Por consiguiente, los puntos J, F, H están situados sobre una semiparábola. Análogamente se demuestra, tomando otros espacios arbitrarios cualesquiera y los valores correspondientes del tiempo, que los puntos determinados de la misma manera están situados siempre en una y la misma parábola, con lo cual está demostrado el teorema.
Salviati. —Esta conclusión se obtiene invirtiendo el primero de los teoremas auxiliares antes considerados. Pues si así no fuera, trazando una parábola por los puntos B y H, los puntos F, J no estarían sobre ella, sino dentro o fuera de la misma, y, por consiguiente, FG sería más corto o más largo que la línea que llega a la parábola, y los cuadrados de HL y FG tendrían una relación más grande o más pequeña que las líneas LB y BG, mientras que el cuadrado de HL tiene ciertamente esta misma relación con respecto al cuadrado de FG ; por consiguiente, F está situado sobre la parábola, y así todos los otros puntos.
Sagredo. —Por cierto, esta observación es nueva, ingeniosa y convincente; se apoya sobre una suposición, a saber: la de que el movimiento transversal se mantenga uniforme, y que al mismo tiempo el movimiento naturalmente acelerado se mantenga de igual manera proporcional a los cuadrados de los tiempos, y que tales movimientos puedan mezclarse, pero no perturbarse, alterarse o impedirse, de manera que al final, continuando el movimiento, la línea de tiro no degenere; un comportamiento para mí difícil de comprender. Pues como el eje de nuestra parábola, a lo largo del cual ocurre la aceleración, es perpendicular al horizonte, debe llegar al centro de la Tierra. Pero la parábola se aleja cada vez más de su eje, y ningún cuerpo podría alcanzar el centro de la Tierra; y si lo alcanzara, como en efecto parece ocurrir, la línea de tiro debería apartarse enteramente de la parábola.
Simplicio. —A esta dificultad debo agregar otras; en primer lugar, suponemos que la superficie horizontal, que ni sube ni baja, esté representada por una línea recta, como si las partes de ésta estuviesen dondequiera a igual distancia del centro; lo cual no es así, pues desde el punto inicial encontramos hacia ambos lados partes que se desvían cada vez más y suben. De ahí se deduce que el movimiento sobre tal superficie no puede ser uniforme; mejor dicho, no permanecerá uniforme sobre ningún espacio, por pequeño que sea, sino que siempre irá disminuyendo. Además, me parece imposible eliminar la resistencia del medio; de manera que tampoco pueden tener validez la constancia del movimiento transversal y las leyes de la aceleración en la caída libre. A causa de estas dudas, me parece muy improbable que los teoremas demostrados, teniendo en cuenta todas las suposiciones inválidas, se verifiquen en experimentos prácticos.
Salviati. —Todas las dificultades y objeciones mencionadas están tan bien fundadas que no se las puede rebatir; yo las admito, y creo que nuestro autor haría lo mismo. Sí, también admito que nuestras deducciones, hechas en abstracto, se mostrarán diferentes en la realidad, y serán falsas en el sentido de que ni el movimiento transversal se efectuará uniformemente, ni el movimiento acelerado ocurrirá en la forma aceptada, y hasta que ni la línea de tiro será una parábola. Pero ahora pido que ustedes, señores, no nieguen ni discutan a nuestro autor lo que otros hombres célebres han aceptado, aunque no fuera verdad. También puede tranquilizar a cualquiera la autoridad de Arquímedes. Él, en su Mecánica, ha admitido como principio verdadero, en la primera determinación del contenido de la parábola, que la balanza sea una recta cuyos puntos equidistan todos del centro común de todos los cuerpos pesados, y que las direcciones según las cuales caen los cuerpos, sean todas paralelas entre sí. Tal suposición es válida porque nuestros aparatos y los espacios que entran en juego son muy pequeños comparados con la considerable distancia del punto central del globo terrestre, de modo que podemos considerar como recto a un pequeñísimo sector de círculo máximo, y como paralelas entre sí a dos rectas, perpendiculares en los extremos de este arco. Si quisiéramos tener en cuenta en el experimento valores tan pequeños, deberíamos censurar a los arquitectos que con su plomada admiten construir las torres más altas entre dos líneas paralelas. También podemos decir que Arquímedes y otros han supuesto igualmente, en sus reflexiones, estar infinitamente lejos del punto central; en este caso las suposiciones son correctas y las demostraciones válidas. Pero si queremos hacer experimentos con distancias finitas y suponer valores muy grandes, hay que deducir de lo verdaderamente comprobado aquello que debe ser tenido en cuenta por no ser infinita dicha distancia, si bien ésta será siempre muy grande comparada con la pequeñez de nuestros aparatos. Hay que esperar una gran desviación en el tiro de los proyectiles, especialmente en los de artillería; la distancia de tiro será a lo sumo de 4 millas, mientras que estamos aproximadamente a otros tantos miles de millas de distancia del centro de la Tierra; y si aquéllas se miden en la superficie de la Tierra, la línea parabólica estará solamente muy poco modificada, pero en realidad lo estará de tal manera que pase por el centro de la Tierra.

Evangelista Torricelli
El barómetro
[39]

Muchos han dicho que el vacío no existe; otros, que existe a pesar de la repugnancia de la naturaleza por él, aunque con dificultad; no sé de ninguno que haya dicho que existe sin dificultad y sin resistencia de la naturaleza. Yo argumento así: Si puede encontrarse una causa manifiesta de la cual se pueda derivar la resistencia que se percibe si tratamos de hacer el vacío, me parece tonto tratar de atribuir el vacío a aquellas acciones que resultan evidentemente de alguna otra causa; y así, haciendo algunos cálculos fáciles, encontré que la causa asignada por mí (esto es, el peso de la atmósfera) debe por sí sola ofrecer una resistencia más grande que la que ofrece cuando tratamos de producir el vacío. Digo esto porque cierto filósofo, viendo que no es posible dejar de admitir que el peso de la atmósfera causa la resistencia que se percibe al hacer el vacío, no dice que admite la acción del peso del aire, sino que persiste en atribuirlo a que la naturaleza también contribuye a resistir al vacío. Vivimos sumergidos en el fondo de un mar de aire elemental, el cual, por los experimentos, sin duda tiene peso, y tanto peso, que el aire más denso en las cercanías de la superficie terrestre pesa cerca de 1/400 del peso del agua. Ciertos autores han observado que después del crepúsculo el aire vaporizado y visible se levanta ante nosotros a la altura de 50 a 54 millas, mas no pienso que es tanto, porque puedo mostrar que el vacío debe oponer una resistencia mucho mayor que la que opone, a menos que usemos el argumento de que el peso que Galileo asignó se aplica a la atmósfera baja, donde los hombres y animales viven, pero que en los picos de las altas montañas el aire comienza a ser más puro y pesa mucho menos que 1/400 del peso del agua.
Hemos hecho muchos recipientes de vidrio como los que representan las figuras A y B (fig. 9), y con tubos de 2 codos de largo.
Llené estos tubos con mercurio, y, tapando el extremo abierto con un dedo, los invertí en la cubeta G donde había mercurio; entonces vimos que se formaba un espacio vacío y que nada sucedía en el recipiente donde se formaba este espacio; el tubo entre A y D permanecía siempre lleno hasta la altura de un codo y un cuarto y 1 pulgada.
Para demostrar que el vaso estaba completamente vacío, llenamos el recipiente con agua pura hasta la altura D, y entonces, levantando el tubo poco a poco, vimos que cuando la abertura del tubo llegaba al agua, el mercurio caía del tubo, y el agua se precipitaba con gran violencia, hacia la marca E. Se dice a menudo, para explicar el hecho de que el vaso AE permanece vacío y que el mercurio, aunque pesado, es sostenido en el tubo AG, que, como se ha creído hasta aquí, la fuerza que impide al mercurio caer, como lo haría naturalmente, es interna al vaso AE, originada por el vacío, o por alguna sustancia sumamente enrarecida, pero yo sostengo que ella es exterior y que viene de fuera.
Sobre la superficie del líquido que está en el recipiente descansa el peso de una altura de 50 millas de aire. ¿Qué tiene de extraño, entonces, que el mercurio, que no tiene ninguna tendencia o repugnancia, ni aun la más leve, a permanecer en el interior del tubo GE, penetre en él y se eleve a una altura suficientemente alta como para equilibrar el peso del aire exterior, que lo fuerza hacia arriba?
Por otra parte, el agua, en un tubo similar, si bien mucho más largo, se elevaría unos 18 codos, esto es, tantas veces más que el mercurio cuantas éste es más pesado que el agua, para estar así en equilibrio con la misma causa que actúa sobre uno y otro.
Este argumento es corroborado por un experimento hecho al mismo tiempo con el vaso A y con el tubo B, en los cuales el mercurio permanece siempre en la misma línea horizontal AB. Esto hace casi seguro que la acción no proviene del interior, porque el vaso AE, donde había una sustancia más rarificada, habría tenido una fuerza mayor, atrayendo mucho más activamente, a causa de su mayor rarefacción, que la del espacio B, mucho más pequeño. Me he esforzado en explicar por este principio las repugnancias de toda clase que se observaron en los diversos efectos atribuidos al vacío, y aún no he encontrado ninguno al que no haya podido tratar con buen resultado. Sé que su alteza tendrá muchas objeciones, mas espero que si piensa sobre ella las podrá resolver. Mi principal intención no pude llevarla a cabo; esto es, descubrir cuándo la atmósfera es más gruesa y pesada y cuándo es más sutil y liviana, puesto que el nivel AB en el instrumento EC cambia por alguna otra razón (lo cual no hubiera creído), especialmente por ser sensible al frío y al calor, exactamente como si el vaso AE estuviese lleno de aire.<

Otón de Guericke
La máquina neumática
[40]

La primera tentativa para producir el vacío por extracción de agua
Mientras reflexionaba sobre la inconmensurabilidad del espacio, y pensaba que debe hallarse en todas partes, me propuse efectuar la siguiente experiencia:
Ideé llenar con agua un tonel de vino o cerveza y calafatearlo completamente, de tal modo que el aire exterior no pudiera entrar. En la parte baja del tonel se introduciría un tubo metálico por medio del cual pudiera extraerse el agua; entonces el agua, por efecto de su peso, descendería dejando tras de sí, en el tonel, un espacio vacío de aire y, por lo tanto, de cualquier otro cuerpo.
Para lograr este resultado, coloqué una bomba impelente de bronce abe (fig. 10) como las que se usan contra incendios, con un pistón con un tapón g que ajustaba herméticamente, de tal modo que el aire no podía entrar ni salir. En la bomba se habían colocado además dos válvulas de cuero, de las cuales la interior, a o d, en el fondo de la bomba, permitía la entrada del agua, y la exterior, 6, su salida. Después de fijar la bomba por medio de un anillo e, provisto de cuatro agarraderas, en la parte inferior del tonel, procedí a extraer el agua. Antes de que el agua obedeciera al pistón, se rompieron las agarraderas y saltaron los tomillos de hierro por medio de los cuales la bomba estaba sujeta al tonel.

ap10.jpg

La tentativa, sin embargo, no fue inútil. Después de colocar tornillos más fuertes, resultó finalmente que tres hombres robustos, tirando del pistón de la bomba, extrajeron el agua a través de la válvula superior 6. Pero cuando sucedió esto, se oyó un crujido en todo el tonel, como si el agua estuviera hirviendo intensamente; esto duró hasta que el tonel se llenó de aire, en sustitución del agua que había sido desalojada.
De alguna manera había que evitar este fracaso. Con tal objeto preparé un tonel más pequeño, que introduje en uno mayor. Después de haber atravesado el fondo de ambos toneles con un tubo más largo adaptado a la bomba, llené el pequeño tonel con agua, cerré su abertura, y, después de llenar también con agua el mayor, comencé de nuevo la tarea. Esta vez pudimos extraer del pequeño tonel el agua que lo llenaba, quedando en su lugar, sin duda alguna, un vacío.
Sin embargo, cuando finalizó el día, y se suspendió la tarea, y todo quedó en silencio, percibimos un sonido cambiante, interrumpido de tiempo en tiempo, como el gorjeo de un pájaro. Esto duró tres días enteros.
Cuando, después de esto, destapamos la abertura del pequeño tonel, encontramos que estaba en su mayor parte lleno de aire y agua. No obstante, una parte del mismo estaba vacía, puesto que, mientras lo abríamos, entró algo de aire.
Todos quedamos asombrados de que el agua entrara en un tonel que había sido embreado y cerrado tan prolijamente. Finalmente, advertí, después de múltiples investigaciones, que el agua a gran presión había atravesado la madera, y que a causa de la presión y del frotamiento ocasionado al atravesar la madera, una pequeña cantidad de aire se originaba de la misma agua del tonel (lo que deberá tenerse en cuenta en lo sucesivo). El tonel, sin embargo, no podía llenarse completamente de agua, a causa de la resistencia que la madera ofrecía a su paso. Cuando se suspendía la presión, la entrada de agua y aire cesaba; por eso obteníamos sólo un tonel medio vacío.

Producción del vacío[41]
Una vez comprobada la porosidad de la madera, tanto por la inspección como por la investigación, me pareció que, para mis propósitos, una esfera de cobre (que el reverendo padre Schott, en su libro sobre la investigación de Magdeburgo, llama «Cacabus») sería más adecuada.
Esta esfera A (fig. 11) podía contener de 60 a 70 cuartos de Magdeburgo, y estaba alimentada mediante una llave B, situada en la parte superior; en el fondo se introdujo la bomba, uniéndola herméticamente con aquél. Luego inicié, como antes, la extracción del aire y del agua.
Al principio, el émbolo se movía fácilmente, pero pronto su desplazamiento se hizo cada vez más difícil, de modo que, ulteriormente, dos fuertes hombres apenas podían sacarlo. Mientras estaban aún ocupados en introducir y sacar el émbolo y ya creían que se había extraído casi todo el aire, de repente, con un fuerte ruido y ante la sorpresa de todos, la esfera metálica se estrujó, como un paño entre los dedos, o como si la esfera hubiera sido arrojada desde lo alto de una torre, sufriendo un violento choque.
Creo que la causa de ello fue la inexperiencia de los operarios, quienes quizá no lograron que esta esfera resultase exactamente esférica. La parte plana, dondequiera que estuviese, no habría podido resistir la presión del aire circundante, en tanto que, por otra parte, una esfera hecha con precisión, podría resistirla fácilmente, debido al apoyo mutuo de sus partes, que se sostienen recíprocamente para vencer la resistencia.

ap11.jpg

Era, pues, necesario que los operarios hicieran una esfera perfectamente redonda. De ésta se extrajo el aire mediante una bomba, lo cual se hizo fácilmente al principio, pero con grandes dificultades al finalizar la operación.
Como indicio de que la esfera había sido completamente evacuada, sirvió el hecho de que, finalmente, no saliera más aire de la válvula superior de la bomba.
De este modo, hemos obtenido el vacío por segunda vez.
Al abrir la llave B, el aire se precipitó hacia el interior de la esfera de cobre con tanta fuerza, que parecía capaz de arrastrar a un hombre de pie frente a ella. Aproximando la cara, la violencia del aire llegaba hasta a cortar el aliento, y no se podía sostener la mano encima de la llave de alimentación, sin el riesgo de que fuera arrastrada violentamente hacia adentro.

Blas Pascal
La experiencia del Puy-de-Dôme
[42]

Señor: No interrumpiría el trabajo continuo a que os obligan vuestros empleos, para entreteneros en meditaciones físicas, si no tuviera la seguridad de que éstas servirán para daros un descanso en las horas de ocio y de que os resultarán divertidas, a pesar de ser aburridas para otros. No me amilanan las dificultades, pues no ignoro el placer con que recibís esta clase de entretenimientos. Éste no será más que la continuación de los que hemos hecho juntos con respecto al vacío.
He ideado un experimento que podrá alcanzar a darnos la luz que buscamos, si puede realizarse con precisión. Se trata de efectuar el experimento ordinario del vacío, muchas veces en un mismo día, en un mismo tubo, con el mismo mercurio, tanto en la cumbre como al pie de una montaña elevada, que tenga por lo menos de 500 a 600 toesas, para comprobar si la altura del mercurio suspendido en el tubo es igual o diferente en esas dos situaciones. Advertiréis ya, sin duda, que esta experiencia es decisiva en la cuestión y que, en caso de resultar el nivel del mercurio menor en lo alto que al pie de la montaña (como tengo muchas razones para creerlo, aunque todos los que han meditado sobre el problema sean contrarios a esta opinión), se llegará necesariamente a la conclusión de que el peso y presión del aire son la única causa de esta suspensión del mercurio, y no el horror al vacío, pues es bien cierto que el aire pesa más al pie de la montaña que en la cumbre de la misma; mientras que no podría decirse que la naturaleza tiene más horror al vacío al pie que en la cima de la montaña.
La experiencia fue realizada en septiembre de 1648 por Périer. He aquí su descripción: [43]
El sábado 19 de este mes fue muy inconstante; sin embargo, como el tiempo parecía muy hermoso a las cinco de la mañana, y la cima del Puy-de-Dôme se mostraba despejada, me decidí a salir para realizar la experiencia. A este efecto, avisé a muchas personas de condición de esta ciudad de Clermont, que me habían rogado les avisara el día que pensaba ir; algunos de ellos son eclesiásticos, y otros seculares. Entre los primeros estaban el reverendo padre Bannier, uno de los padres mínimos [44] de esta ciudad, quien fue muchas veces corrector (es decir, superior), y el señor Mosnier, canónigo de la iglesia catedral de esta misma ciudad; y entre los últimos, los señores La Ville y Begon, consejeros de la Corte de Ayuda, y el señor La Porte, doctor en medicina, quien ejerce su profesión aquí; todos personas muy capaces, no sólo en sus cargos, sino también por sus profundos conocimientos, en cuya compañía me sentía encantado de realizar esta excursión. Fuimos, ese día, todos juntos, a las ocho de la mañana, a los jardines de los padres mínimos, que es casi el lugar más bajo de la ciudad, donde se dio comienzo a la experiencia de esta forma:
Primero, eché en un vaso 16 libras de mercurio, que había purificado en los días anteriores; y tomando dos tubos de vidrio de grosor semejante, de 4 pies de largo cada uno, cerrados herméticamente en un extremo, y abiertos por el otro, hice con cada uno de ellos la experiencia ordinaria del vacío en el mismo vaso: aproximando los dos tubos, uno al otro, sin sacarlos del vaso, se vio que el mercurio que quedaba en ambos estaba al mismo nivel y que había en cada uno de ellos, por encima de la superficie del vaso, 26 pulgadas con 3 líneas y media. Repetí esta experiencia, en este mismo lugar, en los mismos tubos, con el mismo mercurio, en el mismo vaso, otras dos veces y siempre el mercurio de los dos tubos estaba al mismo nivel y a la misma altura que la primera vez.
Hecho esto, procedí a dejar uno de los dos tubos en el vaso, bajo observación continua. Marqué en el vidrio la altura del mercurio y, dejando este tubo en el mismo lugar, rogué al reverendo padre Chastin, uno de los» religiosos de la casa, hombre tan piadoso como capaz, y muy entendido en esta materia, se tomara la molestia de observar, a cada momento, durante todo el día, si ocurría algún cambio. Con el otro tubo y una parte del mismo mercurio, subí con las personas antes nombradas a la cumbre del Puy-de- Dôme, que se eleva unas 500 toesas por encima de la casa de los mínimos, donde realicé las mismas experiencias del mismo modo que en la casa de los mínimos, descubriendo que en el tubo no quedaba más que una altura de 23 pulgadas con 2 líneas de mercurio, mientras que en la casa de los mínimos, en este mismo tubo, la altura alcanzaba 26 pulgadas con 3 líneas y media, de modo que entre las alturas del mercurio en estas dos experiencias, había una diferencia de 3 pulgadas con 1 línea y media. Esto nos llenó a todos de admiración y asombro y nos sorprendió de tal manera que, para nuestra satisfacción, quisimos repetir el experimento. Por eso lo realicé otras cinco veces, muy exactamente en diversos lugares de la cima de la montaña, ya al abrigo de la intemperie, en la pequeña capilla allí existente, ya al aire libre, ya a cubierto, ya al viento, con buen tiempo, o durante la lluvia y las nieblas que nos azotaban a veces, habiendo cada vez evacuado muy cuidadosamente el aire del tubo; siempre encontré, en todas estas experiencias, la misma altura del mercurio, o sea 23 pulgadas con 2 líneas, que hacían las 3 pulgadas y 1 línea y media de diferencia en comparación con las 26 pulgadas y 3 líneas y media, que habíamos encontrado en la casa de los mínimos, lo que nos satisfizo plenamente.
Después, descendiendo de la montaña, hice en el camino la misma experiencia, siempre con el mismo tubo, el mismo mercurio y el mismo vaso, en un lugar llamado Lafon de l’Arbre, muy por encima de la casa de los mínimos, pero mucho más por debajo de la cumbre de la montaña, y allí encontré que la altura del mercurio en el tubo alcanzaba 25 pulgadas. La repetí, por segunda vez, en este mismo lugar, y el señor Mosnier, uno de los ya nombrados, tuvo la curiosidad de hacer la prueba él mismo; así lo hizo, pues, en este mismo sitio, y encontró la misma altura de 25 pulgadas, menor que la encontrada en la casa de los mínimos, en 1 pulgada con 3 líneas y media, y mayor que la que acabábamos de encontrar en lo alto del Puy-de-Dôme, en 1 pulgada con 10 líneas, lo que aumentó no poco nuestra satisfacción, viendo disminuir el nivel del mercurio según la altura de los lugares.
Por último, habiendo llegado a la casa de los mínimos, encontré el vaso, que había dejado bajo observación continua, con la misma altura de 26 pulgadas y 3 líneas y media, altura que, según manifestó el reverendo padre Chastin, no había sufrido cambio alguno durante todo el día, a pesar de que el tiempo fuera muy inconstante, ya sereno, ya lluvioso, ya nublado o ya ventoso.
Rehíce la experiencia con el tubo que había llevado al Puy-de- Dôme y con el vaso donde estaba el tubo en experiencia continua; encontré que el mercurio tenía el mismo nivel en los dos tubos.

Edmé Mariotte
Relación entre presión y volumen del aire
[45]

El primer problema que nos podemos plantear es el de saber si el aire se condensa precisamente según la proporción de los pesos con que se carga, o si esta condensación sigue otras leyes y otras proporciones. Expondré los razonamientos que he hecho para saber si la condensación del aire es proporcional a los pesos que soporta.
Suponiendo, como la experiencia lo hace ver, que el aire se condensa más cuando está cargado con un peso mayor, se sigue necesariamente que si el aire que se extiende desde la superficie de la Tierra, hasta la más grande altura donde termina, se volviera más ligero, la parte baja se dilataría más de lo que lo está al presente, y que si se volviese más pesado, esta misma parte se condensaría más. Es, pues, necesario concluir que la condensación que tiene cerca de la Tierra, se produce según cierta proporción del peso del aire superior que lo comprime, y que en este estado equilibra por su elasticidad precisamente a todo el peso del aire que sostiene.
De esto se sigue que si se encierra en un barómetro mercurio con aire y se hace la experiencia del vacío, el mercurio no quedará en el tubo a la altura que tenía, porque el aire encerrado en el tubo antes de la experiencia, equilibra por su elasticidad al peso de toda la atmósfera, es decir, a la columna de aire dé la misma sección que se extiende desde la superficie del mercurio en el vaso, hasta lo alto de la atmósfera, y, por consecuencia, el mercurio que está en el tubo, no encontrando nada que lo equilibre, descenderá. Pero no descenderá totalmente, puesto que si desciende, el aire encerrado en el tubo se dilata y, por consiguiente, su elasticidad no es suficiente para equilibrar todo el peso del aire superior. Es necesario, pues, que parte del mercurio quede en el tubo a una altura tal, que, como el aire encerrado tiene una condensación que le da una fuerza de elasticidad capaz de sostener solamente una parte del peso de la atmósfera, el mercurio que queda en el tubo equilibre el resto; entonces se establecerá un equilibrio entre el peso de toda dicha columna de aire y el peso del mercurio restante junto con la elasticidad del aire encerrado. Pues bien: si el aire se debe condensar en proporción a los pesos con que está cargado, resulta necesariamente que si hacemos una experiencia en la cual el mercurio quede en el tubo a la altura de 14 pulgadas, el aire encerrado en el resto del tubo estará entonces dilatado al doble de lo que lo estaba antes de la experiencia, con tal de que, al mismo tiempo, los barómetros sin aire eleven precisamente su mercurio a 28 pulgadas.
Para saber si esta consecuencia es verdadera, hice la experiencia con el señor Hubin, que es muy experto en fabricar barómetros y termómetros de toda clase. Nos servimos de un tubo de 40 pulgadas que hice llenar de mercurio hasta 27 pulgadas y media, a fin de que tuviera 12 pulgadas y media de aire, y que estando sumergido una pulgada en el mercurio del vaso, restaran 39 pulgadas, para contener 14 pulgadas de mercurio y 25 pulgadas de aire dilatado al doble de su volumen original. No fui defraudado en mi espera, pues cuando el extremo del tubo invertido quedó sumergido en el mercurio del vaso, el del tubo descendió, y después de algunas oscilaciones se detuvo a 14 pulgadas de altura; por consecuencia, el aire encerrado que ocupaba entonces 25 pulgadas estaba dilatado al doble que lo antes encerrado, y que ocupaba sólo 12 pulgadas y media.
Le hice realizar todavía otra experiencia, en la que se dejó 24 pulgadas de aire encima del mercurio, y éste descendió hasta 7 pulgadas conforme a esta hipótesis; porque como 7 pulgadas de mercurio equilibran a un cuarto del peso de toda la atmósfera, los tres cuartos que restan están sostenidos por la elasticidad del aire encerrado, y puesto que su extensión era entonces de 32 pulgadas, estaba en la misma razón a la extensión original de 24 pulgadas, como el peso entero del aire a las tres cuartas partes del mismo peso.
Todavía hice efectuar algunas otras experiencias semejantes, dejando más o menos aire en el mismo tubo o en otros más o menos grandes; encontré siempre que, después de hecha la experiencia, la proporción del aire dilatado a la extensión de aquel que se había dejado encima del mercurio antes de la experiencia, era la misma proporción de 28 pulgadas de mercurio, o sea el peso entero de la atmósfera, a la diferencia entre 28 pulgadas y la altura donde el mercurio permanecía después de la experiencia: lo que hace conocer suficientementeque se puede tomar como regla cierta, o ley de la naturaleza, que el aire se condensa en proporción al peso con que está cargado.
Si se quieren realizar experiencias más sensibles, es necesario tener un tubo curvado, cuyas dos ramas sean paralelas y una de las cuales tenga 8 pies de altura, y otra 12 pulgadas; la grande debe estar abierta en lo alto; la otra, perfectamente cerrada.
Se comenzará a verter un poco de mercurio para llenar el fondo donde está la comunicación entre las dos ramas, y se hará de manera que el mercurio no sea más alto en una rama que en la otra, a fin de estar seguros de que el aire encerrado no está más condensado o dilatado que el aire libre.
Se verterá después, y poco a poco, mercurio en el tubo, cuidando de que el choque no haga entrar nuevo aire en el que está encerrado; se verá, como hemos visto muchas veces, que cuando el mercurio se eleva a 4 pulgadas en la pequeña rama, será en la otra 14 pulgadas más alto, es decir, 18 pulgadas por encima del tubo de comunicación, lo cual debe ocurrir si el aire se condensa en proporción a los pesos con que está cargado, puesto que el aire encerrado está cargado entonces con el peso de la atmósfera, que es igual al peso de 28 pulgadas de mercurio, y además el de 14 pulgadas, cuya suma de 42 pulgadas es a 28 pulgadas, el primer peso que tenía el aire en la rama pequeña, recíprocamente como esta extensión de 12 pulgadas, es a la extensión restante de 8 pulgadas.
Si se vierte de nuevo mercurio hasta que suba a 6 pulgadas en la rama pequeña, y no quedan más que 6 pulgadas de aire, el mercurio estará en la otra rama 28 pulgadas más alto que la altura de estas 6 pulgadas; esto es lo que debía ocurrir según la misma hipótesis: puesto que ahora el aire encerrado estará cargado con 28 pulgadas de mercurio y el peso de la atmósfera que es también de 28 pulgadas, siendo la suma 56 el doble de 28, como la primera extensión de 12 pulgadas de aire es el doble de las 6 pulgadas que restan; y si, al continuar vertiendo mercurio en la rama grande, llega en la pequeña a 8 pulgadas de altura, habrá 56 pulgadas de mercurio por encima en la rama grande, lo que hace una vez más la misma proporción...
Para realizar estas experiencias, es necesario que la rama pequeña sea de un diámetro uniforme en todas sus partes; para la grande no es necesario que su diámetro sea igual en toda su altura.
Por esta regla de la naturaleza se pueden resolver muchos problemas más que curiosos de física.

Guillermo Gilbert
La piedra imán
[46]

Una piedra imán atrae a otra en la posición natural, pero en la posición opuesta la repele y la sitúa correctamente.
Primero describiremos en lenguaje corriente las conocidas propiedades de atracción de la piedra; luego se descifrarán muchas propiedades sutiles que hasta ahora han permanecido ignoradas y recónditas, sumidas en la oscuridad; y (estando revelados los secretos de la naturaleza) se demostrarán oportunamente las causas de todas ellas, con palabras adecuadas y por medio de aparatos. Es un hecho trivial y familiar que la piedra imán atrae al hierro; asimismo, una piedra imán también atrae a otra. Tomemos una piedra sobre la cual hemos marcado los polos norte y sur y pongámosla en su vasija, de modo que pueda flotar; hagamos que los polos estén en el plano del horizonte, o por lo menos en un plano poco inclinado respecto al mismo; tomemos en la mano otra piedra cuyos polos también se conocen, y tengámosla de tal modo que su polo sur esté dirigido hacia el polo norte de la piedra flotante, y cerca de ella, a lo largo; la piedra imán flotante seguirá de inmediato a la otra (siempre que se halle dentro de su esfera de acción) y no cesará de moverse, ni abandonará a la otra hasta que se adhiera a ella, a menos que, maniobrando rápidamente, retiremos la mano para evitar la conjunción. De manera análoga, si oponemos el polo norte de la piedra que tenemos en la mano al polo sur de la que flota, se juntan y una sigue a la otra, porque polos opuestos atraen a polos opuestos. Pero ahora, si en la misma forma enfrentamos norte a norte o sur a sur, una piedra repele a la otra, y como si un piloto diera un golpe de timón, la que flota se aleja igual que un barco a toda vela y no se detiene ni se aquieta mientras la otra la persigue. Igualmente, una piedra alineará a la otra, la hará girar, la situará en posición correcta y la pondrá en concordancia con ella. Pero cuando ambas se ponen en contacto y se juntan en el orden natural, se adhieren firmemente. Por ejemplo, si presentamos el polo norte de la piedra que tenemos en la mano al trópico de Capricornio (porque así distinguiremos, con círculos matemáticos, a la piedra redonda o Terrella, exactamente como lo hacemos para el globo terráqueo) o a cualquier punto entre el ecuador y el polo sur inmediatamente la piedra flotante gira y se coloca de modo tal que su polo sur toca al polo norte de la otra y está lo más próximo a él. De la misma manera, obtendremos un efecto análogo del otro lado del ecuador presentando un polo al otro; y así, con destreza y habilidad, podemos mostrar atracción y repulsión, y el movimiento en círculo hacia la posición concordante, y los mismos movimientos para evitar encuentros hostiles. Además, podemos demostrar todo esto en una misma piedra, de la siguiente manera: pero nos es posible mostrar igualmente cómo una y la misma parte de una piedra puede, por división, hacerse norte o sur. Tomemos la piedra oblonga ad, en la cual a es el polo norte y del sur. Cortemos la piedra en dos partes iguales, y pongamos la parte a en una vasija y hagámosla flotar en el agua.
Veremos que el punto norte a girará hacia el sur como antes; y de la misma manera el punto d se moverá hacia el norte, en la piedra dividida, como antes de la división. Pero c y d, antes unidos, ahora separados uno del otro, no son lo que eran antes: b es ahora sur mientras que c es norte; b atrae a c, tratando de unirse y de restablecer la continuidad primitiva. Son dos piedras hechas de una, y a causa de ello se atraen mutuamente, girando el c de una hacia el b de la otra, y si están sustraídas a todos los obstáculos y a su propio peso, sostenidas como están por el agua, se acercan y se unen. Pero si enfrentamos la parte o punto a de una al c de la otra, se repelen mutuamente y se alejan girando; porque la naturaleza se irrita por una tal situación de las partes, y la forma de la piedra está pervertida; pero la naturaleza observa estrictamente las leyes que ha impuesto a los cuerpos: de aquí la huida de una parte de la otra en la posición indebida, y de aquí la discordia hasta que todo está ordenado exactamente como corresponde a la naturaleza. Y la naturaleza no tolera una paz o un acuerdo injusto e indebido, sino que hace guerra; y apela a la fuerza para hacer que los cuerpos se consientan cabal y justamente. De modo que cuando están correctamente ordenados, las partes se atraen mutuamente; es decir, ambas piedras, la débil y la fuerte, se juntan y tienden a unirse con toda su fuerza; hecho que se manifiesta en todas las piedras imán, y no sólo, como suponía Plinio, en las de Etiopía.

Cristian Huygens
El reloj de péndulo
[47]

Hace ya dieciséis años que publiqué en un libro la manera de construir relojes, los que fueron inventados por mí en esa época. Pero como he realizado desde entonces muchos progresos en la obra, consideré que lo mejor era dar cuenta de todo ello en el presente libro, ya que estos nuevos descubrimientos completan aquel invento de tal modo que puede considerárselos como su parte más importante y al mismo tiempo como fundamento de todo el mecanismo, que hasta ahora le faltaba. El péndulo simple no puede ser considerado como una medida de tiempo segura y uniforme, porque las oscilaciones amplias tardan más tiempo que las de menor amplitud; con ayuda de la geometría he encontrado un método, hasta ahora desconocido, de suspender el péndulo; pues he investigado la curvatura de una determinada curva que se presta admirablemente para lograr la deseada uniformidad. Una vez que hube aplicado esta forma de suspensión a los relojes, su marcha se hizo tan pareja y segura, que después de numerosas experiencias sobre la tierra y sobre el agua, es indudable que estos relojes ofrecen la mayor seguridad a la astronomía y a la navegación. La línea mencionada es la misma que describe en el aire un clavo sujeto a una rueda cuando ésta avanza girando; los matemáticos la denominan cicloide, y ha sido cuidadosamente estudiada porque posee muchas otras propiedades; pero yo la he estudiado por su aplicación a la medida del tiempo ya mencionada, que descubrí mientras la estudiaba con interés puramente científico, sin sospechar este resultado. Después que hube comunicado este descubrimiento, hace mucho tiempo, a algunos amigos entendidos (hice el descubrimiento poco después de la primera edición del Reloj) le he encontrado además una demostración lo más exacta posible y ahora la doy a publicidad. A ello se refiere especialmente este libro. Tantas veces como fue necesario, he corroborado y ampliado con algunas nuevas demostraciones la teoría del gran Galileo sobre la caída de los cuerpos pesados; y con el descubrimiento de esa propiedad de la cicloide he alcanzado al mismo tiempo el fruto más anhelado de aquella teoría y su más elevada cima.

* * * *

Describiría asimismo aquí la construcción de los relojes de barco que sirven para establecer la longitud geográfica, si hubiéramos investigado con tanta exactitud como antes cuál es la construcción que mejor sirve para este fin. En realidad la investigación ya ha dado tales resultados que parece faltar muy poco para que se complete este invento tan útil. Por eso no se me tomará a mal si dejo establecido cuáles son las pruebas hasta ahora realizadas, qué resultados han dado y qué es lo que aún falta por comprobar.
Los dos primeros relojes de esta clase han pertenecido a un barco británico. Un excelente "amigo escocés los había hecho construir de acuerdo con el modelo de nuestros relojes. En lugar del peso tenían un muelle espiral de acero para mover los engranajes, de la misma manera que se acostumbra hacer en los relojes de bolsillo. Para que los relojes no sufrieran por las oscilaciones del barco, los había suspendido de un pilar de acero recubierto de un cilindro de bronce; a la horquilla que mantiene el movimiento del péndulo (el largo del péndulo alcanzaba a medio pie) la había alargado hacia abajo y dividido por segunda vez de modo que tenía la forma de una F invertida (E). Esto debía impedir que el péndulo girara en círculo, pues con ello podía producirse un retardo del reloj. Después que este barco, junto con otros tres que iban con él, hubo vuelto a Bretaña, el jefe de la flota informó lo siguiente: había navegado desde Guinea hasta la isla de Santo Tomás, que está bajo el ecuador; aquí puso los relojes de acuerdo con el sol, siguió rumbo al oeste, y después de un viaje ininterrumpido de 700 millas volvió de nuevo hacia la costa africana porque soplaba un viento favorable del sudsudoeste. Sin embargo, después que hubo navegado de 200 a 300 millas en esa dirección, los jefes de los otros barcos —ante el temor de que se terminara el agua potable antes de alcanzar África—le pidieron que se dirigiera hacia las islas Barbados, junto a América, para aprovisionarse de agua. Llamó entonces a los jefes de los barcos pidiéndoles que trajeran consigo sus diarios de viaje y los cálculos realizados. De esta confrontación surgió que los cálculos de los demás diferían notablemente de los suyos, uno en 80 millas, otro en 100 y el tercero más aún. Él mismo, según los relojes de péndulo, había calculado que a lo sumo se hallaban a 30 millas de distancia de la isla del Fuego, una de las islas del Cabo Verde, y que podrían llegar a ella todavía al día siguiente. Confiando en sus relojes de péndulo, había decidido dirigir la proa hacia allí, y, en efecto, a mediodía del día siguiente estuvieron a la vista de esa isla, echando anclas pocas horas después.

El problema del centro de oscilación[48]
Siendo niño aún, el gran maestro Mersenne nos propuso a mí y a muchos otros la tarea de determinar el centro de oscilación. Según he podido sacar en conclusión por las cartas que Mersenne me escribió y también por obras editadas recientemente por Descartes, que contienen una respuesta a esta pregunta de Mersenne, dicho problema gozaba de cierta fama entre los matemáticos de aquel entonces. Mersenne me pedía que hallara esos puntos en sectores circulares suspendidos ya sea en el punto medio del círculo o ya en el medio del arco y que oscilan hacia los lados y también en segmentos circulares y triángulos equiláteros que están suspendidos ya sea en el vértice o ya en el medio de la base. La tarea consiste en construir un péndulo simple, es decir, un peso colgado de un hilo, de longitud tal que sus oscilaciones se produzcan exactamente en el mismo tiempo que las de aquellas figuras cuando éstas se suspenden en la forma indicada. Al mismo tiempo prometía un gran premio digno de envidia en el caso de que yo resolviera los problemas que me planteaba. Sin embargo, en aquel entonces no consiguió de nadie lo que pedía. En cuanto a mí se refiere, no encontré en aquella época nada que me diera el más mínimo punto de partida para efectuar estos cálculos, de modo que casi en seguida abandoné la tarea renunciando a investigarla a fondo. Sin embargo, aquellos que esperaban haber resuelto el problema, hombres extraordinarios como Descartes y Honorato Fabri en manera alguna alcanzaron la meta, o sólo en algunos pocos casos especiales que eran fáciles; y tampoco para ello, a mi entender, adujeron pruebas suficientes.
Espero que todo esto lo podrá reconocer claramente quienquiera que compare las conclusiones de ellos con las mías, que están contenidas en lo que sigue, pues creo haberlas demostrado con bases seguras y también las experiencias las han corroborado completamente. Los péndulos regulables de mis relojes dieron una oportunidad para volver a realizar esas experiencias, ya que, además del peso suspendido en la parte inferior, le había agregado otro movible, como se detalla más explícitamente en la descripción del reloj. Partiendo de aquí, comencé de nuevo la investigación desde el principió, esta vez con auspicios más favorables, y por fin superé todas las dificultades, pues no sólo resolví los problemas de Mersenne, sino que encontré nuevos problemas más difíciles que aquéllos y hallé por fin un método con el cual se puede determinar, por medio de cálculos seguros, el centro de oscilación de líneas, superficies y cuerpos, Con esto no sólo tuve la alegría de hallar lo que otros habían buscado tan en vano y conocer las leyes de la naturaleza en este caso, sino que saqué cierto provecho, que era el que me había guiado, en realidad, para ocuparme de este asunto, pues encontré aquel método sencillo y cómodo de regular los relojes. Pero se agregó aún otra cosa, que creo debo valorar mucho más, y es que en virtud del descubrimiento, he podido dar una definición absolutamente segura de una medida de longitud invariable y que perdurará eternamente.

Hipótesis I
Cuando un número cualquiera de cuerpos pesados comienzan a moverse en virtud de su gravedad, el centro de gravedad del conjunto de todos estos cuerpos no puede llegar a mayor altura que la que tenía al principio del movimiento.
Debe entenderse aquí por altura la distancia al plano horizontal, y se acepta que los cuerpos pesados tienden a caer hacia este plano a lo largo de líneas rectas que son perpendiculares a este plano horizontal. Esta misma suposición la hacen todos aquellos que han escrito sobre el centro de gravedad, ya sea en forma explícita o que se deduzca como conclusión de su lectura, desde que sin ella no será posible tratar del centro de gravedad.
Pero para que tampoco mi hipótesis deje lugar a dudas, quiero mostrar que no contiene más de lo que nadie ha negado; es decir, que los cuerpos pesados no se mueven hacia arriba. Para empezar, imaginemos cualquier cuerpo pesado, el que, sin ninguna duda, no podrá moverse hacia arriba en virtud de su peso. Cuando decimos que el cuerpo se mueve hacia arriba, queremos decir que su centro de gravedad se mueve hacia arriba. Exactamente lo mismo debe aceptarse que sucede también con un número cualquiera de cuerpos pesados que están unidos entre sí por líneas inflexibles, desde que nada se opone a que se considere su conjunto como un cuerpo. Por lo tanto, tampoco aquí puede por sí mismo elevarse el centro de gravedad común.
Imaginémonos ahora un número cualquiera de cuerpos pesados que no están unidos entre sí; sabemos entonces que también ellos tienen algún centro de gravedad común. A la misma altura en que se encuentra este punto, digo que debemos imaginamos también el peso conjunto de los cuerpos; pues todos los cuerpos individuales pueden ser llevados al nivel de su centro de gravedad sin que sea necesaria aquí la existencia de otra fuerza que la que poseen los cuerpos; sólo es necesario que los consideremos unidos arbitrariamente por líneas inflexibles y moverlos alrededor de su centro de gravedad; para esto no es necesaria ninguna fuerza exterior. De la misma manera que los cuerpos pesados que se encuentran en un plano horizontal no pueden, en virtud de su gravedad, elevarse conjuntamente por encima de este plano, tampoco el centro de gravedad de cuerpos cualesquiera, sea cual fuere su disposición, puede llegar a una altura mayor que la que ocupa. Que cuerpos pesados cualesquiera pueden ser llevados, efectivamente, sin necesidad de ninguna fuerza, al plano horizontal que pasa por su centro de gravedad común, se puede demostrar de la manera siguiente:
Sean A, B y G (fig. 12) cuerpos pesados cuya posición esté dada y D su centro de gravedad común. Tracemos por D un plano horizontal representado por la recta A ' E, Sean DA, DB y DG líneas inflexibles que están rígidamente unidas con los cuerpos. Movamos ahora el conjunto hasta que A se encuentre en el plano horizontal A ' E en el punto A'. Todas las barras de unión girarán entonces el mismo ángulo, y B llegará a la posición B ' y G a la posición C'.ap12.jpg
Ahora imaginémonos los puntos B y C unidos por una barra rígida B ' G '; y que ésta corte al plano A ' E en E. Entonces también el centro de gravedad de estos dos cuerpos estará necesariamente en E, ya que el centro de gravedad D de los tres cuerpos que se encuentran en A ', B ' y G ' y también el centro de gravedad del cuerpo que se encuentra en A ' están en este plano A ' DE, Por eso, sin que exista una fuerza exterior, los cuerpos B ' y G ' pueden girar alrededor del punto E como eje, y de esta manera los dos llegarán al mismo tiempo al plano A ' E ; de modo que los tres cuerpos que antes estaban en A, B y G, han sido llevados, por la sola acción de su propio equilibrio, a la altura de su centro de gravedad D. Esto es lo que queríamos demostrar. Con cualquier número de cuerpos, la demostración se hace de la misma manera.
Además, esta hipótesis mía vale también para los fluidos, y con su ayuda no sólo se pueden demostrar todos los teoremas de Arquímedes sobre los cuerpos flotantes, sino también la mayor parte de los otros teoremas de la mecánica. Y si los inventores de nuevas máquinas que con vano afán tratan de construir un perpetuum mobile quisieran seguir esta hipótesis mía, reconocerían con facilidad por sí mismos su error y comprenderían que su meta es completamente inalcanzable.

Choque de cuerpos elásticos[49]
Hipótesis 1
Un cuerpo, una vez que está en movimiento, si nada se le opone, continúa moviéndose con la misma velocidad en línea recta.
Hipótesis II
Sea cual fuere la causa del rebote de cuerpos duros después del contacto mutuo, cuando chocan entre sí, enunciamos el siguiente teorema: Cuando dos cuerpos iguales con iguales velocidades se encuentran directamente con direcciones opuestas, cada uno rebota con la misma velocidad que tenía.
Su encuentro se llama directo cuando tanto el movimiento como el contacto ocurren sobre la recta que une los centros de gravedad de ambos cuerpos.
Hipótesis III
El movimiento de los cuerpos, con igualdad o desigualdad de las velocidades, debe considerarse relativo, con respecto a otros cuerpos que se suponen en reposo, aunque tanto éstos como aquéllos puedan estar animados de otro movimiento de conjunto.
Por lo tanto, si dos cuerpos chocan entre sí, no se comunican recíprocamente, aunque ambos estén animados además de un movimiento uniforme, ningún otro impulso con respecto al observador que participa del movimiento de conjunto, como si éste no existiera para todos los movimientos que se agregan.
Así, por ejemplo, decimos que si un pasajero de un barco que se mueve con velocidad uniforme hace chocar dos esferas iguales con iguales velocidades, entendidas con respecto a sí mismo y a las partes del barco, entonces ambos (cuerpos) deben también rebotar con igual velocidad con respecto al mismo observador, exactamente de la misma manera que si hiciese chocar las mismas esferas con igual velocidad sobre el barco en reposo o estando en tierra firme.
Después de haber establecido esto para el choque de cuerpos iguales, vamos a deducir las leyes de su influencia recíproca, si bien otras hipótesis, que necesitaremos para el caso de cuerpos desiguales, serán introducidas en el lugar oportuno.

Teorema I
Si contra un cuerpo en reposo choca otro cuerpo igual, Entonces éste quedará en reposo después del contacto, mientras que el que estaba en reposo habrá adquirido la misma velocidad que poseía el que chocó con él.
Supongamos que un bote se mueva aguas abajo junto a la orilla, y tan cerca de ésta, que un pasajero de pie sobre dicho bote pueda darle la mano a un compañero de pie en la orilla. Ahora supongamos que el pasajero sostiene con cada una de sus manos, A, B, dos cuerpos iguales E y F, colgados con hilos, cuya distancia EF tenga su punto medio en O : por medio de un movimiento contrario de las manos, con respecto a sí mismo y al bote, hará chocar también las esferitas E y F con igual velocidad, las que, por lo tanto, también rebotarán necesariamente (hipótesis II) con igual velocidad (con respecto al pasajero y al bote) después del contacto mutuo; pero supongamos que el bote se ha desplazado mientras tanto hacia la izquierda con la velocidad GE ;ap13.jpg es decir, la misma con que ha sido movida la mano A hacia la derecha.
Es evidente entonces que la mano A del pasajero permaneció inmóvil para la orilla y el compañero que está en ella; pero que la mano B, desde el punto de vista del compañero, ha sido movida con la velocidad FE, la que es igual al doble de GE o FG. Si, de acuerdo con esto, imaginamos que el compañero de la orilla ha tomado con su mano C la mano A del pasajero, y con ella el extremo del hilo que sostiene a la esfera E, y con la otra manoD la mano B del pasajero, que sostiene el hilo del que pendeF, se ve que, mientras el pasajero hace chocar las esferas E y F con igual velocidad (con respecto a sí y al bote), al mismo tiempo el compañero de la orilla ha golpeado a la esfera en reposo E con la esfera F movida con la velocidad FE. Naturalmente que al pasajero, que mueve sus esferas en la forma indicada, no le importa para nada que el compañero de la orilla haya tomado sus manos y los extremos de los hilos, ya que sólo acompaña su movimiento y no le causa perturbación (fig. 13). Por la misma causa, tampoco le molesta al compañero de la orilla, que acerca la esfera F hacia la E en reposo, el hecho de que el pasajero tenga enlazadas sus manos con él, ya que las manos A y C están ambas en reposo respecto a la orilla y al compañero, mientras que D y B son movidas con la misma velocidad FE. Pero como, según dijimos, las esferas E y F rebotan después del contacto recíproco, con igual velocidad, para el pasajero y el bote, la E con la velocidad GE, y la F con la velocidad GF, y como mientras tanto el bote sigue su movimiento hacia la izquierda con la velocidad GE o FG, resulta, con respecto a la orilla y al compañero en ella, que la esfera F queda inmóvil después del choque, pero la otra, E, desde el mismo punto de vista, se mueve hacia la izquierda con velocidad doble de GE ; es decir, con la velocidad FE, la misma con que él movió la esfera F contra la E. Por ello hemos demostrado, respecto al ap14.jpg compañero de la orilla, que sobre un cuerpo inmóvil hace chocar otro igual, que éste (cuerpo) pierde todo su movimiento después del choque, mientras que aquél lo recibe íntegramente, como queríamos demostrar.

Teorema II
Si dos cuerpos iguales, que se mueven con velocidades diferentes, chocan, se moverán después del choque con velocidades permutadas.
Supongamos que el cuerpo E (fig. 14) sea movido hacia la derecha con velocidad EK, mientras que el cuerpo igual F sea lanzado contra el primero en dirección opuesta con la velocidad menor FK ; por lo tanto, se encontrarán en K. Digo que después del choque el cuerpo E se moverá hacia la izquierda con la velocidad FK, en tanto que el cuerpo F se moverá hacia la derecha con la velocidad EK.
En efecto: imaginemos un hombre en la orilla de un río, que comunica a los cuerpos los movimientos mencionados, lo que hace sosteniendo con sus manos C y D los extremos de los hilos de que penden aquéllos (cuerpos) y acercando sus manos con dichas velocidades EK yFK, con lo cual acerca los cuerpos E y F. Supongamos que la distancia EF tenga en G su punto medio; e imaginemos un bote que se mueve hacia la derecha con la velocidad GK, sobre el cual esté de pie otro hombre, con respecto al cual la esfera E se moverá sólo con la velocidad EG, mientras que la esfera F se moverá con la velocidad FG, de modo que, con respecto a él, ambas esferas son llevadas a chocar con la misma velocidad. Si se admite que el pasajero haya tomado con sus manos A y B las manos C y D del compañero en la orilla, y con ello los extremos de los hilos, resulta que el hombre de la orilla acerca las esferas con las velocidades EK, FK, mientras que al mismo tiempo el pasajero las mueve una hacia otra con iguales velocidades EG, FG ; por lo tanto, desde el punto de vista de este último (hipótesis II), ambas rebotarán después del contacto con iguales velocidades, a saber: E con la velocidad GE, y F con la velocidad GF. Mientras tanto, el bote sigue su movimiento con la velocidad GK. Por ello, con respecto a la orilla y al hombre en ella, F tendrá la velocidad EK, compuesta de GF y FK, mientras que E tendrá la velocidad FK ; es decir, la diferencia entre GE y GK. Y así resulta, respecto al hombre de la orilla, que hace chocar entre sí las esferas E y F con las velocidades EK y FK, que, después del choque, E retrocederá con la velocidad FK, mientras que F lo hará con la velocidad EK, como queríamos demostrar.
Si, por el contrario, ambos cuerpos se mueven hacia la derecha, a saber, E con la velocidad EK, mientras que F se le adelanta con la velocidad menor FK (fig. 15), E alcanzará al cuerpo F, encontrándose ambos en K. Digo entonces que, después del choque, F se moverá con la velocidadEK y, por el contrario, E seguirá con la velocidad FK. La demostración se hace como la anterior.

Ondas luminosas[50]
Cada puntito de un cuerpo luminoso, como el Sol, una vela o un carbón ardiente, engendra sus ondas, cuyo centro es precisamente ese puntito. Así, por ejemplo, si en la llama de una vela distinguimos los puntos A, B, G, los círculos concéntricos descritos alrededor de cada uno de esos puntos representan las ondas que derivan de los mismos. Es preciso formarse la misma idea alrededor de cada punto de la superficie y de la parte interior de esta llama.
Pero como las percusiones en el centro de esas ondas no tienen la continuación regulada, no hay que imaginarse que las ondas mismas se siguen en distancias iguales; y si esas distancias aparecen así en esta figura, es más bien para marcar el progreso de una misma onda en tiempos iguales que para representar varias derivadas de un mismo centro.
No es necesario, por lo demás, que esta prodigiosa cantidad de ondas, que se atraviesan sin confusión y sin eliminarse mutuamente, parezca inconcebible, siendo cierto que una misma partícula de materia puede servir a varias ondas, que vienen de diversos lados o aun de lados contrarios, no sólo en caso de ser empujada por golpes que se siguen uno tras otro, sino también por aquellos que actúan sobre ella en el mismo instante, y esto a causa del movimiento que se extiende sucesivamente, lo que puede probarse mediante una serie de bolas iguales, dispuestas en línea recta, de materia dura, de que se ha hablado anteriormente.

ap16.jpg

Si se empuja contra ella de dos lados opuestos dos bolas iguales A y D (fig. 16), se verá que cada una de ellas rebotará con la misma velocidad que tenía en el momento de partida, y que toda la serie permanecerá en su sitio, aunque el movimiento haya pasado a todo lo largo y doblemente. Y si estos movimientos contrarios vienen a encontrarse en la bola del centro B o en cualquier otra como C, ésta debe retroceder y actuar como un resorte, sirviendo de este modo, al mismo tiempo, para transmitir esos dos movimientos.
Pero lo que a primera vista puede parecer muy extraño y aun increíble es que las ondulaciones producidas por movimientos y corpúsculos tan pequeños puedan extenderse a distancias tan inmensas, como, por ejemplo, desde el Sol o desde las estrellas hasta nosotros, puesto que la fuerza de esas ondas debe debilitarse a medida que se apartan de su origen, de suerte que la acción de cada una en particular se vuelva, sin duda, incapaz de hacerse sentir a nuestra vista. Pero dejaremos de extrañarnos si consideramos que a una gran distancia del cuerpo luminoso una infinidad de ondas, aunque derivadas de diferentes puntos de ese cuerpo, se unen de manera que sensiblemente no forman más que una sola onda que, por consiguiente, debe tener bastante fuerza para hacerse sentir.
Así, este número infinito de ondas que nacen en el mismo instante de todos los puntos de una estrella fija, grande quizá como el Sol, constituyen una sola onda, la que puede tener bastante fuerza para hacer impresión sobre nuestros ojos. Aparte de que de cada punto luminoso pueden llegar varios millares de ondas en el menor tiempo imaginable, por la frecuente percusión de las moléculas que golpean el éter en estos puntos, lo que contribuye todavía a hacer su acción más sensible. Hay que considerar aún, en la propagación de estas ondas, que cada partícula de la materia en que una onda se extiende, debe comunicar su movimiento no solamente a la partícula prójima, que se halle en la línea recta tirada desde el punto luminoso, sino que también lo transmite necesariamente a todas las otras que la toquen y que se opongan a su movimiento. El resultado es que alrededor de cada partícula se genera una onda, cuyo centro es esa partícula misma. De esta manera, si DCF (fig. 17) es una onda emanada desde el punto luminoso A, que es su centro, la partícula B, una de las que están comprendidas en la esfera DGF, habrá hecho su onda particular KGL, que tocará la onda DGF en G, en el mismo momento en que la onda principal, emanada desde el punto A, alcance DGF ; está claro que el único punto de la onda KGL que tocará la onda DGF es el punto G que se halla en la recta trazada por AB. Asimismo, las otras partículas comprendidas en la esfera DCF, como bb, dd, etc., habrán hecho cada una su onda. Pero cada una de estas ondas sólo puede ser infinitamente débil en comparación con la onda DCF, a cuya composición contribuyen todas las otras con la parte de su superficie que es la más alejada del centro A.
Además, se ve que la onda DGF está determinada por el límite extremo del movimiento que ha partido del punto A durante cierto intervalo de tiempo, no habiendo movimiento más allá de esta onda, si bien lo hay en el espacio que ella encierra, es decir, en las partes de las ondas particulares que no tocan la esfera DGF. Esta hipótesis no debe considerarse demasiado forzada o sutil, ya que, como se verá a continuación, todas las propiedades de la luz y todo lo que se refiere a su reflexión y refracción se explica principalmente de esta manera.

Erasmo Bartholin
La doble refracción
[51]

Muy apreciado por todos los hombres es el diamante, y muchos son los placeres que brindan otros tesoros semejantes, tales como piedras preciosas y perlas, aunque sólo sirvan para embellecer y adornar el cuello y los dedos; pero quien, por otra parte, prefiere conocer fenómenos extraordinarios, experimentará un goce no menor —así lo espero— al observar una nueva clase de cuerpos, a saber, un cristal transparente recientemente traído de Islandia, que es quizá una de las más grandes maravillas producidas por la naturaleza. Durante largo tiempo me he ocupado de este cuerpo notable, realizando numerosas investigaciones con él, que publico gustosamente, en la creencia de que puedan servir a los amantes de la naturaleza y a otras personas interesadas en instruirse, o al menos en recrearse.
En primer lugar, la forma exterior de este cuerpo no es menos extraña y peculiar que la de la nieve, la sal u otros minerales y cristales. Está compuesta de cuadriláteros con superficies planas y lados equidistantes unos de otros, medidos desde el punto céntrico del cuadrilátero, pero que incluyen ángulos desiguales. La superficie plana que así se presenta se llama en geometría rombo, y el cuerpo sólido romboide. Esta forma no sólo aparece en el cuerpo entero, sino que también se mantiene en todas las partes en que el cuerpo pueda quebrarse.
Bartholin bosqueja aquí diferentes propiedades físicas y químicas del cristal y continúa: ap18.jpg Al adelantar en mi investigación con este cristal, descubrí un maravilloso y extraordinario fenómeno: los objetos mirados a través de este cristal no aparecen, como en los casos de otros cuerpos transparentes, en forma de simple imagen refractada, sino dobles.
Este descubrimiento y su explicación me ocupó durante largo tiempo, de modo que abandoné otras cosas por él. Reconozco haber llegado, gracias a esta observación, a un problema fundamental de la refracción. En un examen superficial es fácil perder de vista este fenómeno. Sin embargo, se puede exhibirlo fácilmente de la manera siguiente: colocar, sobre una mesa o papel claro, un objeto, por ejemplo, un punto o algo similar de tamañoB o A (fig. 18). Poner encima la superficie inferiorLMNO del romboide. Luego mirar, a través de la superficie superior BSPQ, el objeto A o B dirigiendo el ojo a través de la masa entera del prisma RSPQOLMN, primero sobre B, y después sobre A. Si miramos a través de otros cuerpos, como vidrio, agua, etc., la imagen del objeto aparece sólo una vez, mientras que, en este caso, cada uno de ellos se ve doble sobre la superficie BSPQ, es decir, B en 0 y H, y A en GD y FE, como lo muestra la figura.
Además, observamos que las dos imágenes producidas por nuestro cristal de Islandia no son exactamente semejantes, distinguiéndose en que una de ellas permanece fija y la otra se mueve. Por ello concluimos que podemos distinguir dos clases de refracción, y designamos a la primera, es decir, la que nos da la imagen fija, con el nombre de refracción ordinaria, y a la otra, que nos da la imagen movible, con el nombre de refracción extraordinaria. Al cristal mismo lo denominaremos birrefringente. ap19.jpg

Olae Römer
La velocidad de la luz
[52]

Durante largo tiempo los filósofos han estado esforzándose en decidir experimentalmente si la acción de la luz se transmite instantáneamente a una distancia cualquiera, o si requiere tiempo. El señor Römer, de la Real Academia de Ciencias, ha encontrado un método para hacerlo, basado en observaciones sobre el primer satélite de Júpiter; mostró que para atravesar una distancia de unas 3.000 leguas, que es casi igual al diámetro de la Tierra, la luz necesita menos de un segundo de tiempo.
Supongamos que A (fig. 19) represente al Sol, B a Júpiter, G al primer satélite cuando entra en la sombra de Júpiter, para salir de nuevo en D, y que EFGHLK representen la Tierra a diferentes distancias de Júpiter.
Ahora supongamos que cuando la Tierra está en L, en la segunda cuadratura de Júpiter, el primer satélite ha sido visto precisamente a su emergencia de la sombra en D ; y que cerca de cuarenta y dos horas y media más tarde, es decir, después de una revolución de este satélite, estando la Tierra en K, se ve de nuevo al satélite tornar a D. Es claro, entonces, que si la luz requiere tiempo para atravesar la distancia LK, el satélite parecerá volver a D más tarde de lo que lo haría si la Tierra hubiese permanecido en K ; de este modo, la revolución del satélite determinada por sus emergencias será más larga en tanto tiempo como el que la luz emplearía para pasar de L a K, y, por el contrario, en la otra cuadratura FG, en la cual la Tierra se aproxima o va al encuentro de la luz, las revoluciones determinadas por las inmersiones aparecerán disminuidas en tanto como las determinadas por las emergencias aparecían aumentadas.
Como en las 42 horas y media que el satélite emplea para cada revolución, la distancia entre la Tierra y Júpiter, en una u otra cuadratura, cambia al menos en 210 diámetros terrestres, es evidente que si la luz necesitara 1 segundo de tiempo para recorrer el diámetro de la Tierra, la luz tomaría 3 minutos y medio para recorrer cada uno de los intervalos FG, FL, y esto daría una diferencia de cerca de medio cuarto de hora en dos períodos de revolución del primer satélite, de los cuales uno fuera observado en FG y el otro en KL, y, sin embargo, no ha sido posible comprobar ninguna diferencia apreciable.
De ello no se sigue, sin embargo, que la luz no necesita tiempo, dado que después de haber examinado el asunto más concretamente, se ha descubierto que esta diferencia, que no es apreciable en dos revoluciones, resulta muy considerable cuando se toman varias de ellas en conjunto y que, por ejemplo, cuarenta revoluciones observadas del lado de F, son sensiblemente más cortas que otras cuarenta observadas del otro lado, cualquiera que sea la posición en que Júpiter se halle, y que la diferencia vale 22 minutos para toda la distancia HE, que es dos veces la distancia de la Tierra al Sol.
La necesidad de esta nueva ecuación del retardo de la luz es establecida por todas las observaciones que se han realizado en la Real Academia y el Observatorio, durante los últimos ocho años, y recientemente ha sido confirmada por una emergencia del primer satélite observada en París, el 9 de noviembre último, a las 5 horas, 34 minutos y 45 segundos de la tarde, 10 minutos después de lo que se esperaría teniendo en cuenta las observaciones del mes de agosto, cuando la Tierra estaba mucho más cerca de Júpiter, como el señor Römer había predicho en la Academia en septiembre; además, para disipar toda duda de que esta desigualdad era causada por el retardo de la luz, demostró que no puede provenir de una excentricidad u otra de las causas que ordinariamente se aducen para explicar las irregularidades de la Luna y las de otros planetas. No obstante, observó que el primer satélite de Júpiter era excéntrico y que además sus revoluciones eran adelantadas o retardadas cuando Júpiter se aproximaba al Sol o se alejaba de él, y aun que las revoluciones del satélite eran desiguales, a pesar de lo cual estas tres últimas causas de desigualdad no impedían a la primera causa manifestarse claramente.

Isaac Newton
La ley de la gravitación, la Luna y los planetas
[53]

La fuerza que mantiene a la Luna en su órbita está dirigida hacia la Tierra, y es inversamente proporcional al cuadrado de la distancia que, en las diferentes posiciones, la separa del centro de la Tierra.
La primera parte del enunciado es evidente, de acuerdo con el fenómeno 6 y el parágrafo 14 o el parágrafo 16 del libro I [54]; la segunda parte está demostrada por la gran lentitud del movimiento del apogeo de la Luna. En efecto: dicho movimiento, que vale 3°3' en el sentido dextrógiro para una vuelta, puede despreciarse.
Si despreciamos esta fuerza muy pequeña, la fuerza restante, que mantiene en su órbita a la Luna, es inversamente proporcional a D2. Esto se comprenderá también más completamente si se compara esta fuerza con la fuerza de gravedad, lo que se hará en los párrafos siguientes.
Corolario. Si la fuerza centrípeta media que mantiene a la Luna en su órbita se aumenta primero en la relación 177,725 : 178,725, y luego también en la doble relación del radio de la Tierra a la distancia media del centroide la Luna al centro de la Tierra, se obtiene la fuerza centrípeta de la Lima en la superficie de la Tierra, supuesto que dicha fuerza crezca siempre, a medida que se acerca a la superficie terrestre, en relación inversa al cuadrado de la distancia.
§ 4. Teorema. La Luna gravita hacia la Tierra; la gravedad aparta a la Luna de su trayectoria rectilínea y la mantiene en su órbita.
La distancia media de la Luna a la Tierra en las sicigias es = 59 radios terrestres según Tolomeo y la mayoría de los astrónomos; = 60 según Vendelinus y Huygens; = 60 1/3 según Copérnico; = 602/5 según Streetus, e = 56 1 /2 según Tycho. Pero Tycho y todos aquellos que utilizan sus tablas de refracción han admitido que la refracción del Sol y de la Luna (en completa oposición a la naturaleza de la luz) es mayor que la de las estrellas fijas en irnos 4 a 5 minutos, con lo cual han aumentado en dicha cantidad la paralaje de la Luna, es decir en 1 /12 a 1/15 de su valor total. Si se corrige este error, la distancia vale 60 1/2 radios terrestres, como la dan los demás. Vamos a admitir que la distancia media en las sicigias es de 60 radios terrestres, y a tomar como tiempo de revolución sidérea de la Luna 27 días, 7 horas y 43 minutos, como lo fijan los astrónomos. Si ahora admitimos que, según las mediciones de los franceses, el perímetro de la Tierra es de 123.249.600 pies de París, e imaginamos que la Luna se substrae a todo movimiento y se deja caer hacia la Tierra bajo la acción de la fuerza total que (según el corolario del § 3) la mantiene en su órbita, entonces recorrerá 15 1/ 2 pies de París en 1 minuto. Esto se obtiene mediante un cálculo que se efectúa según el § 76 del libro I (lo que es igual según el § 18, corolario 9, del mismo libro. En efecto: el seno verso del arco que en su movimiento medio y a una distancia de 60 radios terrestres describe la Luna en 1 minuto es aproximadamente 15 1 /2 pies, o más exactamente 15 pies 1 pulgada 1 4/9 líneas del sistema de medidas de París. Ahora bien: como aquella fuerza crece en razón inversa al cuadrado de la distancia, en la superficie terrestre es, por lo tanto, 60 x 60 veces mayor que en la Luna; de modo que un cuerpo que cayera en nuestras inmediaciones bajo la acción de aquella fuerza, tendría que recorrer en 1 minuto un camino de 60 x 60 x 151/2 pies, y en 1 segundo 15 1 /2 pies, o más exactamente 15 pies 1 pulgada 1 4/9 líneas del sistema de medidas de París.
Pero sobre la Tierra los cuerpos pesados caen efectivamente bajo la acción de aquella fuerza. En efecto: según Huygens, la longitud de un péndulo que bate el segundo a la latitud de París es = 3 pies 8,5 pulgadas del sistema de medidas de París.
La razón entre la altura que recorre un cuerpo pecado en 1 segundo de caída y la semilongitud del péndulo es igual al cuadrado de la razón entre la periferia y el diámetro de un círculo (según Huygens); esta altura es, pues, = 15 pies 1 pulgada 1 7 /9 líneas. Por lo tanto, la fuerza que mantiene en su órbita a la Luna resulta, cuando ésta desciende hacia la Tierra, igual a nuestra fuerza de gravedad, y es entonces (según las reglas 1 y 2) precisamente esa fuerza que llamamos gravedad. En efecto: si ella fuera diferente de la gravedad, los cuerpos que se acercaran a la Tierra tendrían que caer, bajo la acción combinada de ambas fuerzas, con doble velocidad, y recorrer en 1 segundo un camino de 30 1 /6 pies. Esto es contrario a la experiencia.
El cálculo precedente se basa en la hipótesis de que la Tierra está en reposo. Puesto que si la Tierra y la Luna se mueven alrededor del Sol, y al mismo tiempo también alrededor de su centro de gravedad común, entonces, si la ley de gravedad no cambia, la distancia de sus centros será de 60 1/2 radios terrestres, como se comprobará mediante el cálculo que puede efectuarse según el § 101 del libro I.
§ 5. Observación. La demostración de este teorema puede efectuarse perfectamente de la siguiente manera. Si alrededor de la Tierra giraran varias lunas, como ocurre con Júpiter y Saturno, sus tiempos de revolución cumplirían (concluyendo por inducción) la ley de los planetas descubierta por Kepler, y, por lo tanto, sus fuerzas centrípetas serían (de acuerdo con el § 1 de este libro) inversamente proporcionales a sus distancias en el centro de la Tierra. Si la distancia de la más próxima de ellas fuera muy pequeña, tanto que tocara casi las cumbres de las montañas más altas, entonces su fuerza centrípeta, gracias a la cual se mantiene en la órbita, sería (según el cálculo precedente) muy próxima a la gravedad de los cuerpos que se encuentran en dichas cumbres. Si ahora dicha pequeña Luna se sustrajera a la fuerza centrípeta que la mantenía en movimiento en su órbita, entonces dicha fuerza centrípeta la haría caer hacia la Tierra con la misma velocidad que tienen en esas cumbres los cuerpos que caen, puesto que sus fuerzas son iguales entre sí. Si la fuerza bajo cuya acción cae la pequeña Luna fuera diferente de la gravedad, y si además dicha Luna fuera pesada respecto a la Tierra, como lo son los cuerpos sobre dichas montañas, entonces caería, en virtud de ambas fuerzas combinadas, con doble velocidad. Ahora bien: como ambas fuerzas, tanto la de los cuerpos pesados como la de las lunas, están dirigidas hacia la Tierra, y puesto que son iguales entre sí y análogas, entonces tendrán también (según las reglas 1ª y 2ª) el mismo origen. Por lo tanto, la fuerza que mantiene a la Luna en su órbita será la misma que llamamos gravedad; la razón principal es que la pequeña Luna o bien estaría libre de toda gravedad en las cumbres de las montañas, o bien caería con doble velocidad que los cuerpos pesados.
§ 6. Teorema. Los satélites de Júpiter gravitan hacia Júpiter, los satélites de Saturno hacia Saturno, los planetas hacia el Sol, y la fuerza de su gravedad los aparta constantemente del movimiento rectilíneo y los mantiene en trayectorias curvilíneas.
Los movimientos de los satélites de Júpiter alrededor de Júpiter y de los de Saturno alrededor de Saturno, así como los movimientos de Mercurio, de Venus y de los demás planetas alrededor del Sol, son fenómenos de igual género, y, por lo tanto (según la regla 2ª), dependen de causas de la misma clase; sobre todo desde que se ha demostrado que las fuerzas que originan dichos movimientos están dirigidas hacia los centros de Júpiter, de Saturno y del Sol, y que al alejarse de dichos centros decrecen en la misma relación y según las mismas leyes que la fuerza de gravedad con el alejamiento de la Tierra.
Corolario lº En consecuencia, la gravedad existe para todos los planetas y satélites. En efecto: nadie pone en duda que Venus, Mercurio y los demás planetas son de la misma clase que Júpiter y Saturno. Ahora bien: como, según la ley 3ª del movimiento, cualquier atracción es recíproca, resulta que Júpiter gravitará hacia todos sus satélites, Saturno hacia los suyos, la Tierra hacia la Luna, y el Sol hacia todos los planetas.
Corolario 2º La fuerza de gravedad dirigida hacia cada uno de los planetas es indirectamente proporcional al cuadrado de la distancia de cada uno de los puntos a su punto medio.
Corolario 3º Todos los planetas, según los corolarios lº y 2º, gravitan unos hacia los otros, y, por lo tanto, Júpiter y Saturno se atraerán mutuamente en las cercanías de su conjunción y perturbarán apreciablemente sus movimientos. Del mismo modo, el Sol perturbará el movimiento de la Luna, y el Sol y la Lima perturbarán a nuestros océanos, como se demostrará a continuación.
§ 7. Observación. Hasta ahora, a la fuerza que mantiene a los cuerpos celestes en sus órbitas, la hemos llamado fuerza centrípeta. Ya está resuelto que ella es idéntica a la gravedad, y por eso la llamaremos gravedad en lo sucesivo.

* * * *

§ 9. Teorema. La gravedad es atributo de todos los cuerpos, y es proporcional a la cantidad de materia contenida en cada uno. Hemos demostrado anteriormente que todos los planetas gravitan unos sobre otros; que la gravedad respecto a uno de ellos que se considera en particular es inversamente proporcional al cuadrado de la distancia desde su centro de gravedad, y en consecuencia (según el libro I, § 110 [55] y corolarios) que la gravedad es en todos los planetas proporcional a su cantidad de materia. Además, todas las partes de un planeta A gravitan hacia cualquier otro planeta B, y la gravedad de una parte cualquiera es la gravedad del total como la materia de éste es a la de aquélla. Finalmente, la acción es (según la ley 3ª del movimiento) igual a la reacción. Entonces, por su parte, también el planeta B gravitará hacia todas las partes de A, y su gravedad hacia una parte cualquiera será a la gravedad frente a todo planeta/ como la materia de esta parte es a la materia del total; conforme queríamos demostrar.

Axiomas o leyes del movimiento [56]
Ley 1ª. Todo cuerpo persevera en su estado de reposo o de movimiento uniforme y en línea recta, salvo en cuanto mude su estado obligado por fuerzas exteriores.
Los proyectiles perseveran en su movimiento, salvo en cuanto son retardados por la resistencia del aire, o por la fuerza de la gravedad que los impele hacia abajo. Un trompo cuyas partes coherentes son perpetuamente desviadas del movimiento rectilíneo no cesa de girar sino en cuanto es retardado por el aire. Sin embargo, los cuerpos mayores de los planetas y cometas conservan por más tiempo sus movimientos progresivos y circulares, que se efectúan en espacios menos resistentes.
Ley 2ª. El cambio del movimiento es proporcional a la fuerza motriz impresa y se efectúa según la línea recta en dirección de la cual se comunica dicha fuerza.
Si alguna fuerza comunica un movimiento cualquiera, la fuerza doble, triple, etc., generará doble o triple movimiento, ya sea que esas fuerzas se apliquen simultáneamente o de modo graduado y sucesivo. Y este movimiento (en el mismo plano determinado con la fuerza generatriz), si el cuerpo se movía ya antes, se agrega a aquel movimiento, si él obra en el mismo sentido, o, al contrario, lo disminuye o la desvía oblicuamente y se compone con él, según la acción de ambos.
Ley 3ª. A toda acción se opone siempre una reacción contraria e igual: es decir, que las acciones entre dos cuerpos son siempre iguales entre sí y dirigidas en sentido contrario.
Todo cuerpo que oprime o atrae hacia sí a otro, a su vez es oprimido o atraído. Si alguien oprime una piedra con el dedo, también su dedo es oprimido por la piedra. Si un caballo tira de una piedra, atada por una cuerda, también (por decirlo así) es atraído igualmente el caballo hacia la piedra; pues la cuerda, tensa en todos sus puntos con el mismo esfuerzo, tirará del caballo hacia la piedra, lo mismo que de la piedra hacia el caballo, e impedirá en tanto el progreso o el avance de uno de ellos en cuanto promoverá el avance del otro. Si algún cuerpo choca con otro, mudará el movimiento de éste con su fuerza, del mismo modo que en el movimiento propio sufrirá mutación a su vez en sentido contrario del otro (por la igualdad de la presión transformada). A estas acciones son iguales los cambios, no de las velocidades, sino de los movimientos, siempre que se trate de cuerpos que no sufren otro impedimento exterior. En efecto: los cambios de las velocidades realizados en direcciones contrarias, por cuanto los movimientos se cambian igualmente, son recíprocamente proporcionales a las masas de los cuerpos. Esta ley es válida también para las atracciones, como se probará en el próximo escolio.
Corolario lº. Un cuerpo sujeto simultáneamente a dos fuerzas describirá la diagonal del paralelogramo cuyos lados describiría por su acción separada.
Si un cuerpo, en un tiempo dado, por la acción de una fuerza única M, impresa en el punto A, fuera llevado con movimiento uniforme desde A hasta B, y si por la acción de la sola fuerza N, aplicada en el mismo punto, fuera llevado desde A hasta O, complétese el paralelogramo ABCD, y el citado cuerpo será llevado por una y otra fuerza, en el mismo tiempo, según la diagonal que va de A a D. En efecto: como la fuerza N actúa según la recta AG, paralela a BD, esta fuerza, según la ley segunda, no cambiará en nada la velocidad generada por M, que lleva el cuerpo hacia BD. Por consiguiente, el cuerpo llegará en el mismo tiempo a la línea BD, se aplique o no se aplique la fuerza N. Y así, al final de ese tiempo, el cuerpo se encontrará en alguna parte de dicha línea BD. Por la misma razón, al fin de dicho tiempo, se hallará en algún punto de la línea CD : y por lo tanto es necesario que se encuentre en la intersección D de ambas líneas. Seguirá, pues, en movimiento rectilíneo desde A hasta D, en virtud de la ley 1ª.
Corolario 2º. De lo precedente resulta clara la composición de una fuerza directa, AD, a partir de fuerzas oblicuas cualesquiera AB y BD ; y, recíprocamente, la descomposición de cualquier fuerza dirigida según AD, en oblicuas cualesquiera, según AB y BD. Composición y descomposición ampliamente confirmadas por la mecánica.
Si del centro de una rueda [57] cualquiera 0, dos segmentos desiguales, OM, ON, sostienen por medio de los hilos MA, NP, pesos A y P, y se piden los valores de los pesos para mover la rueda: trazaremos por el centro O la recta KOL, que corta perpendicularmente los hilos en K y L ; por el centro O y con el radio OL (suponiendo OL mayor queOK ), describamos un círculo que corte el hilo MA en D : y sea AC una recta paralela a la OD y perpendicular a DO. Puesto que nada importa que los puntos de los dos hilos K, L, D, estén o no sujetos al plano de la rueda, los pesos tendrán la misma acción, ya estén suspendidos de los puntos K y L, o de los puntos D y L. Pero toda la fuerza del peso A opera a lo largo de la recta AD y puede descomponerse en las fuerzas AG y GD : de las cuales AC, atrayendo al radio OD directamente desde el centro, no tendrá efecto alguno para mover la rueda; en cambio, la otra fuerza DC, que atrae al radio DO perpendicularmente, tiene la misma acción que si atrajera al rayo OL igual al OD, esto es, lo mismo que el peso P, con tal de que ese peso sea proporcionalmente al peso A, como la fuerza DG es a la fuerza DA, o bien (por semejanza de los triángulos ADG, DOK ), como OK a OD o a OL. Así, pues, los pesos A y P, que son entre sí recíprocamente como los radios OK y OL, se equivaldrán y estarán, por consiguiente, en equilibrio: que es la conocida propiedad de los pesos, brazos y ejes de la polea. Si, a. contrario, uno de los pesos resulta mayor que en esta proporción, será tanto mayor su fuerza para mover la rueda.

Reconstrucción de la luz blanca [58]
Con los colores se puede componer el blanco y todos los colores grises entre el blanco y el negro. La blancura de la luz solar está compuesta de todos los colores primitivos mezclados en una justa proporción.
Después de haber hecho penetrar el Sol en un cámara oscura a través de un pequeño agujero circular hecho en el postigo de la ventana, y de haber quebrado su luz por un prisma, para proyectar sobre el muro opuesto la imagen del Sol, hice caer esta imagen solar sobre una lente de más de 4 pulgadas de ancho, alejada unos 6 pies del prisma y dispuesta de tal manera que la luz coloreada que sale divergiendo del prisma, se vuelva convergente y se reúna en su foco, que está a 6 u 8 pies de distancia de la lente; y que caiga perpendicularmente sobre un papel blanco. Si acercáis o alejáis este papel, veréis que cerca de la lente toda la imagen solar aparece sobre el papel teñida por colores muy fuertes, pero que alejándolo de la lente, estos colores se entremezclan continuamente, debilitándose en este proceso cada vez más, hasta que, colocado el papel en el foco, por una perfecta mezcla, se desvanecen enteramente, adoptando un color blanco, de modo que la luz aparece sobre el papel como un pequeño círculo blanco. Luego, si se vuelve a alejar más el papel de la lente, los rayos, que antes eran convergentes, se cruzarán ahora en el foco, tomándose divergentes a partir de este momento, de manera que los colores reaparecen, pero en el orden inverso: el rojo, que antes estaba en la parte baja, está ahora arriba, y el violeta, que estaba en la parte superior, está ahora en la inferior.
Detengamos ahora el papel en el foco, donde la luz aparece enteramente blanca y circular, y considerémosla en su blancura. Digo que esta blancura está compuesta de colores convergentes. Pues si se interceptan uno o varios de estos colores en la lente, la blancura desaparece al momento, tomando un color que proviene de la mezcla de los otros colores no interceptados; y si, dejando pasar en seguida los colores interceptados, se los hace caer sobre este color compuesto, éstos se mezclarán con aquéllos y restablecerán la blancura por su mezcla. Así, si se interceptan el violeta, azul y verde, los colores restantes, es decir, el amarillo, el anaranjado y el rojo, compondrán una especie de anaranjado sobre el papel; y si después de esto se dejan pasar los colores interceptados, caerán sobre éste anaranjado compuesto y, mezclados con éste, darán el blanco. Asimismo, si se interceptan el rojo y el violeta, los colores restantes —el amarillo, el verde y el azul— compondrán una especie de verde sobre el papel, después de lo cual, si se dejan pasar el rojo y el violeta, caerán sobre este verde y, mezclados con él, producirán de nuevo el blanco. Ahora bien: en esta composición que forma el blanco, los diferentes rayos no sufren cambio alguno en sus propiedades caloríficas al ejercer influencia unos sobre otros, siempre que estén solamente mezclados y produzcan el blanco por la mezcla de sus colores, lo que resalta aún más en las siguientes pruebas:
Si después de haber colocado el papel más allá del foco, se intercepta y deja pasar alternativamente el rojo, no se operará cambio alguno en el violeta que queda sobre el papel, como debería ocurrir si las diferentes especies de rayos actuaran unas sobre otras en el foco donde se cruzan. El rojo que está sobre el papel no cambiará, aunque se deje pasar o intercepte alternativamente el violeta que lo cruza.
Además, pensé que cuando los rayos más refrangibles y los menos refrangibles se inclinan unos hacia otros, por convergencia, al tener el papel en forma muy oblicua a estos rayos en el foco, podría reflejar una especie de rayos en mayor abundancia que los de toda otra especie, y que por este medio la luz reflejada en este foco estaría teñida por el color de los rayos predominantes, siempre que éstos conserven cada uno su color o propiedades caloríficas en el blanco compuesto que producen en ese foco. Pues si no las conservaran en el blanco, y en cambio, cada especie por separado fuera capaz de provocar la sensación del blanco, entonces no podrían perder su blancura por esta clase de reflexiones. Incliné, pues, el papel muy oblicuamente hacia los rayos, a fin de que los más refrangibles pudieran reflejarse en mayor abundancia que los otros; y en seguida la blancura se transformó sucesivamente en azul, índigo y violeta. Después de esto incliné el papel hacia el lado opuesto, a fin de que los rayos menos refrangibles se encuentren, en la luz reflejada, en mayor cantidad que los otros; la blancura se trocó sucesivamente en amarillo, anaranjado y rojo.
Por último, hice un instrumento en formo de peine, cuyos dientes, en número de dieciséis, tenían cerca de pulgada y media de ancho, mientras los intervalos de los mismos eran de unas 2 pulgadas. Al interponer sucesivamente los dientes de este instrumento cerca de la lente, intercepté una parte de los colores por medio del diente intercalado, en tanto que los otros colores, pasando a través del intervalo del diente, iban a caer sobre el papel para formar allí una imagen solar de figura redonda. Primero coloqué el papel de tal manera que la imagen pudiera aparecer blanca cada vez que se retirara el peine; después de lo cual, estando éste interpuesto como acaba de decirse, sucedía que, a causa de la intercepción de los colores cerca de la lente, esta blancura se cambiaba en un color compuesto de colores no interceptados; y, por el movimiento del peine, este color variaba continuamente, de manera que al pasar, a su vez, cada diente por encima de la lente, todos estos colores —rojo, amarillo, verde, azul y púrpura— se sucedían siempre unos a otros. Hice entonces pasar sucesivamente todos los dientes sobre la lente. A medida que pasaban lentamente, se veía una perpetua sucesión de colores sobre el papel. Pero si los hacía pasar tan rápidamente que los colores no pudieran distinguirse unos de otros a raíz de su velocidad, cada uno de estos colores desaparecía enteramente, pero en apariencia. No se veían ya ni el rojo, ni el amarillo, ni el verde, ni el azul, ni el púrpura, pero de la mezcla confusa de todos estos colores provenía un solo color de un blanco uniforme. Sin embargo, ninguna parte de la luz que la mezcla de todos estos colores hacía aparecer blanca, lo era realmente. Una parte era roja, otra amarilla, una tercera verde, una cuarta azul y una quinta púrpura. Así, cada parte conserva su propio color hasta el momento de impresionar el sensorio [59]. Si las impresiones se siguen tan lentamente que puedan percibirse cada una aparte, se produce una sensación distinta de todos los colores, una después de la otra, en una sucesión continua. Pero si las impresiones se siguen tan rápidamente que no puedan percibirse por separado, se produce una sensación común que no es propia de ningún color en particular, pero participa indiferentemente de todos, dando la impresión de blancura. La rapidez de las sucesiones hace que las impresiones de diferentes colores se confundan en el sensorio, y esta confusión produce la sensación mixta. De la misma manera, si se agita rápidamente un carbón encendido haciéndolo girar continuamente, se nota un círculo entero que parece todo de fuego; y la razón de ello está en que la sensación producida por el carbón ardiente en las diferentes partes de este círculo queda impresa sobre el sensorio hasta que el carbón vuelva al lugar primitivo. Así, cuando los colores se suceden con extrema rapidez, la impresión de cada color queda en el sensorio hasta que se completa una revolución de todos los colores y vuelve el primer color nuevamente, de manera que las impresiones de todos los colores que se siguen tan rápidamente se encuentran todas a la vez en el sensorio, produciendo conjuntamente una sensación de todos estos colores.
Es, pues, evidente, por esta experiencia, que las impresiones de todos los colores, una vez mezclados y confundidos entre sí, excitan y producen una sensación de blanco, es decir, que el ^blanco está compuesto de todos los colores mezclados entre sí.

La naturaleza de la luz[60]
¿No son erróneas todas las hipótesis en las cuales se supone que la luz consiste en presión o movimiento que se propaga a través de un medio fluido? Pues en todas estas hipótesis se han explicado los fenómenos luminosos suponiendo que se originaban por nuevas modificaciones de los rayos, lo que es una suposición errónea.
Si la luz consistiera sólo en presión que se propagara a través de un medio, sin movimiento real, no sería capaz de agitar y calentar los cuerpos que la reflejan y la refractan. Si consistiera en movimiento propagado a cualquier distancia en un instante, requeriría una fuerza infinita en todo momento, en toda partícula que emitiera luz, para generar ese movimiento.
Y si consistiera en presión o movimiento que se propagase instantáneamente o en un espacio de tiempo, se curvaría hacia la sombra, pues la presión o el movimiento no puede propagarse en un fluido, en línea recta, más allá de un obstáculo que detenga una parte del movimiento, sino que se torcerá y se esparcirá hacia el medio en reposo, que yace más allá del obstáculo, por todos los caminos. La gravedad tiende hacia abajo, pero la presión del agua que se origina por esa fuerza tiende hacia todos lados con igual intensidad, y se propaga tan rápidamente y con tanta fuerza hacia los lados como hacia abajo, a través de un recorrido curvo como a través de uno recto. Las ondas de la superficie del agua estancada, al pasar por los lados de un ancho obstáculo que detiene una parte de ellas, se curvan después y se dilatan gradualmente en el agua muerta detrás del obstáculo. Las ondas, pulsaciones o vibraciones del aire, en las cuales consiste el sonido, se doblan claramente, aunque no tanto como las, ondas del agua. Pues una campana, un cañón, se oyen más allá de una colina que impide ver el cuerpo sonoro; y los sonidos se propagan tan fácilmente a través de tubos curvos como a través de los rectos. Pero nunca se ha. visto que la luz siga un recorrido curvo o que se curve hacia la sombra. Pues las estrellas fijas, al interponerse cualquiera de los planetas, dejan de ser visibles. Así ocurre con parte del Sol, por la interposición de la Luna, Mercurio o Venus. Los rayos que pasan muy cerca de las aristas de un cuerpo se quiebran un poco por la acción del mismo, como hemos mostrado más arriba, pero no se acercan a la sombra, sino que se alejan de ella, y esto sólo ocurre al pasar el rayo por el cuerpo a una distancia muy pequeña de él. Tan pronto como el rayo ha pasado el cuerpo, sigue directamente.
Por lo que yo sé, nadie hasta ahora, excepto Huygens, ha intentado explicar la refracción extraordinaria del espato de Islandia, mediante presión o por la propagación del movimiento, para lo cual ese autor supone dentro de un cristal dos diferentes medios vibratorios. Pero cuando intentó explicar las refracciones en dos piezas sucesivas de aquel cristal, y encontró que eran tal como se ha mencionado más arriba, concedió no saber qué decir para explicarla. Pues las presiones o movimientos que se propagan desde un cuerpo luminoso deben ser iguales en todos sentidos, mientras que de estos experimentos se deduce que los rayos de luz poseen diferentes propiedades en sus diferentes lados. Sospechó que las pulsaciones del éter, al pasar a través del cristal, pudieran experimentar ciertas nuevas modificaciones que las obligarían a propagarse en este o aquel medio dentro del segundo cristal, de acuerdo con la posición de aquél. Pero no pudo decir qué modificaciones eran ésas, ni pensar nada satisfactorio acerca de ello. Y si él hubiera sabido que la refracción extraordinaria no depende de nuevas modificaciones, sino de las disposiciones originales e invariables de los rayos, habría encontrado igualmente difícil explicar cómo estas modificaciones, que él suponía impuestas a los rayos del primer cristal, podían estar en ellos después de incidir sobre aquél; y, en general, cómo todos los rayos que emiten los cuerpo^ luminosos pueden poseer estas disposiciones desde el principio. Para mí, por lo menos, esto me parece inexplicable si la luz no es más que presión o movimiento que se propaga a través del éter. Y es igualmente difícil explicar mediante esta hipótesis cómo los rayos se encuentran alternativamente en estado de fácil reflexión y fácil transmisión, a menos, quizá, que uno suponga que existen en el espacio dos medios vibratorios, y que las vibraciones de uno de ellos constituyen la luz, y las vibraciones del otro son más veloces, y tan pronto como han alcanzado a la vibración del primero las colocan en ese estado. Pero parece inconcebible cómo dos éteres pueden estar difundidos a través de todo el espacio, obrando el uno sobre el otro, y en consecuencia, experimentando uno las reacciones del otro, sin retardar, quebrantar, dispersar ni confundir recíprocamente sus movimientos. Levantan una gran objeción contra la suposición de acuerdo con la cual los cielos están llenos de medios fluidos, los movimientos regulares y perdurables de los planetas y cometas en todos los caminos del cielo. Pues de ahí se deduce que los cielos están vacíos de toda resistencia sensible y, en consecuencia, de toda materia sensible.

* * * *

¿No son los rayos de luz pequeñísimos cuerpos emitidos por las sustancias luminosas? Pues esos cuerpos pasarán en líneas rectas a través de los medios uniformes sin curvarse hacia la sombra, conforme a la naturaleza de los rayos de luz. Poseerán también varias propiedades, y serán capaces de mantenerlas invariables al pasar a través de diferentes medios, lo que es otra condición de los rayos luminosos. Las sustancias transparentes obran a distancia sobre los rayos de luz, refractándolos, reflejándolos y sometiéndolos a inflexión; y los rayos, a su vez, agitan a distancia las partes de estas sustancias, pues las calientan; y esta acción y reacción a distancia se parece mucho a una fuerza atractiva entre cuerpos. Si la refracción se efectuara por la atracción de los cuerpos, los senos de incidencia deberían estar en una razón dada a los senos de refracción, como hemos demostrado en nuestros Principios de filosofía, confirmando la experiencia esta regla. Los rayos de luz, al salir del vidrio hacia el vacío, se curvan hacia el vidrio y se inciden muy oblicuamente sobre el vacío, se curvan hacia el vidrio y se reflejan totalmente, y no puede considerarse que esta reflexión se deba a la resistencia de un vacío absoluto, sino que debe de provenir del poder del vidrio, que atrae los rayos al salir de él y pasar al vacío, trayéndolos de vuelta. Pues si la otra superficie del cristal se humedece con agua o aceite claro o con miel líquida y clara, los rayos, que de otra manera se reflejarían, pasarán al agua, aceite o miel y, en consecuencia, no se reflejarán antes de llegar a la otra superficie del vidrio y empezar a salir de él. Si ellos, emergiendo hacia el agua, el aceite o la miel, siguen, es porque la atracción del vidrio está casi contrapesada y se vuelve inefectiva por la atracción contraria del líquido. Pero si emergen de él hacia el vacío, que no posee ninguna atracción para contrarrestar la del vidrio, la atracción de éste, o somete los rayos a inflexión y los refracta, o los hace volver y los refleja. Y esto es todavía más evidente colocando juntos dos prismas de cristal, o dos objetivos de telescopio muy largo, plano el uno, un poco convexo el otro, y apretándolos de tal modo que no se toquen completamente ni estén demasiado alejados. Pues la luz que incide sobre la superficie posterior del primer cristal, donde el intervalo entre los dos cristales no excede de la millonésima parte de una pulgada, pasará a través de aquella superficie y a través del aire o del vacío entre ellos, y entrará en el segundo cristal, como se explicó en la primera, cuarta y octava observaciones de la primera parte del libro II.
Pero si se retira el segundo vidrio, la luz que emerge de la segunda superficie del primer cristal, hacia el aire o el vacío, no seguirá, sino que volverá hacia el primer vidrio y será reflejada, y, en consecuencia, es atraída hacia atrás por el poder del primer vidrio, pues no hay allí otra cosa para hacerlo volver. Sólo es necesario, para que se produzca toda la variedad de colores y grados de refrangibilidad, que los rayos de luz consistan en cuerpos de diferentes tamaños, de los cuales los más pequeños producirían el violeta, el más débil y oscuro de los colores, y el que más se desvía, por las superficies de refracción, de su trayectoria correcta; y el resto, cuerpos cada vez más grandes, producirían los colores más fuertes y brillantes: azul, verde, amarillo y rojo, colores más difíciles de ser desviados.
Para que los rayos tengan acceso de fácil reflexión y de fácil transmisión, sólo es necesario que ellos consistan en pequeños cuerpos que, por su fuerza atractiva o alguna otra, originan vibraciones allí donde actúan, vibraciones que, siendo más veloces que los rayos, los alcanzan sucesivamente, y los agitan de tal modo que unas veces aumentan y otras disminuyen sus velocidades, provocándoles de ese modo dichos accesos. Y, finalmente, la refracción extraordinaria del espato de Islandia tiene toda la apariencia de que se efectuara mediante alguna clase de virtud o propiedad atractiva, situada en ciertos lados de los rayos y también de las partículas de cristal. Pues si no fuera por cierta clase de disposición o virtud situada en algunos lados de las partículas de cristal, y no en los otros lados, virtud que inclina y quiebra los rayos hacia el lado de la refracción extraordinaria, los rayos que inciden perpendicularmente sobre el cristal no se refractarían hacia aquel lado más bien que hacia otro cualquiera, tanto a su incidencia como a su emergencia, y no emergerían, como lo hacen, perpendicularmente por una posición opuesta al lado de refracción extraordinaria en la segunda superficie, obrando el cristal sobre los rayos, después que ellos han pasado a través de él y están emergiendo hacia el aire, o, si se quiere, hacia el vacío. Y puesto que el cristal, por esta disposición o virtud, no obra sobre los rayos sino cuando uno de sus lados de refracción extraordinaria está dirigido hacia aquel lado, implica esto una virtud o disposición en aquellos lados de los rayos que armonizan y simpatizan con aquella virtud o disposición del cristal, así como armonizan los dos polos de un imán. Y así como el magnetismo sólo puede ser producido o disminuido en sus efectos en los imanes y el hierro, así esta virtud de refractar el rayo perpendicular es mayor en el espato de Islandia, menor en el cristal de roca, y no se ha encontrado todavía en otros cuerpos. Yo no digo que esta virtud sea magnética; parece ser de otra clase; digo tan solo que, de cualquier clase que ella sea, es difícil imaginarse cómo los rayos de luz, a menos que sean cuerpos, posean una virtud permanente en dos de sus lados, virtud que no poseen los otros dos; y esto sin tener en cuenta de ninguna manera su posición en el espacio o medio a través del cual pasan.

* * * *

¿No son convertibles los grandes cuerpos en luz, e inversamente? ¿No provendrá mucha de su actividad de las partículas de luz que entran en su composición? Pues todos los cuerpos sólidos, al ser calentados, emiten luz, en tanto que continúan estando suficientemente calientes, e, inversamente, la luz es absorbida por los cuerpos en cuanto sus rayos inciden sobre sus partes, como lo hemos demostrado más arriba. No conozco ningún cuerpo menos apto para emitir luz que el agua, y, sin embargo, ella, mediante destilaciones sucesivas, se transmuta en una tierra sólida, como lo ha probado el señor Boyle; esta tierra, por ser capaz de resistir un calor suficiente, emite luz, mediante el calor, exactamente como los otros cuerpos.
La transmutación de cuerpos en luz y de luz en cuerpos está en conformidad con el curso de la naturaleza, que parece deleitarse en las transmutaciones. Al agua, una sal muy fluida, insípida, la cambia mediante el calor en vapor, que es una clase de aire; y por el frío, en hielo, que es una piedra dura, translúcida, quebradiza y fusible; y esta piedra vuelve a ser agua mediante el calor, y el vapor vuelve a ser agua mediante el frío. La tierra, mediante el calor, se convierte en fuego, y por el frío vuelve a ser tierra. Los cuerpos densos, por fermentación se convierten en diferentes clases de aire; y este aire, por fermentaciones, y a veces sin ellas, vuelve a convertirse en cuerpos densos. El mercurio aparece a veces en la forma de una sal corrosiva, transparente, llamada sublimado; a veces en la forma de una tierra violeta o blanca, sin sabor, transparente, llamada mercurius dulcís ; o en forma de una tierra roja opaca, llamada cinabrio, o de un precipitado rojo o blanco, o en la de una sal fluida; y por destilación se convierte en vapor, y al ser agitado en el vacío emite luz, como el fuego. Y después de todos estos cambios vuelve nuevamente a su forma primitiva de mercurio.
Los huevos crecen a partir de tamaños insensibles, y se convierten en animales; los renacuajos, en ranas; los gusanos, en moscas. Todos los pájaros, bestias y peces, insectos, árboles y otros vegetales, con todas sus partes, crecen del agua y de soluciones acuosas y sales; y por la putrefacción vuelven (a ser) nuevamente sustancias acuosas.

* * * *

Y entre tan variadas y extrañas transmutaciones, ¿por qué no podría la naturaleza cambiar los cuerpos en luz, y la luz en cuerpos?

Físicos del Siglo XVIII

Daniel Bernoulli
Teoría cinética de los gases
[61]

1. Al considerar los fluidos elásticos, vamos a asignarles una constitución adecuada a sus propiedades conocidas, de modo que podamos emprender el estudio de otras que aún no han sido suficientemente investigadas.
Las propiedades particulares de los fluidos elásticos son las siguientes: El aire es un cuerpo de esta naturaleza al cual se refieren especialmente las siguientes investigaciones.
2. Consideremos un vaso cilíndrico (fig. 20) ACDB, situado verticalmente, y en él un pistón movible EF, sobre el cual se coloca un peso P; supongamos que la cavidad ECDF contenga pequeños corpúsculos, los cuales son agitados de acá para allá con rápido movimiento, de suerte que los corpúsculos, cuando chocan contra el pistón EF y lo sostienen con repetidos impactos, forman un fluido elástico, que se expandirá si el peso P es apartado o disminuido, que se condensará si el peso P se aumenta, y que gravitará hacia el fondo horizontal GD como si no estuviera dotado con poder elástico, pues aunque los corpúsculos permanezcan quietos o agitados, no pierden su peso, y el fondo no sostiene sólo el peso, sino la elasticidad del fluido.
Tal es, pues, el fluido que sustituiremos por aire. Sus propiedades están de acuerdo con las que hemos atribuido a los fluidos elásticos, y por medio de ellas explicaremos otras propiedades que han sido descubiertas para el aire, e indicaremos algunas que aún no han sido suficientemente examinadas. ap20.jpg
3. Consideremos los corpúsculos que están contenidos en la cavidad cilíndrica como prácticamente infinitos en número, y cuando ellos ocupan el espacio EGDF, supongamos que constituyen aire ordinario, al cual, como modelo, todas nuestras medidas van a ser referidas; y así el peso P, sosteniendo el pistón en la posición EF, no difiere de la presión de la atmósfera sobrepuesta, la que, por lo tanto, designaremos por P en lo que sigue.
Esta presión no es exactamente igual al peso absoluto de un cilindro vertical de aire que descansa sobre el pistón EF, como hasta ahora muchos autores han afirmado sin suficiente motivo; más bien es la cuarta proporcional entre la superficie de la tierra, el tamaño del pistón EF, y el peso de toda la atmósfera sobre la superficie de la tierra.
4. Ahora investigaremos el peso π que basta para condensar el aire contenido en el volumen EGDF en el espacio eCDf, bajo la suposición de que la velocidad de las partículas es la misma en ambas condiciones del aire, tanto en la condición natural como en la condensada. Sea EG = 1 y eC = s. Cuando el pistón EF es movido a ef, es evidente que produce presión mayor sobre el fluido por dos razones: primera, porque el número de partículas es ahora mayor en proporción al espacio en que están contenidas, y segunda, porque cada partícula repite sus impactos más a menudo. Para que podamos calcular correctamente el incremento del cual depende la primera causa, podemos considerar las partículas como si permanecieran quietas. Sea el número de las partículas contiguas al pistón en la posición EF igual a n; entonces el número probable cuando el pistón está en la posición ef será:

eq32.png

El fluido no es más condensado en la parte baja que en la superior, si admitimos que el peso P es infinitamente más grande que el peso del fluido mismo; por esta razón, las presiones del fluido están una con otra en la relación de los númerosn y n : s2/3, o sea como s2/3 es a 1.
En cuanto se refiere al otro incremento que origina la segunda causa, se puede explicar en consideración al movimiento de las partículas; es claro que sus impactos son tanto más frecuentes cuanto más juntas están encerradas las partículas: por lo tanto, el número de los impactos será inversamente proporcional a las distancias medias entre las superficies de las partículas, y estas distancias medias serán, así determinadas.
Supongamos que las partículas son esféricas. Representemos por D la distancia media entre los centros de las esferas cuando el pistón está en la posición EF, y por d el diámetro de una esfera. Entonces la distancia media entre las superficies de las esferas será Dd. Pero es evidente que cuando el pistón está en la posición ef, la distancia media entre los centros de las esferas = D 3√s y, por lo tanto, la distancia media entre las superficies de las esferas = D 3√s - d.
Con respecto a la segunda causa, la presión del aire, en su estado natural en ECDF, será a la presión del aire comprimido en eCDf como

eq33.png

Cuando ambas causas se juntan, las predichas presiones serán como

eq34.png

La relación de D a d podemos sustituirla por algo más comprensible. Si pensamos que el pistón EF es comprimido por un peso infinito, de modo que desciende a la posición mn, en la que todas las partículas están en contacto, y si representamos la línea mC por m, tendremos que D es a a como 1 es 3√m
Si sustituimos esto en la relación anterior, encontraremos que la presión del aire natural en ECDF es a la presión del aire comprimido en eCDf como

eq35.png

Por lo tanto,

eq36.png

5. De todos estos hechos conocidos podemos sacar en conclusión que el aire natural puede ser condensado y comprimido muchísimo, en un espacio casi infinitamente pequeño; de este modo podemos poner m = 0, y de esto π = P/s; por ello, los pesos que comprimen están casi en razón inversa a los espacios que el aire ocupa cuando es comprimido en distintos grados.
Esta ley ha sido probada por muchos experimentos. Ella puede ser adoptada con seguridad para atmósferas menos densas que el aire natural. Si puede ser sostenida para aires considerablemente más densos que el aire natural, no lo he investigado aún suficientemente: aún no he hecho experimentos fundados, con la exactitud que se requiere en estos casos.
6. La elasticidad del aire no sólo es aumentada por condensación, sino por el calor que recibe. Como el calor puede ser considerado un movimiento interno de las partículas, se deduce que si la elasticidad del aire, cuyo volumen no cambia, es aumentada, el movimiento en las partículas del aire se vuelve más intenso; lo cual concuerda con nuestra hipótesis. Es evidente que tanto mayor peso P es necesario para guardar el aire en el volumen EGDF, cuanto mayor es la velocidad con que las partículas aéreas son agitadas. No es difícil ver que el peso P es proporcional al cuadrado de la velocidad, porque cuando ésta aumenta, no sólo aumenta el número de impactos, sino también la intensidad de cada uno de ellos, y cada uno es proporcional al peso P.
Por lo tanto, si la velocidad de las partículas es llamada v, el peso que es capaz de sostener el pistón en la posición EF es igual a vvP, y en la posición

eq37.png

o aproximadamente vvp/s, porque, como hemos visto, el número m es muy pequeño comparación con la unidad o con el número s.

José Sauveur
Tonos armónicos
[62]

Divídase la cuerda del monocordio en partes iguales, por ejemplo en cinco (podemos dividir una regla de la misma longitud y colocarla a lo largo de la cuerda); tírese de la misma así como está, y ella dará un tono que llamo fundamental; tan pronto como sea posible, llévese un pequeño obstáculo G a una de las divisiones D, como la punta de una pluma, si la cuerda es delgada. De esta manera el movimiento de la misma puede ser transmitido a un lado y a otro del obstáculo, y la cuerda dará el quinto tono armónico, es decir, el XVII.

ap21.jpg

Para entender la razón de este resultado obtenido, debe tomarse en cuenta que cuando estiramos la cuerda AB en su totalidad (figura 21), ella vibra en toda su longitud, pero cuando colocamos un obstáculo G en la primera división D de ella, la que se supone dividida en cinco partes iguales, la oscilación totalAB queda dividida primero en las dos oscilaciones AD yDB; y desde que AD es un quinto de AB, o un cuarto de DB, ella efectúa sus oscilaciones cinco veces más rápidamente que toda la cuerda AB o cuatro veces más rápidamente que la otra parte DB; de manera que la parte AD lleva consigo la parte inmediata DB y la obliga a seguir su movimiento. Esta otra parte, DE, debería, por consiguiente, ser igual a AD, porque una parte más grande se movería más lentamente, y una más corta, con velocidad mayor. Luego, la parte DE obligará a su vecina EF a tener el mismo movimiento, y así sucesivamente, hasta la última. Todas las partes efectuarán vibraciones que se cruzarán en los puntos de división D, E, F y G, y por consiguiente, la cuerda dará el quinto tono armónico, o sea el XVII.
Llamare a esos puntos A, D, E, F, G, B, (fig. 22), nodos, y a los puntos medios de cada una de las partes oscilantes les llamaré vientres.

ap22.jpg

Si el obstáculo G está colocado en el segundo punto divisorio, E, de la cuerda, dará el mismo tono armónico, pues:
  1. el obstáculo C obligará al principio a la cuerda a efectuar dos oscilaciones AE y EB;
  2. desde que la oscilación AE es más rápida que la otra, obligará a la parte EG, que es igual a sí misma, a seguir su movimiento;
  3. la parte restante GB, que es la mitad de una de éstas, vibrando dos veces más rápidamente, forzará a la parte, igual a ella, GF, a seguir su movimiento, y ésta obligará a la próxima, EF, a lo propio, y así sucesivamente hasta la última.
De manera que toda la cuerda estará dividida, mediante partes oscilantes, en partes iguales a la mayor medida común de las partes AG y GB, en las que se halla dividida la totalidad de la cuerda por medio del obstáculo liviano G.
Podemos revelar esas oscilaciones:
  1. Mediante el oído, pues aquellos que lo poseen fino y sensible, percibirán un tono armónico que se hada en proporción a las partes que forman esas oscilaciones; o podremos asegurarnos de ello poniendo el monocordio al unísono con el tono armónico.
  2. Por la vista, porque, si dividimos la cuerda en partes iguales, por ejemplo en cinco, y si colocamos un tope movible G en los puntos D o E, y ponemos pequeños trozos de papel negro en los puntos de división D y F, y pedacitos de papel blanco en los puntos medios de esas longitudes, entonces, cuando golpeemos la parte AG, notaremos que los pedacitos de papel blanco situados en los vientres, serán despedidos, y que los trocitos de papel negro que están en los nodos, quedarán en su lugar.

José Black
Calor latente
[63]

Cuando el hielo o cualquier otra sustancia sólida se vuelve fluida por la acción del calor, soy de opinión que recibe una cantidad del mismo, en cantidad mucho más grande que la que es inmediatamente perceptible por el termómetro. En esta ocasión, entra en el mismo una cantidad de calor mayor, sin tomarlo aparentemente más caliente, lo que se pone de manifiesto mediante el termómetro. Esta cantidad de calor, no obstante, debe serle entregada, para que tome la forma de fluido; y yo afirmo que esta gran entrega de calor es la causa principal y más inmediata de la fluidez que se le ha comunicado.
Por otra parte, cuando privamos a dicho cuerpo de su fluidez mediante una disminución de calor, una gran cantidad de calor sale del cuerpo mientras éste va asumiendo la forma sólida. La pérdida de este calor no será percibida mediante el uso común del termómetro. El calor aparente del cuerpo, tal como es medido por ese aparato, no está disminuido o no lo está en proporción con la pérdida de calor que el cuerpo realmente entrega en tal ocasión. De una serie de hechos se deduce que el estado de solidez no puede ser obtenido sin la sustracción de esa considerable cantidad de calor. Y ello confirma la opinión de que esta gran cantidad de calor absorbida y, si se quiere, escondida en la composición de los fluidos, es la causa más necesaria e inmediata de su fluidez.
Para comprender las bases de esta opinión, y ante la inconsistencia de la anterior frente a numerosos hechos evidentes, debemos considerar en primer lugar las apariencias observables en la fusión del hielo y en la congelación del agua.
Si prestamos atención a la manera como el hielo y la nieve se funden cuando están expuestos al aire de una habitación caliente, o al deshielo en la primavera, percibiremos que, no obstante lo fríos que estaban al principio, pronto son calentados hasta su punto de fusión, o pronto su superficie empieza a transformarse en agua. Y si la opinión común estuviera bien basada, si la transformación completa en agua de aquéllos requiriera sólo la adición de pequeña cantidad de calor, la masa del hielo o nieve, a pesar de su tamaño considerable, debería ser fundida en pocos minutos o segundos, proviniendo ese calor, necesario e incesante, del aire que lo rodea. Si éste fuera en verdad el caso, las consecuencias del mismo serían temibles en muchas ocasiones, pues aun siendo las cosas como son, la fusión de grandes cantidades de hielo y nieve ocasiona violentos torrentes y grandes inundaciones en las regiones frías, o en los ríos que provienen de ellas. Pero si el hielo y la nieve se fundieran tan rápidamente como deberían hacerlo si la primera opinión sobre la acción del calor estuviera en lo cierto, los torrentes e inundaciones serían incomparablemente más irresistibles y espantosos. Destrozarían todo, y tan repentinamente, que la humanidad tendría grandes dificultades para escapar a tiempo de su furia. Esta repentina fusión no se efectúa en la realidad: las masas de nieve y de hielo se funden en un proceso lento y requieren largo tiempo, especialmente si son de gran tamaño, como los glaciares, ventisqueros y grandes capas de nieve acumuladas durante el invierno. Éstas, una vez iniciada su fusión, requieren frecuentemente muchas semanas de tiempo caluroso, antes de que se disuelvan totalmente en agua. Esta notable lentitud con que se funde el hielo, nos permite conservarlo durante el verano en las construcciones llamadas «casas de hielo» (depósitos de hielo). Comienza el hielo a fundirse en ellas tan pronto como es colocado en su interior; pero como el edificio expone al aire sólo una pequeña parte de su superficie y tiene una gruesa capa de barda o de paja, y el acceso del aire atmosférico al interior está impedido por todos los medios posibles, el calor penetra en la «casa de hielo» lentamente, y ello, agregado a la lentitud con que el hielo está dispuesto a fundirse, hace que la fusión total se efectúe tan lentamente que en algunos de estos depósitos el hielo dura hasta el fin del verano. De la misma manera, la nieve continúa en muchas montañas durante todo el verano en estado de fusión, pero haciéndolo tan lentamente, que toda la estación no es suficiente para su fusión total.
Esta notable lentitud con la que se funden el hielo y la nieve, me pareció muy discordante con la opinión común de la modificación del calor durante la licuefacción de los cuerpos.
Y este mismo fenómeno constituye en parte la base de la tesis que propongo. Si examinamos lo que sucede, podremos advertir que la gran cantidad de calor que penetra en el hielo al estado de fusión para originar el agua en la que éste se transforma, y la duración del tiempo necesario para la sustracción de tanto calor a los cuerpos que lo rodean, es la razón de la lentitud con la que el hielo es fundido. Si alguna persona duda de la entrada y de la absorción de calor por el hielo en fusión, no tiene más que tocarlo: instantáneamente sentirá que éste absorbe rápidamente el calor de la mano. Puede también examinar los cuerpos que lo rodean, o están en contacto inmediato con el hielo; o, si éste está suspendido de un hilo en el aire de una habitación, podrá percibir con su mano, o mediante un termómetro, una corriente de aire frío que desciende constantemente del hielo. En efecto: el aire en contacto con aquél, está siendo privado de una parte de su calor, y, por lo tanto, enfriado, se torna más pesado que el aire del resto del ambiente; por esta causa se dirige hacia abajo, siendo su lugar ocupado inmediatamente por el aire más caliente, y por ello más liviano, el que, a su vez, pierde pronto algo de su calor y desciende de la misma manera. De ahí que se establezca una corriente continua de aire caliente, desde el derredor hacia las inmediaciones del hielo, y un descenso de aire frío desde la parte baja de la masa del hielo suspendido. Durante esta operación, el hielo ha de recibir necesariamente una gran cantidad de calor.
Es evidente, pues, que el hielo fundente recibe calor muy rápidamente, pero el único efecto de éste es transformarlo en agua, la que no es ni un ápice más caliente que el hielo. Un termómetro aplicado a las gotas o pequeñas corrientes de agua, a la salida inmediata del hielo, acusará la misma temperatura que cuando se lo coloca directamente sobre el hielo; o, si hay alguna diferencia, es demasiado pequeña como para tomarla en consideración o prestarle atención. Por consiguiente, una gran cantidad de calor, o de la sustancia del calor, entra en el hielo y no produce otro efecto que darle fluidez, sin aumentar sensiblemente su calor. Parece ser absorbido y escondido en el seno del agua de tal modo que no puede descubrirse por la aplicación del termómetro.

Cisternay Dufay
Dos clases de electricidad
[64]

He descubierto un principio muy sencillo, que explica gran parte de las irregularidades y, si podemos usar el término, de los caprichos que acompañan a la mayoría de los experimentos con la electricidad. El principio en cuestión consiste en que los cuerpos electrizados atraen a todos los que no lo están, y los repelen tan pronto como se electrizan, debido a su vecindad o contacto con el cuerpo electrizado. Por ello, la hoja de oro es primero atraída por la varilla, luego adquiere electricidad cuando se le acerca, y en consecuencia es inmediatamente repelida. Nunca será retraída mientras mantenga su cualidad de electrizada. Pero si es conectada con otro cuerpo, al instante pierde su electricidad y, en consecuencia, es retraída por la varilla, la que, habiéndola cargado de nuevo, la repele por segunda vez, lo que proseguirá haciendo mientras la varilla tenga electricidad. Aplicando este principio a variados experimentos con la electricidad, se sorprende uno ante la cantidad de hechos oscuros que quedan aclarados. Los famosos experimentos de Hauksbee con el globo de vidrio en el que se colocan hilos de seda, son una consecuencia necesaria de ello. Cuando esas hebras son dispuestas en forma de rayos por la electricidad de los lados del globo, entonces, cuando se acerca el dedo al exterior de éste, las hebras se separan de él, como es conocido. Ello es debido a que el dedo, o cualquier otro cuerpo, aplicado cerca del globo de vidrio, se vuelve, consecuentemente, electrizado y repele las hebras de seda que poseen la misma calidad. Con un poco de reflexión, uno puede explicarse de la misma manera la mayoría de los otros fenómenos que parecen inexplicables sin este principio.
Ocasionalmente, ha cruzado en mi camino otro principio, que es más notable y universal que el precedente, y que proyecta una luz nueva sobre el tema de la electricidad. Este principio consiste en que hay dos clases diferentes de electricidad, muy distintas entre sí: una, que llamo electricidad vítrea, y la otra, electricidad resinosa. La primera es la del vidrio, cristal de roca, piedras preciosas, pelo de animales, lana, y muchos otros cuerpos; la segunda es la del ámbar, goma laca, seda, hilo, papel y un vasto número de otras sustancias. La característica de estas dos electricidades es que un cuerpo cargado, por ejemplo, con electricidad vítrea, repele a todos los demás que están cargados en la misma forma, y, por el contrario, atrae a los que poseen electricidad resinosa; de modo que si se electriza, la varilla repelerá el vidrio, cristal, pelo de animales, etc., electrizados, y atraerá la seda, hilo, papel, etc., también electrizados. Por el contrario, el ámbar atraerá al vidrio y otras sustancias de la misma clase, y repelerá la goma laca, seda, hilo, etc. Dos cintas de seda electrizadas se repelerán; lo mismo sucederá con dos hilos de lana; pero un hilo de lana y uno de seda se atraerán mutuamente. El principio explica muy naturalmente por qué los extremos de hebras de seda o de lana se separan de sus iguales en forma de pincel o escobilla, cuando han adquirido la propiedad eléctrica. Mediante este principio, uno puede deducir con facilidad la explicación de gran número de otros fenómenos. Y es probable que esta verdad nos conduzca al descubrimiento ulterior de muchas otras cosas.
Para averiguar o llegar a saber inmediatamente a cuál de las dos clases de electricidad pertenece la carga de un cuerpo, sólo se necesita electrizar un hilo de seda, que, como se sabe, es de electricidad resinosa. Deduciremos el carácter del cuerpo electrizado viendo, si repele o atrae a aquél. Si lo atrae, es por cierto de clase vítrea; y si lo repele, será de la misma clase que la seda cargada, o sea resinosa.

Benjamín Franklin
El poder de las puntas y el pararrayos
[65]

Colocad una bola de hierro de 3 a 4 pulgadas de diámetro sobre el orificio de una botella de vidrio, bien limpia y seca; con un hilo de seda atado al artesonado, precisamente sobre el orificio de la botella, suspended una bolilla de corcho del tamaño de un balín de mosquete, dándole al hilo la longitud necesaria para que la bolilla de corcho quede junto a la bola que previamente fue electrizada: el corcho será rechazado a una distancia de 4 ó 5 pulgadas más o menos, según la cantidad de electricidad. En este estado, si presentáis a la bola la punta de un punzón largo y fino, a 6 u 8 pulgadas de distancia, la repulsión cesará en el acto, y el corcho volará hacia la bola. Para que un cuerpo romo produzca el mismo efecto, es necesario que se aproxime 1 pulgada y arranque una chispa. A fin de probar que el fuego eléctrico es atraído por la punta, si quitáis de su mango la parte chata del punzón y lo fijáis en una barra de lacre, en vano presentaréis el punzón a la misma distancia o lo aproximaréis más aún, pues el mismo efecto no se producirá. Pero deslizad el dedo a lo largo del lacre hasta tocar la parte chata, entonces el corcho volará en seguida hacia la bola.
Si presentáis esta punta en la oscuridad, veréis algunas veces, a 1 pie de distancia y más, una luz brillante, semejante a un fuego fatuo o a una luciérnaga. Cuanto menos aguda es la punta, tanto más hay que aproximarla para percibir la luz, y a cualquier distancia que observéis la luz, podréis atraer el fuego eléctrico y destruir la repulsión.
Si una bola de corcho así suspendida es repelida por un tubo, y si la punta se le presenta bruscamente, aun a distancia considerable, veréis con sorpresa con cuánta rapidez el corcho vuelve hacia el tubo. Las puntas de madera producirán el mismo efecto que las de hierro, siempre que no esté seca, ya que la madera perfectamente seca no es mejor conductora de la electricidad que el lacre de España.
Para demostrar que las puntas tanto repelen como atraen el fuego eléctrico, colocad una larga aguja puntiaguda sobre la bola, y veréis que es imposible electrizarla lo bastante para hacerle repeler la bolilla de corcho...
Ahora, si el fuego eléctrico y el de los rayos es el mismo, como he tratado de demostrar, pregunto, admitiendo esta suposición, si el conocimiento del poder de las puntas no podría beneficiar a los hombres para preservar las casas, las iglesias, los buques, etc., contra los golpes del rayo, fijando perpendicularmente, sobre las partes más elevadas de los edificios, barras de hierro en forma de aguja y doradas para prevenir la herrumbre, y al pie de estas barras un alambre que llegue hasta los cimientos en la tierra o alrededor de uno de los obenques de un barco o sobre la borda hasta tocar el agua. ¿No atraerían estas barras de hierro, en silencio, el fuego eléctrico de la nube, antes de que ésta pueda aproximarse para dar el golpe? ¿Y no podríamos por este medio precavernos de tantos desastres repentinos y terribles?
Para decidir la cuestión y saber si las nubes que contienen el rayo están electrizadas o no, tuve la idea de proponer una experiencia a realizarse en un lugar conveniente a este efecto. Colocad sobre la cúspide de una alta torre o de un campanario una especie de mirador bastante grande como para que pueda caber en él un hombre y un taburete eléctrico; del medio del taburete levantad una barra metálica, que pase doblada fuera de la puerta y se eleve perpendicularmente a una altura de 20 ó 30 pies, terminando en una punta muy aguda. Si el taburete eléctrico está limpio y seco, el hombre que esté sentado cuando las nubes electrizadas pasan un poco bajas, puede ser electrizado y despedir chispas, pues la barra de hierro le atraerá el fuego de la nube.

Carlos Augusto Coulomb
Ley de la fuerza eléctrica
[66]

En una memoria presentada a la Academia en 1784, he determinado, mediante experimentos, las leyes de la fuerza de torsión de un alambre metálico, y he encontrado que esta fuerza es igual al producto del ángulo de torsión, de la cuarta potencia del diámetro del alambre suspendido y de la inversa de su longitud, todo multiplicado por un coeficiente constante, que depende de la naturaleza del metal, y que es fácil de determinar por la experiencia.
He demostrado en la misma memoria que, mediante el uso de esa fuerza de torsión, es posible medir con precisión fuerzas muy pequeñas, como por ejemplo, una diezmilésima de un grano (un grano equivale a 0,06 gramos). En la misma memoria di una aplicación de esta teoría, al tratar de medir la fuerza constante atribuida a la adhesión, en la fórmula que expresa la fricción de la superficie de un cuerpo sólido, en movimiento dentro de un fluido.
Someto hoy a la Academia una balanza eléctrica construida sobre ese mismo principio; mide exactamente el estado y la fuerza eléctrica en un cuerpo, por débilmente cargado que éste se halle.

Construcción de la balanza
A pesar de que he aprendido con la experiencia que para llevar a cabo varios experimentos eléctricos de manera conveniente debería corregir algunos defectos en la primera balanza de esta clase que he hecho, ésta es la única de la que me he servido.

ap23.jpg

La describiré haciendo notar que su forma y tamaño pueden variar de acuerdo con la naturaleza de los experimentos que uno quiera emprender.
Sobre un cilindro de vidrio ABGD (fig. 23, fig. 1) de 12 pulgadas de diámetro y 12 de alto, está colocado un disco de vidrio de 13 pulgadas de diámetro, que cubre por completo el vaso mencionado en primer lugar. Este disco está perforado, ostentando dos agujeros de 20 líneas de diámetro: uno de ellos en el medio, en f, sobre el cual está colocado un tubo de vidrio de 24 pulgadas de alto, que está conectado con el orificio f mediante el cemento ordinariamente usado en aparatos eléctricos. En el extremo superior del tubo h está colocado un micrómetro de torsión, que se ve en detalle en la figura 2. La parte superior número 1 lleva la cabeza b, el índice io y la grapa q. Esta pieza se ajusta en el orificio G de la pieza número 2; esta última está formada por un círculo ab dividido en su borde en 360 grados, y por un tubo de cobre que ajusta en el tubo H, número 3, conectado al extremo superior del tubo de vidrio, o columna fh de la figura 1. La grapa q (fig. 2, número 1) tiene la misma forma que el extremo de un compás donde va la tiza. En el tercer canuto, cerrado con el anillo q, se fija el extremo de un hilo de plata muy delgado; el otro extremo de éste (figura 3), está sujeto en P, en una grapa formada por un cilindro Po, hecho de cobre o de hierro, cuyo diámetro no es mayor de 1 línea, y cuya parte superior está hendida formando una grapa que se cierra por medio de la pieza deslizable Φ. Este pequeño cilindro está alargado en C atravesado por un orificio en el que puede ser insertada la aguja ag. El peso de este pequeño cilindro debe ser lo suficientemente elevado como para mantener tenso el alambre de plata, sin romperlo. La aguja que se muestra en la figura 1, en ag, suspendida horizontalmente cerca del punto medio del vaso grande que la contiene, está formada por un hilo de seda empapado en cera de España, y que termina, desde q hasta a en 18 líneas de extensión, por una barra cilíndrica de goma laca. En el extremo a de esta aguja se ha colocado una pequeña bola de medula de saúco, de 2 ó 3 líneas de diámetro. En g hay una pequeña pieza vertical de papel empapado en aguarrás, que sirve como contrapeso para la esferita a y que amortigua las oscilaciones.
Hemos dicho que la cubierta AC estaba perforada por un segundo orificio en m. En él se halla introducido un pequeño cilindro mΦt, cuya parte inferior Φt está hecha de goma laca; en t hay otra bola de medula de saúco; alrededor del vaso, a la altura de la aguja, se ha descrito un círculo zQ dividido en 360 grados; para mayor sencillez he usado una tira de papel dividida en 360 grados, que se pega alrededor del vaso a la altura de la aguja.
Para poner este instrumento en uso, coloqué la cubierta de tal manera que el orificio m prácticamente correspondiese a la primera división del círculo zoQ trazado en el vaso. Coloqué el índice oi del micrómetro en el punto o, o la primera división de este micrómetro; luego giré a éste en el tubo vertical fh hasta que, mirando por el alambre vertical del que estaba suspendida la aguja y el centro de la esfera a, observé que la aguja ag correspondía a la primera división del círculozoQ. Luego introduje a través del orificio m la otra esfera t suspendida por la varilla mΦt, de manera que tocara la esferita a y que, mirando por el alambre suspendido y la esferat, encontráramos la primera división o del círculo zoQ. La balanza está entonces en condiciones de ser usada para todas nuestras operaciones. Como ejemplo, procederemos a dar el método que hemos usado para determinar la ley fundamental, de acuerdo con la cual los cuerpos electrizados se repelen entre sí.

Ley fundamental de la electricidad
La fuerza de repulsión entre dos pequeñas esferas cargadas con la misma clase de electricidad está en razón inversa de los cuadrados de las distancias entre los centros de las esferas

Experimento
Electrificamos un pequeño conductor (fig. 4) que es simplemente un alfiler de cabeza grande, que se ha aislado introduciendo su extremo en la punta de una barrita de cera de España. Introducimos este alfiler a través del agujero m y tocamos la esferita t que está en contacto con a. Al tocarlas con el alfiler, ambas se cargan de electricidad de la misma clase y se repelen recíprocamente a una distancia que es medida mirando por el alambre suspendido, y el centro de la esferita a, a la correspondiente división del círculo zoQ. Luego, girando el índice del micrómetro en el sentido pno, torcemos el alambre y ejercemos una fuerza proporcional al ángulo de torsión que tiende a acercar la esferita a a la t. Comparando estas fuerzas de torsión con las correspondientes distancias de las esferitas, hallamos la ley de repulsión. Aquí presentaré las conclusiones obtenidas, que inmediatamente harán evidente la ley de repulsión.
  1. Habiendo electrificado las dos esferitas por medio del alfiler, cuando el índice del micrómetro marca cero, la esferita a se separa de la t en 36 grados.
  2. Al torcer el alambre suspendido en 126 grados como lo muestra el punto o del micrómetro, las dos esferitas se acercan, distanciándose sólo en 18 grados.
  3. Al torcer el alambre de suspensión en 567 grados, ambas esferitas se acercan a una distancia de 8 grados y medio
Explicación y resultado de este experimento
Antes de haber sido electrificadas, ambas esferitas se tocan, y el centro de la esferita a suspendida por la aguja, no está separado del punto donde la torsión del alambre suspendido es nula, sino por una distancia equivalente a la mitad del diámetro de las dos esferitas. Debe mencionarse que el alambre de plata Ip que forma la suspensión, tiene un largo de 28 pulgadas y es tan delgado, que un pie del mismo sólo pesaba 1/16 de grano. Calculé la fuerza que era necesaria para torcer el alambre en el punto a, o sea a 4 pulgadas del alambre Ip, o el centro de suspensión. En esta ocasión, aplicando las fórmulas explicadas en la memoria sobre las leyes de la fuerza de torsión en los alambres metálicos, publicada en el volumen de la Academia de 1784, encontré que, para torcer el alambre en 360 grados, la fuerza que debería aplicarse en el punto a para que actuara en la palanca an de 4 pulgadas de longitud, era sólo 1/340 de grano. De manera que, desde que las fuerzas de torsión, como está probado en esa memoria, son proporcionales a los ángulos de torsión, la fuerza más pequeña de repulsión las separaría sensiblemente una de otra.
Encontramos en nuestro primer experimento, en que el índice del micrómetro está colocado en el cero, que las esferitas estaban separadas en 36 grados lo que producía una fuerza de torsión igual a 1/3.400 de grano; en la segunda experiencia, la distancia era de 18 grados, y la fuerza de repulsión era equivalente a 144 grados, de manera que a la mitad de distancia corresponde una fuerza cuadruplicada.
En la tercera experiencia, el alambre suspendido tuvo una torsión de 567 grados, y las dos esferitas sólo estaban separadas en 8 grados y medio. La torsión total fue, consecuentemente, de 576 grados, cuatro veces la de la segunda experiencia, y la distancia entre las dos esferitas en esta tercera prueba tenía sólo una diferencia de medio grado, para valer la mitad de lo que se habían distanciado en el segundo experimento. Resulta entonces, de estas tres pruebas, que la acción repulsiva que cada una de las esferitas ejerce sobre la otra cuando están cargadas de electricidad del mismo nombre, está en razón inversa del cuadrado de las distancias.

Físicos del Siglo XIX

Luis Galvani
La corriente eléctrica
[67]

El descubrimiento fue hecho de la siguiente manera. Había disecado y preparado una rana como se ve en la figura 24, figura 2; mientras atendía otras cosas, la dejé sobre una mesa en la cual se hallaba una máquina eléctrica a cierta distancia de su conductor, separada de éste por un espacio considerable.
Ahora bien: si alguna de las personas presentes tocaba por casualidad y levemente los nervios crurales internos DD de la rana con la punta de un escalpelo, todos los músculos de las patas parecían contraerse una y otra vez, como si estuvieran atacadas por fuertes calambres. Otro de los presentes que nos estaba ayudando en las investigaciones eléctricas, creyó haber observado que la acción se producía cuando se desprendía una chispa del conductor de la máquina. Asombrado por ese nuevo fenómeno, me llamó la atención sobre él, en momentos en que meditaba profundamente sobre otras cuestiones. Excitado, con un entusiasmo y un ansia increíble traté de probarlo, para arrojar luz sobre este misterio. Por consiguiente, yo mismo toqué uno u otro nervio con la punta del escalpelo, y, al mismo tiempo, uno de los presentes hacía saltar una chispa. El fenómeno era siempre idéntico. En el mismo instante en que saltaba la chispa, cada músculo de la pata era indefectiblemente sacudido por vivas contracciones, como si el animal preparado estuviese atacado por el tétanos.
Pensando que estos movimientos pudieran originarse por el contacto con la punta del cuchillo, que posiblemente causaría el estado de excitación, más bien que por la chispa, volví a tocar con la punta del cuchillo de la misma manera, los mismos nervios de otras ranas, y con mayor presión aún, pero esta vez aunque nadie hiciera saltar la chispa. En estas condiciones no pudo notarse movimiento alguno. Llegué por eso a la conclusión de que para provocar el fenómeno se precisaban tanto el contacto con un cuerpo como la chispa eléctrica.
Por este motivo, apreté nuevamente la hoja del cuchillo sobre el nervio y la mantuve así, mientras la chispa saltaba y luego mientras la máquina no funcionaba. El fenómeno ocurría solamente mientras saltaban las chispas.
Repetimos el experimento, usando siempre el mismo cuchillo. Pero observamos que dichos movimientos, aun con la chispa, a veces se producían, y a veces no.
Excitados por esta novedad del fenómeno, resolvimos investigar la cosa de una y otra manera, para seguirla experimentalmente, usando siempre el mismo escalpelo, a fin de descubrir en lo posible las causas de esta diferencia inesperada.

ap24.jpg

Y este nuevo esfuerzo no resultó infructuoso. Logramos descubrir que todo el fenómeno dependía de las diferentes partes del escalpelo que sostuvieran los dedos. En efecto: el escalpelo tenía un mango de hueso; si se sostenía éste en la mano, no se producían contracciones, aunque saltara la chispa; pero se efectuaban si el dedo descansaba sobre la hoja metálica o sobre el remache de hierro, por medio del cual la hoja estaba fija al mango.
Ahora bien: como los huesos bien secos tienen una naturaleza eléctrica, mientras que la hoja metálica y el remache de hierro tienen una naturaleza conductora, también llamada no eléctrica, fuimos llevados a suponer que, teniendo en los dedos el mango de hueso, el fluido eléctrico que, de una u otra manera actuaba en la rana, era retenido, pudiendo entrar, en cambio, al tocar la hoja o el remache conectado con la misma.
Finalmente, para poner la cosa fuera de toda duda, empleamos en lugar de escalpelo, a veces una varilla delgada de vidrio H (figura 2) que se había limpiado de humedad y polvo, y, otras veces, una varilla de hierro G. Con la varilla de vidrio, no sólo tocamos los nervios de la pata, sino que también los hemos fregado fuertemente mientras se estaban produciendo las chispas; pero en vano: a pesar de todo nuestro empeño, el fenómeno no se producía, aun cuando gran cantidad de poderosas chispas se desprendiese del conductor de la máquina a una pequeña distancia del animal. En cambio, el fenómeno se produjo cuando tocamos el mismo nervio, aun levemente, con la varilla de hierro, y sólo saltaban chispas muy pequeñas.

Alejandro Volta
La pila eléctrica
[68]

Este aparato parecido en el fondo, como lo haré ver más adelante, y hasta en su forma, según lo acabo de construir, al órgano eléctrico natural del torpedo, de la anguila temblorosa, etc., más bien que a la botella de Leiden o a las baterías eléctricas conocidas, quisiera llamarlo órgano eléctrico artificial.
Y, en verdad, ¿no está acaso, como aquél, compuesto únicamente de cuerpos conductores? ¿No es, además, activo por sí mismo, sin previa carga, sin la ayuda de una electricidad cualquiera excitada por alguno de los medios conocidos hasta ahora, obrando sin cesar y sin descanso; en fin, capaz de producir en todo momento conmociones más o menos fuertes, según las circunstancias, conmociones que se redoblan a cada contacto y que, repetidas con frecuencia o continuadas durante algún tiempo, producen el mismo entumecimiento de los miembros que hace sentir el torpedo?
Daré aquí una descripción más detallada de este aparato y de algunos otros análogos, como también de las experiencias más notables realizadas con los mismos.
Me proveí de algunas docenas de pequeñas placas redondas o discos de cobre, latón o mejor de plata, de 1 pulgada de diámetro más o menos (monedas por ejemplo), y de un número igual de placas de estaño o, lo que es mucho mejor, de cinc, más o menos de la misma forma y tamaño que las anteriores: digo más o menos, porque la precisión no es un requisito indispensable y, en general, el tamaño y la forma de estas piezas metálicas son arbitrarios; se debe cuidar solamente que se las pueda colocar cómodamente unas sobre otras, en forma de columna. Preparo, además, un número bastante grande de ruedecillas de cartón, cuero o de cualquier otra materia esponjosa, capaz de absorber y retener mucha agua o humedad, pues es necesario, para el éxito de la experiencia, que estén bien empapadas. Estas ruedecillas, a las que llamaré discos mojados, las hago un poco más pequeñas que los discos o platillos metálicos, a fin de que interpuestas aquéllas entre éstos, no sobresalgan.
Teniendo estas piezas en buen estado, es decir, los discos metálicos bien limpios y secos, y los otros no metálicos bien embebidos de agua común o, lo que es mucho mejor, de agua salada, ligeramente enjugados para que no goteen, no tengo más que acomodarlos en forma conveniente y esto es un trabajo simple y fácil.
Coloco, pues, horizontalmente sobre una mesa o banco cualquiera uno de los discos metálicos, por ejemplo, uno de plata, y sobre éste adapto uno de cinc; sobre el segundo coloco uno de los discos mojados, y después otro de plata, seguido inmediatamente por otro de cinc, al que hago acompañar todavía un disco mojado. Continúo de la misma manera, acoplando un disco de plata con otro de cinc, y siempre en el mismo sentido, es decir, la plata abajo y el cinc arriba, o viceversa, según como se haya comenzado, e intercalando entre cada uno de estos pares un disco? mojado, sigo formando con estos pisos una columna hasta la altura que puede lograrse sin que se desplome.
Ahora bien: si la columna llega a contener cerca de veinte de estos pisos o pares metálicos, ya es capaz no sólo de dar señales en el electrómetro de Cavallo, acoplado a condensadores de más de 10 ó 15 grados, de cargar este condensador hasta el punto de producir una chispa, etc., sino también de hacer cosquillear los dedos al tocar sus dos extremidades (la cabeza y el pie de la columna) con uno o varios pequeños golpes, más o menos frecuentes, según como se repitan estos contactos; cada uno de estos golpes recuerda perfectamente la ligera conmoción que hace sentir una botella de Leiden débilmente cargada o una batería más débilmente cargada aún o, en fin, un torpedo extremadamente lánguido, que imita todavía mejor los efectos de mi aparato, por la sucesión de golpes repetidos que puede dar sin cesar.

Humphry Davy
Acción química en la pila
[69]

Las energías eléctricas de los metales, unas en relación con las otras, o las sustancias disueltas en la pila voltaica y otros instrumentos análogos, parecen ser la causa que perturba el equilibrio, mientras que los cambios químicos tienden, por el contrario, a restablecerlo. Es muy probable que los fenómenos dependan de la acción combinada de estas dos causas.
En la pila voltaica compuesta de cinc, cobre y de una solución de muriato de sosa, y en lo que se ha llamado su condición de tensión eléctrica, los discos comunicantes de cobre y cinc están en un estado opuesto de electricidad. Y en cuanto a electricidades tan débiles, el agua puede ser considerada como un cuerpo aislador. En consecuencia, cada disco de cobre produce, por inducción, un incremento de la electricidad positiva sobre el disco de cinc opuesto; y cada uno de éstos aumenta la electricidad negativa sobre el disco de cobre opuesto: la intensidad del efecto crece de acuerdo con el número y la cantidad, conforme a la extensión de las superficies que la componen en serie.
Cuando establecemos una comunicación entre los dos puntos extremos, las electricidades opuestas tienden a destruirse mutuamente, y si el medio líquido pudiera ser una sustancia incapaz de descomposición, hay razones para creer que el equilibrio se restablecería y que el movimiento producido por la electricidad cesaría.
Pero estando la solución de muriato de sosa compuesta de dos series de elementos que poseen energías eléctricas contrarias, el oxígeno y el ácido son atraídos por el cinc, y el hidrógeno y el álcali por el cobre. El equilibrio no es más que momentáneo, pues el cinc se disuelve y el hidrógeno se libera. La energía negativa del cobre y la energía contraria del cinc tienen, por lo tanto, ocasión para obrar de nuevo, estando sólo debilitadas por la energía opuesta dé la sosa en contacto con el cobre. Este proceso electromotor continúa durante todo el tiempo en que pueden operarse los cambios químicos.

Cristian Oersted
Acción de las corrientes sobre los imanes
[70]

Los primeros experimentos emprendidos sobre la materia que paso a describir fueron realizados en las clases de electricidad, galvanismo y magnetismo que di el invierno pasado. Estos experimentos parecían haber demostrado que la aguja magnética puede ser movida de su posición con la ayuda de un aparato galvánico, y ello cuando el circuito galvánico está cerrado, y no abierto, como algunos celebradísimos físicos lo intentaron en vano hace algunos años.
Sin embargo, como estos experimentos fueron llevados a cabo con aparatos un poco deficientes, y por esta razón los fenómenos que se produjeron no eran bastante claros para la importancia de la materia, conseguí que mi amigo Esmarch, ministro de Justicia del rey, se uniera a mí para repetir los experimentos con un gran aparato galvánico, que armamos juntos.

* * * *

El aparato galvánico que utilizamos consiste en veinte receptáculos rectangulares de cobre, cuya longitud y altura es de cerca de 12 pulgadas, pero cuyo ancho excede escasamente las 2 pulgadas y media. Todos los receptáculos están provistos de dos placas de cobre inclinadas de modo tal que pueden sostener una barra de cobre, la cual soporta una placa de cinc sumergida en el agua del próximo receptáculo. El agua de los receptáculos contiene 1/60 de su peso de ácido sulfúrico y 1/60 de su peso de ácido nítrico. La parte de cada placa sumergida en la solución es cuadrada, teniendo cerca de 10 pulgadas de lado. Se pueden utilizar aparatos aún más pequeños, pero siempre que sean capaces de poner al rojo a un alambre metálico.
Juntemos los polos opuestos del aparato galvánico con un alambre metálico al cual, por brevedad, llamaremos de aquí en adelante hilo conductor. Al efecto que se produce en el hilo y en el espacio circundante lo llamaremos conflicto eléctrico.
Coloquemos la parte rectilínea de este alambre, en posición horizontal sobre la aguja magnética y paralelo a ella. Si se necesita, el hilo puede ser inclinado, de modo que la parte conveniente de él pueda obtener la posición necesaria para el experimento. Así arregladas las cosas, la aguja magnética se moverá de modo tal que bajo aquella parte del hilo conductor que recibe la electricidad más directamente del polo negativo del aparato galvánico, declinará hacia el Oeste.
Si la distancia entre el hilo y la aguja magnética no excede los tres cuartos de pulgada, la declinación de la aguja será de unos 45°. Si se aumenta la distancia, los ángulos decrecen a medida que las distancias crecen. Sin embargo, la declinación varía de acuerdo con la eficacia del aparato.
El hilo conductor puede cambiar su posición, ya al Este, ya al Oeste, siempre que guarde una posición paralela a la aguja magnética, sin ningún otro cambio de efecto que el referente a su magnitud; y así, de ningún modo el efecto puede ser atribuido a atracción, puesto que el polo de la aguja magnética que se acerca al hilo mientras está colocado hacia el Este, debería alejarse del mismo cuando el hilo pasa al lado oeste, si estas declinaciones dependieran de atracciones o repulsiones.
El hilo conductor puede consistir en muchos alambres metálicos o cintas conectadas entre sí. La clase de metal no altera el efecto, excepto, quizá, en lo concerniente a su magnitud. Hemos empleado con igual éxito hilos de platino, oro, plata, cobre, hierro, hojas de plomo y estaño, y una masa de mercurio. Un conductor no está enteramente privado de efecto cuando el agua lo interrumpe, a menos que la interrupción abarque un espacio de varias pulgadas de longitud.
Los efectos del hilo conductor sobre la aguja magnética pasan a través del vidrio, metal, madera, agua, resina, loza, piedras; porque si se interpone una lámina de vidrio, metal o madera, el efecto no se anula, ni tampoco desaparece si se interponen simultáneamente placas de vidrio, metal y madera. En verdad, parecen apenas disminuidos.
El resultado es el mismo si se interpone un disco de ámbar, una placa de pórfido o un recipiente de loza, aunque esté lleno de agua. Nuestros experimentos han demostrado también que los efectos ya mencionados no cambian si se encierra la aguja magnética en una caja de cobre llena de agua. No es necesario decir que el paso de los efectos a través de todos estos materiales nunca fue observado antes ni en electricidad ni en galvanismo. Por lo tanto, los efectos que ocurren en el conflicto eléctrico son completamente diferentes de los efectos de una fuerza eléctrica o de la otra. Si el hilo conductor se coloca en un plano horizontal debajo de la aguja magnética, los efectos son los mismos que cuando el plano está encima de la aguja, sólo que en dirección inversa; es decir, que el polo de la aguja magnética bajo el cual se halla la parte del hilo conductor que recibe electricidad más directamente del polo negativo del aparato galvánico, declinará hacia el Este.
Para recordar estas cosas más fácilmente, vamos a usar esta regla: el polo sobre el cual entra la electricidad negativa es desviado hacia el Oeste; y el polo bajo el cual entra lo es hacia el Este.
Si el hilo conductor se gira en un plano horizontal haciéndole formar con el meridiano magnético un ángulo creciente, la declinación de la aguja magnética aumenta si el movimiento del hilo tiende a llevarlo a la posición de la aguja perturbada, pero disminuye si el hilo se aleja de dicha posición.
El hilo conductor, colocado en un plano horizontal en el cual la aguja magnética se mueve balanceada por medio de un contrapeso, y paralelo a la aguja, no perturba a la misma ni hacia el Este ni hacia el Oeste; sólo la hace oscilar en el plano de inclinación, de modo que el polo cerca del cual la fuerza eléctrica negativa entra al hilo, desciende si está situado al lado oeste y se eleva cuando está situado al lado este.
Si el hilo conductor está colocado perpendicularmente al plano del meridiano magnético, ya sea encima o debajo de la aguja, ésta permanece quieta, a menos que el hilo esté muy cerca del polo, porque entonces el polo se eleva cuando la entrada se hace por el extremo oeste del hilo, y baja cuando la entrada se hace por la parte este.
Cuando el hilo conductor se coloca perpendicularmente al polo de la aguja magnética y el extremo superior del hilo recibe electricidad del extremo negativo del aparato galvánico, el polo se mueve hacia el Este, pero cuando el hilo se coloca frente a un punto situado entre el polo y el centro de la aguja, el polo se desvía hacia el Oeste. Si el extremo superior del alambre recibe electricidad del extremo positivo del aparato, ocurrirá el fenómeno inverso.
Oersted bosqueja un experimento con hilos paralelos y continúa:

* * * *

Una aguja de cobre, suspendida como una aguja magnética, no es movida por el efecto de un hilo conductor. También permanecen en reposo las agujas de vidrio, o las de la llamada goma laca, sometidas a experimentos análogos.
De todo esto podemos extraer algunas conclusiones para explicar estos fenómenos.
Los conflictos eléctricos sólo pueden actuar sobre partículas magnéticas de materia. Todos los cuerpos no magnéticos parecen ser penetrables por conflictos eléctricos, pero los cuerpos magnéticos, mejor dicho, sus partículas magnéticas, parecen oponerse al paso de este conflicto; por ello pueden ser movidas por el impulso de fuerzas contrarias.
Dicho conflicto eléctrico no está limitado al conductor, pero, como ya hemos dicho, al mismo tiempo se dispersa en el espacio circundante, lo que surge bastante claramente de las observaciones ya expuestas.
De igual modo, es admisible deducir, a partir de lo que se ha observado, que este conflicto lleva a cabo giros, porque ésta parece ser una condición sin la cual es imposible que la misma parte del hilo conductor que, cuando está colocada debajo del polo magnético, lo lleva hacia el Este, sea capaz de desviarlo hacia el Oeste cuando está colocada arriba. Porque ésta es la naturaleza de la giración: que movimientos en partes opuestas, tengan direcciones opuestas. Además, movimientos en circuitos combinados con movimientos progresivos, de acuerdo con la longitud del conductor, parecen formar una línea espiral, lo cual, sin embargo, si no estoy en un error, en nada contribuye a la explicación del fenómeno hasta aquí observado.
Todos los efectos sobre el polo norte aquí expuestos se entienden fácilmente admitiendo que fuerzas o sustancias eléctricamente negativas corren a través de una línea espiral curvándose hacia la derecha, e impulsan al polo norte, pero no ejercen acción alguna sobre el sur. Los efectos sobre el polo sur se explican análogamente si atribuimos a fuerzas o sustancias positivamente electrizadas un movimiento contrario y el poder de actuar sobre el polo sur, pero no sobre el norte. El acuerdo de esta ley con la naturaleza se verá mejor por la repetición de experimentos que por una larga explicación. El juzgar de los experimentos, sin embargo, será más fácil si se indica el curso de la fuerza eléctrica sobre el hilo conductor con marcas, ya sea pintadas o ya grabadas.
Sólo agregaré a lo que se ha dicho, que demostré en un libro publicado hace siete años que calor y luz están en conflicto eléctrico. De las últimas observaciones podemos sacar en conclusión que el movimiento giratorio también ocurre en estos efectos, y pienso que esto ilustra mucho al fenómeno que han llamado polaridad de la luz.

Andrés María Ampère
Acciones entre corrientes
[71]


Acción mutua de dos corrientes eléctricas
1. La acción electromotriz se manifiesta por dos clases de efectos, que ante todo creo conveniente distinguir por medio de definiciones precisas.
Llamaré a la primera tensión eléctrica, y a la segunda corriente eléctrica.
La primera se observa cuando dos cuerpos, entre los cuales ella se manifiesta, están separados por cuerpos no conductores en todos los puntos de su superficie, excepto aquellos en que se establece dicha acción; la segunda ocurre cuando los cuerpos forman parte de un circuito de cuerpos conductores que se hallan en contacto en puntos de su superficie diferentes de aquellos en que se produce la acción electromotriz. En el primer caso, el efecto de la acción electromotriz es el de poner a ambos cuerpos o sistemas de cuerpos, entre los cuales se manifiesta, en dos estados de tensión, cuya diferencia es constante cuando la acción es constante: cuando, por ejemplo, está producida por el contacto de dos sustancias de diferente naturaleza; por el contrario, esta diferencia puede variar con la causa que la produce, si ella resulta de la fricción o de la presión.
El primer caso es el único que puede producirse cuando la acción electromotriz se establece entre partes diferentes del mismo cuerpo aislador; la turmalina es un ejemplo de esto cuando su temperatura varía.
En el segundo caso ya no hay ninguna tensión eléctrica; los cuerpos livianos no son atraídos ostensiblemente, y el electrómetro ordinario ya no nos sirve para indicar qué sucede en el cuerpo; sin embargo, la acción electromotriz continúa; porque si, por ejemplo, el agua, o una solución ácida, o alcalina, o salina, forman parte del circuito, estos cuerpos son descompuestos.

* * * *

2. Veamos en qué consiste la diferencia entre estos órdenes enteramente distintos de fenómenos, uno de los cuales consiste en la tensión y las atracciones y repulsiones, que se conocen hace mucho, y el otro en la descomposición del agua y de muchas otras sustancias, en los cambios de dirección de la aguja magnética, y en una clase de atracciones y repulsiones completamente diferentes de las atracciones y repulsiones eléctricas ordinarias, que creo ser el primero en haber descubierto, y que he denominado atracciones y repulsiones voltaicas para distinguirlas de las otras. Cuando no hay continuidad de conducción de uno a otro de los cuerpos o sistemas de cuerpos en los que la acción electromotriz se desarrolla, y cuando estos cuerpos mismos son conductores, como en la pila de Volta, sólo podemos concebir esta acción como transportando constantemente electricidad positiva hacia uno de los cuerpos y electricidad negativa hacia el otro: en el primer momento, cuando nada se opone al efecto que ello tiende a producir, ambas electricidades se acumulan, cada una en la parte del sistema total hacia la cual es llevada, pero este efecto se anula tan pronto como la diferencia de tensiones eléctricas da a su atracción mutua, que tiende a reunirlas, una fuerza suficiente para equilibrar a la acción electromotriz. Entonces todo permanece en dicho estado, excepto para la pérdida de electricidad, que puede ocurrir poco a poco a través del cuerpo aislador, el aire por ejemplo, que interrumpe el circuito; pues parece que no existen cuerpos que sean aisladores perfectos. Cuando esta pérdida ocurre, la tensión disminuye, pero desde que, cuando disminuye, la atracción mutua de ambas electricidades deja de equilibrar a la acción electromotriz, esta última fuerza, en caso de ser constante, transporta nueva electricidad positiva hacia un lado, y negativa al otro, y las tensiones se restablecen. Este estado de un sistema de cuerpos electromotores y conductores es el que llamo tensión eléctrica. Sabemos que él existe en ambas mitades de este sistema cuando las separamos, o aun en el caso de que permanezcan en contacto después de cesar la acción electromotriz, a condición, entonces, de que dicho estado se haya producido por presión o frotamiento entre cuerpos que no son ambos conductores. En estos dos casos la tensión disminuye gradualmente a causa de la pérdida de electricidad de que hemos hablado.
Pero si los dos cuerpos o los dos sistemas de cuerpos entre los cuales se produce la acción electromotriz se hallan también conectados por cuerpos conductores en los cuales no hay otra acción electromotriz igual y opuesta a la primera, que mantendría el estado de equilibrio eléctrico, y, por consiguiente, las tensiones que de ella resultan, estas tensiones desaparecerían o por lo menos se harían muy pequeñas, y se producen entonces los fenómenos que se han indicado como característicos de este segundo caso. Pero como por lo demás nada ha cambiado en la disposición de los cuerpos entre los cuales se desarrolla la acción electromotriz, no se puede dudar de que ella continúa, y como la atracción mutua de ambas electricidades, medida por la diferencia de las tensiones eléctricas, que ha desaparecido o disminuido considerablemente, ya no puede equilibrar a esta acción, se admite generalmente que ella sigue transportando ambas electricidades en los dos sentidos en que lo hacía antes; de modo que resulta una doble corriente, una de electricidad positiva, la otra de electricidad negativa, que parten en sentidos opuestos desde los puntos en que se produce la acción electromotriz, y se van a reunir en las partes del circuito alejadas de estos puntos. Las corrientes de que estoy hablando son aceleradas hasta que la inercia de los fluidos eléctricos y la resistencia que encuentran a causa de la imperfección de los conductores, aun de los mejores, equilibran a la fuerza electromotriz, después de lo cual las corrientes siguen indefinidamente con velocidad constante, mientras que esta fuerza tenga la misma intensidad, pero ellas cesan siempre en el instante en que el circuito se interrumpe. Este estado de la electricidad en una serie de cuerpos electromotores y conductores es el que llamo, por brevedad, corriente eléctrica; y como tendré que hablar con frecuencia de los dos sentidos opuestos en los cuales se mueven ambas electricidades, cada vez que se presente la cuestión, para evitar repeticiones inútiles, después de las palabrassentido de la corriente eléctrica sobrentenderé las palabras electricidad positiva; de modo que si estamos considerando, por ejemplo, una pila de Volta, la expresión dirección de la corriente eléctrica en la pila designará la dirección desde el extremo donde se desprende hidrógeno, en la descomposición del agua, hacia el extremo donde obtiene oxígeno; y la expresión dirección de la corriente eléctrica en el conductor que une ambos extremos de la pila designará la dirección que va, por el contrario, del extremo en que aparece el oxígeno hacia aquel en que se forma hidrógeno. Para incluir estos dos casos en una definición simple, diremos que la que vamos a llamar dirección de la corriente es la que sigue el hidrógeno y las bases de las sales cuando el agua o alguna sustancia salina es una parte del circuito, y es descompuesta por la corriente eléctrica, ya sea que, como en la pila de Volta, dichas sustancias constituyan una parte del conductor, o ya sea que estén intercaladas entre los pares que formen la pila.

Tomás Young
Interferencia de la luz
[72]

Suponiendo que la luz de cualquier color consiste en ondulaciones de una anchura dada y de una frecuencia determinada, se deduce que estas ondulaciones deben ser pasibles de aquellos efectos que ya hemos examinado en el caso de las ondas del agua y de las vibraciones del sonido.

ap25.jpg

Se ha demostrado que dos series iguales de ondas, provenientes de centros próximos entre sí, pueden anular sus efectos en ciertos puntos y reforzarlos en otros; la pulsación de dos sonidos se ha explicado por una interferencia semejante. Ahora aplicaremos los mismos principios a la adición y extinción alternada de los colores (fig. 25).
Para que los efectos de dos porciones de luz puedan combinarse de esa manera, es necesario que provengan del mismo origen y que lleguen al mismo punto por caminos diferentes, según direcciones que no se aparten mucho una de la otra. Esta desviación puede producirse en una o ambas porciones por difracción, por reflexión, por refracción o por cualquier combinación de estos efectos. Pero el caso más simple es aquel en que un rayo de luz homogénea cae sobre una pantalla que tiene dos pequeños agujeros o hendiduras, que se pueden considerar centros de divergencia, desde los cuales la luz es difractada en todas direcciones. En este caso, cuando los dos rayos nuevamente formados se reciben sobre una superficie interpuesta en su trayecto, su luz está dividida por bandas oscuras en porciones aproximadamente iguales, pero que se ensanchan a medida que la superficie se aleja de las aberturas, de modo que a cualquier distancia subtienden aproximadamente el mismo ángulo desde las mismas y cuyo ancho también es mayor cuanto menor es la distancia entre las aberturas. En el medio de ambas porciones siempre hay luz y las bandas brillantes a ambos lados están a distancias tales que la luz que viene de una de las aberturas tiene que haber recorrido un espacio mayor que la que viene de la otra en un intervalo que es igual al ancho de una, dos tres o más de las ondulaciones supuestas, mientras que los espacios oscuros interpuestos corresponden a una diferencia de media ondulación, de una y media, de dos y media o más.
Comparando varios experimentos, parece que el ancho de las ondulaciones que constituyen la luz roja extrema debe suponerse que vale una 36 milésima de pulgada, y las del extremo violeta alrededor de una 60 milésima de pulgada, estando el medio del espectro con respecto a la intensidad de la luz a un 4/5 de milésima de pulgada aproximadamente. De estos valores se deduce, calculando con la velocidad conocida de la luz, que por lo menos 600 millones de millones de las más lentas de estas ondulaciones deben de entrar en el ojo en un solo segundo. La combinación de dos porciones de luz blanca o mixta, vista a gran distancia, muestra pocas bandas blancas y negras, correspondientes a este intervalo; sin embargo, después de un examen más atento, se ven allí yuxtapuestos los distintos efectos de un número infinito de bandas de diferentes anchuras, que producen una hermosa variedad de tintes, pasando gradualmente de unos a otros. La blancura central se transforma primero en un color amarillento y luego tostado, seguido por carmesí y por violeta y azul, que aparecen juntos como una banda oscura, vistos a distancia; luego aparece una luz verde, y el espacio que la sigue un tono carmesí; las luces que siguen son todas más o menos verdes, y los espacios oscuros son purpúreos y rojizos; la luz roja parece predominar tanto en todos estos efectos, que las bandas rojas o púrpuras ocupan aproximadamente el mismo lugar en las franjas mixtas, como si su luz fuera recibida separadamente.
A veces sucede que un objeto, del cual se forma una sombra en un rayo de luz que ha pasado por una pequeña abertura, no está terminado por lados paralelos; de modo que las porciones de luz que son difractadas por dos lados de un objeto, perpendiculares entre sí, forman a menudo una corta serie de franjas curvadas dentro de la sombra, situadas a cada lado de la diagonal, que fueron observadas primeramente por Grimaldi y que se pueden explicar completamente por el principio general de la interferencia de las dos porciones que se introducen perpendicularmente en la sombra.
Pero el más evidente de todos los fenómenos de esta clase es el de las franjas que se ven generalmente más allá de la terminación de cualquier sombra formada en un rayo de luz que ha pasado a través de una pequeña abertura; con luz blanca se ven por lo común tres de estas franjas y a veces cuatro; pero con luz de un solo color su número es más grande, y son siempre tanto más angostas cuanto más lejos están de la sombra. Su origen se deduce fácilmente de la interferencia de la luz directa con una parte de la luz reflejada por el borde del objeto que las produce; la oblicuidad de su incidencia causa una reflexión tan abundante que se produce un efecto visible por angosto que sea dicho borde; las franjas, sin embargo, son más nítidas si la cantidad de esta luz reflejada es mayor. De esta teoría se deduce que la distancia de la primera franja oscura desde la sombra, sería la mitad de la distancia de la cuarta, siendo la diferencia de las longitudes de los diferentes recorridos de la luz como los cuadrados de esas distancias; y la experiencia confirma precisamente este cálculo, sólo con la misma leve corrección que se requiere en todos los otros casos, hallándose siempre un poco aumentadas las distancias de las primeras franjas. Debe observarse también que la extensión de la sombra misma está siempre aumentada, y aproximadamente en el mismo grado que la de las franjas; la razón de esta circunstancia parece ser la pérdida gradual de luz en los bordes de todo rayo aislado, que es tan notablemente análogo a los fenómenos visibles en las ondas del agua. La misma causa puede tener quizá también algún efecto en la modificación o corrección general de la posición de las primeras franjas, si bien no parece del todo suficiente para explicar la totalidad de ella.

Augusto Fresnel
Difracción de la luz
[73]

Me parece que podemos explicar cómo es que los rayos desviados hacia la sombra tienen su origen en la luz directa, a una sensible distancia del cuerpo opaco. Cuando nada interfiere con la regularidad del movimiento ondulatorio producido por un punto luminoso, es evidente que todas las ondas deberán ser exactamente esféricas y que tendrán como centro el punto luminoso. En efecto: en cada punto del espacio donde está condensado, el éter presiona y tiende a expandirse en todas direcciones; pero esta expansión no puede ocurrir sino en una dirección perpendicular a la superficie esférica a la que pertenece el punto, porque en el mismo instante se produce una presión análoga a través de toda la extensión de la onda. Ya no sucede lo mismo cuando el movimiento vibratorio es interceptado en una parte del espacio, y podemos suponer que los extremos de las ondas dan origen a nuevas ondulaciones; pero éstas no llegan a manifestarse sino en las direcciones en las cuales se refuerzan mutuamente, y no pueden propagarse en aquellas direcciones en que los movimientos se oponen irnos a otros. ap26.jpg Sea A el extremo de un cuerpo AO, F un punto situado dentro de la sombra, y ACC'C" la onda luminosa de la cual el cuerpo AO ha interceptado una parte. Nos preguntamos ahora que parte del extremo de esta onda puede enviar luz al punto F.
Desde el punto F como centro (fig. 26) y con radio igual al AF más una semilongitud de onda, describamos el arco EG, que corta al frente de onda en el punto C. Los rayos GF y AF difieren en media longitud de onda. Supongamos al punto C", perteneciente a la onda directa, situado de tal modo que C'F sea igual a GF más una semilongitud de onda. Entonces, todas las vibraciones que parten del arco CC’ en esta dirección oblicua estarán en completa discordancia con las vibraciones que provienen de los correspondientes puntos de A G. Pero todas aquellas que nacen de CC' ya están en realidad muy debilitadas por la acción de las que parten del arco próximo C'C", de modo que probablemente no puedan producir una disminución mayor que la mitad en los movimientos ondulatorios que se originan en AC: con excepción de este arco extremo, cada parte de la onda directa está situada entre otras dos que destruyen los rayos oblicuos que dicha parte tiende a producir. Por ello el punto B, medio de AG, es el que debe ser considerado como centro principal de las ondas que se observan en el punto F. Suponemos aquí que la oblicuidad de los rayos es tan grande que la recta BF cumple sensiblemente las mismas condiciones en casi toda su extensión, de modo que la onda ha tenido tiempo de reconstruirse en esa dirección por adiciones sucesivas. Resulta también de esta pronunciada oblicuidad, que el arco AC es muy pequeño, y que, por lo tanto, el rayo BF que proviene del punto medio de este arco es casi exactamente el medio entre los dos rayos extremos CF y AF. Por lo tanto, vemos que el rayo efectivo BF, y en consecuencia el camino recorrido por la luz desviada, será un cuarto de longitud de onda más largo que el trayecto medido desde el borde del cuerpo AG. Con un razonamiento análogo podemos demostrar que si los rayos están desviados hacia afuera de la sombra, el rayo efectivo es un cuarto de longitud de onda más corto que el que proviene del cuerpo. Suponemos aquí inflexiones considerables, como ya dijimos, y es natural suponer que los rayos intermedios en la vecindad de la tangente pasarán gradualmente desde el aumento hasta la disminución de un cuarto de longitud de onda; pero hasta ahora no he podido determinar según qué ley. La explicación que acabo de dar de estas variaciones, consideradas sólo en el límite, deja aún sin duda mucho que desear, y no está quizá libre de objeción. A pesar de ello, me parece evidente que el camino recorrido por los rayos efectivos, cuando su oblicuidad se hace apreciable, difiere en un cuarto de longitud de onda del camino medido desde el borde del cuerpo opaco, siendo unas veces mayor, otras menor, según sea el sentido de la inflexión; por lo menos los fenómenos ocurren como si así fuera. ap27.jpg En efecto, habíamos visto que, en las franjas producidas por una hendidura suficientemente estrecha, el intervalo entre las dos bandas oscuras de primer orden es doble que el de las otras, y que de este modo la posición de las bandas oscuras y brillantes es exactamente la inversa de la que resulta de la teoría, si consideramos los caminos recorridos medidos desde los bordes de la hendidura. Ahora bien: esto es una consecuencia del principio que acabamos de dejar sentado. Sean Ay B (fig. 27) los dos bordes de una abertura tan pequeña que, a la distancia a la cual observamos las franjas, la banda oscura de primer orden esté situada bien afuera de la tangente próxima, de modo tal que los rayos que la producen están muy apreciablemente desviados por los bordes en sentidos contrarios, uno de ellos hacia dentro y el otro hacia fuera. Llamaremos F al punto que ocuparía la banda oscura de primer orden si A y B fueran los centros de las ondas; es decir, si AF y BF difieren en una semilongitud de onda. Los rayos efectivos de los bordes Ay B interfieren, en este caso, dando uno solo que parte del punto medio de AB, y no hay discordancia completa sino entre los dos rayos extremos. ap28.jpg Entonces el punto F no estaría oscuro. Supongamos ahora que F es un punto donde hay completa discordancia de cualquier orden para los rayos AF y BF: será un punto de concordancia para los rayos efectivos GF y BF; porque CF es más largo que AF en un cuarto de longitud de onda, mientras que DF es más corto que BF en el mismo valor, de lo que resulta una diferencia total de media longitud de onda.
Pasemos ahora a las franjas que resultan del encuentro de los rayos que son desviados por los dos lados de un cuerpo opaco. Mientras que dichos rayos están dentro de la sombra y suficientemente distantes de la tangente o del borde de la sombra geométrica, los dos rayos efectivos que concurren a producirlas, estando ambos desviados dentro de la sombra, son más largos, en un cuarto de longitud de onda, que los rayos que parten de los bordes del cuerpo; y como esta diferencia es igual y del mismo sentido, las bandas oscuras y claras deberán estar colocadas de la misma manera que lo estarían si las ondulaciones tuvieran sus centros en los bordes del cuerpo. Así, pues, encontré, en mis primeras observaciones, resultados que concordaban con esta hipótesis. Sin embargo, a medida que la banda que consideramos se aproxima a una de las dos tangentes AE (fig. 28), disminuye la diferencia de longitud entre el rayo efectivo desviado en el lado A del cuerpo opaco A B, y el rayo que parte de A, mientras que el otro rayo efectivo sigue teniendo su cuarto de longitud de onda más que el rayo proveniente de B. De este modo la diferencia de los caminos recorridos aumenta más rápidamente entre los dos rayos efectivos que entre los que parten de A y B; y en consecuencia la anchura de las franjas deberá disminuir. Finalmente, cuando el punto de intersección F de los rayos desviados ha salido de la sombra y está suficientemente lejos de AE para hacer el ángulo FAE apreciablemente grande, el rayo efectivo GF se hace más corto que AF en un cuarto de longitud de onda, mientras que FD es siempre más largo que BF en el mismo valor; de lo que resulta una diferencia total de una semilongitud de onda y en consecuencia de medio intervalo en la posición de las bandas oscuras y brillantes que están suficientemente alejadas del borde de la sombra. Ello está comprobado por la experiencia.
Esta teoría de los rayos efectivos que acabo de exponer, tan incompleta como es, puede dar ya una explicación muy simple de la rápida extinción de la luz desviada hacia el interior de las sombras. A medida que aumenta la inclinación del rayo BF, el arco GA disminuye (fig. 28), ya que AE debe ser siempre igual a la mitad de la longitud de onda; ahora bien: las vibraciones que se observan en el punto F provienen sólo del arco AC. Por lo tanto, la intensidad de la luz disminuirá en la misma medida que la longitud de este arco. Supongamos primero que la inclinación de AF, o el ángulo ACE, es de 5 minutos, por ejemplo, y para simplificar los cálculos, que la onda ACC' es sensiblemente una línea recta; como AE debe ser igual a una semilongitud de onda, o sea 0,000000144 metros, la longitud del arco AG que da luz será de 0,000099 metros, es decir, casi una décima de milímetro. Ahora, si suponemos que la oblicuidad de BF es igual a 1 grado, el arco que da luz no será mayor que 0,000008 metros, es decir, será menor que una centésima de milímetro. Vemos, por estos dos ejemplos, que la fuente del movimiento ondulatorio de los rayos desviados se hace muy pequeña cuando la inflexión es considerable.

Hipólito Fizeau
Velocidad de la luz
[74]

He logrado hacer perceptible la velocidad de propagación de la luz mediante un método que me hace brindar un nuevo modo de estudiar con precisión este importante fenómeno. Este método se funda sobre los siguientes principios:
Cuando un disco gira en su propio plano alrededor de su centro, con gran rapidez, podemos determinar el tiempo empleado por un punto de su circunferencia para recorrer una pequeñísima distancia angular, 1/1.000 de circunferencia, por ejemplo.
Si la velocidad de rotación es suficientemente grande, este tiempo es, en general, muy corto. Para 10 ó 100 revoluciones por segundo es solamente de 1/10.000 y 1/100.000 de segundo. Si el disco se divide en su circunferencia, como lo están las ruedas dentadas, en intervalos alternativamente llenos y vacíos, tendremos, para el tiempo de paso de cada intervalo frente a un mismo punto del espacio, la pequeñísima fracción mencionada.
Durante estos pequeños tiempos, la luz recorre distancias bastante limitadas: 31 kilómetros en la primera fracción, 3 kilómetros en la segunda.
Consideremos, pues, los efectos producidos al atravesar un rayo de luz las aberturas de un disco en movimiento: si el rayo, después de pasar, es reflejado por un espejo, y vuelve al disco, de modo que lo encuentra de nuevo en el mismo punto del espacio, la velocidad de la luz intervendrá entonces de manera tal que el rayo pasará a través o será interceptado, según la velocidad del disco y la distancia a la cual se produce la reflexión.
Además, un sistema de dos telescopios, dirigidos uno hacia otro, de manera que la imagen del objetivo de cada uno de ellos se forme en el foco del otro, posee propiedades que hacen posible realizar estas condiciones de un modo simple. Lo único que se necesita es colocar un espejo en el foco de uno de ellos y modificar el sistema ocular del otro, interponiendo entre el foco y el ocular una lámina transparente de vidrio, inclinada 45° respecto del eje, y dispuesta para recibir de costado la luz de una lámpara o del Sol, a la cual refleja hacia el foco. Con este dispositivo, la luz que atraviesa el foco en el área, que suponemos muy pequeña, de la imagen que representa el objetivo del segundo telescopio, es enviada hacia éste; reflejada en su foco, vuelve de nuevo, después de haber recorrido la misma distancia, para pasar otra vez por el foco del primer telescopio, donde puede observarse a través del vidrio por medio del ocular.
Este dispositivo da buen resultado, aun cuando los telescopios estén separados por una considerable distancia; con telescopios de 6 centímetros de abertura, la distancia puede ser de 8 kilómetros, sin que la luz resulte demasiado débil. Vemos entonces un punto luminoso parecido a una estrella, formado por la luz que partió de este punto y, después de haber recorrido una distancia de 16 kilómetros, ha vuelto de nuevo a pasar exactamente por el mismo punto, antes de alcanzar el ojo.
Precisamente por este punto debemos entonces hacer pasar los dientes del disco giratorio para producir los efectos descritos. El experimento da buenos resultados, y se nota que según la mayor o menor velocidad de rotación, el punto luminoso brilla o se eclipsa. En las circunstancias en que el experimento se llevó a cabo, el primer eclipse ocurrió a las 12,6 vueltas por segundo. Con doble velocidad, el punto resplandece de nuevo; con velocidad tres veces mayor, se produce el segundo eclipse; con la cuádruple, el punto vuelve a brillar, y así sucesivamente.
El primer telescopio fue colocado en el mirador de una casa de Suresnes; el segundo, sobre el cerro de Montmartre, a una distancia aproximada de 8.633 metros. El disco, con 720 dientes, se montó sobre un sistema de ruedas movidas por pesos construido por el señor Froment; un contador hizo posible medir la velocidad de rotación. La luz provenía de una lámpara dispuesta para producir una fuente de luz brillante.
Estos primeros experimentos proporcionaron un valor de la velocidad de la luz que sólo difiere un poco de la aceptada por los astrónomos.

Gustavo Kirchhoff
Las líneas de Fraunhofer
[75]

Con motivo de una investigación realizada en común por Bunsen y por mí sobre los espectros de las llamas coloreadas —por la cual nos ha sido posible conocer la composición cualitativa de mez clas complicadas estudiando su espectro de llama en el mechero—, he realizado algunas observaciones que proyectan una claridad inesperada sobre el origen de las líneas de Fraunhofer y que autorizan a conclusiones sobre la condición de la materia de la atmósfera solar y quizá también en las estrellas fijas brillantes.
Fraunhofer ha hecho notar que en el espectro de una llama de vela se presentan dos líneas brillantes que coinciden con las dos líneas oscuras D del espectro solar. Estas mismas líneas se obtienen más brillantes con una flama en la que se pone sal común. He proyectado un espectro solar y dejado que los rayos del Sol antes de llegar a la rendija, pasaran por una fuerte llama de sal común. Si la luz del Sol estaba suficientemente amortiguada, aparecían en lugar de las dos líneas oscuras D, dos líneas claras; pero si la intensidad de la luz sobrepasaba un determinado límite, se mostraban las dos líneas oscuras D de manera mucho más marcada que sin la presencia de la llama de sal común.
El espectro de la luz de Drummond contiene generalmente las dos líneas brillantes del sodio cuando la región luminosa del cilindro de cal no ha estado todavía expuesto durante mucho tiempo a la incandescencia; si el cilindro de cal permanece sin moverse, estas líneas se hacen más débiles y desaparecen finalmente por completo. Si han desaparecido o sólo existen débilmente, una llama de alcohol —en la cual se ha puesto sal común y que ha sido colocada entre el cilindro de cal y la rendija— hace que aparezcan en su lugar dos líneas oscuras de extraordinaria intensidad y finura, que coinciden en todo con las líneas D del espectro solar. De modo que tenemos las líneas D del espectro solar producidas artificialmente en un espectro en que no se presentan naturalmente.
Si en la llama de la lámpara de gas de Bunsen colocamos cloruro de litio, su espectro presenta una línea muy brillante, fuertemente marcada, que está en medio de las líneas B y G de Fraunhofer. Si se hace pasar rayos solares de mediana intensidad a través de la llama sobre la rendija, en el lugar indicado se ve la línea brillante sobre fondo más oscuro; pero cuando la luz del Sol se hace más fuerte, aparece en su lugar una línea oscura que tiene el mismo carácter de las líneas de Fraunhofer. Si alejamos la llama la línea desaparece totalmente, hasta donde me ha sido posible observar.
De estas observaciones concluyo que las llamas coloreadas en cuyos espectros se presentan líneas brillantes y marcadas debilitan a rayos del calor de estas líneas cuando pasan pop ellas, de manera tal que en lugar de las brillantes se presentan líneas oscuras cuando se coloca detrás de la llama una fuente de luz de suficiente intensidad y en cuyo espectro faltan estas líneas. Concluyo, además, que las líneas oscuras del espectro solar que no son producidas por la atmósfera terrestre se originan por la presencia en la candente atmósfera solar, de aquellas sustancias que en el espectro de una llama presentan líneas brillantes en el mismo lugar. Se pueden admitir que las líneas brillantes del espectro de una llama que coinciden con las líneas D se deben siempre al contenido de sodio de las mismas; las líneas oscuras D en el espectro solar permiten concluir, por ello, que se encuentra sodio en la atmósfera del Sol. Brewster ha encontrado en el espectro de la llama de salitres, líneas brillantes en el lugar de las líneas A, a, B de Fraunhofer; estas líneas indican un contenido de potasio en la atmósfera solar. De acuerdo con mi observación, según la cual no corresponde en la atmósfera solar ninguna línea oscura a la línea roja del litio, podría deducir con probabilidad que el litio no se presenta o que se halla sólo en cantidades relativamente pequeñas en la atmósfera del Sol.
La investigación de los espectros de llamas coloreadas ha adquirido con esto un nuevo y gran interés; proseguiré esta investigación junto con Bunsen hasta donde nos sea posible. Con esto seguiremos investigando el debilitamiento de los rayos de luz en las llamas, establecido por mis investigaciones. En estos ensayos, que han sido ya iniciados por nosotros en ese sentido, se ha llegado ya a una conclusión que nos parece de gran importancia. La luz de Drummond necesita, para que en ella aparezcan oscuras las líneas Z), una llama de sal común de baja temperatura. Para esto sirve la llama del alcohol rebajado con agua, pero no la llama de la lámpara de gas de Bunsen. Con esta última, la mínima cantidad de sal común da como resultado, en cuanto se hace notar, que aparezcan líneas brillantes del sodio. Nos proponemos desarrollar las consecuencias que pueden relacionarse con este hecho.
Relación entre la emisión y la absorción de la luz y del calor [76]
Hace algunas semanas he tenido el honor de presentar a la Academia una comunicación sobre algunas observaciones que me parecieron de interés porque permiten sacar conclusiones referentes al comportamiento químico de la atmósfera solar. Partiendo de estas observaciones, he llegado, por medio de una consideración teórica muy simple, a una conclusión general que en muchos aspectos me parece importante y que por eso me permito someter a la consideración de la Academia. Se refiere a una propiedad de todos los cuerpos relacionada con la emisión y absorción del calor y de la luz.
Si se coloca cloruro de sodio o cloruro de litio en la llama no luminosa de la lámpara de Bunsen, se obtiene un cuerpo incandescente que sólo emite luz de una determinada longitud de onda y sólo absorbe luz de la misma longitud de onda. De esta manera se interpreta el resultado de las observaciones ya mencionadas. No se sabe cómo se comporta dicho cuerpo con respecto a los rayos caloríficos oscuros en relación a la emisión y absorción; pero no parece dificultoso representarse como posible a un cuerpo que de todos los rayos caloríficos, brillantes y oscuros, sólo emite rayos de una misma longitud y que sólo absorbe rayos de esa misma longitud. Si se acepta esto y se considera además como posible un espejo que refleja completamente todos los rayos, podremos probar muy fácilmente, partiendo de los principios generales de la teoría mecánica del calor, que para rayos de la misma longitud de onda a la misma temperatura, la relación de la capacidad de emisión con la capacidad de absorción, en todos los cuerpos, es la misma.
Supongamos que tenemos un cuerpo G con la forma de una placa ilimitada que sólo emite y absorbe rayos en longitud de onda A; que frente a éste tengamos un cuerpo c en forma de una placa análoga que emite y absorbe rayos de toda clase de longitudes de onda; supongamos que las superficies externas de estas placas se hallen cubiertas con los espejos perfectos B y r. Una vez que en este sistema se haya establecido la igualdad de la temperatura, cada uno de los dos cuerpos debe mantener la misma temperatura, es decir, tomar tanto calor por absorción como el que pierden por irradiación. Consideremos ahora los rayos que emite c, primero aquellos de longitud de onda X que es diferente de A. Sobre estos rayos el cuerpo G no tiene ninguna influencia: son reflejados por el espejo B, como si G no existiese. Una parte determinada de ellos es luego absorbida por c, los restantes llegan por segunda vez al espejo B, son reflejados una vez más por éste, absorbidos en parte por G y así sucesivamente. De este modo, todos los rayos de longitud de onda X que emite el cuerpo, vuelven a ser absorbidos poco a poco por el mismo. Como esto vale para todos los valores de X que son distintos de A, la inmutabilidad de la temperatura del cuerpo c da como resultado que éste absorbe tantos rayos de longitud de onda A como los que él mismo emite. Para esta longitud de onda, sea e la capacidad de emisión, a la capacidad de absorción del cuerpo c, E y A los valores correspondientes para el cuerpo G. De la cantidad de rayos E que emite, c absorbe la cantidad aE y devuelve (1 —a) E; de ésta, C absorbe la cantidad A (1 — a) E y devuelve, hacia c, (1 —A) (1 — a) E de la cual absorbe a (1 — A) (1 — a) E. Si se establece este criterio, se ve que c toma de E una cantidad de rayos tal que si, para simplificar, se escribe

(1 - A)(1 - a) = k

es igual a

aE (1 + k + k2 + k3 + …)

es decir que es igual a

eq38.png

De la cantidad de rayos e que c mismo emite, c absorbe, como lo muestra un razonamiento semejante, la cantidad

eq39.png

La condición para que la temperatura de c no se modifique es, pues, la igualdad

eq40.png

es decir, la igualdad

eq41.png

Se llega a la misma igualdad si se desarrollan las condiciones para que la temperatura de G permanezca constante. Si suponemos al cuerpo c reemplazado por otro de igual temperatura, encontramos, por repetición de la consideración establecida, el mismo valor para la relación de la capacidad de emisión con respecto a la capacidad de absorción de este cuerpo para los rayos de la misma longitud de onda A. La longitud de onda A y la temperatura son, sin embargo, arbitrarias. Surge entonces la proposición de que para los rayos de la misma longitud de onda a igual temperatura, la relación de la capacidad de emisión respecto a la capacidad de absorción es la misma para todos los cuerpos.
Los conceptos de la capacidad de emisión y de la capacidad de absorción se refieren aquí, en primer lugar, al caso de que el cuerpo forma una placa ilimitada que está cubierta, en un lado, con un espejo perfecto. Pero la cantidad de rayos que emite hacia un lado una placa libre es exactamente igual a la cantidad de rayos que emite una placa de la mitad de grueso provista de un tal espejo y las dos placas absorben la misma cantidad de los rayos incidentes. Podemos, según esto, de acuerdo con el teorema enunciado, defi nir la capacidad de emisión de los cuerpos como la cantidad de los rayos que envía hacia un lado una placa ilimitada formada por el cuerpo y a la capacidad de absorción como la cantidad de rayos que la misma placa absorbe de la unidad de cantidad de rayos que incide sobre ella.
La razón de la capacidad de emisión a la capacidad de absorción e/a común a todos los cuerpos es una función de la longitud de onda y de la temperatura. A bajas temperaturas esta función es igual a cero para las longitudes de onda de los rayos visibles y diferente de cero para valores mayores de la longitud de onda; a temperaturas más elevadas la función tiene también valores finitos para las longitudes de onda de los rayos visibles. A aquella temperatura en que la función deja de ser igual a cero para la longitud de onda de un rayo visible determinado, todos los cuerpos comienzan a emitir luz del color de este rayo, con excepción de aquellos que tienen para este color y para esta temperatura un poder de absorción infinitamente pequeño; cuanto más grande es la capacidad de absorción, tanto más luz da el cuerpo. El hecho empírico de que los cuerpos opacos se encandecen a la misma temperatura, mientras que los gases transparentes necesitan para ello una temperatura, mucho mayor y que estos últimos brillan siempre menos que aquéllos a la misma temperatura, encuentra aquí su explicación. Además se explica que cuando un gas, que en estado incandescente da un espectro discontinuo, se hace atravesar por rayos de suficiente intensidad que de por sí dan un espectro sin rayas oscuras o brillantes, aparezcan rayas oscuras en los lugares del espectro donde estaban las rayas brillantes del gas incandescente. De este modo tiene su fundamentación teórica el método que había señalado en mi anterior informe como apropiado para el análisis químico de la atmósfera solar.
Aprovecho esta oportunidad para mencionar un resultado que creo haber logrado por este camino de mi informe anterior. De acuerdo con las investigaciones de Wheatstone, Masson, Angström y otros, se sabe que en el espectro de una chispa eléctrica se presentan líneas brillantes que dependen de la naturaleza de los metales entre los cuales salta la chispa y se puede aceptar que estas líneas coinciden con las que se formarían en el espectro de una llama de muy alta temperatura si en ésta se introdujera el mismo metal en forma adecuada. He estudiadora parte verde del espectro de la chispa eléctrica entre electrodos de hierro y he encontrado en éste gran cantidad de líneas brillantes que parecen coincidir con líneas oscuras del espectro solar. En líneas aisladas parece apenas posible comprobar con seguridad la coincidencia; pero creo haber comprobado dicha coincidencia en muchos grupos y de tal modo que a las líneas brillantes del espectro de chispa le correspondían las oscuras en el espectro solar; de esto creo poder deducir que las coincidencias no eran sólo aparentes. Si la chispa se producía entre otros metales, por ejemplo, entre electrodos de cobre, estas líneas brillantes faltaban. De ahí me considero autorizado a sacar la conclusión de que entre las partes componentes de la atmósfera solar incandescente se encuentra el hierro, una conclusión que, por lo demás, es muy probable si se considera la abundante presencia del hierro en la Tierra y en las piedras meteóricas. De acuerdo con el dibujo del espectro solar dado por Fraunhofer, sólo puedo describir pocas líneas oscuras del espectro solar que parecen coincidir con las brillantes del espectro del hierro; a éstas pertenecen la línea E, algunas menos marcadas muy cerca de E hacia el extremo violeta del espectro y una línea que se encuentra entre las dos más cercanas de las tres líneas muy marcadas que Fraunhofer ha dibujado junto a b.

Luis José Gay-Lussac
Ley de la dilatación de los gases
[77]

Experimentos y resultados
Seis experimentos realizados con el aire atmosférico, en los que dejé de lado todo aquello que podría resultar inseguro, me dieron los siguientes resultados: el aire atmosférico, que a la temperatura de la nieve en fusión tenía un volumen de 100 partes [78], elevado hasta la temperatura del agua en ebullición, se había dilatado hasta un volumen de

137,4137,6137,54137,55137,48137,57

de aquellas partes, que por término medio dan una dilatación de hasta 137,5 partes [79]
Si se divide toda esta dilatación en partes iguales para cada uno de los grados que la han producido, es decir 80, se encontrará, si se toma como unidad el volumen a la temperatura de 0º, que el aumento de volumen es 1/213,33 para cada grado o 1/266,66 para cada centígrado.
Los experimentos descritos aquí, realizados todos con el mayor cuidado, establecen sin ningún lugar a dudas que el aire atmosférico, el oxígeno, hidrógeno, nitrógeno, gas de salitre, amoniaco, ácido clorhídrico, anhídrido sulfuroso, anhídrido carbónico, se dilatan todos casi de la misma manera por iguales grados de calor y que, en consecuencia, la diferencia de densidad de estas clases de gases a cualquier presión y temperatura, la diversidad de su solubilidad en el agua y en general su naturaleza específica, no influyen para nada en su dilatabilidad por el calor.
De esto saco la conclusión de que los gases se dilatan casi exactamente de la misma manera por iguales grados de calor y en igualdad de todas las otras condiciones.
Esta investigación sobre la dilatación de los gases me llevó naturalmente a experiencias sobre la dilatación de los vapores por la acción del calor. Desde luego parecía probable que también los vapores se dilataran como los gases, por lo cual sólo se trataba de investigar una sola clase de vapor. Elegí para ello el vapor del éter preparado por medio del ácido sulfúrico, porque es el más fácil de manipular.
Para determinar, pues, la dilatación del vapor de éter, utilicé el ya mencionado aparato de dos tubos. Después que hube mantenido este último aparato durante largo tiempo en el baño de aire con una temperatura de unos 60° R., hice entrar en uno de los tubos algo de vapor de éter y en el otro la misma cantidad de aire atmosférico, de modo que los dos llegaban a la misma marca, elevando luego la temperatura del baño de aire de 60 hasta 100°. Tuve la alegría de comprobar que tanto en la dilatación como en la contracción al enfriarse, el vapor de éter mantenía el mismo ritmo que el aire atmosférico, y que con éste llegaba siempre al mismo tiempo a cualquier división de la escala. Esta experiencia, con la que estaba ocupado actualmente Berthollet, ha sido repetida más de una vez, y nunca pude comprobar la más mínima diferencia en la dilatación del vapor y del aire atmosférico; solamente que el vapor de éter, cuando su temperatura ha descendido hasta pocos grados por encima del punto de ebullición del éter, se condensa un poco más rápidamente que el aire atmosférico. Esto está en relación con un fenómeno que hemos visto en muchos cuerpos líquidos cuando pasan al estado sólido y que no sigue teniendo influencia cuando la temperatura sobrepasa pocos grados a aquella en que se produce dicho paso.
Como esta experiencia muestra que tanto el vapor de éter como los gases se dilatan exactamente de la misma manera por el calor, nos sirve al mismo tiempo como prueba de que esta dilatabilidad no depende de la naturaleza especial de los gases y vapores, sino que se debe simplemente a que se encuentran en el estado de fluido elástico. Por ello podemos sacar la conclusión de que todas las especies de gases y vapores se dilatan casi exactamente de la misma manera por iguales grados de calor .
Como todos los gases son igualmente dilatables por el calor y son también igualmente compresibles, y como ambas propiedades (como demostraré en otra parte) están en relación necesaria la una con la otra, debemos concluir que los vapores que tienen la misma capacidad de dilatación que los gases deben ser también igualmente compresibles. Sin embargo, esta conclusión sólo vale en tanto que los vapores comprimidos se mantienen completamente en forma de fluido elástico; y para ello es necesario que su temperatura sea lo suficientemente elevada como para darles una resistencia adecuada a la presión, que trata de llevarlos al estado de fluido líquido.
Ya he dicho antes que según Saussure (y mis experiencias lo ratifican completamente), tanto el aire muy seco como el aire que contiene mayor o menor cantidad de agua disuelta, son dilatables igualmente. Por eso estamos autorizados a sacar de todo lo antedicho las conclusiones siguientes:
1. Todos los gases, cualquiera que sea su densidad y cualquiera que sea la cantidad de humedad que contienen disuelta, lo mismo que todos los vapores, se dilatan en la misma cantidad por iguales grados de calor.
2. Los gases permanentes, cuando son calentados desde el punto de congelación hasta el punto de ebullición, aumentan su volumen en 80/213,33 de su volumen inicial para el termómetro de 80 divisiones o en 100/266,66 para el termómetro de 100 grados.

Pedro Dulong yY Alejo Petit
Calor atómico
[80]

Presentaremos, ahora, en una tabla, los calores específicos de varios cuerpos elementales, limitándonos a aquellas determinaciones que ya no ofrecen duda alguna.

 Calor específicoPesos relativos de los átomosProductos del peso de c/átomo por la capacidad correspondiente
Bismuto0,028813,300,3830
Plomo0,029312,950,3794
Oro0,029812,430,3704
Platino0,031411,160,3740
Estaño0,05147,350,3779
Plata1 0,05576,750,3759
Cinc0,09274,030,3736
Telurio0,09124,030,3675
Cobre0,09493,9570,3755
Níquel0,10353,690,3819
Hierro0,11003,3920,3731
Cobalto0,14982,460,3685
Azufre0,18802,0110,3780

Para exponer la ley que nos proponemos enunciar, hemos introducido en la tabla precedente los pesos relativos de los átomos de los diferentes cuerpos simples, en relación con sus calores específicos. Estos pesos se deducen, como se sabe, de las relaciones que se observan entre los pesos de las sustancias elementales, que se hallan combinadas unas con otras.
Las precauciones tomadas durante muchos años en la determinación de las proporciones de la mayor parte de los compuestos químicos fueron tales que ahora sólo puede haber una leve incertidumbre en los datos que hemos usado. Es verdad que, como no hay un método riguroso para determinar el número real de los átomos de cada especie que entran en combinación, debe haber siempre algo arbitrario en la asignación de los pesos específicos de las moléculas elementales; pero la incertidumbre que surge se extiende solamente a dos o tres números, los que guardan entre sí relaciones muy simples. Las razones que nos indujeron a hacer la elección se explican suficientemente con lo que sigue. Por el momento nos limitaremos a observar que entre los números que hemos elegido no hay uno que no esté de acuerdo con las mejores analogías químicas establecidas.
Por medio de los datos contenidos en la tabla precedente podemos calcular con facilidad las relaciones existentes entre las capacidades de los átomos de las diferentes especies. A este propósito, hacemos recalcar que para pasar de los calores específicos dados por la observación a los calores específicos de las partículas mismas será suficiente dividir los primeros por las cantidades de partículas contenidas en el mismo peso de las sustancias que se están comparando. Ahora bien: es obvio que para pesos iguales de materia estos números de partículas son inversamente proporcionales a las densidades de los átomos. Por esto llegamos al resultado deseado multiplicando cada una de las capacidades experimentalmente determinadas por el peso del átomo correspondiente. Así obtenemos los diferentes productos que se han reunido en la última columna de la tabla.
Un simple vistazo a estos números nos permite advertir una relación tan notable en su simplicidad, que nos induce a reconocer en seguida la existencia de una ley física susceptible de ser generalizada y extendida a todas las sustancias elementales. En efecto: estos productos, que expresan las capacidades de los átomos de diferentes especies, son tan iguales unos a otros, que es imposible que las insignificantes diferencias, observadas surjan de otra cosa que no sean los errores inevitables, tanto en las mediciones de las capacidades como en el análisis químico; máxime si observamos que en ciertos casos los errores que surgen de estas dos fuentes pueden ser del mismo sentido y, consecuentemente, multiplicados en el resultado. El número y la diversidad de las sustancias de que hemos tratado hacen imposible considerar la relación que acabamos de señalar como meramente accidental. Estamos, pues, autorizados a adoptar la siguiente ley: Los átomos de todos los cuerpos simples tienen exactamente la misma capacidad para el calor.
Teniendo presente lo anteriormente dicho sobre la incertidumbre aún existente en la asignación de los pesos específicos de los átomos, puede vislumbrarse fácilmente que la ley establecida sería diferente si se adoptara una suposición distinta para la densidad de las partículas, pero, de todos modos, esta ley contendría el enunciado de una razón simple entre los pesos y los calores específicos de los átomos elementales; y sabemos que si debemos elegir entre dos hipótesis igualmente probables, hemos de decidirnos en favor de la que establezca la relación más simple entre los elementos que se comparan.
Cualquiera que fuere la posición que se adoptara sobre esta relación, ella podría servir como prueba de los resultados del análisis químico y aun, en ciertos casos, podría proporcionar el método más exacto para llegar al conocimiento de las proporciones de ciertas combinaciones. Pero si a medida que vayamos adelantando en nuestros trabajos no se descubriera nada que debilitase la probabilidad de la opinión que preferimos en la actualidad, ella tendría además la ventaja de fijar de una manera definida y uniforme los pesos específicos de los átomos de todos los cuerpos simples que se pueden someter a la observación directa.

Sadi Carnot
La potencia motriz del fuego
[81]

Dondequiera que exista una diferencia de temperatura, dondequiera que pueda restablecerse el equilibrio del calórico, puede producirse también potencia motriz. El vapor de agua es un medio de realizar esta potencia, pero no es el único: todos los cuerpos de la naturaleza pueden emplearse para este fin; todos son susceptibles de cambio de volumen, de contracciones y de dilataciones sucesivas por las alternativas de calor y de frío; todos son capaces de vencer, en sus cambios de volumen, ciertas resistencias y de desarrollar así potencia motriz. Un cuerpo sólido, una barra metálica, por ejemplo, alternativamente calentada y enfriada, se dilata y contrae, y puede mover cuerpos fijados a sus extremidades. Un líquido alternativamente calentado y enfriado aumenta y disminuye de volumen y puede vencer obstáculos más o menos grandes opuestos a su dilatación. Un fluido aeriforme es susceptible de cambios considerables de volumen por las variaciones de temperatura: si está encerrado dentro de un recipiente de capacidad variable, tal como un cilindro provisto de un émbolo, producirá movimientos de gran extensión. Los vapores de todos los cuerpos susceptibles de pasar al estado gaseoso, del alcohol, del mercurio, del azufre, etcé tera, podrían llenar la misma función que el vapor de agua. Éste, alternativamente calentado y enfriado, produciría potencia motriz a la manera de los gases permanentes, es decir, sin volver jamás al estado líquido. La mayor parte de estos medios han sido propuestos, y muchos hasta fueron ensayados, aunque sin éxito notable hasta ahora.
Hemos hecho notar que en las máquinas de vapor la potencia motriz se debe a un restablecimiento del equilibrio en el calórico: esto ocurre no sólo en las máquinas de vapor, sino también en toda máquina de combustión, es decir, en toda máquina donde el calor es el motor. El calor puede, evidentemente, ser una causa de movimiento sólo en virtud de los cambios de volumen o de forma que hace experimentar a los cuerpos; estos cambios no se deben a una constancia de temperatura, sino a alternativas de calor y de frío. Ahora bien: para calentar cualquier sustancia hace falta un cuerpo más caliente que ella, y para enfriarla es menester un cuerpo más frío. Necesariamente se toma calórico al primero de estos cuerpos para transmitirlo al segundo por medio de la sustancia intermediaria. Es decir, se restablece o, por lo menos, se trata de restablecer el equilibrio del calórico.
Es natural formularse aquí esta pregunta a la vez curiosa e importante: la potencia motriz del calor, ¿es inmutable en cantidad, o varía con el agente de que se echa mano para realizarla, con la sustancia intermediaria elegida como sujeto de acción del calor?
Está claro que esta pregunta sólo puede formularse para una determinada cantidad de calórico y para una determinada diferencia de temperatura. Disponemos, por ejemplo, de un cuerpo A, mantenido a la temperatura de 100° y de otro cuerpo B, mantenido a la temperatura de 0º; y nos preguntamos qué cantidad de potencia motriz puede obtenerse por el transporte de una porción dada de calor (por ejemplo, la que es necesaria para fundir un kilogramo de hielo) del primero de esos cuerpos al segundo: nos preguntamos si esta cantidad de potencia motriz está necesariamente limitada, si varía con la sustancia empleada para obtenerla o si el vapor de agua ofrece en este sentido más o menos ventaja que el vapor de alcohol, de mercurio, que un gas permanente o que cualquier otra sustancia...
Se ha señalado anteriormente un hecho evidente por sí mismo o que, por lo menos, se hace evidente en cuanto se reflexiona sobre los cambios de volumen ocasionados por el calor: dondequiera que exista una diferencia de temperatura, puede producirse potencia motriz. Recíprocamente: dondequiera que pueda consumirse esta potencia, es posible ocasionar una ruptura en el equilibrio del calórico.
El choque, el rozamiento de los cuerpos, ¿no son, en efecto, medios de elevar su temperatura, de hacerla llegar espontáneamente a un grado más alto que la de los cuerpos que los rodean y, por consiguiente, de producir una ruptura en el equilibrio del calórico allí donde antes existía? Es un hecho experimental que la temperatura de los fluidos gaseosos se eleva por la compresión y disminuye por la rarefacción. He aquí un medio seguro de cambiar la temperatura de los cuerpos, de romper el equilibrio del calórico tantas veces como se quiera con la misma sustancia.
Según las nociones establecidas hasta ahora, se puede comparar con bastante exactitud la potencia motriz del calor con la de una caída de agua: ambas tienen un máximo que no se puede sobrepasar, cualquiera que fuese la máquina empleada para recibir la acción del calor. La potencia motriz de una caída de agua depende de su altura y de la cantidad de líquido; la potencia motriz del calor depende también de la cantidad de calórico empleada y de lo que se podría llamar, de lo que llamaremos, en efecto, la altura de su caída; es decir, la diferencia de temperatura de los cuerpos entre los cuales se hace el intercambio de calórico. En la caída de agua la potencia motriz es rigurosamente proporcional a la diferencia de nivel entre el depósito superior y el depósito inferior. En la caída de calórico la potencia motriz aumenta, sin duda, con la diferencia de temperatura entre el cuerpo caliente y el cuerpo frío.

Roberto Mayer
Indestructibilidad de las fuerzas de la naturaleza
[82]

El objeto de estas líneas es tratar de dilucidar la cuestión de saber qué debemos entender por fuerza y cómo las fuerzas obran entre sí. Mientras que por la denominación de materia se atribuye a un objeto propiedades determinadas, como la gravedad y el volumen, a la denominación de fuerza se une principalmente la idea de algo desconocido, de inescrutable, de hipotético. Nos parece que la tentativa que hacemos de dar a la noción de fuerza la misma precisión que posee la de materia, y de no designar por la palabra fuerza más que los objetos que pueden originar investigaciones reales, lo mismo que las consecuencias que se desprenden de esta tentativa, no podrá ser mal acogida por los que desean tener de los fenómenos de la naturaleza nociones claras y exentas de hipótesis.
Las fuerzas son causas: por consiguiente, el principio causa aequat effectum se aplica a ellas plenamente. Si la causa c produce el efecto e, tenemos c = e; si e es a su vez causa de otro efecto, f, e = f, etc.; por lo tanto, c = e = f... = c. En una cadena de causas y de efectos, un término o una parte de él no puede nunca, conforme resulta de la naturaleza de una ecuación, llegar a ser igual a cero. A esta primera propiedad de todas las causas, le damos el nombre de indestructibilidad.
Si la causa dada c ha producido un efecto e que es igual a ella, por lo mismo c ha dejado de existir convirtiéndose en e; si después de producir e, c subsistiere aún, en todo o en parte, a esta causa subsistente debería corresponder un efecto adicional; luego el efecto de c debería ser > e, lo que es contrario a la hipótesis c = e. Puesto que c se cambia en e, e en f, etc., debemos considerar estas magnitudes como formas diferentes de un solo y mismo objeto. La capacidad de revestir formas diferentes es la segunda propiedad esencial de todas las causas. Admitiendo las dos propiedades que hemos reconocido, diremos: las causas son objetos (cuantitativamente) indestructibles y (cualitativamente) variables.
Presenta la naturaleza dos categorías de causas entre las cuales demuestra la experiencia que existe una barrera infranqueable. La primera categoría abarca las causas que poseen las propiedades de ser ponderables e impenetrables: son las materias; la segunda comprende las causas que carecen de estas propiedades: son las fuerzas, llamadas también imponderables por la propiedad negativa que las caracteriza. Las fuerzas son, pues, objetos indestructibles, variables e imponderables.
La causa que determina la elevación de un peso es una fuerza; su efecto, el peso elevado, es, por lo tanto, una fuerza también; expresando este hecho de un modo general, diremos: toda diferencia espacial de objetos ponderables es una fuerza; como esta fuerza determina la caída de los cuerpos, la llamaremos fuerza de caída.
La fuerza de caída y la caída, y, de un modo más general aún, la fuerza de caída y el movimiento, son fuerzas que se relacionan entre sí como causa y efecto, fuerzas que se transforman una en otra, dos formas diferentes de un solo y mismo objeto. Ejemplo: un peso que descansa en el suelo no es una fuerza; no es causa ni de movimiento ni de elevación de otro peso, pero llega a ser una fuerza tanto mayor cuanto más se le levante del suelo; la causa, es decir, la separación de un peso con relación al suelo, y el efecto, o sea la cantidad de movimiento producido, son, conforme enseña la mecánica, constantemente iguales entre sí.
Considerando la gravedad como causa de la caída, se habla de una fuerza de gravedad, confundiendo las nociones de fuerza y propiedad; lo que pertenece esencialmente a toda fuerza, a saber, la indestructibilidad asociada a la variabilidad, es precisamente lo que falta a toda propiedad; entre una propiedad y una fuerza, entre la gravedad y el movimiento no puede establecerse la ecuación que trae consigo toda relación causal bien pensada. Considerar la gravedad como una fuerza es figurarse una causa que sin gastarse produce un efecto, y, por consiguiente, representarse de un modo inexacto el encadenamiento causal de las cosas. Para que un cuerpo pueda caer, la elevación del suelo no es menos necesaria que la gravedad; no debe, por lo tanto, atribuirse únicamente la caída de los cuerpos a la gravedad.
El establecimiento de las relaciones que existen entre la fuerza de caída y el movimiento, entre el movimiento y la fuerza de caída y entre los movimientos, es del dominio de la mecánica; no recordaremos aquí más que un solo punto adquirido por ella. Suponiendo el radio terrestre = ∞, la magnitud de la fuerza de caída v es proporcional a la magnitud de la masa m y a la de su elevación d; v = md. Si la elevación d = 1 de la masa se transforma en un movimiento de esta masa, movimiento que tiene una velocidad final c = 1, tenemos también v = me; pero resulta de las relaciones conocidas que existen entre d y e que para otros valores de d o de c la medida de la fuerza v es me2; luego v == md = me2; de suerte que la ley de conservación de las fuerzas vivas está fundada en la ley general de indestructibilidad de las causas.
En casos innumerables vemos cesar un movimiento sin haber producido otro movimiento ni elevación de peso; pero una fuerza no puede anularse, sólo puede tomar otra forma, y se plantea la cuestión de saber qué otra forma puede tomar la fuerza que hemos aprendido a conocer como fuerza de caída y como movimiento. Solamente la experiencia podrá sernos útil para este fin. Para hacer nuestros experimentos, debemos escoger instrumentos que no solamente hagan cesar realmente el movimiento, sino que se modifiquen lo menos posible por los objetos sometidos al examen. Frotemos, por ejemplo, una contra otra dos placas de metal; veremos desaparecer el movimiento y, por el contrario, aparecer calor. Queda por preguntar si el movimiento que hemos producido es la causa de este calor. Para dilucidar este punto es preciso examinar si en los innumerables casos en que el calor aparece al mismo tiempo que desaparece el movimiento, éste no tiene más efecto que la producción del calor, y el calor otra causa que el movimiento.
Nunca se ha hecho un experimento formal para demostrar los efectos del movimiento que cesa; sin querer tachar de antemano de erróneas las hipótesis que puedan hacerse, llamaremos la atención sobre el hecho de que el movimiento que cesa no consiste, por regla general, en una modificación del estado de agregación de los cuerpos en movimiento que se rozan entre sí. Admitamos que cierta cantidad v de movimiento se emplee en transformar en n una materia m sometida a rozamiento; entonces se debe tener m + v = n, o lo que es igual: n — m+ v, y cuando volviera n al estado m, v debe manifestarse de nuevo bajo una forma cualquiera. Frotando entre sí durante mucho tiempo dos placas metálicas, podemos hacer cesar sucesivamente una cantidad enorme de movimiento; pero ¿se nos ocurriría buscar en el polvo metálico que se haya formado la menor traza de la fuerza desaparecida e intentar extraerla? El movimiento, lo repetimos, no puede reducirse a la nada, y los movimientos opuestos o en otros términos, los movimientos positivos y negativos, no pueden tener por suma cero, lo mismo que los movimientos opuestos no pueden nacer de cero, o que un peso no se levanta por sí mismo.
No admitiendo una relación causal entre el movimiento y el calor, es tan difícil explicar la producción de calor como rendir cuenta del movimiento que desaparece. Ese calor no puede atribuirse a la disminución del volumen de los cuerpos que se frotan uno contra otro. Es sabido que pueden fundirse dos trozos de hielo en el vacío frotándolos uno con otro; pues bien: ensáyese transformar el hielo en agua por presión: ¿se conseguirá, por grande que haya sido la presión empleada? Según lo ha comprobado el autor de estas líneas, el agua experimenta una elevación de temperatura cuando se la agita con fuerza, y después de haber sido agitada ocupa un volumen mayor que antes (experiencias hechas con agua a 12 y 13° centígrados); ¿de dónde proviene, pues, la cantidad de calor que puede producirse cuantas veces se quiera en el mismo aparato, agitándolo? La teoría de las vibraciones térmicas tiende a admitir que el calor es efecto del movimiento; sin embargo, no reconoce claramente ni en todo su alcance esta relación causal, y llama principalmente la atención sobre vibraciones de difícil interpretación.
Puesto que está demostrado en multitud de casos (la excepción confirma la regla) que no puede contarse para el movimiento que desaparece más efecto que el calor, ni para el calor que se ha producido más causa que el movimiento, preferimos admitir que el calor nace del movimiento, mejor que aceptar una causa sin efecto o un efecto sin causa, lo mismo que el químico, cuando ve desaparecer el oxígeno y el hidrógeno y formarse agua, en lugar de limitarse, a hacer constar este fenómeno, declara que existe una relación entre la desaparición del hidrógeno y del oxígeno y la formación del agua.
Podemos representarnos del modo siguiente el lazo natural que existe entre la fuerza de caída, el movimiento y el calor. Sabemos que el calor se manifiesta cuando las partículas de un cuerpo se aproximan; la condensación produce calor; luego lo que es cierto al tratarse de las partículas de los cuerpos y de los espacios que las separan, lo es igualmente de las grandes masas y de los espacios mensurables. La caída de un peso es una disminución real del volumen de la Tierra; luego hay necesariamente una relación entre esta caída y la manifestación de calor que la acompaña; el calor producido deberá ser exactamente proporcional a la magnitud del peso y a su alejamiento (primitivo) de la Tierra. Esta observación conduce de un modo sencillo a ecuaciones entre la fuerza de caída, el movimiento y el calor.
Por lo mismo que no puede sacarse en conclusión del vínculo que existe entre la fuerza de caída y el movimiento que la esencia de la fuerza de caída es el movimiento, tampoco puede deducirse de la relación existente entre el movimiento y el calor que la esencia del calor es el movimiento. Sacaríamos en consecuencia lo contrario, es decir, que para poder convertirse en calor el movimiento —sea movimiento simple o vibratorio, como la luz, el calor radiante, etc.— debe cesar de ser movimiento.
Si la fuerza de caída y el movimiento son iguales al calor, el calor debe, naturalmente, ser igual también al movimiento y a la fuerza de caída. Así como el calor nace como efecto de una disminución de volumen y una cesación de movimiento, así también el calor desaparece como causa cuando se manifiestan sus efectos, el movimiento, el aumento de volumen, la elevación de un peso.
En las máquinas accionadas por agua, una cantidad importante de calor es suministrada continuamente por el movimiento que nace a expensas del volumen de la Tierra, que disminuye constantemente por la caída del agua, y que desaparece en seguida; inversamente, las máquinas de vapor sirven para convertir el calor en movimiento o en elevación de peso. La locomotora con su convoy puede compararse con un aparato de destilación; el calor acumulado en la caldera se transforma en movimiento, y una parte importante de este movimiento se transforma a su vez en calor en los ejes de las ruedas.
Terminaremos con una conclusión práctica la exposición de las ideas que sostenemos, ideas que resultan necesariamente del principio causa aequat effectum, y que están plenamente de acuerdo con todos los fenómenos naturales. Para poder resolver las ecuaciones que existen entre la fuerza de caída y el movimiento, ha debido determinarse experimentalmente el trayecto recorrido durante cierto tiempo, durante el primer segundo, por ejemplo; igualmente, para poder resolver las ecuaciones que existen entre la fuerza de caída y el movimiento por un lado y el calor por otro, es preciso dilucidar la cuestión de saber cuál es la cantidad de calor que corresponde a una cantidad determinada de fuerza de caída o de movimiento. Hay que encontrar, por ejemplo, a qué altura debe elevarse un peso determinado para que su fuerza de caída sea equivalente a la cantidad de calor necesaria para elevar de 0 a Io centígrado el mismo peso de agua. El hecho de existir semejante equivalencia en la naturaleza puede considerarse como resumen de las consideraciones precedentes.
Aplicando a los gases los principios que acabamos de establecer, encontramos que el descenso de una columna de mercurio que comprime a un gas es igual a la cantidad de calor que se desprende por la compresión, y de ello resulta —la relación del calor específico del aire atmosférico con presión y volumen constantes es igual a 1,421— que a la caída de un peso de una altura de 365 metros aproximadamente, corresponde la cantidad de calor necesaria para elevar de 0º a 1º la temperatura del mismo peso de agua. Si consideramos ahora los rendimientos de nuestras mejores máquinas de vapor, veremos que una pequeña parte solamente del calor producido por la caldera se transforma en movimiento o en elevación de peso: esta comprobación pudiera servir de justificación a las tentativas que se han hecho para obtener el movimiento por procedimientos más ventajosos que el de la combinación de carbono con oxígeno, especialmente para transformar en movimiento la electricidad obtenida por medios químicos.

Jaime Prescott Joule
El equivalente mecánico del calor
[83]

Durante largo tiempo había sido una hipótesis favorita la de que el calor consiste en «una fuerza o poder perteneciente a los cuerpos», pero fue el conde de Rumford quien llevó a cabo decididamente los primeros experimentos a favor de una teoría nueva. Ese filósofo natural, celebrado con tanta justicia, demostró mediante sus ingeniosos experimentos que la gran cantidad de calor originado en el cañón no podía atribuirse a cambios que ocurrieran en la capacidad calorífica del metal. De ahí sacó la conclusión de que el movimiento del perforador era transmitido a las partículas del metal, produciendo de esta manera los fenómenos de calor. «Me parece muy difícil —decía—, si no del todo imposible, formarse una idea definida de algo capaz de ser excitado y comunicado, en la manera en que el calor lo fue en estos experimentos, excepto que fuera por el movimiento.»
Una de las cosas más importantes del conde de Rumford, a pesar de la poca atención que le fuera tributada, es la apreciación que formula de la cantidad de fuerza mecánica necesaria para producir cierta cantidad de calor. Refiriéndose a su tercera experiencia, hace notar que «la cantidad total de agua a 0o que podía haberse llevado a 180° F. mediante la fricción durante dos horas y treinta minutos, es de 26,58 libras». En otra página de su libro dice: «La maquinaria usada en el experimento podía fácilmente llevarse con la fuerza de un caballo (a pesar de que para hacer más liviano el trabajo se emplearon dos).» La potencia de un caballo fue estimada por Watt en 33.000 libras-pies por minuto, y por lo tanto, si continuaran durante dos horas y treinta minutos, la suma total sería de 4.950.000 libras-pies, lo que, de acuerdo con el conde de Rumford, equivaldría a 26,58 libras de agua calentada a 180° F. Luego el calor requerido para aumentar la temperatura de 1 libra de agua en 1 grado es equivalente a la fuerza representada por 1.034 libras-pies. Este resultado no es muy diferente de los que yo he deducido con mis propios experimentos, o sea 772 pies-libras. Ha de observarse que el exceso en el equivalente del conde de Rumford se debe a lo que él mismo anticipaba: «No se calculó el calor acumulado en la caja de madera, ni el que se dispersó durante el experimento.»
A fines del siglo pasado, sir Humphry Davy publicó, en las West Country Contributions del doctor Beddoes, bajo el título de Investigaciones sobre el calor, la luz y la respiración, una memoria en la que confirma ampliamente las opiniones del conde de Rumford. Frotando dos trozos de hielo entre sí en el vacío de una bomba neumática, parte de ellos se fundía, a pesar de que la temperatura del recipiente era más baja que el punto de congelación. Este experimento fue el más decisivo en la teoría de la inmaterialidad del calor, puesto que la capacidad calorífica del hielo es mucho menor que la del agua. Con gran razón infirió Davy que «la causa inmediata de los fenómenos caloríficos es el movimiento, y que las leyes de su comunicación son exactamente las mismas que las leyes de comunicación del movimiento».
Las investigaciones de Dulong sobre el calor específico de los fluidos elásticos se vieron recompensadas por el descubrimiento del hecho notable de que «volúmenes iguales de todos los fluidos elásticos a la misma temperatura y bajo la misma presión, que son comprimidos o dilatados bruscamente en la misma fracción de volumen, absorben o desprenden la misma cantidad absoluta de calón. Esta ley es de la más grande importancia en el desarrollo de la teoría del calor, puesto que prueba que el efecto calorífico es, bajo ciertas condiciones, proporcional a la fuerza gastada.
En 1834, el doctor Faraday demostró la «identidad de las fuerzas químicas y eléctricas». Esta ley, junto con otras, subsecuentemente descubiertas por este gran hombre, que muestran las relaciones que existen entre magnetismo, electricidad y luz, le han permitido formular la idea de que los cuerpos llamados imponderables son sólo los exponentes de distintas formas de la fuerza. Grove y Mayer han dado también su aprobación a puntos de vista similares.
Mis propios experimentos en esta materia fueron comenzados en 1840, año en que comuniqué a la Sociedad Real mi descubrimiento de la ley del calor producido por la electricidad voltaica, cuyas deducciones inmediatas fueron: primera, que el calor producido por cualquier par voltaico es proporcional, caeteris paribus, a su intensidad, o fuerza electromotriz, y segunda, que el calor producido por la combustión de un cuerpo es proporcional a la intensidad de su afinidad con el oxígeno. He tenido éxito en mis investigaciones sobre las relaciones entre el calor y la afinidad química. En 1843 demostré que el calor producido por la electricidad magnética es proporcional a la fuerza absorbida, y que la fuerza de la máquina electromagnética se deriva de la afinidad química que reside en la batería, fuerza ésta que en caso contrario se transformaba en calor. Por esto me considero justificado al anunciar que «la cantidad de calor capaz de aumentar la temperatura de 1 libra de agua en 1 grado de la escala de Fahrenheit es igual, y puede ser convertida en ella, a una fuerza mecánica capaz de levantar 838 libras perpendicularmente al suelo a la altura de 1 pie».
En un escrito posterior, leído ante la Sociedad Real en 1844, he tratado de demostrar que el calor producido y absorbido por la rarefacción y compresión del aire es proporcional a la fuerza absorbida y producida en esas operaciones. La relación cuantitativa éntrela fuerza y el calor deducida de esos experimentos es casi idéntica a las derivadas de las experiencias electromagnéticas, y se confirman por los experimentos de Seguin sobre la dilatación del vapor.
De la explicación formulada por el conde de Rumford sobre el calor proveniente de la fricción de los sólidos, uno puede haber anticipado que la evolución del calor se podría investigar también en la fricción entre cuerpos líquidos y gaseosos. Más aún: hay muchos casos, como el calentamiento del mar después de unos días de tiempo tormentoso, que se habían atribuido comúnmente a la fricción del líquido. No obstante, el mundo científico, preocupado con la hipótesis de que el calor era una sustancia, y siguiendo las deducciones hechas por Pictet conforme a sus experimentos, no suficientemente delicados, había denegado unánimemente la posibilidad de producir calor en esta forma. La primera mención que yo conozco sobre experimentos en que se afirma que el calor es originado por la fricción entre fluidos, corresponde al año 1842 y es Roberto Mayer quien establece que había aumentado la temperatura del agua, desde 12 a 13 grados, agitándola. No indica, en cambio, la cantidad de fuerza empleada, o las precauciones tomadas para asegurar un resultado correcto. En 1843 anuncié el hecho de que «se produce calor en el paso de agua por tubos estrechos», y que cada grado de calor por libra de agua requería para su producción una fuerza mecánica representada por 770 libras-pies. Subsecuentemente, en 1845 y 1847 empleé una rueda con paletas para producir la fricción del fluido, y obtuve equivalentes de 781,5; 782,1 y 787,6 de la agitación del agua, aceite de esperma y mercurio, respectivamente. Resultados tan cercanamente coincidentes entre ellos, y con los previamente derivados de los experimentos con los fluidos elásticos y la máquina electromagnética, no dejaron duda en mi mente sobre la existencia de una relación entre la fuerza y el calor; pero la cuestión de mayor importancia era obtener esa relación con gran exactitud.

Rodolfo Clausius
El segundo principio de la termodinámica
[84]

Cuando un cuerpo cualquiera cambia de volumen, al mismo tiem po, por regla general, se produce o consume trabajo mecánico. Pero en la mayoría de los casos no es posible determinar a éste con exactitud, porque junto con el trabajo exterior se produce también comúnmente un trabajo interior desconocido. Para sortear este inconveniente, Carnot empleó el ingenioso método, ya mencionado anteriormente, de hacer experimentar al cuerpo diferentes transformaciones consecutivas, ordenadas de tal manera que al final vuelva exactamente a su estado primitivo. Entonces, si en alguna de las transformaciones se ha realizado trabajo interior, éste debe quedar exactamente anulado por el de las otras, y se tendrá la seguridad de qué el trabajo exterior que eventualmente se produzca en las transformaciones será también el trabajo total. Clapeyron ha representado muy claramente este método en forma gráfica, y nosotros utilizaremos por ahora esta representación para los gases permanentes, si bien con una pequeña modificación, condicionada por nuestro principio.
En la figura 29, la abscisa oe representa el volumen, y la ordenada ea la presión de la unidad de peso de un gas, en un estado cuya temperatura sea = t.
Admitamos ahora que el gas se encuentre en un recipiente dilatable, pero con el cual no pueda, sin embargo, intercambiar calor. Entonces, si lo dejamos dilatar en este recipiente, y no le comunicamos nuevo calor, su temperatura disminuirá. Para evitar esto, pongámoslo en contacto, durante la dilatación, con un cuerpo A, mantenido a temperatura constante, y que le comunica siempre al gas la cantidad de calor necesaria para que su temperatura permanezca igualmente con el valor t. Durante esta dilatación a temperatura constante la presión disminuye de acuerdo con la ley de Mariotte, y la podemos representar por las ordenadas de la curva ab, que es un segmento de hipérbola equilátera.

ap29.jpg
Figura 29

Cuando el gas aumentó de volumen, en esta forma, desde oe hasta of, quitemos el cuerpo A, y, sin que pueda recibir más calor, dejemos continuar la dilatación. Entonces la temperatura descenderá, y, por lo tanto, la presión disminuirá más rápidamente que antes; la ley según la cual esto ocurre está representada por la curva be. Una vez que el volumen ha aumentado de of a og, con lo cual su temperatura ha descendido de t hasta τ, comencemos a comprimirlo nuevamente para llevarlo a su volumen inicial oe. Si al hacer esto lo abandonamos a sí mismo, su temperatura aumentará de nuevo en seguida. Pero por el momento no permitamos que esto suceda, poniéndolo en contacto con un cuerpo B de temperatura constante τ al cual transmite de inmediato el calor producido, de modo que mantiene la temperatura τ; en esta forma comprimámoslo (en un intervalo gh) hasta que el segmento restante he alcance exactamente para que su temperatura aumente de r a t, cuando esta última compresión se efectúa de modo tal que no pueda ceder calor. Durante la primera compresión la presión aumenta según la ley de Mariotte, y está representada por el segmento cd de otra hipérbola equilátera. En cambio, durante la última el aumento se produce con mayor rapidez, y está representado por la curva da. Esta curva tiene que terminar exactamente en a, puesto que, como al final de la operación la temperatura y el volumen tienen su valor primitivo, lo mismo debe suceder con la presión, que es una función de aquellas dos.
Por lo tanto, el gas se encuentra ahora exactamente en el mismo estado que al principio.
Para determinar ahora el trabajo producido en estas transformaciones, por las razones expuestas sólo tenemos que concentrar la atención en el trabajo exterior. Durante la dilatación el gas produce un trabajo, que está determinado por el integral del producto entre el diferencial de volumen y el valor correspondiente de la presión y que, por lo tanto, está representado geométricamente por los cuadriláteros eabf y fbcg. Por el contrario, en la compresión se consume trabajo, que está representado del mismo modo por los cuadriláteros gcdh y hdae. El exceso del primer trabajo sobre el último debe considerarse como el trabajo total producido durante las transformaciones, y está representado por el cuadrilátero abcd.
Si todo el proceso antes descrito se realiza en orden inverso, se obtiene la misma cantidad abcd como exceso del trabajo consumido sobre el producido.

Consecuencias del principio de Carnot
Carnot ha supuesto que a la producción de trabajo le corresponde un mero paso de calor de un cuerpo caliente a otro frío, sin que la cantidad de calor disminuya en dicho paso
La última parte de esta hipótesis, a saber, que la cantidad de calor no resulta disminuida, contradice a nuestro principio anterior y, por lo tanto, si queremos conservar éste, debe ser rechazada. La primera parte, en cambio, puede mantenerse atendiendo a su contenido esencial. Puesto que si bien ya no necesitamos más un equivalente propio para el trabajo producido, desde que hemos admitido como tal un consumo real de calor, es todavía posible, sin embargo, que aquel paso se produzca simultáneamente con el consumo, y asimismo que esté en una relación determinada con el trabajo. Se trata, pues, de investigar si esta hipótesis, además de su posibilidad, tiene también de suyo una probabilidad suficiente.
Un paso de calor de un cuerpo caliente a otro frío ocurre positivamente en aquellos casos en que se produce trabajo por acción del calor y al mismo tiempo se cumple la condición de que la sustancia que interviene se encuentre de nuevo al final en el mismo estado que al principio. En los procesos descritos anteriormente, y representados en las figuras, hemos visto, por ejemplo, que el gas y el agua que se vaporiza recibían calor del cuerpo A al aumentar de volumen, y que daban calor al cuerpo B durante la disminución de volumen, de tal modo, pues, que una determinada cantidad de calor
ha sido transportada de A a B, y que ésta era además mucho mayor que la que admitimos como consumida, de manera que en las transformaciones infinitamente pequeñas que están representadas en las figuras, esta última constituía un infinitamente pequeño de segundo orden, mientras que la primera constituía uno de primer orden. Sin embargo, para poder relacionar con el trabajo este calor transportado, es necesaria aún otra limitación. En efecto: ya que también puede ocurrir un transporte de calor sin efecto mecánico, cuando un cuerpo caliente y otro frío están inmediatamente en contacto y el calor fluye del uno al otro por conducción, entonces, si se desea lograr el máximo de trabajo para el paso de una determinada cantidad de calor entre dos cuerpos de determinada temperatura t y t, debe conducirse el proceso de tal modo que, como ha ocurrido en los casos anteriores, nunca se pongan en contacto dos cuerpos de diferente temperatura.
Ahora bien: es este máximo del trabajo el que se debe comparar con el paso de calor, y se encuentra que en realidad tenemos motivos para admitir, con Carnot, que sólo depende de la cantidad del calor transportado y de las temperaturas t y t de los dos cuerpos A y B, pero no de la naturaleza del cuerpo intermediario. Este máximo tiene, en efecto, la propiedad de que por el consumo del mismo también se puede transportar de nuevo del cuerpo frío B al cuerpo caliente A una cantidad de calor igual a la que tenía que pasar de A a B para su producción. Nos convenceremos de ello fácilmente si imaginamos efectuados en sentido inverso todos los procesos descritos anteriormente, de modo que, por ejemplo, en el primer caso el gas se dilata solo, de modo que su temperatura desciende de t a τ, luego prosigue su dilatación en contacto con B, después es comprimido solo, hasta que su temperatura es de nuevo t, y finalmente sufre la última compresión en contacto con A. Entonces, en la compresión se consume más trabajo que el producido en la dilatación, de modo que en total ocurre una pérdida de trabajo que posee el mismo valor que la ganancia obtenida en el proceso anterior. Además, al cuerpo B se le quita tanto calor como el que antes se le comunicó, y al cuerpo A se le comunica tanto como el que antes se le quitó, de donde se deduce que no sólo se produce ahora la misma cantidad de calor que antes se consumió, sino también que la misma cantidad que antes fue llevada de A a B va ahora de B a A.
Si nos imaginamos ahora que existen dos sustancias, de las cuales una puede dar mayor trabajo que la otra con un determinado paso de calor, o, lo que es lo mismo, que para producir un determinado trabajo necesite transportar menos calor de A a B que la otra, entonces podríamos utilizar alternadamente a estas dos sustancias de modo tal que con la primera se produzca trabajo por el proceso antedicho, y con la última se realice el proceso inverso consumiendo el mismo trabajo. Entonces ambos cuerpos estarían de nuevo, al final, en su estado primitivo; además, el trabajo producido y el consumido se habrán anulado exactamente, de modo que, también de acuerdo con el principio anterior, la cantidad de calor no pudo haber aumentado ni disminuido. Sólo respecto a la distribución del calor habría ocurrido una diferencia, en el sentido de que se habría transportado más calor de B hacia A que de A hacia B, y de este modo se habría efectuado, en total, un transporte de B hacia A. Por repetición alternada de ambos procesos se podría entonces, sin ningún gasto de fuerza, o alguna otra transformación, llevar tanto calor como se quisiera de un cuerpo frío a otro caliente, lo que contradice el comportamiento ordinario del calor, puesto que en todas partes muestra la tendencia a igualar las diferencias de temperatura, y a pasar, por lo tanto, de los cuerpos calientes a los fríos.
De manera que parece teóricamente lícito mantener la primera parte, y en realidad la fundamental, de la hipótesis de Carnot, y emplearla como segundo principio junto con el anteriormente establecido; la exactitud de este procedimiento, como en seguida veremos, ya ha sido también confirmada varias veces por los resultados.
Según esta hipótesis, podemos caracterizar como función de t y τ al trabajo máximo que puede ser producido por el transporte de una unidad de calor desde el cuerpo A con la temperatura t, hasta el cuerpo B con la temperatura τ. Esta función tiene que ser, naturalmente, con respecto a su valor, tanto más pequeña cuanto menor es la diferencia t — τ, y cuando ésta se hace infinitamente pequeña ( = dt), debe transformarse en el producto de dt por una función de t solamente. Para el último caso, que es el que por ahora nos interesa, se puede, pues, representar el trabajo en la forma (1/C) dt, donde C significa una función de t solamente.

Jaime Clerk Maxwell
Distribución de las velocidades moleculares
[85]

Muchas de las propiedades de la materia, especialmente cuando está en estado gaseoso, pueden deducirse de las hipótesis de que sus partículas están en movimiento rápido, aumentando la velocidad con la temperatura, de modo que la naturaleza precisa de este movimiento resulta un objeto de curiosidad racional. Daniel Bernoulli, Herapath, Joule, Krönig, Clausius, etc., han demostrado que las relaciones entre presión, temperatura y densidad de un gas perfecto pueden explicarse suponiendo que las partículas se mueven con velocidad uniforme, en líneas rectas, chocando contra las paredes del vaso que las contiene y produciendo así presión. No es necesario creer que cada partícula recorre una gran distancia en la misma línea recta. El mismo efecto se producirá también cuando dichas partículas lleguen a chocar unas contra otras, de modo que la línea recta descrita pueda resultar muy corta. Clausius ha determinado la longitud media del camino en función de la distancia media de las partículas y de la distancia entre los centros de dos partículas, cuando el choque llega a producirse. Actualmente no disponemos de ningún medio para determinar cualquiera de estas distancias, pero ciertos fenómenos, tales como la fricción interna de los gases, la conducción del calor a través de un gas y la difusión de un gas a través de otro, parecen indicar la posibilidad de determinar con exactitud el recorrido medio que una partícula describe entre dos choques sucesivos. Para fijar los fundamentos de tales investigaciones sobre principios mecánicos estrictos, demostraré las leyes del movimiento de un número infinito de esferas pequeñas, duras y perfectamente elásticas, que ejercen influencia mutua sólo durante el impacto.

* * * *

Proposición 4ª. Hallar el número medio de las partículas cuyas velocidades están entre límites dados, después de haberse efectuado abundantes choques entre un gran número de partículas iguales.
Supóngase que N sea el número total de las partículas, x, y, z las componentes de la velocidad de cada partícula en tres direcciones rectangulares, y el número de partículas para las cuales x está entre x y x + dx sea Nf (x) dx, donde f (x) es una función de x por determinarse.
El número de partículas para las cuales y está entre y e y +dy será Nf (y) dy, y el número de partículas para las cuales z está entre z y z + dz será Nf (z) dz, donde f representa siempre la misma función.
Ahora bien: la existencia de la velocidad x no afecta en modo alguno a las velocidades y o z, dado que éstas son todas perpendiculares entre sí e independientes, de manera que el número de partículas cuya velocidad está entre x y x + dx y también entre y e y + dy, así mismo, entre z y z + dz, es

Nf (x) f(y) f(z) dx dy d z.

Si suponemos que las N partículas parten del origen en el mismo instante, entonces éste será el número contenido en el elemento de volumen (dx dy dz), después de la unidad de tiempo, y el número que se refiere a la unidad de volumen será

Nf (x) f(y) f(z).


Pero las direcciones de las coordenadas son arbitrarias y, por lo tanto, este número debe depender sólo de la distancia al origen, es decir:

f (x) f(y) f(z) = Ø (x2 + y2 + z2)

Resolviendo esta ecuación funcional, hallamos:

eq42.png

Si hiciéramos A positiva, el número de partículas crecería con la velocidad, debiendo llegar su totalidad al infinito. Por consiguiente, hacemos A negativa e igual a -1/a2, de modo que el número entre x y x + dx será

eq43.png

Integrando desde x = -∞ hasta x = +∞, encontramos el número total de las partículas:

eq44.png

f (x) es, pues,

eq45.png

De ahí podemos sacar las siguientes conclusiones:
1. El número de las partículas, cuya velocidad calculada en cierta dirección está entre x y x + dx es

eq46.png


2. El número cuya velocidad está entre v y v + dv es

eq47.png

3. Para hallar el valor medio de v súmese las velocidades de todas las partículas; dividiendo luego por el número de partículas, el resultado sería

eq48.png

4. Para hallar el valor medio de v2, súmense todos los valores dividiendo luego por N:

eq49.png<

Éste es mayor que el cuadrado de la velocidad media, como debe ser. De esta proposición resulta que las velocidades están distribuidas entre las partículas, de acuerdo con la misma ley, así como los errores están repartidos entre las observaciones de la teoría del «método de los cuadrados mínimos». Las velocidades oscilan entre 0 e ∞, pero el número de aquellas que tengan grandes velocidades es comparativamente pequeño.

Luis Pablo Cailletet
Licuefacción del oxígeno
[86]

Si encerramos oxígeno o monóxido de carbono en un tubo tal como el descrito anteriormente, colocado en el aparato compresor con el que se ha operado ante la Academia; si llevamos este gas a la temperatura de — 29° por medio de ácido sulfuroso, y a una presión de cerca de 300 atmósferas, ambos gases permanecen en estado gaseoso. Pero si se les permite expandirse repentinamente, se obtendrá, de acuerdo con la fórmula de Poisson, una temperatura lo menos de 200° por debajo de la temperatura original; y entonces veremos aparecer inmediatamente una densa niebla, producida por la licuefacción y quizá solidificación del oxígeno y monóxido de carbono.
El mismo fenómeno se observa en la expansión del ácido carbónico y de los óxidos nítrico y nitroso si han sido fuertemente comprimidos.
La niebla se produce en el caso del oxígeno aun cuando el gas esté a temperatura ordinaria, siempre que le demos tiempo para perder el calor que adquiere de la compresión. Este hecho ha sido demostrado por experimentos realizados el sábado 16 de diciembre en el laboratorio de química de la Escuela Normal Superior ante varios profesores y eruditos, entre los cuales estaban algunos miembros de la Academia de Ciencias.
Había esperado encontrar en París, junto con los materiales necesarios para producir frío extremo (monóxido de nitrógeno o ácido carbónico líquido), una bomba con la que pudiera reemplazar el aparato compresor que había instalado en Chátillon-sur-Seine. Por desgracia, no pude obtener en París una bomba convenientemente instalada y adecuada para esta clase de experimentos, y me veo obligado a traer a Chátillon-sur-Seine los agentes de refrigeración que son necesarios para recolectar la sustancia condensada sobre las paredes del tubo.
Para determinar si el oxígeno y el óxido de carbono están en estado líquido o sólido en la niebla que se observa, bastaría un experimento óptico, lo que es más fácil planear que ejecutar, a causa de la forma y espesor del tubo que contiene la sustancia. Algunas reacciones químicas nos permiten estar seguros de que el oxígeno no es transformado en ozono por compresión. A mí mismo me reservo el estudio de todas estas cuestiones, con aparatos que ahora estoy construyendo.
En las mismas condiciones de temperatura y presión, la expansión del hidrógeno puro, a pesar de ser más rápida, no da trazas de niebla. Queda sólo para mi estudio, desde este punto de vista, el nitrógeno, que a causa de su pequeña solubilidad puede considerarse como refractario, probablemente, a todo cambio de estado.
Estoy muy satisfecho de haber podido realizar de esta manera las predicciones sobre el oxígeno, expresadas con amabilidad por el señor Berthelot, por lo cual le doy aquí las gracias.

Miguel Faraday
Corrientes inducidas
[87]

1. El poder que tiene la electricidad de tensión, de producir en su vecindad un estado eléctrico opuesto, se expresa con el término general de inducción. Dado que este término fue bien recibido en el lenguaje científico, merece generalizarse en igual sentido para expresar el poder, que las corrientes eléctricas seguramente poseen, de producir un estado particular en los cuerpos de su inmediata vecindad, que de otra manera quedarían indiferentes. Con este significado me propongo emplearla en el presente opúsculo.
2. Ciertos efectos de la inducción de las corrientes eléctricas ya han sido examinados y descritos, como, por ejemplo, los efectos de imanación, los experimentos de Ampère consistentes en aproximar un disco de cobre a una espiral plana; su repetición con electroimanes de los extraordinarios experimentos de Arago, y quizá algunos otros. Sin embargo, parecía improbable*que éstos pudieran ser todos los efectos que la inducción por corrientes es capaz de producir; especialmente si se tiene en cuenta que, excepto el hierro, la mayoría de ellos desaparece, mientras que infinidad de cuerpos que presentan evidentes fenómenos de inducción por la electricidad de tensión no han sido investigados aún respecto a la inducción por corrientes eléctricas.
3. Además, aunque adoptemos la hermosa teoría de Ampère, u otra, y a pesar de cualquier reserva mental que hagamos, resultaría muy extraño —estando cada corriente acompañada por la correspondiente intensidad de su acción magnética perpendicular a la corriente— que colocando dentro de la esfera de esta acción buenos conductores eléctricos no se produjeran en ellos corrientes inducidas, o no revelaran algún efecto sensible equivalente en fuerza a tal corriente.
4. Estas consideraciones con sus consecuencias, y la esperanza de obtener electricidad conforme al magnetismo ordinario, me han estimulado varias veces a investigar experimentalmente el efecto inductivo de las corrientes eléctricas. Últimamente he llegado a resultados positivos, y no sólo fueron colmadas mis esperanzas, sino que obtuve también una clave que me permitió dar la entera explicación del fenómeno magnético de Arago y descubrir un nuevo estado que debe de tener, probablemente, una gran influencia sobre algunos de los efectos más importantes de las corrientes eléctricas.
5. Me propongo describir estos resultados, no como han sido obtenidos, sino en forma de proporcionar una reseña de conjunto lo más concisa posible.
Inducción de corrientes eléctricas
6. Cerca de 26 pies de alambre de cobre de un vigésimo de pulgada de diámetro fueron enrollados alrededor de un cilindro de madera en forma de hélice, cuyas espiras estaban impedidas de formar contacto mediante la intercalación de hilos retorcidos. Esta hélice fue cubierta con tela de algodón, aplicando luego un segundo alambre de la misma manera. Fueron superpuestas de este modo doce hélices, cada una de las cuales contenía un alambre de 27 pies de largo, más o menos, enrollados todos ellos en la misma dirección. La primera, tercera, quinta, séptima, novena y undécima de estas hélices fueron conectadas extremo con extremo, de modo que formaban una hélice. Las otras fueron conectadas de una manera similar, obteniéndose así dos hélices generales, estrechamente intercaladas con la misma dirección, cada una de 155 pies de largo, sin tocarse en parte alguna.
7. Una de estas hélices fue conectada con un galvanómetro, y otra con una batería voltaica bien cargada de diez pares de placas cuadradas de 4 pulgadas de lado, siendo las de cobre dobles. Sin embargo, ni la más leve desviación pudo observarse en la aguja del galvanómetro.
8. Se construyó una hélice compuesta similar, que constaba de seis alambres de cobre y seis alambres de hierro dulce. La hélice de hierro contenía 214 pies de alambre, y la de cobre 208 pies. Pero, al pasar la corriente del recipiente a través de la hélice de cobre o la de hierro, no se podía observar efecto alguno en el galvanómetro.
9. En éste y otros muchos experimentos análogos, no había diferencia alguna, en el efecto de cualquier índole, entre el hierro y otros metales.
10. Un alambre de cobre de 203 pies fue enrollado alrededor de un gran bloque de madera; otro similar de 203 pies fue ínter calado en forma de hélice entre las espiras de la primera bobina, impidiendo el contacto metálico en todas partes, mediante hilo retorcido. Una de estas hélices fue conectada con un galvanómetro, y la otra, con una batería bien cargada de cien pares de placas, de 4 pulgadas de lado, con cobres dobles. Al hacer el contacto, se produjo en el galvanómetro un efecto repentino y muy débil, habiendo también un leve efecto similar, al romperse el contacto con la batería. Pero mientras la corriente voltaica continuaba atravesando una hélice, no han podido observarse fenómenos galvanométricos ni otros efectos de la inducción sobre la otra hélice, a pesar de que la energía activa de la batería fuera muy grande, cosa que fue comprobada por el calentamiento de la totalidad de su propia hélice y por la brillantez de la descarga hecha por medio de puntas de carbón.
11. La repetición de estos ensayos con una batería de ciento veinte pares de placas no produjo otros efectos; pero se estableció, en ambos casos, que la leve desviación de la aguja que ocurre en el momento de completar la conexión se efectuaba siempre en una dirección y que la desviación también débil ocurrida en el momento de cortar el contacto se realizaba en otra dirección, y que estos efectos se producían también al usar las primeras hélices (6, 8).
12. Los resultados que había obtenido en esta época con imanes me indujeron a creer que la corriente de la batería a través de un alambre producía en realidad otra corriente similar a través de otro alambre, pero que ésta sólo duraba un instante, y que se parecía más a la onda provocada por la descarga de una botella de Leiden común que a la corriente de una batería voltaica, y que, por lo tanto, debería ser capaz de imanar una aguja de acero, aunque ella afectara escasamente al galvanómetro.
13. Esta hipótesis fue corroborada, pues al sustituir el galvanómetro por una pequeña hélice hueca, formada alrededor de un tubo de vidrio, introduciendo una aguja de acero, estableciendo un contacto, como antes, entre la batería y el alambre inductor (7, 10) y retirando luego la aguja antes de interrumpir el contacto de la batería, se la encontró imanada.
14. Al establecer primero el contacto de la batería, introduciendo después una aguja no magnetizada en la pequeña hélice indicadora (13) y suprimiendo por fin el contacto de la batería, la aguja se halló magnetizada en un grado aparentemente igual que antes, pero con los polos invertidos.
15. Los mismos efectos se produjeron cuando se usaron las hélices compuestas, descritas al principio (6, 8).
16. Cuando la aguja no magnetizada fue colocada en la hélice indicadora, antes de establecer el contacto del alambre inductor con la batería, permaneciendo en esta posición hasta que el contacto fuera suprimido, se revelaba poco magnetismo o nada, habiéndose casi neutralizado el primer efecto por el segundo (13, 14). La fuerza de la corriente inducida al establecer contacto se mostraba siempre superior a la de la corriente inducida al cortarlo; por consiguiente, si el contacto se cerraba y abría muchas veces, en orden sucesivo, mientras la aguja permanecía en la hélice indicadora, aquélla resultaba tan magnetizada como si sólo hubiera obrado sobre la misma corriente inducida al establecer el contacto. Este efecto puede ser debido a la llamada acumulación en los polos de la pila no conectada, la que hace la corriente, cuando se establece primero el contacto, más poderosa de lo que resulte más tarde, en el momento de cortarlo.
17. Si el circuito entre la hélice o alambre bajo inducción y el galvanómetro o la espiral indicadora no se cerraba antes de establecer o interrumpir la conexión entre la batería y el alambre inductor, entonces no se percibía efecto alguno en el galvanómetro. De este modo, si se establecían primero las comunicaciones de la batería, conectando luego el alambre bajo inducción con la hélice indicadora, no se notaba fuerza magnética alguna. Pero al mantener todavía estas conexiones, cuando se interrumpían aquéllas con la batería, se formaba un imán en la hélice, pero de la segunda clase (14), es decir, con polos que indican una corriente en la misma dirección que la de la corriente de la batería, o de la corriente que siempre se induce al cortar la de la batería inducida por esa corriente en su cesación.
18. En los experimentos precedentes, los alambres se colocaron unos cerca de otros, y cuando se deseaba obtener el efecto inductivo, se establecía el contacto del alambre inductor con la batería; pero, como debía suponerse que el efecto particular sólo se produce en los momentos de cerrar y abrir el contacto, la inducción se realizó de otro modo. Un alambre de cobre de varios pies fue desplegado en forma de anchos zigzags, semejantes a la letra W, sobre la superficie de una tabla extensa; un segundo alambre se extendió, en forma precisamente similar, sobre otra tabla, de modo que, después de aproximarlos uno al otro, los dos alambres podían tocarse en todas partes, a menos que se interpusiera una hoja de papel grueso. Uno de estos alambres fue conectado con el galvanómetro, y el otro con una batería voltaica; el primero se hizo mover luego hacia el segundo, y a medida que se le aproximaba, la aguja se desviaba. Alejándolo luego, la aguja se desviaba en sentido opuesto. Aproximando y alejando los alambres con el mismo ritmo que las vibraciones de la aguja, éstas aumentaban; pero cuando los alambres cesaban de moverse, es decir, cuando dejaban de acercarse o alejarse, la aguja del galvanómetro pronto volvía a su posición normal.
19. Cuando los alambres se aproximaban, la corriente inducida se producía en dirección contraria a la corriente inductora, mientras que al alejarse los mismos la corriente inducida tenía la misma dirección que la corriente inductora. Pero permaneciendo los alambres en posición fija, no había corriente inducida.
20. Al introducir un pequeño dispositivo voltaico en el circuito entre el galvanómetro (10) y su hélice o alambre, para producir una desviación permanente de 30 a 40° de la aguja, y conectar luego la batería de cien pares de placas con el alambre inductor, aparecía una acción instantánea como antes (11); pero la aguja del galvanómetro volvía a ocupar inmediatamente su lugar y lo mantenía inalterado, a pesar del continuo contacto del alambre inductor con la batería. Tal fue el caso, cualesquiera que fuese la forma en que se hicieron los contactos (33).
21. De ahí parecería que las corrientes colaterales, tanto en la misma dirección como en la opuesta, no ejercen una sobre otra un poder permanente de inducción que afecte a su cantidad o tensión.
22. No pude obtener ningún efecto sobre la punta de la lengua, ni chispa o calentamiento de un alambre finó o de carbón, que indicara el paso de electricidad a través del alambre bajo inducción; tampoco pude obtener efecto químico alguno, a pesar de que los contactos con soluciones metálicas y de otras clases se abrieron y cerraron alternadamente con los de la batería, de modo que el segundo efecto de la inducción no se oponía o neutralizaba al primero (13, 16).
23. Esta deficiencia del efecto no se debe a que la corriente eléctrica inducida no puede atravesar los fluidos, sitio quizá a su breve duración y débil intensidad, pues al introducir dos grandes placas de cobre en el circuito del lado inducido (20), estando las placas sumergidas en salmuera, pero impedidas de entrar en contacto una con otra por un paño interpuesto, el efecto en el galvanómetro indicador o en la hélice se reveló como antes. La electricidad inducida ha podido pasar también a través de una cubeta - voltaica (20). Sin embargo, cuando la cantidad del fluido interpuesto se redujo a una gota, el galvanómetro no dio indicación alguna.
24. Las tentativas para obtener efectos similares mediante el uso de alambres portadores de electricidad ordinaria fueron dudosas en los resultados. Se recurrió a una hélice compuesta, parecida a la ya descrita, con ocho hélices elementales (6). Cuatro de las hélices tenían sus extremos similares atados con alambre, y los dos terminales generales así obtenidos fueron conectados con la pequeña hélice magnetizante, que contenía una aguja no imanada (13). Las otras cuatro hélices fueron reunidas en forma similar, pero sus extremos se conectaron con una botella de Leiden. Al pasar la descarga, la aguja se reveló como un imán, pero parecía probable que una parte de la electricidad de la botella hubiera pasado por la pequeña hélice, magnetizando así la aguja. No había, en realidad, razón alguna para esperar que la electricidad de una botella que posee, por cierto, una gran tensión no se propague a través de todos los cuerpos metálicos interpuestos entre los revestimientos.
25. Todavía no puede deducirse que la descarga de la electricidad ordinaria, a través de un alambre no produzca fenómenos análogos a los que nacen de la electricidad voltaica; pero como parece imposible separar los efectos producidos en el momento en que la descarga comienza a pasar, de los efectos iguales y contrarios, producidos al cesar de pasar la misma (16), dado que en el caso de la electricidad ordinaria estos períodos son simultáneos, puede haber escasamente una esperanza de percibirlos en esta clase de experimentos,
26. De ahí es evidente que las corrientes de la electricidad voltaica presentan fenómenos de inducción algo semejantes a los producidos por la electricidad de tensión, a pesar de que, como se verá más adelante, existen entre ellas muchas diferencias. El resultado es la producción de otras corrientes (pero que son sólo momentáneas) paralelas o tendentes al paralelismo con la corriente inductora. Con respecto a los polos de la aguja formada en la hélice indicadora (13, 14) y a las desviaciones de la aguja galvanométrica (11), se ha observado en todos los casos que la corriente inducida, producida por la primera acción de la corriente inductora, tenía dirección contraria a la de ésta última, pero que la corriente producida por la cesación de la corriente inductora tenía la misma dirección (19). A fin de evitar perífrasis, propongo llamar, a esta acción de la comente derivada de la batería voltaica, inducción voltaeléctrica.

Jaime Clerk Maxwell
Consideraciones sobre el campo electromagnético
[88]

Consideraremos ahora otro fenómeno observado en el campo electromagnético. Cuando se mueve un cuerpo a través de las líneas de fuerza magnética, experimenta lo que se llama una fuerza electromotriz; las dos extremidades del cuerpo tienden a cargarse de electricidades contrarias, y una corriente eléctrica tiende a fluir a través del cuerpo. Cuando la fuerza electromotriz es suficientemente poderosa y se la hace actuar sobre ciertos cuerpos compuestos, los descompone, y obliga a uno de sus componentes a moverse hacia un extremo del cuerpo y al otro en dirección opuesta.
Tenemos aquí la evidencia de una fuerza que produce una corriente eléctrica venciendo la resistencia; que electriza los extremos de un cuerpo con cargas opuestas, circunstancia que sólo es producida por la fuerza electromotriz y que, tan pronto como desaparece dicha fuerza, tiende, con una fuerza igual y opuesta, a producir a través del cuerpo una contracorriente para restablecer su estado eléctrico primitivo; y que, finalmente, si es bastante poderosa, descompone sustancias químicas y lleva sus componentes en direcciones opuestas, en contra de su tendencia natural a combinarse, y a combinarse con una fuerza que puede generar una fuerza electromotriz en dirección opuesta.
Ésta es entonces una fuerza que actúa sobre un cuerpo, causada por su movimiento a través del campo electromagnético, o por cambios que ocurren en ese campo mismo y el efecto de la fuerza es el de producir una corriente y calentar el cuerpo, o de descomponer al cuerpo, o, cuando no puede hacer otra cosa, de generar en él un estado de polarización eléctrica, estado de coacción en el cual los extremos opuestos se electrizan con cargas contrarias, y del cual el cuerpo tiende a liberarse tan pronto como desaparece la fuerza perturbadora.
De acuerdo con la teoría que me propongo explicar, esta fuerza electromotriz es la fuerza que entra en juego durante la comunicación de movimiento de una parte del medio a otra, y es por intermedio de esta fuerza como el movimiento de una parte causa movimiento en otra parte. Cuando la fuerza electromotriz actúa sobre un circuito conductor, produce una corriente que, si encuentra resistencia, ocasiona una transformación continua de energía eléctrica en calor, que no es susceptible de ser transformada de nuevo en energía eléctrica por ninguna inversión del proceso.
Pero cuando la fuerza electromotriz actúa sobre un dieléctrico, produce un estado de polarización de sus partes, semejante en distribución a la polaridad de las partes de una masa de hierro bajo la influencia de un imán, y, como la polarización magnética, se puede describir como un estado en que cada partícula tiene sus polos opuestos en condiciones opuestas.
En un dieléctrico bajo la acción de una fuerza electromotriz, podemos imaginar que la electricidad está desplazada en cada molécula de modo tal que un lado se ha hecho eléctricamente positivo y el otro negativo, pero que la electricidad permanece totalmente ligada a la molécula, y no pasa de una molécula a otra. El efecto de esta acción es el de producir un desplazamiento general de la electricidad en cierta dirección. Este desplazamiento no llega a ser una corriente, porque cuando ha alcanzado cierto valor permanece constante, pero es el comienzo de una corriente, y sus variaciones constituyen corrientes en la dirección positiva o negativa, según que el desplazamiento aumente o disminuya. En el interior del dieléctrico no hay indicio de electrización, porque la electrización de la superficie de una molécula está neutralizada por la electrización opuesta de la superficie de las moléculas que están en contacto con ella; pero en la superficie limitante del dieléctrico, donde la electrización no está neutralizada, encontramos fenómenos que indican electrización positiva o negativa.
La relación entre la fuerza electromotriz y el valor del desplazamiento eléctrico que produce depende de la naturaleza del dieléctrico, produciendo la misma fuerza electromotriz, por lo general, mayor desplazamiento eléctrico en dieléctricos sólidos, tales como vidrio o azufre, que en el aire.
Aquí observamos entonces otro efecto de la fuerza electromotriz, a saber, desplazamiento eléctrico, que de acuerdo con nuestra teoría, es una especie de deformación elástica, bajo la acción de la fuerza, semejante a la que se produce en estructuras y máquinas, debido a la falta de rigidez perfecta en las conexiones.
La investigación práctica de la capacidad inductiva de los dieléctricos se hace dificultosa a causa de dos fenómenos perturbadores. El primero es la conductibilidad del dieléctrico, que si bien en muchos casos es excesivamente pequeña, no es del todo despreciable. El segundo es el fenómeno llamado absorción eléctrica, en virtud del cual, cuando el dieléctrico se expone a una fuerza electromotriz, el desplazamiento eléctrico crece gradualmente, y cuando la fuerza electromotriz desaparece, el dieléctrico no vuelve instantáneamente a su estado primitivo, sino que sólo descarga una parte de sus electrización, y si es abandonado a sí mismo, adquiere gradualmente electrización en su superficie, a medida que el interior se va despolarizando paulatinamente.
Casi todos los dieléctricos sólidos muestran este fenómeno, que da origen a la carga residual en las botellas de Leiden, y a varios fenómenos en los cables eléctricos, descritos por el señor F. Jenkin.
Tenemos aquí otras dos clases de deformaciones junto a la deformación del dieléctrico perfecto, que hemos comparado a un cuerpo perfectamente elástico. La deformación debida a la conductibilidad puede ser comparada a la de un fluido viscoso (es decir, un fluido que tiene gran ficción interna), o a un sólido blando sobre el cual la fuerza más pequeña produce una alteración permanente de la forma, que aumenta con el tiempo durante el cual actúa la fuerza. La deformación debida a la absorción eléctrica puede compararse a la de un cuerpo elástico alveolar que contiene un fluido espeso en sus cavidades. Un cuerpo tal, cuando se somete a presión, es comprimido gradualmente debido a la deformación paulatina del fluido espeso; y cuando la presión cesa, no recobra inmediatamente su forma porque la elasticidad de la sustancia del cuerpo tiene que vencer paulatinamente la tenacidad del fluido antes de poder recuperar el equilibrio completo.
Varios cuerpos sólidos en los cuales no se puede encontrar una estructura como la que hemos supuesto, parecen poseer una propiedad mecánica de esta clase; y parece probable que las mismas sustancias, si son dieléctricas, posean la propiedad eléctrica análoga, y si son magnéticas, tengan propiedades correspondientes respecto a la adquisición, retención y pérdida de polaridad magnética.
Por lo tanto, parece que ciertos fenómenos de electricidad y magnetismo llevan a la misma conclusión que los de la óptica, a saber, que hay un medio etéreo que ocupa todos los cuerpos, y sólo está modificado levemente por su presencia; que las partes de este medio son susceptibles de ser puestas en movimiento por corrientes eléctricas e imanes; que ésta se comunica de una parte del medio a otra por fuerzas que provienen de las conexiones de esas partes; que bajo la acción de estas fuerzas hay cierta deformación que depende de la elasticidad de estas conexiones; y que por ello la energía puede existir en el medio en dos formas diferentes, siendo una de las formas la energía actual del movimiento de sus partes y la otra la energía potencial almacenada en las conexiones, en virtud de su elasticidad.
De esta manera nos vemos conducidos a la concepción de un complicado mecanismo, susceptible de una gran variedad de movimientos, pero al mismo tiempo organizado de tal manera que el movimiento de una parte depende, de acuerdo con relaciones definidas, del movimiento de otras partes, siendo comunicados estos movimientos por fuerzas que provienen del desplazamiento relativo de las partes conectadas, en virtud de su elasticidad.
Un mecanismo tal debe estar sujeto a las leyes generales de la dinámica y deberíamos estar en condiciones de extraer todas las consecuencias de su movimiento, supuesto que conocemos la forma de la relación entre los movimientos de las partes.
Sabemos que si se establece una corriente eléctrica en un circuito conductor, la zona vecina del campo está caracterizada por ciertas propiedades magnéticas, y que si dos circuitos se hallan en el campo, las propiedades magnéticas del campo, debido a ambas corrientes, están combinadas. Así, cada parte del campo está en conexión con ambas corrientes, y las dos corrientes están conectadas entre sí en virtud de su conexión con la magnetización del campo. El primer resultado de esta conexión que me propongo examinar es la inducción de una corriente por otra, y por el movimiento de conductores en el campo.
El segundo resultado, que se deduce de éste, es la acción mecánica entre conductores en los cuales circulan corrientes. El fenómeno de la inducción de corrientes ha sido deducido de su acción mecánica por Helmholtz y Thomson. Yo he seguido el orden inverso, y he deducido la acción mecánica a partir de las leyes de inducción. Además he descrito métodos experimentales para determinar las cantidades L, M, N, de las cuales dependen estos fenómenos.
Luego aplico los fenómenos de inducción y atracción de corrientes a la exploración del campo electromagnético, y al trazado de sistemas de líneas de fuerza magnética que expresan sus propiedades magnéticas. Explorando el mismo campo con un imán, he mostrado la distribución de sus superficies magnéticas equipotenciales, que cortan perpendicularmente a las líneas de fuerza.
A fin de sintetizar estos resultados en el conciso lenguaje de las matemáticas, los expongo en las ecuaciones generales del campo electromagnético. Estas ecuaciones expresan:
A. La relación entre desplazamiento eléctrico, conducción verdadera y corriente total compuesta de ambas.
B. La relación entre las líneas de fuerza magnética y los coeficientes de inducción de un circuito, como ya se ha deducido de las leyes de inducción.
C. La relación entre la intensidad de una corriente y sus efectos magnéticos, de acuerdo con el sistema electromagnético de medidas.
D. El valor de la fuerza electromotriz originada en un cuerpo por el movimiento de éste en el campo, la alteración del campo mismo, y la variación del potencial eléctrico de un punto a otro del campo.
E. La relación entre el desplazamiento eléctrico y la fuerza electromotriz que lo produce.
F. La relación entre una corriente eléctrica y la fuerza electromotriz que la produce.
G. La relación entre la cantidad de electricidad libre en un punto y los desplazamientos eléctricos en sus proximidades.
H. La relación entre el aumento o disminución de la electricidad libre y las corrientes eléctricas en sus proximidades.
Hay en total veinte de estas ecuaciones, en las que figuran veinte cantidades variables.

Enrique Hertz
Ondas eléctricas
[89]

Las ondas cortas fueron excitadas de la misma manera que las largas. El conductor primario puede ser descrito simplemente de la siguiente manera: Imagínese un cuerpo cilíndrico de bronce, de 3 centímetros de diámetro y 26 de longitud, interceptado en la mitad de su largo por la abertura generadora de chispas, cuyos polos están formados por dos esferas de 2 centímetros de radio. La longitud del conductor es aproximadamente igual a la mitad de la longitud de onda de la correspondiente oscilación en alambres rectos; estamos, pues, en condiciones de determinar en seguida, en forma aproximada, el período de oscilación. Es esencial que la superficie de los polos sea frecuentemente pulida, y que también durante los experimentos sea protegida de la iluminación causada por las descargas laterales simultáneas, pues de otro modo no se excitan las oscilaciones. Siempre puede saberse si el generador de chispas se encuentra en estado satisfactorio, fijándose en la apariencia y en el sonido de las chispas. La descarga es conducida a las dos mitades del conductor por medio de dos alamares cubiertos de gutapercha, que se conectan cerca del generador de chispas a ambos lados del mismo. En lugar del gran carrete de Ruhmkorff, hallé más conveniente usar una pequeña bobina de inducción de Keiser y Schmidt; las chispas más largas que daba, entré puntas, eran de 4,5 centímetros. Estaba alimentada por la corriente de tres acumuladores, y producía, entre las dos esferas del conductor primario, chispas de 1 a 2 centímetros. Para los experimentos, la abertura de éste se redujo a 3 milímetros.
Aquí también las pequeñas chispas inducidas en un conductor secundario eran los medios para investigar las fuerzas eléctricas en el espacio. Como antes, usé parcialmente un circuito que podía girar sobre sí mismo, y cuyo período de oscilación era aproximadamente igual al del conductor primario. Era de alambre de cobre de 1 milímetro de espesor, y en la presente circunstancia sólo tenía 7,5 centímetros de diámetro. En un extremo del alambre se encontraba una esfera pulida de bronce, de pocos milímetros de diámetro; el otro terminaba en punta, y por medio de un tornillo fino, y aislado del alambre, podía ser llevado a una distancia muy pequeña de la esfera de bronce. Como fácilmente se comprenderá, aquí se trataba de chispas que sólo tenían pocas centésimas de milímetro de longitud, y después de una pequeña práctica uno juzga más por la brillantez, que por la longitud de las chispas.
El conductor circular da sólo un efecto diferencial, y no es adaptable para su uso en la línea focal de un espejo cóncavo. Por ello, gran parte del trabajo fue ejecutado con otro conductor, dispuesto de la siguiente manera: dos piezas rectas de alambre, cada una de 5 milímetros de diámetro y 50 centímetros de longitud, fueron ajustadas en línea recta, de manera que sus extremos cercanos se hallaban a 5 centímetros de distancia. De estos extremos salían dos alambres de 15 centímetros de longitud y 1 milímetro de diámetro, paralelos entre sí y perpendiculares a los primeros, conectados en su otro extremo a un excitador de chispas, como en el conductor circular. En este conductor se dejó de lado la acción de resonancia, acción que en realidad apenas entra en juego en este caso. Hubiera sido más simple colocar el excitador en el medio del alambre recto, pero entonces el observador no habría podido manejar y contemplar el generador en el foco del espejo sin obstruir la abertura. Por esta razón, el dispositivo descrito más arriba fue elegido con preferencia al otro que, en sí, habría sido más ventajoso.

La producción del rayo
Si el oscilador primario se coloca ahora en un espacio libre bastante grande, con la ayuda del conductor circular se pueden revelar, en sus inmediaciones, en escala más reducida, todos los fenómenos que ya he observado y descrito en la vecindad de una oscilación más grande. La mayor distancia a la cual se podían percibir chispas en el conductor secundario era de 1,5 metros, y cuando el generador de chispas primario estaba en perfectas condiciones, de 2 metros a lo sumo. Si se coloca una placa reflectora plana a una distancia conveniente, a un lado del oscilador primario, paralelamente a él, la acción sobre el lado opuesto es reforzada. Más precisamente: si la distancia es muy pequeña, o algo mayor de 30 centímetros, la placa debilita el efecto, pero lo aumenta fuertemente a distancias de 8 a 15 centímetros, débilmente a unos 45 centímetros, y a mayores distancias no ejerce influencia. Hemos llamado la atención sobre este fenómeno en una memoria anterior, y concluimos que la oscilación primaria tiene una semilongitud de onda de unos 30 centímetros. Era de esperar que se encontrara un refuerzo aún mayor reemplazando la superficie plana por un espejo cóncavo en forma de cilindro parabólico, en cuya línea focal se hallara el eje de la oscilación primaria. La distancia focal del espejo debía ser la mínima posible, para concentrar eficazmente la acción. Pero a fin de que la onda directa no anulase inmediatamente la acción de la onda reflejada, la distancia focal no debía ser mucho menor que un cuarto de longitud de onda. Por ello elegí una distancia focal de 12,5 centímetros, y construí el espejo curvando una lámina de cinc de 2 metros de largo, 2 metros de ancho y 0,5 milímetros de espesor, sobre un marco de madera que tenía la forma deseada. La altura del espejo era entonces de 2 metros, el ancho de su abertura de 1,2 metros y la profundidad de 70 centímetros. El oscilador primario se fijó en el centro de la línea focal. Los cables que conducían la descarga atravesaban el espejo.
La bobina de inducción y las pilas se colocaron entonces detrás del espejo, para que no obstruyeran el paso. Si investigamos ahora la proximidad del oscilador con nuestros conductores, vemos que no hay acción detrás y a ambos lados del espejo; pero en la dirección del eje óptico del espejo las chispas se pueden percibir hasta una distancia de 5 a 6 metros. Si una superficie conductora plana se colocaba de tal manera que interceptara bajo ángulo recto a las ondas progresivas, las chispas podían percibirse en su vecindad a mayores distancias aún: unos 9 a 10 metros. Las ondas reflejadas por la superficie conductora fuerzan las ondas progresivas en ciertos puntos. En otros puntos, también aquí ambos conjuntos de ondas se debilitan mutuamente. Enfrente de la pared plana se pueden reconocer, con el conductor rectilíneo, máximos y mínimos muy netos, y con el conductor circular, los característicos fenómenos de interferencia de las ondas estacionarias que he descrito en una memoria anterior. Pude distinguir cuatro puntos nodales, que estaban situados, uno en la pared, y los otros a 33, a 65 y a 98 centímetros de la misma. Obtenemos, pues, 33 centímetros como valor más aproximado de la semilongitud de onda de las ondas empleadas, y 1,1 cienmillonésimas de segundo para su período de oscilación, admitiendo que se propagan con la velocidad de la luz. En alambres, la oscilación dio una longitud de onda de 29 centímetros. Entonces parece que estas ondas cortas tienen algo menor velocidad en alambres que en el aire; pero la razón entre ambas velocidades se acerca mucho al valor teórico —la unidad— y no difiere de ella tanto como parecía probable de acuerdo con nuestros experimentos sobre ondas más largas. Este notable fenómeno aún necesita explicación. Teniendo en cuenta que los fenómenos sólo se presentan en la proximidad del eje óptico del espejo, hablaremos del resultado producido diciendo que es un rayo eléctrico que proviene del espejo cóncavo.
Construí luego un segundo espejo, exactamente igual al primero, y le adapté el conductor secundario rectilíneo en tal forma que los dos alambres de 50 centímetros de largo se hallaban en la línea focal, y los dos alambres conectados al generador de chispas pasaban directamente a través de la pared del espejo, sin tocarlo. El generador de chispas estaba entonces situado directamente detrás del espejo, y el observador podía ajustarlo y examinarlo sin obstruir el curso de las ondas. Interceptando el rayo con este aparato, tenía la esperanza de poderlo observar a mayores distancias aún; y la experiencia demostró que no estaba equivocado. En las habitaciones de que disponía, pude ahora percibir las chispas de un extremo a otro. La mayor distancia a la cual pude seguir el rayo haciendo construir una puerta, fue de 16 metros; pero de acuerdo con el resultado de los experimentos de reflexión (que más adelante describiré), no cabe duda de que se podrán obtener de todos modos chispas a más de 20 metros de distancia en espacios abiertos. Para los restantes experimentos no son necesarias distancias tan grandes, y es conveniente que las chispas en el conductor secundario no sean demasiado débiles. Para la mayoría de los experimentos la distancia más adecuada es de 6 a 10 metros. Describiremos ahora los fenómenos simples que se pueden efectuar con el rayo sin dificultad. Si no se expresa lo contrario, debe entenderse que las líneas focales de ambos espejos son verticales.

Propagación rectilínea
Si se coloca una pantalla de cinc de 2 metros de alto y de 1 metro de ancho en la línea recta que une ambos espejos, y en ángulo recto con la dirección de la propagación de los rayos, las chispas secundarias desaparecen totalmente. Una sombra también completa es arrojada por una pantalla de papel de estaño, o de oro. Si un ayudante camina a través del recorrido del rayo, el generador de chispas secundario se apaga tan pronto como el rayo es interceptado, y brilla otra vez cuando aquél se aleja del camino. Los aisladores no detienen el rayo, el cual pasa a través de un tabique de madera o de una puerta y uno ve aparecer, no sin sorpresa, las chispas en una habitación cerrada. Si dos pantallas conductoras de 2 metros de alto por 1 de ancho se colocan simétricamente a izquierda y derecha del rayo y perpendicularmente al mismo, no interferirán con las chispas secundarias, mientras el ancho de la abertura no sea menor que la de los espejos, o sea alrededor de 1,2 metros. Si se disminuye la abertura, las chispas se debilitan, y desaparecen cuando aquélla se reduce a 0,5 metros. También desaparecen si la abertura es de 1,2 metros, pero se desplaza hacia un lado de la recta que une los espejos. Si el eje óptico del espejo que contiene el oscilador se hace rotar a la izquierda o a la derecha en 10° de su debida posición, las chispas se debilitan, y desaparecen cuando llega a los 15°.
No hay ningún límite geométrico definido para el rayo o las sombras; es fácil producir fenómenos que corresponden a la difracción. Sin embargo, no he tenido éxito al tratar de observar máximos y mínimos en el borde de las sombras.

Guillermo Crookes
Algunas propiedades de los rayos catódicos
[90]

En los tubos de vacío ordinarios, iluminados por corrientes de inducción, los fenómenos luminosos siguen la forma del tubo en todas sus curvas y ángulos; un tubo espiral se ilumina con la misma facilidad que si fuera recto. No pasa lo mismo, sin embargo, con los fenómenos de fosforescencia verde observables en los de alto vacío. El rayo molecular [91] que da origen a la luz verde se niega en absoluto a doblar un ángulo, y se irradia desde el polo negativo en líneas rectas, proyectando sombras intensas y de forma bien definida, de cuanto objeto se le ponga al paso. En un tubo en U con los polos en los extremos, una de las ramas tendrá un verde brillante, la otra será oscura, y la luz terminará bruscamente en la curva del vidrio, sobre la cual se proyecta una sombra. No he podido notar ningún rastro de polarización en la verde luz fosforescente sobre la superficie del vidrio, excepto, por supuesto, cuando emerge en ángulo a través del costado del tubo de vidrio.
La proyección desde el polo negativo de una sombra que se tornaba visible mediante una imagen de forma definida, parecía merecer un examen más minucioso. Fue construido un tubo como el que se representa en la figura 30. En el centro, dividiendo el tubo en dos partes casi iguales, hay una fina pantalla de mica, aa, que encaja sueltamente en un canal que circunda al tubo. De un lado, éste lleva una placa plana de vidrio de uranio, de 0,5 milímetros de espesor; c es una pieza de hoja de aluminio en forma de estrella, con un terminal de platino, y d es una estrella similar, hecha de mica. En cada extremo del tubo hay dos terminales, e y h, que son discos planos de aluminio, y f y g, son puntas del mismo metal. ap30.jpg Con este aparato, los experimentos se llevaban a cabo mientras se efectuaba el vacío. Cuando éste es moderado (1 a 2 milímetros) mostrando las estratificaciones y los fenómenos ordinarios de los tubos de vacío, la luminosidad se extiende desde un polo hasta el otro. Por ello, si e y g son los dos polos, la luz se extenderá en toda la longitud del tubo; si, en cambio, e o f es uno de los polos, y c el otro, la luminosidad ocupa sólo la parte superior del tubo; si e y f son los polos, la luz se mantiene sólo en el tope. Toda la apariencia indica que ambos polos entren en acción para producir este fenómeno.
Cuando, en cambio, el vacío es suficientemente elevado, como para que el espacio oscuro alrededor del polo negativo haya llenado toda la extensión del tubo, hay poca diferencia en los fenómenos de fosforescencia verde y la proyección de la sombra de c sobre b, cualquiera que fuere el polo positivo, siempre que e sea el negativo.
Los aspectos son casi del todo los mismos, y las sombras proyectadas desde el polo negativo e son igualmente intensas y definidas, ya sea/o h el polo positivo.
En realidad, el polo positivo parece tener muy poco o nada que ver con estos fenómenos.
Las sombras mejores y más definidas son las arrojadas por los discos planos e y h. Las proyectadas por los polos en punta, f y g, son débiles y de contornos no muy marcados. Un anillo de aluminio apenas si da sombra; un polo esférico, debido a que los rayos emergentes de él divergen más, da sombras débiles y anchas, y un polo cuadrado actúa igual que un disco. Usando el polo plano superior e como negativo, la sombra de la estrella c es proyectada nítidamente en la placa de uranio 6, donde se la ve aumentada en irnos dos diámetros, pero en forma bien definida; y su forma no es afectada por el hecho de que el polo positivo sea /, g o h, o aun la misma estrella.
Toda la parte superior" del tubo que está en el camino de la proyección directa del polo negativo brilla con una luz intensa de color verde amarillento. La placa de uranio está más brillante aún, pero de color verde. Donde la sombra de la estrella cae sobre ella no se percibe ninguna fosforescencia. El disco de mica a, donde no está recubierto por la placa de uranio, no da fosforescencia, y por esto no es visible sobre él sombra alguna. Cuando el polo inferior h se hace negativo, como para proyectar la sombra de la estrella de mica d, no se ve en el disco de mica sombra alguna, ni tampoco en la placa de uranio que está sobre aquél. La delgada hoja de mica impide que el vidrio de uranio se haga fluorescente bajo la influencia del polo negativo. Otros experimentos, en cambio, han probado que la estrella de mica da una sombra tan intensa y definida como la de aluminio, siempre que se use la pantalla conveniente para recibirla.
Si la estrella de aluminio se convierte en polo positivo, y cualquiera de los otros es el negativo, aquélla proyecta una imagen de sí misma alargada y algo distorsionada sobre la parte superior del tubo. Esta imagen no está definida con nitidez.
La nitidez de las sombras arrojadas por el polo negativo es poco afectada por la intensidad de la corriente; cuando la chispa es muy fuerte, la sombra se ensancha un poco.
Ya he formulado anteriormente la teoría de que el espesor del espacio oscuro que rodea el polo negativo es la medida de la longitud del camino medio recorrido por las moléculas gaseosas entre dos choques sucesivos. Las moléculas electrificadas son proyectadas desde el polo negativo con enorme velocidad, que varía, no obstante, con el grado de vacío y la intensidad de la corriente inducida.
En el espacio oscuro hay pocas en comparación con las que hay en el límite luminoso. Cuando el vacío es tan elevado que el camino medio de las moléculas crece a lo largo del tubo, su velocidad es frenada bruscamente por las paredes de vidrio, y la consecuencia de esta súbita disminución de velocidad es la producción de luz. Ésta procede realmente del vidrio, y está causada por fluorescencia o fosforescencia en el interior o sobre la superficie, y no por una generación luminosa de las propias moléculas, que se acumulan y se golpean entre ellas en la superficie del vidrio. Si éste fuera el caso —si las moléculas fueran focos luminosos—, siempre brillarían igual, cualquiera que fuere la superficie que las frenara, y su luz mostraría el espectro característico del gas cuyo residuo forman. Pero no se origina ninguna luz en el caso de una pantalla de mica o de cuarzo, por más que se acerque al polo negativo y, hablando en general, diremos que cuanto más fluorescente es el material de la pantalla, mejor será la luminosidad.
La teoría más apoyada por los experimentos y la que, a pesar de ser nueva, no es en modo alguno improbable en el presente estado de nuestros conocimientos sobre las moléculas, es la que sostiene que la fosforescencia verde amarillenta del vidrio es causada por el impacto directo de las moléculas en la superficie del mismo. Estas sombras no son ópticas, sino moleculares; sólo que se manifiestan por un efecto ordinario de iluminación. La nitidez de la sombra, cuando es proyectada desde un polo ancho, prueba que es molecular.

Guillermo Conrado Röntgen
Los rayos X
[92]

Primera comunicación
1. Si la descarga de una bobina de inducción bastante grande se hace pasar a través de un tubo de vacío de Hittorf, o por un tubo de Lenard, o de Crookes, o por otros aparatos similares, que se hayan evacuado suficientemente, estando el tubo cubierto con una cartulina negra que le facilite un hermetismo tolerable, y si todo el aparato se coloca en una pieza completamente oscura, se observa a cada descarga una brillante iluminación sobre una pantalla de papel cubierta con platino-cianuro de bario, colocada en la vecindad de la bobina de inducción; la fluorescencia así producida no depende del lado de la pantalla (el cubierto o el otro) que esté dirigido hacia el tubo de descarga. Esta fluorescencia es visible aun cuando la pantalla de papel se halle a una distancia de 2 metros del aparato.
Es fácil probar que la causa de la fluorescencia procede del aparato de descarga y no de otro punto del circuito conductor.
2. La característica más notable de este fenómeno es el hecho de que un agente activo pasa aquí por una envoltura de cartulina negra, que es opaca a los rayos visibles y ultravioletas del Sol o del arco eléctrico; un agente que posee, además, la propiedad de producir fluorescencia activa. Debemos, pues, investigar primero si otros cuerpos tienen también esta propiedad.
Pronto descubrimos que todos los cuerpos son transparentes a este agente, aunque en grados muy diferentes. Voy a dar unos poco» ejemplos: El papel es muy transparente; detrás de un libro encuadernado de unas mil páginas, he notado que la pantalla fluorescente se iluminaba con brillo, ofreciendo la tinta de la imprenta apenas un obstáculo digno de mención. De la misma manera, la fluorescencia apareció detrás de una doble baraja de naipes; un solo naipe sostenido entre el aparato y la pantalla es casi imperceptible al ojo. Una hoja de papel de estaño también es apenas perceptible; sólo cuando se han colocado varias capas una sobre otra, puede distinguirse nítidamente su sombra en la pantalla. Gruesos bloques de madera son también transparentes, mientras que tablas de pino de 2 ó 3 centímetros de espesor absorben sólo levemente. Una placa de aluminio, de casi 15 milímetros de espesor, aunque debilita la acción seriamente, no hace desaparecer la fluorescencia por completo. Placas de ebonita, de varios centímetros de grosor, permiten todavía que los rayos las atraviesen. Placas de vidrio, de igual espesor, se comportan de modo muy diferente, según que contengan plomo (cristal) o no; el primero es mucho menos transparente que el segundo. Si se sostiene la mano entre el tubo de descarga y la pantalla, la sombra más oscura de los huesos se ve dentro de la sombra de la mano misma, levemente oscura. El agua, el disulfuro de carbono, y varios otros líquidos, examinados en recipientes de mica, parecen ser también transparentes. No he podido descubrir, sin embargo, que el hidrógeno sea, en grado considerable, más transparente que el aire. Detrás de placas de cobre, plata, plomo, oro y platino, se puede reconocer todavía la fluorescencia, pero sólo si el espesor de las placas no es demasiado grande. El platino de un espesor de 0,2 milímetros, es aún transparente; placas de plata y cobre pueden ser todavía más gruesas. El plomo de 1,5 milímetros de espesor, es prácticamente opaco; y a causa de esta propiedad, este metal es frecuentemente muy útil. Una varilla de madera, con una sección transversal cuadrada (20 X 20 milímetros), uno de cuyos lados está pintado de blanco con pintura de plomo, se comporta de diferente modo, según como se lo sostenga entre el aparato y la pantalla.
Carece casi de acción cuando los rayos X que la atraviesan son paralelos al lado pintado; mientras que la varilla arroja una sombra oscura cuando dichos rayos pasan perpendicularmente al lado pintado.
Es de importancia especial, en muchos sentidos, el hecho de que las placas fotográficas secas sean sensibles a los rayos X. Estamos, por esto, en condiciones de determinar más precisamente muchos fenómenos, y evitar así más fácilmente equivocaciones de cualquier índole; por esta razón, en los casos donde fue posible, he controlado, por medio de la fotografía, cada observación importante hecha a simple vista mediante la pantalla fluorescente.
En estos experimentos, la propiedad de los rayos de pasar casi sin dificultades a través de capas de madera, papel y láminas de estaño es de suma importancia. Las impresiones fotográficas pueden obtenerse en una pieza no oscura con las placas fotográficas metidas en el portaplacas o envueltas en papel. Por otra parte, de esta propiedad resultaren consecuencia, que placas no reveladas no pueden dejarse durante mucho tiempo cerca del tubo de descarga, si sólo están protegidas por la envoltura usual de cartón y papel.
Sin embargo, es cuestionable que la acción química sobre las sales de plata de las placas fotográficas sea el efecto directo de los rayos X. Es posible que esta acción se deba a la luz fluorescente que, como se había observado más arriba, se produce en la placa de vidrio misma o quizá en la capa de gelatina. Pueden usarse, con la misma ventaja, tanto las «películas» como las placas de vidrio.
No he estado aún en condiciones de comprobar experimentalmente que los rayos X son capaces de producir una acción calorífica; empero, bien podemos admitir que este efecto exista, puesto que se ha probado la capacidad de los rayos X de transformarse, por medio de los fenómenos de fluorescencia observada. Es cierto, por consiguiente, que todos los rayos X que caen sobre una sustancia, no la abandonan como tales.
La retina del ojo no es sensible a estos rayos. Aun cuando el ojo se aproxime al tubo de descarga, no observa nada, aunque como lo ha probado el experimento, los medios contenidos en el ojo deben ser suficientemente transparentes para transmitir los rayos.
Después de haber reconocido la transparencia de varias sustancias, de espesor relativamente considerable, me apresuré a observar cómo se comportaban los rayos X al pasar a través de un prisma, y a investigar si se desviaban o no por el mismo.
Los experimentos con agua y disulfuro de carbono, contenidos en un prisma de mica de un ángulo refringente de 30° aproximadamente, no demostraron desviación alguna, tanto en la pantalla fluorescente como en la placa fotográfica. Para fines de comparación, se ha observado la desviación de los rayos de la luz ordinaria, bajo las mismas condiciones, y se ha notado que, en este caso, las imágenes desviadas caían sobre la placa a unos 10 ó 20 milímetros de distancia de la imagen directa. Por medio de prismas hechos de ebonita y de aluminio, también de ángulo refringente de 30° aproximadamente, obtuve imágenes en la placa fotográfica, en las que quizá pueda notarse una pequeña desviación. Sin embargo, el hecho es muy incierto; la desviación, si existe, es tan pequeña, que en todo caso, el índice de refracción de los rayos X en las sustancias nombradas no puede ser mayor que 1,05, a lo sumo. Con una pantalla fluorescente tampoco estuve en condiciones de observar desviación alguna.
De todo esto se infiere que los rayos X no pueden concentrarse mediante lentes; pues ni una gran lente de ebonita ni una lente de vidrio tienen influencia alguna sobre los mismos. La imagen de sombra de una varilla redonda es más oscura en el medio que en el borde, mientras que la imagen de un tubo lleno de una sustancia más transparente que su propio material se presenta, por el contrario, menos oscura en el medio que en el borde.
En su más reciente investigación, Lenard ha determinado el poder de absorción de diferentes sustancias para los rayos catódicos, y, entre otras, lo ha medido, para el aire a la presión atmosférica, obteniendo los valores 4,10, 3,40 y 3,10, referidos a 1 centímetro, según la rarefacción del gas contenido en el aparato de descarga. Juzgando por la tensión de descarga calculada conforme a la longitud de las chispas, he tenido que trabajar, en la mayor parte de mis experimentos, con rarefacciones del mismo orden de magnitud, y sólo raras veces con mayores o menores. He obtenido éxito al comparar, mediante el fotómetro de L. Weber —no poseo otro mejor—, las intensidades, tomadas en el aire atmosférico, de la fluorescencia de mi pantalla a dos distancias del aparato de descarga, de aproximadamente 100 y 200 milímetros; y he descubierto, conforme a tres experimentos que concuerdan bien entre sí, que las intensidades son inversamente proporcionales a los cuadrados de las distancias de la pantalla contadas a partir del aparato de descarga. De acuerdo con ello, el aire absorbe una fracción de los rayos X mucho más pequeña que de los rayos catódicos. Este resultado concuerda completamente con la observación mencionada más arriba, de que es aún posible descubrir la luz fluorescente a una distancia de 2 metros del aparato de descarga.
Otras sustancias se comportan, en general, como el aire; son más transparentes a los rayos X que a los rayos catódicos.
Otra diferencia, más importante aún, entre el comportamiento de los rayos catódicos y de los rayos X, reside en el hecho de que no pude obtener, a pesar de mis tentativas, una desviación de los rayos X por un imán, ni siquiera en campos muy intensos.
La posibilidad de desviación mediante un imán ha servido, hasta el presente, como propiedad característica de los rayos catódicos; aunque se sabe, por las investigaciones de Hertz y Lenard, que hay diferentes clases de rayos catódicos, «que se distinguen uno del otro por su producción de fosforescencia, por su capacidad de absorción y por su grado de desviación mediante un imán». Sin embargo, se ha notado, en todos los casos investigados por ellos, una considerable deflexión, de modo que no creo que esta característica deba ser desechada, excepto por razones severas.
De acuerdo con los experimentos especialmente proyectados para dilucidar la cuestión, es evidente que el punto de la pared del tubo de descarga que emite la más fuerte fluorescencia ha de considerarse como el principal centro de irradiación de los rayos X en todas direcciones. Los rayos X provienen del punto donde, conforme a los datos obtenidos por diferentes investigadores, los rayos catódicos chocan contra la pared de vidrio. Si los rayos catódicos, dentro del aparato de descarga, se desvían por medio de un imán, se observa que los rayos X proceden de otro punto, a saber, de aquel que es el nuevo punto terminal de los rayos catódicos.
Por esta razón, los rayos X, que es imposible desviar, no pueden ser rayos catódicos simplemente transmitidos o reflejados, sin cambio, a través de la pared de vidrio. La mayor densidad del gas exterior al tubo de descarga no puede, ciertamente, explicar la gran diferencia en la deflexión, conforme a Lenard.
Llego, pues, a la conclusión de que los rayos X no son idénticos a los rayos catódicos, pero son producidos por los rayos catódicos en la pared de vidrio del aparato de descarga.
Esta producción se efectúa no sólo en el vidrio, sino también en el aluminio, como he tenido ocasión de observar en un aparato cerrado por una placa de dicho metal de 2 milímetros de espesor. Otras sustancias serán examinadas más tarde.
La justificación para llamar por el nombre de rayos al agente que proviene de la pared del aparato de descarga, la derivo en parte de la formación enteramente regular de las sombras que se ven cuando se colocan cuerpos más o menos transparentes entre el aparato y la pantalla fluorescente (o la placa fotográfica).
He observado, y en parte fotografiado, muchas imágenes de sombras de esta índole, cuya producción tiene un encanto particular. Poseo, por ejemplo, fotografías de la sombra del perfil de una puerta, que separa las piezas en que, por un lado, se colocó el aparato de descarga y, por el otro, la placa fotográfica; la sombra de los huesos de la mano; la sombra de un alambre cubierto arrollado sobre un carrete de madera; la de un grupo de pesas contenidas en una caja; la de un galvanómetro en que la aguja magnética está completamente rodeada por un metal; la de una pieza metálica, cuya falta de homogeneidad se observa fácilmente mediante los rayos X, etc.
Otra prueba concluyente de la propagación rectilínea de los rayos X es la fotografía que, por medio de un agujero de alfiler, logré hacer del aparato de descarga, mientras estaba envuelto en papel negro; la imagen es débil, pero inequívocamente correcta.
He tratado, de varias maneras, de descubrir fenómenos de interferencia de los rayos X, pero, por desgracia, sin éxito, quizá sólo por su débil intensidad.
Se han iniciado experimentos, que aún no están terminados, para establecer si las fuerzas electrostáticas afectan de algún modo a los rayos X.
Al considerar la cuestión de lo que son los rayos X, que, como hemos visto, no pueden ser rayos catódicos, quizá podamos ser inducidos, primero, a creer que son luz ultravioleta, debido a su activa fluorescencia y a sus acciones químicas. Pero al hacerlo así, nos enfrentamos con graves objeciones. Si los rayos X son luz ultravioleta, esta luz debería tener las siguientes propiedades:
  1. Al pasar del aire al agua, disulfuro de carbono, aluminio, sal gema, vidrio, cinc, etc., no sufre refracción que sea digna de mención.
  2. Por ninguno de los cuerpos nombrados puede ser reflejada regularmente en grado apreciable.
  3. No puede polarizarse por ninguno de los métodos ordinarios.
  4. Su absorción no está influida por ninguna otra propiedad de las sustancias tanto como por su densidad.
Quiere decir que debemos admitir que estos rayos ultravioletas se comportan de modo diferente a los rayos ultrarrojos, visibles y ultravioletas, conocidos hasta ahora.
No he estado en condiciones de llegar a esta conclusión, y por esto he buscado otra explicación.
Parece que existe alguna clase de parentesco entre los nuevos rayos y los rayos de luz; por lo menos, esto está indicado por la formación de las sombras, la fluorescencia y la acción química producida por ambos. Ahora bien: sabemos hace ya tiempo que puede haber en el éter vibraciones longitudinales aparte de las vibraciones lumínicas transversales, y, de acuerdo con los puntos de vista de diferentes físicos, estas vibraciones deben existir. Su existencia, a decir verdad, no ha sido probada hasta el presente y, en consecuencia, sus propiedades no han sido investigadas experimentalmente.
¿No deberán, pues, los nuevos rayos su origen a vibraciones longitudinales en el éter?
He de confesar que en el curso de la investigación, me he persuadido cada vez más de esta idea, de tal manera que me permito adelantar esta hipótesis, aunque me doy perfecta cuenta de que la explicación dada necesita otra corroboración.
Notas:
[1] «Halagado y entretenido —cuenta Plutarco— por una sirena doméstica, Arquímedes se olvidaba del propio alimento y cuidado de su persona, hasta el extremo de tener que ser llevado por la fuerza a ungirse y bañarse.»
[2] Esta célebre frase se encontrada en la obra perdida Sobre la balanza y fue salvada del olvido por Plutarco.
[3] El incendio de los barcos de Marcelo por los espejos (ustorios) de Arquímedes, fue una invención de los historiadores. Una obra perdida de Arquímedes, de la cual conocemos, gracias a citas de otros autores, algunos fragmentos, contenía investigaciones sobra problemas ópticos, y entre ellos sobra espejos ustorios; tal vez esta obra sirvió como base de la leyenda.
[4] Plutarco (Vidas paralelas, capítulo XIV) afirma que Arquímedes consideraba la mecánica práctica como «un oficio indigno»
[5] Hiparco de Nicea fue, probablemente, el primero que construyó una dioptra destinada a observaciones astronómicas. El instrumento de Herón es más completo y de uso más general.
[6] Bacon no menciona la invención de las gafas probablemente hecha en el penúltimo decenio del siglo XIII. Ni Bacon ni el florentino Salvino degli Armati, al cual también se le atribuyó por mucho tiempo la invención, son los inventores. Según la crónica del pisano Domingo do Peccioli, tal mérito correspondería a su compatriota Alejandro della Spina. En realidad, ignoramos quién fue el constructor de los primeros anteojos, cuyo origen tal vez deba ser buscado en la ciudad de Murano, célebre por sus pulidores de cristal.
[7] Un progreso ulterior en el conocimiento del fenómeno es debido a Teodorico de Sajonia que, dos decenios después de la muerte de Bacon, explicó el arco iris (De iride, 1311) por la doble refracción y reflexión, y el arco complementario por la doble refracción y la doble reflexión en el interior de las gotas.
[8] Véase Schück: Der Kompass, 1911. Agreguemos que Schück admite que los noruegos, independientemente de otros pueblos, habrían conocido la brújula desde el siglo IX.
[9] La declinación de la brújala no fue observada por Pedro Peregrino de Maricouri. La fecha de su descubrimiento es incierta; sin embargo, era conocida antes de los viajes de Colón, que la observó. La inclinación fue registrada por primera vez por el alemán -Jorge Hartmann en 1544.
[10] Nicolás Oresma (m. 1382), Guillermo de Occam (m. 1345)), Alberto de Sajonia (m. 1390), precedidos por el misterioso personaje Jordán Nemorario (hacia 1230) y seguidos por Nicolás de Tusa (1401-1464), son autores de esas tentativas. Los resultados, poco coherentes, tienen el mérito de haber anticipado algunos elemento de la dinámica del gran toscano.
[11] Leonardo llama al momento estático, como antes lo hiciera Jordán Nemorario, «gravitas secundum situs».
[12] ¿Hasta qué punto la mecánica de Leonardo es inspirada por los pensadores antiperipatéticos de la Edad Media? La cuestión fue tratada con profunda erudición por el físico e historiador Pedro Duhem (Origines de la statique, París, 1906, y Études sur Leonardo da Vinci, París, 1913), que disponía de los manuscritos inéditos de escolásticos conservados en la Biblioteca Nacional de París. Duhem, admirador de los maîtres parisiens de la escolástica del siglo XIII, atribuye a éstos ideas esenciales de Leonardo y encuentra prácticamente las bases de la mecánica davinciana en el manuscrito de un escolástico anónimo, al que llama precursor de Leonardo. Sin embargo, no cabe duda de que el juicio de Duhem no está libre de la influencia de su predilección por los pensadores medievales de Francia.
[13] Las investigaciones de Pedro Duhem (Origines de la statique, página 37 y sigs.) no dejan lugar a duda de que el matemático Jerónimo Cardano (1501-1576) conoció los manuscritos dejados por Leonardo; su teoría de la palanca reproduce ideas de su gran compatriota. La influencia de Leonardo es visible también en los trabajos de Nicolás Tartaglia (1506-1657); éste, sobrestimado algún tiempo, era en mecánica un investigador mediocre. Sus modestos méritos personales se reducen a haber reconocido —aunque deduciéndolo de premisas erróneas— que la trayectoria de un cuerpo lanzado es una curva (y no como enseñaban los peripatéticos, un compuesto por dos rectas y una curva). El proyectil, estableció Tartaglia. adquiere su mayor alcance horizontal, si es con un ángulo de elevación de 45°. Un crítico mucho más agudo que Tartaglia, de la mecánica aristotélica, es Juan Bautista Benedetti (1630-1590). La causa de la aceleración de los cuerpos en la calda libre no puede ser el aire; éste, afirma Benedetti, dificulta, en vez de acelerar, la caída. Al estudiar el movimiento circular de una piedra ligada a la punta de un hilo, Benedetti reconoce la tangente como dirección hacia la cual tienden los cuerpos rotativos.
[14] El método que permitió a Stevin determinar la presión hidrostática sobre la» paredes del recipiente ofrece particular interés, puesto que implica el cálculo integral mucho tiempo antes de su invención. Discípulo de Arquímedes, Stevin divide las paredes del recipiente en bandas horizontales, g1, g2, etc., formando así una serie de áreas rectangulares. Considera la presión sobre área g1. Ésta, razona Stevin, es más grande que la presión que produciría un prisma líquido de la altura H1 y de la base g1; por otra parte, es más pequeña que la que sería producida por un prisma con la altura h2 y la base g2. Sumando las presiones, Stevin obtiene dos sumas, de las cuales sabe que una es superior y la otra inferior al valor buscarlo. Elige, pues, las bandas rectangulares cada vez más estrechas. La diferencia de las dos sumas se reduce progresivamente y el límite común al cual se aproximan es la presión verdadera.
[15] La imponderabilidad del magnetismo fue registrada antes de Gilbert por el constructor de brújulas Roberto Norman.
[16] En griego «Tierra minúscula»
[17] La causa de la orientación norte-sur de la aguja imanada era explicada antes de Gilbert por hipótesis fantásticas. Peregrino creía que la aguja es atraída por los polos celestes, y Cardano que es atraída por las estrellas de la cola de la Osa Mayor; Bossard pensaba que se dirige hacia los polos de! Zodiaco.
[18]A. Einstein v L. Infeld: Physik ah Abenteuer als Erkenntnia, 1938.
[19] Hoppe: Histoire de la Physique, París, 1928.
[20] Elogio de Edmundo Halley en el prefacio de los Principia.
[21] Inscripción que lleva la estatua de Newton erigida frente al Trinity College.
[22] En la fórmula de Laplace, e está multiplicada por la razón entre los calores específicos a presión y volumen constantes.
[23]Whewell: Philosophy of the inductive Sciences, Londres, 1847.
[24] En 1672, en las Philosophical Transactions.
[25] En el libro tercero de la Óptica , cuestión 29.
[26] Mariotte fue hostil a Newton porque no logró repetir sus experimentos.
[27] Ahora sabemos que el centro dinámico del sistema, el Sol, está sometido a una inevitable decadencia y disipa en forma de calor y luz su masa en los abismos del espacio, entrañando esta pérdida la lenta desagre­gación del sistema. No podemos, por consiguiente, atribuir nosotros a la demostración de Laplace el mismo valor que le concedieron sus contem­poráneos.
[28] H. Crewe: Bise of modem Physics, Baltimore, 1935.
[29] Philosophical Tramactions, vol. 38, 1734.
[30]Philosophical Transactions, vol. 17, 1798.
[31] Véase Le Blano: Les idées nouvelles sur la théorie des piles, enRevue Générale des Sciences,1899.
[32] Carta de Hansteen a Faraday, 30 de diciembre de 1857 (citada por Crewe: Bise of modern Physics)
[33] Mayer no emplea la palabra «energía», la llama «fuerza». No obstante, el concepto actual de la energía aparece con deslumbrante claridad desde su primer escrito. Aun cinco años más tarde, en 1847, Helmholtz sigue hablando de la conservación de la fuerza. Fue el físico inglés Guillermo Juan Macquorn Rankine quien introdujo en la física, en la sexta década del siglo, la palabra «energía». Anterior es la expresión «trabajo mecánico», creada por los franceses Gaspar Gustavo Coriolis y Juan Víctor Poncelet, hacia 1825. Este último propuso como unidad de trabajo mecánico al kilográmetro.
[34] Helmholtz: Vortráge und Reden, vol. II.
[35] ¿Fue un dios quien trazó estos signos?
[36]Wiedemanns Annalen, 34, 1888.
[37] Discorsi e dimostrazioni matematiche, 1637, III jornada.
[38] Jornada IV de los Discorsi
[39] Carta de Torricelli a Miguel Angel Ricci, datada el 11 de junio de 1644 (Opei a omnia, 1919, vol. III).
[40] Experimenta nova, ut vocantur, magdeburgica, 1672; reproducida en alemán en «Ostwalds Klassiker», vol. 59
[41] Experimenta nova, ut vocantur, magdeburgica, 1 6 72
[42] Pascal: Carta a su cuñado Périer, en Clermont (1648).
[43] Carta de Périer fechada el 22 de septiembre de 1648.
[44] Mínimo, religioso de la orden de San Francisco de Paúl
[45]Discours sur la nature de l'air, 1676 (publicado en Overa omnia, Leiden, 1717).
[46] De magnete magneticisque corporibus, 1600; reproducido en inglés en W. F. Magic: Source Book in Physics, 1935
[47]Horólogium oscillatorium, primera parte, 1673; edición alemana en «Ostwalds Klassiker», vol, 192, Leipzig, 1913.
[48]Horologium oscillatorium, cuarta parte.
[49]De motu corporum ex percussione, 1703; edición alemana en «Ostwalds Klassiker», vol. 138
[50]Traité de la lumiére, París, 1690
[51]Experimenta crystalli islandici disdiaclasticit quibus mira et insólita refractio detegitur, 1669
[52] Memoria presentada a la Academia Francesa en 1676; publicada en las Mémoires de VAcadémie des Sciences, 1730
[53]Philosophiae naturalis principia mathematica, 1687, libro III, «Sistema del mundo», capítulo I. Los textos que siguen reproducen los teoremas 3 a 10
[54] Los textos a que Newton se refiere dicen así: Fenómeno 6: El radio vector que une Luna y Tierra barre áreas proporcionales a los tiempos. El parágrafo 14 dice: Todo cuerpo que se mueve en una curva cualquiera cuyos radios están dirigidos hacia un punto que se halla fijo o en movimiento rectilíneo y uniforme y que describe alrededor de ese punto espacios proporcionales al tiempo, es impulsado por una fuerza centrípeta dirigida hacia dicho punto. Parágrafo 16: Todo cuerpo cuyo radio de unión con el centro de otro cuerpo, que se mueve de manera arbitraria, describe alrededor de ese punto áreas proporcionales al tiempo, se halla sometido a ima fuerza que está compuesta de la fuerza centrípeta dirigida hacia el otro cuerpo, y de toda la fuerza aceleratriz que impulsa a ese otro cuerpo.
[55] § 110. Teorema. Si en un sistema de cuerpos A, B, C, D, etc.,
uno de ellos, A, atrae a los demás con fuerzas aceleratrices que son inversamente proporcionales a los cuadrados de sus distancias al cuerpo que atrae; y si además sucede lo mismo con el cuerpo B respecto a los otros A, C, D, etc., entonces las fuerzas absolutas de A y de B están entre sí como los cuerpos A y B mismos.
En efecto: las atracciones aceleratrices de todos los cuerpos B, C, D, etcétera, hacia A son iguales entre sí a iguales distancias, de acuerdo con la hipótesis; lo mismo vale para las atracciones de todos los cuerpos sobre B. Pero la fuerza absoluta de atracción del cuerpo A es a la fuerza absoluta de atracción del cuerpo B como la atracción aceleratriz de todos los cuerpos sobre A es a la atracción aceleratriz de todos los cuerpos sobre B; en ambos casos se sobrentienden para las mismas distancias. La misma relación existe entre la atracción aceleratriz del cuerpo B sobre A, y la de A sobre B. Pero la atracción aceleratriz del cuerpo B sobre A es a la de A sobre B, como la masa de i es a la masa de B, porque las fuerzas motrices que (según las aclaraciones 2, 7 y 8) se originan de las fuerzas aceleratrices referidas a los cuerpos atraídos (según la ley 3ª) son iguales entre sí. Por lo tanto, la fuerza absoluta de atracción del cuerpo A es a la del cuerpo B como la masa de i es a la masa B; conforme queríamos demostrar.
[56] Introducción de los Principia, traducción al castellano por G. de Zúñiga en Selección de las obras de Newton (Colección Austral).
[57] El plano de la rueda se supone levantado perpendicularmente sobre el plano del horizonte
[58] Optica, 1704, libro I.
[59] El cerebro
[60] Optics, libro III, cuestiones 28, 29 y 30
[61]Hydrodynamica, Estrasburgo, 1738; capítulo X. Reimpreso en inglés en H. Cbew: Bise of modern Physics. 1935.
[62]Systéme général des intervalles des sons, publicado en Mémoires de L'Académie des Sciences, 1701.
[63]Lectures on the elementa of Ghemiatry, Londres, 1803.
[64]Philosophical Transactions, vol. 38, 1734.
[65] Carta de Franklin a Collinson, fechada el 1 de septiembre de 1747, reproducida en Coupin: Lectures scientifiques, París, 1911.
[66]Mémoire de L'Académie des Sciences, 1788.
[67]De viribus electricitatis in motu musculari commentarius, 1791; reimpreso en traducción alemana en «Ostwalds Klassiker», vol 52.i
[68] Carta a sir J. Banks, presidente de la Sociedad Real de Londres, datada el 20 de marzo de 1800, publicada en Philosophical Transactions, 1800.
[69]Philosophical Transactions, 1807; reimpreso en francés, en Coupin: Lectures scientifiques, 1911
[70]Experimenta circa efficaeiam conflictus electrici in acum magneticam, 1820; reproducido en traducción alemana en «Ostwalds Klassiker», volumen 63.
[71]Anuales de Chimie et de Physique, serie II, vol. 15, 1820.
[72]Course of lectures on natural philosophy, 1807.
[73]Deuxiéme mémoire sur la diffraction de la lumiére (supplemento), presentada a la Academia Francesa en 1816.
[74]Sur une expérience relative á La vitease de propagation de la lumiére, en Comptes Rendus, vol. 29, 1849.
[75]Monatsberichte der Akademie der Wissenschaften, Berlín, 1859; reproducido en «Ostwalds Klassiker», vol. 100.
[76]Monatsberichte der Akademie der Wissenschaften, Berlín, 1859; reproducido en «Ostwalds Klassiker», vol. 100.
[77]Recherches sur la dilatation des gaz et vapeurs, en Armales de Ghirrvie, 1802; reproducción en alemán en «Ostwalds Klassiker», vol 44.
[78] Mi balón podía contener, más o menos, 350 gramos de agua.
[79] Por extremadamente pequeñas que sean las diferencias de estos resultados, creo que habría podido disminuirlas aún más si hubiese medido la posición del barómetro en el momento de la ebullición. Sin embargo, durante la ebullición, nunca he olvidado leer la temperatura del termómetro en el agua hirviendo, aunque nunca he podido comprobar diferencias, Y es que habría sido necesaria una variación de 1 pulgada en la columna barométrica, para producir una variación del grado en el punto de ebullición del agua. De todos modos, el promedio de 137,5 partes debe de estar muy cerca del verdadero.
[80]Recherches sur quelques points imporiants de la Théorie de la Chaleur, publicado en Anuales de Chemie et de Physique, vol. 10, 1819.
[81]Réflexions sur la puissance motrice du feu, 1824; reimpreso en Coupin: Lectores scientifiques, 1911.
[82]Bemerkungen über die Kráfie der unbelebten Natur, publicado en Annalen der Pharmacie und Chemie, 1842; reimpreso en W. Ostwald: Die Energie, Leipzig, 1909, traducción castellana, Madrid, 1911.
[83]Philosophtcal Transactions, 1850.
[84]Über die bewegende Kraft der Wárme, 1850; reimpresa en «Ost- wálds Klassiker», vol. 99.
[85]Illustrations of the dynamical theory of gases, publicado en Philosophical Magazine, 1860; reimpreso en W. F. Magie: Source Booh in Physics, 1935.
[86]De la condensation de l'oxigéne et de l'oxyde de carbone, en Gomptes Rendus, vol. 85, 1877.
[87]Experimental researches in electricity, vol. I, primera serie; publicado por vez primera en Philosophical Transactions, 1832; reproducido en alemán, en «Ostwalds Klassiker», vol. 81.
[88]Experimental researches in electricity, vol. I, primera serie; publicado por vez primera en Philosophical Transactions, 1832; reproducido en alemán, en «Ostwalds Klassiker», vol. 81.
[89]Über Strahlen elektrischer Kraft, publicado en Sitzungsberichte der Berliner Akademie der Wissenschaften, 1888; reimpreso en Annalen der Physik, vol. 36, 1889.
[90] On the illumination of Unes of electrical pressure and the trajectory of molecules, 1879; reimpreso en W. F. Magie: Source Book in Physics, 1935.
[91] Crookes llama rayo molecular a nuestros rayos catódicos.
[92] Über eine neue Art von Strahlen, publicado ©n 1895, en Sitzungs- berichte der Würzburger Physikalisch-Medizinischen Oesellschaft; reimpreso en Wiedemann, Annálen der Physik, 1898.