Física de la televisión - D. Fink y D. Lutyens


Introducción

La televisión llegó a ser, en poco tiempo, una necesidad doméstica y un poderoso instrumento de propaganda. Buenos o malos, sus programas fascinan a millones de hombres, mujeres y niños, FÍSICA DE LA TELEVISIÓN explica, en forma amena y sencilla, los principios de la física aplicados en la televisión y muestra cómo los recientes adelantos en el desarrollo de la televisión en colores arrojan nueva luz sobre los procesos del ojo humano.
Lo que ocurre detrás de la pantalla del televisor es tan interesante como lo que sucede en la superficie de la misma. Sólo en pocos casos los programas televisados encierran tanto ingenio, tanta aventura, tanta creación perseverante y tanto esfuerzo como el que permitió a los hombres de ciencia hacer de la TV uno de los grandes triunfos tecnológicos de este siglo.
D. G. Fink, autor de artículos y libros sobre radar y televisión, estudió en el Instituto Tecnológico de Massachusetts y en la Universidad de Columbia. Fue director de la revista Electronics y presidente del Institute of Radio Engineer. Actualmente es director de investigaciones en la Philco Corporation.
D. M. Lutyens, de nacionalidad británica, estudió ciencia e historia en la Universidad de Cambridge. Después de prestar servicios en la segunda guerra, se desempeñó como profesor de física. Recientemente residió dos años en EE.UU. y participó en la Comisión para el Estudio de la Física. 

Capítulo 1
La comunicación

Contenido:
Ondas cerebrales
Imperfección en la comunicación
Imágenes en código
Imágenes en movimiento

La televisión es uno de los mayores triunfos de la ciencia aplicada. Pero lamentablemente el destino de los grandes inventos es que, a medida que se convierten en parte integrante de nuestra vida diaria, dejan de provocar en nosotros la sensación de maravilla, que es lo que realmente corresponde, y se los admite como algo natural. La energía eléctrica, el aeroplano, las fibras sintéticas, los antibióticos, todos han llegado a formar parte de nuestro mundo diario. En realidad, la televisión se ha convertido en parte integrante de nuestra existencia antes que cualquier otro progreso científico importante. Su crecimiento ha sido casi explosivo. Los que se ocupan de estadística social se complacen en señalar que los Estados Unidos tienen más receptores de televisión que bañeras. La televisión afecta no sólo a las cosas más comunes, como los hábitos en las diversiones y la rutina doméstica, sino también las técnicas educativas, los problemas científicos (por ejemplo, cómo tomar una fotografía de la cara opuesta de la Luna) y aun nuestro sentido de la belleza.
Y se ha pagado el precio inevitable. Esa familiaridad engendra, si no desprecio, por lo menos indiferencia. Sin embargo, la física de la televisión, tema de este libro, tiene un interés fascinante. Aquello que está detrás de la pantalla atrae más que mucho de lo que aparece en ella. Presenta una trama más ingeniosa que la mayor parte de los misterios detectivescos, es más asombroso que la ficción científica y más importante que muchas discusiones políticas.
En primer lugar, para comprender cómo aparece en nuestro hogar esa imagen hipnótica tenemos que enfrentarnos con el enigma del movimiento ondulatorio. Las ondas luminosas se desplazan entre el actor y la cámara y nuevamente entre la pantalla del receptor y nuestros ojos; las ondas de radio recorren el espacio entre la torre de transmisión y la antena de nuestro receptor; existen aun otras clases de ondas, llamadas señales eléctricas, que recorren cientos de alambres y cables eléctricos entre el estudio de televisión y el equipo de las distintas radioestaciones en cadena.
Segundo, no es posible comprender la electricidad sin penetrar en la estructura del átomo y sin conocer la biografía de los electrones. Cómo separar los electrones de sus átomos y cómo controlar luego su movimiento son dos de los problemas fundamentales de toda la física. En tercer lugar, al llegar al último capítulo, donde consideraremos la TV en colores, comprobaremos que resulta mucho más difícil de lo que podría suponerse ver y analizar los colores. Tampoco debemos dejar a un lado ese órgano humano ingenioso hasta el milagro, el ojo, hacia el cual, en última instancia, está dirigido todo el proceso. La posibilidad misma de la televisión descansa en peculiaridades incidentales, como la persistencia de la visión humana. En el nivel de la física aplicada, tendremos que familiarizarnos con la válvula electrónica, la herramienta número uno de la electrónica moderna. Conoceremos el efecto fotoeléctrico, mediante el cual la luz se convierte en electricidad, y la misteriosa propiedad de la fluorescencia, por la cual la electricidad puede volver a transformarse en luz.
Si estos problemas no despiertan la curiosidad y la imaginación del lector, no vale la pena que prosiga la lectura. Le será más útil, entonces, sintonizar un canal local y aceptar sin críticas el milagro de la visión más allá de los límites de la vista. Pero si esos problemas le interesan, comenzaremos considerando con él el problema de la comunicación en general y veremos cómo encaja la televisión en ese armazón ya más complejo.

Ondas cerebrales
El propósito de la comunicación es llevar los pensamientos y sentimientos de una persona a otra. Es una verdad trillada decir que los pensamientos y los sentimientos personales son una de nuestras posesiones más íntimas; en realidad, es esta intimidad lo que hace que la comunicación sea algo tan difícil e inexacto. Un filósofo parafrasearía esto diciendo que sentimientos y pensamientos pertenecen al mundo privado de la conciencia individual. Este mundo interior puede ser considerado como un manojo complejo de datos, impresiones primarias de los sentidos, que pronto aprendemos a organizar en esquemas. Al hacerlo así, traspasamos estas impresiones y esquemas a un mundo exterior a nosotros, un mundo que contiene “cosas”, como libros, receptores de televisión, gente, etc. Consideramos que cada una de estas cosas es la “causa” de ciertas impresiones sensoriales. Este proceso se hace pronto tan instintivo, que enseguida atribuimos al mundo físico externo una realidad tan directa como la que posee el mundo privado de nuestra conciencia. El hecho de que los bebés, por ejemplo, tengan que aprender a poner en correlación ruidos con objetos visuales determinados demuestra que este proceso de identificación no es una mera ficción del filósofo. Un adulto que, ciego de nacimiento, llega a ver gracias a la cirugía, también debe esperar cierto tiempo hasta poder elegir entre lo que, al principio, le parece sólo un confuso movimiento de manchas coloreadas.
Los sucesos físicos vinculados más íntimamente con nuestros pensamientos conscientes son ciertos cambios electroquímicos que se producen en la corteza cerebral. Para abreviar, los llamaremos “ondas cerebrales”. Es posible que sean las ondas cerebrales las que originan los pensamientos conscientes, así como las ondas luminosas que inciden sobre el ojo hacen que los impulsos eléctricos se muevan a lo largo del nervio óptico. Por otra parte, puede ser que la forma en que un neurocirujano explicaría las ondas cerebrales y la forma en que el lector describiría sus pensamientos sean simplemente dos maneras diferentes de considerar los mismos sucesos. Por fortuna, nosotros no tenemos que tomar una decisión en este problema que ha preocupado durante más de dos mil años a los filósofos profesionales. Para comprender la comunicación sólo nos importa saber que las ondas cerebrales son los sucesos físicos más próximos a los pensamientos que tratamos de comunicar.
Por lo tanto, es evidente que lo esencial en la comunicación humana sería que las ondas cerebrales de un ser se imprimieran de algún modo directamente sobre la corteza cerebral de otro. Entonces, siempre que el cerebro del otro estuviera condicionado de manera que actuara en la misma forma que el del primero, el acto de la comunicación sería casi tan perfecto como podría esperarse que lo fuera. Todavía no es posible compartir las ondas cerebrales con otro individuo —por suerte, quizá— pero el estudio del cerebro progresa con mucha rapidez y puede suceder que algún día un individuo, al rozar la región visual de la corteza cerebral de otro, pueda hacer que ese otro “vea” el cielo estrellado en una noche clara.

Imperfección en la comunicación
A falta de una comunicación directa entre diferentes cerebros, veamos la relativa ineficacia de los sistemas de comunicación puestos en práctica por el hombre. Comencemos suponiendo que el lector desea conversar con un vecino que habita la casa de enfrente. Es un día frío, de modo que ambas casas tienen las ventanas cerradas. Los dos se pueden ver, pero no oír. Si el vecino quiere transmitirle en esas condiciones sus pensamientos al lector, debe hacer alguna “señal” visual que reciban los ojos de éste. Luego, entre el cerebro del lector y el del vecino hay dos intermediarios. Uno de ellos (las manos de éste, por ejemplo) es lo que podríamos llamar el transmisor; el otro (los ojos del lector) es el receptor. En dichas circunstancias, la cantidad de información que puede transmitir el vecino es muy limitada. Si se agarra la cabeza con las manos, puede hacer entender que tiene dolor de cabeza pero, a menos que el vecino sea un mimo consumado, el lector no podrá saber si el dolor es el resultado de un ataque ocasionado por la fiesta de la noche anterior.
El hecho es que las manos son un transmisor poco eficaz. No sólo no sirven para transmitir los pensamientos con la rapidez suficiente, sino que los deforman. Esos gestos son tan sólo una aproximación inexacta y burda de lo que se desea transmitir. Además, si las ventanas que se interponen entre el lector y el vecino están mojadas por la lluvia, interferirán en la visión y disfrazarán o deformarán aún más la información visual que los ojos de aquél reciban. Con relación a la ineficacia de las manos como transmisores, los ojos son receptores extremadamente eficientes. Pueden recibir la información con gran rapidez y retener una cantidad sorprendente de detalles.
Generalmente, es posible aplicar a cualquier sistema de comunicación esos criterios de velocidad, exactitud y deformación. Supongamos ahora que el vecino habla al lector a través de una pared que divide los dos jardines, entonces él podrá oír, pero no ver. Nuevamente, tenemos aquí dos intermediarios: la voz del vecino como transmisor y los oídos del lector como receptor. Por supuesto, las palabras son transmisores mucho más eficaces que los gestos, los más eficaces desarrollados hasta ahora por todas las especies animales. Las palabras son, en realidad, la herramienta fundamental en la dominación del planeta por el hombre.
El vecino puede ahora satisfacer la curiosidad del lector acerca de la causa de su dolor de cabeza y, además, le puede contar muchas otras cosas. Pero aún así, sabemos que hasta las palabras son muy pobres como medio de comunicación, cuando se las juzga con relación a los cerebros entre sí. Se han escritos libros enteros acerca de la adulteración del pensamiento por medio del lenguaje. Los poetas y los amantes saben que muchas de las ideas más nobles del hombre bordean lo inexpresable. Las palabras son también lentas, por lo menos con relación a la velocidad a la cual es posible comunicar información mediante máquinas electrónicas. ¡Recordemos tan sólo qué pequeño parece el intervalo de tiempo transcurrido durante una llamada telefónica de larga distancia!
Cuando comenzamos a considerar la comunicación a grandes distancias el criterio más importante es otro. Lo denominamos “potencia”. Si el vecino está al otro lado de un lago, probablemente su voz no será lo bastante potente para llegar hasta el lector. Si es de noche y esa persona hace señales con una linterna, la luz puede no ser lo bastante brillante. Llegamos, entonces, a la conclusión de que todas las formas de transmisión, ya sea por el sonido, por la luz, o por cualquier otra forma de radiación, implican un gasto de energía. Cuanto más rápidamente consume energía el transmisor —es decir, cuanto más potente es— más pronto atraviesa la distancia que lo separa del receptor.
Además de estos cuatro conceptos, existe otro fundamental para la comunicación —en realidad, para la adquisición de toda clase de información—que también encontraremos en este libro, sobre todo en los últimos capítulos. Nos referimos a la “modulación” considerada generalmente como una “variación”, y admitida como algo natural en la vida corriente. Si el paladar, la lengua, los dientes y los labios no pudieran modular la columna de aire expelida por nuestros pulmones, no habría lenguaje, sino un monótono “uhuuu” que ni aun nuestra madre podría interpretar. Sin la modulación de las ondas sonoras del violín, el piano, la trompa o, una vez más, la voz humana, no habría música. Sin modulación --destellos— del haz luminoso de nuestra linterna no habría señal; y sin modulación de las ondas de radio, de las que hablaremos luego en detalle, la televisión no transmitiría información alguna, sólo habría un intercambio de energía sin ningún significado. La modulación puede ser un proceso tan simple como el acto de conectar o desconectar una corriente eléctrica o, como veremos más adelante, puede llegar a ser una modificación sumamente complicada del movimiento de dichas ondas. Pero, cualquiera que sea su forma, es esencial en la comunicación.
Si tuviéramos que elegir entre los diversos medios de comunicación disponibles, lo primero que deberíamos decidir sería, quizá, en qué forma va a cubrir el mensaje la mayor parte del recorrido. El sonido viaja con lentitud y sólo recorre distancias relativamente cortas, aunque tiene la ventaja de salvar los obstáculos. La luz se desplaza a una velocidad mucho mayor (más o menos un millón de veces más rápidamente). Sin embargo, la luz es interceptada o difundida y absorbida por toda clase de materia y solamente hasta cierto punto salva los obstáculos. Una de las cuestiones que debemos estar en condiciones de responder al final del libro es por qué ha de haber esas diferencias entre sonido y luz. Las ondas de radio (análogas a las de la luz desde el punto de vista físico, pero de mayor longitud de onda) pueden penetrar y pasar por objetos sólidos de tamaño apreciable. Una vez más, nos preguntamos por qué sucede así.
Debido a esas propiedades diferentes, la comunicación a larga distancia se produce o por medio de ondas de radio o por ondas eléctricas alámbricas. Para usar la radio como medio de comunicación empleamos, claro está, un transmisor y un receptor. En realidad son mecanismos de traducción. Así como la voz traduce pensamientos a un código sonido-onda, del mismo modo un micrófono traduce el código sonido-onda al código de la corriente eléctrica, y la antena transmisora traduce la corriente eléctrica a ondas de radio. En el extremo receptor, la antena receptora transforma las ondas de radio en impulsos eléctricos, el altoparlante los convierte otra vez en ondas sonoras, y el oído y el cerebro interpretan las ondas sonoras como ondas cerebrales, o pensamientos. Con estos eslabones adicionales en la cadena de transmisión, resulta imperativo disminuir dentro de cada etapa la imperfección, la distorsión y la pérdida de energía.

Imágenes en código
El secreto de la televisión moderna fue la invención y el desarrollo de mecanismos eficientes de codificación y de interpretación para las dos únicas etapas que la distinguen de la radiodifusión del sonido. Estas etapas son, naturalmente, la transformación de la luz en electricidad y la subsiguiente conversión de la electricidad en luz.
Pero por desgracia no es suficiente disponer tan sólo de medios para traducir luz a electricidad y luego realizar el proceso contrario. También tenemos que tener en cuenta el hecho de que en televisión sólo disponemos de un “canal” que lleve la imagen. El nervio óptico, que conecta el ojo con el cerebro, es sorprendentemente más complejo; contiene varios cientos de miles de diferentes fibras, o circuitos eléctricos, todos los cuales conducen señales al cerebro simultáneamente. Por lo tanto, en la visión humana cada fibra del nervio óptico puede atender una pequeña parte de la imagen y así podemos captar de una vez la imagen total. Por un solo canal de televisión no es factible transportar cientos de miles de señales a la vez, de manera que debemos buscar algo mejor: conducir las señales una después de otra, y lo hacemos dividiendo la imagen en partes pequeñas y transmitiendo la información de cada trozo por vez.
Esto nos sugiere la analogía de aquellos entusiastas que juegan al ajedrez a distancia. El tablero está dividido en cuadrados numerados y se puede enviar por teléfono mensajes tales como: "Mover alfil negro dos dama". En esta forma, uno de los jugadores puede introducir un cambio en el aspecto visual del tablero del adversario y el juego prosigue como si ambos jugaran sobre el mismo tablero.
Vemos así cómo transmitir una imagen fija. No necesitamos mencionar siquiera qué trozo de la imagen estamos transmitiendo, siempre que los describamos en orden sistemático. Este puede ser cualquier orden; podríamos empezar por el extremo inferior derecho, seguir por la parte inferior y por el borde exterior en el sentido de las agujas del reloj, y de ahí pasar gradualmente hacia el centro y en espiral. En televisión, se comienza por el ángulo superior izquierdo y se cubre la imagen en forma parecida al recorrido del ojo sobre las páginas de un libro cuando se lee. Esta similitud con la lectura es la que ha dado a la forma sistemática de explorar una imagen el nombre técnico de “exploración” o “análisis”.
El paso siguiente es decidir cuántas subdivisiones de la imagen debemos tener. Esto dependerá de cuánto detalle estamos preparados a sacrificar. Tenemos aquí un ejemplo muy real de la imperfección inevitable de un mensaje a causa del acto de la comunicación.
Si queremos preservar los detalles finos de la imagen, tendremos que dividirla en muchas partes pequeñas, un trocito por cada uno de los detalles más pequeños. Pero si nos conformamos con una reproducción razonablemente detallada, podemos utilizar un número menor de subdivisiones más grandes y nos evitaremos así muchas preocupaciones y dificultades. En otras palabras, podemos decidir que una comunicación algo grosera, pero en general satisfactoria, de la imagen, puede ser más útil a la economía del servicio de televisión. Dicho compromiso entre la calidad de un servicio y el costo de su producción está en el centro de toda la ingeniería.
Las impresiones fotográficas también se reproducen por trozos; es decir, son un conjunto de pequeños puntos negros (lámina I). Una fotografía de buena calidad, como las que se ven en las revistas impresas sobre “papel brillante”, puede contener millones de puntos. Este detalle fino es apropiado para apreciarlo a la distancia óptima de lectura. En realidad, a una distancia tan corta el ojo no ve la figura entera de una vez. Vaga por toda la imagen, abarcando los puntos impresos en grupos de varios cientos de miles. No lo puede hacer mejor, porque el nervio óptico sólo tiene varios cientos de miles de circuitos separados que lo unen al cerebro.
Una imagen así dividida sería inútil y costosa en televisión, porque nunca se observa la pantalla desde tan cerca. El criterio adoptado por los ingenieros que diseñaron nuestro sistema de televisión es una imagen dividida en unos 200.000 trozos. Dicha imagen puede parecer algo grosera cuando se sintoniza el receptor y se la observa a una distancia de sólo treinta a sesenta centímetros, pero es la que conviene cuando volvemos a nuestro asiento, a unos tres o más metros del receptor.

Imágenes en movimiento
Hasta aquí lo que se refiere a la calidad de nuestra imagen fija. Pero no estamos interesados solamente en imágenes fijas. ¿Qué sucede si los detalles de una imagen se alteran en forma constante? La respuesta es que, para mantenerla, nuestro proceso de exploración debe ser muy veloz. Imaginémonos tratando de describir a un amigo ciego, por medio de palabras, la forma en que cambian las señales del letrero luminoso de Times Square. En este caso, es evidente que las palabras resultan demasiado lentas. ¿Con qué velocidad necesitamos explorar nuestra imagen? El problema está relacionado con la persistencia de la visión humana.
Vemos ahora que la imagen de televisión se forma ante nuestros ojos por partes, cada parte de la imagen por vez y dispuestas una tras otra como las letras de esta página. Sólo un trozo de esa imagen está presente en cada instante. Entonces, ¿cómo es que toda el área de la pantalla aparece como si estuviese continuamente iluminada? La respuesta es que el cerebro retiene la impresión de la luz que llega al ojo hasta un décimo de segundo después de su desaparición. De modo que, si reunimos todos los trozos de la imagen, uno tras otro, y completamos el proceso en un décimo de segundo o menos, la percepción de cada trozo persiste mientras todos los otros se presentan ante el ojo, y pronto la figura fragmentada aparece como un todo. Si el tiempo que transcurre para explorar la pantalla es mayor, la imagen se divide en partes más pequeñas.
En consecuencia, puesto que debemos reproducir cada imagen en menos de un décimo de segundo, estamos en condiciones de transmitir más de diez imágenes por segundo. Esto nos proporciona un medio para comunicar una imagen en movimiento, presentando al ojo, en rápida sucesión, muchas imágenes fijas, como en el cine. Nuestra mente retiene cada imagen de la secuencia por la persistencia de la visión, sin que nos demos cuenta de que, durante cada segundo, se nos ofrecen muchas imágenes individuales fijas, algo diferentes.
En realidad, como veremos luego, las imágenes de televisión aparecen treinta veces por segundo y recordemos que cada una de ellas consiste en 200.000 trocitos de imagen dispuestos sobre la pantalla uno tras otro. Una simple multiplicación nos revela que esos trozos se comunican a lo largo del sistema de televisión con la alarmante velocidad de 30 X 200.000, o sea 6.000.000 por segundo. Cada pieza del equipo de televisión, desde el estudio de televisión hasta nuestro hogar debe ser capaz de manejar la información con ese ritmo fantástico. La transformación de luz en electricidad, el pasaje de las señales eléctricas por alambres y cables, el recorrido de las ondas de radio en el espacio y de nuevo la transformación de electricidad en luz, todo debe suceder como en una persecución por diez mil demonios.


Figura 1. En los primeros experimentos con la televisión se usaba un disco giratorio para explorar la imagen. Ésta era enfocada sobre el disco en el área indicada. Unos agujeros pequeños, dispuestos en espiral cerca del borde del disco, trazaban líneas a través de la imagen, una después de la otra, y la luz que pasaba por cada agujero presentaba en sucesión las luces y sombras sobre cada línea. Los dispositivos mecánicos de exploración de ese tipo no podían televisar una imagen bien detallada. Los han suplantado los exploradores electrónicos, capaces de cubrir millones de puntos de la imagen en un solo segundo.

No es asombroso, entonces, que los ingenieros se hayan decidido por la cifra de 200.000 trozos de imagen; cualquier número mayor aumentaría la velocidad de transmisión proporcionalmente, y haría que cada parte del equipo fuera más costosa y más crítico su funcionamiento.
En los albores de la televisión, se ensayaba con figuras más groseras, formadas sólo por 4.000 partes. La causa era que se disponía solamente de medios mecánicos de exploración, como discos giratorios perforados (figura 1) y no era posible hacer que éstos se movieran con la rapidez necesaria, ni con la precisión suficiente, como para producir una imagen más detallada.
Dichas imágenes groseras no eran bastante buenas para satisfacer al ojo, una vez que se hubo disipado el asombro inicial de ver imágenes a una cierta distancia. Para llegar a la velocidad de transmisión de un millón por segundo, que es la de la televisión moderna, los dispositivos mecánicos eran, si no completamente inadecuados, demasiado complicados y costosos para el hogar.
Como todos sabemos, la respuesta llegó con el avance de la ciencia de la electrónica; porque el único elemento que tiene la velocidad y agilidad necesarias y, al mismo tiempo, puede ser producido y controlado por medios sencillos es el electrón.
Los electrones están también íntimamente relacionados con la forma de convertir en electricidad la luz proveniente de la imagen explorada, y regenerarla en el extremo receptor, como veremos en el capítulo 4. Los electrones son los actores centrales de nuestro relato; nos conducen directamente al mundo de la física subatómica. Y a una mejor comprensión básica de ese mundo dedicaremos los próximos capítulos. A veces, parecerá que nos hemos olvidado de la televisión y algunos de los hechos que discutiremos podrán resultar más bien teóricos, pero dichos capítulos contienen el fundamento para un entendimiento más profundo de la física de la televisión.



Capítulo 2
La luz

Contenido:
Ondas y/o partículas
Los átomos como fuente de luz
Energía y luz
Cómo reflejan la luz los átomos
Fluorescencia: del invisible al visible
El efecto fotoeléctrico: de la luz a la electricidad
Transformación de ondas luminosas en ondas cerebrales


La televisión comienza y termina con la luz. La luz proveniente de un grupo de lámparas ilumina a los actores en el estudio de televisión y ellos, a su vez, la reflejan. Al entrar en la cámara, se la enfoca y forma una imagen sobre la superficie sensible del tubo de la cámara. En el extremo receptor, la luz se transmite desde la pantalla hasta nuestros ojos. Aunque esta última etapa puede parecer demasiado trivial para mencionarla, en realidad es muy importante, porque ya veremos que las limitaciones fisiológicas del ojo humano tienen una influencia profunda sobre todo el proceso de la transmisión. Sin ellas, la televisión casi no sería posible. Por eso, en este capítulo examinaremos la física de la luz y la visión humana.
Comencemos con la pregunta siguiente: ¿Qué es la luz? En primera instancia, la luz puede ser considerada como una forma de la energía, llamada “energía radiante”. La mayor parte de la gente piensa que tiene una idea bastante satisfactoria de lo que es la energía. Pero la pregunta ¿qué es la energía? es, en realidad, tan difícil de responder con exactitud, que los hombres de ciencia tardaron más de 150 años para llegar a una enunciación básica correcta. Ocupa una gran parte de cualquier curso convencional de física y, naturalmente, no podemos esperar tratarla aquí en forma completa. Sin embargo, conviene resumir aquellas ideas que, se presume, son familiares al lector. Primero, siempre que se aplica una fuerza a un cuerpo con el fin de moverlo, se realiza un “trabajo”, siendo éste igual al producto de la fuerza por la distancia que el cuerpo se desplaza. Como resultado del trabajo realizado sobre el cuerpo, éste adquiere una cantidad correspondiente de “energía” y, recíprocamente, el agente que realiza el trabajo pierde una cantidad igual. Segundo, la energía, como un actor consumado, puede aparecer con varios disfraces diferentes. Los dos más comunes son la energía “cinética”, que es una propiedad de cualquier objeto móvil en virtud de su “movimiento”, y la energía “potencial”, que es propia de un objeto en virtud de su “posición”. Luego, se dice que un aparato de televisión colocado en el dormitorio de un segundo piso tiene más energía potencial que el ubicado en la sala de estar de la planta baja, porque se ha tenido que realizar un trabajo para vencer la fuerza de la gravedad al llevarlo escaleras arriba. Sin embargo, veremos luego que resulta mejor considerar la energía potencial como la propiedad de un “sistema”. Con este término, los hombres de ciencia quieren indicar cualquier región arbitraria del universo que consideran conveniente estudiar aislada de otras. En nuestro ejemplo no es, en realidad, el aparato de televisión el que ha ganado energía potencial, sino el sistema que contiene al aparato y a la tierra. De igual modo, cuando un electrón se aparta del núcleo del átomo, venciendo la fuerza de atracción eléctrica, aumenta la energía potencial del átomo en su totalidad.
Otras formas de energía —térmica, eléctrica, química, etc. — parecen al principio todavía más misteriosas. No obstante, todas pueden ser expresadas en función del movimiento y posición de las partículas atómicas o subatómicas y, por eso, reducidas a la suma de la energía cinética y potencial de dichos pequeños objetos. La energía del movimiento ondulatorio es otro asunto. Una onda no implica para nada el movimiento de partículas; la luz recorre tranquilamente el espacio interestelar. En todos los ejemplos precedentes se transportaba energía de un lado a otro al trasladar materia, como cuando el héroe de un programa de televisión arroja un florero de porcelana al adversario que se aproxima, o cuando el viento producido por las paletas de un ventilador, dentro del estudio, agita el cabello de alguna lánguida heroína. Con el movimiento ondulatorio se transfiere energía sin transferencia de materia. Cuando decimos que la luz es una forma de la energía, parte de lo que queremos significar es que, cuando pasa de un lugar a otro, implica el traspaso de energía.

Ondas y/o partículas
¿Qué conviene más, considerar la luz como un movimiento ondulatorio o como una corriente de partículas? Aunque la mayor parte optaría por el movimiento ondulatorio, la realidad sugiere que la respuesta es mucho menos simple. En efecto, el conflicto es tan antiguo que se remonta a los días de Isaac Newton quien, por otra parte, estaba a favor de las partículas. Aun cuando durante un tiempo pareció que Thomas Young, Augustin Fresnel y otros, habían demostrado que la luz era realmente un movimiento ondulatorio, a comienzos de este siglo se empezaron a exhumar propiedades que sólo podían ser explicadas en función de partículas no materiales.
¿Qué significa esto exactamente? ¿Son ambas teorías correctas, equivocadas o sólo incompletas? ¿Se puede usar una u otra sin discriminación? El gran físico inglés Sir Lawrence Bragg solía decir a sus discípulos que los días lunes, miércoles y viernes prefería la teoría ondulatoria y los martes, jueves y sábados, la teoría de las partículas. Pero la situación no es tan arbitraria. Describir la energía radiante como una onda o como una partícula es algo así como dar una información acerca de una persona mediante una fotografía o por el diseño verbal de su carácter. Según los fines, una descripción es mejor que la otra. Una fotografía informa mejor que cualquier descripción escrita, si nos interesan las características físicas del individuo. Por otra parte, las palabras nos pueden decir más acerca de su carácter y de su vida pasada, aun cuando la presencia, digamos así, de una cadena de oro para reloj, cruzada sobre un vientre voluminoso, pueda sugerir algo. Lo primero que debe tenerse en cuenta es que ambas descripciones, la pictórica y la verbal, son por sí mismas inadecuadas. El individuo real es más complejo que una u otra, está más alejado de nuestras nociones preconcebidas de lo que, quizá, nos damos cuenta. Segundo, ambas descripciones, aunque incompletas, pueden ser consecuentes. Si leemos que nuestro individuo tenía setenta y cinco años y luego recibimos una fotografía de un hombre en la plenitud de su vida, nos daremos cuenta de que algo está equivocado.
Lo mismo sucede con el modelo ondulatorio y el modelo corpuscular. Ambos nos ofrecen verdades parciales acerca de la luz. Ambos son coherentes entre sí. Así, existe una relación mensurable estricta entre la frecuencia de la onda y la energía de la partícula o “fotón”, como se la denomina. Esta relación está expresada por la famosa relación de Albert Einstein,

E = hf

donde h, es una constante numérica fundamental del universo, conocida como constante de Planck en homenaje a su descubridor, Max Planck. El número de máximos de onda que pasan por un punto dado por segundo, f, es la frecuencia de la luz (considerada como onda), y E es la energía del fotón (considerado como partícula). En éste y en otro sentido, las dos teorías se han integrado. Pero la luz no es ni una cosa, ni la otra. Es más inimaginable todavía y las únicas palabras que tenemos para describirla con exactitud son los símbolos matemáticos. Por eso, se verá que en los próximos capítulos necesitaremos utilizar ambas descripciones para la luz.
Es bien sabido que la luz blanca es una mezcla de colores en los cuales se la puede separar haciéndola pasar a través de un prisma. ¿En qué difieren esas luces de color? Usemos primero el modelo ondulatorio.
Normalmente, se dice que la luz roja difiere de la azul en que tienen diferente longitud de onda, pero una distinción más satisfactoria es la de la frecuencia (ver lámina II y figura 1a para la explicación de estos términos). Esto se debe a que la longitud de onda (la distancia entre dos máximos o entre dos mínimos) de cualquier luz de color no es siempre la misma. Por ejemplo, si la velocidad de la luz (c) varía, como sucede en realidad, cuando la luz pasa de un medio transparente a otro, por la relación entre la longitud de onda (&lamda;) y la frecuencia se verá que el producto (c= &lamda;f ) debe variar. Cuando esto sucede, la frecuencia no varía, la longitud de onda sí. Las ondas luminosas tienen una frecuencia de unos 1014 ciclos por segundo. Este es un número casi inconcebiblemente grande; 1014 es igual a cien billones. Las longitudes de onda correspondientes son casi inconcebiblemente pequeñas, alrededor de la mitad de un millonésimo de metro.
La energía de un fotón puede ser expresada en cualquier unidad, desde calorías hasta kilovatios-hora, pero por razones que pronto resultarán evidentes, la que nos conviene utilizar en este libro es la unidad “electrón-voltio”, la cual se abrevia “ev”. La definiremos cuando estemos más familiarizados con los electrones y con los voltios; por ahora sólo estableceremos que la energía de los fotones de la luz visible varía entre 2 y 4 ev.
Observemos que la variación en la frecuencia de la onda y en la energía del fotón no se detiene en los límites de la luz visible. Más allá del extremo azul del espectro (figura 1a) existen formas de radiación con energías todavía más altas, la radiación ultravioleta (hasta 150 ev), los rayos X (hasta 40.000 ev) y los rayos gamma (más de 40.000 ev). Más allá del rojo, existen formas de frecuencias más bajas, la infrarroja (hasta 1012 ciclos por segundo) y las ondas de radio (menores que 1012 ciclos por segundo).

Los átomos como fuente de luz
Volviendo a la luz, tenemos que investigar un segundo problema. ¿Qué la produce? Esto trae aparejado el problema fundamental de la interacción entre luz y materia. En esencia ¿cómo puede un átomo producir un fotón? Una vez más, nos vemos obligados a hacer una digresión mayor, en este caso para proveemos de los conocimientos básicos acerca del átomo.
En esta edad nuclear debe haber pocos lectores que ignoren que cada átomo tiene un núcleo.


Figura 2. En estos tres esquemas está representado el `pozo de potencial” ocupado por los electrones que giran en órbitas. La curva a) muestra que, cuanto más alejada del núcleo está la órbita electrónica, mayor es la energía potencial. En b) se indica la forma en que la curva, que se extiende en todas direcciones alrededor del núcleo del átomo, origina un `pozo” dentro del cual queda atrapado el electrón hasta que la energía transmitida desde una fuente externa, empuja al electrón y éste escapa de su átomo padre. En c) se observa que el electrón puede, en realidad, ocupar sólo ciertos niveles de energía. Estos estados cuantificados representan las órbitas permitidas entre las cuales salta el electrón a medida que absorbe o emite energía.

Alrededor de este núcleo central, pesado y compacto y con una carga eléctrica positiva, se mueven electrones de carga negativa y masa comparativamente despreciable. Los átomos de todos los elementos están constituidos según este mismo modelo general; las distintas clases de átomos difieren en el número y disposición de los electrones planetarios. El número de electrones está determinado por el tamaño de la carga positiva del núcleo, puesto que el átomo, como un todo, es eléctricamente neutro.
Si este fuera un libro sobre la bomba atómica, nos olvidaríamos de los electrones planetarios y nos concentraríamos sólo en el núcleo. Pero como nuestro propósito es conocer la física de la televisión, haremos exactamente lo contrario; ignoraremos el núcleo y nos fijaremos en la conducta de los electrones.
Ahora bien, así como existe un dualismo misterioso en la naturaleza de la luz, también lo hay en el comportamiento de los electrones. Estos, por lo general (pero no siempre), se comportan como si fueran partículas diminutas. A menudo parecen tener las propiedades de un movimiento ondulatorio. Sin embargo, por el momento elegiremos el modelo corpuscular, en el cual los electrones se asemejan a sputnik nucleares. La fuerza de atracción eléctrica, siempre presente entre cargas eléctricas opuestas, los mantiene en sus órbitas. Esto es análogo a la atracción gravitacional en el caso de los satélites terrestres.
Una forma conveniente de describir la acción de esta fuerza es decir que alrededor del núcleo existe un “campo” eléctrico, y la intensidad del campo, en cualquier punto dado, es una medida de la fuerza que actúa sobre el electrón. Alrededor de la Tierra hay un campo gravitacional análogo.
Así como se requiere trabajo para poner un satélite a cierta distancia de la Tierra, también es necesario realizarlo para alejar un electrón del núcleo. Este trabajo se acumula como un aumento de la energía potencial de todo el átomo. Si trazamos una curva de la energía potencial en función de la distancia al núcleo, obtenemos una curva de la forma de la fig. 2, y como ésta indica simetría en todas direcciones alrededor del núcleo, la superficie total es la de un embudo con su extremo ensanchado hacia arriba. Lo denominaremos “pozo de energía potencial”. Cualquier electrón que se mueve dentro de los confines del pozo se denomina electrón “ligado” porque, a menos que se suministre energía al sistema desde alguna fuente externa, el electrón no puede escalar la pared del pozo y escapar del campo de su átomo. Sin embargo, si se le da una cantidad de energía suficiente, puede llegar a abandonar el campo en forma permanente y convertirse en un electrón “libre”. El resto del átomo queda, entonces, con una carga positiva igual a la del electrón y se denomina “ion”. El proceso de escape del electrón se denomina “ionización”.
Mientras está aún ligado al átomo, el electrón no puede desplazarse en una órbita cualquiera. Uno de los descubrimientos primordiales de la física del siglo veinte es el de que existen restricciones definidas en los “niveles de energía” de los electrones en las órbitas atómicas. Parece que sólo pueden diferir en valores discretos de energía. Un electrón de una órbita no puede aumentar su distancia al núcleo ni aun en un valor infinitesimal. Tiene que `saltar” a una nueva órbita. Por eso, se dice que las órbitas de los electrones ligados están cuantificadas y que, cuando un electrón recibe suficiente energía como para saltar a una órbita cuantificada superior, el átomo está “excitado”. La cuantificación es un fenómeno que pocas veces se presenta fuera del mundo subatómico. No tiene su análogo en la física macroscópica, de escala mayor, o en nuestro mundo de todos los días.
Las diferentes órbitas cuantificadas alrededor de un núcleo pueden alojar distinto número de electrones. Como regla general, las órbitas de menor energía son las más ocupadas. Cuando consideramos a los átomos según un orden creciente de masas, es decir, cuando pasamos de un elemento a otro en la tabla de los elementos químicos, los niveles inferiores del pozo de potencial se van llenando en forma progresiva. Por decirlo así, primero se ocupan los lugares junto al ring, alrededor del núcleo. Sin embargo, siempre hay niveles superiores vacantes a los cuales puede pasar un electrón al excitar al átomo mediante una fuente externa de energía. El átomo permanecerá en este estado excitado sólo durante un intervalo de tiempo muy corto, alrededor de 10-8 segundos y luego el electrón perderá, normalmente, energía por radiación y volverá a la órbita inferior vacante del átomo. Cuando producimos energía en la materia por medios que se describirán brevemente, en realidad estamos originando (entre otros efectos) una danza agitada de órbitas de electrones saltarines en trillones de átomos a la vez.
¿Cómo adquiere un átomo la energía necesaria para su excitación o su ionización? y ¿en qué forma libera la energía sobrante cuando vuelve a su estado normal, no excitado? Para contestar en parte la última pregunta diremos que una de las formas más comunes en la que un átomo puede desembarazarse de la energía innecesaria consiste en emitir un fotón. Por supuesto, la energía del fotón dependerá de cuál salto del electrón es el implicado.
La forma de la barrera de energía pone de manifiesto que las órbitas próximas al núcleo están separadas por energías de muchos ev, mientras que las que están más cerca de la parte exterior del átomo están, desde el punto de vista energético, mucho más juntas. Los saltos entre estas últimas órbitas producirán, en realidad, fotones con energías de 2 a 4 ev, o luz visible.

Energía y luz
Tenemos aquí, entonces, una primera respuesta a la pregunta: ¿cómo se produce la luz? Se puede observar el proceso en un letrero de neón o en una lámpara de vapor de mercurio. Ambos consisten, en esencia, en un tubo de vidrio lleno de un gas o vapor apropiados, a una presión muy baja. Cuando se aplica una tensión eléctrica en el tubo, parte de los átomos se ionizan. Los electrones libres resultantes y los iones positivos son acelerados por la fuerza de la tensión y, debido a sus cargas opuestas, se mueven en sentido contrario. Por consiguiente, chocan con átomos no ionizados, entregándoles parte de su energía en el proceso.
Pueden ocurrir dos clases de choques. A veces, el choque es elástico, como el que se produciría entre dos pelotas de goma perfectamente elásticas. En estos choques, el átomo que actúa como blanco recibe la energía extra en forma cinética; es decir, su velocidad aumenta, pero no varía su estructura interna. Entonces, el movimiento caótico casual de los átomos del gas se hace más violento y el gas se calienta. En otros casos, sin embargo, la energía se transfiere por un proceso inelástico. El átomo que actúa como blanco acumula, entonces, la energía sobrante en forma potencial, es decir, uno de sus electrones pasa a un nivel más alto y el átomo queda excitado.
Consideremos ahora la liberación de energía por medio del fotón, que sigue al retroceso del electrón a su órbita de energía menor. Como el salto del electrón está cuantificado, sólo se irradiarán fotones de una energía determinada. Y como en todos los saltos posibles de órbita, siempre hay unos pocos que se producen con mucha mayor facilidad que los otros, todos los átomos excitados del gas emiten fotones de estas pocas energías preferidas.
Volviendo al modelo ondulatorio, vemos que la luz emitida está restringida a unas pocas frecuencias elegidas, características del elemento particular. Esto explica la causa por la cual el neón tiene un resplandor de color anaranjado rojizo, mientras que el vapor de mercurio es azul verdoso. Cualquier grupo de frecuencias de este tipo se denomina “espectro” y el de frecuencias preferidas, como aquél que acabamos de explicar, se llama “espectro de líneas”.
La luz solar es muy diferente. Aparte de la presencia de ciertas líneas oscuras en el espectro del Sol, que aquí no nos interesan, la luz solar está constituida por una gama continua de colores y no por unos pocos elegidos. Contiene luz de todas las frecuencias dentro de los límites de la gama visible y, por eso, su espectro se denomina “continuo”. Esto parece contradecir las ideas de cuantificación que con tanto éxito explican la emisión de luz por una fuente de mercurio. La explicación es que, en el caso del Sol, estamos en presencia de temperaturas mucho más altas. La temperatura es sólo una medida de la energía cinética media de las partículas del gas en su caótico movimiento al azar. Luego, cuanto más caliente está el gas, más energéticos son los choques entre sus partículas.
En televisión resulta importante uno de los procesos aquí implicados. En algunos de los choques no elásticos, uno de los participantes no sólo absorbe energía suficiente para excitarlo, sino también para sacar el electrón fuera del pozo de energía, en otras palabras, para producir ionización. Además, como en ese momento no hay tensión externa aplicada que aleje al electrón y al ion en sentidos opuestos, el primero queda libre para caer otra vez en el campo de su ion padre o de uno vecino. En cuanto al punto crucial: cuando un electrón es libre, ya no está cuantificado. Puede adquirir o perder por choques elásticos cualquier cantidad de energía cinética. Por eso, cuando vuelve a caer en el pozo de energía, lo puede hacer desde cualquier nivel de energías, aun cuando su órbita final esté cuantificada. En consecuencia, es posible que se emitan fotones de cualquier frecuencia intermedia (ondas luminosas de cualquier frecuencia).
Casi las mismas consideraciones son válidas para un sólido incandescente, como el alambre de metal caliente que constituye el filamento de una lámpara común. Como veremos con más detalle en el capítulo próximo, los átomos de un metal están permanentemente ionizados y todos contribuyen a un conjunto de los llamados electrones de conducción, los cuales no están ligados a ningún átomo padre y sus variaciones energéticas no están cuantificadas. Así, también en este caso el espectro de emisión es continuo. Pero sabemos que el color de un metal varía cuando su temperatura aumenta, ya sea que lo calentemos en una llama o hagamos pasar a través de él una corriente eléctrica de intensidad creciente. El metal (que primero sólo irradia calor en la región infrarroja) se pone gradualmente rojo, anaranjado, amarillo y, por último, blanco. Aunque el ojo no puede distinguir los componentes de la radiación blanca, es un espectro continuo con la frecuencia, en aumento progresivo, de la radiación más intensa. A medida que la temperatura sube, la energía media de las partículas, sean electrones o iones, también aumenta. Los choques resultan más violentos y lo mismo sucede con los cambios energéticos que producen los fotones.
Este ejemplo nos lleva a un principio general de gran importancia. Hemos visto que siempre que se produce una variación en la energía de los electrones, pueden emitirse fotones. A veces, como en los saltos cuantificados dentro de los átomos, es sobre todo un cambio en la energía potencial. Pero en otros casos, como sucede con los electrones de conducción de un metal, es una variación de la energía cinética. Ahora bien, para que un cuerpo pueda variar su energía cinética debe cambiar su velocidad, debe acelerarse. Es una generalización básica de la física clásica decir que siempre que se acelera un electrón libre, se emite radiación.

Cómo reflejan la luz los átomos
Hemos dado ya algunas respuestas a la pregunta ¿cómo se produce la luz? y todas parecen variaciones alrededor de un tema central, el de la interacción entre electrones y fotones. Otra variante nos explica el comportamiento de la luz cuando es reflejada por una superficie. En este caso, una diferencia primordial es que el origen de la excitación atómica no es ya un electrón o un ion, sino un fotón. La reflexión es importante en televisión, puesto que se trata de luz, reflejada por la ropa y el rostro de los actores y por los objetos del estudio, que entra en la lente de la cámara.
La reflexión es un fenómeno muy complejo, de manera que comenzaremos con el caso más simple posible, el de la luz que incide sobre un espejo metálico. Aquí, la mayor parte de la luz incidente se refleja y, además, no hay pérdida de los detalles de la imagen. Los puntos de la superficie metálica que reciben luz de poca intensidad también reflejan luz de poca intensidad, es decir, aparecen oscuros.
Una hoja de papel blanco se comporta de diferente manera. En primer lugar, la superficie es mucho más rugosa y menos homogénea. Aun con un microscopio óptico es posible ver la masa confusa de fibras. El resultado es que los fotones penetran en la superficie y no emergen en la misma forma regular, sino que se difunden en muchas direcciones. Se pierden así los detalles de la imagen. Pero el “color” de esta luz reflejada en forma difusa es siempre el mismo que el de la luz incidente. (La palabra `reemisión” podría describir el proceso con más precisión que el término reflexión, pero aquí utilizaremos éste, que es el más común). Cuando la que refleja es una sustancia blanca, no se altera el número relativo de fotones de energías diferentes. Según el lenguaje utilizado por la teoría ondulatoria, no varía la distribución de las frecuencias.
Una superficie gris neutra es aquélla que sólo refleja una fracción de los fotones de cualquier frecuencia dada. Esa fracción, sin embargo, es la misma para todas las frecuencias, de modo que, también aquí, la “distribución” no se altera. Una superficie negra es la que no refleja ningún fotón dentro de la gama de frecuencias del espectro visible. ¿Qué sucede con los fotones que no se reflejan? Se absorben. Luego, trataremos de describir a continuación cómo se efectúa esta absorción.
Supongamos que el fotón incidente tenga exactamente la energía de un salto determinado de electrones en uno de los átomos de la superficie. Se absorberá por medio de un choque inelástico y el átomo, al excitarse, tomará esa energía. Esto es lo contrario del proceso de emisión en el caso de un espectro de líneas. Entonces, ¿por qué el átomo excitado no vuelve a irradiar inmediatamente un fotón idéntico al incidente? La respuesta es que, aunque según el punto de vista precedente la vida de un átomo excitado es muy corta, 10-8 segundos, desde el punto de vista del proceso atómico es sumamente larga. Antes de que el átomo excitado decida que debe irradiar transcurre un tiempo suficiente para que pasen muchas otras cosas. Por ejemplo, el período de vibración de los átomos dentro de una molécula es a menudo del orden de 10-15 segundos, lo cual significa que vibrarán unas diez millones de veces durante la vida del átomo en estado excitado. Ahora bien, un átomo excitado tiene un electrón desplazado de su posición normal y esto altera automáticamente el campo eléctrico en su proximidad. Ello puede originar la atracción o la repulsión de un átomo próximo, según sea el caso, pero de todos modos alterará la amplitud de la vibración. Así como es necesario realizar un trabajo —dar un impulso— para que un péndulo oscile con más violencia, así el átomo excitado realiza un trabajo cuando modifica la vibración de sus vecinos. Esto implica una pérdida de energía y esta energía pasa en forma progresiva a otros átomos, es decir, se disipa o “desangra” a través de la estructura atómica. Cuando llega el momento de irradiar, la energía remanente disponible equivale a un fotón de frecuencia mucho más baja si, en realidad, se llega a emitir un fotón. Así, una sustancia negra es un absorbente tan eficaz, que se calienta muy pronto, y uno de cuyos síntomas es que vuelve a irradiar fotones en la región infrarroja.
¿Qué sucede con las sustancias de colores? Éstas absorben fotones de energías preferidas. A veces, es el material básico mismo el que lo hace; por ejemplo, el oro sólido absorbe primero fotones de las regiones de mayor energía; refleja así los de menor energía y aparece amarillo. Es más común que las sustancias estén coloreadas por la presencia de un pequeño número de moléculas de un pigmento y son éstas las que realizan la absorción. Según sea la estructura de la molécula del pigmento, los saltos permitidos de electrones diferirán en energía y se absorberán los fotones de energías diferentes. En esta forma, una actriz puede elegir un vestido azul tenue, en el cual los pigmentos absorben con preferencia las frecuencias más bajas, mientras que otra prefiere un vestido de un rojo brillante, que absorbe sobre todo la gama de frecuencias mayores. Desafortunadamente, estos efectos no son apreciados por los espectadores de la televisión en blanco y negro, y ahora estamos en condiciones de explicar por qué. La cámara para blanco y negro sólo registra la “intensidad” total de la luz. Si, además, admitimos que es igualmente sensible a toda la gama de frecuencias del espectro visible, no importará en qué lugar del mismo ocurre la absorción, sino sólo cuánto se absorbe. Para los televidentes y los críticos, ambos vestidos podrán ser un matiz indistinguible del gris.

Fluorescencia: del invisible al visible
Es probable que, aun para un capítulo relacionado en su mayor parte con los fundamentos teóricos, nos hayamos apartado demasiado del camino. Pero ahora estamos en condiciones de concluir con tres variantes más de la interacción fotón-electrón que intervienen en el proceso de la televisión.
La primera es la fluorescencia, proceso por el cual se produce la luz en nuestra pantalla de televisión. Puede ser considerada como un caso especial de la reflexión, en el cual la energía que entra no es visible. Cuando hay un factor que hace más difícil el drenaje de energía de un átomo en estado excitado, aumentan las probabilidades de que se vuelva a irradiar un fotón. Si se produce una pérdida de energía, la frecuencia del fotón irradiado será menor que la del fotón incidente. Por supuesto, nunca puede ser mayor y, en todos los casos, estará cuantificada. El proceso será también “lento”, es decir, del orden de 10-8 segundos.
La fluorescencia llena todos estos requisitos y se define como la producción de luz visible debida a la exposición a algún agente invisible. Dichos agentes pueden ser fotones de energía mayor que las del visible, como los rayos ultravioleta o los rayos X, o pueden ser partículas de energía suficientemente alta. En consecuencia, cuando un haz de electrones libres choca con un vidrio recubierto, produce fluorescencia.
Desde el punto de vista de la televisión práctica, este proceso tiene una importancia fundamental porque nos proporciona el vínculo entre el mundo de la corriente eléctrica y el de la luz. En el tubo de imagen del receptor, la pantalla está revestida con una sustancia fluorescente y, si se la cubre con un haz de electrones, se producirá fluorescencia. Cuando dicho haz es más intenso, la sustancia tiene más brillo. De esta manera, es posible ver cómo se podría crear una imagen detallada. En los receptores de televisión en blanco y negro, el material elegido presenta una fluorescencia algo azulada. Sin embargo, las distintas sustancias tienen fluorescencia de diferentes colores y esto, claro está, es muy importante para la televisión en colores.

El efecto fotoeléctrico: de la luz a la electricidad
La fluorescencia es el proceso por el cual los electrones libres generan fotones de luz. Si hubiera un efecto opuesto mediante el cual los fotones de luz pudieran emitir electrones libres, no sólo nuestro cuadro de la interacción fotón-electrón quedaría perfecto y en la forma más satisfactoria, sino que también nos proporcionaría los medios para convertir la imagen visual en corriente eléctrica dentro de la cámara de televisión. Este mecanismo existe: es el famoso “efecto fotoeléctrico” (que, incidentalmente, fue el tema de la primera publicación importante de Einstein).
El efecto fotoeléctrico es la emisión de electrones libres, llamados fotoelectrones, desde la superficie de un metal cuando se lo ilumina. Ocurre en todos los metales, aunque con distinta facilidad. Hablando con más claridad, para liberar un electrón se requiere cierto mínimo de energía, con el objeto de realizar el trabajo necesario para vencer las fuerzas que lo unen a los iones positivos del metal. Podemos llamarla “energía de escape” y esto es lo que varía de un metal a otro. Cualquier exceso de energía que el electrón pueda haber recibido quedará como energía cinética. En el efecto fotoeléctrico la fuente de energía es un fotón.
Una vez adquirido el concepto de fotón, los hechos experimentales de la fotoelectricidad no son difíciles de interpretar. En realidad, resultaban tan difíciles de explicar mediante la teoría ondulatoria de la luz, que fue el efecto fotoeléctrico el que condujo a Einstein a postular la existencia del fotón.
En primer lugar, se comprobó que solamente la luz que superaba cierta frecuencia crítica originaba la emisión de electrones. Podemos ver ahora que ello se debe a que, para frecuencias más bajas, los fotones incidentes no pueden proporcionar la energía mínima de escape. En segundo lugar, por encima de este límite inferior, la energía cinética de los fotoelectrones variaba, no con la intensidad de la luz, sino con su frecuencia. Cualquiera que fuera la intensidad del haz luminoso que incidía sobre el metal, la energía cinética de los electrones no se alteraba. También esto se explica si se considera la luz como una corriente de fotones, porque cuanto mayor es su energía (frecuencia), más entregará al electrón, puesto que la cuantificación convierte al intercambio de energía en un proceso de todo o nada. Pero con sólo aumentar la intensidad no se da a cada fotón más energía y, por eso, no se puede influir en la energía cinética del fotoelectrón. Lo que dicho aumento de intensidad puede originar, y ésta fue la tercera comprobación experimental, es aumentar el número de fotones incidentes y, por lo tanto, de fotoelectrones. Como los electrones libres en movimiento constituyen una corriente eléctrica podemos volver a establecer de la siguiente manera el último punto: la magnitud de la corriente eléctrica producida es proporcional a la intensidad de la luz incidente.
La célula fotoeléctrica es la aplicación práctica de este principio, pero en la cámara de televisión se lo emplea en forma más sutil. En el capítulo 4 veremos con más amplitud cómo actúa; por ahora el principio nos resulta claro. Si se enfoca la imagen visual sobre una superficie fotoeléctrica, se libera electrones en número directamente proporcional al brillo de cada punto particular de la imagen. Esto registra en términos electrónicos la luz y sombra de la imagen visual que deseamos televisar.

Transformación de ondas luminosas en ondas cerebrales
La tercera y última variante del tema interacción fotón-electrón es, en realidad, un caso especial del efecto fotoeléctrico. Es la transformación de la luz en impulsos nerviosos dentro del ojo. Encontramos aquí una interacción fotón-electrón más complicada, en la cual también la química desempeña un papel análogo al de la química en fotografía.
La retina del ojo está constituida por más de cien millones de diminutos fotorreceptores, los bastoncitos y los conos. Éstos están conectados a las fibras del nervio óptico. En el centro del campo de visión del ojo, cada cono está conectado a una fibra individual; en las regiones exteriores del campo, los conos y los bastoncitos están conectados a cada fibra en grupos de cien o más. La sustancia sensible a la luz de los bastoncitos que detectan luz muy débil ha sido aislada: es la púrpura retiniana o visual y se asemeja a las tinturas usadas en las películas fotográficas. Pero a diferencia de lo que sucede con los tintes de las emulsiones empleadas en fotografía, la púrpura visual posee en realidad una reacción química reversible y, en consecuencia, es por ello capaz de renovar continuamente su sensibilidad a la luz.
Cuando la luz incide sobre la púrpura visual, produce cambios químicos al transferir los electrones externos de un tipo de átomo a otro, entre los componentes químicos del pigmento. Estos cambios dejan ionizados a algunos de los átomos y éstos pueden, entonces, generar y transportar corrientes eléctricas, a semejanza de los iones del electrólito de un acumulador. Así, a medida que la luz estimula la retina, sus fotorreceptores general impulsos eléctricos que afectan las fibras del nervio óptico a las cuales están conectados. La escala de tiempo de estas reacciones electroquímicas es mucho más grande que el salto de órbita del electrón, mencionado antes en este capítulo. Por consiguiente, la velocidad de los impulsos eléctricos, a medida que recorren el nervio hasta el cerebro, es incomparablemente reducida (sólo 100 metros por segundo) con relación a la velocidad de la luz (300 millones de metros por segundo). Esta lentitud relativa explica la notable tendencia de los fotorreceptores y los nervios a continuar transmitiendo impulsos después de desaparecido el estímulo luminoso. De este efecto (persistencia visual) es imposible prescindir en la televisión.
Volvamos ahora rápidamente hacia atrás en el largo viaje realizado en este capítulo. Se han hecho muchas digresiones, pero nuestro interés primordial ha estado concentrado en la luz, puesto que ella desempeña un papel central en el proceso de la televisión. Comenzamos preguntando qué es la luz. Comprobamos que, junto con otras radiaciones análogas, puede ser descrita en función de dos vocabularios diferentes: el lenguaje ondulatorio y el lenguaje de las partículas. Ambos ofrecen representaciones incompletas, pero mutuamente consistentes y complementarias. Introdujimos luego el tema principal del capítulo, la interacción entre radiación y materia, en esencia, el duelo entre fotones y electrones. Las variaciones alrededor de este tema explican no sólo la emisión de luz (por las lámparas del estudio), sino también su reflexión (sobre la superficie de los objetos que se televisan); su conversión en corriente eléctrica (en la superficie del tubo de cámara sensible a la luz); su regeneración por los electrones libres (en la sustancia fluorescente del tubo de imagen del receptor); y, por último, su absorción por la superficie de la retina del ojo del espectador.
Hasta aquí, las etapas electrónicas intermedias del proceso siguen siendo oscuras y misteriosas. Hay cierto número de “casilleros negros” que esperan ser examinados, tanto en el equipo imponente del estudio y la estación transmisora, como en el gabinete que adorna un rincón del hogar. Pero antes debemos estudiar la biografía del electrón con tanta atención como la que se ha puesto al leer la del fotón. Esta será nuestra tarea en el capítulo siguiente.



Capítulo 3
La electricidad

Contenido:
Electrones, corriente y tensión
Más allá de la ley de Ohm
Corrientes en gases y en el vacío
Corrientes y magnetismo
Electrones guía
Amplificación de corriente
Un péndulo electrónico

La mayoría de los electrones pasa gran parte de su existencia como satélites del núcleo. Así como la fuerza de la gravedad mantiene a la Tierra dentro del sistema solar, la atracción eléctrica mantiene al electrón en el átomo. No obstante, hemos visto ya que un electrón puede ser separado de su átomo padre y que puede retener su estado independiente durante un período de tiempo apreciable. Para ellos hemos utilizado el vocablo electrón “libre”. Cuando los electrones libres se mueven en forma ordenada, se produce una transferencia grande de carga eléctrica negativa, y esto constituye el flujo de corriente eléctrica.
En este capítulo nos interesa sobre todo saber qué puede hacerse para que los electrones libres se muevan ordenadamente; es decir, cómo generar y manejar las corrientes eléctricas. Comenzaremos explicando algunos términos esenciales y luego estableceremos una distinción general entre tres tipos diferentes de flujos de corriente, según se originen en sólidos, en gases o en el vacío. Estos tres tipos de flujos de corriente son tan vitales para la televisión, como la circulación de la sangre para el cuerpo humano.

Electrones, corriente y tensión
Primero, entonces, ¿cómo expresar cuantitativamente el flujo de corriente? La intensidad de corriente es una medida del régimen con el cual la carga eléctrica pasa por un punto dado. Establecido en forma matemática,

I = Q/t

donde I es el símbolo de la corriente y Q es la carga que pasa por un punto dado en un tiempo t. La unidad normal es el amperio y cuando por un alambre fluye una corriente uniforme de 1 amperio, por una sección transversal del alambre pasan aproximadamente 6·1018 electrones por segundo.


Figura 3. Curva de la energía potencial de un electrón fuera de su átomo padre. A la izquierda hay una superficie metálica con carga positiva que atrae a los electrones libres. Para alejar al electrón de su superficie, desde B hacia A, es necesario aumentar su energía potencial en un valor E1. El trabajo realizado para mover al electrón es la diferencia de potencial eléctrico o “diferencia de tensión”, como comúnmente se la llama.

Aun con la pequeñísima corriente de un millonésimo de amperio, pasan más de un billón de electrones por segundo. En otras palabras, tenemos que acostumbrarnos a pensar en función de un número muy grande de electrones.
Segundo, necesitamos alguna medida de lo que impulsa a los electrones a desplazarse. Esta influencia es la “diferencia de potencial” o “tensión”, que a menudo se describe como “presión eléctrica”. Conviene tener una idea precisa acerca de este concepto fundamental. Los electrones se mueven sólo cuando están sometidos a una fuerza eléctrica no equilibrada. Ya hemos adoptado el término “campo” para describir cómo varía dicha fuerza de un punto a otro en cualquier lugar, por ejemplo, próximo a la superficie de un metal.
La figura 3 es la representación de un campo electrostático y nos servirá para predecir cómo se comportará un electrón. Si se lo deja librado a sus propios medios, el electrón bajará la pendiente de energía hacia la superficie del metal. Al hacerlo así, la energía potencial del sistema disminuirá, digamos, en E1. Y a la inversa, si el electrón tiene que “subir” nuevamente, será necesaria otra fuente de energía para aumentar la energía potencial del sistema en el mismo valor E1. (Compárese con el pozo de energía de la figura 2). Habrá que realizar un trabajo sobre el sistema. La diferencia de potencial eléctrico entre A y B (frase que ahora se explica por sí sola) se define como el trabajo que hay que llevar a cabo para mover una carga unitaria de un punto a otro.
Cuando uno de los puntos, por ejemplo B, tiene energía potencial nula, la palabra “diferencia” desaparece tácitamente y nos referimos sólo al potencial de A. Para que el punto B tenga, en realidad, potencial nulo, tendría que estar a una distancia infinita de todas las cargas eléctricas. Para la mayoría de los fines prácticos, se usa la tierra como cuerpo de referencia (tierra eléctrica) y ya veremos que, a veces, nos resultará más conveniente referir todos los potenciales de un circuito a algún punto cero elegido en forma arbitraria, aun cuando esté a un potencial alto con respecto al de tierra. Esta diferencia de potencial, o caída de tensión, es esencial en un sistema en el cual los electrones se desplazan; implica un trabajo y el trabajo implica una fuerza.
Estamos ahora en condiciones de definir la unidad “electrón-voltio”, introducida ya en páginas anteriores. Esta es una unidad de energía o trabajo; es igual al trabajo necesario para mover un electrón cuando la diferencia de potencial es de un voltio. No es igual al voltio mismo, como podría suponerse, porque (por razones históricas) la “unidad de carga” usada al definir un voltio es diferente y mucho más grande que un electrón.
El tercer concepto preliminar es el de resistencia (figura 4). Ésta es una medida de la oposición ofrecida por el medio al pasaje de los electrones. Está definida cuantitativamente por la famosa ley de Ohm: la corriente I es igual a la tensión V dividida por la resistencia R, o sea,

I = V/R

Desde nuestro punto de vista, su importancia es la siguiente. Si dejamos que fluya corriente por un circuito que incluye un mal conductor, denominado “resistor”, encontraremos que entre los extremos del resistor existe una caída de tensión. Cuando la corriente varía, comprobamos que esta caída de tensión varía proporcionalmente.


Figura 4. Un resistor es un dispositivo que presenta resistencia eléctrica, o fricción, al pasaje de la corriente. Para que la corriente fluya, es necesario aplicar una tensión a los extremos del resistor y, a la inversa, cuando se hace pasar una corriente por un resistor, aparece una tensión en sus extremos.

Su valor n, en cualquier instante, puede calcularse mediante un cambio de disposición en la ley de Ohm, n = iR, donde i es el valor instantáneo de la corriente. Como R es constante, se advierte que n refleja exactamente a i, manteniéndose así todo el tiempo. Esta es una relación muy útil; una de sus aplicaciones es la conversión de la “corriente de imagen”, que sale de la cámara en la correspondiente “tensión de imagen” que puede ser amplificada en forma conveniente y trasmitida por alambres y cables.
El mecanismo de la resistencia varía de un medio a otro pero, en general, se la puede considerar como una clase de fricción eléctrica. Siempre que un electrón con energía cinética pasa cerca de otro cuerpo cargado, como un ion, habrá una interacción y se producirá una pérdida de energía en el proceso. En las muchas repeticiones de dicho proceso, se realiza trabajo para impulsar a los electrones a través del medio. Es decir, a lo largo de la trayectoria de los electrones hay una caída progresiva de tensión.

Más allá de la ley de Ohm
¡Armados con la espada de la tensión y la coraza de la resistencia podemos aventurarnos ahora en el reino del sólido y observar allí el destino de los electrones! Desde el punto de vista eléctrico, los sólidos pueden dividirse en dos categorías generales:Esta distinción es sólo de grado. De los mejores aisladores (como la porcelana y el caucho) en un extremo, pasa, por las sustancias intermedias (como el tejido humano), a los muy buenos conductores (como los metales) en el otro extremo. Lo que hace que un sólido sea mejor conductor que otro es, por supuesto, las diferencias en su configuración electrónica, pero ésta es ahora mucho más complicada que la de un átomo aislado, considerada en el capítulo anterior.
Quizás sería mejor examinar primero qué sucede cuando los átomos aislados se aproximan. A cierta distancia, medida entre sus núcleos, comienza a haber una interacción entre sus dos campos eléctricos.


Figura 5. Cuando dos átomos aislados se aproximan, sus pozos de potencial interactúan, como se ve en el centro del dibujo. Los electrones que ocupan las órbitas dentro del área cuadriculada quedan, entonces, en libertad para moverse entre los átomos, aunque no pueden escapar del sistema que comprende a los dos átomos.

En la figura 5 se ve cómo, si se produce una combinación al formarse una molécula, se destruyen hasta cierto punto las paredes internas de los pozos individuales de energía. Los electrones con niveles de energía dentro de la región sombreada oscura pueden moverse con libertad entre ambos átomos, aunque no pueden escapar del todo del sistema. Se dice que dichos electrones ocupan órbitas “moleculares” y no atómicas.
En un trozo de metal no tenemos sólo dos átomos, sino un número enorme de ellos que inter-actúan mutuamente y están ligados en lo que se denomina una “red”. Existen alrededor de 3·1023 átomos de cobre en un trozo de dicho metal del tamaño de un penique (aproximadamente 1/2 centímetro cúbico).
Por eso, también hay igual número de pozos individuales unidos. Algunos electrones pueden desplazarse en todas direcciones dentro de los límites del sólido y ya no están ligados, en un sentido real, a ningún átomo individual.
Por ello es que estamos justificados al considerar que los átomos de un sólido metálico están ionizados en forma permanente y al decir que contribuyen a un “depósito” común de los llamados “electrones de conducción”. La palabra “depósito” es aquí la apropiada, puesto que, para la mayoría de los fines de la electricidad, podemos olvidar la existencia de los pozos individuales de energía con sus electrones todavía ligados.


Figura 6. Pasaje de una corriente eléctrica de un amperio a través de una barra de cobre que tiene una sección transversal igual a la de un penique. Aunque por cada sección debe pasar un número enorme de electrones por segundo, existen en la barra tantos átomos, que los electrones sólo se desplazan una diminuta fracción de centímetro por segundo. Sin embargo, todos los electrones libres de la barra se mueven al unísono, y la corriente sale de la barra casi en el mismo instante en que entra por el extremo opuesto.

El diagrama de energías se asemeja a un depósito poco profundo, en el cual los electrones de conducción pueden moverse sin restricciones. Es evidente que los electrones no flotan sobre la superficie del metal. Se difunden en el sólido y chocan constantemente con los iones y con los otros electrones.
Cuando se aplica una tensión a los extremos opuestos de un alambre metálico, los electrones de conducción son acelerados hacia los extremos con carga positiva. Se producen, entonces, repetidos choques elásticos con los iones, lo cual retarda el desplazamiento de los electrones. Pero, entre choques consecutivos, vuelven a acelerarse y tiene lugar así una migración total de electrones a lo largo del alambre, es decir, se origina una corriente eléctrica. Es importante señalar que la corriente recorre el alambre con mucha mayor rapidez que los electrones. La velocidad de desplazamiento de los electrones, su movimiento en el alambre, es muy lenta en realidad, aun si se la compara con la de la melaza en un día frío. Para comprenderlo mejor, haremos un cálculo aproximado.
En la figura 6 consideramos una corriente de 1 amperio que pasa por una varilla de cobre, cuya sección transversal es igual a la del penique, unos 3 centímetros cuadrados. Vimos ya que un penique contiene casi 3·1023 átomos. Si cada uno de estos átomos está ionizado, habrá el mismo número de electrones de conducción por penique. Sabemos también que, para una corriente de 1 amperio, deben pasar por segundo 6·1018 electrones por cualquier sección transversal del alambre. Si imaginamos que todos los electrones del penique se mueven como un grupo, la distancia que habrán de recorrer, en proporción al espesor del penique, para lograr el régimen necesario de flujo, es

o sea, 2 cienmilésimos del espesor. Es decir, el desplazamiento de los electrones por segundo es menor que el espesor del papel más delgado.
Pero las señales pueden propagarse con velocidades que se aproximan a la de la luz, o sea 3·108 metros por segundo. ¿Cómo se explica esta discrepancia? La respuesta es que, una vez más, estamos en presencia de una forma de movimiento ondulatorio. Como en todos los movimientos ondulatorios, la velocidad de la onda misma es bastante diferente de la velocidad del movimiento del medio. De manera muy aproximada, podemos suponer un electrón que se mueve por influencia de la tensión y roza a su vecino quien, a su vez, roza a su vecino y lo desplaza sobre el alambre, y así sucesivamente. Así como un rumor puede viajar con mayor rapidez que los individuos que lo difunden, también la energía recorre el alambre más velozmente que los electrones que la intercambian. Lo que se propaga con la velocidad de la luz es el acto de rozarse o, cuando millones de electrones se comportan en forma parecida, una región donde los electrones están más amontonados que lo normal.


Figura 7. Cómo se propaga una corriente eléctrica por un alambre de gran longitud (alrededor de 900 kilómetros de largo). Se aplica una tensión en el extremo izquierdo del alambre durante 1/1000 de segundo, se quita durante el 1/1000 de segundo siguiente y se vuelve a aplicar durante el 1/1000 de segundo que sigue. Al final del primer período (arriba en la figura), la perturbación electrónica ha recorrido la sección A del alambre hasta el punto P1, alrededor de un tercio de la longitud del alambre. Durante el período siguiente (centro), esta perturbación continúa a lo largo de la sección B hasta el punto P2, pero como entonces no se aplica tensión, no hay perturbación en la sección A. Durante el tercer período (abajo), una nueva perturbación pasa por la sección A y la perturbación inicial lo hace por la sección C y alcanza el extremo opuesto del alambre, a la derecha.

También en este caso convendrá razonar en forma cuantitativa. Apliquemos una tensión que varíe como en la figura 7; es decir, se aplica y se interrumpe alternadamente durante un milésimo de segundo por vez. La aplicamos a un alambre de 600 millas o, aproximadamente, 9·105 metros y consideramos las perturbaciones electrónicas resultantes. Al final del primer milésimo de segundo, justo en el momento en que se interrumpe la tensión, el frente de la perturbación habrá recorrido 3·108/1.000, o sea 3·105 metros y habrá alcanzado el punto P1, a un tercio del extremo origen del alambre. Todos los electrones del primer tercio (A) habrán sido alterados, aunque en distinto grado. Entonces, el electrón e habrá alcanzado su desplazamiento máximo; el electrón el habrá completado su desplazamiento y e2 recién lo habrá comenzado, pero no habrá movimiento de electrones ni en A ni en C. La perturbación original no habrá alcanzado todavía a C y, temporalmente, no habrá tensión aplicada que afecte a A. Durante el tercer milésimo de segundo, comenzará una nueva perturbación en la fuente y llegará a P1, como antes. La perturbación original pasará por C y llegará al extremo final del alambre; la sección media no se alterará.
Así es como se propaga la corriente en el alambre.
Una tensión alterna es la que se aplica primero en un sentido y luego en el otro. Esto produce una corriente alterna, en la cual los electrones ya no experimentan una migración total en un sentido, sino que oscilan alrededor de una posición media. Sin embargo, todavía se gasta energía para vencer la resistencia del alambre. El número de inversiones por segundo se denomina frecuencia. La frecuencia del sistema común de la red de alimentación es de 60 ciclos por segundo. La frecuencia de la corriente usada en el Canal 13 de televisión (de los EE. UU.) es de unos 210 megaciclos. Esto significa que el flujo de electrones invierte su sentido 210 millones de ciclos por segundo. Es sólo en virtud de su masa de inercia extremadamente pequeña por lo que los electrones son capaces de realizar tales giros complicados y de cambiar su sentido con esta rapidez casi inconcebible.

Corrientes en gases y en el vacío
En los gases, la situación es todavía más complicada. Ya nos hemos referido a ello cuando hablamos de la emisión de los espectros de línea (páginas anteriores) y lo que sigue es, hasta cierto punto, una repetición de lo dicho allí. Todos los gases son malos conductores a la presión atmosférica. ¿Por qué? En primer lugar, en un gas los átomos o las moléculas generalmente no están ionizados. Por eso, no hay electrones libres y, para producirlos, hay que llevarlos a la altura máxima del pozo de energía, porque los átomos o las moléculas están aislados de sus vecinos. A menos que comencemos calentando el gas hasta temperaturas demasiado altas, la energía necesaria sólo puede ser suministrada por el efecto fotoeléctrico, o por una tensión aplicada a los electrodos dentro del gas. Aun cuando se producen algunos iones y electrones, éstos experimentarán múltiples choques con las moléculas no ionizadas del gas, perderán energía y tenderán a recombinarse antes de alcanzar un electrodo. Para que el flujo de corriente a través del gas sea más fácil, debemos aumentar el campo eléctrico (una función de la tensión y de la forma y distancia de los electrodos) o disminuir el número existente de moléculas del gas. Lo primero acelerará más los iones entre choques sucesivos. Lo segundo reducirá la frecuencia de los choques mismos. Una vez establecida la corriente o la descarga, los iones positivos que llegan al electrodo negativo, o “cátodo”, originan la emisión de electrones de sus átomos superficiales. Éstos, a su vez, van hacia el electrodo positivo, o “ánodo”, junto con los otros electrones provenientes de los átomos del gas. La situación es muy complicada, por lo que pasamos agradecidos al medio ambiente más simple del tubo de vacío.
En el vacío no existe un agente que transporte la corriente, puesto que no hay un medio. Cualquier cuerpo cargado que tenga que pasar de un electrodo a otro tendrá que ser proporcionado por los electrodos mismos. Lo que ya sabemos del átomo no deja dudas acerca de que resultará mucho más fácil hacer que un electrodo de metal emita un electrón y no un ion. Así, en el vacío, como en el metal, son los electrones los que llevan la corriente.
Si nos concentramos ahora en la superficie de un electrodo metálico dentro de un tubo de vacío, vemos que existen tres formas de persuadir a un electrón para que abandone la comodidad y seguridad de su ambiente familiar y se lance al espacio. El primer método consiste en bombardear con fotones (emisión fotoeléctrica). El segundo (emisión de campo) es aplicar un campo muy potente cerca de la superficie, de modo que el electrón no experimente más su fuerza normal de atracción hacia la masa del metal. Esto se puede realizar dando al electrodo una forma determinada (por ejemplo en punta, de manera que el menor número posible de iones atraiga a los electrones expuestos) y aplicando una alta tensión positiva a un ánodo próximo (electrodo positivo). Para liberar electrones por este método es necesario aplicar tensiones más bien altas.
El tercer método consiste en calentar el cátodo. De este modo, aumentando la agitación cinética de los electrones, se origina una emisión “termoeléctrica”, aun sin aplicar un campo eléctrico externo. El proceso es análogo al de la evaporación de las moléculas de la superficie de un líquido. En ausencia de un campo externo aplicado, sobre la superficie del cátodo se acumula rápidamente una nube de electrones. Las cargas negativas de esta nube, que se repelen entre sí, se conocen con el nombre de “carga espacial” y es dicha carga la que impide la salida de más electrones. Esta situación es similar al equilibrio dinámico existente entre las moléculas de un líquido, a uno y otro lado de su superficie. Sólo cuando se aplica una tensión, cargando así al ánodo positivo con relación al cátodo, los electrones de la carga espacial son atraídos hacia el ánodo, permitiendo así que el proceso de escape sea continuo (figura 8). En la figura 9 se ve una relación característica entre flujo de corriente y tensión de ánodo.


Figura 8. Cómo fluye una corriente por una válvula electrónica. Cuando el cátodo se calienta, algunos de sus electrones adquieren la energía necesaria para escapar de su superficie. Forman, entonces, una nube, o carga espacial, que impide el alejamiento de otros electrones. Cuando se aplica una tensión positiva al ánodo, en el otro extremo de la válvula, los electrones libres son atraídos hacia él y esto desplaza parcialmente la carga espacial y permite que salgan del cátodo más electrones. El flujo continuo de electrones desde el cátodo hacia el ánodo constituye la corriente que pasa por la válvula.

Obsérvese que la emisión termoeléctrica sólo producirá corriente continua. Si se aplica en el tubo una tensión alterna durante el instante en que el electrodo que se calienta es el cátodo negativo, se emitirán electrones. Cuando el otro electrodo, que está frío, es el cátodo, no habrá emisión, de manera que el flujo de corriente no puede invertirse.

Corrientes y magnetismo
Hemos completado nuestro estudio acerca del flujo de corriente en tres medios diferentes y concluiremos estos conceptos preliminares examinando dos de los más importantes efectos de la corriente eléctrica: el calor y el magnetismo.


Figura 9. Cómo influye la temperatura sobre la corriente en una válvula electrónica. A la temperatura T1, se da a los electrones dentro del cátodo la energía suficiente para que un número dado escape por segundo, representado por la corriente I1. Las tensiones de ánodo mayores que V no pueden drenar una corriente más grande. A mayores temperaturas, T2 y T3, un número cada vez más grande de electrones pueden escapar y resultan posibles las corrientes I2 e I3, respectivamente. En cada caso, cuando los electrones disponibles que han salido son drenados, un aumento ulterior en la tensión de ánodo no puede originar ya una corriente mayor, como lo indica la meseta plana de cada curva.

El calor es una de las formas en que la energía se disipa como resultado de la resistencia del medio. Hemos visto que cualquier electrón altera el campo eléctrico que rodea a un átomo, o ión, cerca del cual pasa. En el caso más importante, el de un sólido, esto altera la vibración del átomo o ión, lo cual hace que se disipe energía a través del sólido y que éste se caliente aún más. La aplicación principal, en televisión, del efecto térmico de una corriente es calentar los filamentos de las numerosas válvulas electrónicas allí empleadas. (Pero no olvidemos los filamentos incandescentes de las lámparas del estudio.)
El efecto magnético de la corriente ya no se comprende con tanta facilidad. Los hechos son más o menos los siguientes: cuando por un alambre fluye una corriente continua y uniforme, se desvía la aguja de una brújula próxima, como se observa en la figura 10. Esto quiere decir que sobre los dos polos de la aguja actúa una fuerza. Dicha fuerza es de naturaleza magnética. Así como introdujimos la idea del campo gravitacional y del campo eléctrico, podemos representar la intensidad y el sentido de las fuerzas magnéticas alrededor de un alambre, por medio de un campo magnético.


Figura 10. El campo magnético originado por la corriente que pasa por un alambre puede detectarse por la desviación de la aguja de una brújula próxima a él.

Esto está representado en la figura 11, de la cual conviene recordar una característica importante: que la fuerza en cualquier punto dado, digamos P, es perpendicular a la dirección del flujo de la corriente.


Figura 11. Las líneas de fuerza representan la existencia de un campo magnético. La dirección de la fuerza es siempre perpendicular a la corriente que da lugar al campo magnético.

Necesitaremos recurrir a este hecho con frecuencia. Lo llamaremos Ley 1.
Si una carga móvil ejerce una fuerza sobre un polo magnético cercano, ¿será también cierto lo inverso? Nuestro deseo instintivo de simetría en la naturaleza nos obliga a hacer dicha pregunta. Fue Michael Faraday quien, en 1822, confirmó por primera vez que también lo inverso es cierto, demostrando que un imán afecta las cargas móviles próximas. En realidad, hará que se mueva todo el alambre que transporta la corriente. Llamemos a esto ley 2. El lector podrá comprobar por sí mismo que un imán tiene un efecto idéntico sobre un haz de electrones libres en el vacío, si acerca uno al tubo de imagen de su aparato de televisión.
Como ya conocemos la interacción mutua entre un imán y un conductor que transporta corriente, nos podemos preguntar ahora qué sucede cuando se acerca un imán a un conductor que no lleva corriente. La respuesta es que no se produce efecto alguno, sin importar cuán cerca esté el imán, ni si el alambre está arrollado sobre él. No obstante, cuando se “mueve” el imán en las proximidades de una espira cerrada de alambre, se “induce” una corriente. Esta es la Ley 3. La corriente continúa fluyendo en tanto el imán y el alambre siguen moviéndose uno con respecto al otro. Cuanto más rápidamente se mueven, mayor es la corriente inducida.
Ahora bien, como sabemos que una corriente siempre “lleva alrededor de ella” su propio campo magnético, podemos utilizar un segundo alambre (por el que pasa una corriente) para reproducir el campo originado primitivamente por el imán. En la figura 12 está resumida en su forma más simple toda la situación. Cuando el alambre P transporta una corriente uniforme (llamada `primaria”), genera un campo magnético (Ley 1). Si se lo mueve en las cercanías del alambre S, éste queda expuesto a un campo magnético variable y se induce en él una corriente (llamada “secundaria”) (Ley 3).


Figura 12. Corrientes eléctricas inducidas. Una corriente estacionaria en el arrollamiento primario hará inducir una corriente en el arrollamiento secundario sólo si ambos arrollamientos están en movimiento relativo. Este es el principio usado en un generador eléctrico. Si los dos arrollamientos están fijos, como en un transformador, se inducirá una corriente secundaria sólo si la corriente primaria varía. En consecuencia, los trasformadores funcionan con corriente alterna (variable) y no con corriente continua (uniforme).

Si se mantienen fijos los dos alambres, se puede producir el mismo campo magnético variable haciendo pasar una corriente primaria variable (o corriente alterna) en vez de una corriente uniforme primaria. La producción de una corriente eléctrica en un conductor por medio de una corriente en otro se conoce como “inducción mutua”.
Por último, el sentido de la corriente secundaria inducida puede deducirse mediante una ley descubierta por el físico alemán H. F. E. Lenz (1804- 1865). Se puede hacer que la corriente secundaria, como cualquier otra, realice un trabajo. Por eso, habrá que haber realizado un trabajo para inducirla. El agente responsable de la inducción de la corriente secundaria es el que debe soportar ese trabajo.
En consecuencia, la corriente inducida ha de tener un sentido tal, que su campo magnético inhiba y dificulte la acción original que lo produjo. Esta es la Ley 4 y al final de este capítulo la aplicaremos a otro caso más importante de inducción.
Hasta aquí en cuanto a los hechos experimentales del magnetismo resultante del flujo de corriente. Los podemos resumir en términos de electrones. Siempre que los electrones se mueven en forma ordenada, se produce un campo magnético. Ya sea que constituyan un flujo continuo a través de una varilla metálica, o a través del vacío (no es importante la presencia o ausencia de un conductor material), o que los electrones circulen por una bobina de alambre o en órbitas alrededor de un núcleo atómico, en ambos casos se origina el mismo efecto magnético. Las propiedades magnéticas de una barra de hierro son, en realidad, sólo la suma de las de sus átomos constituyentes. En el hierro magnetizado, la mayor parte de las órbitas electrónicas están orientadas en el mismo sentido, de manera que sus efectos se refuerzan. El magnetismo es igualmente importante, tanto si nuestra escala es la de un átomo solo, como si lo es la Tierra toda.

Electrones guía
Veamos ahora cómo usar en la práctica lo aprendido acerca de los electrones.
Tenemos que ser capaces de realizar cierto número de operaciones básicas para poder forjar los eslabones restantes de la cadena de la televisión. En primer lugar, debemos poder enfocar y dirigir un haz de electrones. Ya hemos indicado cómo se utiliza dicho haz para producir una imagen fluorescente en la pantalla del receptor y, en realidad, nos hace falta un haz similar en el tubo de imagen de la cámara, para “descifrar” la información proveniente de la imagen electrónica. Segundo, esta información eléctrica emerge de la cámara en forma de una corriente cuya intensidad varía esporádicamente, representando los picos a los puntos brillantes de la imagen y los valles a los oscuros. Necesitamos también poder amplificar lo que se denomina corriente de la “señal de imagen”, a fin de proteger sus detalles de las perturbaciones fortuitas que tienden a destruirlos. Es más, tendremos que amplificarlas repetidas veces. Amplificar significa multiplicar el flujo de electrones sin cambiar el modelo esencial. Sin ella no serían factibles ni la radiotelefonía, ni la televisión. Tercero, debido a que (por razones que daremos luego) no es posible trasmitir la señal de imagen amplificada en sí misma, se necesita lo que se denomina una corriente portadora, para transportarla. Ésta es simplemente una corriente alterna de frecuencia muy alta, pero hay que saber cómo generarla e imprimir el modelo de la señal de imagen sobre la frecuencia de la portadora. Este proceso, la modulación mencionada en el capítulo 1, es algo así como escribir una carta en un papel en blanco antes de enviarla por correo. Por último, en el extremo receptor tenemos dos problemas más por resolver: el de la sintonización, que asegura que la carta será entregada al destinatario correcto, y el de la detección, es decir, la lectura de las palabras escritas sobre el papel. Esto es lo inverso de la modulación y consiste en desligar la señal de imagen de la frecuencia de la portadora.
Estamos ahora capacitados para resolver todos los problemas de este capítulo preliminar. La modulación y la detección quedarán para el capítulo 5, pero con lo ya estudiado, creemos estar en condiciones de tratar los puntos restantes.
Antes que nada, entonces, ¿cómo se puede enfocar y dirigir un haz de electrones en una válvula electrónica? Es evidente que necesitamos el equivalente de un sistema de lentes como el utilizado para enfocar la luz en un instrumento óptico. Por supuesto, las lentes de vidrio son inútiles; como cualquier otro sólido, detendrían o dispersarían a los electrones, con la consiguiente producción de calor y fluorescencia. Sin embargo, podemos usar lentes “magnéticos” en un “cañón eléctrico” (figura 13). Luego debemos dirigir el haz. En la parte exterior del cuello del tubo de vacío, por ejemplo, el tubo de imagen del receptor, hay una bobina de alambre dividida en dos partes, una arriba y otra abajo (que también se ven en la figura 13). Si por una bobina se hace pasar una corriente, se genera un campo magnético sobre su eje; es decir, a través del cuello del tubo (Ley 1). Un haz de electrones que pase por el cuello, hacia la pantalla de visión, actuará como una corriente eléctrica que atraviesa las líneas de fuerza del campo magnético y, por eso, será desviado (Ley 2).
La dirección de la desviación resulta perpendicular no sólo a la del campo magnético, sino también a aquella que recorren los electrones. En otras palabras, el haz se desviará lateralmente y en un grado que depende de la intensidad de la corriente que pasa por las bobinas deflectoras. Si perpendicularmente al primero colocamos otro par similar de medias bobinas, podemos también desviar el haz hacia arriba y hacia abajo.


Figura 13. Cómo se utiliza el magnetismo en un tubo de imagen de televisión. Un haz de electrones, formado en un cañón electrónico, pasa a través de un campo magnético originado por las bobinas magnéticas situadas a ambos lados del cuello del tubo. Los electrones son forzados así a desplazarse perpendicularmente a las líneas de fuerza y el haz se desvía hacia la pantalla, trazando una línea de la imagen.

Si se regula bien las corrientes en las dos bobinas, es posible combinar ambas desviaciones, de manera que el haz toque cualquier punto de la pantalla, en forma parecida a como se alcanza cualquier posición en un gráfico bidimensional con sólo especificar las coordenadas x e y. Esto, en principio, en lo que se refiere a nuestro primer problema, aunque en el capítulo próximo tendremos que examinar los detalles finos de la explotación de la imagen.

Amplificación de corrientes
Segundo, ¿cómo se amplifica la corriente de imagen (o cualquier otra corriente variable)? También en este caso utilizamos un tubo de vacío, pero su geometría es diferente (se lo denomina válvula de radio), aunque, naturalmente, esto no afecta el principio esencial de su funcionamiento. Como se ve en la figura 14, el cátodo está ahora en el centro y consiste en un cilindro metálico hueco. Su superficie externa está revestida por una capa de óxidos de bario y estroncio, que son muy buenos emisores de electrones.
Se lo calienta en forma indirecta por medio de un alambre de tungsteno que lo atraviesa y del cual está, eléctrica, pero no térmicamente, aislado por una vaina de cerámica. El ánodo es otro cilindro que rodea al cátodo y, como es común, se mantiene a tensión positiva con respecto de este último. A esta diferencia de tensión se la llama tensión de ánodo.
El componente principal del tubo, del cual depende la amplificación, es una hélice de alambre delgado colocada, como se ve, entre los cilindros interno y externo. La hélice se denomina a menudo grilla, y también está a una tensión diferente de la del cátodo. El objeto de la hélice es modificar el flujo de electrones que pasa por ella en su camino del cátodo al ánodo. Como el diámetro de los alambres es pequeño comparado con la distancia entre ellos, los alambres mismos casi no ofrecen obstáculo al flujo electrónico, como se comprueba desconectando la batería de grulla.
Tanto la dificultad, como la facilidad, que la hélice proporcione al flujo de electrones serían consecuencia de la variación de la tensión de grilla. Por ejemplo, si la hélice se hace negativa con respecto del cátodo, es evidente que repelerá a los electrones y tenderá a hacerlos retroceder.


Figura 14. Elementos esenciales de una válvula electrónica (“válvula de radio”). La batería 1 hace positivo al cilindro exterior y, entonces, los electrones liberados por la superficie del cilindro interior, como están cargados negativamente, fluyen hacia el cilindro exterior. Para llegar al cilindro exterior deben pasar a través de una hélice, una bobina de alambre delgado arrollado sobre el cilindro interior. La batería 2 hace que la hélice sea negativa y algunos electrones, que de otro modo llegarían al cilindro interior, son rechazados. Si, en este instante, se conecta una tensión variable entre la hélice y el cilindro interior, aparece una versión amplificada de esta tensión entre el cilindro interior y el exterior. Las líneas quebradas representan resistores (ver fig. 4). Esta acción amplificadora fundamental es la función clave de toda la ciencia electrónica.

Y a la inversa, una hélice con carga positiva tratará de facilitar el flujo electrónico, alejando a los electrones de las regiones superficiales del cátodo, hacia el ánodo. Pero como la grilla está mucho más próxima al cátodo que al ánodo, el efecto de dicha carga será más notable. Es decir, una determinada variación en la tensión de grilla tendrá una influencia mucho mayor sobre el flujo electrónico que una variación similar en la tensión del ánodo. En particular, si se mantiene constante la tensión de ánodo, el flujo electrónico reflejará exactamente cualquier variación en la tensión de grilla. Esta disposición se denomina válvula “tríodo”, porque tiene tres electrodos.
Ahora bien, supongamos que se toma la corriente de imagen que emerge de la cámara y se la hace pasar por un resistor. Por la Ley de Ohm, esto produce una diferencia de tensión entre los extremos del resistor que, por eso, resulta el equivalente de una batería. Además, la tensión se mantiene en fase con la corriente de imagen, a medida que esta última varía de un instante a otro y, a causa de ello, puede llamarse “tensión de imagen”. Si se la aplica entre el cátodo y la hélice de un tríodo, la corriente resultante que pasa por el tubo es otra vez una réplica exacta de la corriente de imagen. ¿Es que sólo hemos hecho una copia poco interesante del original? No… porque la corriente en el tubo, aunque modificada por la tensión de imagen, es suministrada, en primera instancia, por la tensión de ánodo, y es posible aumentar esta última a fin de producir una corriente mucho mayor que la corriente de imagen original. Así, hemos multiplicado el flujo electrónico, aunque retenemos su modelo esencial; en otras palabras, lo hemos amplificado. Una vez más, es solamente debido a la masa muy pequeña del electrón por lo que el tríodo puede seguir todas las variaciones en la intensidad de la señal, producidas con una velocidad casi inconcebible. Puede manejar con facilidad estas variaciones cada cien millonésimo de segundo.

Un péndulo electrónico
Lo dicho hasta aquí, en lo que se refiere a la amplificación. El tercer problema consistía en generar la corriente alterna de alta frecuencia para la producción de ondas de radio.



Lámina I. Las ilustraciones impresas y las imágenes de la televisión están formadas por miles de pequeños puntos, como se ve en la lámina. Esta escena fue tomada en un estudio de televisión en colores de la Columbia Broadcasting System.


Lámina II. El espectro visible (a) y las frecuencias y longitudes de onda asociadas con los diferentes colores. Cuando la luz atraviesa una sustancia como el vidrio, su movimiento se hace más lento. Su frecuencia sigue siendo la misma, pero la longitud de onda disminuye proporcionalmente a la variación de la velocidad. El diagrama (b) indica que la velocidad de la luz c es, en realidad, el número de longitudes de onda que la luz recorre en un segundo, es decir, el producto de la longitud de onda λ por el número de ciclos por segundo f (c = λ f).



Lámina III. Imagen típica de televisión a), sin una línea de exploración. En b) se muestra esa línea y la correspondiente forma de onda de video. Una parte de la forma de onda, que representa la cara del modelo, se repite en c), d) y e) para indicar los defectos llamados manchas, overshoot y ruido.

Por fortuna, tenemos a mano nuestro generador, el tríodo. Sin embargo, examinemos primero con más detalle la naturaleza de las oscilaciones eléctricas e introduzcamos el concepto de que un circuito dado puede tener una “frecuencia natural”, como la de un péndulo. Comencemos con el circuito simple de la figura 15.
Contiene un condensador C, una bobina de alambre L y un interruptor S. Un condensador típico consiste en dos grupos de placas conductoras paralelas, pero separadas por capas de un aislador, ya sea aire o algún sólido adecuado. En todo caso, los electrones no pueden fluir directamente de un grupo de placas al otro. Por eso, lo primero que debe tenerse en cuenta es que por ese condensador no puede fluir una corriente “continua”, aun cuando haya una fuente de tensión apropiada, porque el circuito está interrumpido por las capas aisladoras. Los electrones se acumularían en una de las placas del capacitor hasta que sus cargas negativas repelieran a los que se aproximan por el alambre, y en la otra placa ocurriría lo contrario.


Lámina IV. Cuando las ondas de radio salen de la antena de transmisión y se expanden en el espacio, la energía irradiada en cada instante forma un frente de onda como el de la superficie de una pompa de jabón de tamaño creciente. La onda se debilita rápidamente a medida que recorre el espacio, puesto que la energía se extiende sobre un área cada vez mayor.

La carga máxima Q, que de esta manera puede adquirir un condensador, depende tanto de la tensión de carga V, como de la “capacidad” del condensador C.
Matemáticamente,

Q = C x V

Esta es la ecuación para el capacitor (capacitor es la denominación inglesa actual para el condensador).
Pero si no puede fluir una corriente continua, sí lo puede hacer una corriente alterna. No hay nada que impida la acumulación de electrones, y luego su dispersión, en cada grupo de placas por turno. El efecto de esta migración sería el de reunir los electrones en el alambre y la bobina intermedios, llevándolos de un lado a otro. Este proceso sería una oscilación eléctrica y ocurriría si comenzáramos con las placas del condensador cargadas y luego cerráramos el interruptor S. Por supuesto, existen ciertos factores que tienden a inhibir una actividad social tan intensa. Consideremos cada uno de ellos por separado.
En primer término, está la resistencia del circuito. Aunque en el esquema la resistencia no está indicada específicamente, los alambres y la bobina tienen ambos una resistencia finita.


Figura 15. Cuando se conecta una bobina y un condensador mediante la llave S, fluye una corriente alterna a medida que los electrones se desplazan alternadamente por la bobina desde un grupo de placas del capacitor hasta el otro. La frecuencia de la corriente alterna está determinada por la inductancia L de la bobina y la capacidad C del condensador. Esta es la frecuencia a la cual la reactancia inductiva y la capacitiva son iguales.

Vimos ya que la tensión aplicada en cualquier parte de esta resistencia se mantiene en fase con las fluctuaciones de la corriente de acuerdo con la Ley de Ohm. Por el momento, sin embargo, se puede despreciar la resistencia del circuito, pero es necesario señalar que para vencerla hay que realizar un trabajo y, entonces, la energía se disipa como calor. Esto tiene el efecto de amortiguar las oscilaciones (figura 16), a menos que se introduzca una nueva energía en el circuito desde alguna fuente externa a fin de mantenerlo en funcionamiento.


Figura 16. Cuando se cierra por primera vez la llave del circuito de la fig. 15, la carga acumulada en el condensador hace que la corriente alterna fluya intensamente. Pero, con cada oscilación, se pierde energía en forma de calor, a medida que la corriente pasa por los resistores asociados con la bobina, que conectan el alambre y el condensador. En consecuencia, el tamaño de la oscilación, como se ve aquí, disminuye uniformemente.

En segundo término, está el condensador. Aunque parezca raro, éste también presenta oposición a una corriente oscilante. Se lo puede expresar en función de una magnitud conocida como "reactancia capacitiva", XC, que ocupa un lugar análogo al de la resistencia en una ecuación del tipo de la Ley de Ohm. Luego,

V = XC x I

donde V es la caída de tensión en el condensador e I es la corriente.
Podemos demostrar que

es decir, para un condensador dado, la reactancia es inversamente proporcional a la frecuencia de la oscilación de la corriente. Un condensador presenta mayor oposición a una frecuencia baja que a una frecuencia alta.
En tercer término, está la bobina. Ya hemos examinado el fenómeno de la inductancia “mutua” entre dos bobinas; cómo una corriente variable en una de ellas produce (mediante su campo magnético variable) una tensión variable en la otra. Desde aquí hay pocos pasos hasta la comprensión del fenómeno de la “autoinductancia”. El campo magnético de la bobina primaria atraviesa no sólo la bobina secundaria, sino también la bobina primaria misma. Se produce así una tensión variable en la primaria y en la secundaria; en realidad, se produce aun cuando no haya secundaria. Además, debido a que la tensión inducida siempre se opone al agente que la origina (Ley 4), tenderá aquí a oponerse a la tensión que impulsa a la corriente por la bobina. Por esta razón es que cualquier bobina presenta oposición al pasaje de una corriente oscilante, independientemente de su “resistencia” normal. Esta oposición adicional se denomina “reactancia inductiva” Xl. Por otra parte, V = Xl x I. Se puede demostrar ahora que Xl = 2πfL, donde L es una constante de la bobina comparable a la capacidad de un condensador; o, para una bobina determinada, la reactancia es directamente proporcional a la frecuencia de oscilación de la corriente. Una bobina se opone más a una frecuencia alta que a una baja.
Entonces, se ve que las reactancias de la bobina y del condensador actúan en oposición, porque una aumenta con la frecuencia y la otra disminuye. Pero también están en oposición en otros sentidos.


Figura 17. Cuando se representan las corrientes y las tensiones alternas de un circuito oscilante en función del tiempo, toman la forma de onda conocida como onda senoidal. La corriente que pasa por un condensador siempre está fuera de fase con respecto a la tensión aplicada sobre aquél, puesto que la corriente es nula cuando el condensador está completamente cargado y es máxima justo cuando las cargas son iguales en ambos conjuntos de placas (tensión nula). En una bobina (como se ve abajo en la figura), la tensión autoinducida es máxima cuando la corriente varía con la máxima rapidez; es decir, cuando la corriente pasa por cero, de modo que, también en este caso, la corriente y la tensión no están en fase. Sin embargo, la regulación de tiempo relativa de la corriente y la tensión es justamente la inversa de la del condensador.

Es evidente que existe una diferencia en cuanto a lo que se denomina fase. Esto no es tan alarmante como parece. La figura 17 representa la forma más común de la oscilación de la corriente, la llamada “onda senoidal”.
Tanto la bobina como el condensador se oponen a dicha corriente mediante la generación de una tensión en oposición, cuyas ecuaciones acabamos de establecer.
Aparte de sus valores puramente numéricos es posible demostrar, por ejemplo, que la tensión aplicada al condensador “atrasa” con respecto a la corriente en un cuarto de ciclo. Como un estudiante perverso en una clase de esquí: siempre llega a un lugar distinto que el del instructor. Si tomamos cualquier punto en un ciclo, no nos resultará difícil adivinar por qué. Por ejemplo, en x de la figura 17 a, el flujo de corriente es nulo y está por invertir su sentido. Esto sucede cuando el condensador se ha cargado por completo; se ve, entonces, que la tensión en él es un máximo. En y, la corriente tiene su valor más alto justo cuando las cargas en las placas del condensador se han igualado, de modo que la tensión es nula.
El caso de la bobina es justamente el inverso. La tensión autoinducida “adelanta” en un valor igual con respecto a la corriente (figura 17 b). Si unimos los dos esquemas, se verá que las tensiones del condensador y de la bobina tienden a oponerse entre sí en un sentido bien real. En realidad, cuando son de igual magnitud, se anulan. En estas circunstancias, no habrá en el circuito oposición a la oscilación de la corriente (excepto por parte de la resistencia). ¿Cuándo son iguales sus magnitudes?

y

y serán iguales cuando

O cuando

En consecuencia, para un circuito dado, la corriente tenderá a oscilar a esta frecuencia, llamada frecuencia natural. Esto corresponde al período natural de oscilación de un péndulo y los matemáticos observarán que hasta la forma de la ecuación es análoga.
Debido a la resistencia del aire, el péndulo detendrá gradualmente su oscilación, a menos que algún agente externo lo impulse en forma periódica. De igual modo, la resistencia del circuito amortiguará la oscilación eléctrica, a menos que se introduzca energía desde una fuente externa a fin de remplazar a la disipada. Pero, así como el impulsar el péndulo en el momento equivocado mata la oscilación, las oscilaciones eléctricas se perpetúan mejor introduciendo energía con una frecuencia igual, o próxima, a la frecuencia natural del circuito. Sólo entonces el circuito “resonará”.
Volvamos ahora al problema de la producción de una corriente alterna de cualquier frecuencia requerida. Tenemos que construir un circuito que tenga ésta como su frecuencia natural y luego introducir energía por medio de una fuente adecuada. La fuente, como ya se dijo, puede ser un tríodo. En la figura 18 se puede hacer que a través de la válvula fluya una corriente fluctuante mediante la variación de la tensión de grulla. Esta tensión se denomina tensión de entrada. También podemos sacar una tensión alterna del circuito, utilizando una bobina secundaria o un transformador T, y la llamamos tensión de salida. La tensión de salida puede ser grande o pequeña, según el número de vueltas de la bobina secundaria, pero su frecuencia es siempre igual a la del circuito principal. El único problema es cómo asegurar que la frecuencia de entrada sea igual a la de salida. ¿Por qué no re-alimentar la entrada con la salida? Ello resolvería automáticamente el problema. En la práctica, si disponemos de un transformador elevador, sólo hay que usar una pequeña parte de la salida, quedando el resto como potencia neta de salida.
No se requiere fuente exterior de energías, ni aun para poner en funcionamiento al oscilador, puesto que si se cierra el interruptor de la batería o se produce cualquier variación repentina en las constantes eléctricas del circuito, se origina un impulso de tensión que pronto se convierte en una oscilación estacionaria. Se pueden construir circuitos de este tipo (de diversas formas físicas) que den frecuencias hasta de mil megaciclos y una potencia de muchos miles de vatios.


Figura 18. Cómo se genera una corriente alterna en una válvula electrónica. Las baterías 1 y 2 cumplen las mismas funciones que en la fig. 14. Cualquier tensión de corriente alterna en la bobina inferior del transformador es amplificada por la válvula y aparece como una corriente aumentada en la bobina superior. Esto, a su vez, refuerza la tensión en la bobina inferior y el proceso se repite alrededor del circuito, como un perro que trata de morderse la cola. Si se regula el número de vueltas de las bobinas del transformador o el tamaño de los condensadores, es posible producir una corriente alterna de cualquier frecuencia deseada, hasta unos cientos de millones de ciclos por segundo. La potencia de corriente alterna generada por el circuito aparece en los terminales de la tercera bobina.

Este único ejemplo no agota las posibilidades del circuito oscilante, es sólo el comienzo. Dicho circuito es la base verdadera de la sintonización. Acabamos de explicar un proceso en el cual alimentamos deliberadamente el circuito con una frecuencia única a la cual está diseñado para resonar. Esta es la forma más eficaz de producir oscilaciones, pero no es la única. Si exponemos el circuito a una gran variedad de frecuencias simultáneamente, seleccionará la frecuencia con la cual puede resonar, con la misma discriminación que un gourmet elige los platos en una bandeja de hors d’oeuvres. En el esquema de la figura 19 se ve cómo se introduce energía por inducción mutua en el circuito de sintonización que contiene a la bobina secundaria S, mediante la corriente de antena que llega al primario.


Figura. 19. Cómo se sintoniza un aparato de televisión. La corriente alterna fluye de un lado a otro entre los extremos de la antena, a través de la bobina primaria P. Mediante la acción de un transformador, se induce una corriente similar en la bobina secundaria S, con la cual está conectada en paralelo el condensador C. Si se ajusta el condensador o la bobina, es posible cambiar sus reactancias hasta que, a la frecuencia de la estación deseada, resulten exactamente iguales. La bobina y el condensador forman, entonces, un circuito resonante, y el flujo de corriente es máximo para dicha estación. Otras estaciones, a frecuencias diferentes, producen relativamente poco efecto, de modo que el circuito “sintoniza” la estación deseada y rechaza las otras.

Haciendo variar la bobina o el condensador, se puede regular la resonancia del circuito de manera de adaptarlo a la frecuencia de la onda de radio que se quiere sintonizar.
En este capítulo hemos estudiado los electrones de conducción y la forma en que la presión eléctrica, o tensión, los obliga a moverse ordenadamente con sus electrones vecinos, convirtiéndose así en una corriente eléctrica. Sabemos ya cómo la corriente que fluye por una resistencia eléctrica produce el calentamiento de la resistencia y cómo origina, sobre los extremos de ésta, una tensión que se mantiene en fase con cualquier variación en la corriente. Sabemos también que el flujo de corriente es, en realidad, algo así como “empujar al vecino” o “pasar la pelota” y que los electrones se mueven con mayor lentitud que la melaza en invierno. Hemos vuelto a descubrir la excitante relación existente entre corriente eléctrica y magnetismo y aprendimos nuestras cuatro leyes.
Estas herramientas físicas básicas se utilizan, claro está, en todas las ramas de la ciencia de la electricidad; en este caso, vimos su empleo en la formación y dirección del haz electrónico, en la amplificación de las corrientes de la señal, en la generación de corrientes alternas y en la sintonización o selección de una frecuencia de otra. Ahora estamos listos para volver al fin principal de este libro: cómo desempeña la física básica su papel en la televisión. En el capítulo próximo podremos regresar a las funciones primordiales de la cámara de televisión y del tubo de imagen, por medio de los cuales se transforma la luz (capítulo 2) en electricidad (capítulo 3) y se vuelve a transformar ésta, en luz.



Capítulo 4
De la luz a la electricidad y viceversa

Contenido:
Telefoto y películas
Una cámara electrónica
Una cámara perfeccionada: el orticonoscopio de imágenes
El receptor: brillo y contraste
Sincronización de la cámara y el receptor

La característica más original de la televisión es la conversión casi instantánea de una complicada imagen visual en una corriente eléctrica y viceversa. Aparte de estas dos etapas, el resto del proceso de transmisión es muy parecido (e igualmente sorprendente) al de la ya anticuada radiotelefonía. Son estas etapas finales las que consideraremos con mayor atención en este capítulo.
Quizás casi no valga la pena mencionar, por ser demasiado evidente, que dos corrientes eléctricas se mezclan cuando se las envía por un mismo alambre, igual que dos líquidos dentro de una misma botella. Todos los electrones son idénticos, de manera que si hay dos flujos de electrones que representan corrientes continuas uniformes de 5 y 10 amperios, por ejemplo, emergerán en una sola corriente de 15 amperios. Cuando estudiamos corrientes no uniformes, vimos que las irrupciones o “impulsos” del flujo electrónico son también aditivos. Por ello es que resulta imposible transmitir simultáneamente todos los detalles de una imagen total. Aun cuando tuviéramos un dispositivo para convertir cada área individual de la imagen en un impulso de corriente cuya intensidad concordara con el brillo respectivo, si transmitiéramos todos los impulsos por el alambre en el mismo instante emergerían en un impulso grande. La intensidad del impulso sería, entonces, proporcional a la luz total que incide sobre la imagen completa. Naturalmente, podríamos, en teoría, transmitir cada impulso por su propio alambre privado, y también es posible diseñar circuitos eléctricos complicados que transmitan varias corrientes en forma simultánea (algo parecido a como se envía por el aire, al mismo tiempo, más de un programa de radio). Pero el costo y la complejidad de una u otra solución son tan grandes, que no resultan prácticas para la televisión.

Telefoto y películas
Por otra parte, si mandamos por el alambre un impulso tras otro, emergen por el otro extremo en la misma sucesión, manteniendo cada uno su individualidad. Por consiguiente, sería muy posible enviar información sobre el brillo de cada pequeña área de la imagen por separado, y luego juntarlas todas en el extremo receptor. Se verá en seguida que esta idea está íntimamente relacionada con la “exploración”, mencionada al final del capítulo 2. En realidad, la transmisión eléctrica de imágenes por exploración fue inventada antes de la Guerra Civil y se convirtió en un sistema práctico cuando, en 1924, se enviaron fotografías por radio de Londres a Nueva York.
En el sistema de telefotos, la imagen que se va a transmitir está arrollada sobre un tambor giratorio. Cuando el tambor gira, se enfoca sobre él un delgado haz de luz, de modo que se mueva lentamente sobre el eje del tambor. De esta manera, el haz “explora” en espiral toda la superficie de la imagen. En cualquier instante, la luz reflejada desde el tambor es proporcional al brillo de esa parte de la imagen. Luego esa luz reflejada incide sobre una célula fotoeléctrica, que la convierte en tensión de imagen.
En el extremo receptor, la tensión de imagen acciona lo que se conoce como válvula moduladora. Esta es, en esencia, un simple diodo que contiene un gas, por lo general helio o neón, a baja presión. Una tensión pequeña ioniza algunos de los átomos del gas y excita a otros, haciendo que el gas presente luminosidad. El brillo de la luminosidad difiere mucho con variaciones pequeñas en la tensión aplicada y el tubo vuelve a transformar la tensión de imagen en luz fluctuante. Se enfoca esta luz como un punto diminuto sobre una película fotográfica, envuelta sobre un tambor giratorio semejante al del transmisor. Si los dos tambores están bien sincronizados, el punto luminoso explora la película, la expone y reproduce la imagen original. La velocidad del proceso es tal, que llegaría a pasar a una paloma mensajera, aunque quizás no a un avión de reacción. Pero, en todo caso, es demasiado lenta para la televisión.
A fin de que pueda transmitirse una imagen móvil continua, todo el proceso de exploración debe quedar completado durante el intervalo de persistencia de la visión humana. Ya vimos en el capítulo 2 que esto significa menos de un décimo de segundo. Las películas se proyectan con una velocidad de veinticuatro imágenes completas por segundo. En la práctica, resulta más conveniente en televisión explorar la imagen con una velocidad algo mayor, treinta veces por segundo. Dicha velocidad está relacionada con la frecuencia de 60 ciclos del sistema de potencia eléctrica, hecho que posibilita ciertas simplificaciones en el diseño del receptor, reduciendo así su costo.
La analogía con las películas no es completa, sin embargo. En el cine se proyectan veinticuatro imágenes una después de otra, con períodos intermedios de oscuridad para permitir el encuadre siguiente de la película. En televisión, el proceso de exploración es continuo. En el instante en que el explorador ha llegado al ángulo inferior derecho de la imagen, el resto ya se ha alterado. Asimismo, para reducir aún más la fluctuación, se emplea lo que se conoce como exploración entrelazada. El haz de exploración explora cada dos líneas y transmite media imagen cada 1/60 de segundo. Luego vuelve a cubrir las líneas intermedias y completa la otra mitad de la imagen, explorándose ambas mitades en 1/30 de segundo.
El número total de puntos de la imagen que hay que explorar es, como vimos antes (capítulo 2), impresionante. El límite de resolución del ojo humano necesita un mínimo de unas 400 líneas horizontales y un número correspondiente de divisiones verticales. Los diferentes países utilizan un número distinto de líneas en sus sistemas de televisión. Las cifras son: 525 líneas para los Estados Unidos y toda Norteamérica, 405 para Inglaterra, 625 en la mayor parte de Europa occidental y Rusia, y hasta 819 para Francia y Bélgica.
Nos detendremos por un momento en el sistema de 525 líneas. Una vez que se ha tenido en cuenta el hecho de que algunas líneas quedan escondidas detrás del marco de la pantalla y también que algunos detalles de la imagen quedan entre dos líneas, una subdivisión vertical razonable de la imagen sería de 350 puntos. Si se considera la forma rectangular de la imagen, necesitamos 460 puntos sobre cada línea horizontal para obtener el mismo grado de “resolución” de la imagen, tanto horizontal como verticalmente (esta resolución es suficiente para poder ver a distancias mayores que un metro y medio, aunque inadecuada para la distancia de lectura). Una multiplicación simple nos da que el número total de puntos de la imagen sobre todas las líneas es de 525 x 460, o sea unos 240.000. Si podemos explorar la imagen treinta veces por segundo, el número de puntos de la imagen explorados en ese tiempo será de 30 x 240.000, o sea 7,2 millones. Esta es la impresionante velocidad a la cual el sistema de transmisión debe transportar los impulsos de la corriente. Durante un programa de televisión de una hora, nuestros ojos están expuestos a varios billones de variaciones en la intensidad de la luz.
Se sabe que, en virtud de la masa pequeña de los electrones, los circuitos electrónicos pueden manejar con facilidad un número tan grande de variaciones rápidas. Pero ahora se comprenderá la causa por la cual los primeros intentos de exploración mecánica por medio de discos giratorios estaban condenados al fracaso cuando se trató de producir una imagen con un detalle aceptable. Solamente los electrones son lo bastante veloces para componérselas con esa situación, y la televisión comercial tuvo que esperar hasta la invención del explorador electrónico.

Una cámara electrónica
El problema de la transmisión de imágenes se divide por sí mismo en tres partes. Primero (en la cámara), tenemos que conocer con exactitud la forma en que los electrones liberados desde un punto pueden ser registrados como una tensión de imagen. Y a la inversa (en el receptor), tenemos que examinar cómo se hace para que la tensión de imagen controle la intensidad de la fluorescencia en un punto determinado de la pantalla. Tercero (en la cámara y en el receptor), los exploradores deben seguir su tortuosa trayectoria sobre la superficie de la imagen, manteniéndose en fase entre sí y en todo instante.
Al registrar eléctricamente el brillo de la imagen en la cámara, la primera etapa es dejar que la luz incida en la superficie fotosensible (emisor fotoeléctrico) o “fotocátodo”. Se liberan así electrones, que pueden acumularse en un ánodo próximo con carga positiva. El flujo de electrones liberados constituye una corriente proporcional a la intensidad de la luz que incide sobre la superficie fotosensible. Si hacemos pasar la corriente electrónica por un resistor, se puede crear una caída de tensión en sus terminales. Esta tensión es proporcional a la intensidad de la corriente y nos da la tensión de imagen necesaria. Sin embargo, dicha tensión es sólo una medida del número total de fotoelectrones emitidos, es decir, el total del número de fotones que llegan al cátodo desde toda la imagen.


Figura 20. Iconoscopio de Zworykin, primer tubo de cámara de televisión. La escena televisada se enfoca sobre una placa de mica plana, cubierta por diminutas gotas de un compuesto fotosensible de cesio y plata. Este compuesto emite fotoelectrones y se forma una imagen eléctrica. El haz de electrones que sale del tubo explora la imagen eléctrica y, a medida que pasa por cada gota, restablece su equilibrio eléctrico. La variación en la carga así producida en cada gota induce una corriente en el revestimiento metálico (“placa de señales”) sobre la parte posterior de la mica y esta “corriente de imagen” cambiante pone de manifiesto las luces y sombras de cada línea de la imagen.

De aquí sólo se puede llegar a la intensidad media de la luz sobre la imagen completa. Pero a nosotros nos interesa la medición de intensidades diferentes para cada punto de la imagen. Por lo tanto, es necesario inventar algún método para aislar cada punto de sus vecinos. Esta separación se logra con la formación de diminutas gotas del compuesto fotosensible de plata-cesio sobre una placa plana de mica, no conductora.
Concentrémonos ahora en esa gotita: un punto de la imagen. Podemos tratar de manipular los foto-electrones emitidos por ella o aprovechar el hecho de que dentro de cada gotita quedará un número correspondiente de átomos del metal, ionizados positivamente. Ambas ideas parecen promisorias: la segunda fue la empleada en la construcción del primer tipo de cámara electrónica, el “iconoscopio” de V. K. Zworykin.
En teoría, podríamos concebir un alambre separado para cada gotita y por cada uno podrían fluir los electrones para volver a convertir los iones del cesio y de la plata en átomos. Pero el diminuto tamaño de esas gotas hace imposible tal cosa en la práctica.
No obstante, si las hacemos converger a todas en un mismo alambre, volvemos al lugar desde donde partimos, pero sólo con una corriente de imagen total. Esta dificultad, en apariencia insalvable, se supera mediante el dispositivo de la figura 20. El lado posterior del dieléctrico de mica tiene un delgado revestimiento metálico, llamado placa de señales. Por eso, en realidad cada gotita resulta la placa de un condensador muy pequeño, siendo la otra placa, la placa de señales, común a todas. Cuando la gotita elegida emite fotoelectrones, queda ionizado un número correspondiente de átomos. Esto induce una carga negativa proporcional en la placa de señales. Pero todavía no hemos aclarado el problema, porque todas las otras gotitas hacen lo mismo, de modo que la carga total en la placa de señales común será la suma de las cargas inducidas individuales y, de nuevo, sólo nos dará una medida de la intensidad media de la luz.
Supongamos que estas condiciones permanecen constantes durante 1/30 de segundo, el intervalo de tiempo elegido para una exploración completa de la imagen. Si pudiéramos desarrollar algún método para descargar los átomos ionizados en nuestra gotita, disminuiríamos en el mismo valor la carga inducida en la placa de señales. Pasando a la gotita siguiente, descargaríamos sus iones y disminuiríamos en un valor igual la carga de la placa de señales. En consecuencia, durante todo el 1/30 de segundo, la carga inducida en la placa de señales disminuiría mediante una serie de etapas (figura 21 a)
Además, como la placa de señales está expuesta todo el tiempo a una iluminación constante, los puntos descargados que quedan excitados en cada línea explorada se vuelven a cargar con un régimen constante.


Figura 21. Existen dos métodos para hacer variar la carga eléctrica inducida en la placa de señales del iconoscopio: mediante la descarga sucesiva de las gotitas, a medida que son exploradas por el haz electrónico, y por la carga continua de todas las gotitas debido a la luz que incide sobre ellas desde la escena. En A se ve el efecto de la descarga; en B se indica la suma de ambos efectos. Esto último muestra que la carga en la placa de señales varía alrededor de un valor medio y los apartamientos del valor medio representan las luces y sombras exploradas sucesivamente en cada línea de la imagen.

Esto hace que la carga total de la placa de señales varíe alrededor de un valor medio (figura 21 b). La descarga de los puntos se lleva a cabo bombardeándolos con un delgado haz de electrones proveniente de un cañón electrónico, dispuesto como en la figura 20.


Figura 22. La corriente de imagen tiene dos clases de variaciones: una es la variación rápida de un punto a otro, que representa los detalles finos de la imagen, indicada en A. La otra es una variación mucho más lenta, que representa los cambios en el brillo total de la imagen, indicados por un mayor brillo gradual de la imagen completa, como se aprecia en B. La variación rápida se produce en un millonésimo de segundo o menos; la variación lenta puede durar varios segundos. Por eso, al trasmitir la corriente de imagen, debemos usar circuitos que funcionen rápida o lentamente, con la misma facilidad.

El haz explora una línea y pasa sobre los puntos en rápida sucesión, luego vuelve y pasa por la línea siguiente, y así sucesivamente. Si se conecta la placa de señales con el circuito por medio de un resistor, se tendrá sobre él una tensión semejante a la de la figura 21 b. Si pasamos al 1/30 de segundo siguiente y suponemos que el nivel general de la iluminación ha cambiado y tiene un nuevo valor, obtendremos las mismas variaciones rápidas de un punto a otro durante la repetición del proceso de exploración, pero dichas variaciones estarán alrededor de un nuevo valor medio (figura 22).
Por supuesto, la iluminación general no varía por etapas de esta manera repentina, pero sí es cierto que, en general, la tensión de imagen experimenta dos tipos distintos de variaciones: primero, una fluctuación lenta que depende de cambios más importantes en el fondo total o iluminación media de la imagen que se televisa; y segundo, fluctuaciones mucho más rápidas por exploraciones sucesivas de los puntos.


Figura 23. El orticonoscopio de imágenes, tubo de cámara de televisión usado en casi todos los estudios y en exteriores. Para comprender su funcionamiento es necesario seguir los números. Este notable dispositivo electrónico es uno de los mecanismos ópticos más sensibles que se conocen en la ciencia.

En resumen, veremos que, para “sincronizar” la acción exploradora del haz de electrones en el tubo de cámara y en el de imagen, será necesario vencer aún un tercer tipo de fluctuaciones en la tensión de imagen, los llamados impulsos de sincronismo. Pospondremos para el capítulo siguiente los detalles de la separación o la eliminación selectiva de estas tres componentes diferentes.

Una cámara perfeccionada: el orticonoscopio de imágenes
Mientras tanto, podemos ver otro tipo de cámara de televisión que, por lo general, es superior al iconoscopio y funciona según un principio algo distinto. El iconoscopio tiene dos inconvenientes serios: primero, el haz proveniente del cañón de exploración produce la dispersión de los electrones sobrantes, que hasta aquí hemos ignorado; éstos caen sobre otras gotitas y chocan con otros electrones de átomos no ionizados.
Como no importa saber cómo salen los electrones de las gotitas fotosensibles, sino cuántos salen, estos electrones extra emitidos, además de los expulsados por fotoemisión, hacen que en el sistema de televisión entre una información errónea y distorsione el brillo de la imagen. Segundo, la sensibilidad a la luz del iconoscopio es tan pobre, que los actores tienen que trabajar bajo el calor y resplandor intensos causados por la alta potencia de las lámparas del estudio.


Figura 24. Aventuras electrónicas en un orticonoscopio de imágenes: a) Los rayos de luz que entran liberan fotoelectrones de la superficie fotosensible. b) Los electrones chocan con el blanco de vidrio. c) En el blanco, cada electrón que entra hace que varios otros electrones “secundarios” abandonen el blanco, aumentando así la carga positiva en cada punto de aquél e intensificando la imagen eléctrica. d) Otros electrones del cañón exploran el lado posterior del blanco, analizando la imagen eléctrica línea por línea. Parte de los electrones del haz retoman al llegar al blanco; el número que vuelve depende de la carga positiva que encuentran en cada punto de la imagen eléctrica. El haz de retorno es la corriente de imagen.

El tubo de cámara que supera ambas desventajas es el “orticonoscopio de imágenes”, que en la actualidad es un equipo normal en televisión, excepto cuando se trata de televisar películas cinematográficas (figuras 23 y 24).
Veamos cómo se comportan los fotoelectrones en el orticonoscopio de imágenes. Como antes, la luz incide sobre un fotocátodo, pero éste es semitransparente. El compuesto de cesio-plata cubre su superficie interna, de modo que los electrones son emitidos desde la fuente de luz hacia el centro de la cámara. Los electrones libres tienden a salir de un metal perpendicularmente a su superficie. Por consiguiente, la corriente de electrones que sale del foto-cátodo mantiene el modelo de la imagen a medida que recorre el espacio. De igual manera que, en una carrera de postas, un corredor toma el lugar de otro, así los electrones suplantan temporalmente en la conducción de la imagen, a los fotones que los emitieron.
El cambio siguiente ocurre cuando los fotoelectrones que escapan son interceptados por el “blanco”, una lámina muy delgada de vidrio, aproximadamente de 2,5 micrones de espesor (lo cual significa que son necesarias unas cincuenta para formar una lámina del espesor de esta página). Cuando los fotoelectrones chocan con el vidrio, expulsan a otros electrones —los “electrones secundarios”— de los átomos del vidrio. Debido a que los fotoelectrones han sido acelerados por una tensión externa durante su recorrido hacia el blanco de vidrio, cada uno llega con la energía suficiente para expulsar no sólo a uno, sino a varios de los electrones secundarios. En esta forma, se multiplica la cantidad de electrones utilizables (que en el lenguaje fotográfico corresponde al aumento de la “sensibilidad de la película” del tubo de cámara hasta 1.000 ASA o más). Una vez cumplida su misión, se aleja a los electrones secundarios mediante una grilla de malla muy fina, cuya pequeña carga es positiva con relación a la del vidrio.
Podemos ya olvidar estos electrones secundarios y concentrarnos en la “imagen jónica” que han dejado grabada en el vidrio. Como éste es muy delgado, la imagen cargada pasa a través de él por conducción eléctrica y, por eso, queda en la parte posterior del blanco. Es algo así como la imagen formada sobre las gotitas de cesio del fotocátodo del iconoscopio, y se la mantiene del mismo modo, debido a que el vidrio es un buen aislador. Un haz proveniente de un cañón electrónico situado en el lado más alejado del blanco, en la parte de atrás del tubo de cámara, explora la imagen como en el iconoscopio. Desde aquí, todo es diferente de lo que ocurre en este último. En el tubo del orticonoscopio de imágenes, el haz electrónico es lento. Un campo electrostático retarda el flujo de electrones del cañón a medida que se aproximan al vidrio de manera que, cuando no se televisa imagen alguna, no llegan a él. El mismo campo los acelera, entonces, hacia el cañón, pero un ánodo los intercepta y los recoge.
Sin embargo, cuando se televisa una imagen, aquellos puntos del blanco de vidrio que han quedado con carga positiva capturan a los electrones del haz de exploración cuando pasan sobre ellos. Las partes “oscuras” de la imagen, sin carga positiva, no lo hacen. Por eso, la imagen iónica del blanco, que el haz del cañón ha explorado, alterará o modulará continuamente la intensidad del haz cuando vuelve al ánodo, y la corriente variable acumulada por el ánodo proporcionará la señal de imagen en la forma usual. A diferencia del iconoscopio, no comprende el principio de un condensador. Los electrones del haz desionizan los átomos del blanco de vidrio, que quedan listos para admitir una nueva imagen de carga positiva. Ésta, como antes, captura electrones durante el siguiente recorrido del haz de exploración.


Figura 25. Cañón electrónico usado en un tubo de imagen. El número de electrones que pasan por el orificio A está determinado por la tensión de imagen. Todos los electrones que pasan son enfocados, de modo que llegan a un lugar de la pantalla donde producen un punto luminoso.

El receptor: brillo y contraste
Hasta aquí hemos hablado de la cámara, ahora pasaremos al receptor. ¿Cómo se vuelve a crear un punto luminoso de brillo apropiado mediante la información de la tensión de imagen?
Además de la tensión de imagen, la grilla recibe una tensión negativa, regulable, adicional, llamada `tensión de polarización”.


Figura 26. En el cañón electrónico del tubo de imagen se aplican dos tensiones. La tensión de imagen que representa el contenido de la imagen se superpone, como se ve arriba, sobre una tensión de polarización uniforme suministrada por el control de brillo del receptor. Ajustando la tensión de polarización se establece el brillo total de la pantalla de visión.

En el capítulo anterior examinamos la función del cañón electrónico y en el precedente vimos que, en el receptor, los termoelectrones provenientes del cañón producen la fluorescencia. La intensidad de la luz fluorescente emitida por la pantalla es proporcional al número de electrones que la bombardean; por lo tanto, cualquiera que sea el lugar en que se desee un punto brillante sobre la imagen, hacemos -que el haz sea más intenso cuando explora ese punto. En consecuencia, es necesario que la tensión de imagen module la intensidad del haz electrónico. La intensidad depende de la diferencia de tensión entre cátodo y ánodo, pero es más sensible aún a la que existe entre cátodo y grilla, como en el caso del tríodo. Por ello, la mejor manera de modular la intensidad del haz electrónico es aplicar la tensión de imagen directamente a una abertura de control, justo frente al cátodo térmico, antes de que el haz pase por los ánodos cilíndricos, que actúan también como lentes de enfoque (figura 25).
Su objeto es el siguiente: la polarización actúa como un estrangulador o una válvula que controla el haz y que se abre o se cierra por medio del control de “brillo” en la parte frontal del aparato. En un aparato común, una tensión de polarización negativa de unos 60 voltios es suficiente para repeler todos los termoelectrones y volverlos a enviar al cátodo, es decir, cerrar la válvula por completo. La pantalla queda, entonces, enteramente oscura.


Figura 27. Exploración en el tubo de imagen. El haz electrónico se desvía rápidamente de un lado a otro y con más lentitud de arriba hacia abajo, de modo que cubre la pantalla formando líneas paralelas. A medida que el haz se mueve sobre cada línea, el cañón electrónico hace variar su intensidad (fig. 25) de acuerdo con la tensión de imagen.

Si se mueve el control de brillo hacia la izquierda, se aumenta la polarización regulable hasta un grado tal, que ni aun los picos de la tensión de video superpuesta (figura 26) llegan a impulsar a los electrones a través de la válvula, y la pantalla se ilumina. Y a la inversa, si se mueve la perilla hacia la derecha, se disminuye la polarización hasta que por la válvula pasan tantos electrones, que todos los puntos de la pantalla quedan brillantes, aun cuando la tensión de imagen trate de menguar la intensidad. Así, el control de brillo, debido a la polarización negativa de grilla, influye sobre el brillo total de la imagen completa. Si el control de brillo está en un punto intermedio, las variaciones en la tensión de imagen hacen que el brillo de los puntos de la imagen varíe alrededor del valor medio fijado por el control.
Pero también nos interesa el control de “contraste” de la intensidad. Esto significa aumentar la diferencia entre los máximos positivo y negativo de la señal de imagen, amplificándola. La perilla para el contraste está unida a un tubo amplificador, a través del cual pasa la señal de imagen antes de alcanzar el tubo de imagen. En las figuras 27 y 28 está representado el funcionamiento del tubo de imagen.
Por último, diremos que el material fluorescente de la pantalla del blanco debe ser tal, que no emita luz durante más de 1/60 de segundo después de que los electrones del cañón inciden sobre sus átomos; de lo contrario, emitirá luz aun cuando se lo vuelva a explorar y esto puede llegar a manchar la imagen.


Figura 28. La transformación final de energía en el sistema de televisión, desde la electricidad hasta la luz, se produce en la cara interior del vidrio del tubo de imagen. Aquí, el haz electrónico choca con el fósforo, lo cual transforma la energía cinética en energía radiante visible. A medida que el haz se desplaza, produce los trazos de luz y sombra de la imagen, una línea por vez.

Sincronización de la cámara y el receptor
El tercer y último problema que debemos resolver en este capítulo es cómo hacer que el haz de electrones de la cámara y del receptor efectúen sus complicadas trayectorias de exploración y las realicen a un tiempo. Ya hemos visto, en principio, cómo pueden ser desviados dichos haces por un campo magnético aplicado en el cuello del tubo. A continuación aparece la dificultad de cómo proporcional a las bobinas deflectoras las corrientes variables apropiadas.
Supongamos que el haz incide primero en el ángulo superior izquierdo de la imagen. Tenemos que darle dos desviaciones separadas. La primera lo llevará a través de la imagen de izquierda a derecha, explorando así una línea, y luego saltará rápidamente hacia atrás. Superpuesta sobre ésta, una segunda desviación, mucho más lenta, lo llevará hasta la parte inferior de la imagen y luego saltará a la parte superior. La combinación de los recorridos será como en la figura 27. Ambas desviaciones responden al mismo modelo general y, trazadas en función del tiempo, aparecen como se ve en la figura 29.


Figura 29. La corriente que pasa por las bobinas de-flectoras magnéticas debe variar en la forma de “dientes de sierra” aquí indicada. El aumento uniforme de la corriente, señalado con A, hace que el haz electrónico se mueva con velocidad constante sobre la pantalla. La disminución más rápida, señalada con B, hace que el haz vuelva a su punto de partida con la mayor rapidez posible.

Como la desviación es proporcional a la corriente en las bobinas deflectoras, ésta es también la forma de la corriente adecuada. Para comprender cómo se obtiene esta corriente en “dientes de sierra” se requiere una pequeña explicación.
En primer lugar, sabemos que las bobinas deflectoras poseen la propiedad de la autoinductancia, capítulo 3, puesto que las líneas de fuerza magnéticas unen las espiras de las bobinas. La autoinducción origina una tensión en la bobina, la cual se opone a la tensión aplicada, y dicha oposición es tanto más potente cuanto más rápidamente se trata de aumentar la corriente en la bobina. En consecuencia, prescindiendo de la rapidez con que se aumenta la tensión aplicada en la bobina deflectora, la corriente aumenta con mayor lentitud.


Figura 30. Una válvula electrónica, que actúa como una llave rápida que conecta repentinamente las bobinas a una fuente de tensión, hace que las ondas de corriente en dientes de sierra (fig. 29) pasen por las bobinas deflectoras. Como las bobinas tienen autoinductancia, las ondas de la tensión y la corriente adoptan las formas bien diferentes aquí indicadas.

Para producir una corriente en dientes de sierra que aumente uniformemente en un sentido y luego disminuya con rapidez en el sentido opuesto, debemos aplicar dos impulsos muy bruscos de tensión en los respectivos sentidos. En la figura 30 está representada dicha condición. Al comienzo del movimiento de exploración de izquierda a derecha, aparece un aumento repentino, casi instantáneo, de tensión (indicado en A) y de ahí en adelante la tensión permanece constante durante el movimiento de exploración. La corriente originada por esta tensión crece de manera uniforme. Al final de la línea de exploración, se aplica una tensión repentina (indicada en B) en sentido inverso. Este impulso es mucho más grande que el de A y, por lo tanto, hace que la corriente disminuya con mucha velocidad, desviando el haz de derecha a izquierda hacia el punto de partida. A fin de que los movimientos se realicen a la velocidad requerida (el haz tarda unos 60 millonésimos de segundo para ir de izquierda a derecha y 5 millonésimos de segundo para retroceder), los impulsos de tensión total de las bobinas deben llegar a un valor de varios miles de voltios.
Los impulsos repentinos de tensión son producidos por una válvula electrónica (la válvula deflectora horizontal), que actúa como un interruptor de acción rápida; conecta bruscamente las bobinas de-flectoras a la fuente de corriente continua del receptor en el tiempo A y luego las desconecta en el tiempo B (figura 30). Diremos también que los impulsos de tensión sobre las bobinas deflectoras tienen una función adicional: pasan por un transformador elevador y después por un diodo “rectificador” que los convierte en corriente continua, a 15.00020.000 voltios. Se aplica, entonces, esta tensión al tubo de imagen, donde el haz electrónico que va del cañón a la pantalla es acelerado.
Un proceso similar origina la corriente en dientes de sierra en el otro par de bobinas deflectoras para el movimiento ascendente y descendente del haz. En este caso, sin embargo, el movimiento es mucho más lento (unos 15.000 millonésimos de segundo para el movimiento descendente y 1.500 para el ascendente). Es suficiente un impulso de tensión tan pequeño y menos brusco. De hecho, la onda de tensión concuerda más con la onda de corriente necesaria, como se ve en la figura 30. Esto significa que las bobinas para el ascenso y el descenso tienen menos autoinductancia y más resistencia que las bobinas para el movimiento lateral.
Aunque ya hemos presentado los dispositivos necesarios para que el haz de exploración siga el recorrido correcto, todavía hay dos detalles esenciales que debemos aclarar. Primero, es evidente que, aun cuando el haz se mueve con muchísima velocidad cuando pasa del final de una línea de exploración al comienzo de la siguiente, esta parte de su trayectoria, conocida como retorno o retratado, no tiene que producir luz visible. Es decir, el cañón no debe funcionar durante ese período; de lo contrario, se perturbaría la imagen. Para lograrlo, se superpone mediante el transmisor un “impulso de oscurecimiento o borrado” sobre la tensión de imagen, al final de cada línea horizontal, es decir, a una frecuencia de 15.750. Cuando la tensión de imagen llega a la grilla del tubo de imagen, debe estar en su fase positiva, de manera que los máximos de la tensión aumenten el flujo de electrones después de la grilla y la imagen resulte más brillante. Cada vez que llega un impulso de oscurecimiento, representa una depresión profunda en la fase positiva (figura 31) y cierra completamente la válvula de la grilla, impidiendo así la llegada de luz a la pantalla durante el retroceso.


Figura 31. Tensión de imagen que representa tres líneas de exploración sucesivas. Entre las líneas, una depresión profunda A borra el haz mientras efectúa el re-trazado para comenzar la línea siguiente. Durante esa parte de la onda, también se agrega un impulso de sincronismo adicional. Este impulso hace que el haz de exploración comience su retorno en el tiempo correcto.

Superpuesto al impulso de oscurecimiento está el impulso de sincronismo (figura 31); se lo extrae de la tensión de imagen mediante una válvula conocida como válvula de corte (clipper) y se aplica al circuito que, en última instancia, genera la corriente deflectora en dientes de sierra. El haz de exploración está obligado así a pasar al comienzo de otra línea en el instante apropiado, prescindiendo de si está adelantado, atrasado o a horario. De este modo, el explorador del receptor tiene que tocar la línea que sigue el explorador de la cámara. Se borra el retroceso vertical del haz de exploración y se sincroniza en igual forma. Los impulsos verticales aparecen al final de cada 262,5 líneas (para la exploración entrelazada) y se desentrelazan y aplican como antes.
En la práctica, las señales espurias no deben influir fácilmente en la sincronización, posibilidad sobre la que hasta ahora no hemos insistido, pero que volverá a aparecer en toda su importancia en el capítulo próximo. Cualquier perturbación eléctrica, un aumento brusco en la tensión de la señal, suplantaría la tarea del impulso de sincronismo. En dicho caso, el haz de exploración saltaría antes de tiempo hacia el lado izquierdo de la pantalla, rasgando así parte de la imagen. Por ello es que se han diseñado circuitos más complicados que controlan automáticamente la frecuencia del oscilador horizontal en dientes de sierra por los impulsos de sincronismo. La sincronización, por supuesto, se regula por medio de las perillas que, en algunos aparatos, se denominan de “sincronismo horizontal” y de “sincronismo vertical”.
Ya están preparadas nuestra cámara y nuestra imagen, por lo menos en lo que a las imágenes en blanco y negro se refiere. Estamos en condiciones de producir una tensión de imagen que reproduzca con fidelidad las luces y sombras detalladas de la complicada escena que se va a televisar. Sabemos que dicha tensión debe llevar impulsos de sincronismo y de borrado para controlar los mecanismos de exploración vertical y horizontal. Es posible diseñar un tubo de imagen que responda sensible y fielmente a los estímulos de la señal que entra. Todo lo necesario ahora es transportar la señal de imagen desde el estudio hasta nuestro hogar. Este es sólo un ejemplo de la transferencia de energía; en el capítulo siguiente trataremos otra vez de reducirlo a un problema de electrones, fotones y ondas.



Capítulo 5
Desde el estudio de televisión hasta nuestro hogar

Contenido:
Manchas “overshoot” y nieve
La señal en el sistema
La onda transmitida
Cómo se recibe la onda
Modulación y desmodulación
Dentro del aparato de televisión

En su casi increíble viaje desde la cámara de televisión hasta la pantalla, la señal de imagen ha de cumplir las condiciones expuestas en el capítulo 1 para cualquier sistema de comunicación satisfactorio. El lector recordará que dichas condiciones están relacionadas con las nociones de velocidad, exactitud, distorsión y potencia. En este capítulo aplicaremos el mismo criterio a las ondas de radio y estudiaremos los medios por los cuales pueden cumplir todos los requisitos o, quizá, sería mejor decir que las auxiliaremos a fin de que no se malogren.
Primero, resulta evidente que es la cámara la que establece la “velocidad” y “exactitud” de las comunicaciones en televisión. La cámara explora la imagen total 30 veces por segundo; explora cada línea en unos 50 millonésimos de segundo y percibe hasta 7 millones de cambios en la intensidad de la luz, por segundo. A ese ritmo formidable, se ingenia para dividir cada imagen en unos 200.000 puntos y con la exactitud suficiente como para situar cada punto en su posición adecuada entre decenas de miles de otros y especificar el brillo dentro de un pequeño porcentaje de su valor original en la imagen del estudio.
La calidad de la imagen que se ve en los hogares nunca puede ser mejor que la formada en la cámara que la exploró. Pero, a menos que se la proteja con todo cuidado durante su viaje, puede llegar a ser mucho peor. Es aquí donde aparece la “distorsión” y la “potencia”. Hay que salvaguardar la señal de imagen de la distorsión y mantenerla con la potencia necesaria para superar, en cada etapa del recorrido, cualquier interferencia con el contenido de la imagen.
Si examinamos gráficamente (lámina III) la onda de la señal de imagen que la cámara genera, podremos hacer que estas generalidades resulten más específicas. Hemos elegido aquí una línea característica de una imagen típica y trasladado sus valores de la luz a los valores correspondientes de la corriente, representados en función del tiempo. También hemos representado los impulsos de borrado y de sincronismo. Este gráfico se denomina “forma de onda de video”. En él incluimos las partes esenciales de la imagen que se va a reproducir en nuestro hogar; la tarea del sistema de televisión consiste en entregar al tubo de imagen, con la mayor fidelidad posible, una corriente eléctrica que tenga esa forma de onda.

Manchas “overshoot” y nieve
La lámina III muestra algunos de los reveses que pueden sufrir las formas de onda de video durante su viaje. El primero (lámina III b) es una forma de distorsión conocida como imagen manchada, que afecta las pendientes más pronunciadas de la onda; antes de que la onda haya alcanzado el tubo de imagen, esa inclinación desaparece. Ahora bien, esa empinada pendiente puede representar un límite agudo entre una encantadora morocha vestida de negro y su fondo más claro. Con la distorsión, el límite reproducido es relativamente indistinto, la imagen aparece borroneada. Las manchas aparecen siempre que los amplificadores (o cualquier otra parte del sistema de transmisión) no funcionan lo bastante rápido como para seguir las pendientes empinadas que genera la cámara. Otra forma de distorsión, conocida como overshoot, aparece cuando los amplificadores no funcionan con la rapidez necesaria. Entonces, en su ansiedad por seguir dicha pendiente, el amplificador puede persistir aún después de terminada la pendiente original: se recupera un poco tarde. Estas variaciones en la forma de la onda (lámina III b) crean límites demasiado definidos en la imagen reproducida: contornos que no existen en la imagen original. El lector podrá, probablemente, producir deformaciones, tales como imágenes manchadas y overshoot en su aparato de televisión si mueve el control de sintonía fina a un lado u otro de la posición en la que se obtiene la recepción mejor. Los obstáculos principales que pueden presentarse durante el recorrido de la forma de onda de video están constituidos por la presencia de “corrientes parásitas”. En la lámina III d se ve qué sucede cuando la señal de imagen resulta demasiado débil para vencer ese obstáculo. Dichas corrientes, conocidas con el nombre de “ruido” (palabra adoptada de la reproducción del sonido), son originadas por la danza desorbitada de los electrones individuales que se mueven debido a fuerzas térmicas (capítulo 3). Son muy pequeñas, del orden de un mil millonésimo de amperio, pero producen perturbaciones, pues son completamente fortuitas y tienden a oscurecer, o por lo menos a atenuar, la corriente de imagen detallada y ordenada que deseamos transmitir.
En este instante es donde el criterio de la potencia resulta importante. Cuando enviamos una corriente de imagen a través de un alambre, o una onda de radio por el aire, la señal se debilita a medida que sigue su recorrido. Si dejamos que la señal vaya demasiado lejos sin amplificarla, la corriente de imagen se reduce entonces a unos mil millonésimos de amperio. Por lo tanto, la forma de onda de la imagen se mezcla (lámina III d) de manera intrincada con las formas de onda de igual potencia de las corrientes parásitas.
El resultado pictórico de esa perturbación es lo que se denomina “nieve”, diminutas motas, algunas brillantes y otras oscuras, que oscurecen los detalles finos de la imagen. Y, por desgracia, en esta etapa del proceso no es posible hacer nada. El mido se ha introducido en la imagen y, como las corrientes de interferencia son completamente casuales, no existe ningún medio sistemático para eliminarlas. La mayoría de los televidentes está demasiado familiarizada con las deformaciones ocasionadas por ruidos. Cuando tratamos de sintonizar una estación situada a cien o ciento cincuenta kilómetros, la señal se ha debilitado tanto al llegar a nuestra antena, que predomina el ruido. O, si se ha desconectado el alambre de entrada de la antena, hasta la onda proveniente de una estación cercana, se debilita demasiado para poder luchar con el ruido generado dentro de los circuitos mismos del receptor. El lector puede tratar de desconectar la antena de su aparato para verificarlo. Las motitas en la pantalla son una muestra directa del movimiento desordenado de los electrones en los circuitos del receptor.
En consecuencia, es evidente que, si tenemos que evitar las interferencias originadas por ruidos, debemos hacer que la corriente de imagen y la onda de radio sean potentes. Y el único modo de conseguirlo es mediante la introducción de amplificadores a intervalos regulares sobre la trayectoria de los circuitos y redes, desde el estudio hasta el transmisor. Los amplificadores, que periódicamente rejuvenecen la señal, tienen que mantener su potencia eléctrica en un nivel mil veces superior, por lo menos, al de las corrientes de ruido.
Una vez que el transmisor ha propagado la onda de radio al espacio, no podemos emplear más amplificadores: hemos perdido el control. Por consiguiente, el transmisor debe ser muy potente y la antena transmisora tiene que estar en una torre muy alta, o en la cima de una colina, si queremos que la onda de radio evite los obstáculos. Y en lo que se refiere al extremo receptor, si deseamos recibir imágenes de estaciones distantes, la antena receptora tiene que estar lo más alta posible y el receptor debe estar diseñado de manera de poder mantener sus corrientes internas de ruido dentro de límites restringidos. Con estas precauciones, el ruido sigue siendo la Némesis de la señal. Limita el alcance al cual podemos percibirla; y la retribución que exige de la onda de la señal es terminante: ya dentro de la imagen, la nieve no puede ser desalojada.

La señal en el sistema
Veamos ahora el sistema de televisión más simple, aquél en el cual no se emplean ondas de radio.
La figura 32 representa sus componentes esenciales. La cámara y el generador de sincronismo, vistos en el capítulo precedente, producen la señal de imagen, incluyendo (figura 31) los impulsos de borrado y de sincronismo. La señal de imagen se desplaza a lo largo de un cable hasta el receptor. Durante su viaje, el movimiento ordenado de los electrones de la corriente de la señal se debilita gradualmente a medida que los electrones chocan con los iones del metal de los alambres que constituyen el cable. Si éste mide más de 1.500 a 3.000 metros, tiene que haber amplificadores que compensen el proceso de debilitamiento y mantengan la intensidad de la señal por encima del nivel de ruido. En estas condiciones, la señal llegará al extremo del cable en un estado razonable de conservación, no contaminada por ruidos notables y, esperemos, libre de manchas y de overshoot.
En el extremo receptor del cable, la señal de, imagen se divide en dos partes que transportan, respectivamente, la información de imagen y la de sincronismo. Observamos en la lámina III a que estos dos tipos de información se producen a cada lado del nivel de borrado de la onda, la información de sincronismo abajo y la información de imagen arriba. Si se hace pasar la señal por una forma especial de amplificador (amplificador separador de sincronismo), que responde solamente a las partes de la señal que están por debajo del nivel de borrado, separamos la información de sincronismo de la de imagen. Los impulsos de sincronismo separados se usan, entonces, para el control de los generadores de desviación, los cuales pasan las corrientes de desviación por bobinas colocadas en el cuello del tubo de imagen. En esta forma, la posición del haz electrónico se tiene que desplazar por la pantalla en fase con el haz de la cámara.


Figura 32. Representación esquemática de los elementos de un sistema de televisión simple de circuito cerrado, en el cual no se utilizan ondas de radio.

Como vimos en el capítulo anterior, se aplica la señal de imagen al cañón electrónico, con lo cual se controla la corriente en el haz electrónico, de manera que la luz originada en la pantalla varía de un punto a otro sobre cada línea de exploración. Primero la señal de imagen es amplificada para aumentar su tensión total hasta unos 60 voltios. Así aumentada, la tensión de imagen es capaz de variar la intensidad del haz desde la potencia máxima hasta la oscuridad, es decir, desde el brillo máximo de la pantalla hasta la oscuridad.
Cuando el haz electrónico está controlado, en cuanto a la dirección, por corrientes de desviación correctamente reguladas y, en cuanto a la corriente, por la señal de imagen, el tubo de imagen produce sobre su pantalla el modelo de imagen deseado de luz y sombra. Si la sincronización es la correcta y la señal de imagen ha estado bien protegida de la distorsión y el ruido, la imagen será una copia aceptable de la escena enfocada en el tubo de cámara. Pero si no se cumplen dichas condiciones, la imagen puede estar tan atenuada, que poco disfrutaremos con ella. Por ejemplo, si la sincronización vertical no es buena, la imagen parecerá “rodar” hacia arriba o hacia abajo. Para evitarlo, se ajustan los circuitos de desviación vertical mediante una perilla, el control de sincronismo vertical. Si la desviación horizontal no está bien sincronizada, la imagen se divide en barras dentadas paralelas; esto se controla por medio del botón de sincronismo horizontal. Por último, la tensión total de la señal de imagen aplicada al tubo de imagen puede ser demasiado grande o demasiado pequeña. Si es demasiado grande, las zonas iluminadas de la imagen serán demasiado brillantes y los grises oscuros parecerán negros. Si la tensión es demasiado pequeña, todos los tonos de la imagen `son grises y la imagen parece “lavada”. Para corregirlo, existe un “control de contraste”. Este dispositivo varía la amplificación de la señal de imagen y permite al espectador regular los matices entre el negro y el blanco. Dichas funciones de los circuitos y los controles son comunes a todos los tubos de imagen, cualquiera que sea el lugar en que se los use: en un monitor en el estudio de televisión, en la unidad reproductora de un sistema de TV de circuito cerrado o en un receptor hogareño.

La onda transmitida
Hemos examinado las funciones de este sistema de televisión no irradiada; tenemos que emprender ahora la parte más misteriosa del viaje, desde el estudio al hogar, el paso de la señal por el espacio. Ya hemos insinuado en el capítulo 3 que, al hacer pasar una corriente alterna muy rápida por la antena transmisora, se genera un flujo uniforme de ondas de radio. Sabemos cómo generar dicha corriente en un oscilador con válvulas electrónicas y también que la corriente en la antena es, en realidad, una irrupción ascendente y descendente de electrones a través del conductor metálico de la antena misma. Pero, ¿de qué manera produce esa corriente una onda de radio? y ¿qué es una onda de radio?
Dijimos que ondas de radio y ondas luminosas son la misma cosa, excepto que la longitud de la onda de radio es enormemente mayor que la de la luz. ¿Significa esto que las ondas de radio son, en realidad, fotones de onda muy larga? Esta es, por cierto, una forma de considerarlas. Pero debemos tener cuidado al comparar ondas de radio con emisión de fotones, estudiada en el capítulo 2. En una antena de radio existen millones de trillones de electrones libres que se mueven al unísono. Como estos electrones no están ligados a átomos, su energía no está fija en niveles especificados o cuantificados. En consecuencia, la energía irradiada por una antena puede tener frecuencias mucho menores que las que son propias de los saltos cuánticos de los electrones ligados. De hecho, la frecuencia de la energía irradiada es la frecuencia de una corriente alterna enviada por la antena.
A fin de comprender mejor la producción de las ondas de radio nos conviene más volver al axioma de la física clásica dado en el capítulo 2: siempre que se acelera o se frena un electrón libre, se emite radiación. Al principio, antes de que el transmisor comience a funcionar, los electrones libres de la antena no presentan un movimiento ordenado. Aplicamos la potencia y comienza el primer ciclo de la corriente alterna de alta frecuencia. Los electrones son impelidos, entonces, en un sentido, digamos hacia la derecha. Al impartirles este movimiento ordenado, el transmisor acelera a los electrones desde el reposo hasta una velocidad definida. Una fracción de segundo después (menor que un centésimo de millonésimo de segundo para una onda de 100 megaciclos), la presión eléctrica proveniente del transmisor invierte su sentido y los electrones van hacia la izquierda. Durante el proceso de inversión de su movimiento, los electrones tienen que reducir su velocidad hasta llegar a la detención y luego acelerar otra vez en sentido opuesto. Por lo tanto, para cada ciclo de la corriente de la antena, hay dos aceleraciones y disminuciones de velocidad de los electrones libres y una correspondiente emisión de tensiones electromagnéticas que se liberan alternadamente hacia el espacio. Cada par de tensiones alternas es una onda de radio simple, completa, que sale como energía radiante, dejando lugar para el flujo interminable de todas las otras.
También se puede considerar todo esto de otro modo. Vimos en el capítulo 3 que la corriente de una bobina de alambre origina líneas de fuerza magnéticas que unen las vueltas de la bobina y que un campo magnético variable induce una corriente en aquélla. Cuando hacemos pasar una corriente alterna por la bobina, las variaciones en la corriente crean un campo magnético variable y éste, a su vez, induce una corriente que se opone a la corriente original. Comprobamos, entonces, que una bobina, aun cuando tenga una resistencia eléctrica despreciable, se opondrá al flujo de una corriente alterna. Esta oposición se denomina reactancia inductiva.
Sucede lo mismo cuando se hace pasar una corriente alterna por la antena transmisora, excepto una diferencia importante. El campo magnético que inmediatamente rodea a la antena induce una corriente opuesta. Pero el campo magnético formado en puntos más alejados de la antena, a distancias mayores que unas pocas longitudes de onda de la onda de radio, no puede inducir una corriente en oposición. En cambio, la energía de este campo remoto se separa para siempre del sistema de la antena y fluye por el del espacio. Algo similar ocurre en el campo eléctrico que rodea a la antena. La energía del campo eléctrico de puntos cercanos vuelve a entrar en la antena, produciendo el efecto descrito (página 74, capítulo 3) como reactancia capacitiva, mientras que la energía de puntos más remotos se aleja y fluye hacia el espacio.
Si insistimos, podemos llegar a simplificar aún más la situación, diciendo que los campos magnético y eléctrico necesitan cierto tiempo para establecerse en esos puntos remotos y para que sus energías vuelvan a entrar en la antena. Mientras la energía llega al punto remoto y retorna, la corriente de alta frecuencia de la antena invierte su sentido, las corrientes inducidas ya no están en oposición y el efecto de la reactancia inductiva y capacitiva no puede producirse. Más bien, el efecto es como el de una resistencia, y esta resistencia representa un elemento en el cual se disipa energía, la energía de la onda de radio saliente.
Estos curiosos efectos pueden predecirse matemáticamente mediante las ecuaciones básicas (formuladas primero por Maxwell) que describen la presencia conjunta de los campos eléctrico y magnético; se admite que resultan muy difíciles de comprender en términos del modelo físico. Es suficiente decir que, cuando se hace pasar por una antena una corriente alterna de frecuencia apropiada, parece que encontrara una resistencia que no puede ser explicada por los choques electrónicos y iónicos dentro ele la antena misma. Esta resistencia consume energía que no aparece como calor en la antena; aparece en el espacio como energía de las ondas de radio. En realidad, en una antena bien diseñada, la resistencia común del choque electrón-ión es muy pequeña y casi toda la potencia del transmisor entra directamente en la producción de la onda de radio.
Cualquiera que sea el mecanismo de generación de la onda de radio, se puede aceptar que dicha onda existe, porque sus efectos pueden ser medidos, es posible recogerlos en una antena receptora a gran distancia. Consideremos ahora qué pasa con la onda cuando atraviesa el espacio desde el transmisor hasta el receptor. Cuando la energía proveniente de la antena fluye hacia el espacio, cubre un volumen cada vez mayor. Podemos visualizar una onda simple como la mitad de una pompa de jabón (lámina IV) de tamaño creciente. Cerca del transmisor, el área de la superficie de la pompa es pequeña y la energía dentro de cada metro cuadrado de su superficie es grande. A distancias mayores, la energía se extiende sobre un área mucho más grande y la contenida en cada metro cuadrado es correspondientemente más pequeña.


Figura 33. La curvatura de la Tierra en el horizonte constituye el obstáculo fundamental para las ondas de televisión. La antena transmisora y la receptora tienen que estar ubicadas lo más alto posible a fin de permitir la recepción a larga distancia.

Como la superficie de la pompa aumenta con el cuadrado de su radio, la energía por metro cuadrado disminuye (en virtud de la “dilución” geométrica) con el cuadrado de la distancia a la antena transmisora. En realidad, la eficacia de la energía de la onda disminuye con más rapidez aún, porque parte de la onda toca la superficie de la Tierra y es reflejada con un “cambio de polaridad”. (El cambio de polaridad podría ser explicado como una inversión del sentido normal de las tensiones electromagnéticas.) Cuando esta onda reflejada llega a la antena receptora, tiende, en cierto modo, a oponerse a la onda que se transmite directamente y sólo la diferencia entre las dos ondas es capaz de generar una corriente en la antena receptora. En esta forma, aun cuando la trayectoria entre el transmisor y el receptor esté abierta y sin obstáculos, la onda se debilita mucho con recorrer solamente unas pocas decenas de kilómetros.
Si la onda encuentra un obstáculo grande, como un edificio alto o una colina, se debilita aún más. La obstrucción fundamental es la tierra misma, como se puede ver en la figura 33. Si subimos a la torre del transmisor y miramos a nuestro alrededor, la línea de visión queda interceptada, en última instancia, por el horizonte terrestre. El horizonte, para las ondas de radio, está algo más distante que para la luz, puesto que la trayectoria de esas on das de radio está levemente curvada, debido a la densidad gradual de la atmósfera con el aumento de la altura. Pero éste es sólo un detalle. Más allá del “horizonte radial”, las ondas son interceptadas y solamente pasa una fracción pequeñísima de su energía.
Vemos ahora por qué es tan importante colocar nuestra antena receptora lo más alto posible. Si entre las dos antenas hay una línea clara de “visión radial”, la onda que se reciba será bastante potente, pero si se interpone el limbo (término astronómico para designar el borde exterior de un cuerpo celeste) de la tierra curva, la onda podrá ser apresada por su peor enemigo, el ruido.

Cómo se recibe la onda
Examinaremos a continuación la fase final del recorrido radial, la intercepción de la onda de radio por la antena receptora. Esto, como ya se podrá haber adivinado, es una simple cuestión de inducción, la generación de una corriente en la antena mediante el campo eléctrico y el magnético de la onda. En la figura 34 se dan algunos detalles de interés. La antena transmisora, de acuerdo con las normas utilizadas en los Estados Unidos de Norteamérica, es un conductor “horizontal”. En consecuencia, las líneas de fuerza eléctricas que produce son horizontales y las líneas magnéticas (que siempre son perpendiculares a la corriente que las origina) son verticales. Los dos campos mantienen esta alineación en todo su recorrido. En realidad, la superficie de nuestra pompa de jabón, conocida como frente de onda, está marcada por líneas de fuerzas eléctricas y magnéticas en esas direcciones, como se ve en la figura.


Figura 34. Las líneas de fuerza magnéticas y eléctricas en el frente de onda radial inducen la corriente de la señal en la antena receptora. Puede considerarse que la onda se aproxima desde el ángulo derecho inferior.

Cuando el frente de onda encuentra a la antena receptora, las líneas de fuerza inducen en ella una corriente. Para que el efecto sea máximo, la antena tiene que ser horizontal porque, entonces, las líneas de fuerza eléctricas horizontales inducen un potencial entre los extremos de la antena, y las líneas magnéticas verticales originan una corriente en aquélla. Si tuviéramos que colocar el conductor de la antena en posición vertical, las condiciones para la inducción de las corrientes no serían las correctas. Las líneas magnéticas coincidirían con el conductor y las líneas eléctricas ejercerían su fuerza transversalmente y, por consiguiente, no habría corriente. Si su aparato de TV está equipado con una antena de aletas, el lector podrá verificar lo que afirmamos haciendo que las aletas señalen hacia arriba y hacia abajo. La recepción de la señal se debilita así mucho.
La inducción de corrientes por los campos de la onda no es de ningún modo privativa de las antenas receptoras. Lo mismo sucede todas las veces que la onda encuentra un obstáculo, siempre que en el material obstructor haya electrones libres, con la libertad necesaria para moverse debido a las fuerzas ejercidas por dichos campos. Este es el proceso mediante el cual la energía de la onda es disipada por la tierra en el horizonte, o por cualquier otro objeto de masa grande. La energía que se extrae de la onda aparece en forma de calor, pero el efecto se extiende sobre tantos kilómetros cuadrados, que no hay termómetro lo bastante sensible como para medirlo.
Tenemos, entonces, en la antena receptora una corriente mucho más débil, pero sustancialmente idéntica, que la corriente de la antena transmisora. Dicho de otro modo, hemos llenado el espacio con una corriente de señal que retiene toda la información proporcionada por el transmisor. La corriente de la antena llega al hogar por el conductor de entrada y entra al receptor. Allí experimenta muchas transformaciones (resumidas al final de este capítulo) que la separan, mediante la sintonización, de las señales de otras estaciones, que la amplifican y hacen cambiar de forma hasta adquirir la adecuada para el control de la corriente de desviación y del cañón del tubo de imagen.

Modulación y desmodulación
Como última etapa para la mejor comprensión de la parte “en el aire” del viaje de la señal, tendremos que ver el proceso de la modulación, mediante el cual la corriente de las ondas de radio transporta la información de imagen; y el de la desmodulación, por el cual, por así decirlo, se desmonta la información. A fin de comprender la modulación, es necesario volver al circuito del oscilador con válvulas electrónicas (figura 18, capítulo 3). Este produce una corriente alterna de frecuencia muy alta que pasa por la antena transmisora y mantiene la salida de la corriente de ondas. Si funciona sólo con sus dispositivos, el oscilador origina alternaciones de tamaño invariable, como en la figura 35 a. Para la televisión, la frecuencia está dentro del alcance general de 100 millones de ciclos por segundo. La triquiñuela de la modulación consiste en variar el tamaño, o “amplitud”, de la corriente de alternaciones de alta frecuencia de un instante al otro, de acuerdo con las altercaciones mucho más lentas (unos pocos millones de ciclos por segundo) de la forma de onda de video. Esto se logra haciendo que el oscilador con válvulas electrónicas cumpla una doble función.
Recordemos que el oscilador funciona tomando una parte pequeña de su potencia de salida y realimentando con ella su potencia de entrada. La válvula amplifica esta etapa de realimentación y la porción aumentada aparece otra vez en el circuito de salida. El oscilador, diríamos así, “persigue su cola” y la amplitud de las oscilaciones depende de la amplificación que da la válvula. Si se hace variar la amplificación, se varía el tamaño de las oscilaciones. Se puede cambiar la amplitud, variando la tensión de grulla. Luego, si sumamos la tensión de onda de video a la de la batería de grilla (figura 35 b), hacemos que la función amplificadora de la válvula aumente y disminuya, con los consiguientes repliegues de la onda de video. Entonces, las oscilaciones de la salida se asemejan a las de la figura 35 c, y se comprueba que la corriente de la onda de radio transporta la forma de onda de video. El resultado se denomina “modulación de amplitud” (literalmente, modificación de amplitud).
Cuando la corriente modulada pasa por la antena transmisora, se modula de igual manera la intensidad de los campos eléctrico y magnético irradiados y se preserva dicha modulación durante todo el recorrido hasta la antena receptora. Por último, cuando se induce en la antena una corriente de alta frecuencia, se retienen las modulaciones.
En consecuencia, no sólo hemos cubierto el espacio con la onda de radio, sino que, mediante la modulación, hemos transportado la información de imagen y de sincronismo de la forma de onda de video a través de ese espacio. La modulación se mantiene durante el proceso de sintonización y amplificación del receptor. Pero, en ese instante, el proceso de modulación debe ser desmontado y recobrada la onda de video original. Este proceso, que es el inverso del proceso de modulación, se denomina desmodulación (o “detección”, según una denominación más antigua no muy descriptiva, puesto que no se detecta nada). La desmodulación está representada en la figura 36.
La parte esencial es una válvula electrónica de dos elementos, que solamente deja pasar corriente en un sentido (capítulo 3).


Figura 35. Modulación de amplitud. Si dejamos librado a sus propios medios al oscilador con válvula electrónica, origina alternaciones de alta frecuencia de tamaño constante, como en a). Pero si se insertan variaciones más lentas de la tensión de imagen en el circuito de grilla, se puede cambiar la amplitud de las ondas, como se advierte en b). Se consigue así que la onda de radio transporte la señal de imagen.

Cuando aplicamos a este dispositivo alternaciones moduladas de alta frecuencia, la corriente fluye sólo durante la mitad de cada ciclo, la mitad que hace que el ánodo sea positivo con respecto al cátodo (como el ánodo no es un emisor de electrones, no puede fluir corriente en sentido inverso cuándo los otros medios ciclos hacen positivo al cátodo).
Los medios ciclos de corriente pasan a través de la válvula a una resistencia, sobre la cual desarrollan medios ciclos de tensión. Conectado en paralelo a la resistencia hay un capacitor y los medios ciclos de tensión cargan el capacitor. Cuando dichos medios ciclos aumentan su amplitud (como en A, figura 36 c), aumenta también la tensión en el capacitor; cuando disminuyen de tamaño (en B), la tensión en el capacitor se hace más pequeña. Por lo tanto, el capacitor desarrolla sobre sí mismo una tensión, que solamente sigue a las variaciones de amplitud de las alternaciones de alta frecuencia, pero que no responde a las alternaciones individuales. El tamaño del capacitor debe ser tal, que resulte lo bastante grande como para que no pueda seguir las alternaciones muy rápidas de la corriente de la onda de radio, pero lo bastante pequeño como para seguir las variaciones mucho más lentas en la forma de onda de video. En realidad, el capacitor toma el promedio de los medios ciclos de alta frecuencia y este promedio es, precisamente, lo que buscamos, la forma de onda de video original.


Figura 36. La desmodulación es el proceso de separación de la corriente de imagen y la onda de radio en el receptor. La válvula electrónica, a), de dos electrodos, lleva corriente en un sentido solamente, y saca así la mitad de cada alternación de alta frecuencia, como se ve en b). Los valores de la resistencia y de la capacidad conectadas a la válvula son demasiado grandes para seguir las variaciones de la alta frecuencia. Toman el valor medio de los medios ciclos sucesivos, recuperando así la tensión de imagen, como en c).

Hemos completado, por fin, el viaje a través del espacio, comenzando con la modulación de la forma de onda de video sobre una corriente de alta frecuencia en el transmisor, la radiación de la onda de alta frecuencia modulada, su intercepción por la antena receptora y, por último, después 4 la amplificación, la desmodulación en forma de onda de video. Cuando se agregan estas etapas al sistema de televisión por cable, considerado al principio de este capítulo, las partes del sistema de televisión que conocemos y sabemos usar ya están equipadas para transmitir programas a través del país (¡pero no más allá del horizonte!).

Dentro del aparato de televisión
El capítulo concluirá con un examen más detallado de las funciones de un receptor de televisión. El esquema de la figura 37 representa las secciones principales. La primera sección es la de sintonización, controlada por la perilla selectora de canales y el control de sintonía fina. La corriente proveniente de la antena pasa primero a un amplificador con válvula electrónica, una parte del sintonizador, conocido como amplificador de radiofrecuencia. Asociado con su circuito de entrada hay cierto número de bobinas, una de las cuales se pone en posición para cada canal. La inductancia de cada bobina resuena con su propia autocapacitancia a la frecuencia del canal para el que está diseñada. Para el canal de frecuencia más baja, Canal 2 (54 a 60 megaciclos[1] se requiere una bobina relativamente grande y para el Canal 13 (210 a 216 megaciclos) es necesaria una mucho más pequeña. El control de sintonía fina regula un pequeño capacitor variable auxiliar, de modo que la frecuencia de resonancia de la combinación bobina y capacitor está centrada con toda precisión en la frecuencia del canal que se desea.
Del amplificador de radiofrecuencia, la corriente modulada de alta frecuencia pasa a una válvula electrónica que cambia las frecuencias, conocida como mezclador superheterodino. El objeto del cambiador de frecuencias es convertir las frecuencias del canal que se sintoniza, las cuales varían desde 54 hasta 216 megaciclos, según sea el canal elegido, a un “orden fijo” de frecuencias, entre 41 y 47 megaciclos.


Figura 37. Elementos básicos de un receptor de televisión.

Como las frecuencias de todos los canales se convierten a ese orden, los amplificadores siguientes no necesitan ajuste para diferentes órdenes de frecuencia. Sin este requisito, dichos amplificadores pueden llegar a ser muy eficientes. Tres o cuatro de tales amplificadores de “frecuencia intermedia” siguen uno tras otro al cambiador de frecuencias. Esto hace que la señal modulada de alta frecuencia sea lo bastante potente como para accionar el desmodulador.
En este momento, recuperamos la forma de onda de video y la hacemos recorrer dos trayectorias. La primera va al amplificador de video, ya mencionado en este capítulo, que aumenta la tensión de la onda hasta unos 60 voltios, bastante alta como para controlar el cañón electrónico del tubo de imagen. En este punto, el control de contraste regula la amplificación. El otro camino conduce al amplificador separador de sincronismo, que separa los impulsos de sincronismo horizontales y verticales de la onda de video, estos, a su vez, son conducidos a los respectivos generadores de corrientes de desviación, donde controlan la regulación de tiempo del proceso de exploración. Los controles de “sincronismo” asociados con cada generador de desviación sirven para que la desviación se produzca en fase con la señal que entra. El control del brillo, conectado al cañón electrónico, regula la corriente media en el haz electrónico y establece así el brillo total de la imagen. Las secciones restantes del receptor constituyen la parte de sonido (audio) de la señal. El sonido se trata por medio de un circuito separado en el transmisor, a una frecuencia diferente de la onda de imagen, pero tanto la onda de imagen, como la de sonido, se transmiten por el mismo canal y, dentro del receptor, el sintonizador, el cambiador de frecuencias y los amplificadores de frecuencia intermedia las seleccionan y amplifican simultáneamente. El sonido es transportado por un tipo distinto de modulación (modulación de frecuencia), mediante el cual la corriente que proviene del micrófono produce un cambio leve en la frecuencia de la onda de radio portadora del sonido. Las variaciones de frecuencia se mantienen a lo largo de todos los circuitos hasta la salida del desmodulador y, por lo general, no interfieren con la señal de imagen, porque las dos formas de modulación son básicamente distintas. Otro camino, desde el desmodulador, conduce la señal de sonido a un detector de frecuencias, sensible a pequeñas variaciones en la frecuencia que representan las ondas de sonido originales. En la salida de dicho detector tenemos una reproducción de la corriente microfónica. Se la amplifica por medio de un amplificador de audio, hasta una intensidad suficiente para poner en funcionamiento el altoparlante.
Las secciones restantes del receptor son dos fuentes de poder. Una de ellas transforma la potencia de 60 ciclos de la línea en la corriente continua de tensión media necesaria para accionar las válvulas. La otra fuente produce corriente continua de alta tensión, que se aplica a la pantalla y al cañón electrónico del tubo de imagen a fin de acelerar el haz electrónico. Por razones de conveniencia, esta fuente de poder utiliza los impulsos de alta tensión generados por el generador de desviación horizontal durante los períodos de re-trazado del haz electrónico y los atenúa, convirtiéndolos en corriente continua de alta tensión. En esta forma, se hace que el generador de desviación horizontal cumpla dos funciones diferentes.
Volviendo hacia atrás, vemos que, durante el proceso de amplificación, la señal de imagen, después de cambiar su frecuencia, de ser amplificada de nuevo, de pasar por el desmodulador, y de ser amplificada una vez más, pasa por siete válvulas electrónicas, por lo menos, una después de otra. La suma total de la amplificación de la señal es enorme. Una estación transmisora distante, situada, por ejemplo, a unos cien kilómetros del receptor, entrega a la antena receptora sólo una fracción pequeña de potencia, aproximadamente un centésimo de milésimo de millonésimo de vatio. En el instante en que dicha señal ha pasado por el receptor, su potencia aumenta hasta alrededor de un vatio. Es decir, el receptor aumenta la potencia de la señal aproximadamente unas cien mil millones de veces. El hecho de que el receptor pueda efectuar esto, y aun así proteja los detalles de la forma de onda de la imagen, es la conquista más importante de la tecnología electrónica.

Capítulo 6
La televisión en colores

Contenido:
Adición y sustracción de colores
Color electrónico
Brillo y crominancia
La TV y el futuro


Para los poetas, y también para el hombre común, el color es sólo una simple cuestión de estética. Pero para los filósofos y los físicos representa un problema eterno de una complejidad no resuelta hasta la fecha.
Para empezar, ¿debemos considerar que palabras tales como “azul” y “blanco” son aplicables a los objetos físicos mismos, a la luz que irradian o reflejan, o a las sensaciones que experimentamos cuando esa luz penetra en el ojo? Hablamos del profundo mar azul, pero los que viven cerca del mar saben que puede tomar toda una variedad de matices diferentes que dependen, en primera instancia, de las condiciones atmosféricas y, en particular, de las condiciones de la luz. Estas variaciones del color reflejado con los cambios de luz son bastante familiares y nos llevarían a sacar conclusiones precipitadas. Podríamos asegurar que el papel blanco de este libro parecerá rojo expuesto a la luz roja de un cuarto oscuro como el que se usa en fotografía, pero nos llevaríamos una sorpresa, parecerá blanco. Por otra parte, la sangre expuesta a la luz roja del cuarto oscuro no parece roja sino incolora, como el agua. La impresión “blanca” parece provenir de cualquier objeto que refleje la luz existente, cualquiera que sea su composición.
Pero en nuestra experiencia normal, los objetos reflectores asumen diferentes colores en condiciones distintas de iluminación. Lo que realmente queremos significar, cuando asignamos colores determinados a la mayoría de los objetos, es que parecen de tal o cual color en condiciones normales. Cuando los vemos bajo una luz poco común, nuestra memoria hace correcciones subconscientes; pensamos enseguida: "¡Hay que tener cuidado! No nos dejemos engañar por las apariencias".
Hasta este momento hemos hablado de objetos que brillan por la luz reflejada y que no son verdaderos emisores. El resplandor de una lámpara de vapor de mercurio es siempre del mismo color y sabemos también que la luz emitida por el Sol tiene una composición fija de colores. Pero, una vez más, el color de dichos emisores no siempre “parece” el mismo. A la luz le pueden suceder diversas cosas en su recorrido desde la fuente hasta el observador, de modo que, en el instante en que penetra en nuestro ojo, es diferente. El Sol parece amarillo al mediodía y rojo al atardecer, porque su luz experimenta una dispersión en la atmósfera terrestre.
Por consiguiente, el color es una denominación aplicable más bien a la luz que penetra en el ojo del observador, que a la fuente de luz. Pero aun en este caso nos creamos dificultades. Una persona que padece de daltonismo percibirá sensaciones que resultan indistinguibles cuando compara ciertas fuentes de luz, que el individuo con visión normal de los colores asegura ser completamente diferentes. Y hasta es posible llegar a engañar a personas con visión normal e inducirlos a tener sensaciones “erróneas” de color, si se los pone en un ambiente que les impide hacer el tipo de correcciones mentales subconscientes antes mencionadas. Un profesor de física muy conocido solía, en una de sus clases, fumar un cigarrillo en tales condiciones de semi iluminación, que sus alumnos “veían” la punta encendida de color verde.
Por eso, es necesario hacer una distinción ulterior entre lo que se puede llamar “color físico”, que describe objetivamente las longitudes de onda y la energía de la luz, medidas por instrumentos físicos, y “color fisiológico”, que describe subjetivamente las sensaciones resultantes percibidas por un individuo. En el sentido fisiológico, lo que queremos significar al decir que el Sol es anaranjado es que, en el mundo privado de nuestra conciencia, tenemos la sensación de una mancha anaranjada redonda.
Si eliminamos todas las “triquiñuelas ópticas”, es posible establecer varias definiciones concretas y cuantitativas acerca del color físico, cosa que haremos a continuación. Primero, existe luz de color puro, simple, llamada monocromática. El color monocromático se describe directa y únicamente por su frecuencia; por ejemplo, los tonos rojos tienen frecuencias más bajas que el azul (ver capítulo 2). La mayor parte de la luz que percibimos en la naturaleza, ya sea emitida en forma directa o reflejada de manera indirecta, no es monocromática, pero incluye una gama continua de frecuencias. Su color, por consiguiente, depende no sólo de las frecuencias existentes, sino de su intensidad relativa. Esto se expresa cuantitativamente mediante la así llamada `curva de distribución de energías”, del tipo dibujado en la figura 38. La curva indica la cantidad de energía que se irradia en cada frecuencia y cómo varía ese valor con la frecuencia. La energía total irradiada se obtiene de la suma de las energías de todas las frecuencias; gráficamente, es proporcional al área comprendida por la curva. Estos gráficos se determinan experimentalmente haciendo pasar luz incidente por un prisma o una red y examinando cada banda del espectro resultante mediante una célula fotoeléctrica.


Figura 38. La luz de color se describe en términos físicos mediante una curva de distribución de energías. La curva típica A representa el color amarillo, que tiene una componente intensa en la región del amarillo del espectro. La distribución indicada en B tiene componentes en la región del rojo y del verde y es físicamente diferente de la indicada en A, pero para el ojo es el mismo amarillo.

La frecuencia a la cual se produce la emisión máxima se denomina frecuencia predominante y ésta determina, por lo general, el color total de la mezcla. La luz blanca más común, denominada luz natural, es sólo una mezcla determinada de frecuencias con una curva particular de distribución de energías.

Adición y sustracción de colores
Ahora bien, es un hecho bien conocido que dos o más colores pueden combinarse y que, cuando esto sucede, se produce un color completamente diferente. Esto lo sabemos desde nuestra infancia. Si no lo hemos observado en nuestros primeros garabatos con lápices de colores, la maestra del jardín de infantes nos lo habrá hecho notar durante nuestros primeros esfuerzos artísticos con la caja de pinturas. Por ejemplo, la luz roja y la verde se combinan y originan luz amarilla, como se ve en la figura 39. Podríamos anticipar este cambio espectacular sólo con el examen de las dos curvas de distribución de energías.


Figura 39. Cuando se mezclan luz roja y luz verde superponiendo, por ejemplo, los haces de linternas provistas de filtros, a), se origina luz amarilla. Los tres colores primarios (rojo, verde y azul) producen luz blanca, b), cuando se los mezcla en la proporción adecuada. Si se altera la intensidad de los tres colores primarios y se los suma o se los sustrae, es posible reproducir cualquier color visible.

Si las sumamos, tenemos una nueva curva con una forma completamente distinta de las otras dos, la cual indicará que de la combinación habrá de surgir un color diferente del rojo y del verde. Lo sorprendente es, sin embargo, que podemos crear la misma luz amarilla, visualmente indistinguible de la primera, mediante una combinación de colores iniciales diferentes de aquéllos. En realidad, es posible hacerlo sin ninguna combinación de colores, eligiendo sólo la apropiada frecuencia monocromática del amarillo. En los tres amarillos tenemos, por eso, curvas de distribución de energía diferentes; es decir, son colores diferentes desde el punto de vista físico; pero cada uno produce la misma sensación visual; fisiológicamente, son un mismo color. Esta es una distinción importantísima entre color físico y color fisiológico y más adelante veremos cuán afortunado es que así sea para los fines de la televisión en colores.
Las teorías fisiológicas de la visión de los colores están todavía en su infancia y casi en el terreno de la especulación[2]. Lo que se sabe con certeza es que en la retina del ojo humano existen dos clases de receptores sensibles a la luz, los bastoncitos y los conos. La percepción del color es casi por completo una función de los conos. Esta es la razón por la cual con luz de poca intensidad, en que vemos solamente por medio de los bastoncitos, todos los objetos parecen de un gris apagado y neutro. Hace poco, se han acumulado nuevas pruebas fisiológicas, si no anatómicas, en favor de la antigua idea (que antes era sólo una conjetura) de que existen tres tipos de conos. Parece que cada tipo de cono contiene un pigmento diferente, que lo hace sensible a diferentes órdenes de frecuencia. Así como hemos trazado la curva de distribución de energías para un emisor (figura 38), podemos trazar para un absorbente, pero entonces la coordenada vertical medirá la energía “absorbida” a cualquier longitud de onda en particular. Hasta se han obtenido valores, todavía no rigurosos, para la longitud de onda predominante de cada tipo de cono.
Si nos decidiéramos a razonar basados en conjeturas, podríamos proceder de la siguiente manera. Sabemos, por las demostraciones sobre mezclas de colores ya presentadas, que el ojo no es capaz de diferenciar las distintas frecuencias de una mezcla de colores. Ningún tipo de cono puede llegar a decir: "esta luz contiene tanto de esta frecuencia particular y tanto de esta otra". Sin embargo, es una suposición razonable decir que el cono es capaz de registrar la energía total que absorbe, prescindiendo de la frecuencia. Si examinamos el efecto de dos fuentes de (sea lo que fuere lo que haga decir "anaranjado" al observador en un caso y "amarillo" en el otro) sea simplemente la “relación” entre las energías absorbidas por cada clase de cono. Por consiguiente, cualquier color podría ser expresado como una relación de tres números, así como puede expresarse como una relación de intensidades de tres colores “primarios”. Esto se puede asociar con el color en función de los impulsos nerviosos. Si recordamos el mecanismo del ojo (capítulo 2), podemos establecer que la velocidad de los impulsos entregados a una trayectoria cualquiera de los nervios, desde el ojo, es una medida directa del régimen de absorción de fotones por la célula receptora. El color se expresaría, entonces, como una relación de los impulsos nerviosos provenientes de los tres tipos diferentes de conos.


Figura 40. Aunque no sabemos con precisión cómo ve el ojo los colores, los expertos suponen que la retina puede tener tres clases distintas de receptores del color, con curvas de sensibilidad posiblemente semejantes a las aquí dibujadas. Esto explicaría el hecho de que, cuando se mezclan tres colores primarios, se puede reproducir la gama total de colores del espectro visible.

Esta breve incursión especulativa ha estado, quizá, justificada, debido a la extrema importancia de los descubrimientos experimentales que hemos tratado de explicar. Estos experimentos se conocen desde hace mucho y no hay duda alguna acerca de ellos. Se ha comprobado que un mínimo de tres colores primarios físicos, mezclados en proporciones variables[3], dará el color fisiológico que se desee. Esto incluye no sólo a los intensos colores del espectro, llamados saturados, sino también a todos los tonos pastel y a los blancos y blancos grisáceos. En ciertos casos, en los que la simple suma de los primarios (P1, P2 y P3) no produce una combinación, la sustracción sí la produce. Se agrega uno de los primarios, por ejemplo P3, al color que tiene que reproducir, C, lo cual da la ecuación

C + - P3 = P1 + P2

que equivale, algebraicamente, a

C = P1 + P2 - P3

Hay que recalcar que la elección de los colores primarios es por completo arbitraria; cualquiera de los tres sirve. Pero las frecuencias predominantes de los tres tipos de conos hacen que una determinada elección sea más conveniente que otras, en el sentido de que resulta menos necesario sustraer un color para reproducir otro dado. Los colores primarios generalmente aceptados para mezclar la luz transmitida son los tonos intensos del rojo, el verde y el azul.
Y qué conveniente resulta todo esto desde el punto de vista de la televisión en colores o, en realidad, del de la fotografía y las impresiones en colores. Si el ojo humano tuviera el mismo poder analítico de percepción que el oído, por ejemplo, ninguno de estos procesos sería posible. El oído puede distinguir muchas armónicas de las frecuencias que dan al sonido su cualidad distintiva y nos permiten decir si una nota dada es producida por un piano o un flautín, un triángulo o una trompeta. Si el ojo pudiera distinguir todas las frecuencias de los componentes de una mezcla de colores, cada color tendría que ser “transmitido” individualmente, manteniéndose todos los rasgos precisos de su curva de distribución de energías. Tendríamos que transmitir una imagen separada del total para cada uno de los “colores físicos” presentes y luego sumarlas todas al final. El catálogo de colores en función de la distribución de energías sería enorme. Necesitaríamos miles de páginas de gráficos y estipulaciones numéricas para definir los diez mil colores, más o menos, que el ojo normal es capaz de distinguir como colores fisiológicos individuales. Por fortuna, estamos en condiciones de falsear, por decirlo así, cualquier resultado deseado, utilizando sólo tres variables con dos lugares decimales, y especificar en forma cuantitativa toda la gama de colores “fisiológicos” en menos de diez páginas.
En consecuencia, la televisión, la fotografía o las impresiones en colores pueden ser reducidas, si se desea, a procesos de tres colores. En esencia, hacemos tres copias del original, una en cada uno de los colores primarios, y luego volvemos a combinarlas. Es verdad que los detalles de la reproducción en colores varían según se utilice luz transmitida o reflejada para la imagen final. En el primer caso, estamos en presencia de un simple proceso aditivo; el segundo es un proceso de sustracción.
La mayor parte de las impresiones en colores constituyen un buen ejemplo de este último. Vimos en el capítulo 2 que la reflexión por una superficie opaca es, en realidad, un proceso de absorción selectiva. Los pigmentos “sustraen” de la luz incidente ciertas frecuencias preferidas que, por eso, no pasan a la luz reflejada. La tinta de imprimir es simplemente una solución de un pigmento en un solvente transparente. Las tres tintas “primarias” sustraen la luz roja, la verde y la azul, respectivamente. Como su color depende de la luz que reflejan, está determinado por lo que queda de la luz blanca después de haber quitado el rojo, el verde y el azul. Blanco menos rojo da azul brillante; blanco menos verde da magenta y blanco menos azul da amarillo. Por lo tanto, los colores primarios de las tintas usadas en impresión (o los de una caja de pinturas de colores para niños) son azul, magenta y amarillo, diferentes del rojo, verde y azul del proceso aditivo.

Color electrónico
En la televisión en colores, a diferencia de lo que sucede con las impresiones, la imagen final se produce por un proceso aditivo que se efectúa como veremos en seguida. Se eligen tres sustancias fluorescentes distintas, las que, al ser excitadas por un haz de electrones, brillan con luz roja, verde y azul, respectivamente. La pantalla está constituida por un mosaico de puntos diminutos, algo así como el fotograbado a media tinta de los periódicos. El número de puntos de cada sustancia fluorescente es el mismo y están distribuidos de manera uniforme, de modo que cualquier grupo adyacente de tres, forma un diminuto triángulo que contiene un punto “rojo”, uno “verde” y uno “azul”. Los puntos son tan pequeños, que los miembros de cualquiera de los triángulos no pueden ser determinados por el ojo del espectador. Sus respectivas fluorescencias se combinan así por adición y el color total del triángulo depende de la intensidad relativa con que brilla cada uno de los tres puntos. Si los tres brillan con intensidad apropiada, el resultado será blanco; si no brilla ninguno de ellos, el resultado será negro. Luego, un tubo de televisión en colores puede producir una imagen en blanco y negro y también en colores.
Si podemos disponer las cosas de manera de producir tres imágenes primarias de la imagen original que hay que televisar, una en cada color primario, se las puede convertir en tres señales de imagen y transmitirlas a tres cañones electrónicos separados en el receptor de televisión en colores. Siempre que los electrones del cañón para el “rojo” incidan solamente en los puntos “rojos”, y lo mismo para el “verde” y el “azul”, la intensidad con que brille cada punto dependerá de la intensidad de la señal de imagen apropiada. En esta forma, reproducimos en la pantalla copias de la imagen roja, de la verde y de la azul registradas por las tres cámaras.
Las tres imágenes se separan en la cámara mediante filtros de color; para la imagen roja colocamos frente a la lente de la cámara un filtro que sustrae todos los colores, excepto el rojo, y así sucesivamente. Cuando las tres imágenes se recombinan por adición en el receptor, el resultado es una imagen coloreada de la escena original.
Por lo tanto, el problema de la televisión en colores está resuelto en principio; pero esto es, naturalmente, muy diferente al hecho de realizarlo en la práctica. Las dificultades técnicas principales son tres. Primero, tenemos que registrar en forma simultánea tres imágenes idénticas en todo, excepto en el color. Segundo, habrá que combinar, de algún modo, las tres señales de imagen individuales en una señal compuesta que pueda ser transmitida por un canal y luego extraer de la señal compuesta las tres señales separadas.
De lo contrario, si se transmitiera por separado cada señal de color, las estaciones de TV en colores necesitarían triplicar sus aparatos y cada una ocuparía el espacio de aire de tres canales normales.


Figura 41. Cómo funciona la cámara de televisión en colores. Mediante espejos y filtros selectores de colores se enfoca la escena del estudio, en tres tubos de cámara, en los tres colores primarios.

Tercero, estamos frente al delicado problema de construir un receptor según los lineamientos descriptos más arriba, en el cual cada cañón dispara sus electrones sobre los puntos adecuados del mosaico de la pantalla. Consideremos cada problema por turno.
Las tres imágenes de color para los tres tipos de cámara se obtienen mediante un sistema especial de espejos, como se ve en la figura 41. Un espejo normal consiste en un vidrio recubierto con una capa metálica más o menos gruesa, por lo general de plata; en el capítulo 2 vimos cómo reflejaba la luz una superficie de ese tipo, sin pérdida de los detalles de la imagen. El mecanismo tiene que ser mucho más complicado que el allí descripto, debido a la reflexión selectiva obtenida cuando se hace muy delgada la capa metálica y el metal mismo varía. En este caso, los átomos del metal responden a luz de una banda de frecuencias relativamente angosta, por ejemplo en la región del azul, y sólo reflejan los fotones de ese orden. Los restantes no son afectados por el metal y pasan a través del vidrio subyacente por medio de un proceso de átomo a átomo, característico de todas las sustancias transparentes. El espejo que posee esas propiedades selectivas se denomina “dicroico” y se utilizan dos para desviar en la imagen original la luz azul primero, y luego la roja, hacia los tubos de cámara respectivos. Esto hace que únicamente quede disponible el verde para el tercer tubo.

Brillo y crominancia
Volviendo a nuestra tarea de combinar las tres señales de imagen individuales en una única para su transmisión, comprobamos que la situación se complica por el hecho de que tanto los aparatos de TV en blanco y negro como los de TV en colores deben estar capacitados para recibir transmisiones en color, y viceversa. El obstáculo se vence haciendo que una simple señal de “brillo” sea la base de ambos sistemas; ésta es, en realidad, una medida de la intensidad de la luz o luminancia”. Además, en el sistema en colores transmitimos una segunda señal, llamada “señal de crominancia”, que contiene la información específica acerca del “matiz” y la “saturación”.


Figura 42. Dos válvulas electrónicas pueden sumar dos señales con las que alimentan sus grillas respectivas al conectar sus ánodos. La sustracción se produce si invertimos las conexiones de uno de los circuitos de entrada. Tres válvulas con sus ánodos conectados combinan las señales de los tres colores primarios producidos por la cámara para colores.

Un receptor para blanco y negro puede interpretar la señal de brillo de una transmisión en colores, mientras que ignora la señal de crominancia. Un receptor para colores, aunque diseñado en primera instancia para interpretar ambas señales, puede, sin embargo, producir una imagen en blanco y negro mediante la señal de brillo solamente, cuando se lo sintoniza en una estación en blanco y negro.
La obtención de la señal de brillo a partir de las señales de color primario no es demasiado difícil.
Ya se ha visto que si se quiere unir dos señales cualesquiera, es posible hacerlo mediante un dispositivo como el de la figura 42.
Se aplica una señal a la grilla de una válvula y la segunda a la grilla de la otra, y luego se conectan los ánodos de las dos válvulas. Así, las formas de onda de las dos señales se superponen. Para obtener la señal de brillo, se suman las señales de los colores primarios de los tres tubos de cámara (figura 46). Si queremos separarlas, sólo es necesario invertir las conexiones de una de las grillas. Es posible así mezclar las señales de los tres colores primarios y, además, mediante el control de su amplificación relativa, mezclarlas en las proporciones que se deseen. Se sabe que, cuando se los une en la proporción correcta, los tres colores primarios originan luz blanca y que una mezcla de un 30 por ciento del rojo, un 60 por ciento del verde y un 10 por ciento del azul produce una excelente imagen en blanco y negro. La señal de brillo modula en amplitud una frecuencia de portadora, como se describió en el capítulo anterior.
Pasemos ahora a la señal de crominancia. Ella es la que da al aparato para recepción en colores la información adicional que le permite añadir color a la imagen en blanco y negro. Para lograrlo, se sustrae la forma de onda combinada del “brillo”, que acabamos de explicar, de cada una de las formas de onda de color primario por turno. Por ejemplo, en el caso del ya manido vestido azul del capítulo 2, la señal de “diferencia de color” resultante sería positiva para el azul y negativa para el rojo y el verde. Luego, las tres señales de “diferencia de color” se combinan y dan la señal de crominancia. Ésta representa las diferencias existentes entre la imagen a todo color y la imagen en blanco y negro, o (utilizarlo una metáfora más colorida, si es posible en un tema como éste) se la puede considerar como un triple mensaje que nos informa cuál es el cañón electrónico del receptor que aumenta su actividad y cuál es el más pausado. En el receptor, y mediante circuitos que funcionan siguiendo un orden inverso a los del estudio, se sacan de la portadora las tres señales de la diferencia de color, las que luego se aplican por separado a sus respectivos cañones electrónicos. Éstas añaden o quitan brillo a cada una de las imágenes de color primario, alterando así su proporción y poniendo de manifiesto el contenido de color de la escena.


Figura 43. Los tres haces en el tubo de cámara para colores transportan las corrientes de imagen respectivas de las imágenes primarias roja, verde y azul. Cada haz choca con los puntos fosforosos del color correspondiente. Para evitar que cada haz vaya a un color equivocado, se coloca una máscara de metal, perforada por diminutos orificios, justo detrás de la pantalla de visión. Esto intercepta u “oscurece” cada haz y lo confina a los puntos fosforosos del color apropiado.

La señal de crominancia se transmite a través del aire por el mismo canal que la señal de brillo, pero modula la corriente de ondas portadoras mediante un método que todavía no hemos visto y que se denomina “modulación de fase”.
Cualquier onda portadora tiene tres características: su amplitud o intensidad, su frecuencia o número de ciclos por segundo y, por último, su fase, que describe el grado en que concuerda o no con un régimen de tiempo fijo y predeterminado.
Hemos visto ya cómo la modulación de amplitud hace variar la intensidad de una portadora y la modulación de frecuencia hace variar la frecuencia de la portadora. La modulación de fase adelanta o retarda el tiempo al cual cada onda de la portadora emerge del oscilador.
El avance o el retraso se detectan en el receptor comparando las ondas portadoras que entran con una portadora generada localmente, la cual es idéntica a la portadora no modulada del transmisor y está sincronizada con ella. Esto equivale a comparar un reloj, que a veces está adelantado y otras atrasado, con otro reloj que siempre indica la hora exacta. El resultado de la comparación desarrolla la señal de crominancia. Las tensiones de color cambian la fase de la portadora con relación a su forma no modulada y cada color lo hace en un valor distinto.
Por último, todavía nos queda el problema de lograr que el haz de cada uno de los tres cañones electrónicos incida solamente sobre los puntos apropiados en la pantalla del receptor. Se resuelve por medio de una placa metálica con más de 200.000 diminutos orificios, colocada entre los cañones y la pantalla.


Figura 44. El tubo de imagen para colores con máscara de sombra consiste, en realidad, en tres tubos en uno. Produce tres imágenes en los colores primarios, formada cada una por diminutos puntos de color entremezclados.

Se la conoce como “máscara de sombra”, puesto que, como se ve en la figura 43, los orificios están dispuestos en tal forma, que ocultan los puntos innecesarios en cada grupo de tres, proveniente de cualquier haz de electrones. Por lo tanto, los electrones del cañón controlado por el rojo sólo pueden incidir sobre los puntos “rojos” y lo mismo en el caso del verde y del azul. Los haces de electrones están enfocados de tal manera, que convergen por medios electrostáticos en cualquier orificio de la máscara. La desviación necesaria para la acción de exploración se obtiene electromagnéticamente. En la figura 44 se ve cómo están dispuestas las partes en el tubo con máscara de sombra.

La TV y el futuro
Por todo lo que se acaba de ver, resulta evidente que un receptor de TV en colores es un instrumento aún más delicado y complejo que su predecesor para blanco y negro. No sólo contiene más elementos —válvulas, capacitores, resistores y otros— sino que exige ajustes más finos y tolerancias más pequeñas. Por eso es que los receptores de TV en colores cuestan cerca del doble de los aparatos para blanco y negro. Pero, a medida que transcurra el tiempo, esta diferencia de precio desaparecerá y la TV en colores será más asequible en hogares, escuelas e industrias. Cuando ello suceda, habremos recorrido un largo trecho hacia el logro de la comunicación humana esencial, de la que se ha hablado al comienzo de este libro.
Existen muchas personas que miran con suspicacia y pesar el desarrollo ulterior de la TV y la consideran algo así como un reblandecedor del cerebro. Es cierto que el utilizar la TV solamente como una forma de entretenimiento para matar el tiempo y disfrazar un aburrimiento fundamental hacia la vida sería una prostitución grosera de la inventiva y la capacidad científica que han creado esta maravilla. Pero la TV tiene muchos usos constructivos y, quizá, no resulte demasiado pomposo decir que algún día, cuando se haya adentrado en el amplio mundo de la comunicación, la TV represente una influencia decisiva para una mejor comprensión y tolerancia entre las naciones.
Notas:
[1]Referencias hechas para los EE. UU. (N. del T.)
[2]Edwin H. Land, inventor de la cámara Polaroid, hizo hace poco algunos descubrimientos que parecen contradecir la teoría corriente y que todavía deben ser explicados. luz monocromática diferentes sobre los tres tipos de conos, cada uno con su curva diferente de respuesta, vemos que la que cambia es precisamente la energía total relativa absorbida por cada tipo (figura 40). Por eso, es posible que el color fisiológico
[3]Los experimentos de Land, mencionados en la nota al pie de la pág. 144, tratan de mezclas de dos colores y no de tres.