El segundo planeta - Umberto Colombo y Giuseppe Turani

El segundo planeta

Umberto Colombo y Giuseppe Turani

Qué sucederá en los próximos cincuenta años cuando seamos diez mil millones de seres sobre la Tierra.

Introducción

En los próximos cincuenta años, o sea, de aquí al año 2050, la población de la Tierra se duplicará, pasando de poco más de 5 a más de 10 mil millones de habitantes. Naturalmente, no es la primera vez que sucede una cosa así. En los 37 años que van de 1950 a 1987 se ha duplicado, pasando de 2,5 a 5 mil millones. Pero el fenómeno al que estamos asistiendo tendrá unas características muy diferentes. Todos los aumentos de población precedentes han sido consecuencia de una razón concreta: el descubrimiento de la agricultura, la puesta a punto de medicinas y fármacos que han acabado con antiguas enfermedades, la industrialización de vastas regiones, la disponibilidad de nuevas y poderosas fuentes de energía como el carbón y el petróleo.

Esta vez, por el contrario, la población no se duplicará por razones concretas, sino que simplemente será empujada adelante por la fuerza de la inercia. Nadie podrá ahora detener el fenómeno. En menos de medio siglo hará su aparición sobre la Tierra una especie de «segundo planeta» de cinco mil millones de nuevos habitantes. Será preciso «hacer sitio» a tanta gente como la que vivió desde los orígenes de la humanidad hasta el presente, en el curso de más de diez millones de años. Esta cifra se alcanzará, no hay que olvidarlo, en apenas cincuenta años, cinco decenios, un par de generaciones.

Los expertos aseguran que ésta será la última duplicación de población que ocurrirá en la Tierra. Pero será la más difícil, la más cargada de incertidumbres e inquietudes. La que sembrará mayor malestar y angustia. Sobre todo por el poco tiempo de que se dispone y por haber muchísimos elementos en contra de la posibilidad de llegar a construir este «segundo planeta» antes de que la Tierra explote socialmente o, incluso, físicamente.

Hoy día en los países más ricos sólo viven poco más de mil millones de personas, mientras que los otros cuatro mil millones luchan por la supervivencia en los países más pobres. Se calcula que dentro de cincuenta años en las zonas de más elevado nivel de vida vivirán mil millones y medio de habitantes, mientras que en las más desfavorecidas deberán hacinarse ocho mil millones y medio de personas. El mundo se encaminará, año a año, hacia un mayor desequilibrio, cada vez más tenso, cada vez más cargado de auténticos motivos para la insatisfacción y la protesta.

¿Se llegará, en estas condiciones, a asegurar la convivencia de diez mil millones de personas en un «territorio» que hoy no acoge más que a la mitad?

Lo dudamos. Nunca como hoy el mundo ha parecido tan incapaz de resolver sus problemas y de hacer sitio a nuevos habitantes. Hay escasez de alimento, de energía, de trabajo. Incluso la superficie y el medio ambiente del planeta están degradados, casi al borde de la catástrofe, condiciones éstas bastantes adversas, como para poder soportar un renovado «saqueo» por parte de una población destinada a aumentar apresuradamente.

Y por otro lado, ironías de la historia, el mundo sigue armándose aunque, con el hundimiento del imperio soviético, ha dejado de existir aquel enfrentamiento entre las superpotencias que había llevado a la desenfrenada carrera de los armamentos nucleares.

El «primer planeta» aparece, para quien pudiera observarlo desde un punto situado en el exterior, como una ciudadela densamente poblada, en la que comienza a faltar de todo, pero armada hasta los dientes y totalmente insolidaria, en trance de sufrir el asedio de un «segundo planeta» que es algo así como su «doble», pero carente de todo y, por tanto, necesitado de todo.

¿Podrá el «primer planeta» proveer al «segundo» de lo que él mismo empieza a lamentar su carencia, o sea, energía suficiente, alimentos en adecuada proporción, un ambiente no degradado en el que vivir, una casa, un trabajo? ¿O, por el contrario, saltará por los aires, desbordado por las «limitaciones» de la Tierra?

En términos menos catastróficos, ¿se dirige el mundo inexorablemente hacia siglos oscuros, un «medievo próximo-futuro» o tal vez logrará conservar, a pesar de la nueva situación, el actual nivel de civilización y de bienestar e incluso mejorarlo? La ciencia y la tecnología, que en tiempos recientes tantas desilusiones han proporcionado a la humanidad, ¿qué papel jugarán en esta confrontación? ¿Es cierto, como algunos sostienen, que ciencia y tecnología están preparando una especie de Edén, de paraíso terrenal del que sólo nos separan una veintena de años? ¿O quizá, sea verdad lo contrario: que están llevando al mundo hacia una nueva y definitiva barbarie?

Las páginas que siguen desean proporcionar al lector las informaciones necesarias para intentar dar una primera respuesta a todas estas cuestiones. Han nacido de una serie de conversaciones mantenidas por los autores, informalmente, lejos de los deberes y problemas cotidianos, en un ambiente plácido y sereno. Probablemente el libro se resiente, incluso en su redacción, de este defecto de nacimiento. Pero los autores no se lamentan.

Estas páginas no están dedicadas a especialistas, sino al gran público, a los millares de «ciudadanos de a pie», que son la gran mayoría y los más directamente interesados en lo que podrá acaecer sobre la Tierra en los próximos cincuenta años. Se ha preferido hacerlo así, en vez de elaborar un texto reducido al ámbito de los especialistas, porque se considera que quien ha llegado a tener una cierta familiaridad con los problemas de nuestro futuro, sea por razones de trabajo o de curiosidad intelectual, tiene el deber de hacer partícipe de su «saber» a tanta gente como le sea posible.

Podría suceder que los expertos, al hojear estas páginas, descubran que tal palabra está usada sin mucha propiedad, que tal adjetivo no es muy académico, que tal argumento es excesivamente simple. Por si fuera así, los autores piden excusas por adelantado, pero quieren expresar también su intención de justificarse. Este libro no pretende ser un nuevo informe, puesto al día, sobre el «estado del planeta», sino sólo una memoria de lo que en estos momentos se piensa a propósito de la población, el medio ambiente, la energía, la alimentación y las nuevas tecnologías. Una invitación a reflexionar, en suma.

Por otro lado, estas páginas pueden dejar descontentos a los expertos en las materias tratadas, así como a los políticos de profesión y a algunos otros que desearían que el libro tuviera una «definición política». Pero en este libro no se dice nunca «quién lleva la razón», no se rompen lanzas en favor de los oprimidos del mundo entero, ni se anatematiza el capitalismo o cualquier otra forma de organización social o económica. Es un límite. Un límite difícil.

Los primeros en constatarlo, y sufrirlo, son los propios autores, que no ignoran cuán importantes y complejos son los problemas políticos ligados a los temas tratados en el libro y su relación con el futuro de la Tierra.

Pero hubiera sido poco correcto e ingenuo invitar a los lectores a tomar partido por una opción concreta, como si se supiera de antemano cuáles son las mejores soluciones, quiénes tienen las mejores cartas, las ideas más útiles para evitar el riesgo de nuevos siglos oscuros. Dicho esto, permítase a los autores un solo y modesto enunciado político: los problemas frente a los que se encuentra hoy la humanidad son demasiado grandes, demasiado complicados y demasiado «ambiguos» como para permitirnos trazar líneas divisorias entre buenos y malos.

Las soluciones para afrontar el futuro de la Tierra se desconocen todavía, desgraciadamente. En estas condiciones, pensamos que lo mejor que puede hacerse es facilitar al mayor número de personas posibles, el mayor número de informaciones comprensibles, de modo que cada cual pueda poner su grano de arena en la búsqueda de las soluciones.

Los autores estiman que no se trata de escapismo ante el riesgo de la responsabilidad política. Simplemente piensan que en este momento es interesante y productivo incitar a una especie de «juego» colectivo de aprendizaje progresivo en el que todos los componentes (ideológicos, políticos, éticos, individuales y de grupo) puedan desplegar su propia creatividad.

Pero hay otra razón por la que se ha preferido no afrontar directamente las cuestiones políticas inherentes a los problemas tratados. Si se hubiera hecho así, la política habría acabado inevitablemente por ocupar un lugar preferente y el libro hubiera sido totalmente diferente y, tal vez, inútil.

Capítulo I
La población de la tierra

Contenido:
§. La edad del hombre
§. La próxima duplicación
§. Viejos y jóvenes
§. Ricos y pobres
§. Elboom de áfrica
§. Cuatrocientas megalópolis
§. El segundo planeta

Cualquier tentativa de comprender cuál será el destino de la Tierra debe partir de unas razonables previsiones sobre el aumento de la población mundial. La razón de esta premisa es muy evidente: a medida que aumente el número de habitantes del planeta las reservas disponibles quizá no sean suficientes. Establecer cómo y cuánto aumentará la población es, pues, tanto más necesario en un momento en el que, como sucede hoy, se piensa que la explosión demográfica creará enormes problemas en lo relacionado con el abastecimiento de alimentos, de energía, de vivienda y de puestos de trabajo.

Se puede anticipar desde ahora mismo que en los próximos cincuenta años dos fenómenos serán particularmente importantes: la duplicación de la población de la Tierra y el hecho de que este aumento se concentrará casi exclusivamente en los países en vía de desarrollo, o sea en los países más pobres. Pero todo esto no es sólo una muestra de la excepcionalidad de la época que nos disponemos a vivir. Es bastante probable, por ejemplo, que la duplicación del número de habitantes a la que se asistirá en el próximo medio siglo sea el último acto de la larga historia del género humano.

Su velocidad (cincuenta años es un período de tiempo más bien breve en la vida media de un hombre) y las particulares condiciones en que se desarrollará el fenómeno lo convierten, además, en un acontecimiento absolutamente único, irrepetible y cargado de angustiosas incógnitas. La cultura, la tecnología y la organización política de los hombres no se han visto nunca abocadas a afrontar y resolver un problema de estas dimensiones en períodos de crisis. Todo hace pensar, en una palabra, que en este caso la historia no dejará ninguna alternativa: la posibilidad de evitar una duplicación de la población a lo largo del año 2050 parece ser inviable.

§. La edad del hombre
¿Cuántos años tiene el hombre? Los especialistas no lo saben todavía a ciencia cierta. Fijan una fecha de nacimiento demasiado vaga: de cinco a diez millones de años. Para ser más exactos hay que decir que a aquel período pertenecen algunos descubrimientos que hacen pensar en la existencia del hombre. O, más bien, de algún ser que no era animal y que, probablemente, comenzaba a ser un individuo capaz de moverse conscientemente en la naturaleza. De lo que no cabe duda es que este individuo se comportó durante un largo período de tiempo poco más o menos como un depredador, tomando de su entorno todo lo que estaba al alcance de su mano, en materia de alimentación y de reservas energéticas.

Hasta mucho más tarde, apenas hace diez mil años, el hombre no descubre la agricultura y da vida a los primeros asentamientos estables, fijos, y las primeras formas de organización política y social. Con la difusión del cultivo y el nacimiento de las ciudades empieza a crecer la población mundial. Durante mucho tiempo, prácticamente hasta la irrupción de la civilización industrial, crece a un ritmo muy lento: algo menos del uno por ciento al año. Tendrían que pasar varios siglos para alcanzar la duplicación.

Cuando el hombre descubre la agricultura, es decir, hace diez mil años, los habitantes del planeta eran muy escasos: se estima que unos cien mil, más o menos la población de una ciudad moderna de medianas dimensiones. Los primeros mil millones de habitantes no se alcanzan hasta una época muy próxima a la nuestra: el 1800. Cincuenta años antes, en 1750, empieza la expansión de la civilización industrial, el fenómeno que originará el futuro crecimiento de la población mundial y un profundo e irreversible cambio en las costumbres.

Pero, ¿por qué la civilización industrial (las fábricas, los nuevos productos, las ciudades de grandes dimensiones) lleva a un aumento tan rápido de la tasa de crecimiento de la población? La respuesta no es difícil. La difusión del conocimiento científico conduce a una conclusión muy evidente: la disminución de la tasa de mortalidad trae consigo una más acelerada multiplicación del número de habitantes sobre el planeta. La aplicación de los conocimientos científicos a los procesos productivos hace crecer a un ritmo aún mayor la disponibilidad de productos alimenticios, ya que la agricultura puede servirse de fertilizantes y antiparásitos que aumentan el rendimiento diez, veinte y hasta treinta veces. La humanidad llega a poder contar con una considerable reserva alimenticia. Una misma cantidad de terreno puede alimentar ahora a un número mayor de personas. El hambre empieza a desterrarse y, más tarde, a desaparecer por completo hasta ser sólo un recuerdo, al menos en grandes zonas de la Tierra e incluso en continentes enteros.

La civilización industrial conlleva una mayor difusión de los medicamentos y las vacunas contra enfermedades que antaño daban lugar a epidemias que periódicamente exterminaban a millones de personas. Por otro lado aparecen «novedades» aparentemente banales, como el jabón, que proporciona una vida más higiénica, más limpia y, por tanto, menos expuesta a las enfermedades peligrosas. En resumen, el hombre, a partir de la difusión de la civilización industrial, se puede considerar mejor nutrido, más cuidado y más pertrechado contra las enfermedades que habían hecho estragos entre sus antepasados.

Las consecuencias, en lo que se refiere a la población, no se hacen esperar: en 1930, la humanidad alcanza los dos mil millones de habitantes. En poco menos de ciento treinta años se duplica el número de habitantes de la Tierra: por el contrario, los primeros mil millones de habitantes se habían «acumulado» a lo largo de cinco a diez millones de años.

Entretanto, la civilización industrial da nuevos pasos adelante. Después del carbón se halla el modo de aprovechar el petróleo, lo que contribuye a acelerar el proceso de crecimiento. La segunda duplicación se produce en muy poco tiempo: a fines de 1975 la población de la Tierra alcanza los cuatro mil millones de habitantes. Esta duplicación, de dos a cuatro mil millones, ha requerido sólo cuarenta años frente a los ciento treinta que fueron necesarios para pasar de uno a dos mil millones. En los doce años siguientes a 1975, mil millones más se han añadido a la población del planeta.

§.La próxima duplicación

En menos de dos siglos el tiempo requerido por la población mundial para duplicarse se ha reducido a dos tercios. Si este ritmo continuara acelerándose, en el año 2000 el número de habitantes de la Tierra hubiera tenido que ser de diez mil millones. Pero no ocurrirá así. Estudios recientes consideran que esta cifra no se alcanzará hasta el año 2050 aproximadamente. Es decir, poco más de sesenta años después de la última duplicación.

¿A qué se debe este imprevisto «frenazo» en el aumento de la población? Parece ser que sólo hay una razón: nos encontramos frente a una disminución de la tasa de natalidad tanto en los países ricos como en los más pobres. Evidentemente, ha bastado una cierta difusión de la actividad económica, del comercio mundial y de la asistencia médica y social para hacer menos fuerte la necesidad de procrear.

No olvidemos que la alta natalidad de los países pobres se explica sobre todo por razones de orden económico: al no existir en estos países formas organizadas de asistencia social, los hijos se consideraban el único apoyo de la vejez. Al ser muy elevada la tasa de mortalidad, se suponía que trayendo muchos hijos al mundo al menos uno sobreviviría para poder ayudar a sus progenitores envejecidos y sin posibilidad de valerse por sí mismos. Apenas la situación económica se hace menos agobiante y se difunden las distintas alternativas de asistencia social, la necesidad de procrear se reduce sensiblemente.

En los países más ricos, la tasa de natalidad es hoy día muy baja y en algunos, como Italia, se tiende claramente a una disminución de la población más que a un aumento (ya bastante contenido).

§.Viejos y jóvenes

Si la tasa de natalidad en los países más pobres está disminuyendo a causa del relativamente mayor bienestar, sería bastante lógico excluir la posibilidad de una duplicación de la población mundial y pensar que ésta se estabilizará un poco por encima de su valor actual, algo más de cinco mil millones. Sin embargo no es así. Estudios recientes destacan el hecho de que la población en los países más pobres es muy joven: la media de edad se sitúa alrededor de los quince años frente a una media de edad que en los países ricos casi alcanza los cuarenta años. Los habitantes de los países más pobres son, en su mayor parte, muchachos.

Baste este hecho para comprender que a pesar de la eventual introducción en estas zonas de métodos de control de la natalidad, es difícil impedir el crecimiento de la población, por otro lado muy acelerado. El control de la natalidad no es compatible con un vacío institucional y social. Para ser eficaz presupone una cierta difusión de los métodos de control higiénico y sanitario. Las primeras consecuencias de estas medidas serían las de provocar una inmediata disminución de la mortalidad, hoy muy frecuente, la elevación de la edad media y el aumento, en gran medida, de la población. Posteriormente y poco a poco se manifestaría la acción del control de la natalidad. Si se hace uso de la medicina para limitar el número de futuros nacimientos, es inevitable que esta misma medida se utilice primero para prolongar la vida de la población existente. Al principio, pues, se producirá un claro aumento del número de habitantes (porque morirán menos) y sólo más tarde disminuirá el crecimiento (porque nacerán menos). Los fenómenos demográficos, para ser modificados, requieren por lo general no algunos años, sino decenas de años.

Ésta es la razón, precisamente, por la que los expertos sostienen que no será posible evitar una duplicación, o quizá dos, de la población en los países más pobres. Sus habitantes pasarían así de los actuales cuatro mil millones a ocho-nueve en un principio y, luego, tal vez, a doce mil millones. Paralelamente, los habitantes de los países ricos aumentarían mucho menos, pasando de los mil millones a alrededor de los mil millones y medio. En total, la población mundial debería estabilizarse alrededor de los trece o catorce mil millones de habitantes. Todo esto, sea como sea, requerirá mucho más de cincuenta años. En el año 2050 se prevé que la población mundial alcance los diez mil millones de habitantes, es decir, el doble que en 1987.

§. Ricos y pobres

¿Cómo se repartirá toda esta gente sobre el planeta? Existen previsiones bastante precisas al respecto contenidas en el estudio Global two thousand, realizado en julio de 1980 por encargo del ex presidente de los Estados Unidos. Cárter. Son cifras poco conocidas pero muy interesantes.

En 1950 vivían en los países más ricos, más industrializados, alrededor del 34% de la población mundial. Una tercera parte ocupaba las zonas de recursos económicos escasos y dos tercios poblaban el resto del planeta en condiciones de extrema pobreza. Con el paso del tiempo y el progreso de la economía y la civilización industrial, la verdad es que la situación no cambió mucho, sino más bien al contrario. Se calcula que en 1975 sólo el 28% de la población mundial vivía en las zonas más desarrolladas.

Según las previsiones del citado estudio, en el año 2000 la población mundial habrá alcanzado los 6,3 mil millones de habitantes, lo que supondrá un aumento neto de 2,3 mil millones. El crecimiento, en relación a 1975, a apenas veinticinco años de distancia, será superior al 50%. Pero, ¿dónde vivirán estos 2,3 mil millones de seres de más? Cinco mil millones de personas habitarán en los países más pobres y sólo 1,3 mil millones en los más ricos.

Si tenemos en cuenta los datos actuales (poco más de mil millones de habitantes en los países más ricos y poco más de cuatro en los pobres), no es difícil deducir que en la última década del siglo el aumento de la población en las zonas más desarrolladas será muy bajo, mientras que el de las zonas menos desarrolladas es prácticamente del 50% del total. En términos porcentuales, se estima que en el año 2000 habitará en los países ricos el 20% de la población, mientras que en los pobres residirá el 80% de los habitantes del planeta.

En los siguientes cincuenta años, el aumento de la población se moderará sensiblemente: la Tierra contará con sólo 3,7 mil millones de habitantes más (frente al crecimiento de 3,8 mil millones de habitantes del período 1950-2000). Y será así a pesar de contar con una «base de lanzamiento» muy amplia: 6,3 mil millones de habitantes en el año 2000 frente a los apenas 2.5 de 1950. Se estima que los habitantes de las zonas hoy más ricas serán mil quinientos millones frente a los ocho mil quinientos millones concentrados en las zonas hoy más pobres. En total, la población mundial habrá alcanzado el año 2050 los diez mil millones de habitantes. El 15% habitará en los países hoy más desarrollados y el 85% en los menos desarrollados.

En resumen, en los poco más de 60 años comprendidos entre el año 1987 y el 2050 la población de la Tierra experimentará la siguiente transformación: se duplicará el número de habitantes, que pasará de cinco a diez mil millones; el aumento afectará sobre todo a los habitantes de los países pobres (que pasarán de cuatro a ocho mil quinientos millones, más del doble), mientras que los países ricos crecerán tan sólo en un 50% (de mil millones a mil quinientos); en consecuencia, este desequilibrio en la tasa de crecimiento hará que mientras en los años 70 casi un tercio de la población mundial vivía en las zonas ricas y los otros dos tercios en las pobres, a mediados del siglo que viene menos de una sexta parte (el 15%) vivirá en los países industrializados mientras el resto (82%, más de las cuatro quintas partes) vivirá en los países más pobres.

§. El boom de África

Las cifras que hemos esbozado hablan por ellas mismas y dejan entrever muy a las claras el tipo de problemas que se deberá afrontar en el próximo medio siglo. Quizá habría que añadir a lo dicho anteriormente que en este período, casi sin temor a equivocarnos, los países más pobres accederá a un mayor nivel de calidad de vida mientras que los ricos deberán contentarse con un incremento del bienestar más lento que el experimentado en el pasado. Las diferencias, en cada caso, serán muy marcadas. Luchar contra ellas no será una empresa fácil, y por otro lado no podrá ser acometida, y de hecho no lo será, hasta bien entrado el año 2050. El mundo deberá aceptar la convivencia entre una reducida minoría (mil millones trescientas mil personas) asentada en las zonas ricas y una población casi siete veces superior (ocho mil ochocientos millones) concentrada en las zonas menos afortunadas. Es posible, para hacer aún más evidente el fenómeno, trazar un mapa pormenorizado de cómo crecerá la población. África, que en la actualidad cuenta con seiscientos cincuenta millones de habitantes, pasará a los ochocientos setenta millones en el año 2000 y a 1,8 mil millones en el 2030. Asia y Oceanía (excluyendo Japón), donde hoy en día viven más de tres mil millones de habitantes, tendrán casi 3,6 en el año 2000 y más de cinco mil millones en el 2030. África, pues, tendrá un número de habitantes, dentro de cuarenta años, casi tres veces superior al actual, mientras que los países en desarrollo de Asia y Oceanía casi doblarán su población.

Por el contrario, los habitantes de los países industrializados de Occidente, incluyendo Japón, pasarán de los actuales ochocientos millones a casi novecientos millones en el 2030. Los países de Europa centro-oriental y Rusia pasarán de los 430 millones actuales a alrededor de 460 millones en el año 2000 y a quinientos en el 2030. En total, en los países industrializados viven hoy alrededor de mil doscientos millones de personas. En el año 2000 se superará los mil doscientos cincuenta millones; en el 2030 se rozará la cifra de mil cuatrocientos millones de habitantes.

África, Asia y Oceanía, que hoy cuentan en total con poco más de 3,6 mil millones de habitantes, en el 2030 superarán los 6,9 mil millones. Si se tienen en cuenta algunas áreas marginales (no contempladas aquí) y el hecho de que algunos países que hoy se cuentan entre los pobres pasarán a la categoría de países ricos se llega a la conclusión ya anticipada al principio: en el 2030 tendremos mil cuatrocientos millones de personas en los países más desarrollados de la Tierra y casi siete mil millones en el resto.

§. Cuatrocientas megalópolis

Los próximos cincuenta años traerán consigo una notable concentración urbana. No se dispone por el momento de previsiones completas, ya que éstas sólo llegan al año 2000, pero incluso estos datos parciales son muy significativos. En el año 2000 habrá en el mundo más de cuatrocientas ciudades que superarán el millón de habitantes. En 1980 sólo alcanzaban esta cifra doscientas y casi todas pertenecientes a los países ricos. En el año 2000 muchas de ellas estarán en el área de países en vía de desarrollo. Se pueden poner algunos ejemplos, basados en evaluaciones de las Naciones Unidas.

México D.F. tendrá 31 millones de habitantes; Calcuta y Bombay, 20 cada una; El Cairo, 16-17; Yakarta, 17; Seúl, 18; Nueva Delhi, Manila y Teherán llegarán cada una a los 13 millones de habitantes, Karachi alcanzará los 16, mientras que Bogotá y Lagos tendrán casi 10 millones de habitantes cada una. Para tener una idea de la vertiginosidad del crecimiento baste recordar que Lagos pasará de los ochocientos mil habitantes de 1980 a 9,4 millones en el año 2000, mientras Seúl pasará de los 2,4 millones de 1960 a 18,7 millones.

Es fácil imaginar, frente a estas cifras, los grandes problemas que surgirán en muchas zonas en el curso de los próximos cincuenta años y la enorme demanda de servicios (energía, vivienda, asistencia sanitaria, etc.). Cabría preguntarnos por qué la gente continuará afluyendo a la ciudad a ritmo acelerado a sabiendas de que ya hoy más de una cuarta parte de los habitantes de los grandes centros urbanos vive al límite de la supervivencia.

La respuesta, desgraciadamente, es muy sencilla; en las megalópolis del Tercer Mundo, aun en las menos confortables, siempre se está mejor que en las aldeas rurales. Al viajero que llega de los países ricos le impresiona la miseria de las favelas o las bidonvilles y piensa que cualquier otra solución siempre sería mejor. Pero esto ocurre porque en las grandes ciudades conviven zonas de riqueza y pobreza, distantes en muchos casos sólo algunos centenares de metros, y la comparación entre niveles de vida de seis a ocho mil dólares al año da lugar a brutales contrastes.

Se ignora, sin embargo, que la vida en el campo no es en absoluto mejor en el plano económico, y aún es mucho peor en otros aspectos. En el campo no existe la posibilidad de organizarse y enfrentarse a la opresión y la explotación y falta, sobre todo, la esperanza de poder abatir un día el muro que divide la zona de la pobreza y la del relativo bienestar y riqueza. Muro que en las grandes ciudades del Tercer Mundo parece muy frágil.

§. El segundo planeta

Como conclusión de este capítulo subrayemos que en los próximos cincuenta años tendrá lugar una duplicación de la población. Habrá, pues, que «hacer sitio» a un nuevo contingente de habitantes igual en número al actual. El problema se verá agravado por el hecho de que en gran parte se tratará de gente que habitará en las zonas menos favorecidas de la Tierra. El «segundo planeta» que será necesario construir para estos cinco mil millones de personas, cuya llegada es inevitable, deberá estar acabado no sólo en muy poco tiempo (poco más de cincuenta años), sino también partiendo de reservas locales (capital, tecnología, personal especializado, factorías) a menudo inexistentes o muy escasas. Éstas son las razones por las que el «segundo planeta» se presenta, bajo todos los aspectos, como el mayor desafío y la mayor aventura a las que el género humano se tendrá que enfrentar.

Capítulo II
El mapa del planeta

Contenido:
§. Alimentos y petróleo
§. Plata y platino
§. Los pobres y los alimentos
§. El arroz y el agua
§. El buey y la ensalada
§. El árbol y la ciudad
§. El cielo y la tierra

Desgraciadamente hay muchos indicios que nos llevan a pensar que la próxima duplicación de la población, la prevista entre 1987 y el año 2050, será mucho más problemática que las precedentes, aunque menos rápida que la anterior que concluyó en el año 1987. Entretanto, es preciso reflexionar no sólo sobre lo referente a la duplicación, sino también en términos absolutos. En 1950 éramos dos mil quinientos millones de personas sobre el planeta y en los treinta y siete años siguientes hubo que encontrar el modo de hacer frente a la llegada de otros dos mil quinientos millones de habitantes. Hoy somos ya cinco mil quinientos millones de personas sobre la Tierra y hay que buscar el camino de asegurar la posibilidad de vida para otros tantos.

Aunque faltan todavía algunos años, el planeta está ya mucho más lleno de gente que en 1950 y los nuevos visitantes son exactamente el doble de aquellos por los que tuvo que preocuparse la generación precedente. Pero esto no es todo: la Tierra no es un sistema abierto, con reservas infinitas, sino un sistema cerrado en el que se dispone de reservas consideradas como bastante escasas, independientemente de la multiplicación que pueda derivar de un uso más intensivo de la tecnología.

No debemos olvidar que la duplicación precedente, la que pudo constatarse entre 1950 y 1987, tuvo lugar en gran medida gracias al petróleo, una extraordinaria fuente de energía cuyo uso empezó a hacerse habitual en muchos ámbitos y que significó un importante empuje para el desarrollo posterior. En líneas generales, en el período comprendido entre 1950 y 1987 el hombre salió adelante extrayendo de la tierra reservas energéticas no renovables (de tipo fósil, como el carbón, el gas y el petróleo) en grandes cantidades, e hizo lo mismo en lo referente a otros materiales, de los que ahora empieza a notar su escasez.

El problema del «segundo planeta» aún es, sin embargo, más sutil. Cuando la Tierra estaba poco poblada y las reservas disponibles eran muy abundantes y cubrían un horizonte bastante lejano nadie se preocupaba de pequeños detalles ni de su interacción. Pero en el momento en que se entra en la era de la escasez, todo parece de pronto más complicado y se descubre que todas las cosas, incluso las que se pensaba estaban muy alejadas entre sí, guardan un estrecho vínculo y plantean serios problemas de elección. Veamos algunos ejemplos.

§. Alimentos y petróleo
Todavía hay bastantes reservas de petróleo, pero todo el mundo sabe que sería necesario restringir un poco su uso. Hasta hace pocos años el consumo de petróleo aumentaba continuamente, y no se tenía en cuenta ni siquiera en qué se empleaba. Hoy día se ha hecho indispensable prestar un poco más de atención a su utilización, y es preciso, sobre todo, tratar de servirse de él para las actividades más útiles y no para otras en las que puede ser sustituido. Para ciertos usos será necesario recurrir a nuevas fuentes (como la solar o la nuclear) e incluso a viejas fuentes (como el carbón). Pero lo expuesto plantea delicadas cuestiones relacionadas con el medio ambiente y el clima, temas a los que no se solía prestar demasiada atención.

Podrían hacerse similares razonamientos en lo que atañe a la alimentación, otra reserva que se está agotando en una medida alarmante. Una manera de asegurar productos alimenticios para todos en cantidad suficiente es sin duda la de practicar una agricultura más intensiva, lo que proporciona un rendimiento más alto por parcela cultivada. Pero esto requiere un mayor empleo de energía. Y aquí surgen dos problemas: el primero consiste en no poder disponer de la energía necesaria; el segundo guarda relación con el eventual consumo excesivo de energía y sus efectos sobre el clima y el medio ambiente.

Hay que recordar, y ya se hablará extensamente del tema más adelante, que es suficiente la variación de un grado centígrado en la temperatura media del planeta para provocar una catástrofe de dimensiones colosales. Una agricultura más intensiva, necesaria para dar de comer a cinco mil millones de nuevos habitantes, es factible con tal de que el mayor consumo de energía requerido por esta actividad (y de otras que surgirán) no sea excesivo y no lleve a un inaceptable recalentamiento del planeta.

Pero, como puede suponerse, no sólo la agricultura requerirá un mayor consumo de energía. En el mundo empiezan a escasear muchos materiales. Casi todos pueden ser sustituidos, pero parece ser que muchas de estas sustituciones comportan procesos productivos que requieren un mayor consumo de energía.

Conviene aclarar este punto, ya que se sostiene que la construcción del «segundo planeta» será una empresa, además de difícil, única en su género. Hasta hace poco tiempo solía pensarse que entre el abastecimiento de alimentos, la calefacción de las casas y la disponibilidad de ciertos materiales no había ninguna relación. Hoy, por el contrario, es preciso tomar conciencia de que todos estos factores están profundamente relacionados y que, a su vez, se relacionan con la cuestión más general del clima global del planeta.

Será suficiente un solo dato para ilustrar las especiales características de nuestra situación respecto a las experiencias vividas hasta hoy por el género humano. Entre 1930 y 1975 la población mundial creció a un ritmo del 1,5% al año, mientras que el consumo (y por ende su disponibilidad) de energía aumentó el 5%. Esto significa que mientras la población se duplicaba, el consumo de energía aumentó ocho veces, a un ritmo, pues, cuatro veces y medio al crecimiento de la población.

La duplicación de la población de dos a cuatro mil millones que concluyó en 1975 fue, desde el punto de vista de la disponibilidad de energía, una duplicación «en descenso», producida en un mundo capaz de proporcionar cantidades cada vez mayores de energía e incluso de alimentos, de materiales y de todo lo necesario para el desarrollo de la vida. Y es más, el nivel bastante bajo del que se partía en cuanto al consumo energético permitió, hasta hace unos años, no tener que preocuparse por los efectos del consumo en el clima y el medio ambiente. Hoy, por el contrario, las perspectivas son muy diferentes.

La duplicación de la población que nos disponemos a afrontar se nos presenta muy cuesta arriba: las reservas energéticas son escasas y limitadas en el tiempo; las nuevas fuentes (solar y nuclear) plantean problemas en su empleo y, en cada caso, requieren un uso dosificado con mucho cuidado para no modificar de modo irreparable el clima de la Tierra. Y, claro está, tampoco hay que tirar piedras sobre el propio tejado. Es preciso evitar a toda costa que por abastecer de energía a todo el mundo se acabe por recalentar excesivamente la Tierra.

Es lógico suponer que en el próximo medio siglo el único problema no será, en términos generales, el de poner a disposición de la gente los recursos necesarios para vivir: habrán, por añadidura, graves problemas relacionados con la distribución de estas reservas y su correcto empleo en las distintas zonas del planeta. La escasez de las reservas y la gran diferencia, patente en la actualidad, entre las condiciones de vida de unos y otros países, acentuarán los problemas sociales y políticos. No parece que el mundo se encamine hacia un futuro en el que sea posible la unidad desde el punto de vista social y político. Todo lo contrario. Bajo este aspecto «la gobernabilidad» de la Tierra presentará dificultades, que hoy nos es difícil imaginar.

§. Plata y platino
Cuando se habla de la escasez de las materias primas, conviene distinguir entre escasez física y escasez económica. Algunas materias primas empiezan a faltar, en el sentido de que hay que buscar sucedáneos o hacer de ellas un uso muy restringido. Por el contrario, otras materias primas siguen estando disponibles, aunque a un coste más elevado que en el pasado.

En esta última categoría se encuentran englobadas prácticamente todas las materias primas conocidas. Hasta hoy se han ido utilizando sobre todo las que se encontraban en mayor concentración en la naturaleza, en los lugares menos profundos y más cercanos a las fábricas. En el futuro, habrá que resignarse a recorrer palmo a palmo los yacimientos más pobres, menos cómodos, más profundos y más lejanos a los lugares de empleo. Esto significaría unos costes mucho mayores, independientemente de la inflación.

Algunas materias primas son muy abundantes en la naturaleza, como el magnesio y el aluminio, cuya utilización es previsible que aumente en los próximos años, incluso en sustitución de otras materias primas a punto de desaparecer.

Sin embargo, para poder ser utilizados deben pasar a través de procesos productivos que comportan el consumo de muchísima energía. Su empleo está ligado a la disponibilidad de energía en cantidades suficientes. Vuelve a repetirse, pues, el fenómeno que apuntamos al hablar del alimento: puede haber más siempre que haya energía necesaria y su consumo no conduzca a «tirar piedras sobre el tejado» de la Tierra.

Sea como sea, dado que el coste de la energía está destinado a crecer, es evidente que los productos que se fabriquen con materias primas a base, sobre todo, de magnesio y aluminio, tendrán un costo proporcionalmente más alto.

Tampoco hay que olvidar las materias primas que son escasas casi por definición. La más famosa de ellas quizá sea el oro, aunque esto no representa ningún problema. El oro se suele utilizar sólo con fines monetarios o estéticos, pero rara vez como base para la elaboración de bienes, en su totalidad o en parte. El «segundo planeta» podrá sobrevivir a la escasez de joyas.

La situación es, sin embargo, muy diferente por lo que respecta a un material considerado algo así como el pariente pobre del oro: la plata, materia muy utilizada también con fines estéticos y decorativos. La plata tiene una aplicación «civil» muy importante: la fabricación de películas fotográficas y placas para radiografías, dos usos de los que el mundo moderno no puede prescindir. Pero las reservas comprobadas de plata son tan escasas que en la actualidad se buscan con ahínco técnicas para fabricar película fotográfica y placas radiográficas de alta definición sin necesidad de recurrir a la plata.

Un caso similar al de la plata, pero aún más grave, es el del platino, otro elemento empleado en el ámbito estético-decorativo. El platino, que es muy escaso, es un elemento fundamental como catalizador en los procesos de refinación del petróleo y de los productos intermedios de los que se extraen después fertilizantes. De la futura disponibilidad del platino depende pues la posibilidad de producir en cantidades suficientes derivados del petróleo y fertilizantes para la agricultura. Es un hilo, en suma, y no poco sutil, del que dependerá el estilo de vida de las poblaciones futuras y el abastecimiento de alimentos.

Pero el caso más grave, aunque no en términos tan inmediatos, es el del fósforo. Este mineral es, junto al nitrógeno y el potasio, uno de los tres elementos fundamentales para la fabricación de abonos. La disponibilidad del fósforo condiciona la futura productividad de la agricultura. Sin este elemento la agricultura moderna no podría ser concebida. Las evaluaciones de las reservas de fósforo varían mucho y se habla de que mientras todavía habrá platino dentro de cien años, aunque otros expertos alargan el período hasta los mil años, parece cierto que no se advertirá la falta de fósforo, aunque sea a un precio muy alto, durante unos pocos siglos. Pero, por otro lado, es evidente que no se trata de una materia prima fácilmente renovable y, por el momento, es insustituible. Su continuo y creciente uso va privando de hecho a la Tierra de un elemento importante y contribuye a disminuir la «dote» dejada a las generaciones futuras.

El mundo no podrá vencer la escasez sustancial de materias primas a menos que se disponga de la energía necesaria para su extracción y transformación. En el futuro habrá problemas de coste y distribución de materias primas, pero, no es menos cierto, habrá que enfrentarse a un problema de carencia física. Y hay que subrayar la relación entre la disponibilidad de materiales necesarios para la construcción del «segundo planeta» con la disponibilidad de energía. Un mundo que decidiese limitar mucho la producción de energía sería un mundo agobiado por el problema de la escasez física de materias primas y, por consiguiente, de alimentos.

§. Los pobres y los alimentos
En los últimos decenios la producción de alimentos ha aumentado más rápidamente que la población y de este modo no sólo ha crecido la disponibilidad en términos generales, sino también el alimento per cápita. Esto se ha debido, en gran parte, a la aplicación de métodos de cultivo cada vez más intensivos y, por consiguiente, a un rendimiento por hectárea progresivamente mayor.

Sin embargo, las organizaciones de las Naciones Unidas estiman que hay en el mundo al menos mil millones de personas mal nutridas —lo que representa una quinta parte de la población del planeta— y algunos centenares de millones de personas claramente desnutridas, con graves problemas en lo que se refiere a su desarrollo psíquico-físico. Y no porque haya una falta real de reservas alimenticias: en la base de esta tragedia subyacen, sobre todo, problemas de carácter político y económico.

Si se mira hacia el futuro es posible predecir que desgraciadamente la situación no va a cambiar. La producción de alimentos puede aumentar hasta cantidades más que suficientes. Pero se sabe que se llegará a una mayor disponibilidad de productos alimenticios a través de caminos que, en cierto modo, podrían agravar los problemas de los países en vías de desarrollo, de los países más pobres.

Los expertos opinan que esta mayor cantidad de alimentos se conseguirá a través de la explotación intensiva de los terrenos ya cultivados más que de la puesta a punto de nuevas zonas cultivables. Y la razón es bien sencilla: es más barato aumentar la producción en un terreno ya cultivado que preparar para el cultivo un terreno hoy desértico, una sabana o una selva.

A este respecto se estima que la productividad del terreno deberá aumentar muchísimo. Se calcula que hoy una hectárea de tierra proporciona, por término medio, la alimentación de tres personas. En el año 2000 la misma hectárea deberá garantizar la supervivencia de cuatro personas. Para llegar a este punto será indispensable incrementar el uso de maquinaria, de antiparasitarios y de fertilizantes. Por otro lado será necesario mejorar los sistemas de riego. Todo esto requerirá, como hemos subrayado más arriba, grandes cantidades de energía.

Resuelto este problema, cosa que como se verá no es tan sencilla, no deberán faltar alimentos. Es bastante probable que la situación de los países pobres sea aún peor que la actual. Las razones, como siempre, son evidentes. En los próximos cincuenta años la población mundial aumentará en cinco mil millones de personas. Y este aumento se verificará sobre todo en los países en vías de desarrollo. Los nuevos habitantes necesitarán mucho terreno para asentarse. Las ciudades crecerán enormemente y nacerán otras nuevas en las zonas más adecuadas para la agricultura en razón del clima y de la disponibilidad de agua. Lo cual dará lugar a una fuerte controversia en los países pobres a propósito de la tierra: las viviendas y las nuevas plantas industriales no tardarán en sustraer los mejores terrenos a la agricultura.

Quedarán disponibles para su cultivo las áreas menos confortables, menos regadas, menos fértiles, quizá selváticas o desérticas. Preparar para el cultivo un área desértica no es imposible: sólo requiere una inversión de capital que si no existe hoy no existirá mañana. Se trata de cifras muy elevadas. Ésta es la razón por la que el «nuevo alimento» que necesitará el «segundo planeta» será proporcionado abundantemente por la agricultura de los países ya industrializados, por medio de una explotación intensiva de los terrenos empleados desde hace tiempo para el cultivo de productos alimenticios.

Esta explotación se relaciona sustancialmente con un mayor consumo de energía para el riego, máquinas más capaces y una mayor cantidad de fertilizantes y antiparasitarios; y, por supuesto, con un mayor consumo de petróleo. Pero el petróleo es precisamente una de las reservas que en los próximos años aumentará de precio por encima de las otras que utiliza el hombre. En base a este razonamiento, los expertos prevén que el precio de los alimentos en el año 2000 aumentará al menos el doble en términos reales, al margen de la inflación, y de más de cinco veces en el año 2050.

Dado que los países en vía de desarrollo dependerán para su suministro de alimentos de los países más ricos bastante más que hasta hoy, es fácil imaginar que vamos camino del desastre. El alimento no faltará desde el punto de vista físico, pero será mucho más caro y será un «monopolio» sobre todo de los países más ricos. Bajo este aspecto, las cosas no serán fáciles para «el segundo planeta».

§. El arroz y el agua
Siempre a propósito del alimento, y para poner un ejemplo elocuente de cuál es el problema con que se enfrentan los países en vía de desarrollo, expondremos brevemente el contenido de un proyecto propuesto hace algún tiempo para una vasta área del Sur y Sudeste asiático que comprende las Filipinas. Indonesia, Singapur, Malasia, Tailandia. India, Pakistán y Bangladesh.

En esta zona vivían en los años 80 poco más de mil millones de habitantes (es decir, la cuarta parte de la población mundial). En el año 2000, según apreciaciones fiables, el número de habitantes habrá llegado a casi dos mil millones. La población será, pues, de casi el doble. El consumo de arroz per cápita en 1980 era de unos 150 kilogramos al año, es decir, apenas lo suficiente para la supervivencia.

El proyecto al que nos referimos tiene por objetivo duplicar en quince años la producción de arroz en el área. De este modo, conviene apuntarlo, no se consigue una gran mejora de las condiciones de vida de las poblaciones locales, pero al menos se ataja su deterioro. Así pues, de llevarse a cabo el proyecto, transcurridos quince años cada habitante de la zona tendría a su disposición sólo un poco más de la cantidad de arroz que tiene hoy. Subrayemos que se está hablando de un área en la que vive y vivirá alrededor de una cuarta parte de la población mundial, que ya hoy, come menos de lo necesario y que como se verá, es difícil que dentro de quince años pueda comer en la medida en que come en la actualidad.

Baste lo dicho para evidenciar que los objetivos del estudio citado no eran extraordinarios, pero sí muy razonables: se trata de lo mínimo que cabría hacer en la práctica. De lo que es necesario y urgente hacer para que una cuarta parte de la población de la Tierra no vea empeorar sus condiciones alimenticias.

El resultado de la investigación, en la que participaron muchos de los mejores expertos mundiales, fue, en síntesis, éste: se deberá aumentar la producción de arroz en la medida necesaria (un 100%) y posible, lo que requiere enormes reservas, casi al límite de lo factible. Veamos por qué.

En Japón existen estadísticas muy rigurosas sobre la producción de arroz desde los tiempos más antiguos. Partiendo de estos datos ha sido posible estudiar la progresión de la productividad alcanzada en este particular tipo de producción alimenticia.

En el año 600 (d.C.), por ejemplo, se obtenían en Japón 600 kilos de arroz por hectárea. En 1870, habiendo mejorado mucho los sistemas de riego, el rendimiento por hectárea había alcanzado ya los 2.700 kilos. Hacia finales del siglo pasado se introducen toda una serie de mejoras: fertilizantes, antiparasitarios, reforma agraria y mecanización de los cultivos. El resultado fue sencillamente explosivo: hoy en Japón se producen 6.000 kilos de arroz por hectárea, exactamente diez veces más que en el 600 (d.C.), hace unos mil cuatrocientos años.

Teniendo presente estos datos se ha estudiado la situación de los países citados en el proyecto y se ha descubierto que existen amplios «espacios» para aumentar la productividad; tomando como referencia el año 1980, Laos y Camboya tienen hoy en día una situación similar a la del Japón en el 900 (d.C.), al producir 1.400 kilos de arroz por hectárea. Bangladesh, Birmania y Tailandia se encuentran todavía en el nivel del año 1400 (d.C.). La India y las Filipinas están a su vez un poco más retrasadas, hacia el año 1200 (d.C.), con una producción de 1.700 kilos de arroz por hectárea. Corea del Sur y del Norte tienen casi la misma productividad que Japón.

Está claro que es posible llegar, en la zona de la que hablamos, a un sustancial aumento en la producción de arroz, desde el punto de vista de la técnica agraria. El elemento fundamental, como es fácil suponer, es el agua. Para producir más arroz hay que regar bien, regularmente y con mucho cuidado. En realidad, las propuestas contenidas en el estudio en cuestión se reducen, en la práctica, a un plan para el control del agua, su canalización y su uso en la manera más apropiada. Esta parte del proyecto supone una inversión, y aquí se llega al aspecto más problemático, de cincuenta mil millones de dólares en quince años. Otros cincuenta mil millones de dólares deberían dedicarse en el mismo período de tiempo al resto del proyecto (fabricación de fertilizantes, de antiparasitarios, maquinaria, almacenes, sistemas de transporte, etc.). El desembolso necesario se ha estimado en cien mil millones de dólares (de 1980) en quince años. Lo que equivale a unos quince billones de pesetas.

Se ha pensado en la alternativa de dejar aparte cincuenta mil millones de dólares (los que no se necesitan invertir en el proyecto del riego) en previsión del crecimiento espontáneo de la actividad económica, pero el problema sigue siendo los otros cincuenta mil millones de dólares. Se ha hecho un cálculo de las reservas financieras locales disponibles para tal empresa y se ha visto que es totalmente insuficiente.

Por otra parte, sin los cincuenta mil millones de dólares destinados a poner en marcha el plan de control del agua y del riego, la segunda parte del proyecto (la que debe autofinanciarse) no puede llevarse a cabo, y el plan pierde todo significado. Con sólo las fuerzas locales no es posible la duplicación de la producción de arroz. Hay que buscar otras soluciones. Se ha calculado que el proyecto puede realizarse a condición de que los países ricos estén dispuestos a conceder un préstamo a los países antes citados de dos mil millones de dólares al año durante un período de 15 a 20 años.

Se trata de una operación financiera muy importante, que sólo podrá hacerse si los países más ricos movilizan grandes reservas financieras y se determina una seria voluntad política de ayuda incondicional a esta zona del mundo. En cualquier caso, dado el volumen de la suma en juego y la duración de la empresa, sería necesaria una estabilidad y un orden en el campo económico que hoy en día es difícil prever. Y ésta es una razón por lo que el proyecto tarda en llevarse a la práctica. Recientemente Japón se ha mostrado muy interesado, aunque evidentemente le preocupa la situación del Sudeste asiático, ya sea por razones económicas o políticas.

Es interesante hacer notar que en este caso concreto el aumento de las reservas alimenticias tendría más visos de hacerse realidad mediante la mejor explotación de una zona hoy ya cultivada, aunque de una manera muy simple y descoordinada, más que preparando nuevas tierras para el cultivo. La razón es muy evidente: el dinero invertido en el proyecto daría sus frutos inmediatamente, posibilitando sucesivas inversiones. Una tierra «nueva», por el contrario, sólo daría sus primeros frutos a costa de unos volúmenes de inversión muy elevados.

§. El buey y la ensalada
A propósito del alimento conviene decir, y recordar, algunas cosas más. Pero antes debe quedar claro que producir más no es, técnicamente, un problema. Basta con disponer de suficiente cantidad de energía y capital. Por otro lado es evidente que el camino que se escogerá finalmente será el de hacer más intensiva la agricultura de las zonas ya cultivadas. Y esto comportará inevitablemente algunos riesgos. Uno de ellos es que no es posible sustraerse a la ley del rendimiento decreciente. A medida que se concentran los factores productivos sobre una misma parcela de tierra (se aumenta por tanto el uso de fertilizantes, de máquinas, de mano de obra) la producción crece, pero en proporción cada vez menor, hasta anularse por completo en el caso de que fertilizantes y maquinarias (o cualquier otro factor productivo) sean empleados excesivamente.

Esto significa que el alimento en los años venideros será mucho más caro que en la actualidad si consideramos las reservas empleadas y que caminamos hacia un derroche consciente de reservas, como la energética, que ya hoy se reconoce como crítica. Por otro lado, se ha visto que razones económicas y prácticas excluyen la posibilidad de poner a punto para el cultivo grandes extensiones de «nuevas tierras».

El vínculo entre la energía y la alimentación es más fuerte del que se podría pensar. Bastará, para demostrarlo, con reflexionar sobre el hecho de que, como se ha visto en el caso del Sudeste asiático, el aumento de la producción agrícola de un área depende casi siempre del agua. Del control de esta reserva, cuando el agua existe, o de la «fabricación» del agua cuando no la hay o es insuficiente. Está claro que si se dispone de energía el problema no existe. Se puede tomar la del mar y proceder a su desalinización con lo que se puede disponer de una cantidad prácticamente ilimitada de agua. O también se puede reciclar la ya utilizada, purificándola. Todo esto, sin embargo, requiere energía precisamente en zonas donde no hay fuentes energéticas, ni estructuras de transporte, ni siquiera los equipamientos mínimos para la población (iluminación, posibilidades de cocer y refrigerar los alimentos, vacunas, etc.).

El problema de la alimentación podría llegar a ser menos dramático si se siguiese el camino de los alimentos no tradicionales (como por ejemplo las bioproteínas. de las que se hablará más adelante al tratar el tema de la biotecnología).

En cualquier caso, parece posible afirmar que el alimento no faltará en el mundo. Aunque esto no obviará los graves problemas ligados a su distribución, en pro de que cada habitante de la Tierra tenga su justa ración de alimentos. Se ha visto ya que el mayor volumen de alimentos se producirá en los países más ricos, entre los cuales se alinearán países hoy en vía de desarrollo como Brasil y México, y que su precio estará destinado a aumentar notablemente. Para los países más pobres alcanzar una situación de aprovisionamiento regular no será una tarea fácil. Por otro lado, la historia de la comida es una historia por la que discurren paralelamente grandes derroches y grandes carencias.

Para tomar conciencia del problema, es suficiente con echar una ojeada al tema de la carne. Alrededor de una quinta parte de la población mundial carece de alimentos en cantidades adecuadas. Pero extensas áreas de mundo emplean proteínas vegetales para alimentar a los animales. Y ya se sabe que un buey, por ejemplo, transforma en proteínas animales sólo un 10% de las proteínas vegetales que consume. Las proteínas animales son sin duda más «nobles» y mejores que las vegetales, aunque no sea totalmente indispensable nutrirse de carne. Hay muchos pueblos que no comen carne y viven bien. Tras un cierto tiempo se puede advertir la carencia de algunos aminoácidos esenciales, pero no es un problema insoluble. Los japoneses viven sobre todo a base de vegetales y pescado, y una bajísima proporción de carne. En resumidas cuentas, hoy día no hay suficientes recursos alimenticios en el mundo pero hay quienes los derrochan ostensiblemente.

§. El árbol y la ciudad
Hemos podido comprobar que el medio ambiente en el que vivimos está expuesto a continuas agresiones y peligros. En el futuro, la situación se agravará, por lo que no estará de más ver en detalle cuáles pueden ser los daños que la acción del hombre puede acarrear al medio ambiente, ya que con el crecimiento de la población el proceso de degradación puede llegar a ser más intenso y rápido. Y lo grave es que, como hemos visto, el entorno del hombre debe ser considerado como una verdadera fuente de recursos.

Un primer fenómeno negativo, al cual ya se ha aludido, es el representado por la urbanización, es decir las edificaciones que sustraen tierra a la agricultura. Este problema lo padecerán particularmente los países más pobres, con abundantes zonas necesitadas de terrenos bien regados y poco accidentados, que utilizan precisamente los lugares con mayores posibilidades para levantar ciudades.

Otro fenómeno preocupante al que estamos asistiendo, de modo consciente y a veces inconvenientemente, es el de la desertización. Hoy día hay en el mundo novecientos millones de hectáreas desérticas, en las que no crece nada, y lo peor es que este fenómeno tiende a aumentar. Se prevé que en el año 2000 se alcanzará la cifra de mil millones de hectáreas de desierto y, muy probablemente, en el 2030 las zonas áridas cubrirán una extensión de más de dos mil millones de hectáreas. Esto significa que muchos terrenos antes fértiles se convertirán en desiertos, y desgraciadamente, en la mayoría de los casos, el culpable será el hombre.

Entre los factores que contribuyen a la formación de desiertos está, sin duda, la explotación intensiva de la tierra, ya se dedique al cultivo o a la cría de ganado. En los países del tercer mundo, principalmente los más pobres, se suele emplear técnicas muy irracionales, en vistas a obtener resultados rápidos, lo que conduce a una sobreexplotación del terreno y a su irreversible empobrecimiento. Por otro lado se cortan árboles con demasiada facilidad para convertirlos en material de combustión o de construcción, destruyendo así la capa vegetal, que no volverá a crecer. En los países más pobres la costumbre de usar residuos animales o vegetales para la producción de energía (a través de su combustión directa o de su fermentación para hacer gas) contribuye a empobrecer el terreno: si estos elementos fueran reintegrados al suelo, lo enriquecerían y lo mantendrían fértil. Pero, como decíamos, es precisamente en las zonas más pobres del mundo donde el hombre es a menudo brutal y pretende obtener de la tierra todo lo que es capaz de dar sin tener en cuenta el hecho de que después, durante siglos, no dará nada.

Otras veces el deterioro de la tierra es consecuencia de la falta de cuidados suficientes, cosa frecuente en los países más industrializados. Existen bastantes ejemplos de degradación del suelo, que sometido a un régimen equivocado de riegos y a la acción de los agentes atmosféricos, se endurece, queda inútil para el cultivo, se «cuartea» como un ladrillo. Sin llegar a tanto, el uso equivocado del agua puede dar lugar a una excesiva salinidad o alcalinidad del terreno, hasta el punto de casi inutilizarlo para el cultivo. De este fenómeno existen ejemplos tanto en los países industrializados como en los pobres: algunos proyectos de regadío de extensas zonas se traducen rápidamente en desastres ecológicos y económicos porque los terrenos objeto de tantas atenciones son en realidad víctimas de regímenes de agua incorrectos.

En otras ocasiones el terreno se empobrece por necesidad. Es el caso de la construcción de presas para la producción de energía eléctrica. Las presas, al retener el agua, retienen asimismo el limo junto con los materiales orgánicos contenidos en los ríos, lo que comporta que tras un cierto tiempo los terrenos cercanos sean menos fértiles. Incluso las aguas se deterioran: los peces escasean e incluso, en algunos casos, desaparecen. Estos fenómenos se detectaron en Egipto después de la construcción de la gigantesca presa de Asuán. La enorme cantidad de agua embalsada dio lugar a fenómenos de evaporación bastante más rápida de lo previsto, a consecuencia del crecimiento espontáneo de plantas acuáticas como el jacinto de agua, que a su vez contribuyó a la difusión de gusanos portadores de una grave enfermedad infecciosa: la bilarciosis. Para evitar la epidemia se recurrió al uso de pesticidas químicos, que contaminaron las aguas. El hecho de que las aguas cercanas a la presa fueran pobres en sustancias nutritivas y limo hizo necesario el uso intensivo de fertilizantes químicos en la agricultura del valle del Nilo, con sus secuelas de contaminación y trastornos en la práctica de la agricultura local. Los métodos de regadío adoptados han comportado la penetración de sal en el terreno reduciendo su fertilidad. La pesca en la zona costera de la desembocadura del Nilo, que antes de la construcción de la presa era muy abundante, se ha reducido al mínimo por falta de sustancias nutritivas. Y así se han ido encadenando unos efectos a otros cuya naturaleza no había sido prevista por los planificadores de la presa de Asuán, que sólo habían tenido en cuenta los aspectos positivos.

Pero hay otras maneras de degradar el medio ambiente. Por ejemplo, conviene prestar mucha atención al uso de pesticidas y herbicidas, que no suelen ser seleccionados, dando lugar al uso de productos poco adecuados para atajar las infestaciones. O, por el contrario, al querer eliminar plagas, se eliminan incluso sus depredadores naturales. El resultado es que si llega una nueva plaga (insectos, gusanos, malas hierbas), podría causar muchos daños antes de que el hombre pudiera intervenir.

El problema de los pesticidas se está convirtiendo en dramático también por otra razón. Al afirmarse en todo el mundo una agricultura de tipo intensivo, se están difundiendo (especialmente en lo tocante a los cereales) algunas especies cuidadosamente seleccionadas capaces de ofrecer un gran rendimiento por hectárea. Esto hace que la agricultura mundial se vaya organizando en torno a unas pocas clases de plantas; cosa muy peligrosa ya que si llega una plaga de características desconocidas, existe el riesgo de que tenga lugar una catástrofe agrícola a nivel mundial antes de que se haya puesto a punto el pesticida adecuado. En el pasado la gran variedad agrícola de la que se disponía era algo así como una barrera natural contra la propagación de plagas.

Los cultivos muy intensivos son más delicados y están más expuestos a los riesgos de la naturaleza. Por lo cual convendría mantener a su alrededor un medio ambiente no degradado ni empobrecido, para que en caso de peligro puedan encontrarse en él las primeras defensas. Desgraciadamente, hemos visto que no ocurre así. Y junto a los daños que sufre continuamente la tierra, hay que mencionar otros no menos graves que afectan al agua, también en fase de preocupante deterioro.

Mientras tanto, la aniquilación de los bosques hace que los cursos de los ríos y los torrentes sean más irregulares, impidiendo que el agua tenga una correcta relación con los lugares por donde pasa. Además hay muchos factores contaminantes. Y no hablamos sólo de la ciudad, que «libera» aguas muy contaminadas, frecuentemente a niveles a todas luces inaceptables. Incluso el mantenimiento de los animales y la agricultura, sobre todo la intensiva, es una fuente de contaminación nada despreciable: al fin y al cabo los restos de excrementos animales, de herbicidas y pesticidas vertidos sobre los campos influyen en el sistema hídrico y lo deterioran. También la difusión de los métodos de irrigación contribuye a empobrecer las aguas, que «dan» más que «reciben». No es casual que los ecosistemas fluviales próximos a las ciudades y las zonas de agricultura intensiva sean siempre los más pobres en peces. El agua de los ríos que desembocan en el mar o es rica en materias contaminantes o es pobre en material orgánico y oxígeno, indispensables para el desarrollo de cualquier ser vivo.

§. El cielo y la tierra
No sólo la tierra y el agua han sufrido un proceso de deterioro, también el aire se resiente de los efectos negativos de los agentes contaminantes. Se sabe, por ejemplo, que en las proximidades de las ciudades la calidad del aire es muy deficiente. Y se sospecha, aunque en muchos casos es algo más que una simple sospecha, que la contaminación se va extendiendo a zonas del planeta cada vez más extensas. La verdad es que existe preocupación por saber mucho más sobre este punto porque se tiene la impresión de que el clima de la Tierra está sufriendo toda una serie de modificaciones, aunque por el momento sólo puede hablarse de síntomas y preocupaciones, no carentes de fundamentos.

Los peligros más graves, en lo que se refiere a la calidad del aire y al mismo clima, provienen de tres agentes: al anhídrido sulfuroso, el anhídrido carbónico y los óxidos de nitrógeno. Los tres son originados por la combustión de las fuentes energéticas: carbón, gas y petróleo. Cada uno de estos agentes actúa de manera diferente, pero igualmente peligrosa, sobre el clima de la Tierra. Y, desgraciadamente, la combustión de las materias fósiles es un fenómeno que tiende más a ampliarse que a restringirse. Por eso, de ahora en adelante, habrá que prestar mucha atención a cuanto tenga relación con el clima, el cielo, la lluvia y el viento. No hay que olvidar que los fenómenos relativos al deterioro del clima no proceden de modo lineal, sino en progresión geométrica, por lo que es posible que la calidad del clima empeore de golpe o de manera muy rápida.

Se ha dicho que los tres agentes citados actúan de diferente modo sobre el clima. Veámoslo. El anhídrido sulfuroso (y lo mismo puede decirse respecto al anhídrido carbónico y los óxidos de nitrógeno en lo que atañe al fenómeno en estudio) una vez liberado se mezcla con la humedad del aire y, al oxidarse, se transforma en ácido sulfúrico. Se trata de pequeñas cantidades puesto que este ácido está muy diluido, hasta el punto de que el hombre prácticamente no advierte sus efectos. Las consecuencias, sin embargo, se hacen sentir sobre los materiales de construcción. Particularmente resulta dañada la piedra arenisca, que se desmenuza y se escama, si está sujeta mucho tiempo a la acción del ácido sulfúrico. Recordemos que algunos de nuestros más bellos monumentos históricos se construyeron con piedra arenisca calcárea. Los daños que pueden derivarse de la lluvia ácida en el orden estético-cultural son inmensos y, por lo general, irremediables.

Pero esto no es todo, en Noruega se ha llevado a cabo una investigación sobre un conjunto de 1.500 lagos, en una época muy ricos en pesca, y se ha descubierto que el 70% de ellos no contiene forma alguna de vida animal. Se ha sabido que la calidad del agua había sido gravemente alterada por las abundantes lluvias ácidas caídas en el curso de los años precedentes y que sobre esa área se depositaban masas de aire procedentes de zonas de Inglaterra, con un intenso volumen de combustión de carbón fósil rico en azufre. La dinámica del fenómeno se ha probado más allá de cualquier duda. No existe por el momento un inventario o una investigación referida a todo el planeta sobre los daños provocados por la caída de la lluvia ácida, pero se intuye que puedan ser muy grandes y estar muy difundidas.

Las consecuencias más difíciles de evaluar, y potencialmente peligrosísimas, son las que se derivan de la acumulación de anhídrido carbónico en la atmósfera. El fenómeno, conocido como «efecto invernadero», es bastante fácil de comprender. El anhídrido carbónico producido por la Tierra por la combustión de materias fósiles se acumula en la atmósfera y forma una especie de capa invisible que circunda el planeta. Esta capa impide que el calor de la Tierra se disperse libremente por el espacio, y aumenta la temperatura del planeta. Este acontecimiento puede tener consecuencias catastróficas, como se verá más adelante. Pero, antes de hablar de la temperatura, conviene señalar que, según afirmaciones dignas de todo crédito, en el año 2000 habrá en la atmósfera un porcentaje de anhídrido carbónico superior al 30% del existente al inicio de la era industrial.

Desgraciadamente se trata de un fenómeno destinado a aumentar con el paso del tiempo. En efecto, se prevé que en el 2050 el contenido de anhídrido carbónico en la atmósfera será el doble que el existente al principio de la era industrial; la razón es obvia; por una parte, aumenta continuamente el consumo de combustibles de origen fósil, lo que hace que aumente la cantidad de carbono que llega al aire; por otra, prosiguen, como hemos visto, las pérdidas de bosques en amplias zonas, reduciéndose el número de árboles, que se «alimentan» precisamente de anhídrido carbónico. La situación en la Tierra es ésta: cada vez se produce más anhídrido carbónico y se consume menos. La diferencia se acumula en la atmósfera e incrementa el efecto invernadero.

Pero ¿por qué es un fenómeno tan peligroso? Porque la temperatura de la Tierra está en el momento más delicado de toda la existencia del planeta. Bastaría un aumento de dos o tres grados centígrados para modificar sustancialmente las posibilidades de cultivo de regiones enteras, así como el régimen de lluvias y vientos. Y esto no es nada en relación al acontecimiento más temido y probable, el derretimiento de una parte de los casquetes polares. Esta última afirmación puede parecer increíble, pero no es así. El incremento de un grado centígrado en la temperatura media de la Tierra podría significar un aumento de la temperatura media de las regiones polares de unos 3 o 4 grados. La extensión de los hielos polares está determinada por la temperatura media de la atmósfera. La latitud donde la temperatura ronda los cero grados se encuentra en el límite entre el océano y los casquetes polares. Si la temperatura media de esta zona aumentara 3 o 5 grados, este límite retrocedería bastante hacia los polos. Todo el hielo comprendido entre el viejo y el nuevo límite se derretiría. Mientras que ello no tendría efecto alguno en el Polo Norte, donde el hielo flota sobre el mar y, por consecuencia, debido al principio de Arquímedes, el nivel del mar no aumentaría, la situación en el continente

Antártico sería muy distinta. En efecto, allí los enormes estratos de hielo están depositados sobre fondos rocosos y, al derretirse, confluirían con el océano, aumentando peligrosamente su nivel. Se estima que un acontecimiento de estas dimensiones haría subir el nivel de los mares unas decenas de metros. Ciudades costeras como Nueva York. San Francisco o Londres quedarían sumergidas, París se encontraría a varios metros de profundidad, la llanura padana quedaría casi totalmente cubierta por las aguas y Roma, totalmente sumergida. Se perderían grandes extensiones de tierra y muchas ciudades; instalaciones industriales o portuarias, enseres y obras de arte correrían la misma suerte. No sería el fin del mundo, pero sí una catástrofe de imponentes dimensiones, difícil de dominar por el hombre.

No se trata, claro está, de una posibilidad que esté a la vuelta de la esquina. Sin embargo, el peligro es real y podría presentarse mucho antes de lo que se piensa, si no se controla la acumulación de anhídrido carbónico en la atmósfera. Y el problema se agrava si no se olvida que en el próximo medio siglo la población de la Tierra está destinada a crecer, lo que significará una pérdida de bosques más rápida de la acaecida hasta hoy y un fortísimo aumento de la combustión de materiales fósiles. Y éstos son precisamente los dos fenómenos que, desde distintos frentes, provocan la concentración de anhídrido carbónico en la atmósfera.

Hemos aludido ya a la también peligrosa acción que los óxidos de nitrógeno (productos de la combustión de materiales fósiles) y los cloro-flúor-hidrocarburos (gases contenidos normalmente en los aerosoles) ejercen sobre el ozono de la atmósfera. El ozono es una variante del oxígeno que está presente en la alta atmósfera en su estado natural y que tiene una función absolutamente vital: filtra y reduce la cantidad de rayos ultravioleta que llegan a la Tierra. Los óxidos de nitrógeno y los cloro-flúor-carburos se caracterizan por destruir el ozono y, por consiguiente, eliminar gradualmente el filtro que protege a la Tierra de las radiaciones ultravioletas. Estas últimas son las radiaciones más notables que se conocen: tienen efectos cancerígenos e incluso pueden alterar los genes en los hombres y las especies animales. Tampoco en este caso, conviene subrayarlo, el desastre aguarda a la vuelta de la esquina. Pero hay que estar alertas al peligro.

Por suerte, el problema del «agujero» en la capa de ozono causado por los CFC ha sido encarado a tiempo: en un acuerdo alcanzado entre los países industrializados en Montreal, en 1987, se decidió la progresiva eliminación de los CFC, para los que se están encontrando las sustituciones más adecuadas a sus distintas utilizaciones. El protocolo de Montreal ha requerido larguísimas negociaciones y ha constituido el primer ejemplo de planificación ecológica a nivel planetario. Y tendrá que ir seguido de otros muchos si se pretende mantener la habitabilidad del planeta Tierra.

Capítulo III
La desconfianza en la tecnología

Contenido:
§. La estufa y el automóvil
§. El sabio y los laboratorios
§. Los abonos y la bomba
§. Los descubrimientos y el crecimiento
§. El emperador y la luna
§. Los peces y el presidente

En nuestros días ya no existe esa esperanza en la tecnología que podía haber hace veinte o treinta años. De un período en el que se esperaba que la tecnología pudiese resolver de la mejor manera posible todos los problemas de la humanidad, se ha pasado a una fase de creciente desconfianza. Desconfianza que no está limitada a la opinión pública, en general poco informada sobre estos temas, sino que se extiende en muchos casos a los que detentan el poder, e incluso a los responsables de la tecnología, es decir, a los científicos y los directores de empresas.

Esta desconfianza no nace de la nada, sino que se apoya en sólidas razones. Quizá se ha ido demasiado lejos en el desarrollo tecnológico sin, paralelamente, preocuparse de las consecuencias que tenían para la calidad de vida de las gentes las innovaciones poco a poco introducidas en la sociedad. Y, sin duda, hoy día estamos asistiendo a un proceso que apunta hacia la limitación de la tecnología; es a esto a lo que nos referíamos al hablar de desconfianza.

Hay que tomar muy en serio esta situación por toda una serie de razones. En primer lugar, como decíamos, esta desconfianza no es caprichosa sino que se fundamenta en una larga lista de casos en los que la tecnología ha estado «mal usada» o usada de un modo demasiado apresurado. En segundo lugar, la construcción del «segundo planeta» no es ni siquiera imaginable sin la ayuda de la tecnología y un uso exhaustivo de todas las posibilidades que ofrece. En tercer lugar, se ha llegado a un punto de inflexión en el mundo de la tecnología. Hasta hace muy poco tiempo, los descubrimientos científicos y tecnológicos han posibilitado, como se verá más adelante, la construcción de núcleos industriales cada vez más concentrados, cada vez más grandes, con todos los fenómenos negativos que esta aglomeración puede provocar. Hoy, por primera vez en la historia de la humanidad, esta tendencia puede ser alterada. Las nuevas tecnologías (pero sobre todo la electrónica, la informática, los nuevos materiales y las biotecnologías) permiten la realización de actividades industriales descentralizadas y de pequeñas dimensiones.

La tecnología actual encierra dos promesas de gran valor: la posibilidad de ahorrar energía y materias primas y la posibilidad de caminar hacia una sociedad más repartida en el territorio, más a la medida del hombre. Puede ser curioso señalar que precisamente estas dos posibilidades son las que harían muy viable la construcción del «segundo planeta», la asimilación de cinco mil millones de nuevos habitantes, sin que afecte demasiado a la vida sobre el planeta.

Ya hemos dicho, como se recordará, que la empresa de construir este «segundo planeta» para hacer frente a la próxima duplicación de la población es una tarea, única e irrepetible en la historia del hombre. Ahora podemos añadir sin temor a equivocarnos que esta empresa sería impensable sin recurrir a la nueva tecnología. Ésta es la razón por la que es importante acercarse a ella con una actitud abierta y no hostil.

Pero para llegar a este punto es indispensable echar un vistazo a la historia de los últimos decenios para ver dónde y porque se han cometido errores. Posteriormente podremos pasar a trazar el perfil de la nueva frontera que la tecnología actual está abriendo al hombre.

§. La estufa y el automóvil
Cuando se habla de tecnología conviene prestar atención para no confundir los fenómenos entre sí ni las causas con los efectos. Esta advertencia es tanto más útil cuando se trata de observar ciertos hechos de forma objetiva. No siempre son reales las culpas que se le atribuyen a una determinada tecnología. Veamos algunos ejemplos. Suele decirse que las centrales eléctricas que utilizan carbón o aceite combustible son muy contaminantes. También es ya un tópico decir que los automóviles son muy contaminantes. Qué duda cabe que el efecto de las fábricas y los automóviles sobre el medio ambiente es relevante; pero es indispensable hacer unas precisiones.

Por lo que se refiere a las centrales eléctricas se puede afirmar que la vieja estufa de leña contaminaba al menos en la misma medida, si no más. La diferencia era que las estufas de leña, o carbón, eran relativamente pocas y estaban muy repartidas por el territorio. Además, casi desaparecieron antes de la irrupción de las grandes concentraciones urbanas. Por consiguiente, no es justo atribuir toda la responsabilidad de la contaminación atmosférica a la que provoca en la actualidad la tecnología empleada en las fábricas. Es verdad, por otra parte, que hoy se consume mucha más energía de la que se consumía cuando estaban en boga las estufas de leña o de carbón. El aire era más limpio en esa época, no porque se utilizase una tecnología menos contaminadora (la estufa), sino porque se consumía poquísima energía y se quemaban poquísimos combustibles.

El mismo razonamiento se puede hacer en relación al automóvil. Como tecnología no es especialmente contaminante. Claro que si se piensa en una ciudad como Los Ángeles, donde circulan continuamente por sus calles dos millones de coches, es lógico que el medio ambiente se degrade y bastante rápidamente. Pero pensemos en lo que sucedería en Los Ángeles si de pronto sus habitantes decidieran volver a servirse de los caballos para sus desplazamientos cotidianos. Probablemente no bastaría con seis millones de animales y las calles de la ciudad se convertirían en un gran estercolero, que iría desde la periferia a los barrios del centro. Sin contar con que, por otra parte, el «servicio» de transportes sería muy fatigoso, seguramente menos rápido, menos fiable y, en cualquier caso, bastante más complejo. Antes de la llegada del automóvil. Los Ángeles era una ciudad menos contaminada, pero debido simplemente a que la población, además de ser menos numerosa que la actual, se desplazaba mucho menos. El caballo visto como «máquina» para el transporte de personas y cosas es, si se piensa bien, mucho menos limpio que un coche de la Ford o de la General Motors.

Los dos ejemplos que hemos puesto, aunque podrían ponerse muchísimos más, quieren subrayar que cuando se habla de tecnología hay que distinguir las características de una innovación de las consecuencias que se derivan de su empleo a gran escala. Sirvan también estos dos ejemplos para no olvidar que a menudo una nueva tecnología ha inducido consumos, comportamientos y cambios sociales muchos más importantes, en cierto sentido, que los excesos que de ella se hayan derivado.

Tampoco hay que olvidar que las tecnologías a las que se acusa de ser las causantes de la contaminación y de otros problemas, son las que han motivado un radical y profundísimo cambio en las condiciones de vida del hombre. El automóvil, sin ir más lejos, ha permitido a los habitantes de la Tierra una movilidad que está en la base de la sociedad contemporánea. El hecho de que los miembros de una misma familia puedan vivir lejos del lugar de trabajo y trabajar en lugares diferentes no sería concebible sin el automóvil, que permite cubrir distancias de decenas de kilómetros en unos minutos.

Antes del automóvil todas las actividades del hombre (habitar, trabajar, estudiar) debían realizarse necesariamente en un reducido perímetro, ya fuera en los pueblos agrícolas o en las ciudades industriales, donde las viviendas que surgían alrededor del lugar de trabajo proporcionaban una escasa libertad, incluso psicológica, a los individuos. Pero la tecnología del automóvil es rica en paradojas, en contradicciones. Es notable, por ejemplo, su carácter centralizador: los coches pueden producirse a precios razonables solamente en plantas industriales de grandes o grandísimas dimensiones; y, como hemos visto, el automóvil es uno de los productos de la técnica que más que ningún otro ha abierto la posibilidad de una vida no aislada, incluso a las comunidades más lejanas y de menores dimensiones. Pero el automóvil es también el origen de las grandes «ciudades-dormitorio»

Un razonamiento parecido puede aplicarse a las centrales productoras de energía eléctrica. También en este caso nos encontramos frente a una tecnología concentrante: unas cuantas «fábricas» pueden producir la energía que servirá después para ciudades y regiones enteras. Pero incluso aquí no falta un aspecto descentralizador: sólo el desarrollo de la energía eléctrica ha permitido llevar la energía, a precios razonables, a las comunidades aisladas y, por tanto, dotarlas de todos los servicios modernos (desde el frigorífico a la televisión), lo cual representa un enorme salto adelante en cuanto a la calidad de vida. Si la humanidad todavía se dedicara a la producción individual de energía a través de estufas de leña o carbón, la vida en pueblos lejanos o aislados seguiría siendo difícil y penosa.

§. El sabio y los laboratorios
Dado que la gente mantiene frente a la tecnología y sus aplicaciones una actitud de desconfianza y carece de suficiente información, conviene que aclaremos un punto: ¿cuándo, en qué momento se ha pasado del entusiasmo y la confianza a la frialdad actual? Desgraciadamente, no se puede indicar una fecha concreta, quizá porque en este caso confianza y desconfianza han viajado juntas durante un tiempo; se puede decir, por ejemplo, que aun en los años 50, es decir, hace casi medio siglo, la tecnología del átomo parecía ser la gran esperanza de la humanidad. Hasta el punto de que fue posible organizar en Ginebra un convenio bajo la rúbrica de «Atoms for Peace», en el que participaron muchísimas naciones y que marcó las pautas para los posibles usos pacíficos del átomo. Hoy, al cabo de menos de una generación, un convenio así, planteado más en términos triunfalistas que problemáticos, no sería posible y siempre que se plantas el uso de la energía nuclear se formulan reservas muy fuertes aunque no siempre justificadas.

En lugar de fijar una fecha será más oportuno tratar de comprender los fenómenos que se ocultan tras esta nueva actitud de la opinión pública frente a la tecnología, actitud que hoy día representa una de las dificultades más graves para poder esbozar el futuro de la Tierra. Uno de los argumentos más a menudo esgrimidos, con una definición bastante impropia por cierto, es el de «saturación». La gente se siente un poco cansada de tecnología. Es un hecho que pertenece a la experiencia individual de cada uno de nosotros. Hasta 1950, el avión, el automóvil, la televisión y el mismo teléfono suscitaban, al menos en Italia, continuos motivos de admiración. Eran «descubrimientos» que hacían intuir un mundo de grandes posibilidades y de aún más grandes comodidades. La gente se quedaba embobada mirando el cielo cada vez que pasaba un avión y un gran número de curiosos rodeaba frecuentemente los nuevos modelos de automóviles. Para no hablar de los televisores que, expuestos en los escaparates con las pantallas encendidas, atraían la atención de multitud de transeúntes.

Hoy todo eso ha pasado a la historia. La gente usa todos estos «descubrimientos» como si los hubiera tenido desde siempre, asiste a la «electrificación» de su vida como la cosa más natural del mundo y no da prueba alguna de maravillarse. El hombre ha ido a la Luna y, por consiguiente, se supone que la tecnología es capaz de hacer cualquier cosa. Cada nuevo descubrimiento es aceptado como algo natural, un poder más del hombre. La maravilla, la sorpresa, la admiración dieron paso a la desconfianza, la preocupación por los problemas que un uso masivo de la tecnología puede provocar en la vida de la gente, en las reglas de convivencia, en la salud de la población y del planeta, en el equilibrio mundial.

Según algunos, sin embargo, hay que cavar más hondo aún para encontrar las raíces de la desconfianza en la tecnología. Es preciso ir hasta los laboratorios donde nace, porque es ahí donde han tenido lugar los mayores cambios. En términos muy simples podría decirse que hasta la segunda guerra mundial existía aún la figura del «inventor», del individuo aislado que en su casa o con ayuda de un pequeñísimo laboratorio «descubría» algo fundamental. La tecnología, en esa fase, era aún muy «humana» y, sobre todo, tenía las características, comprensibles para la gente, de una gran aventura personal, un poco como sucedía con los grandes exploradores o los grandes condotieros del pasado. En líneas generales, el inventor, aunque dotado de cualidades excepcionales y de extraordinario prestigio científico y profesional, era frecuentemente una persona normal y corriente, lo que contribuía a hacer de su descubrimiento un producto «humano», dominable, incapaz de producir miedo o de suscitar desconfianza o perplejidad.

A partir de la segunda guerra mundial, por el contrario, nacen los primeros laboratorios de investigación. Lugares donde trabajan millares, millares de decenas de personas, según estrictos programas de investigación. Los efectos de esta innovación son de dos tipos: los «descubrimientos» pierden su carácter «humano», ya que son fruto de la organización y esfuerzos conjuntos de un ejército de investigadores. Por otro lado, el número de estos descubrimientos aumenta de modo impresionante. La gente no logra llevar el paso del progreso de la tecnología y sus muchas aplicaciones. Todo lo que entra y sale de los laboratorios comienza a teñirse de misterio, la opinión pública se desinteresa del curso de las investigaciones, de las características de los descubrimientos y sólo ve los resultados. Se aleja, pues, de la tecnología. Errores e incidentes, aunque sean inevitables, hacen el resto. La ciencia y la tecnología primero «calientes» y después «frías» han acabado por ser distantes y, en algunos casos, enemigos.

Podrían ponerse muchos ejemplos, pero por el momento baste el de la radio y los transistores. Los fundamentos de la radio, como se sabe, se deben a un inventor aislado. Marconi, y después correspondió a otros, a las grandes industrias, la tarea de convertir el descubrimiento en producto, primero fabricado en serie y más tarde en gran serie. Pero la radio, como concepto, como idea, entra aún en la tradición del sabio que encerrado en su laboratorio, casi solo, descubre «algo» que hace dar un paso adelante a la ciencia y a la tecnología. La radio, como descubrimiento, es un fruto de finales del siglo pasado, aunque su difusión comercial y masiva tendrá lugar mucho más tarde.

En los años inmediatamente posteriores a la segunda guerra mundial, el transistor, destinado a revolucionar la tecnología de la radio y a hacer posible la producción y venta de millones de ejemplares, ya no es fruto de un sabio aislado. Tres investigadores recibieron el Premio Nobel por haber inventado el transistor, pero todo el mundo sabe que sus esfuerzos hubieran sido inútiles sin la labor de los Bell Laboratories, de la compañía telefónica americana Bell, en la que trabajan diez mil personas a jornada completa y que gasta cada año en investigación varios miles de millones de dólares.

Por otro lado, mientras que la gente sabe casi todo sobre la radio, cómo funciona y cuáles son sus aplicaciones, ignora casi todo sobre el transistor. Antes de este descubrimiento, para construir radios, televisores y aparatos que comportaran el control de corrientes eléctricas y su amplificación, se usaban válvulas termoiónicas especiales. Objetos parecidos a las bombillas, en los que se crea un vacío total o se introducen gases apropiados, y donde se llevan a cabo procesos muy delicados. Estas válvulas eran difíciles de construir, bastante costosas y, por otro lado, bastante complicadas. Con el transistor todo eso desaparece. Las mismas funciones de las válvulas termoiónicas son capaces de ejercerlas unos objetos sólidos, que no necesitan ni del vacío ni de la introducción de gases especiales, muy pequeños (a veces incluso cien veces menos que una válvula normal) y, por si fuera poco, de producción fácil y «en serie». Una revolución.

El transistor permitió fabricar las famosas «radios japonesas», pequeñas y compactas, que luego abrieron camino a toda una serie de espectaculares aplicaciones. Posteriormente, la misma técnica que había permitido a los Bell Laboratories fabricar los transistores permitirá a otro grupo investigador poner a punto los microcircuitos: sutilísimas plaquitas de silicio en las que se han concentrado no sólo las funciones de los transistores, sino también de otros componentes de los circuitos electrónicos. Con los microcircuitos todo un mundo pasa a la historia: se acabaron las soldaduras, las marañas de hilos en los aparatos electrónicos, se acabaron, finalmente, las «cajitas» llenas de piezas y piececitas. Los aparatos electrónicos son ahora construcciones muy compactas, muy simples y muy fiables. Con los microcircuitos integrados, de los que la gente ignora en la mayoría de los casos incluso su existencia, por no hablar de su funcionamiento, la electrónica ha vivido, junto a la válvula termoiónica y los transistores, su tercera revolución, que ha apuntado hacia funciones más complejas resueltas por ingenios cada vez más sencillos y baratos. Ya en este momento los «personal Computer», e incluso computadoras que hasta hace pocos años se tenían por grandes, utilizan un microprocesador para su propio gobierno, mientras que para los próximos años se están estudiando «chips» de memoria con 254 Mbit de información. Estas soluciones apuntan a la futura realización de dispositivos integrados con elementos constituidos por pocos átomos, o con pequeñas moléculas inorgánicas y orgánicas. La micro y nano-tecnología que se dirigen a dispositivos más y más pequeños no solamente afectan a la electrónica, sino a los sensores y los sistemas mecánicos (motores, engranajes, instrumental).

§. Los abonos y la bomba
El nacimiento y formación de los grandes laboratorios de investigación es anterior a la segunda guerra mundial. Pero si nos remontamos a los años precedentes al conflicto que tuvo lugar entre 1915 y 1918, veremos que la industria química alemana ya había comenzado a investigar de modo organizado y sistemático. La cuestión que lleva a la constitución, casi inevitable, de centros de investigación en grupo, es la de la «fijación» del nitrógeno, una etapa fundamental en el proceso de producción de abonos. Para Alemania, dominar el nitrógeno significaba independizarse de los nitratos de Chile, materia prima no sólo de los explosivos químicos, sino también de los fertilizantes a base de nitrógeno. Significaba establecer una agricultura desligada de aprovisionamientos externos y, por consiguiente, una economía completamente autosuficiente, hasta en lo referente a los artículos alimenticios. Esto no era, cuando fue concebido, sólo un «proyecto bélico», como los que veremos más adelante, aunque en cierto sentido se englobaba en la misma lógica, ya que tendía a convertir a Alemania en un país auto gestionado, en cualquier circunstancia, tanto en cuanto a explosivos como en cuanto a abonos.

Todos los esfuerzos se concentraron en el control del nitrógeno y se llevó a cabo un enorme trabajo que comportó el nacimiento de centros de investigación con una organización cada vez más sólida y potente. Para coronar su empresa, los científicos alemanes de la primera década de este siglo tuvieron que examinar, antes de conseguir obtener amoníaco del nitrógeno e hidrógeno, unos cinco mil catalizadores, haciendo al mismo tiempo millares de experimentos. Éste fue uno de los primeros casos en que se demostró que la investigación hecha cuidadosamente y con grandes medios podía dar estimables resultados.

En el período entre guerras se encuentran todavía investigadores aislados: la radio, la contención de los neutrones (que, descubierta por Fermi y su reducido equipo de la calle Panisperna, sentaría las premisas para la construcción de la bomba atómica), el nilón, el polietileno son aún fruto del genio individual o de pequeños equipos de científicos. Con la proximidad de la segunda guerra mundial, y más tarde con su propagación, el camino hacia los grandes laboratorios recibe un fuerte y, a la larga, irresistible empuje. Los ejemplos son bien conocidos, pero no estará de más recordar los más interesantes.

En Alemania empieza la carrera de los misiles, considerados como el arma que podrá dar la victoria. El equipo al que se le encarga su estudio es muy sólido y está muy bien provisto de medios. En el curso de unos años se dan muchos pasos adelante y sólo el final de la conflagración les impedirá alcanzar resultados capaces de alterar el desenlace de la contienda. Es preciso recordar que Von Braun formaba parte de este equipo de investigación, junto a otros científicos alemanes que tras la guerra hicieron posibles las empresas espaciales soviéticas y americanas, y permitieron a los Estados Unidos la aventura de la conquista de la Luna. Pero éste no fue el único «laboratorio» que Alemania puso en la balanza de la guerra. Los alemanes lograron poner a punto el procedimiento para la producción de gasolina sintética a partir del carbón, y éste fue uno de los factores que les permitió prolongar el conflicto incluso después de que el aprovisionamiento de petróleo llegó a ser imposible. Análogos resultados se obtuvieron con el proceso para la producción de goma sintética.

En Inglaterra se creó el Royal Radar Establishment, que en unos cuantos años, explotando incluso conocimientos americanos, puso a punto el radar, un extraordinario ingenio capaz de avistar, bajo cualquier condición meteorológica y en cualquier hora del día, objetos metálicos en reposo o en movimiento. El radar, como se sabe, tuvo un importante papel en los últimos meses de la guerra.

Pero el caso más notable es el americano: el proyecto Manhattan, que permitiría, mediante los descubrimientos de Fermi, construir la bomba atómica. Centenares y centenares de científicos y técnicos fueron concentrados en una localidad aislada de Nuevo México para producir la más espantosa arma bélica que nunca antes mente humana hubiera podido concebir. El inmediato resultado de este extraordinario esfuerzo de investigación fue la trágica aceleración del fin de la segunda guerra mundial.

La segunda guerra mundial fue, en suma, una especie de ensayo general de la validez de las ideas de los grandes laboratorios de investigación. Las conclusiones a las que se llegó son importantes y, en cualquier caso, quizá muy superiores a las expectativas. Se establece así de modo definitivo que concentrar muchos hombres y medios en vista a la obtención de determinados objetivos científicos y tecnológicos es una empresa positiva. El gran laboratorio de investigación, que nació poco después de la primera guerra mundial y creció en el período entre guerras, superó su bautismo de fuego en el segundo gran conflicto mundial y se convirtió, desde entonces, en una institución estable y permanente.

Incluso se empieza a pensar que en el fondo la idea del laboratorio no es tan extraña como podría parecer a primera vista. Si bien se mira, las cosas siempre han funcionado de la misma manera: un investigador hacía un descubrimiento en un lugar y tal vez, no daba ningún fruto; un segundo investigador retomaba la misma idea y la enriquecía; un tercer investigador encontraba el modo de transformarla en un producto o en un aparato. Con el laboratorio de investigación la situación es la misma: la única diferencia es que todas estas actividades se concentran en un lugar o, al menos, bajo el techo de un solo proyecto. La financiación es más rápida y consistente, los trabajos muy variados y recíprocamente útiles, las pérdidas de tiempo mínimas.

Por ejemplo, está claro que antes o después se hubiera llegado a fabricar la bomba atómica, pero se ha estimado que para desarrollar todo el proceso, partiendo de los conocimientos de la época de Fermi, se hubieran necesitado tal vez de veinte a treinta años. Con el proyecto Manhattan se necesitaron un poco más de dos años, menos del tiempo que emplearon los adversarios. La gran lección de la segunda guerra mundial, por lo que se refiere a los laboratorios de investigación, es la velocidad.

Al acabar la contienda, los grandes laboratorios que nacieron con miras bélicas se transformaron poco a poco, se dividieron, se multiplicaron y dieron vida a la extraordinaria floración que caracterizó la segunda posguerra.

§. Los descubrimientos y el crecimiento
Los factores capaces de impulsar un gran crecimiento económico son cuatro: el capital, el trabajo, las materias primas y las innovaciones tecnológicas. Todo esto abundó en el mundo recién acabada la segunda guerra mundial. Poco a poco vieron la luz muchos descubrimientos científicos y tecnológicos. Fue toda una explosión. Los laboratorios de investigación dejaron de ser hechos aislados; cada país, cada industria, dispuso de centros experimentales, se analizaron nuevos fenómenos, se estudió el futuro de ciertos productos, materiales o procesos. A menudo, junto a las instalaciones destinadas a producir objetos, nacieron como verdaderas empresas los laboratorios de investigación, cuya principal preocupación no era la producción de objetos sino la de descubrimientos. El mecanismo funcionó y trajo consigo una avalancha de nuevos hallazgos. Entretanto, la tecnología avanza, se crean plantas productivas cada vez más complejas y más grandes que permiten la producción a gran escala. El consumo induce nuevas necesidades, y las nuevas necesidades nuevos productos con lo que se pone en marcha el engranaje del crecimiento económico.

En esta carrera hacia condiciones de vida cada vez mejores, cada vez más cómodas, apenas se presta atención a los peligros de la tecnología. En parte, esto era una herencia del clima de la guerra: cuando se está metido en un conflicto mundial no es posible perder el tiempo pensando en los efectos negativos de determinada tecnología. El único problema consiste en adelantarse al enemigo. No olvidemos que los investigadores que en los años de posguerra contribuyeron de modo tan impresionante al descubrimiento de nuevos productos son todos herederos, directos o indirectos, de la experiencia de los laboratorios de guerra: la filosofía que se respira en esos años es muy simple: lo único que importa son los resultados.

Por otra parte, existe una actitud ingenua y confiada en la gente en relación a la tecnología, justificada (no lo olvidemos) por los grandes descubrimientos que en ese tiempo se llevan a cabo. Cuando aparecen las sulfamidas, por ejemplo, la opinión pública, los médicos y los científicos no están dispuestos a perder ni siquiera un minuto pensando en sus efectos negativos, que sin embargo eran muchos y evidentes. Las sulfamidas permiten vencer definitivamente una enfermedad como la pulmonía, que en aquellos años producía más víctimas que la tuberculosis. Lo mismo se puede decir en cuanto al DDT, que permite acabar con la malaria y por consiguiente hacer habitables vastas zonas antes intransitables. Cuando se abandona el DDT, a causa de sus nocivos efectos secundarios, algunos países, como la India, deciden seguir utilizándolo porque es el medio más rápido para llegar a eliminar una enfermedad considerada como calamidad nacional.

Cuando se ponen a punto las primeras píldoras anticonceptivas, se hacen experimentos en mujeres portorriqueñas, que eran las más prolíficas y las que, por tanto, creaban mayores problemas desde este punto de vista. En esta elección hay una cierta dosis de cinismo por parte de los experimentadores que no lo piensan dos veces antes de distribuir las píldoras para estudiar sus efectos, pero también ingenuidad y despreocupación por parte de las mujeres portorriqueñas y de la opinión pública en general que se prestan y asisten al experimento, como la cosa más natural del mundo. Hoy, algo así encontraría mayores dificultades y oposición.

En el curso de pocos años la gente ha empezado a disponer de mayor información sobre lo que sucede en los laboratorios de investigación y acerca de los peligros de ciertos descubrimientos; la atención aumenta de golpe. Comienza así a formarse un sentimiento de desconfianza frente a la tecnología.

§. El emperador y la luna
Se suele pensar que uno de los primeros casos en los que se evidencia la desconfianza y la hostilidad frente a la tecnología es el de la bomba atómica. Como es sabido, este tema ha suscitado grandes y tensos debates, razón por la que queremos recordar aquí algunos de sus principales elementos. El primer punto al que hay que referirse es el relacionado con la necesidad o no de lanzar dos bombas atómicas sobre dos ciudades del Japón. Son muchas las personas que sostienen que no era necesario: para convencer al emperador del Japón de la retirada de su país de la guerra hubiera bastado invitarle a asistir a la explosión de una de las dos bombas en un atolón perdido.

Sin embargo, se ha objetado que no todo estaba tan claro. Cuando América debe decidir lanzar o no las bombas, prevalece la tesis de que el Japón sólo cederá después de haber sentido en su propia piel los efectos devastadores de la explosión nuclear. Y esta tesis se refuerza con una circunstancia: los americanos disponían de dos bombas, la que explotó en Hiroshima y la que explotó en Nagasaki, que eran diferentes, la primera de uranio y la segunda de plutonio. Cuando hicieron explotar la primera a manera de «demostración», no estaban totalmente seguros de que más tarde funcionaría también la segunda, ni estaban en disposición de prever los efectos comparados de las dos.

Quizá fuera verdad, al menos dentro de la lógica de la guerra. Pero lo que ya no es tan explicable es que, después de haber hecho explotar la primera bomba sobre una ciudad, se siguiera adelante con el proyecto haciendo explotar también la segunda. Este punto quizá no sea aclarado nunca. Una explicación tristemente comprensible es la de que los científicos y las autoridades americanas quisieran medir exactamente cuáles podían ser los efectos de las explosiones nucleares sobre las personas. El deseo, bastante perverso por cierto, de «experimentación» se pudo demostrar dada la circunstancia de que se hizo explotar una bomba en tierra y la otra a una cierta altura del suelo, y de que estaban preparados equipos de médicos para determinar y medir las consecuencias de esas dos primeras explosiones nucleares.

Posteriormente, Oppenheimer, director del proyecto Manhattan, es decir, el padre de la bomba, mostró su oposición a la cuestión de la bomba atómica, pero su caso no fue tomado en cuenta dado el clima de guerra fría que entretanto se había creado en el mundo. Las armas nucleares se estaban convirtiendo en las piezas decisivas para determinar el equilibrio mundial y el problema quedó así confinado al ámbito de los científicos. Éste fue uno de los primeros casos en que hubo oposición a una cierta utilización de la ciencia en el seno de la propia comunidad científica, pero el hecho tuvo poca repercusión en la opinión pública.

La desconfianza hacia la tecnología y la ciencia alcanza mayor eco en los años sesenta, a partir de dos hechos que actúan como detonadores: Vietnam y la aventura lunar. Durante la guerra del Vietnam, gracias a la televisión y los medios de información, la gente empieza a darse cuenta de cómo la ciencia puede ser empleada para hacer el mal (se utilizan en esta guerra defoliantes, napalm y toda clase de venenos). Por otro lado, estallan muchos otros casos Oppenheimer que ahora no quedan aislados y tienen una gran resonancia.

La conquista de la Luna muestra otro aspecto de la cuestión: el derroche de energía e inteligencias para fines de mero prestigio y de escasa utilidad para el hombre. Vietnam y la Luna permiten comprender, en suma, que la tecnología no es algo positivo por definición: todo depende de cómo se emplee. Puede usarse para hacer el mal (como en Vietnam). o para hacer cosas útiles pero costosas (como la conquista de la Luna). En efecto, en América, una vez pasado el entusiasmo por la carrera espacial frente a los rusos y por los espléndidos resultados conseguidos, las críticas a las aventuras cósmicas se hacen cada vez más fuertes, hasta llegar a un serio replanteamiento de los programas espaciales pendientes.

A la gente, a los espectadores de estos dos acontecimientos de los años sesenta, les queda la convicción de que hay que tener cuidado con la ciencia y la tecnología. Al mismo tiempo, y tras la experiencia de la Luna, se llega a la conclusión de que la ciencia es omnipotente: nadie espera lo imposible, porque lo imposible ya ha sido hecho. La atención de las gentes vuelve ahora a la Tierra y se descubre que, mientras el hombre escalaba las estrellas, la infalible tecnología y la infalible ciencia han producido más de un desastre, al tomarse demasiadas libertades en temas tales como la salud pública y el medio ambiente. Después de haber llegado a la Luna, el hombre descubre que la Tierra es pequeña y limitada, pero que vale la pena velar por ella.

§. Los peces y el presidente
A mediados de los años sesenta la atención prestada a los gastos de la tecnología y la producción industrial da origen a los primeros movimientos organizados. Todo empieza en América con Ralph Nader, un abogado que pone en la picota a las grandes industrias acusándolas, a menudo con razón, de descuidar demasiado la seguridad de sus productos. Más tarde, el Club de Roma trata de pedir cuentas de los límites del desarrollo, de los daños que la acción del hombre está provocando al planeta y de las nuevas condiciones en las que debe desarrollarse la vida de las poblaciones. En América y después en Europa aparecen los «Amigos de la Tierra», una asociación que se ocupa de las condiciones ecológicas del mundo, tratando de defender a la naturaleza de la agresión de la civilización industrial.

Todos estos movimientos, en cuyo origen se encuentra esa sensación de malestar que habían provocado la guerra del Vietnam y la conquista de la Luna, esgrimen nuevos argumentos, extienden su radio de acción y reciben un importante empuje a partir de las manifestaciones de protesta de 1968. La oleada de 1968 agita casi todo el mundo y denuncia abiertamente la civilización industrial y el uso desenfrenado y negligente de la tecnología y la ciencia. Se crea así un clima muy diferente respecto al de los años precedentes. Un clima en el que la opinión pública es, finalmente, mucho más sensible a lo que se hace con los «descubrimientos» que salen de los laboratorios.

En esta nueva sensibilidad jugaba un papel muy importante otro elemento. Los años cincuenta y sesenta habían sido en su totalidad un período de enorme desarrollo económico. En Europa, la necesidad, de reconstruir las ciudades y las industrias afectadas por la guerra había llevado en muy poco tiempo a un boom sin precedentes en el continente. En América era cada vez mayor el número de empresas que descubrían, a través de ejércitos de agentes que se movían un poco por todas partes, la existencia de un mercado mundial deseoso de absorber sus productos, por lo que crecían con rapidez y pujanza. Japón, liberado de la necesidad de invertir en ejército y armamento, había utilizado en la segunda posguerra su ingenio y la capacidad de trabajo de sus gentes para dar vida a un boom económico de dimensiones colosales.

El resultado de todo esto fue una aceleración del desarrollo con una fuerza nunca antes vista en la Tierra. Las zonas ya industrializadas lo fueron aún más hasta estar completamente saturadas, y zonas que nunca habían sido influidas por la civilización industrial fueron arrastradas por el torbellino de la producción, las grandes ciudades, las grandes masas obreras. Ciertos efectos de contaminación y la degradación del medio ambiente, que todavía eran soportables en un mundo, en general, poco industrializado, empiezan a ser advertidos hacia finales de los años sesenta incluso por el más despistado de los ciudadanos. Todo el mundo recuerda el caso de Londres: durante decenas y decenas de días, en los meses invernales, un mortífero smog envolvía toda el área de la ciudad hasta hacer imposible la circulación e incluso la misma vida. Los peces desaparecieron del Támesis y cada año se contaban por centenares las personas muertas por dificultades respiratorias. Todo este infierno se debía sencillamente a la gran concentración humana y al mayor bienestar que los habitantes de la ciudad habían logrado a través de un aumento masivo del consumo de energía. Más tarde, una eficiente reglamentación anticontaminación acabó casi totalmente con los daños infligidos al medio ambiente que hemos citado sumariamente: los peces volvieron al Támesis y el smog desapareció para siempre, hasta el punto de que la misma palabra cayó en desuso.

Pero el nuevo interés por las condiciones ambientales y la desconfianza hacia la tecnología hicieron del dominio público algunos hechos y, sobre todo, indujeron a la gente a reflexionar sobre ellos. Nos vienen a la memoria espectaculares «casos» de errores, unos solucionados y otros aún abiertos.

Rompió el fuego la Talidomida, un escándalo que estalló a principios de los años sesenta. La Talidomida era un sedante comercializado, como otros que se utilizaban entonces, sin las necesarias experimentaciones y los indispensables controles. Tras algunos años de uso se descubrió que la Talidomida, suministrada a las mujeres embarazadas, provocaba deformaciones en los recién nacidos, que padecían focomelia en elevadas proporciones. Más tarde surgió el caso del ácido fénico y sus derivados, usados sin demasiado control, especialmente en América, como desinfectantes: al cabo de mucho tiempo se descubrió que provocaban problemas neurotóxicos muy graves, molestias en la vista y, en algunos casos, pérdida total de la visión.

Incluso uno de los insecticidas más difundidos y eficaces, el DDT, fue puesto en tela de juicio, como se recordará, y finalmente prohibido. Se descubrió, en efecto, que el DDT, una vez liberado en el aire no se evapora y es absorbido por el hígado de los peces, a través de los cuales entra en el circuito alimentario para acabar fijándose en el hígado del hombre con gran riesgo para su salud. De este modo, a pesar de que el DDT había contribuido a salvar al menos a cincuenta millones de personas (una población similar a la de toda Italia), acaba por ser eliminado y prohibido su uso. Da un cierto escalofrío pensar que un insecticida de estas características fuera usado tanto tiempo sin el debido control.

En Japón estalló a su vez el caso del cloro y la sosa que se fabricaban con células electrolíticas de mercurio. Parte de este mercurio, evaporado y disuelto, se dispersaba después por el mar y era absorbido por los peces, a través de los cuales entraban en la cadena alimentaria provocando serios trastornos a la salud de las poblaciones de la bahía de Minamata (que se nutrían principalmente de pescado). Este hecho tuvo mucha resonancia no sólo en Japón, sino en todo el mundo. En torno al suceso surgió una gran movilización popular, hasta el punto de que el presidente de la empresa en cuestión (la Kizo) fue obligado a participar en una procesión, como acto de arrepentimiento; la ceremonia fue transmitida por televisión y finalmente la fábrica fue cerrada. Los procesos abiertos por daños duraron varios años.

Y llegamos por fin al caso de las bioproteínas de petróleo. En este caso privó la atención por la salud de las personas y el producto no llegó a entrar en el mercado, y menos aún en la producción a gran escala. La historia de las bioproteínas de petróleo es muy curiosa y da la medida de cómo ha cambiado la actitud de la gente en el curso de pocos años. Los primeros estudios sobre el tema se remontan a los años cincuenta, cuando se descubre la posibilidad de obtener bioproteínas a partir del cultivo de microorganismos ricos en proteínas que se nutren de petróleo. Son los mismos microorganismos que, al reproducirse a gran velocidad, se convierten en fuente de nuevas proteínas para la alimentación, sino de personas, sí de los animales.

Pero en los años sesenta las compañías petrolíferas deciden lanzarse a la aventura. La iniciativa se calcula minuciosamente. Las multinacionales no gozan de buena imagen en el mundo. Por todas partes se les acusa de saquear a los países pobres, al comprarles a precios muy bajos sus reservas más importantes (el petróleo en este caso) y de tiranizar a los países ricos, vendiéndoles el petróleo a precios que comportan fuertes ganancias. Y en este clima de creciente desconfianza hacia su actividad las compañías petrolíferas decidan lanzar al mercado algo que fuera al mismo tiempo un gran negocio y un colosal montaje publicitario: las bioproteínas. Nosotros, dicen en resumidas cuentas estas empresas, demostraremos a todo el mundo que somos capaces de resolver el problema más grave de la Tierra: el del hambre.

Se toman los estudios de los años cincuenta y, con ellos en las manos, se trazan grandes proyectos que contemplan la creación de gigantescos criaderos de animales en África. Asia. América Latina y los países del Este: el alimento para estas enormes manadas destinadas a quitar el hambre de toda la humanidad, y a provocar quizá, una caída de los precios de la carne, deberá ser proporcionado por las compañías petrolíferas bajo la forma de bioproteínas de petróleo. Un negocio de dimensiones casi inimaginables, como se decía y, al mismo tiempo, una operación encaminada a granjearse gratitud y admiración sin fin.

Pero se pierde la jugada. Sobre el asunto de las bioproteínas pesan todos los errores del pasado y toda la desconfianza que entretanto ha ido madurando frente a la tecnología y la ciencia. Las autoridades de varios países y la comunidad científica se oponen. En realidad, nadie ha podido llegar a demostrar que las bioproteínas representen un peligro para el hombre. Pero tampoco nadie ha demostrado lo contrario, es decir que estén desprovistas de efectos secundarios. En la duda, las bioproteínas quedan en suspenso. Frente a la perspectiva de confiar la propia alimentación, durante años, a algo que no es «natural» que sale de los laboratorios de las grandes compañías petrolíferas multinacionales, el mundo tiene una actitud de rechazo, de autodefensa, y dice no. En Japón, el presidente de la sociedad que había avanzado más en el proyecto (la Kanegafuchi) es obligado a decir que su compañía renuncia a la empresa. Y lo hace a través de una carta abierta. Sus patentes habían sido compradas en Italia por Liquichimica, pero esta compañía no corre mejor fortuna. Incluso aquí, a pesar de haber llegado a construir fábricas para la producción de bioproteínas, el proyecto queda congelado. Un final no mucho más feliz tiene una fábrica análoga construida en Cerdeña por el ENI y la BP. [1]

Capítulo IV
Viejos problemas y nueva tecnología

Contenido:
A. La informática
§. El uno y el cero
§. La válvula y el silicio
§. La luna y la música
§. El salón y la oficina
§. La informática y el aceite de ballena
§. La informática y las pequeñas fábricas
§. El diseñador y el productor
§. El escritor y el ama de casa
§. El tornillo y la zanahoria
§. Los zapatos y la chaqueta
§. El teléfono y la luz
§. El teléfono y el ordenador
§. El teléfono y el hospital
§. El teléfono y la oficina
§. Los satélites y el bacalao
§. La simple aldea y la aldea
B. La Energía
§. El chino y el americano
§. Las reservas y el jeque
§. El jeque y sus pozos
§. El gas y el oleoducto
§. El carbón y los océanos
§. El carbón y el smog
§. El carbón y el jeque
§. El carbón y el sol
§. Géiseres y presas
§. El agua caliente y el porche
§. Las hojas secas y el bosquecillo
§. Los espejos y la olla
§. El sol y la tierra
§. El sol y la energía eléctrica
§. El uranio y la energía eléctrica
§. Los tres uranios y el agua
§. El agua pesada y el agua natural
§. La central y la bomba
§. El reactor y las piscinas
§. El plutonio y el uranio
§. La energía y la bomba
§. Fermi y los jeques
§. Francia y el átomo
§. La central y la seguridad
§. El plutonio y el terrorista
§. El sol y su secreto
§. El ahorro y el automóvil
§. La energía y la cuesta arriba
C. La Biotecnología
§. El gen y la insulina
§. El gen y el alimento
§. La madera y el cobre
§. La huertecita y el petróleo
§. El científico y la mosca
§. El cáncer y la bacteria
§. Biotecnologías e informática
D. Los Nuevos Materiales
§. Superaleaciones y superconductores
E. Los Nuevos Espacios
§. La tierra y el cielo

La desconfianza hacia la tecnología, los errores en los que se incurre en los años sesenta y setenta y los mayores controles que poco a poco se han ido introduciendo han tenido dos consecuencias: los «descubrimientos» son menos frecuentes y más caros. Estos costes más elevados habían sido absorbidos hasta ahora por las industrias, pero en algunos países empiezan a correr, al menos parcialmente, a cargo de los gobiernos.

Hoy hay menos innovaciones. ¿Por qué? No es difícil comprenderlo. Antes, un producto farmacéutico podía ser comercializado tras alguna prueba elemental en animales y hombres. Hoy, sobre todo en América, la documentación requerida para los nuevos fármacos es impresionante. Frecuentemente ocupa varios volúmenes: en un caso se superaron las setenta mil páginas. Páginas no rellenas obviamente con huevos discursos, sino con los resultados de serios análisis, de serias experimentaciones y de rigurosos controles. «Desarrollar» un nuevo producto es ahora un proceso más costoso y más largo. Pero como los fondos destinados a innovaciones no son infinitos, sino limitados, incluso las empresas más poderosas tienen que conformarse hoy día con un reducido número de innovaciones.

Por otro lado, ha sucedido que muchas pequeñas y medianas empresas, que antes contribuían a enriquecer el mercado con nuevos productos e innovaciones, hoy no están en disposición de asumir los complejos procedimientos requeridos por el nuevo clima que se ha creado entre las autoridades y los organismos encargados del control, y por consiguiente se han retirado o se dedican a otra actividad. A esto se añade el estado de ánimo del management, es decir, de los dirigentes de empresas. En general, el management solía ser muy cauto respecto a las innovaciones porque representaban riesgos, aventuras, problemas. Hoy la desconfianza del management hacia los nuevos productos ha aumentado: un error, en efecto, puede comprometer años y años de esfuerzos, puede quebrantar la solidez de la empresa y puede dar al traste definitivamente con la imagen de la compañía.

Se prefiere, y ésta es una tendencia reciente, emplear el dinero en la investigación de métodos más que en la de nuevos productos. ¿Qué significa esto? Que se gasta más dinero y energía en la búsqueda de cómo hacer cosas viejas gastando menos que en hacer cosas nuevas. De este modo no se corren riesgos y los resultados se traducen inmediatamente en un aumento de los beneficios y de la solidez de la empresa. Este hecho es el causante de una gran parte del paro actual: en la búsqueda de costos de producción más bajos, se entiende que el primer ahorro que puede hacerse es el de la mano de obra, empleando a tal fin procedimientos y sistemas de fabricación que requieran cada vez menos la intervención del hombre. Este es un aspecto muy curioso que merece un comentario. La gente ha creído siempre que el progreso creaba desempleo, cosa que no se ha podido probar y cuya veracidad habría que poner en entredicho. Cuando un sistema industrial actúa muy velozmente y aparecen continuamente nuevos productos, está claro que los nuevos sistemas de producción acaban por requerir menos trabajo por unidad productiva. Pero es tal la demanda de nuevos productos, es tal el aumento de las nuevas necesidades por satisfacer, que el número de encargados de la producción se incrementa continuamente.

Todo esto cambia de golpe cuando el flujo de las innovaciones, como ha acaecido en los últimos años, disminuye muy rápidamente y la atención del management de las grandes empresas se concentra en un solo objetivo: reducir los costes a partir de la reducción de la mano de obra, y la utilización de máquinas e ingenios más modernos y más automatizados. Es el estancamiento de la economía, dedicada a la modernización de los procesos de producción, la que lleva al desempleo, no las innovaciones, no la investigación y comercialización de nuevos productos.

Se crea así una especie de espiral perversa. Dado que el dinero que se destina a la investigación es proporcional al crecimiento de la economía en su totalidad, cuando este crecimiento se frena de manera notable la investigación tiende a concentrarse sobre unas áreas concretas, sobre unos procesos que permiten un inmediato ahorro a partir de la expulsión de mano de obra. Y, por otro lado, la falta de comercialización de nuevos productos, de nuevas ideas, contribuye a mantener la economía en un punto muerto.

Si todo esto es cierto, si todo esto tiene algún fundamento, surge entonces una pregunta de enorme importancia: ¿Acaso el mundo actual no se encuentra en un momento en el que ya queda poco o nada por descubrir? O, lo que es lo mismo, ¿hay aún algo que descubrir, pero tan arriesgado que es mejor olvidarlo? ¿Nos encontramos en uno de esos períodos que según algunos economistas tienen lugar cada 50 o 60 años, en los que misteriosamente las innovaciones se hacen más escasas, menos productivas, contribuyendo así a la depresión general de la economía?

La cuestión, como puede imaginarse, no carece de importancia ya que por la experiencia de estos últimos años se podría llegar a la conclusión de que nos hallamos en una fase depresiva, que podría durar algunos decenios. En este caso, todas las perspectivas de crecimiento y desarrollo quedarían en suspenso y el «segundo planeta» nacería con una malísima estrella dado que se encontraría frente a un mundo en crecimiento económico, pero estático y replegado en sí mismo.

Por suerte, la respuesta que puede darse a la pregunta planteada unas líneas más arriba no es ésta. Hoy día, la innovación se hace más rara y lenta únicamente porque, tras el entusiasmo de los primeros treinta años de nuestra posguerra, se han introducido procedimientos de control a los que el mundo de la empresa aún no se ha adaptado por completo. Pero, en realidad, los descubrimientos científicos y tecnológicos de los últimos veinte años han sido tan grandes e importantes que hacen prever, en breve plazo, una ola de innovaciones absolutamente inusitada. Sectores productivos enteros, series enteras de objetos y técnicas serán sacudidas de arriba abajo en el curso de unos decenios, hasta llegar a ser irreconocibles.

Y esto se deberá principalmente a la introducción de la informática en una serie cada vez más amplia de procesos productivos y de operaciones, así como en el desarrollo de tecnologías de origen biológico o químico. Las biotecnologías, que van de la simple fermentación a la mutación genética, son muy importantes y tendrán un enorme desarrollo. En los últimos diez años se han puesto a punto técnicas revolucionarias que modifican la estructura genética de los organismos biológicos, llevando a la construcción de nuevos organismos con las propiedades deseadas. Asimismo son ya una realidad las bacterias que permiten producir en grandes cantidades sustancias complejas, como fármacos terapéuticos de fundamental papel para el hombre. Por ejemplo, mediante transferencia de genes humanos a la bacteria Escherichia coli se ha producido insulina humana, que ha sustituido en la terapia a la derivada del cerdo; o como los interferones, implicados en la terapia de las infecciones virales y en la lucha contra ciertos tumores; las hormonas del crecimiento; los trombolíticos para la curación del infarto y otros numerosos fármacos.

De igual modo, en el campo agroalimentario se han producido numerosas plantas transgénicas, es decir, portadoras de genes procedentes de otras especies. Así se ha conseguido una patata resistente a los virus, un tabaco resistente a los herbicidas y plantas oleaginosas con una composición mejorada en ácidos grasos. En algunas flores de gran importancia comercial se han conseguido nuevos colores y nuevas estructuras de coloración.

Más recientemente se han obtenido ratones transgénicos que pueden utilizarse como modelo en los estudios de importantes patologías humanas. Hay que decir, sin embargo, que los especialistas en medio ambiente son enormemente contrarios a este tipo de investigaciones, pese a la total cautela con que vienen rodeadas y su demostrada utilidad para la salud del hombre y para la economía.

Informática y biotecnología están destinadas, en suma, a cambiar el mundo de arriba abajo y en un corto plazo de tiempo. Hace algunos años que ha empezado la introducción de la informática en la sociedad y en los procesos productivos, aunque la gente aún no haya asimilado bien fenómeno. Las biotecnologías aparecieron poco después que la informática, aunque no mucho: unos diez o veinte años. Actualmente se abren camino otras tres «revoluciones» junto a las dos citadas: los nuevos materiales, las nuevas fuentes de producción de energía y la explotación de mares y de espacios situados fuera de la Tierra.

Las novedades que irán surgiendo en estos cinco apartados son tantas y tan importantes que podrían parecer mera ciencia-ficción, pero no es así. En los próximos cincuenta años, las maneras de producir las cosas y de vivir cambiarán en medida casi inimaginable para la gente que no está al corriente del trabajo que se está llevando a cabo en los grandes laboratorios de la ciencia y la tecnología.

Se puede ser aún más explícito: si hoy parece posible la construcción de un «segundo planeta» capaz de albergar a cinco mil millones de habitantes más: y si además parece que la empresa puede coronarse con éxito en vez de convertirse en una enorme catástrofe, esto se debe fundamentalmente a la oleada de innovaciones científicas y tecnológicas que en el curso de los próximos cincuenta años «inundará» la Tierra.

La función de la investigación, en efecto, puede hoy día llegar a ser muy precisa. Aceptando el hecho de que la Tierra es limitada y que sus reservas, bajo todos los puntos de vista, no son infinitas, se trata, con la ayuda de la ciencia y la tecnología, de dilatar las fronteras, descubriendo nuevos materiales, descubriendo nuevos modos de producir el alimento y la energía, descubriendo materiales para sustituir los metales, descubriendo los nuevos procesos productivos que permitan hacer lo que se hace actualmente pero evitando el derroche.

Y aún hay más: el conjunto combinado de estos diversos descubrimientos autoriza incluso a imaginar, con un poco de optimismo, un mundo, dentro de cuarenta o cincuenta años, que no será un reencontrado paraíso terrenal pero sí un lugar en el que la vida será menos cansada y fastidiosa de lo que es hoy. Es posible, pues, imaginar un mundo en el que algunos «demonios» de nuestros días, como la posibilidad de la falta de energía, o de alimentos, sean exorcizados, al menos durante unos millares de años. Quedarán, es obvio, todos los problemas sociales y políticos que han acompañado siempre la vida del hombre (la paz, la justa distribución de las reservas, la equilibrada distribución de las cargas), pero, al menos, la perspectiva de la catástrofe podrá ser eliminada.

A. La informática

De las cinco «revoluciones» que en los próximos cincuenta años cambiarán la existencia del hombre, la más próxima, la que ya ha estallado, es la informática. Dar una definición exacta del fenómeno es difícil y quizá no muy útil. Es posible decir, por ejemplo, que la informática nace cuando el hombre empieza a hacer uso de la palabra, porque a través de ella intercambia, «procesa» informaciones. Pero el concepto puede ampliarse: en efecto, el hombre introduce informaciones cada vez que produce algo, al intercambiar después este algo con los otros hombres, intercambia informaciones, utiliza la informática. Lo mismo puede decirse respecto a los sistemas de signos, respecto a cada señal que deja a su paso. Desde un punto de vista general se puede decir que la informática nace con el hombre y hasta es posible encontrar algunos indicios en algunas especies animales.

La informática moderna nace en el momento en que el hombre pone a punto máquinas destinadas específicamente al tratamiento de la información: el teléfono, la radio, la televisión, la imprenta. Pero la informática tal y como se entiende hoy día nace al mismo tiempo que los ordenadores, es decir, al tiempo que aparecen en escena máquinas que permiten el procesamiento en muy poco tiempo de grandes cantidades de informaciones y su posterior transmisión a distancia. Los primeros ordenadores, que utilizan aún válvulas termoiónicas, aparecen tras la segunda guerra mundial y en un principio estaban limitados a usos científicos: posteriormente se aplicó a la gestión de problemas administrativos, a la regulación de la actividad productiva de carácter industrial y, finalmente, se introdujo en los sectores de servicios y de la actividad comercial. Hoy, por ejemplo, las reservas aéreas o ferroviarias, incluso a distancia, se hacen por medio de ordenadores y lo mismo puede decirse en relación a una gran cantidad de operaciones bancarias.

Cada vez más a menudo encontramos la informática en el transcurso de nuestra existencia. Las «terminales» (especie de pantallas de televisor conectadas con el cerebro del ordenador) son cada vez más abundantes y resuelven cada vez más problemas. Si se mira alrededor con un poco de atención, puede verse que la informática está entrando progresivamente en la vida de las gentes. Y esto es sólo el principio. La informática tiene ante sí un gran porvenir porque permite procesar un número de informaciones extraordinariamente elevado a precios que ya hoy son bajos y continuarán bajando. Se piensa incluso que el fenómeno de la reducción de costes de la informática que continuará durante los próximos diez, quince o veinte años, llegará a tal punto que no habrá ningún interés en producir innovaciones para hacerlos bajar más.

No es una bagatela. Ya se ha dicho que el hombre ha hecho siempre informática, siempre ha tenido la necesidad de recoger informaciones, de catalogarlas, de confrontarlas, de reagrupar las que son similares o guardan relación con un mismo fenómeno. Las bibliotecas son un buen ejemplo de este tipo de trabajo, e incluso los registros de contabilidad de los comerciantes en la época de las Comunas. La diferencia es que antiguamente la recogida y elaboración de las informaciones era un trabajo normal. Los costes eran por lo tanto muy elevados, ya que la productividad era escasa dado los rudimentarios instrumentos que había que utilizar, tales como libros de inventarios, plumas, lápices y el tiempo que se necesitaba emplear. Por consiguiente, era habitual recoger las informaciones estrictamente indispensables para la actividad de cada cual, pasando por alto todas las demás. Bajo este punto de vista se puede decir que todos los sistemas sociales conocidos anteriores a nuestros días fueron sistemas sociales de «baja información».

Pero eso no es todo: las informaciones eran escasas, y frecuentemente no se utilizaban en su totalidad. Si recogerlas era una tarea pesada y costosa, confrontarlas era frecuentemente casi imposible porque hubiera requerido el empleo de decenas y decenas de personas trabajando decenas de años. Por otro lado, este inmenso trabajo habría corrido el riesgo de resultar absolutamente inútil porque, en la mayoría de los casos, se habría llegado a su conclusión cuando ya no hubiera sido necesario conocer los resultados. Los actuales avances de la informática constituyen por tanto una especie de doble revolución: los bajos costes permiten recoger mucha más información (hasta el punto de que las que hoy no sirven pueden servir mañana) y «procesarla» (cosa que antes era casi imposible). Existe además una tercera novedad: dada la naturaleza de los contenedores de información (discos o cintas magnéticas) pueden transmitirse con mucha facilidad. Es mucho más fácil, por poner un ejemplo, enviar de Roma a Nueva York cien casetes con información grabada que enviar una biblioteca entera. Pero hay que añadir aún que el desarrollo actual de las telecomunicaciones permite transmitir una gran cantidad de información casi desde cualquier punto del planeta, en el acto y a costes moderados, sin necesidad de enviar «materialmente» nada.

Por otra parte, no hay que olvidar que el resultado al que se ha llegado hoy es, en el fondo, el que el hombre siempre ha buscado. Los ordenadores fueron precedidos por otros intentos (las tarjetas perforadas, los discos), que utilizaron primero métodos mecánicos y después electromecánicos, para la selección de las informaciones. Pero únicamente con los ordenadores electrónicos, primero a válvulas, luego a transistores y finalmente a circuitos integrados, ha sido posible tener acceso al «dominio» de la información.

Hoy el hombre se encuentra en condiciones, hay que decirlo, de procesar una cantidad ilimitada de información a un coste continuamente en baja. Algunos expertos opinan que no hay nada en el mundo que haya bajado los costes y aumentado sus posibilidades como la informática. Éste es un dato que conviene no olvidar cuando se eche una ojeada a los próximos cincuenta años del hombre sobre la Tierra. La informática, en efecto, tiende a entrar en todas partes: desde la gestión de los problemas sociales y administrativos al control de sofisticados y delicadísimos procesos industriales, desde la agricultura hasta la estrategia militar. A este respecto se puede añadir algo. Ya hoy es posible emplear la informática a gran escala y conseguir notables ahorros. Si no se hace es porque la sociedad está organizada de tal manera que prescinde de la informática y del moderno procesamiento de la información, razón, por lo que antes de abrir las puertas a la «revolución» de los ordenadores será necesario prescindir de muchas estructuras y planteamientos que no han acabado su ciclo vital. Pueden ponerse algunos ejemplos, no por banales menos instructivos. Pensemos en un supermercado: la informática permite obtener en el acto el inventario de la mercancía disponible, hacer estadísticas y cálculos para saber de qué producto hay más demanda en un momento concreto del año o de la jornada, disponer de los datos de la contabilidad actualizados en cualquier momento, simplificar el problema de los robos, etc. La informática, por otro lado, permite tener menos mercancía en los almacenes, ya que es posible saber de antemano qué pedirá el cliente y cuándo. Sería imaginable una conexión, vía ordenador, con los principales proveedores, saltando así las fases intermedias del comercio y el almacenamiento. Es lo que se llama «just-in-time production» (J.I.T.), que viene caracterizando más la moderna sociedad en lo que se refiere a las relaciones entre producción, distribución y venta. El ahorro que representa una organización similar de grandes centros de venta son obvios e imaginables. Habría que añadir que los costos de la informática son ya hoy tan bajos que sería posible «informatizar» incluso los negocios pequeños, simplificando mucho su trabajo y eliminando, a través de la conexión directa con los proveedores, muchas fases del comercio al por mayor, muchas pérdidas de tiempo y muchos gastos innecesarios.

Este sencillo ejemplo da una idea de los cambios que se pueden introducir en la vida cotidiana con un uso más intensivo de la informática. En términos más generales, puede decirse que el empleo de la informática permite la eliminación de toda una serie de actividades que hoy día absorben una enorme cantidad de energías y reservas. La gran oferta de la informática es ésta: dar la posibilidad de organizar la vida productiva y social sustituyendo poco a poco las actividades más «pesadas» por actividades más «ligeras».

Algún otro ejemplo aclarará el concepto. Con la informática es posible reducir el transporte de personas y cosas. Las personas pueden disminuir la necesidad de desplazarse físicamente gracias a que el sistema de transmisiones de las informaciones se amplía y se completa. Hoy día muchas empresas disponen de «salas de conferencias» en ciudades muy distantes: grupos de técnicos y directivos se reúnen en estas salas y dialogan entre sí, a través de un sistema de transmisión de la voz y, a veces, incluso de la imagen. De este modo se pueden mantener reuniones entre interlocutores centenares de kilómetros de distancia sin ninguna necesidad de desplazarse. También se está generalizando el uso de un mecanismo que permite enviar por teléfono textos escritos y dibujos con una gran fidelidad y rapidez, lo cual elimina la necesidad de enviar documentos de un lado para otro y evita la posibilidad de que datos informativos importantes se puedan perder.

El uso de la informática permitiría evitar el envío de mercancías y materiales donde quizá no tienen una utilidad inmediata, con lo que se ahorra tanto el transporte como los gastos de almacenamiento. El caso de los supermercados y los pequeños negocios es sólo uno entre todos los posibles e imaginables. Si queremos más ejemplo de una inteligente aplicación de la informática baste con pensar en la pequeña revolución sobrevenida en el tráfico urbano con los radio taxis y los radio camiones para el transporte de mercancías. Las «citas» se conciertan por teléfono desde una central que recoge las órdenes haciendo inútiles las continuas vueltas a la base para conocer los distintos destinos, y que con la ayuda de un miniordenador agiliza los desplazamientos reduciendo el coste total.

La informática puede aplicarse en las fábricas al proceso productivo. Hasta hoy, la incapacidad de procesar la información de modo correcto ha hecho que las actividades productivas, las diversas fases de una elaboración, se concentraran en un mismo punto, la fábrica. Dentro del mismo recinto se fabricaban los componentes, se montaban y se probaban los productos acabados. Se estaba obligado, pues, a crear estructuras muy grandes y muy rígidas, dificilísimas de modificar. La informática ha cambiado el panorama: las diversas fases de la elaboración pueden llevarse a cabo incluso a centenares de kilómetros de distancia, los proyectistas pueden estar en un lugar y los productores en otro y, en otro lugar diferente, la dirección comercial... Este proceso ha avanzado más de lo que se cree. En la misma Italia, donn precio.

Ee las nuevas técnicas aún no han cuajado del todo, existen algunas empresas con dependencias esparcidas por todo el país y la dirección administrativa en otra sede, pero con la posibilidad de coordinar el proceso productivo en cada departamento gracias a un sistema de ordenadores y terminales: esto permite que desde la dirección administrativa sea posible repartir la producción entre las distintas factorías en cualquier momento y circunstancia y que siempre sea posible intervenir rápidamente si en alguna de las fábricas tiene lugar algún incidente que obstaculice la producción o se manifieste la necesidad de aumentar la producción de un objeto o modelo. Quizá sean ejemplos muy banales, pero dan bastante buena idea de cómo puede ser una empresa basada en la informática. Igualmente, las sociedades productoras de energía eléctrica como el ENEL[2] pueden controlar la producción en diversas centrales en función de la demanda y de su distribución regional.

§. El uno y el cero
El enorme auge de la informática moderna ha sido posible gracias a una serie de descubrimientos, tanto de carácter intelectual como físico. Al primer orden de innovaciones pertenece el uso de la «lógica binaria». No es éste lugar para desarrollar a fondo el argumento, pero baste decir que en sus aplicaciones actuales es una lógica que se basa en dos elementos: el uno y el cero, que correspondes en la práctica al «sí» y al «no». Combinando de diversas maneras, y según procedimientos complejos para el profano, con estos dos elementos se llega a «escribir» toda la matemática y a hacer todas las operaciones correspondientes. Y no sólo eso, sino que también facilita el estudio de cualquier problema de tipo lógico.

No olvidemos que la lógica binaria tiene en el fondo una estrecha relación con la lógica que enseñó Aristóteles. Frente a cualquier cuestión bien planteada sólo son posibles dos respuestas: verdad o mentira. Tertium non datur. Existe o no existe. En el caso de la informática esto se traduce en una enorme simplificación de todo el sistema. Utilizando ingenios electrónicos que funcionan por medio de corriente eléctrica, el «sí» y el «no» corresponden al paso o no de corriente. En la práctica, a la apertura o cierre de un interruptor. Es fácil comprender que si este interruptor fuera un interruptor como los que hay en nuestras habitaciones, el conjunto del sistema sería muy lento. Pero, en realidad, el paso o no de corriente es ordenado electrónicamente (en los inicios por medio de válvulas, después a través de transistores y finalmente con el uso de circuitos integrados). La operación total de cierre-apertura sólo requiere fracciones de una millonésima de segundo, lo que puede dar una idea de la velocidad con la que es posible elaborar informaciones con los ingenios actuales.

Pero recordemos otras propiedades de la lógica binaria. Si se utilizase una lógica de tipo decimal, en la que los diversos números, del uno al diez, son identificados por señales eléctricas de diversa magnitud, el conjunto del sistema comportaría una notable complejidad. Las diversas señales tendrían que ser extremadamente precisas para evitar posibles confusiones entre dos números adyacentes. El sistema se tendría que proyectar de manera que no presentara perturbaciones de ningún tipo ya que al sumarse éstas a las señales podrían transformarlo en otro, causando una gran confusión. Finalmente, el sistema de elaboración tendría que ser muy cuidado para poder «distinguir» entre señales de diversa amplitud correspondientes a números de diferentes valores.

Es dudosa la conveniencia de construir un sistema de este tipo. En cualquier caso, su fiabilidad, es decir, su capacidad de no cometer errores, sería muy modesta. Con la lógica binaria todos estos problemas quedan superados de golpe. A las «máquinas» sólo se les pide la generación de señales muy simples: un paso o no de corriente, no importa de qué características. Posteriormente, en la fase de elaboración, las «máquinas» no deben distinguir entre una gama de señales muy amplia, con la consiguiente posibilidad de confusión, sino sólo entre la existencia o no de un paso de corriente. Esto explica por qué la informática moderna es tan fiable: es bastante difícil que las «máquinas» puedan equivocarse porque en realidad trabajan sobre la base de una lógica muy simple. La complejidad y vastedad de sus prestaciones derivan de la posibilidad de desarrollar muy rápidamente un gran número de operaciones muy sencillas más que de la capacidad de realizar operaciones muy complejas.

Esto explica por qué la informática consume tan poca energía. Sus señales no tienen que mover maquinarias o encender bombillitas. Sólo deben circular dentro de circuitos eléctricos, desarrollando secuencias de «sí» y «no» que al final proporcionan el resultado deseado.

§. La válvula y el silicio
Hemos dicho más arriba que al desarrollo de la informática han contribuido factores de tipo intelectual (como la lógica binaria) y factores físicos. En este campo las innovaciones han sido enormes. Al principio había que trabajar con válvulas termoiónicas (de las que ya hemos hablado), que presentaban diversas desventajas: eran muy complicadas de construir y por tanto muy costosas, tenían una duración limitada, eran muy delicadas, eran difíciles de manejar, consumían mucha energía y desprendían mucho calor. Esto explica por qué los primeros ordenadores, de capacidad bastante limitada por cierto, tenían tan grandes dimensiones, tanto como si fueran palacios.

Posteriormente, las válvulas fueron sustituidas por transistores que hicieron la informática más fácil y simple. El transistor era aún una especie de válvula, aunque de material sólido, que no requería ninguna operación al vacío, bastante menos engorroso, y que además consumía menos energía y desprendía menos calor. En resumen, un gran avance. La técnica del transistor, sin embargo, requería todavía que las distintas piezas de los circuitos estuvieran unidas por medio de hilos, soldaduras y fijadas a una chapa, con todos los inconvenientes que esto comporta: una construcción muy laboriosa y alto riesgo de «errores» (una soldadura mal hecha. un hilo que se suelta, un componente del circuito defectuoso).

Más adelante se trató de eliminar parte de estos inconvenientes a través de la técnica de los circuitos impresos: los hilos se incorporaban a la base del chasis del circuito para lo que sólo era necesario insertar los diversos elementos en los puntos prefijados y soldarlos. Esto representó un notable progreso. Los chasis de los circuitos podrían producirse en serie, evitando así la posibilidad de errores o de funcionamientos defectuosos, y podía eliminarse toda una serie de operaciones relativas a la colocación de los hilos del circuito, con el consiguiente ahorro de tiempo y dinero.

Pero la verdadera revolución, la que supuso un gran salto para la informática, fue la de los circuitos integrados. Desarrollando la técnica que había llevado al descubrimiento del transistor, se llegó a la conclusión de que no sólo la vieja válvula, sino todo el circuito podía reproducirse sobre una pastilla de silicio. Bastaba con «drogar» de manera diferente las diversas partes de la pastilla de silicio para conferirles diversas características eléctricas. Siguiendo en este camino se llega a la posibilidad de «imprimir» instantáneamente circuitos enteros en una pastilla, sin necesidad de hilos, soldaduras o piezas separadas. Se abren así las puertas al desarrollo de la informática, al haber conseguido simplificar la construcción de las «piezas» necesarias, es decir, los circuitos destinados a procesar la información sobre la base de la lógica binaria.

Los circuitos integrados, por otro lado, presentan algunas ventajas respecto a la vieja técnica de las válvulas y los hilos. Tienen un bajísimo consumo de energía, ya que son más compactos, son capaces de realizar en muy poco tiempo las operaciones solicitadas y, sobre todo, son producibles en serie a través de técnicas complejas pero conocidas y continúan evolucionando. Un solo dato será suficiente para dar idea de las dimensiones de esta revolución: el primer ordenador electrónico se comercializó a principios de los años cincuenta y ocupaba una superficie de unos 700/800 m2. Disponía en total de doce memorias electrónicas. Hoy día, la más sencilla calculadora de bolsillo dispone del mismo número de memorias y, en algunos casos, muchas más. Un chip de medio centímetro de lado contiene actualmente millones de memorias elementales.

§. La luna y la música
El desarrollo de la técnica de los circuitos integrados, capaz de concentrar en espacios cada vez más pequeños una cantidad cada vez mayor de funciones, ha tenido ya dos importantes efectos bastante importantes en la vida del hombre. Por un lado, en efecto, ha hecho posible la construcción de inmensos ordenadores de carácter científico que son los que han permitido hacer cosas antes imposibles; desde el cálculo de la trayectoria para ir a la Luna hasta el control perfecto de todas las operaciones relativas a tan gigantesca empresa; desde la simulación en un ordenador de experimentos científicos que de otra manera habría requerido pruebas de centenares de años, al cuidado de la seguridad en instalaciones de grandes dimensiones.

Por otro lado, la existencia de circuitos integrados y por consiguiente la posibilidad de disponer de muchísimas funciones electrónicas sobre superficies muy pequeñas ha permitido una especie de «banalización» de la informática. Las calculadoras de bolsillo, por ejemplo, que están poniendo la electrónica en las manos de casi todos los niños, son fruto de la misma revolución tecnológica que ha permitido diseñar los grandes ordenadores indispensables para proyectar y dirigir el viaje del hombre a la Luna. Esta banalización es un proceso, por otro lado, que no cesa. Tras los primeros ordenadores están ya en el mercado los ordenadores musicales: cada nota puede ser traducida en números y, por tanto, memorizando una serie de números es posible memorizar un motivo musical y reproducirlo después con las pausas, los acompañamientos e incluso el timbre de los instrumentos deseados. Basta apretar un botón y el ordenador emite el motivo o la canción que tiene memorizado, con lo que uno puede dar un pequeño concierto sin saber música.

Y se están poniendo a punto otras aplicaciones inimaginables hace poco tiempo. Por ejemplo, los ordenadores que leen una carta escrita a mano y son capaces de hacer una traducción a otra lengua. Por lo general, estos ordenadores están provistos de informaciones de control para evitar cometer errores o escribir frases sin sentido. Si un ordenador debe descifrar la palabra «bello», es posible que frente a la escritura de dicho texto muestre cierta perplejidad porque la grafía no esté clara. En su memoria existen muchas informaciones por las que el ordenador «sabe» que «bllo» no existe, «sabe» que «beleo» no tiene sentido, etc. Pero podría leer «bollo», palabra que sí existe: entonces recorrerá, simplemente, toda la frase para ver si la palabra «bollo», colocada en ese punto, tiene algún significado.

Todo esto tiene lugar en un tiempo medible en la escala de microsegundos. El ordenador es capaz de encontrar en pocos instantes la interpretación justa o, en el caso de que no sea materialmente posible, está en disposición de emitir una señal de advertencia, de modo que el operador pueda intervenir. En esta línea se están haciendo pruebas con ordenadores capaces de traducir no ya textos escritos, sino directamente la voz de una o más personas. Y todo en tiempo real, es decir, al instante.

En resumidas cuentas, como decíamos al principio, son dos las vertientes del desarrollo de la informática. Por un lado, hace posibles cálculos y operaciones antes inimaginables. Se estima que un gran ordenador, en una jornada de trabajo, es capaz de ejecutar tal volumen de cálculos que para realizarlos hubiera sido necesario el trabajo de varias generaciones de decenas y decenas de matemáticos. También, cosa muy importante, es capaz de hacer en pocos segundos una serie tan extensa de cálculos que de otra manera no sería posible. Y esto, en el caso de la Luna o de ciertos experimentos científicos, es decisivo: sólo con una «máquina» tan veloz y potente, es posible la empresa. En caso contrario, no. Por otro lado, permite hacer electrónicamente operaciones que antes se hacían manualmente o intelectualmente con un enorme consumo de tiempo.

En ambos casos nos encontramos ante un aumento de las dimensiones en las que el hombre está llamado a vivir (la Luna, el espacio) y un aumento de la «capacidad» del hombre, que ahora puede realizar cosas que antes no podía.

§. El salón y la oficina
La informática puede entrar directamente, y con éxito, en los procesos productivos. Veamos algunos ejemplos. Supongamos que se quiere obtener una determinada temperatura en el salón de una casa que dispone de una instalación individual de calefacción. La técnica es muy sencilla. Se coloca un termómetro en el salón, se pone en marcha el mecanismo de la calefacción y se observa el termómetro. Cuando la temperatura ha alcanzado el nivel deseado, se apaga. Después de un tiempo, ya que inevitablemente, bajará la temperatura, se repite la operación y así sucesivamente. El proceso es bastante sencillo, pero es muy molesto y distrae de otras actividades.

Se ha dado un notable paso adelante con la instalación en el salón de un sensor termostático que regula automáticamente la temperatura existente en un determinado momento y que, según su nivel, transmite al aparato de calefacción la orden de subida o descenso. De este modo, el objetivo de partida, obtener una determinada temperatura en el salón, se consigue de manera estable y permanente sin necesidad de una intervención personal. Basta con marcar en el termostato la temperatura deseada. Si después de algún tiempo se desea una temperatura diferente, será suficiente cambiar la regulación. Éste es un caso normal y corriente. Un poco más complicado sería querer regular la temperatura de diferentes lugares y no sólo la del salón. Se necesitarían, es obvio, más sensores capaces de regular la apertura o cerrar la fuente de calor situada en un determinado lugar. Podría significar un verdadero progreso, en términos de ahorro de energía, utilizar un «sistema» capaz de transmitir el conjunto de las «informaciones» recogidas en los diferentes lugares al aparato de calefacción de modo que éste pudiera «saber» cuánto calor debería producir en total.

Desde el punto de vista de la informática, ésta es una aplicación bastante banal y hoy día bastante difundida. Con sistemas parecidos se regula la calefacción y la calidad del aire no sólo de simples apartamentos, sino de edificios enteros con centenares de oficinas y viviendas. Es éste un uso elemental, en resumidas cuentas, de la electrónica y la informática: una cosa en el fondo no tan extraordinaria, como la regulación exacta de la temperatura de centenares de lugares partiendo de una única fuente de calor, no era posible antes ni siquiera empleando a decenas y decenas de personas.

Hay muchos otros casos en los que la informática puede simplificar y agilizar determinadas operaciones. Piénsese en una fábrica de confección que produzca un determinado número de prendas. Según cada talla habrá que recortar en la tela «piezas» de diferente contorno y dimensiones. Para llevar a cabo un trabajo de esta naturaleza, puede utilizarse, como se ha hecho hasta ahora, una serie de «modelos» o «patrones» que guían mecánicamente la operación de corte. Pero se puede recurrir a la electrónica y ya no serán necesarios los «patrones», porque todas las informaciones necesarias se pueden sistematizar dentro de un microprocesador, que incluso podrá varias la colocación sobre el tejido de las diferentes piezas a cortar de manera que permitan ahorrar tela. Y todavía más: programándolo adecuadamente puede cortar cinco trajes de una medida, diez de otra, tres de una tercera y así sucesivamente. De este modo se consigue una mayor flexibilidad en la producción, un ahorro de material e incluso un ahorro de energía ya que la información transportada electrónicamente no consume casi nada mientras que si tuviera que transmitirse por medios mecánicos (patrones y modelos) requeriría un cierto consumo de energía.

Lo que hemos visto sumariamente en relación a la fabricación de prendas de vestir se puede aplicar a otros muchos tipos de producción, comprendidos los mecánicos. El concepto es siempre el mismo. En las fábricas modernas muchas de las informaciones que se dan a las máquinas son transmitidas directamente por el hombre a través de sistemas mecánicos (levas, plantillas, modelos, etc.). Todo esto, que comporta un consumo de energía o un derroche de trabajo humano, puede sustituirse por sistemas electrónicos que presentan la ventaja de consumir mucha menos energía, de ser más flexibles y de poder acumular mucha más información que los sistemas mecánicos o humanos. Se trata del Computer aided design (CAD), que se traduce en la producción con el CIM (Computer integrated manufacturing).

§. La informática y el aceite de ballena
Todo cuanto se ha dicho hasta ahora permite tener una idea bastante clara de qué representa la informática para el hombre. Pero para captar en su totalidad el sentido de la revolución que ha provocado es indispensable volver a repasar una vez más y desde otro punto de vista la historia de la tecnología.

Si reflexionamos sobre el desarrollo experimentado desde el siglo XVIII hasta nuestros días, veremos que ha habido una primera fase en la que se produjeron sobre todo máquinas y motores destinados a aumentar la fuerza del hombre. Y se observan cosas curiosas. El petróleo, sin ir más lejos, estuvo disponible ya a principios del siglo XIX, pero no se utilizó para iluminar porque había abundantes productos alternativos, como la cera, los aceites vegetales o el aceite de ballena. Hacia la segunda mitad del XIX, el aceite de ballena empieza a escasear, a pesar de que operasen en los océanos setecientos buques balleneros, y se «descubre» el petróleo en América gracias al hallazgo de los primeros yacimientos subterráneos importantes (Titusvil. 1859). A partir de los primeros, procesos de refinamiento del petróleo crudo se obtiene el queroseno, y posteriormente todos los demás derivados. Gracias a los diversos productos del petróleo nace el motor de explosión y toda la tecnología que guarda relación con él, incluido el automóvil, quizás el invento más conocido, difundido y cargado de posibilidades de la historia reciente. Posteriormente, la tecnología prosiguió su camino logrando importantes aplicaciones en el campo de la mecánica, la química y los nuevos materiales. A finales del siglo pasado se descubre la baquelita y desde estas fechas a finales de los años cincuenta aparece toda una serie de sorprendentes innovaciones: las materias plásticas, las gomas y las fibras sintéticas. Es ésta la segunda fase de la tecnología: en la primera, como hemos visto, se potenció el trabajo del hombre a través de máquinas y motores; en la segunda se descubrieron nuevos materiales que ampliaron las posibilidades de «construir» y fabricar objetos por parte del hombre.

En la actualidad se está viviendo una fase en la que el aspecto dominante de la tecnología es el de la información, el de la elaboración y procesamiento de la información. La difusión de los ordenadores, de los robots, de la automatización y de la informática no sólo en el proceso productivo, sino en toda la sociedad, no son más que aspectos de esta «tecnología de la información» en la que el mundo actual está viviendo.

Este hecho comporta grandes cambios. El uso cada vez más extenso de la información permite, en efecto, un mayor ahorro de materiales, de energía e incluso de trabajo humano, ya que el sustituir parcialmente estos factores de la producción se «procesan» más informaciones. Los ejemplos que hemos expuesto en los capítulos precedentes habrán contribuido a aclarar el fenómeno. La informática reduce la necesidad de desplazar hombres y cosas, reduce el derroche de materiales en las diversas fases de elaboración y, por tanto, evita ciertos componentes mecánicos en el proceso productivo, permitiendo un menor consumo de energía.

Por otro lado, procesar informaciones no es caro. Este hecho, del que quizá hoy no sea muy difícil darse cuenta, sacude las bases del desarrollo industrial y, más en general, de la sociedad. Para tener una idea del fenómeno, basta reflexionar sobre lo que sucedía en el pasado, hasta ayer mismo e incluso, según y cómo, hoy. Lo normal era que una empresa llegara al mercado con un nuevo producto y que durante un tiempo disfrutara de ciertas ventajas. Pero, inevitablemente, bien pronto debía vérselas con otras empresas que entretanto habían llegado a poner a punto ese mismo producto.

La competición, entonces, se desplazaba del producto al proceso, es decir al modo de fabricación. Se buscaban caminos para producir ese mismo producto con técnicas e instalaciones que permitieran unos costes y, por consiguiente, unos precios más bajos. Por lo general, este hecho llevaba y lleva a instalaciones de dimensiones cada vez más grandes, a la continua búsqueda de eso que se ha definido como la «economía de escalera». En efecto, en la industria química, hace quince-veinte años, las instalaciones crecían continuamente, eran cada vez más grandes. Hasta el punto de que la Du Pont, por ejemplo, adoptó para el ácido tereftálico (producido a base de fibra de poliéster) lo que más tarde quedó definido como «última solución»: una instalación de dimensiones tan enormes y tecnología tan perfecta que hacía imposible cualquier tipo de competencia. Esto explica, por otro lado, por qué el sistema económico se ha ido organizando en las últimas décadas alrededor de los oligopolios, es decir, alrededor de algunos grandes grupos que se repartían partes importantes de la comercialización de determinados productos: el oligopolio era el fruto inevitable de la lógica de la economía de escalera y de las grandes factorías. Únicamente las empresas de dimensiones enormes podían conseguir los medios necesarios para poner en marcha instalaciones de esa naturaleza con lo que forzosamente la eventual competencia debía fundar empresas de dimensiones similares.

§. La informática y las pequeñas fábricas
Con el auge de la informática, la lógica de las grandes instalaciones entra en un período de crisis o. mejor dicho, esta lógica estaba ya en crisis. La informática ha ofrecido los medios para superarla, ha ofrecido los medios para hacer rentables empresas no excesivamente grandes y ha acelerado la crisis de las grandes factorías. Pero ¿a qué se debe este declive de la gran empresa en los últimos años? Simplemente a que su difusión por todo el mundo había traído consigo una cadena de problemas, algunos de ellos muy graves.

Entretanto ha aparecido también, junto con la economía de escalera, la «deseconomía de escalera». Las grandes fábricas son rígidas, provocan daños muy importantes al medio ambiente, son a menudo perjudiciales para la salud de los trabajadores, presentan altos costes de transporte ya que los productos son expedidos al mercado a partir de un solo lugar de fabricación y, en caso de huelga, son muchas las producciones afectadas. Por otro lado, se ha observado que en estas grandes instalaciones, es muy difícil introducir las innovaciones tecnológicas que aparecen día a día porque no siempre es conveniente cerrar una gran planta industrial el tiempo necesario para hacer las oportunas modificaciones. Las pérdidas serían proporcionales al tamaño de la empresa.

Se empieza a comprender, pues, que entre tener una industria química que produzca quinientas mil toneladas al año de determinado producto o diez industrias con una producción de cincuenta mil toneladas al año, cada una del mismo producto es preferible la segunda solución. Si aparece una innovación importante y decisiva, puede ser introducida en una de las empresas, mientras que las otras prosiguen su ritmo de producción hasta que sucesivamente, por etapas, es introducida en las demás. De este modo se evitan bruscas y sensibles pérdidas de producción y se evitan los riesgos inherentes a la introducción de una innovación en una empresa de grandes dimensiones: la innovación podría no ser tan interesante y útil como se creía en un principio. Además, las diez industrias se pueden distribuir geográficamente teniendo en cuenta los lugares de abastecimiento de materias primas y el destino de los productos acabados de manera que se pueda lograr una estructura que ocasione los mínimos gastos de transporte. Al disponer de diez instalaciones en vez de una es posible responder de forma más flexible en caso de huelgas, es posible aprovechar mejor las eventuales legislaciones que subvencionan la industrialización de zonas deprimidas, es posible transformar parte de la producción modificando una o más instalaciones y es posible hacer estudios de rendimiento y proceder a realizar experimentos que no afecten a toda la producción, sino sólo a una parte concreta de ella.

En resumen, las razones que aconsejan la sustitución de las grandes empresas por una serie de factorías de pequeñas o medianas dimensiones son muchas y de muy diversa naturaleza. El problema, obviamente, es sólo uno: ¿es posible tener con la informática la misma eficacia que se obtenía con las grandes instalaciones industriales y al mismo coste?

En líneas generales se puede responder que sí. Además, en muchísimos casos los ingresos y el ahorro pueden ser muy superiores. El fenómeno es menos extraordinario de lo que pueda parecer a primera vista. En realidad, no se llegó al planteamiento de las grandes empresas porque se descubriera que ésa era la mejor solución, sino porque, hace diez años, no había otras alternativas. El control de la producción, por ejemplo, era una actividad muy delicada y compleja, que tenía necesidad de un personal altamente especializado y de un utillaje muy costoso. Y, si era posible organizar una estructura central de control, era muy difícil, en muchos casos imposible, multiplicar por diez esta estructura.

Tan cierto es lo que decimos que si se reflexiona sobre las producciones a gran escala, desde el polietileno al acero, se descubre que posteriormente se subdividen y fraccionan en decenas y decenas de productos de características particulares. Por otro lado, cada uno de estos productos se transforma en otra decena de tipos diferentes a través de la adición de ciertas sustancias o de ciertas manipulaciones, según sea la demanda del mercado; todo esto se ha estado haciendo con problemas y fatigas, en una única factoría, porque materialmente se carecía de los medios para controlar el funcionamiento de una decena de instalaciones distantes pero relacionadas (desde el punto de vista del sistema productivo). La informática, sin embargo, permite hacer competitivas, flexibles y eficientes fábricas de dimensiones medias o pequeñas. En efecto, incluso los grandes productores están adoptando soluciones articuladas, basadas en un mayor número de instalaciones.

La evolución a la que estamos asistiendo es ésta: la informática ha proporcionado los medios para controlar de manera sencilla incluso las factorías más complejas y delicadas. Por otro lado, ha posibilitado tener bajo control, desde una única central, factorías distantes incluso a centenares de kilómetros. Si a esto se añade que los sistemas de control presentan ahora costes relativamente muy bajos respecto a los procesos a los que se aplican, se comprenderá por qué la lógica de las instalaciones cada vez más grandes ha entrado en crisis y por qué el futuro aparece como una época de industrias de no muy grandes dimensiones y distribuidas en el espacio, para reducir ulteriormente los efectos negativos del impacto de las fábricas en el medio ambiente.

§. El diseñador y el productor
Uno de los rasgos más sobresalientes de la revolución informática es el robot, del que se habla desde hace años, y que nos hace imaginar en seguida un mundo plagado de masas de bienes estandarizados con el consiguiente alienamiento de la sociedad, un sistema productivo automático y enloquecedor, y el espectro de la exclusión masiva de la fuerza del trabajo y de la degradación de las cualidades profesionales de los restantes trabajadores.

Pero las cosas no son así. Los robots serán importantes instrumentos de cambio en el modo de producir y de organizar empresas y servicios públicos, y por tanto de la sociedad civil, en los próximos decenios, aunque la verdad es que ya los tenemos entre nosotros, infiltrados en todos los ámbitos. Hablar de robots significa hablar de automatización, pero aclaremos de entrada que no se trata de un proceso único y simple, sino, por el contrario, de un proceso muy articulado capaz de enfoques y soluciones muy diferentes.

La robotización puede lograrse con simples manipulaciones sobre cada una de las operaciones de una máquina o sobre cada una de sus funciones (el control de la temperatura, del volumen de un fluido, de la cadencia de un movimiento, etc.), aplicándole, por ejemplo, un microprocesador. Pueden automatizarse pues, de manera fácilmente reprogramable y por tanto flexible, los más dispares procesos de elaboración, como la fabricación de géneros de punto, de vestidos, de máquinas de elaboración mecánica, y así sucesivamente. Se trata de operaciones fáciles, fraccionadas, progresivas, modificables y adaptables a nuevas exigencias, que llevan a soluciones flexibles, graduales y sin necesidad de grandes inversiones iniciales: operaciones por tanto típicas de las pequeñas unidades de producción y de los sistemas descentralizados. Pero también pueden efectuarse operaciones más complejas usando máquinas de las llamadas de «control numérico», en las que la sucesión de algunas operaciones mecánicas es controlada (de modo programado y modificable) por una unidad electrónica de control. Y, por último, se pueden utilizar verdaderos robots industriales, previstos de un sistema de «brazos mecánicos» a los que se les puede confiar un proceso entero de producción (por ejemplo, una cadena de montaje de automóviles o de aparatos de radio), comprendida la ejecución y el ensamblaje. Hoy día ya existen ejemplos de fábricas completamente automatizadas, con «cero» operarios.

El uso de robots, o «producción asistida por ordenador» (Computer aided manufacture, CAM), está siempre en relación con el «proyecto asistido por ordenador» (Computer aided design. CAD), o sea, una forma de proyectar «inteligente» y «científica» que. con el empleo del ordenador, logra no descuidar múltiples factores, como las características de los materiales empleados, las prestaciones que ha de satisfacer, la funcionalidad de las soluciones adoptadas, los aspectos de peso, dimensiones, forma, contenido energético, costes, factores contaminantes, estética, aceptabilidad en el mercado y así sucesivamente. Se trata de una manera de proyectar iterativa y de bajo coste, adaptada a cualquier caso (el diseño de un tejido, de un sillón, de una máquina, etc.). Su empleo en sectores tradicionalmente «modestos» permite elevar el nivel técnico y estético.

La automatización no es sólo patrimonio de la fábrica, sino también de la oficina, en mayor medida, si cabe, dado que ha visto menores innovaciones y cambios de los que han sido objeto incluso las fábricas más pequeñas desde hace ya mucho tiempo. La oficina presenta perspectivas de cambio muy importantes, y su automatización comporta el uso creciente de los instrumentos de la telemática, como las máquinas capaces de escribir y reproducir (las llamadas wordprocessors), la oficina de bolsillo (o sea el maletín que permite al directivo conversar con su secretaria y colaboradores y de disponer de cualquier documento en cualquier lugar del mundo en que se encuentre a través de un simple teléfono), la transmisión vía fax de documentos en lugar del envío postal, los archivos electrónicos, etc.

El país más avanzado en la carrera de la automatización, principalmente en lo que se refiere a la fábrica, es sin duda Japón, estimulado por una filosofía caracterizada por el deseo de competición en los mercados internacionales, la economía export-oriented, y la persecución de altos niveles de productividad, como condición para el ensanchamiento de la base productiva y, por consiguiente, del pleno empleo.

Los robots pueden ser un importante factor para liberar al hombre de actividades peligrosas y repetitivas, por lo que poco a poco van siendo aceptados y adaptados a las propias necesidades. Proceso, por otro lado, ineludible para evitar ser afectados antes o después por sus consecuencias cuando sea demasiado tarde para reaccionar y poner en marcha la retaguardia.

§. El escritor y el ama de casa
Uno de los méritos de la informática, quizás el mayor, es el de haber convertido en «ligeras», industrias consideradas «pesadas» hasta ayer mismo, en el sentido de que determinadas producciones indispensables para el desarrollo de una economía y una sociedad, que requerían grandes instalaciones, enormes inversiones y consistentes conocimientos tecnológicos, han sido posibles en factorías de modestas dimensiones y relativamente automatizadas. Todo esto tendrá importantes consecuencias en relación a la construcción del «segundo planeta», es decir, el conjunto de estructuras y actividades que deberá permitir la vida sobre la Tierra, en los próximos cincuenta años, a un número de personas doble del que hoy la habitan. La informática, al permitir llevar a cabo actividades industriales (y servicios) con un menor consumo de energía, de materiales y de trabajo humano, es capaz de simplificar el paso de las economías de tipo agrícola a economías relativamente industrializadas o, de cualquier manera, desarrolladas.

Pero eso no es todo. Con la informática están surgiendo nuevas profesiones mientras otras están desapareciendo. La difusión de los ordenadores, por ejemplo, está dando lugar a la aparición de cientos de miles de técnicos de software: es decir, «inventores» de los sistemas de cálculo, procedimientos y programas necesarios para poner en funcionamiento un conjunto de máquinas electrónicas. Estas máquinas, en efecto, se prestan a muchos usos: pueden ser conectadas entre sí y permiten obtener los mismos resultados a través de procesos más o menos largos. Todo depende del software, es decir, de los programas de elaboración de datos con los que se las hace funcionar. En todo el mundo están surgiendo nuevas empresas, dedicadas no a la fabricación de ordenadores, sino a la producción de software. En estas empresas no se estudia cómo construir ordenadores sino cómo usarlos, cómo sacarles partido, cómo aplicarlos a procesos para los que, hasta hoy mismo, no se había previsto el uso de ordenadores. En las próximas décadas este tipo de actividad estará destinado a crecer enormemente. Es curioso observar que siendo éste un trabajo puramente intelectual (como el del arquitecto o el ingeniero), es considerado sin embargo «de masas», del que se ocupan millones de personas.

Hay profesiones que o van desapareciendo o se transforman hasta el punto de llegar a ser irreconocibles. Piénsese, por ejemplo, en la extensión de la mutación que está sufriendo un producto tan popular como el periódico. Su proceso de fabricación es muy conocido. Los periodistas se trasladan a los lugares donde se producen las noticias, provistos de máquinas de escribir y papel. Observan, miran, preguntan y se ponen luego ante su máquina de escribir. Redactan el artículo. Llaman al periódico por teléfono. Dictan su texto a un empleado, que lo graba en un magnetófono. Posteriormente, otro empleado transcribe el artículo del magnetofón a hojas de papel, con ayuda de una máquina de escribir. Tras dar algunos otros pasos, el artículo acaba en la imprenta y es transcrito en caracteres de plomo, que servirán para la impresión del diario propiamente dicho.

La informática está revolucionando todo este proceso, al alterar tanto el trabajo del periodista como el del impresor. En lo que incumbe al primero, en algunos periódicos americanos ya no se trabaja con la máquina de escribir. Cuando hay que cubrir una información el periodista lleva consigo un maletín (exactamente un terminal electrónico) que contiene sustancialmente un pequeño visor y un pequeño teclado para escribir. Cuando está preparado para redactar su artículo, llama al diario por teléfono. Obtenida la comunicación, es puesto en contacto con el ordenador central. En ese momento empieza a teclear en su terminal: en su pantalla aparece el texto que está escribiendo, que a su vez llega, vía teléfono e instantáneamente, al ordenador central. Acabado el artículo, el periodista cierra su maletín y se marcha.

En las oficinas del periódico podrá verse, cuando se desee, el texto memorizado en el ordenador central. Si se considera que no necesita correcciones, es suficiente con dar algunas instrucciones al ordenador (tamaño de la letra, anchura de la columna, etc.) para que componga el artículo sobre una delgada tira de papel. Pegando las diversas tiras, se compone cada página del diario, que será después fotografiada y pasada por la máquina de imprimir.

Basta con recordar la descripción hecha unas líneas más arriba de un periódico de «viejo tipo» para darse cuenta en seguida de cómo está cambiando el oficio de «fabricar periódicos». Con la informática todo es más sencillo, más rápido, más automático. Pero no más banal. El terminal que sustituye a la máquina de escribir no sirve sólo para transcribir los artículos a la redacción. También se puede utilizar en sentido inverso. Si el corresponsal necesita informaciones que se encuentran en el archivo del diario puede, pulsando más teclas y utilizando determinados códigos, obtener estas informaciones del ordenador central, hacer que aparezcan en su pantalla y tomar nota, sea cual sea el lugar del mundo en que se encuentre. A través del mismo sistema puede pedir al ordenador que le transmita todas las noticias de las grandes agencias relacionadas con el acontecimiento del que se está ocupando. El periodista de la era de la informática ya no está aislado: sólo necesita un teléfono para ponerse en contacto con un universo casi infinito de informaciones y datos contenidos en los archivos.

Pero también el trabajo de los redactores cambia, y mucho. Con los viejos métodos, para «hacer una página», una vez decididos los artículos a insertar, hace falta un compaginador que disponga los distintos artículos en los lugares correspondientes y que calcule los espacios que deben tener para indicárselo después a sus autores. Todo esto desaparece con la informática: los grandes ordenadores tienen en su memoria centenares y centenares de modelos de páginas, diferentes unos de otros, y basta con una simple consulta para que ofrezca las treinta y cuatro variantes que pueden servir para el caso en cuestión, junto a todas las instrucciones necesarias. El ahorro de tiempo y materiales que se obtiene es enorme además de la oportunidad de conseguir un producto más cuidado. Piénsese que estos ordenadores contienen instrucciones (software) por las que pueden subdividir las palabras en sílabas (para los finales de línea) según las normas de cinco idiomas y sin cometer errores.

Los ordenadores pueden aplicarse a los trabajos más simples, como el del ama de casa. Quien haya utilizado alguna vez una lavadora, por ejemplo, sabe que hoy día esta máquina se puede equiparar electrónicamente a los pequeños sistemas de informática. Según algunos, la lavadora moderna contiene mucha más informática de lo que sería necesario, pero como la informática no es cara los fabricantes han decidido utilizarla ampliamente, un poco para hacer aparecer su producto más importante de lo que es en realidad, y otro poco para divertir al ama de casa, que siempre agradece tenérselas que ver con una «máquina inteligente».

Otro ejemplo significativo es el de la máquina de coser totalmente electrónica. Una vez puesta en marcha esta máquina es capaz de hacer sola casi cualquier cosa. El fabricante la provee de centenares de programas (pueden hacerse, por ejemplo. 400 o 500 servilletas con ribeteados diferentes automáticamente, es decir, sin necesidad de que intervenga para nada el ama de casa, una vez puesta en marcha). Es ésta una pequeña innovación destinada a cambiar el horizonte de una serie de cosas. Por lo pronto, la estructura de la máquina de coser se convierte en algo muy sofisticado que requiere una mayor cultura por parte del ama de casa, obligada a «manejar» la informática más de lo que lo hacía hasta ahora con la lavadora, el televisor y la cocina programable electrónicamente. Cambiará incluso la misma vida del ama de casa. La máquina de coser electrónica y automática la convertirá, en efecto en una fabricante de tejidos (servilletas, toallas, etc.) sin que esto comporte por su parte una especial fatiga o pérdida de tiempo. Se ha dicho, no sin ironía, que esta máquina representa un poco el triunfo de la economía «sumergida»: todas las amas de casa que lo deseen pueden transformarse en mini empresarias que producen tejidos destinados a ser posteriormente comercializados por una organización más grande.

Quizá sea pronto para imaginar este tipo de transformaciones. Pero lo que sí es cierto es que la máquina de coser electrónica, que es sólo uno de entre los muchos ejemplos posibles de este cambio, crea otra dimensión y otra imagen del trabajo «a domicilio», que en este caso ya no está basado en la explotación de una mano de obra marginal y casera, sino que por el contrario adquiere plena validez económica y social. En los países en vías de desarrollo, y también en los más avanzados, la producción doméstica de pequeños objetos por medio de máquinas sencillas, pero electrónicas y automáticas, puede convertirse en una realidad más importante de lo que se pueda imaginar hoy. En cualquier caso será una realidad moderna, actual, que podría incluso revalorizar la jornada del ama de casa que de simple ejecutora de faenas domésticas, ocupada en pesados trabajos repetitivos que requieren su continua preparación material, pasaría a ser una moderna productora de bienes, y de ganancias, dignamente insertada en un proceso económico más amplio. Si esto llega a ser realidad, está claro que algunas «industrias» terminarán por desaparecer, sustituidas por millones de «puntos de producción» domésticos altamente automatizados y capaces de trabajar con costes muy bajos, ya que podrán funcionar casi sin la intervención de la mano del hombre. Todo esto, como hemos visto, parte de un hecho aparentemente banal: la introducción de la informática en uno de los más viejos aparatos conocidos por las amas de casa de todos los países: la máquina de coser.

§. El tornillo y la zanahoria
El campo de acción de la informática se extiende día a día, y cada vez con efectos más relevantes. Pondremos algunos ejemplos de estas aplicaciones para que se pueda tener una idea de cómo podrá ser la industria del mañana (y también la agricultura), es decir cómo podrá ser la actividad económica, la sociedad, en el «segundo planeta».

Uno de los acontecimientos más recientes está protagonizado por los ordenadores para diseños industriales. Hasta hace algunos años, cuando había que construir una máquina o una fábrica, se hacía en primer lugar un diseño general y después se realizaban diseños detallados de las diferentes partes y de cada uno de sus componentes. Los gabinetes de proyectistas estaban por tanto llenos de ejércitos de diseñadores que dedicaban la jornada a actividades bastante enojosas, pero indispensables, como la puesta a punto de las características de determinado tornillo, de un engranaje o del perfil de un automóvil. Los costes de este trabajo eran, y son, muy altos ya que se trata de personal especializado y de difícil adiestramiento.

Pero en pocos años se ha dispuesto de ordenadores para la realización de proyectos. Una vez definido en líneas generales el diseño y establecidas las características de cada una de las piezas, el ordenador es el encargado de hacer los dibujos detallados de toda la máquina, haciendo inútil el trabajo de decenas y decenas de diseñadores. Se tarda menos tiempo, la precisión es mayor y los costes se rebajan considerablemente. Estos ordenadores, por otra parte, son capaces de proponer, en un espacio de tiempo razonable, diversas alternativas a los problemas que puedan surgir, según se trate de una u otra de las características concurrentes (resistencia, flexibilidad, tiempo de elaboración, simplicidad mecánica, etc.). Antes, con los diseñadores, esto no era posible normalmente por un problema de tiempo y coste. Con los nuevos métodos de diseño con ayuda del ordenador, el trabajo que precede a la verdadera producción se hace más rápido y, si se quiere, más creativo, más flexible. Es éste el germen de una gran revolución que no se puede subestimar. Los centenares de diseñadores que había antes eran fruto de una sociedad opulenta, rica en escuelas, en experiencias y en tradiciones industriales. Con los nuevos ordenadores, por el contrario, es posible llevar a cabo proyectos incluso en países más pobres en su camino hacia el desarrollo.

La nueva manera de proyectar crecerá en todo el mundo y se extenderá a campos donde antes era una excepción. Se extenderá en otras palabra, el industrial design, hoy en día poco difundido, que penetrará en todos los sectores industriales y artesanales. Los terminales gráficos interactivos que se desarrollan actualmente, representan una extensión directa de la capacidad del proyectista, que aumentan enormemente las posibilidades.

En los próximos años incluso una actividad aparentemente tan alejada de la electrónica como la agricultura, sufrirá una profunda transformación al verse invadida por la informática. La primera cuestión que se abordará será sin duda la de la distribución del agua. El agua es cada vez más escasa y cada vez más valiosa. Por lo que ya no se puede derrochar sobre los campos tan insensatamente como se hacía en el pasado. En el futuro se afirmará la técnica del riego por goteo para cada tipo de planta (zanahorias, alcachofas, pimientos, tomates, etc.). Sin embargo, para que el sistema funcione correctamente será indispensable utilizar sensores que mantengan constante el grado de humedad y que, en el momento oportuno, hagan caer de la instalación de riego las pocas gotas de agua necesarias.

Irrigar la tierra deberá convertirse en algo similar a la regulación de la temperatura en las habitaciones. Cada sensor indicará a un sistema central las variaciones de humedad y el momento de intervenir. Entonces, un sistema muy complejo transmitirá a la bomba la demanda de agua proveniente de los diferentes puntos del cultivo. La bomba pondrá en circulación exactamente la cantidad de agua solicitada en el momento oportuno, de manera que las zanahorias y las alcachofas puedan vivir las veinticuatro horas del día con el grado de humedad que les corresponde.

Deberá estudiarse un sistema similar sin utilizar probablemente sensores electrónicos sino sensores biológicos, para distribuir pesticidas, cuyo coste está destinado a subir y cuya difusión sobre los cultivos requiere mucha atención y control de la cantidad para evitar peligrosos envenenamientos.

Éstos que hemos expuesto son algunos de los ejemplos más recientes de la aplicación de la informática a la agricultura, pero es fácil imaginar que el proceso se extenderá a otras fases de la actividad agrícola, como la siembra, la recolección y la conservación de los productos de la tierra. Es fácil intuir a qué refinamientos podrá llegarse aplicando buenas dosis de electrónica a los cultivos de invernaderos o en cualquier ambiente acondicionado.

§. Los zapatos y la chaqueta
La electrónica está en disposición, si se usa con inteligencia, de cambiar completamente algunos de los más conocidos productos de consumo y de alterar de arriba abajo la forma de producirlos. En América, por ejemplo, se están llevando a cabo estudios muy concienzudos, subvencionados por el gobierno, para revisar la técnica de fabricación de algunos objetos tradicionales. Estos estudios se realizan en el marco de un proyecto más amplio que apunta a la reindustrialización de los Estados Unidos, a partir de la renovación de algunos sectores industriales tradicionales con la utilización de nuevas tecnologías.

Uno de estos objetos de consumo que se investigan actualmente es el zapato. Piénsese en cómo nace un calzado: una vez obtenida la piel, se curte, se tiñe, se corta, se le da forma y, finalmente, se cose. Se trata de operaciones que más o menos se han mantenido inalterables a través de los siglos. Tan sólo se han introducido algunas máquinas capaces de hacer en serie y más rápidamente algunas de estas operaciones. El proyecto en el que se trabaja en los Estados Unidos parte de la idea de que es posible revolucionar toda la tecnología empleada actualmente en la fabricación de zapatos.

El punto de partida es el material, es decir, la piel. ¿Es posible encontrar un sustituto a este material? La primera cosa que acude a la mente es el plástico, pero como el plástico es feo se trata de buscar plásticos que no sean feos, que sean los más parecidos a la piel. El plástico, por otro lado, no deja respirar al pie, no es poroso ni permeable. Se han fabricado plásticos que no tienen estos inconvenientes. Y, está claro, que una vez que estos plásticos «poroméricos» consigan un aspecto y una calidad similar a la de la piel, la fabricación de zapatos no estará supeditada a la disponibilidad de piel y utilizará materiales más baratos que se pueden producir industrialmente y teñir «en masa» a través de procesos que reducirán progresivamente los precios. Éste será el primer gran paso adelante. Después viene la fase del corte, hoy realizado a base de tijeras, sierras y todo tipo de cuchillas. Se está experimentando el uso industrial del rayo láser, por cuanto es más rápido, preciso y fácil de conectar a un ordenador. Finalmente, la fase del cosido. Se estudia la posibilidad de eliminarlo y sustituirlo por pegamentos dotados de la resistencia requerida por cada tipo de zapato. A partir de estas primeras innovaciones, que probablemente serán realidad dentro de unos años, puede comprenderse que los viejos zapatos cambiarán en todos los sentidos. Pero la verdadera novedad, al menos para el público, parece ser otra.

Se está estudiando un sistema según el cual el cliente que entre en una tienda no encontrará el habitual surtido de zapatos. En su lugar habrá una pantalla de vídeo en color y ante él desfilarán todos los modelos posibles, en los más variados colores y formas. Una vez elegido el tipo, la forma y el color, se le rogará al cliente que coloque los pies sobre un «banco de medición». Unas decenas de sensores, colocados en los puntos «estratégicos» procederán a una medida completa y exhaustiva de sus extremidades. Estas medidas serán luego enviadas por cable a la fábrica junto a las «instrucciones» acerca del tipo y del color de los zapatos deseados. Pagada la cuenta, el cliente recibirá en casa, por correo, al día siguiente, los zapatos a su medida, a un precio inferior a los actuales fabricados en serie.

Parece un proyecto de ciencia-ficción, pero no lo es. La informática hace posibles muchas cosas. No hay que olvidar que un proyecto de este tipo, una vez realizado, sólo sería la traducción a escala industrial del modo artesanal de hacer zapatos. Sin embargo, la industria del calzado se verá sacudida. No sólo los costes de producción serán más bajos, sino que desaparecerá la necesidad de disponer de enormes cantidades de zapatos en cada tienda y todo el proceso se simplificará.

Es evidente que un sistema de esta naturaleza sólo puede funcionar si los calzados se fabrican a partir de materiales plásticos «poroméricos» estandarizados, y si el sistema fábrica-distribución está completamente automatizado (en el sentido que hemos explicado antes). Por otro lado, está en estudio un plan similar en relación al vestuario; en este caso concreto la novedad tendrá que ver con el descubrimiento de materiales alternativos. Para ser exactos, se piensa en «tejidos no tejidos». Hoy en día incluso con las fibras sintéticas, se procede en el fondo igual que con las fibras naturales, según procedimientos de hace mil años (hendidura, encolado, ligamento, etc.). Por el contrario, un «tejido no tejido» (disponible en «hojas» como el plástico) representaría un gran salto adelante y simplificaría todo el proceso haciéndolo más «industrializable» de lo que es hoy. Será necesario, obviamente, que este «tejido no tejido» sea agradable a la vista, ligero, poroso, coloreable, cortable, lavable, planchable. etc. Desde hace tiempo hay en curso investigaciones en este sector y es fácil prever que dentro de un lustro llegue, tras la de los zapatos, la revolución de las chaquetas y los pantalones.

Recordemos, finalmente, algunos otros objetos y productos que ya han cambiado completamente de aspecto. El más notable es sin duda el del reloj. Antes sólo servía para indicar con sus agujas el paso del tiempo. Hoy, gracias a los microcircuitos y los cuadrantes digitales, ha aumentado el número de prestaciones: señala la hora, la fecha, transforma la hora local en la de otros usos horarios, sirve para hacer cálculos, contiene sistemas de despertador automático. Y es fácil imaginar que pronto podrá servir para «memorizar» números de teléfono, citas, notas de trabajo. Su destino es el de llegar a ser, gracias a los progresos de la técnica, una especie de microordenador de múltiples usos al servicio del hombre. Algo así como símbolo de la era de la informática. Al hombre del siglo XIX le bastaba con saber la hora. El hombre moderno necesita más informaciones, al momento y en cualquier lugar donde se encuentre. La informática está revolucionando el viejo reloj para convertirlo en un instrumento a la altura de los tiempos y de las nuevas necesidades del hombre moderno.

§. El teléfono y la luz
El segundo gran capítulo de la era de la informática es el constituido por la telemática, es decir la técnica de la transmisión de informaciones a distancia. Incluso en este terreno hay importantes novedades. En el fondo, las señales de humo y el tam-tam son ejemplos de telemática, y ya en tiempos más modernos, el teléfono, el televisor, la radio y otros instrumentos. Lo que ha cambiado, lo que hay de revolucionario en nuestros días, es que el problema de la transmisión de informaciones a distancia recibe y seguirá recibiendo mucha más atención que en el pasado, ya que será el fundamento de la sociedad de la información.

Los elementos que están en la base de este cambio, es decir la transmisión mucho más intensa de informaciones entre los diversos puntos del planeta y los diversos sujetos son, además del ordenador electrónico, dos: las fibras ópticas y los satélites, aunque también el televisor jugará un papel importante. A propósito de las fibras ópticas, que son fibras de vidrio tratadas con mucho cuidado y sometidas a posteriores manipulaciones, cabe decir que están sustituyendo progresivamente a los viejos cables de cobre, a través de los cuales, aún hoy, pasan las comunicaciones telefónicas (y no sólo las telefónicas) de todo el mundo. Las razones por las que las fibras ópticas ocuparán poco a poco el lugar de los cables de cobre son tres. En primer lugar, el cobre es un material bastante raro que puede ser destinado a unos diversos y menos plebeyos que los consistentes en acabar bajo tierra o bajo el mar para permitir el desarrollo de las conversaciones telefónicas. También, como hemos apuntado, la fibra óptica es mucho más «limpia» que el cable de cobre en el sentido de que es menos sensible a los ruidos, a las distorsiones, a las superposiciones de frecuencias y por tanto de conversaciones. Dentro de estas fibras no viajan ondas eléctricas, sino «paquetes» de ondas luminosas, que no pueden ser perturbadas por descargas eléctricas, radiaciones emitidas por plantas industriales o aparatos eléctricos de cualquier tipo.

Es curioso observar cómo con el empleo de las fibras ópticas, un instrumento tan cotidiano como el teléfono se puede convertir en un conjunto de alta tecnología. Para permitir el uso de la fibra óptica, la voz humana ha de sufrir una serie de mutaciones impensables hace unos decenios. En principio está el sujeto que habla y que emite una onda sonora. Después, esta onda se transforma en una señal eléctrica. La señal eléctrica, a su vez se transforma en una señal luminosa que viaja a través de la fibra óptica hacia su destino. A la llegada, se repite todo el proceso a la inversa: la señal luminosa se transforma en señal eléctrica y ésta en señal sonora. No debe olvidarse, por otro lado, el hecho de que con el empleo de fibras ópticas los «telefonemas» (o las transmisiones de datos) viajan a la misma velocidad de la luz, es decir, a la máxima velocidad posible en el universo, trescientos mil kilómetros por segundo.

Esta circunstancia, unida a la baja longitud de onda de las radiaciones luminosas, es el origen de la tercera razón por la que las fibras ópticas están destinadas a sustituir los tradicionales cables de cobre. La señal, en el interior de una fibra óptica, se mueve a una frecuencia tan alta como para permitir la transmisión, en igualdad de condiciones, de un número de conversaciones cerca de un millón de veces superior respecto al cable de cobre. El desarrollo de las telecomunicaciones, sobre todo en las grandes ciudades, hubiera encontrado un límite en la imposibilidad de seguir sembrando el subsuelo de cables de cobre para aumentar el flujo de comunicaciones. La llegada de la fibra óptica permitirá afrontar un tráfico de telecomunicaciones bastante más imponente que el actual a través de una red mucho menos densa y menos molesta.

Conviene añadir para completar el cuadro que mientras la tecnología del cable de cobre es ya muy vieja, la de la fibra óptica es relativamente nueva y puede ser mejorada posteriormente. No se descarta, por tanto, que pueda sufrir una importante evolución en los próximos años. Es evidente que la fibra óptica está en disposición de satisfacer la necesidad de la sociedad contemporánea de poder establecer un mayor número de comunicaciones entre los sujetos. Tampoco hay duda de que la fibra óptica se presenta como una solución tan eficaz que quizá sea definitiva, ya que es buena muestra de una tecnología capaz de transportar de manera sumamente «limpia» y a bajo coste una enorme masa de información. Como dijimos más arriba, esta fibra puede seguir perfeccionándose hasta lograr mayor ahorro y mayor eficiencia en el campo de las telecomunicaciones. En resumidas cuentas, las fibras ópticas representan la abolición del hilo, del soporte material, es decir, de la transmisión en el espacio, sin necesidad de un medio «sólido» Y, como se verá más adelante, todo esto será pronto una realidad.

Llegados a este punto podemos plantearnos dos preguntas: ¿de qué manera cambian los sistemas de comunicaciones y cuándo las fibras ópticas sustituirán a los cables de cobre? Como puede comprenderse, los dos fenómenos están destinados a avanzar juntos. A medida que se disponga de mayores «canales» para la comunicación, está se enriquecerá y sofisticará.

§. El teléfono y el ordenador
Ya hoy en día el teléfono no sólo sirve para comunicarse, sino para obtener un buen número de prestaciones diferentes. Gracias a la filo difusión, los cables telefónicos llevan a las casas la radio y la música. La televisión llega cada vez con más frecuencia a través de cables. Gracias a otros cables, las empresas y las fábricas pueden conectarse con sistemas centrales de ordenador, a veces situados a decenas de miles de kilómetros de distancia.

Si se quiere tener una imagen «final» de lo que puede llegar a ser la telemática, es necesario intentar poner en relación cosas diferentes. Hay que imaginar tanto el teléfono doméstico como el de la oficina no ya como un aparato que permite llamar y oír la voz de un pariente o un cliente, sino que, conectado a un sofisticado sistema, permite recibir y enviar de manera interactiva datos e informaciones audiovisuales de casi todas partes del mundo.

De entre la multitud de ejemplos que podrían ilustrar lo que decimos elegiremos alguno para dar idea de lo que puede ser el futuro de una sociedad basada en el intercambio y la rápida circulación de informaciones. En Francia ha sido creado un sistema que ha permitido eliminar las guías telefónicas. Todos los números de los abonados están insertos en un ordenador central y cada abonado tiene, junto a su teléfono, un pequeño terminal, el «videotel», con el que puede solicitar al «cerebro» el número de cualquier abonado de la red nacional. Este sistema, aunque pueda parecer ultramoderno, está destinado a su vez a ser sustituido por otro aún más simple y al mismo tiempo más sofisticado. Se trata de dialogar, a viva voz, con el ordenador sin necesidad de una terminal. El ordenador será capaz de comprender la voz y de responder, en audio, con una voz artificial, con lo que no se necesitará tener en casa un terminal.

Éste es un ejemplo, entre muchos, que ilustra bastante bien la idea del porqué una sociedad basada en la información permite un gran ahorro de material y trabajo. Baste pensar en cuánto papel y cuánto trabajo se emplean cada año para producir millones y millones de guías telefónicas que al año siguiente serán material de desecho. Y piénsese también en la comodidad. El «cerebro» que contiene todos los números de los abonados puede ser puesto al día instantáneamente, a diferencia de las guías. De este modo, junto al ahorro de material y trabajo se obtiene una sensible mejora del servicio.

Naturalmente, no es preciso ser escritor de ciencia-ficción para imaginarse en seguida otras aplicaciones del sistema que hemos esbozado. La más obvia podría ser ésta: el terminal, una vez recibido el número del abonado del ordenador central, podría marcarlo, evitando al usuario la molestia de apretar las teclas del aparato. O, en el caso de que el teléfono del abonado comunique o no conteste, el mismo terminal puede ser programado para repetir la llamada al cabo de un tiempo y para transmitir mensajes.

Se trata de aplicaciones bastante menos extravagantes y lejanas de lo que pueda creerse. Ya hoy, por ejemplo, se puede disponer de aparatos telefónicos normales que memorizan automáticamente el último número marcado. Si éste comunica, basta con apretar un botón para que el teléfono repita automáticamente la llamada. Se están generalizando teléfonos que pueden memorizar una serie de números de uso frecuente: basta apretar un botón para hablar con la tía que está en Nápoles, la oficina de Roma o el hijo que estudia en Harvard.

El teléfono ya se puede conectar con un ordenador capaz, a su vez, de conectarse con otros ordenadores, con lo que el campo de aplicaciones se hace infinito y apasionante. Por poner un ejemplo, podrá conectarse con el propio banco, para poder saber en casa, instantáneamente, el saldo de una cuenta corriente; con la biblioteca pública para tener acceso a sus archivos; con el periódico; con los diversos centros de investigación.

Repitamos una vez más que no se trata de hipótesis de ciencia- ficción. Digamos, a este propósito, que Francia, que en este sector es seguramente el país más avanzado, está nada menos que regalando a los usuarios terminales (los ya famosos «minitel»), involucrándoles así a utilizar el teléfono para cerca de 15.000 distintos servicios, de los que los más difundidos son la mensajería (por medio de la conexión entre terminales de diversos usuarios) o la consulta de los listines telefónicos electrónicos. Los terminales en uso en Francia pasan de seis millones, y las horas de empleo del minitel —y de las líneas telefónicas— llegan a más de cien millones anuales. Las potencialidades del teléfono son evidentes con sólo considerar la explosión del telefax, también frecuentemente conectado a un computador, que ha sustituido completamente el uso del télex y que en cierta medida está erosionando las «cotas de mercado» del correo tradicional.

Pero todo el funcionamiento cotidiano de una casa podría mañana ser gestionado con un «personal Computer»: impuestos, balance económico familiar, los deberes fiscales, calefacción equilibrada de las habitaciones, el control del sistema de alarma, cuentas bancarias, los plazos más importantes (sean de la naturaleza que sean), etc.

En efecto, el impacto social de la informática es tan grande que casi nadie se aventura a hacer previsiones. Fundamentalmente se trata de estar a la expectativa y comprender los acontecimientos. La única previsión posible, por el momento, es que estos sistemas tendrán aplicaciones, en primer lugar, en las empresas industriales y comerciales. Más adelante podrán hacerse conexiones soft entre las diversas plantas de producción. Se llegará inevitablemente a la automatización cada vez mayor del trabajo burocrático y, posteriormente, el fenómeno se extenderá a los particulares.

§. El teléfono y el hospital
El campo de las posibles aplicaciones de la telemática es muy extenso. Las dos primeras que vienen a la mente se relacionan con las instalaciones industriales o científicas que presentan algún tipo de peligrosidad y con los hospitales. En el primer caso, es evidente la necesidad de controlar determinados procesos a una cierta distancia o de dirigir estos procesos a distancia, ya sea ésta de unos centenares de metros o de centenares de kilómetros. El grado de perfección alcanzado por la telemática hacen posible tales realizaciones sin excesiva dificultad y, en general, con una mayor precisión que antes (ya que los viejos sistemas manuales o mecánicos han debido ser «informatizados», es decir, electronificados, forzosamente). Un relevante ejemplo de cuánto hemos dicho se encuentra en los laboratorios científicos, en los que la necesidad de mantener a los operadores a una distancia de seguridad del lugar donde se llevan a cabo los experimentos, ha comportado el creciente uso de la electrónica y la telemática. Las diversas pruebas son «guiadas» por ordenadores expresamente programados, los cuales no se limitan a seguir las órdenes del operador, sino que corrigen los eventuales errores y facilitan incluso una primera evaluación de los resultados de las pruebas, sugiriendo nuevas «preguntas» o nuevos experimentos, memorizando automáticamente los datos más importantes del experimento y, en fin, haciendo confluir la documentación sobre una memoria central, o sobre otras memorias. Alguna de éstas, por razones de seguridad, puede ser un duplicado de la existente en el laboratorio y, por consiguiente, encontrarse a centenares de kilómetros de distancia, o quizás en otro Estado o en otro continente.

Son también curiosas e interesantes las aplicaciones que la informática puede tener en el campo de la medicina. Hasta hace algunos años, como se recordará, la gente era muy reacia a hacerse internar en un hospital. Este recelo ha desaparecido, pero hoy, por razones económicas, se tiende a evitar un excesivo número de hospitalizaciones. Se trata de evitar el internamiento sistemático, reservándolo para casos absolutamente graves. Muchos exámenes (y ciertas curas) pueden ser hechos a distancia, con el empleo de determinado instrumental. En este sector aún no se ha pasado de la fase experimental, pero se piensa ya en el camino hacia una auténtica revolución. Se están difundiendo aplicaciones de mucha relevancia social, como la referida a los cardiopáticos. A través de un aparato de radio, este tipo de enfermos es tenido bajo observación las veinticuatro horas del día desde la «central» de un hospital, de manera que un eventual infarto o una grave dolencia cardíaca puede diagnosticarse con algunas horas de anticipación y, por tanto, evitados o atajados a tiempo con los oportunos remedios.

§.El teléfono y la oficina

Hemos visto que gracias a la informática y la telemática es posible descentralizar muchas actividades productivas, es decir, dividirlas en muchas factorías pequeñas repartidas por la geografía del Estado, incluso a considerable distancia unas de otras. Al menos en teoría, el trabajo que se lleva a cabo en las oficinas se puede organizar exactamente del mismo modo. Hasta el punto de que muchos empleados y directivos no tendrán necesidad alguna de salir de su casa para desarrollar adecuadamente su trabajo: el teléfono, la televisión, los sistemas de transmisión de documentos, el ordenador y otros ingenios lo harán posible. Numerosas empresas e industrias están dotadas de salas de conferencias con televisores interactivos, a través de los cuales se organizan reuniones con la participación de personas de diferentes ciudades sin necesidad de que se desplacen.

Algo parecido se está realizando en el campo de la enseñanza a través de programas difundidos por medio de la televisión, que están en activo en numerosos países europeos, inclusive en España, Estados Unidos y Japón. Cada vez aumenta más el interés por este sistema que permitirá sustituir con creces los sistemas tradicionales de enseñanza y su posibilidad de interacción. Es decir, la posibilidad para el usuario (el escolar-oyente) de dialogar con el «cerebro» del programa de enseñanza, de manera que pueda hacerse repetir lo que no haya comprendido o de solicitar una profundización en los temas que lo requieran. Incluso esto podría ser realidad sin siquiera grandes costes económicos. El obstáculo principal es de carácter cultural y nos lleva a plantear la aceptabilidad social de tan rápidos y grandes cambios en nuestro estilo de vida. Gracias a la telemática y la informática es efectivamente posible, desde hoy mismo, evitar muchos desplazamientos y contactos directos (piénsese sólo en todos los documentos públicos, que pueden ser entregados directamente a domicilio instantáneamente a través de instalaciones de aparatos corrientes de fax).

La organización del trabajo en las oficinas y los centros de enseñanza se encuentran, pues, al borde de una posible y grandiosa revolución, destinados a conmover las costumbres adquiridas en el curso de los siglos y a modificar la estructura de las ciudades y la organización de la vida colectiva. Imagínese cómo podría ser la City de Londres con el cincuenta por ciento de sus miembros activos trabajando «a domicilio».

En realidad, y casi con toda seguridad, estas innovaciones se irán implantando lentamente. Y no tanto, vale la pena repetirlo, por cuestiones de carácter tecnológico o económico, como por razones de tipo social y psicológico. No se sabe, en efecto, cuáles pueden ser las reacciones de las personas sometidas a un cambio tan radical de sus costumbres. La única cosa segura, aparte de la posibilidad técnica y económica de realizar cuanto se ha esbozado, es que se proceda primero a hacer pequeños experimentos organizados conjuntamente por las firmas productoras de los equipos necesarios y por reducidos grupos de consumidores, con el asesoramiento, no sólo de técnicos sino también de sociólogos y psicólogos. El método, tras una fase de lento despegue, está destinado a tener una enorme difusión. No hay que olvidar que la descentralización de las oficinas y el desarrollo de la telemática en el interior de los núcleos urbanos requieren una gran cantidad de líneas telefónicas a un coste muy bajo. Pero esto, muy probablemente, no será posible antes de haber sustituido los cables de cobre por fibras ópticas. Lo cual requerirá algún tiempo al ser muy elevados los costes de la operación en su totalidad. Lo mismo puede decirse de las diversas centrales destinadas a controlar el tráfico de informaciones. También habrá que transformar las centrales electromecánicas en centrales electrónicas. Sólo así se conseguirá esa fluidez en el servicio y esa multiplicidad de funciones que requiere la sociedad de la informática, es decir, una sociedad en la que el flujo de informaciones de un consumidor a otro aumenta a marchas forzadas.

Todo lo que hasta ahora se ha dicho sólo sirve para dar una ligera idea de la enorme transformación estructural del trabajo en las oficinas. A ellas se ha dedicado un nuevo sector de la informática, la «burótica», destinada a cambiar todo, haciendo desaparecer papeles y archivos y revolucionando los comportamientos y las relaciones laborales.

En efecto, la informatización de la sociedad es un proceso en marcha destinado a permitir cualquier actividad productiva o de otra naturaleza. Cada vivienda está llamada a comunicarse vía cable óptico para recibir y proporcionar información de todo tipo, correo, radio, televisión, diarios, espectáculos, mediante sistemas cada vez más de tipo interactivo. Un creciente número de personas trabajará en su casa en distintas actividades u oficios, aunque también para administrar máquinas y sistemas productivos, con horarios altamente flexibles. Control médico, compras, organización de viajes, se realizarán telemáticamente. Todo ello conduce a la creación de la llamada «ciudad de los cables», en la que los cables ópticos representan el sistema nervioso de un organismo complejo, así como el arterial está representado por la red eléctrica.

§. Los satélites y el bacalao
Hemos dicho al principio que entre los elementos que cimientan la próxima revolución de la informática hay que señalar, junto a las fibras ópticas, los satélites. Hoy día hay ya muchos satélites de comunicaciones alrededor de la Tierra, pero su número está destinado a crecer aún más. Parece ser que el satélite es el sistema más económico para transmitir informaciones incluso a media distancia. A partir de los cien kilómetros, es mucho más rentable servirse de un satélite que de instalaciones fijas. Obviamente, el radio de acción de un satélite es mucho más amplio. Esto significa que, incluso en el interior de un mismo país, dentro de muy poco, será mucho mejor servirse de satélites para las comunicaciones telefónicas que de cables que recorren el subsuelo o de enlaces radiofónicos que son complejos de instalar y que requieren una manutención muy delicada.

El de los satélites parece ser uno de los «robots» más extraordinarios de las exploraciones espaciales y de la tecnología que se ha desarrollado y crecido a su alrededor. En efecto, los satélites están a punto de revolucionar no sólo el mundo de la telemática, es decir, el de las transmisiones de informaciones a través del planeta, sino también otros muchos sectores, entre los que se encuentra el de las previsiones meteorológicas. Alrededor de la Tierra hay un centenar de satélites meteorológicos en órbita, pero se estima que pronto habrá muchos más. Gracias a ellos se ha podido disponer, por primera vez, de previsiones sobre el tiempo muy dignas de crédito. Los huracanes, por ejemplo, están siempre bajo control, desde que se forman hasta su posterior desencadenamiento. Y lo mismo puede decirse en relación a las previsiones meteorológicas más importantes para la determinación del clima. Es un hecho que no debe asombrarnos: a través de estos satélites, por primera vez, los científicos disponen de macro informaciones, es decir, informaciones muy amplias de los fenómenos que pueden alterar el clima y, por tanto, material sobre el que trabajar y elaborar sus previsiones. Cuando no había satélites, todo se hacía de forma muy rudimentaria: a base de observatorios fijos situados en las zonas altas y de aviones que hacían veloces vuelos de reconocimiento.

Hoy, por el contrario, es posible tener controladas zonas enteras del planeta de manera sistemática y constante. Y no sólo esto, ya que el desarrollo de la informática es globalizador, lo que hace posible disponer de programas de alarma automática o de una elaboración de las informaciones suficientemente automática y precisa. De este modo, a los meteorólogos les queda más tiempo para reflexionar sobre los fenómenos. Además, la técnica de la informática y de los ordenadores permite almacenar una enorme cantidad de datos meteorológicos para su posterior elaboración-confrontación en un breve espacio de tiempo.

Los progresos realizados en este sector han sido tan contundentes y rápidos que ya podría ser posible poner en marcha una auténtica «guerra del clima» capaz de desviar las lluvias de una zona a otra de la Tierra. Nadie, a decir verdad, dispone de informaciones exactas a este respecto, pero podemos admitir esta posibilidad desde el punto de vista técnico y, por tanto, no excluimos que algunos países estén ya secretamente tras ella. En cualquier caso, bueno será recordar que la llamada «guerra del clima» ofrece una de las perspectivas menos alentadoras del desarrollo de la informática. Hasta hace pocos años el clima era uno de esos acontecimientos que afectaban al hombre pero que quedaban fuera de sus posibilidades de determinación o previsión. En la actualidad, se está en condiciones de prever el clima y existen ya algunas técnicas, aunque aún rudimentarias, para intervenir sobre él (esparciendo determinadas sales en la alta atmósfera es posible, por ejemplo, hacer que llueva antes de tiempo). No es difícil prever, por consiguiente, que antes o después los países más avanzados tratarán de servirse de esta posibilidad que les ofrecen los avances tecnológicos.

Otro empleo muy importante de los satélites es el de poder observar la Tierra para buscar reservas naturales. Las posibilidades que los modernos satélites ofrecen en este campo son inmensas y casi inimaginables. Piénsese, por ejemplo, que ya en los años setenta un satélite descubrió la existencia de un mar subterráneo, de varios centenares de kilómetros, en Marte. Si se ha podido llevar a cabo una empresa de esta envergadura (en la que las observaciones hechas en los alrededores de Marte tuvieron que transmitirse a la Tierra salvando una enorme distancia), es fácil hacerse una idea de lo que son capaces de hacer los satélites en órbita alrededor de nuestro planeta, dotados de los equipos más sofisticados.

Prácticamente no existen límites en su empleo. Baste con un ejemplo. Actualmente es posible realizar un mapa sistemático de la Tierra, a partir del cual se pueda deducir cuáles son las zonas más interesantes desde el punto de vista mineral. Pueden descubrirse así yacimientos de hidrocarburos. Incluso se utilizan, y no sin éxito, los satélites en la agricultura. Gracias a ellos es posible tener una información sistemática y continua incluso de las zonas menos conocidas del planeta, con los datos, siempre al día, relativos a la humedad, la lluvia y la temperatura en las distintas estaciones del año. Por consiguiente, es posible saber de antemano qué cultivos se deben hacer en determinados terrenos en vista a su mejor rendimiento. Naturalmente, tampoco es difícil imaginar empleos menos nobles. Con los satélites es posible tener previsiones muy exactas sobre la naturaleza y volumen de las futuras cosechas de un determinado país y, por ende, saber qué producto será más escaso en el mercado la próxima temporada. A partir de estos datos se pueden hacer «maniobras», ya sean de orden económico o político. Qué duda cabe de que las dos grandes potencias. Estados Unidos y URSS, «se estudiaban» regularmente por medio de los satélites en órbita. A través de ellos pueden llegar otras informaciones, más allá de las referidas al clima y las cosechas. Los satélites pueden llegar a «leer el suelo» con una extraordinaria definición (quizá no sea verdad que pueden distinguir las matrículas de los automóviles, pero es seguro que no estamos lejos de semejantes posibilidades), por lo que están en condiciones de transmitir informaciones tanto de carácter militar como las relativas a desplazamientos de hombre y materiales.

Hay aplicaciones para todos los gustos. Los japoneses están obteniendo grandes éxitos en la pesca en todos los mares del mundo (incluso los más alejados) gracias a algunos satélites especiales capaces de señalar los bancos de pesca más importantes. Las informaciones recogidas por los satélites se transmiten a tierra, donde se elaboran y envían a la flota pesquera que se encuentra en la zona. Se trata de una tecnología muy refinada y muy de vanguardia, que constituye un Know-how muy reservado.

Otro uso de los satélites (del que se hablará en el capítulo dedicado a la energía) es la producción de energía solar, más allá de la atmósfera terrestre y en condiciones ideales, que puede enviarse a la Tierra a través de diferentes sistemas.

§. La simple aldea y la aldea electrónica
Llegados a este punto quizá no sea difícil comprender por qué dijimos al principio que la informática era de las cinco «revoluciones» del futuro, la que tendría un mayor desarrollo y mayor peso en la construcción del «segundo planeta», es decir, la que intervendría más directamente en la tarea de permitir la vida sobre la Tierra de otros cinco mil millones de habitantes. Sus usos son múltiples, sus aplicaciones se extienden a una amplia gama de situaciones y de profesiones y sus costos son, a pesar de todo, muy bajos. Por otro lado, la informática permite ahorrar energía-trabajo de mil maneras distintas.

Si todo esto es verdad, hay que hacerse dos preguntas: ¿cuánto tiempo transcurrirá antes de que una revolución de esta envergadura sea un hecho tangible?, y ¿qué cambios son previsibles en nuestra manera de vivir? Acerca del tiempo de realización ya se ha dicho algo en páginas precedentes, pero podemos intentar ahora concretar un poco más, recordando que estas grandes innovaciones se llevarán a cabo bastante lentamente, no en el curso de unos años o meses. Será suficiente exponer, a este propósito, dos ejemplos: la difusión del automóvil y la de la automatización.

El automóvil, como tecnología y como producto industrial, es fruto de los últimos años del siglo XIX. A principios de nuestro siglo era ya un «objeto» disponible y a punto de ser fabricado en serie. Sin embargo, antes de su introducción a gran escala en la sociedad europea debieron pasar más de cincuenta años. Esto tiene una explicación. Las innovaciones de este calibre, que marcan toda una época, necesitan, antes de difundirse, que se creen muchas estructuras nuevas y, sobre todo, que se creen las condiciones culturales y sociales favorables a su desarrollo. El automóvil necesitaba, para convertirse en un fenómeno de masas, una sociedad preparada para crecer, preparada para aceptar como algo inherente a su propio modo de existir la gran ciudad y la movilidad. Y, por último, tenía necesidad de una civilización dispuesta a invertir grandes sumas en la construcción de calles y carreteras, de estaciones de servicio, de talleres de reparación y manutención. Como hemos tenido oportunidad de explicar, el automóvil no es un objeto industrial, sino un «sistema» y como tal requería que el mundo decidiese abandonar los carruajes y los caballos, antes de hacer su aparición. En el caso concreto de esta «revolución cultural» se ha necesitado alrededor de medio siglo.

La historia de la automatización no es muy diferente. La idea de elaborar y de servirse de esta tecnología nace a principios de los años cincuenta, cuando se pone a punto la técnica del estado sólido (es decir, del transistor), lo que supone un gran paso adelante para toda la electrónica. Los primeros, grandes, apasionados debates sobre las consecuencias económicas y sociales de la automatización salen a la luz justo al principio de los años cincuenta. Había quien pensaba que la automatización provocaría miles y miles de parados en el mundo porque «el robot echaría fuera de la fábrica a los obreros». Y había quien, por el contrario, observaba el fenómeno con mayor cautela.

Han pasado aproximadamente cuarenta años desde aquellos debates y todo el mundo ha podido comprobar que la automatización, incluso hoy, es una experiencia bastante limitada en el sistema industrial moderno. Hace sólo pocos años que se han comenzado a difundir los primeros robots en las fábricas y casi todo el mundo ha comprendido que su aplicación será muy diferente a como se pensó en el pasado. Automatización e informática han encontrado caminos diferentes para hacerse útiles al mundo productivo (como se ha visto en las páginas precedentes). Hoy el proceso de automatización procede simbióticamente con la renovación completa del modo de producción, que se conecta en tiempo real con los abastecedores y los usuarios al objeto de eliminar los almacenes; que adopta soluciones flexibles para responder de inmediato a la mudable demanda del mercado, que se «aligera» con la eliminación de secuencias rígidas y convencionales buscando soluciones que conducen a inversiones reducidas y convertibles.

Estos son ejemplos del pasado. En lo que se refiere a problemas actuales, problemas de la informática, nadie puede ser preciso. Sólo se puede decir que no será un asunto a saldar en unos cuantos años. Ante todo hay que vencer muchas resistencias. La «revolución cultural» necesaria para que se extienda el uso de la informática es mucho más grande y difícil de alcanzar de la que fue indispensable para llevar a la gente a «aceptar» el automóvil. Basta pensar que países enteros aún en vías de desarrollo podrían organizar su propio sistema de enseñanza colectiva a través de televisores y satélites. Sería así posible, por un lado, difundir la enseñanza, la información y la cultura en estos países con gran rapidez, paliando la falta de legiones de enseñantes con los métodos tradicionales. Pero por otro lado, este sistema pondría todo el mecanismo de la enseñanza fuera del control del Estado, ya que, obviamente, un sistema satélites-televisores sería por definición un sistema abierto. En cada aldea sus habitantes podrían decidir sintonizar con emisoras de otros países, de otras culturas, dirigiendo ellos mismos su proceso de culturización. Y éste es un golpe difícil de encajar.

Algo similar podría decirse en relación a un uso más extensivo, de la informática en la vida cotidiana. Gracias a la informática, todos los ciudadanos podrían dejar más huellas de su existencia. Si se compra un pasaje de avión (o cualquier otra cosa) al contado, la «documentación» que se obtiene es escasa o inexistente y, en cualquier caso, bastante difícil de recuperar entre millones de resguardos iguales. Si el mismo pasaje se compra con una tarjeta de crédito, por ejemplo, el comprobante es más consistente y mucho más fácilmente encontrable entre otros de la misma clase. En una sociedad en la que gran parte de los contactos se efectúan por medio de ordenadores y de terminales, los comprobantes serían muchísimos y todos fácilmente recuperables, analizables, confrontables. Es decir, la posibilidad de control sobre la actividad y sobre los contactos de la gente sería de golpe más alta y molesta. No se trata sólo de un problema moral, sino de una cuestión que se relaciona directamente con la necesidad que tienen las personas de desarrollar su vida en una justa parcela de intimidad.

¿Qué responden los expertos en informática a esta cuestión? Que las dudas recién surgidas son reales y fundadas, pero que se les puede hacer frente con sistemas oportunos, con normas y reglamentos que prohíban un uso abusivo de las «huellas electrónicas» que los ciudadanos dejan a su paso. En cualquier caso, dicen, es un proceso irreversible. Si un país decide apostar por la informática (algunos como Francia y Japón ya lo han hecho) los otros deben imitarle irremediablemente para no quedarse atrás, para no ser menos y para no quedarse fuera de juego. Los expertos hacen, finalmente, una curiosa observación. Recuerdan que en la antigua sociedad, la de tipo agrícola, cuando la mayor parte de la gente vivía en pequeñas aldeas, todos sabían todo de los demás. El control social sobre los individuos era muy estricto y no conocía límites. Y sólo gracias al desarrollo de la civilización industrial se han conquistado mayores espacios para la «libertad» individual.

Una difusión muy amplia de la informática, en el peor de los casos, crearía las mismas condiciones de «control social» existentes en la civilización campesina. Es una comparación un poco paradójica a primera vista, aunque no lo es tanto. Ya hace varios años que quedó explicado cómo la informática y la electrónica transformarán con el tiempo todo el planeta en una especie de «aldea global».

Pero aún queda algo que objetar. ¿No existe la posibilidad de que, en una civilización de la informática, quien tenga el control de los grandes ordenadores tenga también el control del mundo? Éste es un problema muy serio. Los expertos en informática y los sociólogos no ocultan que esta tecnología, como todas las tecnologías, presenta ciertos aspectos ambiguos. Puede dirigirse hacia el bien o hacia el mal. Sin embargo, apuntan que «si es relativamente fácil controlar cien teléfonos, es más difícil controlar mil y casi imposible controlar un millón». En todo caso, dicen, una sociedad en la cual circule mucha información es mucho más libre que otra en la cual circule poca. Por otra parte hemos visto que ya sea a través de satélites o de la posibilidad que tienen varias terminales de «dialogar» entre sí, la sociedad de la informática tiene muchas posibilidades de ser una sociedad en la que la información circule horizontalmente (de sujeto a sujeto) más que una sociedad en la que circula verticalmente (de arriba abajo). El hecho es que será prácticamente imposible (y en el fondo ni siquiera deseable) huir de la civilización de la informática: superadas las primeras incertidumbres, el fenómeno se extenderá y ya no habrá duda de que los próximos cincuenta años serán los años de la informática y la electrónica, para bien o para mal.

B. La energía

Hemos visto en las páginas precedentes la importancia de la energía. Desdichadamente está destinada a convertirse en aún más decisiva en el futuro y por un hecho muy simple: mientras el planeta se encuentra frente a la perspectiva de una duplicación de su propia población en muy poco tiempo, la principal reserva energética del hombre (el petróleo) se está haciendo más escasa. Si a esto se añade que en los años venideros se necesitará mucha energía incluso para usos que hoy en día requieren pocas (como la «fabricación» del agua y la agricultura) se tendrá una primera idea de la gravedad del problema.

En los últimos veinte años, sobre todo a partir de la gran crisis petrolífera del 1973, se ha hablado mucho sobre el mundo de la energía. El debate se fue haciendo cada vez menos sereno y hoy existe una cierta confusión en la materia. Por otra parte, el lema es complejo y se presta fácilmente a malas interpretaciones. Habrá, pues, que afrontarlo con calma, sin dejar zonas oscuras y tratando de ser precisos al máximo. Tampoco estará de más tener presente en todo momento que el alcanzar o al menos «atravesar» los próximos cincuenta años depende en gran parte de la energía: si el hombre dispusiera de ella en cantidad suficiente, en los lugares oportunos y el momento justo, la tarea de «hacer sitio» a otros cinco mil millones de personas podría llegar a ser posible. En caso contrario, una catástrofe de dimensiones mundiales es bastante más probable (o mejor dicho, segura) de cuanto pueda pensarse.

§. El chino y el americano
¿Cuánta energía se consume hoy en el mundo? La respuesta es muy sencilla: alrededor de 8 mil millones de teps al año. Tep significa «tonelada de petróleo equivalente». Por comodidad se supone que toda la energía consumida es de origen petrolífero; así se calcula cuántas toneladas de petróleo se consumen en el planeta. En realidad, como se verá más adelante, hay muchas fuentes energéticas además del petróleo: la leña, el carbón, el gas, las centrales hidroeléctricas, los pozos geotérmicos, etc.

Casi el 40% de la energía consumida en la Tierra proviene directamente del petróleo, cuyo consumo anual es de unos tres mil millones de toneladas. Después, en orden de importancia, viene el carbón y, finalmente, el resto. Si se divide el consumo total de energía por el número de habitantes, se llega a la conclusión de que hoy cada habitante consume alrededor de una tonelada y media «equivalente» de petróleo. Ésta es la media mundial.

En realidad se trata de una media muy relativa. Si se estudian los dalos por países, se constata que China, donde viven alrededor de mil millones de personas, consume 0,62 teps al año por habitante, poco más de un tercio de la media mundial. Los habitantes de los Estados Unidos consumen a su vez 8,3 teps al año, casi seis veces la media mundial. Cada americano, por tanto, consume alrededor de catorce veces más que el chino medio.

Esta curiosa estadística es, por muchas razones, el centro del problema. Para darse cuenta de ello bastará con prestar atención a otro dato: de los cerca de doscientos países existentes en el mundo, sólo una treintena tienen consumos energéticos superiores (o muy superiores) a la media, los demás están por debajo. Así las cosas, es evidente que el consumo de energía esté destinado a crecer por la sencilla razón de que los países más pobres tenderán a aumentar su consumo de energía, mientras que los más ricos difícilmente aceptarán estar por debajo de la cuota actual. Todo lo más pueden intentar no consumir aún más (cosa que han hecho constantemente), pero la idea de que puedan empezar a reducir el consumo es bastante ilusoria. Pueden, pero esto es otro cantar, «derrochar» menos energía, esto sí. Pero en ese caso la cuota ahorrada acabará por ser dirigida hacia cualquier otro uso.

Por otro lado, no debe olvidarse que en el curso de cincuenta años la población mundial está destinada a duplicarse, sobre todo a causa del crecimiento que se experimentará en los países más pobres, lo que requerirá nuevamente una mayor disponibilidad de energía. Por eso, cuando se oye decir que el problema de la energía puede ser resuelto (o al menos afrontado de manera concreta y efectiva) por medio del ahorro, hay que prestar mucha atención. Dentro de cincuenta años habrá en el mundo diez mil millones de almas: mil millones y medio vivirá en los países que tienen y consumen mucha energía en la actualidad, pero los restantes ocho mil millones y medio vivirán en países que no pueden ahorrar energía porque consumen mucha menos de la que necesitarían para organizar su vida dignamente. En pocas palabras, el ahorro puede ser un camino (aunque modesto) para los países ricos, pero sin duda no para los más pobres, que son la mayoría y son, además, los que en los próximos años crecerán más.

La cuestión de la energía, por consiguiente, se resuelve produciendo más energía. De qué manera y con qué tecnología se verá más adelante. Pero conviene tener presente, desde ahora mismo, esta elemental verdad.

§. Las reservas y el jeque
Entre los expertos en problemas energéticos se suele afirmar desde hace tiempo que el gran desafío de los próximos años es el de salir de la era del petróleo, o mejor dicho, de los combustibles fósiles (petróleo, gas y carbón), para entrar en una nueva era. En palabras menos altisonantes esto quiere decir que el hombre debe resignarse a hacer un uso más moderado de la que desde hace muchos años es su principal fuente energética (el petróleo), para ir a la busca de otra nueva fuente. Sobre la primera parte de esta afirmación (el declive de la era del petróleo) casi todo el mundo está de acuerdo. Sobre la segunda parte (las nuevas fuentes) hay división de opiniones: hay quien sugiere la energía solar, quien sugiere el gas, y quien propone el carbón o bien las biomasas, como solución. Naturalmente, también se cita la energía nuclear.

Por el momento, tratemos de comprender por qué hay que prepararse para asignar un papel menos protagonista al petróleo. Actualmente, como se ha visto, se consumen alrededor de tres mil millones de toneladas anuales. Las reservas comprobadas totalizan 135 mil millones de toneladas. En teoría, hay petróleo para, al menos, cuarenta años más. Hemos dicho «al menos» porque casi todo el mundo está de acuerdo en que las reservas comprobadas son sólo una parte de las reservas efectivamente existentes sobre el planeta y alcanzables en el marco de los próximos cincuenta años. Sobre la base de complejas hipótesis y extrapolaciones estadísticas, se ha llegado a sostener (probablemente con mucho fundamento) que en realidad en la Tierra deben haber aún unos doscientos mil millones de toneladas de petróleo alcanzables y explotables con los medios de la moderna tecnología. A los actuales consumidores se les puede augurar aún otros 60 o 70 años de abundancia. La «crisis petrolífera» parece pues que no será inminente. El mundo podrá vivir aún algunos decenios de tranquilidad, buscando entretanto la mejor solución al problema.

Precisamente sobre la base de un razonamiento similar hay quienes aconsejan «pasar» de la energía nuclear y dedicar todos los esfuerzos investigadores en el desarrollo de la energía solar. Una vez llegados a los primeros decenios del siglo XXI se debería estar en condiciones de servirse de la energía solar a gran escala o de tomar decisiones alternativas. El problema, en suma, no sería inminente y por tanto no habría por qué correr riesgos inútiles con la energía nuclear. De estos argumentos nos ocuparemos en profundidad más adelante. Por el momento, sigamos en la cuestión del petróleo.

Aunque lo más seguro es que haya petróleo al menos durante los próximos cuarenta años, y quizá setenta, es urgente, sobre todo para los países más ricos, encontrarle un sustituto por una serie de razones:

  1. No es seguro que las «nuevas» reservas de petróleo (es decir aquellas cuya existencia se sospecha, pero cuya ubicación exacta no se conoce) aún puedan ser descubiertas y puestas a disposición del consumo mundial en un breve espacio de tiempo. Esto significa que si el consumo continúa con la misma intensidad, la era del petróleo podría acabar antes de los 60-70 años previstos, un tiempo no demasiado largo si se piensa que para construir y poner en funcionamiento una central nuclear son necesarios de ocho a diez años y que la puesta a punto de nuevas tecnologías requiere mucho tiempo. Apostar por el descubrimiento de nuevas fuentes de petróleo es, en las presentes circunstancias, un juego que se parece mucho al de la ruleta rusa, ya que nadie asegura que una vez encontradas estas nuevas áreas petrolíferas se puedan poner inmediatamente a producir y a disposición de todos. Podrían existir motivos políticos o estratégicos que lo desaconsejaran o lo hicieran imposible.
  2. La hipótesis que acabamos de exponer no debe ser subestimada. Ya hoy el petróleo está mal distribuido sobre la Tierra. Basta pensar que dos tercios de las reservas compradas se encuentran concentradas en los países de la OPEP, y el 40% de las reservas de la OPEP en un solo país: Arabia Saudita. Estos países, en general poco desarrollados y poco habitados, tienden a seguir, a propósito del petróleo, una política lógica y racional, aunque poco favorecedora para sus clientes. Los países consumidores nos empeñamos en utilizar cada vez más petróleo, pero sólo disponemos del suficiente para que no se vaya al traste la economía de los países industrializados donde, incidentalmente, se hallan gran parte de las inversiones y los petrodólares. Los países productores tienden a tener a sus clientes «en un puño». Y esto es así por dos razones: tratan de obtener de su petróleo el precio más alto posible en cada momento y de mantenerlo el mayor tiempo posible. Ya que el petróleo es para todos estos países su única riqueza, puede comprenderse el porqué de un uso tan cuidadoso, casi vigilado, y poco generoso. La era del petróleo podrá durar aún cuarenta o setenta años, pero lo que está claro es que será una era de incertidumbre, con una producción de petróleo a veces abundante y a veces apenas suficiente y precios cuyas oscilaciones serán difíciles de prever. Los países productores, en suma, tratarán de servirse del petróleo para obtener de sus clientes (en gran parte los países más ricos) todo lo que puedan en materia de reservas y riquezas.
  3. Es dudoso que esta política esté destinada a tener éxito después de la guerra del Golfo, que ha contemplado a Irak enfrentado a Kuwait, Arabia Saudita y a prácticamente todos los países industrializados. En aquella ocasión los países compradores presentaron un frente unido, pero no es seguro que lo esté igualmente en el futuro, como tampoco lo es que las operaciones de carácter militar para imponer la razón a uno u otro de los países de la OPEP se puedan repetir en años venideros en un mundo que conoce ya tantos otros motivos de tensión.
  4. Hay que tener en cuenta también el hecho de que están apareciendo en escena otros países consumidores. Son países en vía de desarrollo que, año tras año, tienen mayores necesidades energéticas. Estos países, por otro lado, no pueden dar el salto de la era del petróleo y confiarse plenamente a las nuevas tecnologías (como la nuclear, por ejemplo) porque, dado su grado de desarrollo tecnológico y sus escasas reservas financieras, les conviene quedarse con las tecnologías más conocidas y usuales, como es la del petróleo. A esto cabe añadir que la tecnología de la energía nuclear se presta a maridajes con la de las armas nucleares. Desde un punto de vista general sería, por consiguiente, oportuno evitar una excesiva difusión de este tipo de tecnología. Pero, como los países en vía de desarrollo carecen en la actualidad de infraestructura tal como puertos, canales, ferrocarriles, redes eléctricas, etc., deberán servirse, para crecer, sobre todo del petróleo, al menos en una primera fase, ya que es la fuente energética más cómoda, la que presenta menos riesgos, la que requiere menos cuidados y la que comporta menos gastos.
  5. Puede deducirse como consecuencia de lo expuesto que los países más desarrollados deben tener en cuenta, durante los próximos años, las necesidades de petróleo de los países más pobres. Por otro lado, los países exportadores de crudo consideran su producción actual de mil millones y medio de toneladas al año como una cantidad tope, de la que se debería bajar cuanto antes (para conseguir mayores ingresos a más largo plazo); de esto se deduce que las próximas décadas podrían ser muy difíciles por lo que se refiere al aprovisionamiento de energía. No porque, vale la pena repetirlo, vaya a haber una inmediata escasez «física» del producto, sino porque habrá una escasez «de mercado».

Como puede verse, los elementos que aconsejan a los países industrializados una rápida salida de la era del petróleo son varios y todos bastante razonables y comprensibles. En efecto, muchos países han tomado desde hace ya tiempo las oportunas medidas para reducir su dependencia energética de los yacimientos petrolíferos del Norte de África y de Oriente Medio.

§. El jeque y sus pozos
El panorama que hemos esbozado es, pues, un panorama «libre de sorpresas», donde la palabra «sorpresa» hay que entenderla por «incidentes». Se supone que todas las partes en juego, productores y compradores de petróleo, se comportan de modo racional, preocupados sólo por obtener las máximas ventajas; pero se ha visto que, aun así, hay muchos motivos que aconsejan liberarse un poco de la dependencia del petróleo.

Convendrá tener en cuenta otros elementos. Las reservas más grandes de petróleo se encuentran, como se ha dicho en las páginas precedentes, en los países de Oriente Medio. Se trata de un área que, desgraciadamente, está caracterizada por una grave inestabilidad política, por cierta conflictividad entre países vecinos e incluso por una notable turbulencia dentro de cada Estado. Entre todos estos países uno de los más vulnerables, después del Irak y del Irán, es Arabia Saudita, estado que constituye la clave de todo el problema petrolífero.

Arabia Saudita cuenta con alrededor de dieciséis millones de habitantes, comprendido un alto porcentaje de trabajadores inmigrantes, y está gobernada por una oligarquía formada por unos cuantos millares de personas. De los pozos de este país salen cada año cincuenta millones de toneladas de crudo, lo que representa una séptima parte de la producción mundial. Arabia Saudita es en realidad el «pulmón» del petróleo mundial. En caso de necesidad sólo de sus pozos es posible extraer mayores cantidades de petróleo, porque son capaces de aumentar bastante rápidamente su producción sin crear problemas adicionales. Por otra parte, este petróleo es fácilmente refinable y de muy buena calidad.

Se recurrió a Arabia Saudita, por ejemplo, cuando la revolución iraní provocó la suspensión de la producción durante un tiempo en aquel país. Lo mismo ocurrió durante la guerra del Golfo, cuando se interrumpió la producción de Irak y Kuwait. A este propósito cabría recordar que el mercado mundial petrolífero (precisamente porque está «en un puño») es muy sensible a la más mínima reducción de la producción.

La revuelta en Irán, a pesar de la rápida intervención de Arabia Saudita, provocó un fuerte sobresalto en el mercado mundial del petróleo y trajo consigo una notable subida del precio del barril.

Los expertos opinan que de haberse producido tumultos en Arabia Saudita (por no hablar de una revuelta armada) lodo el mundo desarrollado se hallaría en una gravísima crisis, quizás insostenible. Pero los mismos expertos recuerdan que algo parecido ocurrió en Arabia Saudita en noviembre 1979 con la revuelta de La Meca, sofocada con gran derramamiento de sangre (más de trescientos muertos). El episodio sólo duró unos días y no tuvo repercusiones sobre la producción del crudo. Pero el peligro siempre acecha. El mercado mundial del petróleo (y, por tanto, la posibilidad de que los países industrializados tengan un aprovisionamiento regular de crudo) pende de un hilo y este hilo se llama Arabia Saudita, un país cuya estabilidad, a pesar de la protección americana, está a su vez pendiente de un hilo demasiado delgado, que podría romperse en un futuro no muy lejano.

Ésta es la razón por la que, independientemente de que haya aún petróleo en el subsuelo, conviene tomar distancias, lo antes posible, de esta fuente energética. No sólo ha llegado a ser muy cara, y lo será aún más en el futuro, sino que además es muy insegura. Los servicios de seguridad de todo el mundo, y particularmente los americanos, tienen constantemente bajo control la situación socio-política de la Arabia Saudita y sus informes no hacen más que recomendar prudencia. No obstante el hecho de que la guerra del Golfo, con intervención norteamericana, aseguró en los primeros años noventa la estabilidad de Arabia Saudita, persisten aún elementos de vulnerabilidad estratégica que inducen a la reflexión. Es urgente buscar una salida a la «era del petróleo». Pero, ¿cómo? Para responder a esta pregunta no queda más que estudiar las otras fuentes energéticas y ver qué posibilidades ofrecen de sustituir a la representada por el crudo.

§. El gas y el oleoducto
Hay quien sostiene que el papel del petróleo podrá ser asumido por el gas natural. Las reservas comprobadas de gas son menores que las de petróleo: suman un total de alrededor de 115 mil millones de «teps», o sea algo así como el 80% de las reservas de crudo. Pero los expertos hacen notar que en realidad el gas natural se ha descuidado hasta hace algunos años porque era más cómodo servirse del petróleo y, por consiguiente, no ha sido buscado con suficiente atención y con la necesaria inversión de medios. Es muy posible que en el mundo haya más reservas de gas que las que hoy se conocen.

Pero ¿por qué, entonces, no se ha ido en busca del gas con mayor empeño? Porque es más difícil de transportar. Sólo hay dos maneras: o se construyen gigantescos gasoductos, es decir, un sistema de tuberías que une los lugares de producción con los lugares de consumo, o por el contrario se utilizan barcos para su transporte, en cuyo caso, antes de ser embarcado debe ser licuado y al llegar debe devolverse a su estado gaseoso. Tanto en un caso como en el otro se trata de labores muy costosas. Quizá por esto, hoy por hoy, el gas no viaja mucho: la mayor parte (un 85%) se consume dentro de los países que lo producen. Algunos de los más encarecidos defensores del gas están convencidos de que vale la pena construir barcos para el transporte del gas y todas las instalaciones relacionadas con él porque, aunque el gas llegue a agotarse, siempre se podrían utilizar esas instalaciones (comprendidos los gasoductos) para transportar el gas obtenido de la gasificación del carbón.

Todo esto es interesante, pero es sólo una cara de la moneda. La cuestión del gas, si queremos aclarar las cosas, hay que plantearla en estos términos:

  1. Actualmente es preciso encontrar este gas de cuya existencia casi nadie duda y probablemente exista, aunque por el momento sólo tengamos a nuestra disposición 115 mil millones de «teps», es decir, 65 veces el actual consumo anual.
  2. Admitida la posibilidad de que se encuentra este gas, queda por resolver el problema del transporte, que no es sencillo y requiere enormes inversiones en tiempo y dinero.
  3. Los mayores yacimientos de este gas se encuentran en Siberia. Se está estudiando la posibilidad de transportarlo a través de gasoductos desde Siberia al sur de Rusia. Por esa zona pasa un gasoducto que lleva el gas de Irán a Europa y, por consiguiente, el gasoducto procedente de Siberia podría ser conectado a él y potenciado. En los últimos diez años también se ha visto aumentada la capacidad del pipeline que conecta directamente Rusia, a través de Ucrania, con Europa occidental. De este modo el gas ruso podría llegar a los mercados de los países europeos. Existen también importantes, aunque menores, reservas de gas en el Irán y en el Norte de África, principalmente en Argelia. Por lo que se refiere a este gas argelino, ha sido construido un gasoducto que, a través del Mediterráneo, lo lleva a Sicilia, de ahí a la Italia continental y finalmente al resto de Europa. También se ha previsto otro que cruce el estrecho de Gibraltar y que llegue a Europa a través de España.
  4. El gas no tiene tantos usos como el petróleo aunque, por otro lado, es más limpio (contamina menos) y por tanto es más interesante como combustible. Es posible desarrollar una «química del gas», aunque sea menos directa y completa que la «del petróleo». El gas, además, no es aconsejable como combustible de base para las centrales eléctricas porque es demasiado caro. Hoy en día se utiliza en las centrales a turbogás. La energía que producen es muy cara, aunque estas centrales tienen la ventaja de poderse realizar en un tiempo relativamente breve y ponerse en marcha inmediatamente (apenas se constata la necesidad de disponer de más energía eléctrica) y se pueden cerrar después de unas horas de funcionamiento, sin problemas.
  5. Por último está la cuestión del precio. En los mercados mundiales se está poniendo en práctica una norma: para fijar el precio del gas los productores toman como referencia el del mejor petróleo, cuando no el de la gasolina, teniendo en cuenta que el gas es limpio y el petróleo, por lo general, más sucio. El gas, pues, tiende a costar más que el petróleo bruto.

Aclarados estos puntos, la cuestión del gas es bastante sencilla. Nadie duda de que en el futuro habrá que utilizar más esta fuente energética, pero hay que desacreditar la hipótesis (sostenida por calificados expertos) de que en los próximos años el gas pueda asumir el papel hegemónico que actualmente tiene el petróleo. Las razones son muy fáciles de comprender.

El gas cuesta cada vez más caro, frente a los precios, muy asequibles, del pasado. Por el contrario, es previsible que el gas cueste más que el petróleo a igualdad de contenido energético.

Tras la experiencia del petróleo, convendría evitar ser esclavo de otra fuente energética.

Dadas sus características, el gas liga excesivamente al productor con el consumidor. Si un petrolero tiene un accidente en el mar y se pierde una determinada cantidad de crudo, es un hecho remediable y no muy grave respecto al consumo total de un país. Pero si, por el contrario, se rompe un gasoducto submarino, el daño sería mucho más grave y difícilmente solucionable en pocos días. Es evidente que, en estas condiciones desestabilizar cualquier país podría ser muy sencillo: bastaría con dañar seriamente este gasoducto, cortando así los aprovisionamientos de gas durante muchas semanas y, tal vez, meses.

No carece de importancia el hecho de que la actual distribución geográfica esté muy concentrada sobre todo en un área geopolítica que no garantiza tranquilidad total para el futuro.

Por todas estas razones hay que considerar con prudencia la posibilidad de que el gas asuma una posición hegemónica entre las fuentes energéticas. Puede utilizarse más de lo que se hizo en el pasado, pero siempre con mucho tacto y prudencia y, en todo caso, no como fuente principal. Todo lo dicho vale, obviamente, para los países que no sean grandes productores de gas (como por ejemplo Holanda y Noruega).

En el mundo actual, en lo que se refiere a las fuentes energéticas, se está siguiendo una filosofía muy simple que tiene su origen en las desventuras y problemas vividos por culpa del petróleo: cada país debe tratar, dentro de los límites de lo posible, de proveerse de la cantidad que necesita de energía de fuentes distintas y muy repartidas geográficamente. El quid de la cuestión está en distribuir los riesgos, en no confiarse más de la cuenta en una única fuente energética o en una sola área de aprovisionamiento.

§. El carbón y los océanos
Quizá sea ésta la razón por la que muchos piensan en el carbón. De la misma manera que hay quien afirma que en el futuro el puesto del petróleo será ocupado por el gas (aunque ya se ha visto que esta hipótesis presenta algunas dificultades), otros piensan que la carta a jugar en los próximos años será el carbón. Los parámetros más significativos a este respecto son dos: el de las reservas comprobadas y el de la distribución geográfica. En el mundo hay muchísimo carbón. Se calcula que en los yacimientos conocidos debe haber alrededor de 500 mil millones de «teps»: las reservas comprobadas de carbón son pues cuatro veces superiores a las de petróleo. Si se confiara la producción de energía a esta fuente y si el consumo se mantuviera en los niveles actuales, el carbón podría proporcionar energía durante dos siglos, ya que en el mundo hay muchas e importantes reservas de carbón.

Su distribución geográfica está más equilibrada respecto a las áreas de consumo. Existen grandes reservas de este combustible fósil en los Estados Unidos, Australia, Sudáfrica, Gran Bretaña (algunos expertos sostienen, medio en broma, medio en serio, que el Reino Unido es una isla que se eleva sobre un yacimiento de carbón), Polonia, Rusia, China y algunos países de Sudamérica. Entre los diversos combustibles (petróleo, gas y carbón), éste es el único que tiene una distribución geográfica aceptable para los países industrializados de Occidente y que cuenta con reservas más que abundantes. Por otro lado, el carbón se presta a ser gasificado e incluso licuado. La defensa que de él hacen muchos expertos se apoya en motivos reales y concretos.

Sin embargo, el carbón también ha dado lugar a controversias. Se trata, como siempre, de enfrentarse a la realidad y no a sugestivas hipótesis. En el campo de la energía, desgraciadamente, no se pueden hacer milagros, y el caso del carbón no se escapa a esta premisa. En 1958, es decir, hace cerca de treinta y cinco años, el carbón era más importante que el petróleo y proporcionaba más del 50% de la energía necesaria al planeta. Es decir, hace menos de cuarenta años, el mundo vivía una economía «de carbón», exactamente igual que hoy se vive una economía «de hidrocarburos» (petróleo y gas).

Y en este punto llegamos a un primer e importante descubrimiento. No es verdad que hoy se produzca y consuma menos carbón que hace treinta y cinco años. Todo lo contrario, se utiliza mucho más. Nunca se ha dejado de extraer carbón del subsuelo y de utilizarlo. La diferencia es que en este período de tiempo el consumo de energía ha crecido a un ritmo del 4% anual, mientras que la producción del carbón se ha mantenido casi estable (ha aumentado, pero muy poco). Casi todo el volumen de nuevas necesidades ha sido satisfecho por medio del petróleo y del gas. Y de esta manera se ha salido de la era del carbón para entrar en la del petróleo y del gas: sin cerrar las minas de carbón, pero sí abriendo pozos de petróleo.

Se comprende así por qué hablar de volver a una economía basada en el carbón es fácil en teoría, pero difícil en la práctica. Con este combustible tendría que hacerse frente a una demanda de energía mucho más grande que la que tuvo que ser satisfecha en 1955. Pero esto no es todo. El petróleo, salvo escasas excepciones, como Rusia, Estado Unidos y Gran Bretaña, se consume prácticamente en su totalidad fuera de los países productores. En el curso de unos años ha ido desarrollándose todo un sistema, hecho de oleoductos, puertos especializados y buenos petroleros, encargado de comercializar este producto y de hacerlo llegar a casi cualquier parte del mundo. Conviene reflexionar sobre el hecho de que, hoy día, existen millares de petroleros encargados de comercializar este producto y de hacerlo llegar a casi cualquier parte del mundo. Conviene reflexionar sobre el hecho de que, hoy día, millares de petroleros surcan los mares y los océanos para llevar el combustible de los lugares de origen a las zonas de consumo. Se trata de una gigantesca «máquina» que trabaja día y noche, verano e invierno, sin descanso.

El caso del carbón es muy diferente. En la actualidad se producen, y se consumen, en el mundo, alrededor de 1,7 mil millones de «teps». Pero sólo poco más del 10% de todo este carbón sale de las fronteras nacionales: se consume en su totalidad, dentro de los países donde se produce. Esto significa que hoy no existe, en realidad, un sistema para la comercialización internacional a gran escala del carbón. Quiere esto decir que si se quisiera que el carbón jugara un papel protagonista en la satisfacción de las necesidades energéticas mundiales, habría que poner en pie todo un sistema de trading (a base de barcos, depósitos y puertos) de unas características nunca vistas en la Tierra. Además, mientras el petróleo es un fluido que se carga, se transporta y se descarta con relativa facilidad (una vez llegado al país de destino puede distribuirse fácilmente por medio de oleoductos), el carbón es un sólido para cuyo «manejo» se necesitan grandes y complejos equipos. Para lo cual, no está de más repetirlo, habría que partir casi de cero. Baste decir, por ejemplo, que en toda la costa de los Estados Unidos, desde donde tendría que partir el carbón camino de Europa, sólo hay dos puertos preparados para admitir los grandes barcos mercantes transoceánicos. Y la situación en los demás países no es mucho mejor.

Para dar una idea de la complejidad de la operación, se puede poner el caso de Italia, no sin antes recordar que para conseguir la energía que proporciona una tonelada de petróleo es necesaria cerca de una tonelada y media de carbón. La tasa de importación anual de petróleo alcanza en Italia la cifra de ochenta millones de toneladas. Lo que significa que en caso de querer sustituir este combustible por el carbón habría que importar ciento veinte millones de toneladas al año. Actualmente Italia importa quince millones de toneladas anuales de carbón, en parte con destino a la siderurgia. Uno de los mayores inconvenientes es el de los puertos: hoy en día sólo el 4% de las instalaciones portuarias está en disposición de acoger barcos de cien mil toneladas de registro y sólo un puerto puede recibir naves de doscientas toneladas. Existía el puerto de Gioia Tauro, que era un candidato con bastantes posibilidades para asumir el gran tráfico carbonífero, pero este puerto existía por pura casualidad. En efecto, en Gioia Tauro se pensaba crear el quinto centro siderúrgico y, por consiguiente, se proyectó y empezó a construir un puerto adaptado a la llegada de grandes barcos. Posteriormente se canceló el proyecto de dicho centro siderúrgico, y el puerto quedó a medio construir. Por este motivo, aunque ya estaba muy avanzado el proyecto de construcción de una central eléctrica alimentada con carbón, la oposición de los medioambientalistas lo ha bloqueado. Se había calculado que para favorecer la penetración del carbón en el sistema energético italiano hubieran sido necesarios otros tres puertos transoceánicos: uno en Tárenlo, el segundo en el Adriático y el tercero en el Tirreno. Todos estos proyectos quedaron varados por un lado por motivos ambientales; por otro, porque a partir de 1985 el precio del petróleo en el mercado comenzó a ser lo bastante bajo como para no hacer competitivo el uso del carbón, teniendo en cuenta los otros costos de infraestructura.

Pero las dificultades en el transporte del carbón son múltiples.

Ni en los países productores ni en los consumidores existen las estructuras para su movilización por tierra. En Italia, por ejemplo, si se pretendiese producir energía eléctrica procedente en su mayor parte del carbón, sería necesario hacer navegable el río Po de modo que pudiese utilizarse para el transporte del carbón por medio de lanchas, o poner a punto a conciencia algunas redes ferroviarias o, en último caso, recurrir a largas y gigantescas cintas transportadoras. La ENEL tenía en proyecto construir en Bastida Pancarana, en el Oltrepó Pavese, dos centrales de carbón de seiscientos megavatios cada una, lo que significa que para cada una de estas centrales habría que disponer cada año de alrededor de 1,4 millones de toneladas de combustible, unos tres millones de toneladas en total. El proyecto preveía que este carbón se desembarcase en el puerto de Sabona y llegase a Bastida Pancarana a través de una cinta transportadora o un funicular de varios kilómetros, y luego por ferrocarril. Debido a las condiciones económicas y ambientales que se verificaron sucesivamente, también fue cancelado este proyecto.

Hay que decir que se han hecho cálculos sobre las cantidades necesarias para construir todo el sistema de transporte mundial del carbón y han resultado sumas gigantescas, aunque no irrazonables. A pesar de los grandes gastos, la utilización del carbón, desde el punto de vista económico, podría ser estratégicamente factible. Pero aquí surgen otros problemas.

§. El carbón y el smog
No obstante las indudables Ventajas que presenta el carbón (grandes reservas y óptima distribución geopolítica de los yacimientos) es bastante probable que no se vuelva a la era del carbón por una serie de contraindicaciones de bastante peso:

  1. La primera es de carácter económico. Poner en movimiento el circuito del carbón requiere enormes inversiones, tanto en las minas como en los sistemas de transporte. Los países productores han hecho saber que están dispuestos a tomar este camino, a pesar contratos a largo plazo con precios fijados según fórmulas muy precisas y abiertas a registrar las eventuales oscilaciones del mercado. Es una actitud razonable. Hoy en día para poner en marcha una mina de carbón se necesitan cinco o seis años y sumas que rondarían varios centenares de millones de dólares. Es evidente que nadie emprende empresas de esta envergadura si no tiene una razonable seguridad de que dentro de cinco o seis años su producto tendrá salida, sobre la base de unos precios y suministros estables, al menos durante un período de quince o veinte años. Pero en este punto surgen graves dificultades por parte de los países consumidores, donde las empresas dudan en empeñarse por un periodo de tiempo tan prolongado. Como se ha dicho aquí, el precio del petróleo ha disminuido mucho, lo que hace el carbón menos competitivo. Por otra parte, las mejoras en la generación de energía eléctrica han aumentado mucho el rendimiento de las conversiones, que han pasado del 35 al 50-55%, lo que significa que hoy se consume mucho menos petróleo para producir la misma cantidad de energía. Es por ese motivo que el carbón halla dificultades en afirmarse aunque, por el contrario, en el frente de la energía nuclear se ha introducido un brusco compás de espera en casi todo el mundo.
  2. El segundo grupo de objeciones es de carácter ecológico. El carbón presenta bajo este punto de vista muchos inconvenientes. Actualmente, existen diversos tipos de carbón, algunos de los cuales contiene elementos radiactivos, incluso en cantidades muy elevadas. Una central de carbón puede emitir bastante más radiactividad que una central nuclear. Por otro lado, está el problema de las cenizas o, mejor dicho, dos problemas, el de las cenizas y el de los humos. Las cenizas suponen del 1,8 al 10% del carbón quemado (en el caso concreto del carbón del Sulcis se alcanza un 20%). Esto significa que la ENEL se encontrará cada año en Bastida Pancarana con alrededor de medio millón de toneladas de cenizas entre las manos. Actualmente se trata de buscar utilidad a las cenizas empleándolas en la fabricación de materiales de construcción, en la pavimentación de calles, etc. Ésta puede ser una solución, aunque algo compleja, pues requeriría construir junto a las centrales de carbón un pequeño pero sólido «sistema industrial» para el tratamiento de las cenizas. Y luego está la cuestión de los humos. Casi no hace falta recordar que el smog (cuyas nefastas consecuencias fueron varios centenares de muertos en Inglaterra en los años cincuenta) se debía al enorme uso que se hacía en aquel tiempo del carbón como combustible. El cielo volvió a estar relativamente limpio sobre las grandes metrópolis y sobre las áreas industriales, porque el carbón se sustituyó en gran parte por el gas y el gasóleo como combustibles, y porque desde entonces ha evolucionado la tecnología del carbón, y se espera que aún lo haga más. Sin embargo, para conseguir una combustión suficientemente limpia con el carbón se necesitarían grandes factorías y el empleo de técnicas muy sofisticadas, que no pueden, por ejemplo, transferirse a las instalaciones domésticas o las pequeñas industrias descentralizadas. Pero en los últimos años los problemas ecológicos se han convertido en una cuestión ambiental de dimensiones mundiales. En la combustión del petróleo, del gas y, más aún, en la del carbón, se emite dióxido de carbono, que se acumula en la atmósfera produciendo el calentamiento del clima por el efecto invernadero. En la conferencia de las Naciones Unidas de Río, en 1992, los países industrializados, preocupados por las consecuencias ambientales y económicas del cambio climático, acordaron controlar las emisiones de dióxido de carbono a la atmósfera, evitando así su incremento. El carbón termina por pagar el gasto de esta nueva orientación, aunque hay que decir que algunos grandes países en vía de desarrollo, en primer lugar China, basan aún sobre el carbón su economía energética.
  3. De lo expuesto se deduce que el carbón se podrá utilizar en el futuro más que antes, pero sin llegar a ocupar nunca el puesto que hoy en día tiene el petróleo. En la práctica, su uso se concentrará en los países productores, sobre todo en los del Tercer Mundo, que no disponen de alternativas válidas. El carbón será empleado preferentemente en las centrales para la producción de energía eléctrica y en muy pocos usos más de carácter industrial.

§. El carbón y el jeque
Es evidente que el carbón está en disposición de ofrecer una cómoda salida a todos los problemas de la energía: basta con desmenuzarlo y, por tanto, convertirlo en una especie de petróleo. A partir de entonces, este combustible podrá ser transportado y usado sin sustanciales diferencias respecto al crudo que actualmente producen los jeques. Dado que las reservas de carbón son muy grandes, si se sumaran éstas a las del petróleo, se tendría crudo para lo menos doscientos años, una parte natural y la otra «artificial». Y al estar el producto bien distribuido desde el punto de vista geopolítico, el mercado no estaría nunca sometido a la incertidumbre e incluso existiría la posibilidad concreta de buscar con calma soluciones para cuando esta fuente energética se hubiera agotado, cosa que inevitablemente ocurrirá en el plazo de un par de siglos.

¿Hasta qué punto es cierta esta hipótesis? Desgraciadamente sólo lo es en parte. Es verdad, por ejemplo, que desde el punto de vista técnico es posible desmenuzar el carbón y servirse de él como si se tratara de crudo, aunque no de la mejor calidad. Es verdad que se trata de un procedimiento bastante viejo y que en el mundo ya hay algunas factorías basadas en esta tecnología; si bien no son muchas, están en período experimental y no se emplean a fondo. Hacia fines de los años setenta se decía que sería conveniente limar el carbón cuando el precio del petróleo hubiera llegado a los 20 o 22 dólares el barril, porque entonces el precio del crudo natural sería el mismo que el del artificial. La realidad, desgraciadamente, se ha encargado de desmentir esta esperanza. Las fluctuaciones del precio del crudo han sido enormes: de los casi 40 dólares el barril de 1981-82 a los actuales 18-20 dólares. Mientras tanto, se estima que será muy difícil reducir el costo del petróleo artificial de carbón licuefactado a sólo 50-60 dólares. Está muy lejos en el futuro la fecha en la que el petróleo artificial de carbón pueda consolidarse en el mundo.

Hay quien opina que es un hecho interesante. Antes o después el crudo de los jeques llegará a los 60 dólares y como las factorías para limar el carbón requieren años de preparación sería conveniente para los países consumidores firmar, desde hoy mismo, contratos con los países productores de carbón y hacer las inversiones necesarias para limar el carbón. El razonamiento es correcto en líneas generales, pero tropieza con el hecho de que en el momento en que los jeques constaten que los países consumidores están dispuestos a pagar 60 dólares o más por un barril de crudo, podrían sentirse autorizados a aplicar por anticipado ese precio. En resumidas cuentas, en vez de obtener una ventaja, los países consumidores sólo conseguirían que se dispararan de golpe los precios de los productos energéticos.

Pero el carbón limado presenta aún otro inconveniente para los países, como Italia, que no producen carbón. Para obtener más ventajas de la tecnología de la licuefacción es evidente que el carbón debería ser transformado en crudo a la salida de las minas que se encuentran en otros países, pero no en Italia. Como estas instalaciones comportan grandes inversiones, se tendría que Italia, que es un país que invierte poco en relación a las dimensiones de su economía, realizaría una parte importante de sus inversiones en el extranjero. Sería una paradoja probablemente bastante difícil de explicar a las partes sociales.

Otro camino podría ser el de construir esas mismas instalaciones en Italia, cerca de los puertos de desembarque del carbón, pero es evidente que de este modo se perdería la gran ventaja que significa el transportar sobre y bajo los océanos un líquido en lugar de un sólido. El problema no es fácil de solucionar. El carbón limado no está, por el momento, al alcance de un país como Italia. Antes de que así ocurra es indispensable que tenga un precio competitivo.

Sudáfrica, que dispone de mucho carbón, pero no de petróleo, trabaja mucho en este sentido desde hace ya tiempo. Sin embargo, las instalaciones industriales sudafricanas de licuefacción del carbón han quedado como únicas en el mundo. Los proyectos puestos en marcha por Estados Unidos y Japón para efectuar instalaciones industriales de licuefacción del carbón han sido abandonados por razones económicas, además de por falta de recursos financieros públicos para la investigación.

Japón, en el marco de una política energética flexible, continúa siendo un fuerte importador de carbón y ha realizado inversiones conjuntas para su producción particularmente en Australia. Estas inversiones representan uno de los canales de penetración financiera y comercial del Japón en Australia, que es un país muy rico, pero poco habitado y bastante deseoso de crecer. Desde esta perspectiva Australia representa una especie de país ideal para hacer instalaciones de carácter energético. Y, a partir de aquí, la puerta quedaría abierta para instalaciones de otro tipo, transferencias de tecnología, intercambios comerciales, que contribuirían a unir más estrechamente a Australia y Japón.

§. El carbón y el sol
Una vez comprobado que ni el gas natural ni el carbón pueden ocupar el lugar del petróleo (que además está en vías de extinción), habrá que ir pensando dónde encontrar la energía necesaria en los próximos cincuenta años y en el futuro. El problema, después de lo que se ha dicho hasta ahora, podría ser un «sistema energético» racional y satisfactorio.

Un primer criterio, obvio, sin duda, podría ser el siguiente ya que las reservas comprobadas de petróleo son poco superiores a las de gas natural y dado que las reservas de carbón equivalen a siete veces y media las comprobadas de gas, todos estos combustibles podrían ser usados al mismo tiempo en estas proporciones. Es decir, una parte de gas, una parte y media de petróleo y siete partes y media de carbón. De este modo, los tres combustibles fósiles se agotarían al mismo tiempo y, como se ha dicho en páginas precedentes, el problema se resolvería solo durante algunos siglos.

Desgraciadamente, se ha visto que el problema no es tan sencillo. Los tres combustibles fósiles no presentan la misma facilidad y versatilidad de uso sino que, por el contrario, hay entre los tres notables diferencias. No debe olvidarse que el petróleo, además de producir energía, puede (y debe) ser utilizado con otros fines, incluso más interesantes y apreciados. Hace ya años que alguien dijo que el petróleo es una reserva demasiado importante para quemarla en las instalaciones de calefacción y en las centrales eléctricas. Gracias al crudo, en efecto, pueden hacerse muchas cosas a través de la petroquímica: fibras, materias plásticas, gamas sintéticas fertilizantes, gasolina para automóviles, etc.

Por otra parte, aunque disminuya el papel del petróleo en términos cuantitativos, su calidad es tal que puede jugar por muchos años un importante papel como fuente energética. Dadas sus características (facilidad de producción, transporte, distribución, empleo para los usos más diversos, producción de energía, usos industriales y domésticos) y el conjunto de infraestructuras hoy existentes, el petróleo está en disposición de satisfacer cualquier tipo de demanda energética y de sustituir algunas otras fuentes de las que, por uno u otro motivo, no hubiera suficiente cantidad. El petróleo puede ser, por consiguiente, una excelente fuente «residual» para salvar la incapacidad de satisfacer la demanda por parte de otras fuentes fósiles o de nuevo tipo, como las nucleares, las renovables, y conseguir un ahorro energético.

Por otro lado, ya que es bastante seguro que estos tres combustibles se agoten mucho antes del fin del mundo, es obvio que sus reservas disminuyen aceleradamente, por lo que han de ser sustituidos. Finalmente hay que tener en cuenta la necesidad de «equilibrar» las fuentes energéticas para no poner la vida de millones de personas en manos de sólo una o dos fuentes energéticas. Del conjunto de estas precauciones nace una especie de «arco» indicativo sobre el probable uso de las fuentes energéticas en los próximos decenios.

Un «arco» correcto podría ser el siguiente:

  1. El carbón, que hoy representa alrededor del 25% del consumo energético total, podría, en razón del problema ambiental, limitarse a mantener su cota de mercado.
  2. El petróleo, que hoy constituye casi el 40% del consumo de energía, debería, por las razones ya expuestas, descender bastante y contribuir, en el curso de unos pocos años, a sólo el 30% de las necesidades energéticas mundiales, lo que evitaría cierta inquietud en el mercado y quitaría el lazo de los jeques del cuello de los países consumidores.
  3. El gas natural, que hoy proporciona el 22% del consumo energético del planeta, podría a su vez rendir un 25%, dada su facilidad de manipulación, su relativa abundancia y los limitados efectos de su empleo sobre el medio ambiente.
  4. Según este esquema, los tres combustibles fósiles que hoy proporcionan más del 90% de la energía que necesita el planeta se verían reducidos a alrededor del 80%. F.1 consumo de petróleo se reduciría bastante y su puesto sería ocupado en una buena parte por el gas natural.
  5. Quedaría por satisfacer aún, llegados a este punto, un 20% de la demanda de energía, y éste es precisamente el gran desafío del futuro. El verdadero problema que hay que resolver, haciendo uso de otras fuentes de energía. Qué fuentes son éstas se verá más adelante.

En cuanto al «arco» cabe decir que es sólo indicativo. La situación de los diversos países es muy variada y está determinada por muchos factores locales. Noruega, por ejemplo, es bastante difícil que emprenda el camino del carbón, con todo el petróleo y gas del que dispone. Francia hace tiempo que se ha interesado con fuerza por las nucleares. Los Estados Unidos disponen de muchas reservas energéticas de todas clases y por lo tanto, es muy posible que finalmente decidan adoptar un «arco» de diferente constitución. Todo lo indicado más arriba es sólo un «arco» de referencia, que sirve para comprender cómo hoy, grosso modo, falta alrededor de un quinto de la energía necesaria. O, mejor, de qué manera se puede hallar una solución diferente y no tradicional para este 20% de energía. Es evidente que a partir de este esquema cada país puede tomar caminos más o menos creativos según sus posibilidades, los riesgos que esté dispuesto a correr y el grado de cohesión de sus ciudades. La elección de Francia de ir casi hacia el «todo nuclear» para cubrir las necesidades de energía eléctrica no sería posible en muchos otros países. Tras esta elección no sólo estuvieron en juego elementos de carácter técnico; también lo estuvieron, sobre todo, la ambición de Francia de convertirse en un corto plazo de tiempo en una de las grandes potencias mundiales a través de un crecimiento muy rápido de su propio sistema ecológico e industrial. Para facilitar este avance es indispensable poder disponer de energía eléctrica de manera autónoma y a precios competitivos. Puestas estas premisas, políticas y económicas más que técnicas, la elección nuclear era obvia y Francia la ha llevado adelante con gran determinación. Hasta el punto de que hoy este país no sólo es uno de las más «nuclearizados», sino el más avanzado en el camino de los reactores a plutonio, hacia los que están aumentando las dudas, como se verá en los capítulos siguientes.

Dicho esto y teniendo en cuenta las diversas objeciones, es bastante sensato pensar que hoy el problema es llegar a producir al menos un veinte por ciento de energía, en el curso de algunos lustros, a través de fuentes que no sean las de los combustibles fósiles, es decir, carbón, petróleo y gas natural; e Italia, que depende del petróleo para más de las dos terceras partes de sus propias necesidades energéticas, debe pues tener muy en cuenta este «arco».

§. Géiseres y presas
Hemos visto que el problema más importante de los próximos años será el de encontrar un 20% de energía que no provenga de los tres principales combustibles fósiles. Hay que resaltar antes que nada, dado que la población del mundo está aumentando y dado que varios países están avanzando desde el punto de vista industrial, que no se trata de un 20% referido a los consumos actuales, sino de un 20% en relación al aumento del consumo.

Es importante no olvidarlo porque, en general, los países que se hallan en la primera fase de su industrialización aumentan su necesidad de energía muy rápidamente, lo que les obliga a construir todas las industrias de base, que son las que presentan los mayores consumos energéticos. Más adelante, sin embargo, como está ocurriendo en los países más industrializados, el crecimiento del consumo energético se hace sensiblemente más lento. El Tercer Mundo, pues, corre el riesgo de encontrarse frente a auténticos «vendavales» en el consumo de energía. Es cierto que muchos países podrían reducir la amplitud de las primeras fases del desarrollo industrial, pasando más rápidamente a las sucesivas, en las que se consume menos energía, pero esto no es probable que suceda. El que exista disponibilidad técnica para una operación de este tipo no quiere decir que existan las condiciones políticas, sociales y culturales. Los países más pobres podrían muy bien evitar una penosa industrialización de su sociedad y apostar por la electrónica, pero es dudoso que esto pueda ocurrir en una medida muy amplia; lo más seguro es no puedan «saltarse a la torera» las industrias de base, y deban dotarse de estructuras de tipo tradicional. No hay que olvidar que determinados procesos de la electrónica y la informática están ya hoy disponibles, en tanto conocimientos tecnológicos, aunque aún falta mucho tiempo para su introducción a gran escala. Se ha visto que aún en los países más industrializados (en donde se han descubierto y puesto a punto estas tecnologías) se habla de decenas de años antes de llegar a algunas aplicaciones muy sofisticadas.

En consecuencia, conviene no olvidar nunca que el mundo aún está en pleno proceso de expansión, si bien equilibrado, de sus necesidades energéticas. En este marco, el problema del 20% «restante» es decisivo. ¿Cómo afrontarlo? ¿Qué solución adoptar? Puede repetirse la regla ya enunciada: no existen fórmulas mágicas y todos los caminos presentan notables dificultades.

Veremos ahora cómo se satisface en la actualidad ese 20%. Sobre todo a partir de tres fuentes: el petróleo (que será sustituido), las centrales hidroeléctricas y, en un nivel inferior, las nucleares. Del petróleo ya se ha hablado: está claro que no es ninguna solución para hacer frente a las nuevas necesidades del «segundo planeta». Las hidroeléctricas, es decir, las presas, son una magnífica fuente de energía, limpia y de bajo coste. Pero, desgraciadamente, en los países más desarrollados se ha utilizado casi al límite de sus posibilidades. Es bastante difícil que en los próximos años se puedan encontrar cuencas de las que extraer cantidades importantes de energía eléctrica. En una palabra, el «oro blanco» ya ha dado casi todo lo que podía dar de sí en los países industrializados. Es diferente la situación de los países en vías de desarrollo. Aun en casos tan dispares como China, algunos países de Sudamérica y África central, la energía hidroeléctrica estará en disposición de contribuir de modo importante a la resolución de los problemas energéticos locales, y permitirá llevar a cabo determinadas producciones «energívoras» (como el aluminio y otros metales), aunque a nivel planetario la energía hidroeléctrica no será más que una contribución importante pero, a fin de cuentas, marginal.

Hay quien opina que una fuente muy importante podría ser la geotérmica. Pero no conviene echar las campanas al vuelo. La energía geotérmica, sobre todo si se considera en forma de géiseres, es decir, del vapor que sale del subsuelo y se utiliza para hacer girar las turbinas y producir energía eléctrica, no tiene mucho futuro. Los yacimientos existentes en el mundo no son numerosos y su explotación presenta no pocas dificultades. En cualquier caso no se trata de una contribución decisiva, capaz de resolver el problema consistente en encontrar un 20% de energía que ofrecer al mundo en los próximos decenios.

Se han alentado muchas esperanzas sobre la posibilidad de «crear» energía geotérmica de alguna otra manera y sobre las llamadas «rocas calientes». En algunas localidades es posible, si se excavan pozos muy profundos, alcanzar rocas secas que, al estar en contacto con el magma terrestre tienen una temperatura muy elevada. Si, a través de un pozo, se envía agua abajo y luego se saca por medio de otro pozo, poniéndola en contacto con estas rocas calientes, se puede obtener vapor con que alimentar las turbinas. Si se hace un circuito con esta agua, el mecanismo puede funcionar sin interrupción. Es algo así como el radiador de un automóvil, con la diferencia de que el calentamiento no lo produce la combustión que tiene lugar en los cilindros del motor, sino directamente el calor extraído del magma terrestre.

La idea es interesante. En los Estados del Oeste norteamericano se llevaron a cabo experimentos en esta línea, aunque el entusiasmo inicial se apagó rápidamente. Se ha comprendido que se trata de tecnologías muy complejas, con diversos problemas aún no resueltos (como los de la transmisión del calor, o el de la corrosión de las partes metálicas empleadas) y, sobre todo, se ha comprendido que no se trata de un sistema generalizable. Según el estado actual de la cuestión lo más prudente es decir que puede emplearse únicamente en algunas zonas y para instalaciones de dimensiones no demasiado grandes.

La energía de origen geotérmico, en suma, se busca y se emplea, pero no es probable que dé buenos resultados. En cualquier caso, no es una fuente a la que se pueda asignar un papel muy importante en la satisfacción de las necesidades del planeta. Pero si se excluyen estas dos posibilidades, sólo quedan otras dos interesantes: la solar y la nuclear. Se puede incluso llegar a identificar una tercera posible fuente de energía, si se tiene en cuenta el ahorro energético, del que se hablará más adelante. Ante todo aclaremos sus dos importantes características: puede ahorrar más quien más consume y, una vez regulado el consumo, ya no se puede ahorrar más.

§. El agua caliente y el porche
Los sistemas para utilizar la energía solar en la producción de energía son cuatro en total, cinco si se tiene en cuenta la «solarización pasiva», que aunque no es un modo de producir energía sí es un modo de evitar tener que consumirla. Hablaremos también de ella porque es importante y porque se presta a interés ante ciertas consideraciones.

Un primer método para aprovechar la energía solar es el de las placas solares para la producción de agua caliente a baja temperatura: 40-45 grados. Esta agua puede servir para usos domésticos, en el baño y en la cocina. Puede ser utilizada incluso en las instalaciones de calefacción, siempre que no sean muy grandes. Estas características dejan entrever que el uso de las placas para producir agua caliente no tiene demasiada importancia en lo que se refiere a los consumos generales de energía. Se trata de un sistema válido que puede contribuir, sobre todo en las zonas más cálidas, a reducir determinados consumos de energía. Desde este punto de vista es una tecnología recomendable, porque no tiene un coste muy alto y se puede amortizar en el curso de unos cuantos años.

Bastante más curioso, y fascinante, es el caso de la arquitectura bioclimática, es decir, de la «solarización pasiva». Con esta expresión se designan todos los sistemas que permiten consumir menos energía en la calefacción o refrigeración de una casa. El ejemplo más evidente es el del porche tan frecuente en la arquitectura tradicional y aún muy extendido en las zonas de clima cálido. ¿Por qué? Por una razón muy simple. En los meses estivales, cuando la temperatura es más alta, el porche impide al sol calentar directamente la casa y por consiguiente mantiene el interior de la estancia (o el edificio) a una temperatura más moderada. En los meses invernales, por el contrario, el sol está más bajo y pasa bajo el porche para calentar la casa. El porche no tiene sólo una función decorativa, sino que cumple una función energética «mantiene alejado» al sol cuando molesta y «lo acerca» cuando se le necesita. Otro ejemplo de solarización pasiva, siempre buscando por la arquitectura tradicional, es el de las ventanas muy pequeñas respecto al volumen de la estancia que deben iluminar. O el de los muros muy gruesos. Todos ellos son sistemas para «aislar» los edificios de las variaciones climáticas externas.

Hablar hoy de solarización pasiva, en una época en que la gente está habituada a vivir en edificios acondicionados tanto para el invierno como para el verano, puede hacer sonreír. Pero en realidad no es más que un caso de desorden energético y de destrucción de un patrimonio cultural de los más importantes. La arquitectura tradicional y espontánea había elaborado, a lo largo de milenios, técnicas y estancias para mantener en las casas un buen clima sin necesidad de recurrir a grandes consumos de energía. Al no tener a su disposición toda la energía de la que se dispuso más tarde, el hombre tuvo que ingeniárselas y obtuvo interesantes resultados.

La lista de ejemplos sobre este tema podría ser interminable. El trullo y el tukul son construcciones bioclimáticas que presentan una gran solarización pasiva, en el sentido de que son muy impermeables a los cambios de temperatura. La tienda de los pieles rojas responde a la misma exigencia. Por no hablar de las ciudades antiguas constituidas por calles tortuosas y casas pegadas la una a la otra. Si los planos de estas ciudades son estudiados con los ojos del moderno experto en energía se advierte que constituyen verdaderos «cepos energéticos», en el sentido de que en invierno el calor producido en cada casa queda encerrado en el laberinto de las tortuosas calles y no se lo lleva el viento. En el verano, las calles y las casas de estas ciudades están siempre llenas de zonas de sombra, es decir, de frescura. La inteligencia de estas realizaciones urbanas es extraordinaria respecto a la «estupidez» de la ciudad moderna, toda ella hecha de calles rectas, en invierno barridas por el viento y en verano quemadas por los rayos del sol.

Hace algunos años los expertos estudiaron una ciudad argelina, Gardaia, que por razones histórico-culturales es muy «cerrada», toda ella construida en torno a sus corrales. Se tomaron sus datos urbanísticos y se introdujeron en un ordenador. La respuesta de éste fue sorprendente: si tuviera que construir una ciudad con un bajo consumo de energía (desde el punto de vista urbanístico), la construiría exactamente como Gardaia.

Por otra parte, los antiguos, que no disponían de las fuentes energéticas y de las máquinas de las que dispone el mundo moderno, habían elaborado casi una auténtica ciencia para explotar todas las «reservas energéticas» que la naturaleza ofrecía. Tenemos el caso de Agrigento, que a través de las galerías construidas bajo la ciudad recibía y aseguraba un acondicionamiento de aire casi perfecto, y completamente gratuito para sus habitantes, los persas, que hace algunos milenios producían hielo sin necesidad de frigoríficos. Explotaban ingeniosamente el principio de las vasijas porosas. Por la noche se colocaban estas vasijas en el exterior de las casas, llenas de agua, que se evaporaba durante la noche, dejando en el fondo de las vasijas un poquito de hielo que se recogía y era utilizado para alimentar rudimentarias neveras.

Este tipo de cultura y de cuidados comienza a morir en 1830, cuando Faraday inventa el motor eléctrico. Más tarde, cuando se puede disponer de electricidad en grandes cantidades, del motor de Faraday se obtiene, entre otras cosas, una invención considerada por los expertos en energía como una especie de maldición terrena: el ascensor. Este invento hace posible la construcción de edificios cada vez más altos y por tanto cada vez más lejos de esas fórmulas de solarización pasiva que el hombre había aprendido meticulosamente a través de los siglos.

El ascensor, por otro lado, encuentra pronto potentes aliados que posibilitan un modo de construir energéticamente insensato. La creciente urbanización y el primer bienestar que se difunde con la civilización industrial imponen un ritmo de construcción cada vez más veloz. Se recurre a materiales cada vez más «rápidos», como el vidrio, el cemento y el hierro y se levantan casas, los famosos rascacielos, sin balcones, sin porches que den un poco de sombra. Catedrales del derroche energético, construidas en ciudades trazadas con regla y, por ende, expuestas al clima como una persona desnuda.

Esta locura que dura ya más de medio siglo tiene una explicación económica y otra tecnológica. En los años en los que se levantaban los rascacielos en Manhattan, el elemento determinante no era el coste de la energía (que en aquel tiempo podía considerarse como irrisorio), sino el de los terrenos edificables, que para poder ser explotados al máximo exigían edificios cada vez más altos y cada vez más lisos para poder ser levantados rápidamente. Nadie, en aquella época, podía advertir el error que se cometía y que representaba una auténtica ruptura en la historia del hombre: por primera vez se construyen casas, los rascacielos, que son sencillamente inhabitables sin un continuo y gran consumo de energía. Si bien se mira, un rascacielos no es muy diferente de un automóvil que sin energía no se mueve; el rascacielos, sin sus ascensores, y sus instalaciones de aire acondicionado, es exactamente igual que un automóvil sin gasolina: no sirve para nada.

A partir de la crisis petrolífera de 1973 y el imprevisto aumento de los costes de la energía, todo el mundo volvió a pensar en cómo se construían las casas y las ciudades en el pasado. De todos modos no es posible cambiar de rumbo bruscamente, y, por otro lado, la verdad es que aquellas ciudades antiguas, con sus callejones tortuosos, estaban pensadas para otro tipo de sociedad, para otro modo de vida. Es cierto, sin embargo, que algo había que hacer. Y efectivamente son muchos los países que comienzan a dictar normas prescribiendo un mayor cuidado en los proyectos y las construcciones de casas, en lo referente a los consumos de energía y, consecuentemente, a los materiales y la tecnología.

La solarización pasiva, en cualquier caso, no comporta producción de energía. Permite el ahorro de energía, incluso en considerables cantidades. Sin embargo, su aplicación a gran escala requiere muchísimo tiempo porque se trataría de rediseñar las ciudades (y las industrias), pero, sobre todo de reconstruir un patrimonio urbanístico ya existente y de grandes dimensiones. Un trabajo de este tipo, dentro de unos límites, quizá sería absurdo e inútil. Antes de llegar a ello, la humanidad podría adoptar un «sistema» gracias al cual la energía no representara un problema y en el que fuera posible mantener estas costosas y, en cierta manera, absurdas ciudades realizadas desde los inicios del siglo hasta hoy.

La cuestión se plantea de manera muy diferente en relación a las construcciones de nuevas ciudades y edificios. En estos casos puede ser muy interesante retomar de la experiencia del pasado todo lo que el hombre había aprendido en materia de solarización pasiva.

Las hojas secas y el bosquecillo

Llegados a este punto quedan aún tres maneras de producir energía a partir del sol: las biomasas, la heliotérmica y la fotovoltaica. De los tres sistemas los más sencillos son los dos primeros, aunque quizá sean también los de más limitadas aplicaciones. El uso de las biomasas para producir energía no es del todo una novedad: se trata, por el contrario, de un método tan viejo como el mundo. En efecto, las biomasas no son más que plantas, vegetales, hojas secas y hierba. Extraer energía de ellas no es nada de otro mundo: basta con secarlas y quemarlas. Se obtendrá calor, que es una fuente de energía.

Existe, sin embargo, un sistema un poco más sofisticado para utilizar las biomasas: transformarlas en gas. Tampoco en este caso se trata de una tecnología muy complicada. Es suficiente con meter las biomasas en un fermentador y dejarlas fermentar; se obtendrá así el gas. Naturalmente, es posible proceder de modo menos rudimentario. En este caso, las biomasas se colocan dentro de un recipiente en el que no pueda entrar aire, junto a bacterias que se caracterizan por nutrirse de sustancias orgánicas y producir después gas metano. Este gas se puede utilizar para diferentes menesteres.

En todos los casos se trata de aplicaciones muy simples y ventajosas que además no cuestan muy caras ni requieren unos continuos cuidados o controles. El problema, tratándose de las biomasas, no está en la tecnología de explotación, sino en las mismas biomasas, que son un elemento muy delicado de la naturaleza y que, por consiguiente, hay que tratar con mucho cuidado.

También cabe decir que, contrariamente a lo que se podría pensar, este sistema se adapta más a los climas fríos que a los cálidos. En los países nórdicos el terreno es más estéril, menos cargado de bacterias de todo tipo, por lo que las biomasas que se pueden recoger sufren menos acciones de desgaste que las que se encuentran en los países con climas más cálidos. Pero ya sea en el Norte o en el Sur, hay que tratar de no «agotar» el terreno de las biomasas que caen o están en el suelo ya que cumplen una función de enriquecimiento del terreno.

Valga como ejemplo el caso de la selva ecuatorial, probablemente el lugar de vegetación más lujuriante que se conozca. Se trata, sin embargo, de una vegetación que vive a costa de sí misma, autoalimentándose. En efecto, si se la elimina por completo de una determinada zona, en ésta ya no vuelve a crecer nada, el terreno se desertiza.

Hay que tener mucho cuidado con las biomasas: una parte puede utilizarse para obtener energía, pero otra debe restituirse al terreno. Incluso en este caso se trata de hacer simplemente lo que el hombre ha hecho siempre. En las antiguas hazas de las fincas rurales, junto a la tierra de cultivo, existía desde tiempo inmemorial una zona destinada a bosque, que constituía y constituye la reserva de biomasas (las llamadas teas) de las poblaciones campesinas. Una moderna administración de las biomasas debería atenerse a los mismos principios. Está claro que no se trata de un método que lleve muy lejos. Una vez más se descubre que el uso de esta fuente sólo puede ser local y limitado. Hay en diversos lugares del mundo quienes sostienen la posibilidad de cultivar grandes extensiones de biomasas para producir después cantidades colosales de gas metano de manera «suave», pero estas pretensiones están cargadas de ingenuidad. Aunque pueda parecer un juego de palabras, la verdad es que la tierra no es infinita y que los eventuales cultivos de biomasas competirían con los cultivos para producir alimentos. Sería un error, por ejemplo, pensar en cultivar biomasas en la llanura Padana, una zona que hace siglos fue «adiestrada» por el hombre para producir alimentos, y proporcionar productos agrícolas muy apreciados. Lo mismo se puede decir de otras muchas zonas del globo.

Existen otros dos caminos más interesantes. El primero, a través de la ingeniería genética y el progreso en la ciencia de cultivo, intenta seleccionar especies vegetales particularmente adaptadas para funcionar como biomasas energéticas. El segundo estudia la posibilidad de hacer estos cultivos no en la tierra, sino en el mar. Se trata de hacer crecer las algas, recogerlas y secarlas para, posteriormente, quemarlas o colocarlas en fermentadores para producir gas metano.

En lo que se refiere al primer camino, el de las biomasas energéticas, el país que ha conseguido algunos éxitos es Brasil, que ha realizado un gigantesco plan para la producción de bioalcohol a partir de la caña de azúcar. El bioalcohol ha sustituido, y sustituye aún, a la gasolina en los transportes automotores en algunos países, a pesar de que el bajo precio del petróleo en los mercados internacionales hace hoy antieconómico su empleo. Esta situación, no obstante, está destinada a cambiar, y la experiencia brasileña podría revelarse preciosa.

§. Los espejos y la olla
Otro sistema, aunque en cierto modo antiquísimo, para producir energía a partir del sol es el heliotérmico. Se trata, en sustancia, de una aplicación de los famosos espejos ustorios de Arquímedes. Una serie de espejos recoge los rayos del sol, los concentra en un punto donde se encuentra una especie de olla a presión llena de agua (el generador) y la calienta hasta temperaturas muy elevadas. El vapor así obtenido sirve para accionar una turbina y producir energía eléctrica. El sistema es muy simple y no requiere el empleo de una tecnología particularmente compleja. Se ha pensado incluso en aprovechar las ventajas de la electrónica para poner en funcionamiento un mecanismo que gire siguiendo los rayos del sol a fin de obtener durante todo el día el máximo de acción calorífica.

Italia ocupa un lugar importante en este tipo de aplicaciones. La ENEL, en el marco de un programa de investigación de la Comunidad Europea, ha construido recientemente en Adrano, Sicilia, una central de un megavatio. En España se ha construido otra similar, en Almería. Pero los expertos dudan que este método resulte finalmente económico y competitivo con los otros modos de producir energía. Entre otras cosas requiere mucho espacio, sólo puede funcionar en condiciones climáticas favorables y en zonas dotadas de un alto porcentaje de días de sol. Su aplicación a gran escala parece imposible y dada la simplicidad del sistema es difícil pensar en mejoras técnicas que puedan aumentar significativamente su rendimiento.

§. El sol y la tierra
El último método conocido para obtener energía del sol es el fotovoltaico, sin duda el sistema más interesante y el que en los próximos decenios se desarrollará más y tendrá las mayores aplicaciones. ¿En qué consiste? Este sistema aprovecha la capacidad que tienen algunos materiales (sobre todo el silicio) de emitir energía eléctrica al ser alcanzados por una radiación luminosa. En este caso, y conviene aclararlo en seguida para no crear confusiones, la energía no es producida por el calor del sol (como sucedía en los ejemplos precedentes), sino por la radiación lumínica.

Por el momento, su coste es aún muy elevado porque las células fotovoltaicas de silicio son muy caras, pero se está en camino de una gradual e intensa reducción. No hay que olvidar que hoy en día, dado que el sistema está aún en una primera fase, no existe un auténtico mercado para estas células de silicio y menos aún una producción adecuada. Se utilizan los desechos de la producción de silicio de la electrónica. ¿Por qué los desechos? El silicio muy puro, formado por grandes mono cristales, usado en electrónica, proporciona un rendimiento de un 20-21% en la conversión de la energía lumínica en electricidad, pero su coste es casi prohibitivo para usos de esta naturaleza. Por otra parte, se ha descubierto que incluso un silicio de menor calidad ofrece un rendimiento de 10- 15%, que los expertos juzgan aceptable.

Pero aquí surge un problema. En realidad sólo se utilizaron algunos millones de toneladas de silicio al año con fines electrónicos y, por tanto, incluso los desechos disponibles para usos energéticos son modestos. Ésta es la razón por la que se están estudiando otras posibilidades, como la de obtener el silicio necesario para estas células de silicio «metalúrgico», que es bastante menos costoso que el «electrónico», y que proporciona un rendimiento inferior pero de todas formas interesante. El campo sobre el que se trabaja en la actualidad intensamente es éste: cómo llegar a disponer de grandes cantidades de silicio a precios razonables. El silicio, a decir verdad, es muy abundante sobre la tierra, ya que está contenido en muchísimas rocas, en la arena, en la arcilla, etc., pero es muy costoso trabajarlo y darle las características requeridas para su transformación en una célula adaptada a los usos solares.

A este propósito se están pensando soluciones muy ingeniosas, como la de disponer delgadísimas capas de silicio sobre un soporte rígido, la llamada técnica del film sutil. En este caso, el silicio podría ser de buena calidad (y por tanto caro) ya que se utilizaría en una pequeña proporción. Pero por el momento sólo se puede decir que se trata de una posibilidad y se debe seguir buscando otros datos útiles para la comprensión del problema.

Una célula de silicio (un cuadrado de algunos centímetros de lado), una vez que es excitada por el sol, produce una pequeña cantidad de energía eléctrica a baja tensión (medio voltio). Si se unen en un módulo varias células en serie, cien por ejemplo, se aumenta de modo correspondiente la tensión. Con estos módulos pueden hacerse posteriormente placas para obtener una importante intensidad de corriente. Está claro que en este terreno se necesita mucho silicio, mientras que en informática basta con una pequeña cantidad.

Pero una vez hecha la placa solar de silicio sólo se está a medio camino. Se dispone, en efecto, de una corriente eléctrica continua, que luego se transforma en corriente alterna y se prepara para utilizarla. Esta segunda parte del sistema es realizada con unos equipos muy convencionales y bien conocidos por los técnicos en la materia. Sin embargo, el precio del conjunto es bastante elevado. Éste es un segundo punto sobre el que se está trabajando para tratar de reducir sensiblemente los costes. Todo el mundo está convencido de que la energía fotovoltaica será la energía solar del futuro, pero por el momento el gran problema es el coste, que difícilmente puede llegar a competir con el de las otras fuentes de energía.

Para resolver la cuestión se piensan soluciones para todos los gustos. Por ejemplo, alguien ha descubierto que «contaminando» el silicio con hidrógeno aumenta sensiblemente el rendimiento de la célula. Y ya se empieza a decir que la energía solar no provendrá de las células de silicio, sino de las células hechas de hidruros de silicio. Otras han tratado de concentrar sobre una placa de silicio no la luz del sol, sino la luz de muchos soles, a través de un sistema de lentes. Si se consigue concentrar en una placa la luz que antes estaba repartida en diez placas distintas, es evidente que se ahorra el coste de nueve paneles de silicio. La operación de concentración no presenta muchas dificultades el problema puede resolverse a través de lentes y espejos. El silicio muestra una cierta resistencia, pero no demasiada; se ha comprobado que es capaz de soportar un máximo de varias decenas de soles. Cuando su temperatura alcanza los 60-70 grados, el rendimiento de la célula baja de golpe, haciendo así inútil todo el anterior trabajo de concentración.

Pero incluso a esto se le ha buscado remedio recurriendo a extraños compuestos como el arseniuro de galio. Se trata de un material muy caro, pero que presenta dos características bastante interesantes: tiene un rendimiento del 25% (más alto que el del silicio puro) y soporta una increíble cantidad de soles, hasta un millar.

Todos estos descubrimientos están delineando una especie de doble vía para la energía fotovoltaica. En los países situados al Norte, donde la luz suele ser difusa a causa de las nubes o de la neblina y donde, por consiguiente, no es conveniente trabajar con complejos y costosas mecanismos para la concentración del sol, se impondrá casi con toda seguridad un tipo de instalación que utiliza un material poco apreciado y de bajo coste. En los países templados y en los tropicales donde, por el contrario, las jornadas de pleno sol son mucho más numerosas y donde, por tanto, es interesante trabajar con la técnica de los «mil soles», se podría tender hacia un tipo de instalación para la concentración de la luz solar a base de células hechas de materiales muy apreciados y muy caros.

Como puede verse, hay mucho interés por la célula solar fotovoltaica y antes o después se conseguirán buenos resultados en el plano económico. Por el momento, es pronto para evaluar los costes exactos de la energía producida de este modo. Hay quien afirma que su coste será 10-15 veces superior a la producida en las centrales convencionales, pero hay también quien afirma que su coste podría ser cien veces superior. En la actualidad, los únicos datos fiables parecen ser los siguientes:

  1. Una central solar fotovoltaica, en igualdad de potencia, cuesta alrededor de veinte veces más que una convencional de tipo térmico (a base de aceite combustible).
  2. Conviene tener en cuenta el hecho de que de noche y en determinadas horas del día, en los meses de más frío, la central solar o se cierra del todo o rinde menos. En general se estima que, en el curso de un año, sólo funciona un 25% del tiempo disponible (respecto a una central convencional). Su coste, pues, en igualdad de energía producida, se multiplica por cuatro y se coloca a un nivel ochenta veces más alto que el de una central térmica.
  3. Es preciso recordar que una central convencional tiene una vida media de treinta años, mientras que la solar se suele cerrar a los quince. Esto hace que su coste se duplique y se llegue a un desnivel de 160-200 veces más respecto al coste de una central térmica de tipo tradicional.
  4. Es cierto que una vez construida la central solar, ya no consume más combustible, pero el coste de partida es muy elevado y, sin duda, hoy en día está fuera del terreno de lo conveniente.

No olvidemos, sin embargo, que hace diez años su precio era diez veces superior. Hay quien sostiene, haciendo una extrapolación demasiado fácil, que dentro de diez años costará diez veces menos. Desgraciadamente, no será así. Por lo general, estas nuevas tecnologías presentan una enorme reducción de gastos al principio, después el proceso se hace mucho más lento hasta que se para del todo, porque llegan al límite de lo «económico» y agotan los mecanismos para aumentar la eficacia de los materiales o instalaciones empleadas. Como ya hemos advertido, el coste de la energía producida con otras fuentes continuará subiendo al mismo tiempo, por lo que podría llegar el día en que los dos caminos se crucen, dando lugar a una preferencia por la instalación solar por encima de las demás.

A decir verdad la energía solar fotovoltaica puede ser ya hoy la mejor solución en muchos casos. Para comprender cómo puede producirse el fenómeno, hay que apuntar que este tipo de fuente energética tiene frente a sí dos posibles caminos de desarrollo (que, por otro lado, pueden convivir sin problemas): grandes instalaciones centralizadas o pequeñas instalaciones descentralizadas. En el primer caso se trata de hacer verdaderas centrales que produzcan su excelente energía al mismo tiempo que el resto de las centrales ya en funcionamiento. Esta energía formaría parte de la red principal y seguiría su curso.

La desventaja es que sólo puede producirse en las horas diurnas, pero éstas son las horas en que más demanda hay de energía eléctrica. Está claro que las centrales fotovoltaicas no pueden sustituir totalmente a las otras fuentes de energía, pero constituyen una buena aportación. El porqué no pueden tomar el lugar de todas las demás centrales no es ningún secreto: de noche son improductivas y en los días de mal tiempo su producción baja notablemente (y precisamente estos días, cuando hay poca luz y hace frío, la demanda de energía eléctrica aumenta de improviso). Éstos son los motivos por los que los expertos sostienen que la energía solar sólo podrá contribuir en el futuro en un 20% a la producción total de energía eléctrica. El 20% es, sin embargo, una muy grande e importante cuota. Sobrepasarla, según los expertos, podría exponer al sistema eléctrico que lo hiciera a un continuo peligro de black-out a causa de la poca intensidad del sol en el momento necesario.

El segundo uso hacia el que se puede encauzar la energía solar fotovoltaica es, como dijimos, el de proveer energía a pequeñas comunidades aisladas. En este caso el sistema se enriquece con acumuladores que almacenan una parte de la energía del día para que se pueda disponer de ella durante la noche o algún día que el sol está oculto por nubes muy densas. En este caso, la energía solar fotovoltaica tiene una gran ventaja: no requiere ninguna conexión con la red central. Tal vez parezca una banalidad pero en determinados momentos puede ser muy importante.

En los países industrializados la red de transporte de energía existe desde hace tiempo, se ha ido construyendo a lo largo de los años y por consiguiente se está habituado a considerarla como un fenómeno natural. Se trata de una infraestructura de elevadísimos costes y que, sobre todo, ha requerido mucho tiempo para ser construida. Si se tiene esto presente, se comprenderá que en el momento en que se decide dar luz a una aldea de montaña o a una comunidad aislada a través de la energía solar fotovoltaica, no sólo se ahorran los gastos de combustible, sino los de la conexión a la red principal. Esto, en muchos casos, significa decenas de kilómetros de cables y de empalmes que no hay que instalar. Frente a una situación de este tipo está claro que para calibrar la conveniencia de utilizar una central fotovoltaica o la energía eléctrica que llega de la red principal es necesario evaluar todos los costes, comprendidos los kilómetros de cable y de empalmes ahorrados. Una interesante aplicación de todo cuanto se ha esbozado se puede encontrar en la autopista Roma-L’Aquila, cuyos teléfonos de emergencia están alimentados no por un cable que recorre toda la autopista, sino por pequeñas centrales solares instaladas junto a cada aparato telefónico. Pero en esta materia se pueden imaginar casos mucho más espectaculares. Si se piensa en zonas como África o Brasil, donde las redes de transporte de energía eléctrica son casi inexistentes, podemos preguntarnos cuál de los dos caminos es preferible: ¿grandes centrales con millares de kilómetros de cables o un «sistema» de pequeñas y medianas centrales solares autosuficientes?

En teoría, cabría elegir el segundo camino por una serie de buenas razones:

  1. Se evitaría el tener que inundar continentes enteros con millares de toneladas de acero y cobre, con los consiguientes y colosales gastos.
  2. No se plagaría la tierra con líneas de alta, baja y media tensión, que son muy molestas para el cultivo con métodos modernos.
  3. No se expondrían estos sistemas eléctricos a la posibilidad de grandes atentados.
  4. Sería posible proceder muy gradualmente.

Tómese el caso de una aldea de mil habitantes, compuesta por alrededor de doscientas familias, que actualmente viven sin energía eléctrica y, por consiguiente, en condiciones muy primitivas. Su vida podría cambiar inmediatamente y de manera sensible con poquísima energía. Si se decide dar a cada familia un lámpara de 20 vatios para la iluminación, se alcanza un consumo de 4 kilovatios. Una bomba para extraer agua y un frigorífico para la conservación de medicamentos especiales y vacunas llevarían el consumo global de esta pequeña comunidad a los 10 kilovatios. Esta potencia equivale a la que en Italia se pone a disposición de tres o cuatro familias. En África, Brasil o Asia, una potencia tan mínima sería sin embargo capaz de cambiar la vida de millares de personas a la vez. Está claro que mientras con la energía solar se puede partir de pequeñas e incluso modestas instalaciones para satisfacer las primeras necesidades (del tipo de las que hemos descrito someramente), con los sistemas tradicionales (grandes centrales, grandes redes de transportes) es preciso producir una gran cantidad de energía para amortizar los costes y sacar provecho de las instalaciones con el resultado de encontrarse inmediatamente frente a proyectos de costes prohibitivos.

Las instalaciones solares, como se ha visto, tienen frente a ellas un amplísimo campo de aplicaciones, sobre todo en los países menos industrializados. Desgraciadamente, al menos en lo que se refiere al primer tipo de países, no es del todo cierto que las cosas funcionen de la manera que se ha descrito y, también en este caso, por una serie de buenas razones:

  1. Los grandes bancos e instituciones financieras internacionales que a menudo disponen de los fondos para el desarrollo están más habituados a razonar en términos de grandes instalaciones, de las que conocen los costes, los tiempos de realización y los posibles beneficios. Se trata, en una palabra, de su oficio, de algo que conocen y para lo que están preparados intelectualmente. Por el contrario, la idea de financiar algunas decenas de millares de centrales solares fotovoltaicas, de las que al fin y al cabo apenas si conseguirán recordar su localización, les asusta y les deja perplejos. Y el dinero no llega.
  2. A lo largo y ancho del mundo existen muchísimas sociedades de asesoramiento y proyectos que saben hacer grandes infraestructuras, grandes centrales (porque es lo que aprendieron a hacer en sus países de origen) y que apremian a los gobiernos de los países no industrializados para que se decidan a tomar este camino y no el «descentralizado» que se ha expuesto antes.
  3. Hay que decir también, y con esto llegamos a la tercera razón, que estas sociedades de asesoramiento y proyectos encuentran oídos muy atentos a sus consejos. Los primeros en rechazar las instalaciones descentralizadas son frecuentemente los gobernantes de los países en vías de desarrollo. En muchos de estos países, o no existe una decidida actitud política para hacer salir a la población de su atraso o se trata de una actitud muy centralista, muy cerrada, poco dispuesta a poner las llaves de la energía en las manos de cada aldea. Se suele preferir tener grandes instalaciones que lo único que requieren son decisiones sobre altas inversiones. En realidad, esto no tiene por qué sorprendernos: es bastante raro que una clase política radicada en sistemas poco maduros se despoje voluntaria y pacíficamente de los instrumentos que pueden servirle para gobernar directamente la economía del país, favoreciendo o frenando el desarrollo. Y de todo lo que hemos expuesto hasta aquí es fácil deducir que entre las diversas palancas del crecimiento, la energética es sin duda la palanca decisiva.

Como hemos dicho, estas tres razones encuentran una confirmación objetiva en una cuarta. Efectivamente, la descentralización en general, y en particular la energética, requiere la existencia de infraestructuras y servicios coordinados de los que carecen a menudo los países más ricos e industrializados, pero que desconocen totalmente los más pobres y en vías de desarrollo. Las instalaciones energéticas distribuidas por el territorio deben poder funcionar con cierta fiabilidad y esto requiere, entre otras cosas, un eficaz servicio de manutención y técnicos preparados, que faltan y que es difícil formar, y disponibilidad de piezas de recambio en el lugar o capacidad para producirlas.

En otro orden de cosas, el sistema energético descentralizado debe estar capacitado para adaptarse con suficiente rapidez a los vaivenes de la demanda, lo que requiere sistemas organizativos y eficientes estructuras descentralizadas que hoy no existen. Por tanto, el desarrollo de los sistemas energéticos descentralizados sólo tendrá lugar muy poco a poco, paralelamente a la creación de infraestructuras, al desarrollo económico y social y a la preparación de expertos y técnicos.

Para la explotación de la energía solar también existen soluciones que presentan el inconveniente de requerir gigantescas instalaciones. En los países más avanzados y en particular en los Estados Unidos de América, están en estudio centrales solares fotovoltaicas de algunos millares de megavatios que se pondrían en órbita geoestacionaria a 36.000 km sobre el ecuador, y que serían capaces de convertir la energía solar en energía eléctrica día y noche. La energía solar se transformaría en microondas, se enviaría a la Tierra a través de un haz direccional y aquí se reconvertiría en electricidad. Todas las tecnologías que sirven para estas centrales son ya conocidas y probadas, pero, actualmente, una empresa de esta envergadura es tan comprometida y plantea tantos problemas, más que de naturaleza técnica y económica, de naturaleza política, que sólo podría llevarse a cabo en el siglo XXI como corolario de la aventura espacial del hombre.

Este conjunto de razones será la causa de que la energía solar fotovoltaica se consolidará en el mercado antes en los países más desarrollados que en los menos desarrollados, cubriendo un área de usos marginales hasta que, a medida que los costes se reduzcan, el sistema se afiance y, en un plazo de 25-30 años, se imponga de una vez por todas entre los diversos sistemas energéticos nacionales. En ese momento, casi con toda seguridad, las centrales fotovoltaicas serán integradas en la red general de energía eléctrica.

§. El sol y la energía eléctrica
Hemos visto, aunque sea de pasado, las diversas tecnologías que permiten la producción de energía a partir del sol. Se han esbozado las diferentes características y se ha dado a entender que es difícil, si no imposible, decir hoy cuál de estas tecnologías prevalecerá en el futuro y, sobre todo, cuánto tiempo deberá pasar y qué extensión cubrirán; lo cual no debe sorprendernos pues los inicios de una tecnología son así casi siempre.

Nadie, por ejemplo, podía imaginar que el descubrimiento del motor eléctrico llevaría, entre otras cosas, a una total modificación del ambiente urbano y de la manera de vivir del hombre. De la misma manera que nadie hubiera dicho, apenas puesto a punto el automóvil, cuál sería su desarrollo. En el fondo, si se piensa un poco la historia del automóvil habría podido ir por otros derroteros. Hoy por hoy es básicamente un medio de locomoción privado e individual, pero también podía haber sido un medio de transporte colectivo y público. Teóricamente puede imaginarse una situación, perfectamente racional y aceptable, en la que el automóvil no exista como medio de locomoción y privado, sino como medio colectivo, gestionado por los poderes públicos.

Su afirmación como medio privado e individual está relacionado probablemente con una serie de factores, por así decirlo, «externos» a la tecnología del automóvil, como son la posibilidad de organizar las producciones en serie, la disponibilidad de suficientes carreteras, la existencia de una sociedad (la americana de los años veinte y treinta) marcadamente individualista, etc.

De ahora en adelante todo depende de la evolución del consumo de energía. Un riguroso estudio histórico demuestra que en el mundo las formas de energía más difundidas han sido siempre las más valiosas, como por ejemplo la eléctrica. La energía eléctrica es la que permite hacer girar los motores con relativa facilidad, encender bombillas y llevar a cabo procesos tan complejos como los electrónicos. En los próximos años este fenómeno (la progresiva difusión de la energía eléctrica sobre otras formas de energía) no parece que vaya a interrumpirse, sino todo lo contrario.

Como se ha visto en las páginas precedentes, la sociedad del futuro estará muy electronificada y la electrónica viaja por vía eléctrica. Incluso un uso racional de las instalaciones de energía solar para la calefacción de las habitaciones requiere energía eléctrica (las bombas de calor, especie de frigoríficos a la inversa funcionan a base de energía eléctrica). En suma, es bastante sencillo deducir que aunque en el futuro sea posible contar con otras fuentes de energía respecto a las tradicionales, será de todas maneras indispensable consumir más energía eléctrica. Y este hecho, la necesidad de producir cada vez más energía eléctrica, acabará por determinar inevitablemente el espacio disponible y el tipo de futuro reservado a la producción de energía por vía solar.

§. El uranio y la energía eléctrica
En los próximos años aumentará en el mundo el consumo de energía eléctrica, por encima del de energía térmica. Esto es consecuencia del tipo de sociedad al que nos encaminamos, cada vez más basada en la informática y la electrónica y cada vez menos caracterizada por la presencia de industrias de base (que son las que consumen mayor cantidad de energía térmica).

No existen muchas maneras de producir energía eléctrica. De hecho sólo se conocen cuatro:

  1. Petróleo y gas, para quemar en las centrales térmicas tradicionales. Se ha demostrado que este método no es muy conveniente, porque las reservas empiezan a escasear y presentan riesgos en lo referente a su abastecimiento. En todo caso, está claro que la energía eléctrica que necesitará el planeta cuando la población haya alcanzado los diez mil millones de habitantes no podrá provenir del petróleo y el gas. La fuente de energía eléctrica del próximo siglo no podrá estar constituida por el petróleo y el gas, que son dos reservas no renovables y que por tanto habrá que reservar para usos más preciados.
  2. Carbón, para quemar en las centrales eléctricas. Éste será sin duda uno de los caminos que seguirá a continuación. Se ha empleado mucho, pero un uso muy intensivo de este combustible comporta algunos inconvenientes y molestias, especialmente en lo que atañe a su transporte, las cenizas que desprende y la contaminación que provoca. Se recurrirá al carbón así como al petróleo, pero es seguro que no bastará para resolver el problema de la producción de energía eléctrica, dado que ésta es la forma de energía cuya demanda crecerá más.
  3. Células fotovoltaicas, para obtener energía eléctrica del sol. Se ha visto que es un sistema muy interesante, pero está rodeado de una gran incertidumbre. No se sabe, por ejemplo, dentro de cuánto tiempo estará esta tecnología disponible de manera completa y eficaz. Y tampoco se sabe qué camino de aplicación (descentralizado o centralizado) tomará. Hoy por hoy sólo se sabe que la energía eléctrica producida por células fotovoltaicas será importante en los próximos decenios, pero eso es todo.
  4. Centrales nucleares. Es una fuente de energía eléctrica de la que aún no se ha hablado, pero a la que habrá que recurrir inevitablemente en los próximos decenios más de lo que se ha hecho hasta ahora. En cierto modo se trata de la fuente más prometedora: no presenta graves problemas en cuanto a las reservas de combustible y su tecnología ya está muy avanzada y muy difundida.

Sin embargo, es la fuente energética que despierta mayor perplejidad. Por estas razones valdrá la pena que nos ocupemos de ella en detalle, tratando de sacar conclusiones. Ante todo no hay que olvidar que se trata de una tecnología con mucho camino por delante.

Por el momento puede ser útil proporcionar un único pero interesante dato. Hasta el momento se han producido en el mundo a través de la energía nuclear 4.500 millones de kilovatios/hora de energía eléctrica. Se trata de más del total de la energía eléctrica producida en Italia desde que se encendió la primera bombilla hasta el presente. La energía nuclear no ha producido un solo muerto por accidente. Hubo dos muertos en una central americana, pero debido a razones ajenas a la tecnología nuclear. Después ocurrió el incidente de Harrisburg, en América, pero en este caso tampoco hubo muertos. Es preciso señalar, que hasta la fecha, no ha habido ninguna catástrofe en la historia de las aplicaciones pacíficas de la energía nuclear. Los riesgos que presenta esta tecnología, por las razones que veremos más adelante, son muy bajos. Bajos pero no nulos. Sin embargo, casi todas las polémicas relativas a un mayor uso de la energía nuclear giran en torno a esta pequeña posibilidad.

§. Los tres uranios y el agua
Llegados a este punto se impone una descripción de cómo funciona una central nuclear aunque, obviamente, tenga que ser muy sumaria. Para comprender cómo funciona este tipo de instalación hay que empezar explicando cuál es el combustible utilizado en una central nuclear, combustible que ocupa el lugar del petróleo o del carbón (aunque no es sensiblemente diferente): el uranio. El uranio natural está hecho de tres isótopos, es decir, tres diferentes «calidades» de uranio: el uranio 234, el uranio 238 y el uranio 235. El primero es el menos importante de todos y representa un 0,006% del total. Se puede considerar como inexistente, ya que no tiene ningún peso en los fenómenos relacionados con las centrales nucleares.

Bastante más importantes son los otros dos uranios, muy diferentes entre sí. El uranio 238 es radiactivo (peligroso si no se maneja con la necesaria cautela), pero no es fisionable, no puede ser cortado. Por consiguiente, no es apto para funcionar como combustible en una central nuclear, al menos de modo directo. Es el uranio más abundante: en el uranio natural se encuentra en una proporción del 99,3%. En esta fase, es decir, sin ninguna elaboración, no sirve absolutamente para nada.

Todo el interés se centra en el tercer tipo de uranio: el uranio 235. Es radiactivo y fisible. ¿Qué significa fisible? Que si un átomo de uranio 235 es bombardeado por neutrones lentos se parte en dos núcleos y en un cierto número de neutrones (superiores en número a los que lo habían golpeado). Estos nuevos neutrones golpean a su vez otros átomos de uranio 235 y el proceso sigue abierto. Se produce lo que se llama una «reacción en cadena» que tiende, si no se controla, a ser cada vez mayor hasta explotar, siempre que se den unas condiciones geométricas y dinámicas adecuadas que, por otro lado, son muy concretas. En cualquier caso, al controlarla (que es lo que ocurre en una central) la rotura de estos átomos de uranio produce calor, mucho calor. En las centrales se utiliza este calor para calentar un fluido (normalmente agua), que se convierte así en vapor y acciona una turbina que produce energía eléctrica, exactamente igual que si se utilizara petróleo o carbón.

§. El agua pesada y el agua natural
Cuando se quiere construir una potente central nuclear se pueden tomar, por lo que al combustible se refiere, dos caminos, o se emplea uranio natural (en el que, por consiguiente, el uranio 235 sólo está presente en una proporción del 0,7%) o se recurre al uranio enriquecido (en donde el uranio 235 está presente en una proporción del 2-3%). En el primer caso, para hacer más lentos los neutrones (que «naturalmente» son demasiado veloces) se emplea agua pesada (que es un agua en la que junto al oxígeno aparece no el hidrógeno sino el deuterio, una variante más pesada que el hidrógeno y que no absorbe neutrones inútilmente). En el segundo caso, por el contrario, se puede emplear agua natural (desmineralizada). Tanto en uno como en otro caso es preciso someter a tratamiento a uno de los dos elementos: si se usa uranio natural hay que sustituir el agua natural por agua pesada, que se obtiene a través de diversos procesos; si se usa uranio enriquecido entonces se puede recurrir al agua natural.

Aclarado esto, el esquema de una central nuclear es muy simple y se basa en cuatro elementos distintos:

  1. El combustible, que puede ser uranio natural (99,3% de uranio no fisible y 0,7 de uranio fisible) o uranio enriquecido (97- 98% de uranio no fisible y 2-3% de uranio fisible).
  2. agua pesada o agua natural, que sirve para ralentizar los neutrones encargados de desencadenar y mantener la fisión, es decir, la rotura de los núcleos del uranio, fenómeno a través del cual se produce calor y, por consiguiente, la generación de energía.
  3. las barras de control (constituidas por cadmio y boro) que sirven para tener bajo control la reacción en cadena hasta que no sea «divergente», es decir, hasta que no sea demasiado fuerte.
  4. un fluido (a menudo agua, en cualquier caso la misma agua del punto b) que es calentado y transformado en vapor y, por tanto, capacitado para hacer girar la turbina destinada a producir energía eléctrica.

A partir de aquí nada distingue una central nuclear de una central tradicional a carbón o a petróleo.

§. La central y la bomba
Puede ser interesante, llegados a este punto, apuntar una primera y sustancial diferencia entre la bomba atómica y una central nuclear. La primera necesita uranio enriquecido hasta un 90-95% para explotar. En una central nuclear, por el contrario, se utiliza uranio enriquecido, como máximo, en un 2-3%. La «materia prima», en suma, es la misma, pero sólo en el nombre. En realidad entre el combustible de una central nuclear y el «combustible» de una bomba hay una diferencia enorme, sustancial. Es interesante apuntar, porque el fenómeno no suele conocerse, que frecuentemente en los pequeños reactores experimentales universitarios se utiliza uranio enriquecido hasta un 70-80%, es decir casi bomb grade, lo suficiente para hacer una bomba.

En el pasado, cuando los reactores nucleares eran todavía objeto de investigación, se utilizaba mucho el uranio enriquecido, el isótopo 235. Hoy, por el contrario, las centrales funcionan, como se ha visto, con uranio enriquecido hasta un 2-3%, o sea, 20-40 veces menos que el grado de enriquecimiento necesario para hacer una bomba.

Pero eso no es todo. Una bomba, obviamente, no requiere ni un moderador que ralentice los neutrones ni las barras de control. Se prescinde de estos elementos precisamente porque se quiere que la reacción en cadena se produzca lo más rápidamente posible para que la explosión tenga lugar en seguida. Conviene aclarar que para producir una explosión no basta con tener uranio, aunque sea muy enriquecido. Se tiene que establecer una relación muy precisa entre la masa de uranio enriquecido y su grado de enriquecimiento. La masa «crítica» (la que es capaz de producir la explosión) debe ser muy grande si el uranio está poco enriquecido y se hace poco a poco menor a medida que el uranio está más enriquecido. Por eso en las bombas atómicas se utiliza uranio que contiene hasta un 90-95% de uranio 235, es decir fisible. En caso contrario, debería tener unas dimensiones tales que resultaría difícil de transportar.

Por otro lado, se requiere una particular configuración geométrica, no muy diferente de la esférica, a fin de que la mayor parte de los neutrones encargados de atraer y mantener la reacción en cadena permanezcan en el interior de la bomba una pequeñísima fracción de segundo y no escapen al exterior. Esto explica, entre otras cosas, por qué el mundo no explota: el uranio está presente en la naturaleza y no hay nada que impida su explosión, salvo el hecho de que suele presentarse en los yacimientos con un bajo nivel de enriquecimiento y carente de la necesaria configuración geométrica.

No obstante, los franceses han descubierto en Oklo, Gabón, un yacimiento de uranio en el que hace casi dos mil millones de años tuvo lugar una reacción nuclear «natural» en cadena, sin la intervención del hombre. En aquel lugar se había concentrado uranio en tal cantidad, caso extremadamente insólito en la historia del planeta, que se había formado una masa crítica suficiente para provocar la reacción en cadena. El agua que se filtraba en el yacimiento uranífero funcionó como moderador natural, y el fenómeno se auto reguló a través de la evaporación del agua determinada por el calor desarrollado en las reacciones nucleares. El fenómeno, según los expertos, duró algunos centenares de millares de años, hasta que la concentración de uranio 235 se redujo por debajo del umbral crítico.

Es interesante observar que, incluso en estas condiciones totalmente excepcionales, antes que producirse una reacción explosiva, lo que se produjo fue un auténtico reactor nuclear auto controlado.

El reactor de Fermi del año 1942 tuvo pues, casi dos mil millones de años antes, un ilustre predecesor.

Todo esto sirve para explicar que el acontecimiento más temido (la explosión de una central como si fuera una bomba) es absolutamente imposible: en la naturaleza no se da la concentración de uranio suficiente, ni la configuración geométrica, ni el combustible adecuado. Existen, por el contrario, las barras de control y el agua que funciona como moderador. En caso de accidente, la central está construida de manera que las barras de control caerían en el reactor desactivándolo.

Lo que podría suceder si después de la desactivación no estuviera asegurada la salida del calor aún producido por las radiaciones es el core melt down, la fusión del núcleo. Es decir, la fusión de la zona del reactor donde se encuentra el combustible nuclear. ¿Cuándo podría suceder esto? Cuando el núcleo dejara de estar rodeado por el agua que sirve para refrigerarlo. En estas condiciones el núcleo se iría calentando cada vez más hasta fundirse, con la consiguiente rotura de los recipientes que contienen el combustible, que podría penetrar en la parte inferior tras haber fundido todas las barreras de contención. Los americanos han inventado un sugestivo nombre que ha inspirado una película muy taquillera para este posible accidente: el «síndrome de China». En efecto, se estima que el núcleo incandescente y radiactivo podría perforar la tierra y llegar a la parte opuesta del planeta, en el caso de América, la China, con una secuela de daños irreparables para toda la humanidad.

Se trata, obviamente, de pura fantasía: la verdad es que el núcleo incandescente se enfriaría a los pocos metros al entrar en contacto con la tierra. Pero, en cualquier caso, el daño provocado por un suceso similar sería enorme porque la expulsión del material radiactivo del reactor contaminaría el medio ambiente a lo largo de kilómetros y kilómetros. Este incidente, posible en teoría, ha sido oportunamente neutralizado. En todas las centrales se han previsto numerosos sistemas de sumersión del núcleo (en parte automáticos, en parte manuales) a fin de evitar que se sobrecaliente y se desencadene el «síndrome de China» o. más correctamente expresado, el core melt down (la fusión del núcleo), y para que el material radiactivo eventualmente liberado no salga al exterior.

Cuanto aquí se ha dicho vale asimismo para las centrales construidas en los países occidentales. El grave incidente nuclear de Chernóbil, en Ucrania, en 1986, que ocasionó una fusión parcial del núcleo y que tuvo importantísimos efectos ambientales y graves consecuencias para la población (aunque sólo se contaron algunos centenares de muertos), ha demostrado que la Unión Soviética no prestaba atención suficiente a la seguridad. El país llevó el proyecto, la construcción y la gestión de las centrales nucleares con total desprecio de todos los criterios que consideramos obligatorio seguir. La cultura dominante en la URSS era la de confianza acrítica en la tecnología, y de excesivo optimismo acerca de la capacidad del hombre para dominar los sistemas tecnológicos complejos.

Desgraciadamente, por muy demostrado que quedase que el incidente de Chernóbil permanecía estrechamente ligado a las peculiares condiciones de aquel país, el efecto psicológico que tuvo en todo el mundo fue devastador, y pasaron muchos años antes de que la energía nuclear volviese a su consideración de socialmente aceptable, como lo era en los años 50, en la época del famoso discurso «Átomos para la paz» del presidente Eisenhower en las Naciones Unidas.

§. El reactor y las piscinas
¿Qué sucede en una central cuando está en funcionamiento? Dos cosas: se quema el combustible y no produce energía eléctrica. El segundo fenómeno es el deseado y no crea ningún problema. El primero, la combustión, suele ser el origen de importantes cuestiones. Conviene saber que en un reactor se encuentran centenares de barritas de uranio, que no se consumen de la misma manera. Las que se colocan en el centro del reactor tienen un desgaste más veloz que el resto. Por lo general, cada año, alrededor de un tercio de las barras colocadas en el centro se cambian por las de la periferia y así sucesivamente. Pasado un tiempo, las barritas se sustituyen por estar agotadas, exactamente como ocurre con las pilas de una radio portátil.

La operación no es tan simple porque durante la combustión tienen lugar una serie de fenómenos muy complejos. Pongamos el caso de que en una central se haya utilizado uranio natural o ligeramente enriquecido. Tras la combustión se encontrarán los siguientes materiales:

  1. Un poco de uranio 235, radiactivo y fisible, aún utilizable dado que las barras son sustituidas bastante antes de que se consuma todo el elemento fisible. Este uranio se recupera porque es de mucho valor.
  2. Elementos radiactivos pero no fisibles, los llamados residuos. No son utilizables como combustibles (porque al no ser fisibles no se pueden «romper» pero no es posible deshacerse de ellos porque son radiactivos, y lo serán durante millones y millones de años. Por el momento, éste es quizás el mayor problema que existe en las centrales nucleares.
  3. El uranio 238 (radiactivo, pero no fisionable en un reactor nuclear, que representa el 99,3% del combustible utilizado) se transforma parcialmente en plutonio durante la combustión. El plutonio es un material que no existe en la naturaleza: es producto del uranio 238 expuesto a un bombardeo de neutrones. Es un material peligrosísimo, muy venenoso. Pero no es fisible. Puede utilizarse, a su vez, como combustible para otra central nuclear. De esto se hablará más adelante.

Por el momento concentrémonos sobre el problema de los residuos de los que, de uno u otro modo, es preciso desembarazarse. Hasta la fecha no se ha podido resolver completamente la cuestión. Se sabe que su radiactividad decae muy velozmente al principio. Si se arrojan al fondo de una piscina llena de agua, después de cien años su radiactividad se reduce unas cien veces. Al cabo de sólo dos años o tres años disminuye notablemente. Se ha pensado que tras esta primera inmersión en la piscina podrían vitrificarse (el vidrio es un material no soluble), guardarlos en contenedores especialmente adaptados y después sepultarlos a gran profundidad, en grandes depósitos de sal o arcilla.

El sistema puede funcionar, pero conviene que estos residuos (que producen calor), no se recalienten demasiado, porque fundirían los contenedores y se esparcirían por el exterior, en este caso podrían ser llevados por las aguas, que se volverían radiactivas, hasta la superficie de la Tierra, con la secuela de daños que puede imaginarse. El depósito temporal en la piscina y la vitrificación sirven precisamente para evitar esta circunstancia. También estaba en marcha la propuesta de disparar estos residuos hacia el sol (a través de un misil), pero se ha comprobado que es un método muy peligroso: el misil podría explotar en tierra (como va ha ocurrido) o volver a la Tierra por un error de maniobra: en este caso los daños serían muy relevantes. Por el momento, en resumidas cuentas, no existe ninguna solución «eficaz», y de todas las soluciones propuestas no ha habido ninguna satisfactoria desde el doble punto de vista «seguridad-conveniencia». Se ha dicho, por otro lado, que el problema no es tan urgente. Todavía durante algún tiempo se podrá seguir depositando los residuos en piscinas preparadas a tal efecto, mientras se estudia, a partir de los diversos sistemas propuestos, la manera de eliminar tales residuos de manera definitiva, sin riesgos y con costes no demasiado elevados.

§. El plutonio y el uranio
Hemos visto que a través de la combustión nuclear se «recuperan» tres elementos distintos: uranio 235, residuos radiactivos y el plutonio. Del destino de los dos primeros ya se ha hablado. Del tercero sólo hemos dicho que es un posible combustible nuclear, en tanto radiactivo y fisible. Y, en efecto, puede ser empleado en un tipo particular de reactor («auto fertilizante»), muy interesante, pero a propósito del cual han surgido diversas polémicas a nivel mundial.

El reactor a base de plutonio se denomina «auto fertilizante» porque es posible introducir en él, junto al plutonio, una determinada cantidad de uranio 238 (no fisible y, por tanto, no combustible) con lo que se produce un fenómeno muy curioso: mientras el plutonio «quema» y hace funcionar la central, el uranio 238 (que en su estado natural no sirve para nada) se transforma a su vez en plutonio, es decir en nuevo combustible dispuesto a ser usado en otra central o en la misma una vez se ha agotado la primera remesa de combustible. Este tipo de reactor es capaz, pues, de «fabricar» más plutonio del que se consume durante su funcionamiento normal.

Lo verdaderamente importante del reactor auto fertilizante es que, gracias a la conversión del uranio 238 en plutonio, se puede utilizar como combustible gran parte del uranio (el uranio 238) que normalmente no se había usado. Con este reactor se utiliza «todo» el uranio disponible y no sólo el uranio 235. Ésta es la razón por la que se está generalizando la idea de que el futuro está en los reactores auto-fertilizantes.

Si se consideran las reservas comprobadas de uranio, puede observarse que, sin contar los auto-fertilizantes, equivalen a menos de cien mil millones de «teps», es decir, incluso inferiores a las reservas comprobadas de petróleo. Con la tecnología de los reactores normales, en suma, el uranio no es una fuente energética muy interesante: sus reservas, en efecto, estarían destinadas a agotarse al mismo tiempo que las del petróleo y el gas (en el supuesto de que se utilicen con la misma intensidad).

Sin embargo, si se adopta la tecnología de los auto fertilizantes (lo que permite utilizar casi todo el uranio y no sólo el 0.7% fisible en estado natural), las reservas se multiplican unas sesenta veces, alcanzando la colosal cifra de 3 billones de «teps» frente a 135 mil millones de toneladas de petróleo y 500 mil millones de «teps» de carbón. En este caso, las reservas de uranio llegan a ser cincuenta veces superiores a las de petróleo y más de diez veces superiores a las del carbón (consideradas como muy importantes).

Partiendo de la base de los consumos actuales y de las reservas hoy por hoy comprobadas, si toda la energía del mundo se produjera con reactores nucleares tradicionales y auto fertilizantes, se podría poner en marcha un sistema dotado de una autonomía energética capaz de abarcar unos treinta años. Ya que no toda la energía tendría (ni podría tener) como fuente el uranio y el plutonio, es evidente que esta fuente se presenta como una de las más interesantes y de las más ricas puestas a disposición del hombre, al permitirle salvar un largo período de tiempo. Siempre que, nunca está de más recordarlo, se pase de los reactores tradicionales a los auto-fertilizantes: con los que se utiliza todo el uranio disponible y no sólo el 0,7% fisible en estado natural.

§. La energía y la bomba
De cuánto hemos expuesto hasta ahora es fácil deducir que entre las instalaciones para la producción de energía nuclear y la bomba no hay relación directa. Las primeras no pueden transformarse en la segunda. Existen sin embargo algunos puntos de contacto entre las diferentes tecnologías, y sobre todo uno. Se ha visto, por ejemplo, que en determinados reactores el uranio debe ser enriquecido. A menudo se trata de un proceso que concentra en el uranio natural hasta un 2-3% de uranio 235 (es decir, fisible), para que la central rinda más. Hasta aquí no hay nada que pueda ser peligroso: con el uranio enriquecido en un 2-3% no se puede construir ninguna bomba atómica. Pero si se sigue adelante, se llega a un enriquecimiento del orden del 90-95%, entonces se dispone de un «combustible» que permite la construcción de un ingenio nuclear capaz de ser transportado por un avión o un misil y de explotar.

Aún más grave es la cuestión del plutonio. Se ha comprobado que en las centrales nucleares se producen grandes cantidades de plutonio. Disponiendo de la tecnología adecuada para extraer y aislar el plutonio, se llega a tener en las manos tanto un combustible para los reactores auto fertilizantes como el material necesario para realizar una bomba de plutonio, que es un ingenio de tipo «nuclear» muy destructivo.

Se comprende, pues, cómo el punto más delicado está representado precisamente por las instalaciones y la tecnología que permiten el tratamiento del combustible nuclear, su preparación y su enriquecimiento, así como su separación en diversos componentes. El quid de todo el problema está en esta fase del proceso. Dentro de estas instalaciones la tecnología para producir energía puede encauzarse hacia la preparación de combustible con destino no a las centrales, sino a la bomba.

Esto explica, entre otras cosas, por qué han surgido en el mundo tantas reservas frente a la tecnología de los reactores auto fertilizantes. Pero la historia de la tecnología nuclear no ha sido un camino de rosas. Baste considerar que ya estaba disponible, y preparada para su expansión, en 1955 y que, ahora, al principio de la década de los noventa aún está en la primera fase de desarrollo. ¿Por qué?

§. Fermi y los jeques
La primera pila atómica (es decir, el primer reactor) fue realizado por Enrico Fermi en diciembre de 1942. Ya que se trataba de un experimento de laboratorio, no se produjo energía eléctrica. Unos años después, al principio de los años cincuenta, llegaron los primeros reactores capaces de producir energía eléctrica, es decir, reactores ya integrados en un sistema completo de producción de energía. En 1955, promovida por los Estados Unidos, se celebró en Ginebra una conferencia bajo el título de «Átomos para la paz» y daba toda la impresión de que la nueva fuente energética conquistaría el mundo en el curso de unos decenios.

Todo hacía pensar en un desarrollo similar. Cada país estaba forjando su propio proceso de reconstrucción, que en todas partes significó un gran esfuerzo: la búsqueda de energía, en particular de electricidad, fue intensa y la nuclear parecía el camino más rápido y barato. En realidad, hoy por hoy debemos constatar, a casi cuarenta años vista de esa conferencia, que la energía nuclear no ha avanzado mucho: menos del 7% de la energía básica producida en el mundo es de origen nuclear.

Las causas de este lento despegue son varias y puede ser útil examinarlas en detalle. La primera tiene que ver con el entusiasmo que se crea y se difunde apenas se pone a punto una nueva tecnología: científicos, técnicos e industrias piensan haber encontrado «la» solución y que al cabo de unos años la nueva tecnología se abrirá camino. Toda la historia de la tecnología demuestra que, por el contrario, generalmente pasa mucho tiempo desde la primera «puesta a punto» a la difusión a gran escala. No sólo porque las nuevas tecnologías requieren el desarrollo de muchas otras tecnologías complementarias, sino porque se debe crear a su alrededor un ambiente propio, una cultura y una organización social y política adaptada para recibir la nueva tecnología. Así ocurrió en el caso del automóvil que, no por casualidad, necesitó varios decenios antes de convertirse en un fenómeno de masas estrechamente ligado a las economías capitalistas del mundo occidental. Lo mismo sucedió con la electricidad y así ocurrirá con la informática, que lleva ya a la espalda algunos decenios de experimentación en múltiples sectores del mercado.

Pero, aparte de las dificultades anexas al problema de desarrollar una nueva tecnología y, por lo demás, una tecnología que nacía como «prima hermana» de la bomba atómica, tan cargada de riesgos y peligros, contra la energía nuclear ha jugado también el hecho de que en los años sesenta y setenta nada podía competir con el petróleo. En aquellos veinte años, el mundo pudo crecer y desarrollarse teniendo a su disposición una fuente de energía aparentemente inagotable a un precio casi irrisorio. Tan palpable fue el proceso que en este período de tiempo se les fue dando progresiva importancia a diversos elementos (como la estética, la comodidad, la velocidad de realización), pero nunca a la posibilidad de hacer las mismas cosas consumiendo menos energía.

Se diga lo que se diga, frente a un petróleo a dos dólares el barril, no había tecnología nuclear que valiera. La carrera estaba ganada de antemano. El petróleo parecía no presentar ningún problema de seguridad. Podía utilizarse en instalaciones relativamente simples ¿Por qué entonces comprometerse con algo tan espinoso como la energía nuclear?

Y, efectivamente, durante todos aquellos años los esfuerzos en dirección a las nucleares fueron dispersos y discontinuos. Se puede afirmar que si la tecnología nuclear no se abandonó, se debe sobre todo a dos elementos:

Su uso con fines de carácter militar hizo que se mantuvieran en funcionamiento centros de investigación y que se estudiaran aplicaciones, incluso de carácter civil.

El convencimiento, sobre todo por parte de investigadores y de algunos países, de que «un día u otro» la tecnología nuclear llegaría a ser importante. Se trataba, en una palabra, de una cosa demasiado «bella» como para dejarla morir.

El momento de la verdad llega en el otoño de 1973 con la primera gran crisis petrolífera. El mundo entero, en aquel otoño, es enfrentado a la verdad: el petróleo es escaso y, en el futuro, costará cada vez más caro. Es entonces cuando se toma conciencia de la ligereza con que fue tratado, a lo largo de los veinte años precedentes, el problema nuclear. El debate sobre la seguridad había quedado confinado al ámbito de los especialistas, casi creyendo que se trataba de un asunto interno. La verdad es que esta actitud no debe sorprender porque ocurrió igual con las demás tecnologías. Sólo que no se ha comprendido que ésta era una circunstancia diferente:

a. En parte porque la tecnología nuclear es «especial», recuerda demasiado la terrible y cercana experiencia de la bomba atómica, da miedo, etcétera.

b. En parte porque el mundo al que debería adaptarse no es ya el mundo de hace cuarenta o cincuenta años en el que los científicos y las empresas podían manejar las tecnologías a su antojo sin tener que enfrentarse a un público polémico o a un examen «externo» de sus decisiones y de sus descubrimientos o aplicaciones.

Se descubre, en los años que siguen a 1973, que los «nuclearistas» no están preparados para discutir públicamente sobre la seguridad de las instalaciones por ellos proyectadas o realizadas, y que aún no se ha encontrado (aunque la tecnología nuclear tenía ya más de treinta años) una solución, aceptada por todos, al problema de los residuos. Y la solución no se había encontrado porque la atención se había concentrado en otros problemas. Aunque en realidad no es un problema urgente y se han experimentado con éxito algunas posibilidades de eliminación, por lo que lo más seguro es que se defina una vía de salida antes de que la cuestión de los residuos se convierta en la punta del iceberg del problema nuclear. Pero también es cierto que al hombre de la calle o a la opinión pública le cuesta aceptar sin rechistar una tecnología que produce «basuras radiactivas» para las que aún no se ha puesto definitivamente a punto un «depósito» seguro.

En lo que se refiere a la «aceptabilidad» de las gentes por la tecnología nuclear, apenas surge el problema se observa que las resistencias son fuertes, que la población está mucho más en contra de lo que cabría pensar. Y eso no es todo.

Después de 1973, cuando la competitividad de la energía nuclear era buena, las centrales nucleares no han avanzado como hubiera sido lógico esperar, por una serie de razones:

  1. En el mundo occidental, a excepción de Italia, Francia y Gran Bretaña, quienes producen la energía eléctrica no son las instituciones públicas, sino una miríada de empresas principalmente privadas. En América son más de cuatro mil (y sólo cuarenta de ellas disponen de plantas nucleares). Para estas sociedades la adopción de la tecnología nuclear está llena de riesgos económicos. En la actualidad se trata de una tecnología muy compleja que requiere, por tanto, conocimientos de alto nivel. Además exige instalaciones muy especiales, que comportan el uso de materiales concretos y una serie de controles muy rigurosos a lo largo de todas las fases de planificación y construcción de cada central. Los tiempos de elaboración son también muy lentos. Entre otras cosas hay que buscar un lugar adecuado para construir la central, que suele estar fuera del área de operaciones de la empresa interesada. Finalmente, es necesario someterse al juicio de varios organismos públicos de control que pueden decidir la interrupción de las obras de la central a la primera sospecha de que algo no funciona. Es evidente que la realización de una central a base de petróleo ofrece, para los mismos empresarios privados, muchos menos riesgos económicos que una central nuclear. De aquí, por tanto, surge la preferencia que, a pesar de todo, se ha continuado teniendo después de 1973 por las centrales a base de petróleo, aunque muchos gobiernos, y la misma Comunidad Europea, se oponen a ellos con todas sus fuerzas, para reducir la excesiva dependencia del petróleo.
  2. Esta preferencia se ha apoyado en el hecho de que muchos expertos no creyeron en la existencia de una crisis mundial del petróleo. Continuaron pensando que antes o después habría más petróleo y que el pánico del otoño de 1973 pasaría a la historia como un episodio de histeria colectiva. La fuerte reducción del precio del petróleo sobrevenida hacia mediados de los años ochenta parece haber dado la razón a aquellos expertos, aunque sólo se piense que los actuales 18 dólares el barril, teniendo en cuenta la inflación, son poco superiores a los 2-3 dólares el barril de principios de los años setenta. Puede decirse que la baja del precio del petróleo, que tiene, desde luego, carácter temporal, ha tenido un peso específico concreto en muchos países por cuanto ha frenado el impulso en dirección a la tecnología nuclear.
  3. Esta última, sin embargo, ha tenido mala suerte. Precisamente cuando se estaba poniendo de actualidad, comenzó en el mundo una gran polémica sobre las tecnologías y su grado de peligrosidad. Estaba en pleno apogeo el descubrimiento de los efectos negativos de muchas tecnologías, de las que se ha hablado en capítulos precedentes. La tecnología nuclear acabó inmediatamente en la picota, y pobre del que no la utilizara con extremada prudencia y bajo determinadas condiciones.
  4. Los puntos flacos se pusieron inmediatamente sobre el tapete. Es cierto que existían problemas de diversa índole, no obstante el esfuerzo que, desde un principio, se hizo para alcanzar el mayor grado de seguridad. Las cuestiones más candentes eran:
    1. ¿Hasta qué punto es segura una central nuclear?
    2. ¿Cómo se afronta la cuestión de la proliferación de las centrales atómicas? ¿La difusión por el mundo de las instalaciones nucleares no puede llevar, paralelamente, a la difusión de las armas nucleares o, al menos, a la difusión de los conocimientos indispensables para llegar a construir ingenios nucleares?
    3. El problema de los residuos, del que ya se ha hablado y para el que hasta el presente no se ha encontrado ninguna solución aceptable.
    4. El problema de la eventual emisión de radiaciones por parte de una central (hecho que se podría verificar sin necesidad de que ocurriera ninguna catástrofe en la central).
    5. Y por último el problema del ciclo del combustible, es decir de la circulación y tratamiento del material radiactivo que entra y sale de una central. El gravísimo problema de la existencia del plutonio, peligrosísimo ya antes de ser «montado» en una bomba.

Todo esto explica claramente por qué en el período 1974-75 no se desarrolló la tecnología nuclear. Una parte de los que pueden decidir no cree en la gravedad de la crisis petrolífera, muchos de los que pueden actuar no ven la conveniencia de hacerlo y, mientras tanto, el hombre de la calle no conoce esta tecnología y casi desconfía de ella instintivamente. Por otro lado, quedan por resolver algunos problemas como el de los residuos y el de la proliferación. Si a esto se añade que a lo largo de los años sesenta China se provee de armas nucleares y que en los setenta la India entra en el «club» de las potencias nucleares, el cuadro estará completo. Sucesivamente han iniciado actividades para disponer de tecnologías y armas nucleares Pakistán, Sudáfrica, Brasil y Argentina, además de los países árabes, alarmados por la probable entrada clandestina en el «club» de Israel. De este conjunto de elementos se deduce que el miedo y la desconfianza se apoyan en bases reales. Hasta el punto de que en América, el presidente Cárter llegó a imponer una pausa de reflexión sobre la cuestión nuclear y, sobre todo, sobre la de los reactores auto fertilizantes, cuya construcción se interrumpió. Sin embargo, ya hemos dicho que en los Estados Unidos se tomó esta decisión cuando el número de centrales en funcionamiento superaba las setenta y otras tantas estaban en construcción.

Sólo se produjo, en este clima de prudente espera, una excepción: la de Francia, que puso en marcha un ambicioso programa nuclear, haciendo ya en 1974 lo que otros países no comenzarían a hacer hasta después de 1978-79, es decir, tras la segunda crisis petrolífera, la provocada por la revuelta de Irán. Si la primera crisis, la de 1973, sirvió para comprender que el petróleo escaseaba y que los países productores tendían a venderlo cada vez más caro, la crisis iraní hizo comprender que el crudo era, más allá de su disponibilidad física, un mercado nervioso e inestable porque nerviosos e inestable eran los países que lo poseían en grandes cantidades. Desde entonces hasta hoy la actividad general respecto a la cuestión nuclear cambió mucho, haciéndose más positiva hasta 1986, año del accidente de la central soviética de Chernóbil, del que ya hemos tratado.

§. Francia y el átomo
Francia es el país que está avanzando más deprisa en el camino de la energía nuclear. Inmediatamente después de la crisis petrolífera de 1973 preparó un programa por valor de cuarenta mil millones de francos para la construcción de cuarenta centrales nucleares. Por otro lado, es el primer país que construyó un enorme reactor auto fertilizante (Superphenix), en el que Italia y Alemania tienen una importante participación. Hay que decir, sin embargo, que dicho reactor resultó antieconómico y que adolecía de inconvenientes técnicos. ¿Cómo se explica esta espectacular excepción de Francia en el clima de prudencia generalizada que hasta hoy ha caracterizado la aproximación de los diversos países a la tecnología nuclear?

Las razones son varias y todas ellas comprensibles:

  1. A fines de los años cuarenta Francia era la única de las grandes potencias que no disponía de la bomba atómica. En sus mismas condiciones estaba también Gran Bretaña, aunque disfrutaba de muy buenas relaciones con Norteamérica, el país que hizo explotar en Japón los primeros ingenios nucleares y que estaba a la cabeza del resto de países en lo relacionado con esta tecnología; por consiguiente, en cierto sentido, formaba parte del club atómico y de hecho hizo explotar su primera bomba atómica en 1952. Francia no. Francia se consideraba una gran potencia y quería tener «su» bomba atómica. De aquí proviene el impulso que dio a la investigación nuclear. Incidentalmente, la primera explosión nuclear francesa tuvo lugar en 1960.
  2. L'Électricité de France (el equivalente al ENEL italiano) siempre ha sido dirigida por personas muy inquietas y decididas a apostar por la tecnología nuclear para la producción de energía eléctrica, aun cuando parecía más un lujo que un camino a recorrer provechosamente.
  3. Cuando llega la crisis petrolífera. Francia es un país (como Italia) que casi no dispone de reservas energéticas propias, pero que posteriormente refuerza sus ambiciones de gran potencia. Francia invirtió cantidades colosales a fin de dominar la tecnología nuclear. Y, desde luego, no está dispuesta a dejarse ahogar por los jeques.
  4. Pero el elemento decisivo tal vez sea el último. Francia es una excepción, en Europa y en el mundo, desde el punto de vista de la estructura del poder político y de la administración pública. Tanto el primero como la segunda saben muy bien lo que hacen, son muy «lanzados». Una vez tomada una decisión actúan bastante rápidamente y superan con relativa facilidad las eventuales oposiciones de las minorías activas. Por otro lado, poseen cuadros especializados en la gestión de grandes y complejos proyectos. En efecto, tanto en la informática como en las centrales nucleares están procediendo con notable velocidad y una coordinación de esfuerzos quizás única en el mundo (si se excluye el Japón). A la vista de esta estructura del poder, la nuclear parecía una partida que había que jugar pronto y con el máximo empeño: de ella dependía la autonomía energética de Francia e incluso una posición de primera línea en el mercado mundial de la tecnología nuclear. Y la partida se ha jugado con una decisión sin igual.

Entretanto, otros países han dado algunos pasos. Actualmente están en funcionamiento aproximadamente cuatrocientas centrales nucleares, de las que más de cien se encuentran en América, más de cincuenta en Francia y unas treinta en Japón.

En Alemania, donde existe una poderosa industria nuclear, y donde hay en funcionamiento veintiséis centrales, mientras otras están en su última fase de construcción, el gobierno ha encontrado no pocas dificultades con los partidos verdes, sobre todo a causa de los residuos radiactivos. Pero, aun estando Alemania decidida como está a desarrollar su programa nuclear, han sido eliminadas del programa un cierto número de centrales cuya construcción estaba prevista, y se ha suspendido la construcción de las centrales de la ex República Democrática Alemana, basadas en el modelo soviético considerado como insuficientemente seguro.

§. La central y la seguridad
Se ha hablado mucho sobre la seguridad en las centrales nucleares, pero no estará de más añadir alguna precisión. Ante todo hay que subrayar que las centrales nucleares, al haber nacido bajo el «sello» de la bomba atómica, fueron concebidas desde un principio con gran preocupación por los problemas de la seguridad. Si durante un largo período de tiempo la energía que produjeron no fue competitiva con la de otras fuentes, era debido precisamente a la abundancia de sistemas de seguridad. Abundancia que traducida a costes, daba cifras muy elevadas. A propósito de la seguridad han circulado tantas versiones que parece oportuno ofrecer una especie de pequeño cuadro sinóptico:

  1. Explosión del reactor como si se tratase de una bomba. Es un supuesto que, por las razones ya dichas, hay que excluir. El combustible que se usa en las centrales está muy poco enriquecido, no existe la configuración geométrica precisa y sí, por el contrario, el moderador (agua) y las barras de control de la reacción. Además, si el reactor provocase una reacción demasiado veloz capaz de recalentar excesivamente el complejo y de dañarlo por tanto, entrarían en escena especiales y sensibles sistemas de control que procederían a interrumpir la reacción nuclear en cadena. Desde este punto de vista hay una imposibilidad teórica de que se produzca una propia explosión.
  2. Fusión del núcleo (core melt down o «síndrome de China»). Es una posibilidad, pero precisamente por esto en cada central están previstos inmensos sistemas de sumersión del núcleo para impedir que la temperatura del reactor exceda los límites prefijados. En caso de alarma, y por tanto de puesta en marcha de los sistemas de seguridad, se puede inutilizar el reactor, pero sin graves consecuencias para los trabajadores y la población circundante. Valga como ejemplo el caso de la central de Three Mile Island, en Estados Unidos: la entrada en funcionamiento de los sistemas de seguridad impidió cualquier daño para las personas, al poner completamente fuera de uso la central. Evidentemente, esto ha conllevado una mayor atención en la gestión del resto de las centrales nucleares existentes; es decir, mayor adiestramiento del personal, normas más severas de seguridad, mantenimiento más cuidado.
  3. Incidentes menos graves, aunque siempre serios, que comporten fugas de radiactividad de la central por avería importante. Se trata, hoy por hoy, de la posibilidad más temida por los problemas que pueden ocasionar a las poblaciones cercanas, aunque desde luego no provocaría consecuencias catastróficas. Sobre esta posibilidad se centran muchas de las normas y equipos de seguridad.

Los resultados obtenidos son ya muy importantes, pero el riesgo puede no quedar totalmente eliminado. El grado de probabilidad de incidentes es muy bajo. Las centrales nucleares de los países occidentales están protegidas para dar lugar a una probabilidad muy baja de que dichos acontecimientos se verifiquen: una vez cada cien mil años de funcionamiento de un reactor; pero al durar una media de treinta años, la posibilidad de que tenga lugar un escape de radiactividad en el curso de su existencia es de una entre tres mil. Dado que en la actualidad hay en funcionamiento cuatrocientos reactores en el mundo, esto significa que podría ocurrir un acontecimiento similar cada doscientos cincuenta años. Si el número de reactores fuera de cuatro mil, es decir diez veces más, la probabilidad de escapes radiactivos de un reactor sería de uno cada veinticinco años.

¿Estamos a tiempo de atajar este riesgo? No hay duda de que sí. Ante nosotros se abren cuatro caminos:

  1. Aumentar los sistemas de seguridad, aunque esto signifique aumentar posteriormente el coste de las centrales.
  2. Mejorar, con la experiencia adquirida en la construcción de nuevas centrales y con un adiestramiento cada vez mayor del personal, la fiabilidad de las instalaciones.
  3. Hacer más severos y obligatorios los controles públicos sobre las centrales nucleares.
  4. Aclarar más las normas relativas a la «gestión de crisis». En el incidente de Harrisburg, por ejemplo, cuando ocurría el percance no estaba bien definido quién debía ocuparse de solucionarlo: la empresa constructora, la empresa encargada de la gestión de la central o el organismo federal de control (la NRC).

§. El plutonio y el terrorista
Hagamos algunas precisiones sobre la cuestión del plutonio y de los reactores auto fertilizantes, un «nudo» que, antes o después, se deshará, razón por la que conviene saber sobre él algo más. Ante todo recordemos que el plutonio, si se aspira o se traga es un elemento muy peligroso al ser muy tóxico. Si se introduce en una bomba convencional que después se hace explotar, el plutonio puede difundirse por todo el ambiente circunstante y hacerlo inhabitable. El plutonio, en efecto, «vive» durante veinticuatro mil años: es decir, a los veinticuatro mil años reduce a la mitad su capacidad de emitir radiaciones alfa, radiaciones letales que está demostrado que es suficiente absorber por vía respiratoria (en estado de niebla o en forma de polvos muy finos) para provocar la muerte por cáncer de pulmón. Bastan unas pequeñísimas fracciones de gramo.

Mientras en estado sólido se puede conservar y manejar sin demasiados riesgos, apenas se reduce al estado de niebla o se pulveriza, el plutonio se convierte en uno de los elementos más peligrosos del mundo. Esta característica es la que provoca desconfianza frente a los reactores auto fertilizantes que tienen al plutonio como combustible. El plutonio, a diferencia de otros elementos radiactivos, es peligrosísimo incluso utilizado únicamente para «ensuciar» una bomba de tipo tradicional. Para producir daños gigantescos no es indispensable construir una bomba nuclear de plutonio (operación que requiere una tecnología y un equipo muy sofisticados). Cualquier grupo terrorista, si llegara a apoderarse de plutonio, tendría entre las manos un elemento que, junto a una bomba convencional, podría provocar casi los efectos de una explosión nuclear. Podría producir, sin ir más lejos, la muerte de muchísimas personas y la contaminación, prácticamente perenne, de la zona afectada, daño que sólo podría repararse con soluciones extremadamente costosas.

Conviene decir, para evitar malentendidos, que la sociedad «civil» actual convive ya con sustancias aún más tóxicas que el plutonio, aunque de éstas (dioxinas, cloro derivados aromáticos, extractos fosfóricos, botulina, estricnina, cianuros, etc.) la opinión pública no se preocupa tanto. La polémica sobre la toxicidad del plutonio sin embargo ha ido en aumento hasta el punto de que hay quien pone en duda la veracidad del nivel de toxicidad antes indicado.

En Estados Unidos, durante la presidencia de Cárter, se vetó la prosecución del proyecto que debía llevar el país a la construcción de reactores auto fertilizantes de plutonio. El motivo fundamental de esta postura era impedir una excesiva proliferación del plutonio para evitar que cayese en manos no responsables y diese lugar a la fabricación de bombas atómicas.

La actitud de Cárter (a la cual se oponía el Congreso de los Estados Unidos) provocó rápidamente la decidida oposición de Francia y otros países. El argumento usado por Francia en su polémica con los Estados Unidos fue el siguiente: América tiene grandes reservas energéticas, tanto de hidrocarburos y de carbón como de uranio, y puede permitirse no afrontar la cuestión de los reactores auto-fertilizantes. Pero para países como Francia, que no dispone de similares reservas energéticas, los reactores auto-fertilizantes son la única salida posible hoy a la dependencia energética. No es justo, por tanto, que los Estados Unidos sean tan inflexibles en este aspecto.

Hasta cierto punto se decidió hacer un «ejercicio» internacional para evaluar el grado de peligrosidad de los diversos ciclos del combustible nuclear y de las tecnologías relacionadas desde el punto de vista de la proliferación de armas nucleares.

Los resultados, bastante poco confortantes por cierto, dieron sin embargo la razón a Francia. Todos los ciclos del combustible, relativos a los diversos tipos de centrales nucleares, son potencialmente «proliferantes». Todos desembocan, antes o después, en la bomba nuclear. El problema, por tanto, no consiste en impedir el desarrollo de una u otra tecnología. Si se quiere frenar la construcción de bombas nucleares o el aumento del número de países que puedan construirla, el único camino es el de someter a las fábricas encargadas del tratamiento del combustible destinado a las centrales nucleares a una estrechísima y rigurosa supervisión internacional, cosa que en parte ya se está haciendo, pero que en el futuro tendrá que realizarse con mayor empeño. En la práctica no hay otras posibilidades.

Hoy, la situación es distinta en realidad. El frenazo al crecimiento de la demanda de energía, el parón en los programas nucleares de casi todos los países y el hallazgo de nuevos y ricos depósitos de uranio han relanzado la posibilidad de disfrutar mayoritariamente de dicho combustible y, por otra parte, los reactores auto fertilizantes han demostrado complejos costes superiores a las actuales centrales nucleares. En cuanto a los programas de desarrollo han sido abandonados o frenados en general hace ya tiempo. En Francia ha funcionado durante varios años un reactor auto fertilizante a pleno rendimiento (el Superphenix de 1200 MW), presentando una serie de inconvenientes, por cierto nada excepcionales tratándose de un prototipo innovador, pero cuya clausura se aconsejó —en condiciones de menor urgencia que las actuales—, al menos para un período de reflexión. Cerrados los programas ingleses y alemanes, frenados los estadounidenses, hundidos en el caos los de la ex URSS, queda Japón como portaestandarte de un programa a largo plazo que viene siendo perseguido tenazmente.

§. El sol y su secreto
Hasta aquí hemos hablado únicamente de la fisión nuclear, es decir de la rotura de los núcleos de átomos pesados, como el uranio. Pero existe un modo mucho más interesante para llegar al mismo resultado: la fisión nuclear. Se trata exactamente de lo contrario: en vez de romper el núcleo de átomos pesados en dos, se toman dos núcleos de átomos ligeros y se «funden». En ambos procesos la masa total del producto es ligeramente inferior a la masa de partida: la diferencia se ha transformado en energía. En el caso de la fusión se trata, para entendernos, del mismo proceso que tiene lugar en el Sol y las estrellas. El día en que el hombre sea capaz de dominar la fusión nuclear, podrá decir que le ha arrebatado al sol y a las estrellas su secreto. A partir de ese momento se habrán acabado los problemas de energía en la Tierra. La humanidad tendría a su disposición una fuente inagotable de energía, aunque sea a unos costes hoy por hoy difíciles de evaluar.

A decir verdad el hombre ya conoce este secreto, desde el punto de vista científico, de modo prácticamente perfecto. El proceso de la fusión nuclear está descrito, en los textos y cualquier buen estudiante de física nuclear podría describirla perfectamente. Y, en cierto modo, es algo que no encierra ningún secreto desde el punto de vista práctico: la bomba de hidrógeno, sin ir más lejos, no es más que un caso de fusión nuclear. Los problemas surgen cuando no se quiere dar lugar a una explosión, pero sí a una normal y regular producción de energía eléctrica, a sólidas y eficientes centrales que den luz a la ciudad y hagan girar los motores de las industrias.

¿Cómo se llega a la fusión nuclear, es decir, a la fusión de dos núcleos? Naturalmente, los núcleos tienden a repelerse. Para fundirlos, es preciso hacerlo a una velocidad tal que supere la fuerza natural de rechazo. Para alcanzar esta velocidad es inevitable actuar a temperaturas elevadísimas: por lo menos cien millones de grados centígrados. En el Sol y las estrellas esto es algo normal: el ambiente es como un inmenso horno a altísima temperatura donde la fusión nuclear está perennemente en acción.

Este proceso presenta diversas dificultades en la Tierra porque, por ejemplo, más allá de los dos o tres mil grados no hay material refractario que resista. Además está el problema de alcanzar temperaturas altas mantenerlas. Es diferente el caso de la bomba de hidrógeno, para cuya fabricación no se han encontrado obstáculos. En efecto, se ha utilizado una bomba atómica como fulminante, que hace explotar posteriormente la bomba de hidrógeno. Para proporcionar los 100 millones de grados que necesita la bomba de hidrógeno (que debía realizar la fusión nuclear) se pensó en una bomba atómica que explotara inmediatamente antes: los núcleos necesarios para la fusión se colocaron en el «horno» de la bomba atómica y se produjo la fusión.

Obsérvese que, en relación a esta experiencia, la construcción de una central de fusión presenta al menos dos problemas de bastante envergadura:

  1. Evidentemente no es posible «conectar» una central eléctrica a través de una explosión atómica.
  2. Por otro lado, la fusión nuclear debe ser controlada, para que en su conjunto tenga un ritmo regular y constante en el tiempo y no dé origen a explosiones nucleares.

En el Sol y las estrellas se producen de tanto en tanto explosiones nucleares en serie, que no tienen ninguna repercusión en la Tierra por la sencilla razón de que ocurren a enorme distancia.

Más que reproducir el Sol en la Tierra, lo que se pretende a través de la fusión nuclear es dominar el Sol, encerrarlo en una central y obligarlo a producir energía tanto de día como de noche. Por el momento se piensa que existen dos caminos para lograrlo: el confinamiento magnético y las micro explosiones provocadas, por ejemplo, con rayos láser. No es éste el momento para extendernos en detalles sobre estas técnicas. Baste decir que en el primer caso, el confinamiento magnético, los núcleos a fundir se comprimen y mantienen a alta temperatura no dentro de un contenedor de tipo sólido sino en el interior de un potentísimo campo magnético: las paredes que controlan el proceso son invisibles, de tipo magnético. En el segundo caso, este mismo cometido lo desarrolla un rayo láser, que viaja a la velocidad de la luz y que, haciendo evaporar en la superficie gotitas compuestas de dos núcleos (isótopos «pesados» de hidrógeno), deuterio y tritio, los comprime hasta alcanzar la densidad necesaria para la fusión nuclear.

No se excluye la posibilidad de que se invente algún otro sistema ya que, por el momento, ninguno de estos dos caminos ha llevado a resultados definitivos. Hasta ahora se han llegado a alcanzar condiciones de temperatura y densidad muy próximas a las necesarias para la fusión, pero por brevísimo tiempo y con poquísima cantidad de materia. En cambio, sería indispensable:

  1. Hacer extensivo el proceso a importantes cantidades de materia.
  2. Alcanzar los cien millones de grados.
  3. Mantener la reacción, a esta temperatura, durante un largo tiempo y no sólo unas fracciones de segundo.

En resumen, es mucho el camino que queda por andar, por lo que no se cree que se pueda tener disponible la energía de fusión nuclear antes de 40 o 50 años. Téngase en cuenta que no se trata sólo de poner a punto la «técnica». Es preciso realizar todo el sistema e industrializarlo. Como se ha visto en otros casos, después de la realización de la primera central experimental pasan años de experimentos y pruebas, antes de poder poner en el mercado un nuevo sistema y una nueva tecnología.

Por lo tanto, difícilmente estará disponible la fusión nuclear a escala industrial antes del 2050, es decir, al final del período de tiempo que se está examinando en este libro. Lo que significa que en los próximos cincuenta años la humanidad no podrá contar con la fusión nuclear, que llegará (si llega, aunque se confía bastante en que sí) únicamente al final del período.

Entonces desaparecerán de la Tierra los problemas energéticos. Se emplearán para la fusión deuterio y tritio, es decir, isótopos particulares del hidrógeno, elementos que es posible obtener en abundancia y que no plantean ningún problema en cuanto a la disponibilidad de las adecuadas reservas. Desde este punto de vista, tras la irrupción de la fusión nuclear, la energía ya no será una atadura para el hombre, que podrá usar tanta como quiera para llevar a cabo tantas empresas como se sienta capaz de emprender.

Existe asimismo una esperanza de hacer de la fusión nuclear una fuente energética menos contaminante, o al menos mucho más segura que la de la fisión. De hecho, los productos de las reacciones de fusión no son radiactivos; lo es el tritio, que constituye, con el deuterio, uno de los núcleos de base, pero su radiactividad, por lo demás modesta, se agota en decenas, no en miles, de años. Los neutrones producto de las reacciones de fusión provocan la radiactividad de los materiales con los que se hallan en contacto (en particular aquellos que constituyen la estructura del reactor de fusión): pero debería ser posible elegir estos materiales de modo que dicha radiactividad inducida se mantenga dentro de límites modestos, y evitar que se prolongue mucho en el tiempo.

Todo esto desde un punto de vista teórico. En la práctica las cosas funcionan de un modo un poco diferente (o quizá mucho, depende) por una serie de razones muy fáciles de comprender:

  1. La mayor parte de la técnica nuclear convencional puesta a punto hasta la fecha para la fisión es inútil para la fusión nuclear. Hay que reinventarlo todo y manejar una tecnología que se sitúa entre las más complejas y audaces que el hombre haya elaborado nunca. Es obvio que esta tecnología no podrá estar desde el principio al alcance de todos los países. Se creará inevitablemente una especie de club de los que saben usar tecnología, mientras que los demás quedarán de hecho excluidos.
  2. Cuanto se ha dicho se agrava por el hecho, de que probablemente estas centrales, para ser económicas y eficientes, deberán ser muy grandes: de dos o cinco mil megavatios cada una: para tener un punto de comparación, de dos a cinco veces más grandes que las actuales centrales nucleares. Con su construcción se dará vida a un sistema para la producción de energía eléctrica aún más centralizante que el de las plantas nucleares tradicionales (que se consideran muy centralizantes). Por consiguiente, no está claro en qué medida podrá el mundo servirse de ellas, ya que el resto de las tecnologías (y en primer lugar la informática) conducen a un mundo que, por el contrario, podrá ser muy descentralizado, basado en pequeñas y medianas unidades productivas y en una mayor dispersión de la población sobre la superficie de la Tierra. Esta descentralización podría terminar por favorecer pequeños sistemas para la generación de electricidad distribuidos por el territorio.
  3. No se sabe si se logrará mantener «limpias» estas centrales. De hecho, los materiales estructurales de un reactor de fusión (como la primera pared que mantiene el plasma en un vacío casi absoluto) deben responder a instancias tremendamente restrictivas, entre ellas la de presentar una baja radiactividad inducida y por breve período, y la solución que se encuentre no podrá ser sino un compromiso ante el cual incluso la «limpieza» tendrá que pagar un precio.

En resumidas cuentas, se tiene la vista puesta en la fusión nuclear como antes se hizo respecto a muchísimas otras tecnologías. En teoría, esta podría ser «la» solución a muchos problemas, y quizás a todos los relativos a la energía eléctrica. Pero mucho depende de cómo el hombre sepa hacer uso. técnica y políticamente, de este descubrimiento destinado a revolucionar su horizonte, a liberarlo de la necesidad de estar pendiente continuamente de la energía disponible. En cualquier caso, con el advenimiento de la fusión nuclear, se puede decir que el mundo dará un gran paso adelante. Por primera vez en su historia, la humanidad sabrá la manera de procurarse infinitas cantidades de energía para una infinidad de tiempo y a costes razonables.

§. El ahorro y el automóvil
Se oye decir a menudo que la más interesante e importante fuente de energía es el ahorro. En parte es verdad, pero no hay que hacerse muchas ilusiones. Ante todo por el simple hecho de que sólo se puede ahorrar una vez: es posible reducir un 20% el consumo de energía eléctrica de un frigorífico, pero no es posible, al año siguiente, realizar otro ahorro del 20%.

Hoy se habla mucho de ahorro porque la sociedad contemporánea se ha fraguado en unos años en que había mucha energía y a buen precio. El problema del derroche energético, por lo tanto, no se planteaba nunca y nadie hacía nada con el objetivo prioritario de consumir menos energía. Ahora las cosas han cambiado y se tiende a pasar revista a la sociedad (viviendas, transportes, comunicaciones, industrias) para determinar en qué puntos se derrocha y, por consiguiente, dónde es posible ahorrar. Al llevar a cabo esta tarea se descubre que hay algunas actividades (como, por ejemplo, la producción de acero) en las que la tasa de ahorro es muy elevada, porque desde un principio se puso mucha atención en los gastos ya que la energía era una partida importante en el coste final del producto. Pero existen otros productos que podrían salir más baratos. Desgraciadamente, conseguirlo requiere casi siempre grandes inversiones y mucho tiempo. A veces es necesario sustituir todo el proceso productivo y entonces surgen preguntas de naturaleza económica muy pertinentes:

  1. ¿Conviene cambiar todo antes de que la factoría que está en funcionamiento haya sido amortizada?
  2. ¿Conviene, para consumir menos energía, hacer grandes inversiones en el remodelamiento de las instalaciones, cuando el producto tiene ante sí un mercado limitado y perspectivas poco interesantes?
  3. ¿Es conveniente, en cualquier caso, suspender la producción para proceder a hacer los cambios necesarios con vista a un menor consumo energético? ¿O es mejor seguir adelante como en el pasado y esperar la ocasión favorable, es decir, cuando se hayan de reestructurar otras partes de la factoría?

Estas preguntas dan una idea de la complejidad de una revisión de la sociedad a fin de limitar el derroche de energía. El caso que más salta a la vista es el relacionado con las viviendas y edificios utilizados para el trabajo de los empleados. Hemos visto en un capítulo precedente que se han construido de modo irracional y sin tener en cuenta el consumo de energía. Cualquiera puede comprender que es imposible, a corto plazo, rehacer y readaptar el patrimonio edilicio existente.

Casi siempre, cuando se afronta el problema del ahorro energético, se advierte que surgen problemas de carácter económico y de mercado que tienen el efecto de ralentizar, y mucho, la necesaria obra de reorganización y modernización. F.1 caso más claro y fácil de comprender quizá sea el del automóvil. Sabemos que en los años ochenta se introdujeron tecnologías en el automóvil que permitieron, a igualdad de prestaciones, un fuerte ahorro de carburante, y que aún es posible obtener ulteriores mejoras consistentes, por ejemplo, en reducir a la mitad los actuales consumos de gasolina con modelos de coches que estarán disponibles hacia el año 2000. Este es un resultado importante, pero todo el mundo sabe que un parque automovilístico se renueva, por término medio, cada 10-12 años. En el supuesto de que los nuevos modelos de vehículos aparezcan en el mercado en el año 2000, está claro que hasta después del 2010 no se habrá llevado a cabo la sustitución de los viejos modelos de elevado consumo por los nuevos de bajo consumo. Y qué duda cabe de que, muy probablemente, no todos los modelos de automóviles ofrecidos al público serán del nuevo tipo: las personas que no tengan problemas de carácter económico continuarán sirviéndose de coches veloces, pero de elevado consumo.

Todo esto no significa que no sea posible conseguir consistentes ahorros. Únicamente quiere decir que se necesita mucho tiempo y un volumen de inversiones muy grande. En cada caso, dado que el hombre de la calle, cuando tiene que comprar un automóvil, no está únicamente atento al ahorro de energía, es preciso ser más prudente en las previsiones. Sin olvidar que, en general, para llegar a fuertes ahorros hay que poner en marcha sistemas muy rígidos, mientras que la tendencia de la sociedad camina hacia una mayor flexibilidad. Las ventajas obtenidas con el ahorro pueden, a veces, tener en contra cierta pérdida de flexibilidad y, por consiguiente, de adaptabilidad de la empresa y del sistema productivo en su conjunto.

El mundo de la energía, en suma, es mucho más complejo de cuanto se tiende a creer. Tómese el caso del telecalentamiento, es decir, de la utilización del agua caliente de las centrales para calentar las ciudades o determinadas industrias. En muchos países, y también en Italia, se han realizado algunos experimentos, lo que ha hecho surgir muchos intereses en torno a este sistema, ya que es habitual que en las centrales el agua caliente no sea aprovechada.

Sin embargo, no tardan en aparecer grandes problemas. Hasta cuando se trata de calentar un nuevo barrio hay dificultades. Al construir las casas y calles se proyectan también los tubos para el agua caliente proveniente de la central y toda va bien: pero cuando se piensa generalizar el sistema y calentar también grandes centros, entonces las dificultades se agigantan.

  1. Está por resolver el problema de la localización de las centrales. Está claro que deberían estar bastante cerca de las ciudades que hay que calentar, pero también es lógico construirlas en zonas aisladas por razones medioambientales (por no hablar de los riesgos de dispersión de la radiactividad y de los peligros de las centrales nucleares). Este problema, a decir verdad, podrá ser parcialmente resuelto el día en que el mundo sea totalmente dueño del hidrógeno. Entonces sería posible construir centrales nucleares en zonas muy aisladas y utilizarlas no para producir energía eléctrica, sino hidrógeno. Este hidrógeno llegaría en estado gaseoso a las ciudades a través de tuberías. Habría así centrales nucleares «limpias» que funcionarían quemando hidrógeno. De este modo el calor producido por las centrales estaría disponible en los lugares en que se necesitara, sin crear problemas de transporte o de dispersión. Desgraciadamente, la tecnología del hidrógeno presenta aspectos aún no resueltos y con un cierto nivel de peligrosidad. Es fácil prever, pues, que al menos hasta dentro de muchos años no se adoptará esta alternativa (porque comporta decisiones demasiado complejas y demasiado comprometidas), por lo que el telecalentamiento seguirá en el ámbito de lo posible.
  2. Con el telecalentamiento es posible llegar a calentar una gran ciudad, pero entonces surgen graves problemas (aparte del de la localización de la central). En el caso de una ciudad ya construida, se trataría de remover todo el subsuelo, de unir todos los edificios por medio de tuberías, de crear subcentrales para la distribución del calor y cosas por el estilo. Habría quien preguntaría qué sentido tiene levantar toda una ciudad sólo para colocar tubos de agua caliente en el subsuelo. Una vez que se decidiera realizar esta operación, sería necesario poner en marcha un programa coordinado que comprendiera, por ejemplo, la sustitución de los viejos hilos telefónicos de cobre por fibras ópticas y que «esbozaría» ya una ciudad moderna y muy informatizada (con abundancia de líneas y sistemas de comunicación). En la práctica, una ciudad «de cables». Más difícil es sincronizar la programación energética con la de las telecomunicaciones y la de la informática. Se trata de infraestructuras distintas, cada una de las cuales se desarrolla con su lógica propia y con su propio tiempo.

De cuánto hemos expuesto se deduce que el «milagro» del telecalentamiento es difícil que se produzca. Es una solución interesante, que permite ahorrar mucha energía, pero sólo podrá aplicarse en pequeñas cantidades y en zonas muy limitadas, por lo general nuevas urbanizaciones. Quien sueñe con ver regiones enteras surcadas de tubos llenos de agua caliente proveniente de las centrales y millones de individuos calentados por esta misma agua, se equivoca de lleno. Primero porque eso supondría inversiones colosales, y segundo porque, como hemos visto, existen dificultades de diversa naturaleza: distancia entre las ciudades y las centrales, imposibilidad de levantar el subsuelo de los centros urbanos, coste de las obras. Y no hay que olvidar tampoco el hecho de que el productor de energía eléctrica, normalmente, se limita a producirla. En su historia y en su experiencia, nunca ha tenido otras cargas. En realidad, lo que interesa no es la energía en sí, sino el servicio que dicha energía puede proporcionar. Las empresas energéticas deben situarse en el compromiso de vender no gas o electricidad, sino confort ambiental e iluminación; así es como comienza a entreverse la posibilidad de que las industrias que producen productos agroquímicos se pertrechen para ofrecer un servicio de fertilización y el control de los parásitos. Es un viraje importante, también porque de este modo resulta del común interés del abastecedor, del cliente y del público en general obtener los mismos resultados utilizando menos energía y menos materias primas; pero ello requiere importantes transformaciones estructurales.

Esta tecnología, en suma, como cualquier otra tecnología, es algo complejo que no se presta a aproximaciones simplificadoras. En cualquier caso, sea cual sea la acción que se quiera emprender, hay que mentalizarse de que hay que dar tiempo al tiempo: en este sector no se puede hacer nada de la noche a la mañana. Sin olvidar tampoco las contradicciones internas.

Por ejemplo, en la segunda mitad de este siglo el consumo de energía han crecido al ritmo del 3-4% hasta la mitad de los años setenta. Luego el ritmo decreció y hoy el crecimiento en los países industrializados es inferior al 1% anual. Pero observando con mayor profundidad, se descubre que un poco por todo el mundo está aumentando la penetración de la electricidad. En otras palabras, crece el consumo de energía eléctrica a la vez que se reduce el de otras formas de energía. La energía eléctrica, de hecho, es la forma de energía más apreciada y buscada del mercado. Su consumo aumenta y continuará aumentando porque se tiende a una mayor sofisticación de la sociedad. La informática y muchos otros sistemas de control y comunicación son tecnologías muy elaboradas, pero son también tecnologías que sólo pueden funcionar a base de energía eléctrica. Las mismas técnicas que sirven para ahorrar energía, por ejemplo en lo referente a la calefacción de las casas, requieren, como se recordará, un mayor uso de energía eléctrica que, no hace falta repetirlo, es la forma de energía más cara. Paralelamente al aumento del consumo de electricidad se reduce el consumo de fuentes de energía no eléctrica más tradicionales.

§. La energía y la cuesta arriba
Más adelante se discutirán detalladamente los posibles caminos que el hombre puede seguir para procurarse toda la energía que necesitará para enfrentarse a su cada vez mayor número de necesidades y a la duplicación de la población del año 2050, es decir, la irrupción del «segundo planeta». Antes conviene distinguir las características del momento que se está viviendo.

El planeta, en resumidas cuentas, debe realizar lo que los expertos llaman una «transición energética», es decir, el paso de una fuente a otra. Pero por primera vez en su historia no se trata de una transición natural, pacífica y sin problemas. Al principio, la principal fuente de energía era el mismo hombre y su trabajo. Posteriormente se destacó otra fuente que pronto se convirtió en hegemónica y que caracterizó todo un período histórico: la leña.

Cuando este material empezó a escasear y a revelar las limitaciones de su empleo, el hombre encontró otra fuente que inmediatamente tuvo un papel decisivo: el carbón. Todo el mundo sabe la importancia que este combustible fósil tuvo para el hombre. Baste decir que las grandes ciudades de Gran Bretaña, a excepción de Londres y las ciudades costeras, que crecieron gracias a su privilegiada situación en relación al tráfico comercial, surgieron junto a los yacimientos de carbón: la civilización se situó al lado de las minas, para controlar su fuente energética más importante, de la que dependía todo el desarrollo. El carbón, entre otras cosas, permitió la primera industrialización del planeta a partir del descubrimiento del motor a vapor.

No es preciso señalar que todas estas transiciones de una fuente a otra rodaron, por así decirlo, cuesta abajo. Se pasa de una fuente relativamente incómoda y escasa a otra cada vez más cómoda y cada vez menos escasa. Siempre que el hombre tiene oportunidad de contar con una cantidad mayor de energía y precisamente por eso, su horizonte se ensancha, su ingenio se afina, sus realizaciones son más importantes.

Tras el carbón la siguiente etapa fue el petróleo, quizás el mayor avance y el más cargado de consecuencias. Con el petróleo, un combustible como el carbón, importante pero sólido, sucio y muy contaminante, se sustituye por un líquido que, a través de los procesos de refinado, da lugar a muchos otros productos destinados a los más diferentes usos. Del petróleo surge la civilización que hoy domina el mundo: el motor de explosión, el automóvil, las grandes metrópolis, el avión, etc. Sin el petróleo nada de esto habría sido posible y el mundo no habría avanzado como lo ha hecho.

También esta última transición fue cuesta abajo: el petróleo era indudablemente más cómodo que el carbón, costaba menos y no planteaba problemas de reservas. Parecía que no se iba a acabar nunca. Esto tal vez explique por qué en los años setenta el hombre cayó con tanta facilidad en la trampa energética: nunca en su historia había pensado que se iba a plantear este problema. Durante millones y millones de años el esquema había permanecido invariable: el hombre «encontraba» una nueva fuente energética, más cómoda, más rica y más económica que la precedente y esto daba un nuevo empuje a su mundo.

A partir de los años setenta, por el contrario, este esquema se quiebra de repente. El hombre ya no correrá más cuesta abajo, sino cuesta arriba. Se encuentra con que tiene que vivir en un medio en que la energía escasea, es muy cara y está llena de riesgos (bastaría una revolución en Arabia Saudita para trastocar el sistema de aprovisionamiento). Y no sólo eso; al mismo tiempo que sufre, por primera vez después de millones de años, la escasez y el elevado coste de la energía, el hombre debe hacerse cargo de, al menos, dos graves problemas:

  1. Encontrar energía para el progreso y el crecimiento de su sistema económico (que no puede pararse).
  2. Encontrar energía para los cinco mil millones de nuevos habitantes que en el curso de los próximos cincuenta años aparecerán en la Tierra.
  3. Conseguirlo sin crear perturbaciones mayores en el medio ambiente y el clima del planeta.

Frente a esta realidad puede comprenderse por qué el debate sobre la energía no es muy sereno y por qué no procede con el necesario orden. Efectivamente, no puede ser más que confuso y agitado; apenas se reflexiona sobre el futuro, el panorama no se presenta nada fácil. Las alternativas en las perspectivas de un progresivo agotamiento, en el curso del siglo XXI, de las reservas de petróleo y gas natural pueden ser tres:

  1. Volver atrás, es decir volver al carbón, con todos los problemas económicos, técnicos y ambientales que representa.
  2. Ir hacia lo desconocido, es decir, hacia la fusión nuclear, una fuente de energía que aún no está a punto, para la que no existen las tecnologías necesarias y que no se sabe bien cómo aprovecharla.
  3. Apostar por lo difícil, por la energía de la fisión nuclear, cuya tecnología está a punto, pero que presenta muchos riesgos y la opinión pública acepta con reservas, por las razones ya anteriormente examinadas, y por la energía solar y otras fuentes renovables, tecnológicamente más fáciles y con escasas contraindicaciones medioambientales, pero hoy todavía lejos de ser económicamente competitivas.

También es posible (o mejor dicho, casi seguro) que a la postre el hombre deba decidirse por tomar las tres alternativas al mismo tiempo acumulando de este modo los problemas y riesgos que cada una de ellas presenta. Por primera vez, el hombre no tiene ante sí una nueva fuente energética definitiva, sino tan sólo un abanico de posibilidades, todas complejas y llenas de problemas.

Por otra parte, tras la experiencia del petróleo, está claro que no se debe apostar por una sola fuente, sino por una gama lo más amplia posible para poder equilibrar los riesgos y evitar desagradables sorpresas.

Todo esto en espera de poder disponer de fuentes de energía «definitivas» que hoy va pueden vislumbrarse: la solar y la fusión nuclear. El problema es que no estarán disponibles antes de cincuenta años. Llegado el año 2050, casi sin lugar a dudas, el hombre volverá a correr cuesta abajo en lo que se refiere a la energía. El sol es, por razones obvias, inagotable y continuamente renovable, mientras que la fusión nuclear no presenta ningún problema de reservas ya que el deuterio y el litio (del que se genera el tritio) son elementos abundantes, suficientes para millares y millares de años.

Parece algo así como una broma de la historia: si las crisis petrolíferas hubiesen llegado en el 2050 en vez de en 1973 y 1974, casi seguramente no se habrían planteado todos estos problemas, porque a esas alturas tanto la energía solar como la fusión nuclear estarían ya a punto para ser utilizadas a gran escala.

Pero ya hemos dicho que esta situación era tal vez inevitable. Hace muchos años que se habla de la energía solar y de la fusión nuclear, pero sin grandes resultados prácticos, porque en el fondo estas tecnologías se veían más como interesantes y excitantes curiosidades que como caminos para permitir al hombre continuar viviendo sobre la Tierra. En el camino de la energía solar y también en gran parte en el de la fusión nuclear, el progreso hubiese sido más rápido si la sociedad hubiese tenido la percepción de la urgencia de afrontar el problema energético buscando nuevas fuentes con las que sustituir los combustibles fósiles. Y al contrario, con petróleo, gas y carbón a bajo precio, el mercado no ha dado señales de preocupación en lo que concierne a la oferta de energía. ¿Qué hacer, pues desde ahora hasta el 2050? Como dijimos al principio, dedicaremos más adelante a este problema un capítulo, donde nos extenderemos sobre las diversas opciones. Pero para concluir el apartado sobre la energía, anticiparemos algunas ideas que darán cuenta de la magnitud y gravedad del problema.

En la actualidad se consumen en la Tierra aproximadamente 8 mil millones de toneladas de petróleo equivalente (teps) al año. Tep, como se recordará, es una medida convencional, usada para medir de manera uniforme el consumo de los diversos combustibles (3,2 mil millones de toneladas de carbón, que es el consumo actual de este combustible, equivalen a 2.2 mil millones de teps, por ejemplo).

Dado que en el 2050 se duplicará la población, se puede partir de la hipótesis de que en esa época el consumo total será de 14 mil millones de teps, es decir, un poco menos del doble del actual, teniendo en cuenta que aumentará la eficacia del uso de la energía y que los precios se reducirán. Algunos expertos, sin embargo, consideran esta previsión errónea por defecto. Dicen que no se debe olvidar que hoy, en la Tierra, la inmensa mayoría de los países presenta consumos energéticos per cápita inferiores a 1 tep/año, mientras que en los países industrializados el consumo per cápita es en general superior a 3 tep/año. Pero la duplicación de la población afectará también a los países que actualmente consumen menos y que, por tanto, se encuentran confinados en el subdesarrollo: a lo largo de los próximos cincuenta años será necesario prever su propia posibilidad de crecimiento. Si, por el contrario, fuera previsible un aumento del consumo de energía sólo proporcional al aumento de la población (sin aumento adicional del consumo per cápita) ello podría significar condenarlos a su actual subdesarrollo. El razonamiento de que consumirán menos los que hoy consumen mucho, mientras que los pobres recorrerán el camino opuesto, no es válido. Y no lo es porque se trata de cifras muy diferentes: hoy en los Estados Unidos se consumen aproximadamente 8 teps per cápita al año, mientras que en China no se llega ni a 0,8; pero mientras en América la población es de algo más de doscientos cincuenta millones de habitantes, en China hace tiempo que se ha superado la cifra de mil millones.

Un pequeño aumento del consumo per cápita de los chinos, por lo tanto, provocaría una enorme subida de los consumos globales, mientras que es difícil que los norteamericanos consigan consumir mucho menos de lo que consumen hoy. Esta hipótesis hay pues que descartarla, ya que comportaría un conjunto de cambios estructurales muy improbables de conseguir que, además, requerirían enormes gastos.

Estos argumentos nos llevarían a una hipótesis de consumo para el 2050 no de 14, sino de 18 mil millones de teps. ¿Dónde encontrar toda esta energía?

Si tuviéramos que contar únicamente con las reservas actuales, no habría más remedio que apostar por una profunda repenetración del carbón (con todos los riesgos ambientales y climáticos que comporta) para sustituir el petróleo y el gas en agotamiento, y por una gran expansión de las nucleares y de la energía solar. En realidad, la historia de los últimos veinte años ha demostrado que la evolución de los métodos de prospección y de las tecnologías de explotación de los yacimientos, así como el impulso a la búsqueda de nuevos depósitos que se dio sobre todo en los períodos de alto coste energético, aún pueden aumentar notablemente la cantidad de petróleo y de gas con la que podríamos contar, no obstante la gran cantidad consumida mientras tanto.

Parece razonable establecer la hipótesis de que el consumo mundial de petróleo se mantenga en torno a los valores actuales (cerca de 3,1 mil millones de tep anuales) hasta el 2050, y que el consumo de gas (una fuente en rápida expansión y favorable desde el punto de vista medioambiental y climático) pueda pasar del actual 1,8 hasta 4,5 mil millones de tep anuales; supongamos que el carbón pueda remontar la cuesta de su actual declive, y con nuevas tecnología, eficientes y limpias, pueda aumentar de los actuales 2,3 a 3,5 mil millones de tep anuales: ello comportaría un gran incremento en la movilización del carbón, que hoy se consume sobre todo en las cercanías de los lugares de producción, de los 200 millones de toneladas hasta casi 2 mil millones de toneladas: un gigantesco aparato de flotas de navíos, canteras, puertos, ferrocarriles, depósitos. Seguramente la mayor operación de transporte jamás realizada por el hombre.

Supongamos además que la hidroelectricidad y la geotermia doblan su contribución, pasando de 0,5 a mil millones de tep al año; y hagamos un nuevo acto de fe en la energía solar y en otras energías renovables, suponiendo que de su actual y desdeñable contribución al balance energético lleguen a 1,5 mil millones de tep anuales, esto es, a la mitad de la actual contribución de la fuente dominante, el petróleo. Pues bien: sumando todas estas contribuciones, apenas alcanzamos los 14 mil millones de tep anuales, límite inferior de nuestras previsiones. ¿Cómo llegar a los 18? Los 4 mil millones de tep al año que nos faltan tendrán que salir (por fuerza) de la otra fuente con la que todavía no hemos contado: la nuclear. Traducidos en centrales nucleares, ¿qué significan 4 mil millones de teps al año? Más o menos dos mil quinientas nuevas centrales nucleares frente a las cuatrocientas actuales. Y dado que las centrales tienen una duración de un máximo de treinta años, muchas de las que están hoy en funcionamiento tendrían que ser modificadas o sustituidas hasta dos veces; y no sólo éstas, sino otras que se construirían antes del año 2000.

En resumen, de hoy al 2050 habría que construir más de tres mil nuevas centrales nucleares, sesenta al año, lo que representaría un coste global de 15 mil millones de pesetas al año al coste actual.

Más adelante, analizaremos esta cuestión con mayor detalle y profundidad, pero ya ahora es posible hacerse una idea de lo que significa «correr cuesta arriba», cuando se habla de energía.

Incluso pensando en centrales nucleares de nuevo tipo, mucho más seguras y sencillas, con ciclos de combustible a prueba de incidentes, de terroristas y de proliferaciones, y en soluciones eficaces y universalmente aceptadas para la eliminación de los residuos radiactivos (línea en la que se está trabajando intensamente), no parece creíble un modelo de este género: porque es difícil que la opinión pública lo acepte (en especial si tuvieran lugar aún uno o más incidentes graves, lo que no puede descartarse); porque son pocos hasta hora los países cuyas infraestructuras técnicas y organizativas se adecúan a semejante difusión de las nucleares y, por fin, porque el sistema resultante sería rígido y frágil.

Aun contando con una nueva difusión de las nucleares en los países tecnológicamente más avanzados y con sistemas nuevos y más seguros, es mejor apostar decididamente por la contención de la demanda energética, con grandes esfuerzos para aumentar la eficacia del uso de la energía en todos los campos.

Quizá todo esto sirva para dar una idea de la empinada cuesta que tiene ante sí el mundo.

Y del conjunto de medidas que se han tomado, algunas con retraso, otras inadecuadas, para llevar a la humanidad al umbral del año 2050, al umbral de la nueva era, en la que será posible vivir con menos inquietudes.

C. La Biotecnología

De entre las revoluciones científico-tecnológicas que caracterizarán los próximos cincuenta años, la de la biotecnología, tal vez sea, junto a la de la informática, la más interesante. Y no sólo porque quizá sea la más «joven». En realidad tiene variadas aplicaciones y, antes o después, acabará por estar un poco en todas partes, pues son muchas sus posibilidades. Los países más avanzados, y numerosas multinacionales, tienen un gran interés por este tema que consideran de estratégica importancia.

Pero, ¿qué son las biotecnologías? En pocas palabras puede decirse que son las que se refieren a todos los procesos relacionados con la materia viviente, sea animal o vegetal. Actualmente no se podría hablar en término tan optimistas de las biotecnologías, sin el enorme progreso que en los pasados decenios, sobre todo en los últimos tres, se ha experimentado en las diversas ramas de las ciencias biológicas que antes estaban bastante separadas unas de otras (biología descriptiva, bioquímica, genética, biología y genética molecular). A este progreso han contribuido los modernos instrumentos científicos, cuyas actuales prestaciones eran inimaginables hace unos decenios. Citemos como ejemplo el microscopio electrónico que permite ver «objetos» de una millonésima de milímetro; la ultracentrifugadora, que es capaz de separar las diversas fracciones celulares según su densidad; la cromatografía, que separa centenares de compuestos químicos diferentes en base a su capacidad de ser retenidos en la superficie de un sólido o de otras sustancias. Más recientemente se ha generalizado la aplicación de la resonancia magnética nuclear, con la que se puede identificar la configuración espacial de las macromoléculas biológicas y de los grupos que poseen funciones biológicas específicas. La disponibilidad de antibióticos hizo posible después la producción de cultivos de células animales o vegetales en condiciones de esterilidad, es decir, libres de bacterias, de manera que permitiera el estudio de las características genéticas de estas células y su interacción con los virus, que de otra forma no habría sido fácil.

No es el momento de presentar el repertorio de conquistas científicas que han vehiculado el progreso de las biotecnologías. Baste decir que tras el final de la segunda guerra mundial, a mediados de los años cincuenta se descubre la naturaleza y configuración molecular del material genético, lo que proporciona la clave para la comprensión del proceso de la duplicación de los genes. Posteriormente fue posible reproducir in vitro muchos procesos celulares y sintetizar los componentes base de los genes. Por último, la irrupción de la llamada «ingeniería genética» ha llevado al trasplante de genes de un organismo a otro y la modificación de los mismos genes. Más que dar una panorámica del estado del arte de las biotecnologías, que excedería los límites que nos hemos prefijado, nos limitaremos a poner algún ejemplo sobre algunas de las más interesantes líneas de investigación. Téngase presente que hoy, en cuanto a conocimientos básicos, se está relativamente más avanzado en lo referente a la biología animal (y a la humana en particular) que a la biología vegetal, como consecuencia de que en el pasado se concentraron las investigaciones, principalmente, sobre el hombre y los animales.

§, El gen y la insulina

La genética convencional estudia la reproducción de los cuerpos vivientes y procede sobre todo a través de la selección, a fin de obtener especies dotadas de determinadas características. La ingeniería genética, que se puede decir es la rama más innovadora de la genética actual, va más lejos. Consideremos, por ejemplo, una de las hormonas indispensables para el cuerpo humano, la insulina. Esta hormona es producida por unas células pancreáticas concretas y sirve para regular la transformación del azúcar que entra en el cuerpo y el metabolismo de las grasas.

Hoy, para sustituir la insulina (tema que afecta a millones de enfermos de diabetes) se puede proceder de dos modos: o se la extrae de las células pancreáticas de los animales o se produce por síntesis química, a través de procesos difíciles y costosos.

La biotecnología está siguiendo, por el contrario, un camino mucho más sencillo. Se trata, en resumidas cuentas, de aislar el gen que estimula la célula pancreática que produce la insulina y, después, introducir este gen en un microorganismo. Una vez realizado este delicado «trasplante» bastará con colocar el microorganismo en un fermentador y alimentarlo para que se reproduzca en muchísimos ejemplares, todos ellos dotados de la extraordinaria capacidad de «fabricar» insulina, que puede ser así recogida y destinada a los usos previstos.

§. El gen y el alimento
Algo parecido se puede hacer en el campo de la agricultura. Hasta hace poco la genética se ocupaba sobre todo de seleccionar nuevas especies de plantes, capaces de resistir particulares condiciones climáticas o de sobrevivir en terrenos particularmente áridos (o irrigables sólo con agua salada). En este sentido se han obtenido importantes éxitos, que van desde los cereales enanos (capaces de resistir mejor el mal tiempo) de gran rendimiento a los tomates israelíes que crecen si se les riega con agua salada. Las conquistas de la genética tradicional han sido importantes: son las que han permitido la llamada «revolución verde», es decir el enorme aumento de rendimiento por unidad de superficie.

Sin embargo hoy, la investigación está tomando nuevos rumbos. El objetivo más ambicioso de todos, en lo que a la agricultura se refiere, es el de la fijación del nitrógeno. El nitrógeno es un elemento indispensable para las plantas, que éstas no puedan procurarse naturalmente. Desde que existe la agricultura moderna es el hombre quien proporciona nitrógeno a las plantas, a través de los abonos, que en un principio eran de origen animal (el guano de Chile) y más tarde, químicos.

Hay una excepción y muy importante: la de las leguminosas que viven en simbiosis con bacterias (del tipo Rhizobium) fijadas a sus raíces y que tienen la particularidad de absorber el nitrógeno. Se piensa en seguir dos caminos diferentes. El primero tiende a conferir también a los cereales la facultad de vivir en simbiosis con el Rhizobium, exactamente como sucede con las leguminosas, y concretamente con la soja, tan importante para la alimentación del hombre. El segundo camino es más sofisticado: aislar el gen que preside el proceso de fijación del nitrógeno en el Rhizobium y tratar de «injertarlo» en las semillas de los cereales.

En ambos casos, se dará vida a una gran revolución en la agricultura. El consumo de abonos nitrogenados podrá reducirse muchísimo, haciendo más sencillo y económico el cultivo de cereales. El día en que se consiga esta meta (una planta que absorba el nitrógeno por sí misma o a través de una bacteria unida a ella), quedará muy atrás la genética tradicional y se operará una auténtica transformación en los cereales, al hacerles adquirir definitivamente una propiedad que antes no poseían. No se habrá seleccionado una especie entre las existentes sino que se habrá creado una nueva.

Naturalmente, se abandonarán los viejos caminos de investigación. El campo es vasto y en el mundo hay aún mucho que hacer, sobre todo para adaptar las diversas plantas a los diversos climas y a las diversas condiciones ambientales. Pero queremos destacar aquí las investigaciones más curiosas y más interesantes, que se sitúan casi en los límites de las posibilidades de la biotecnología, para subrayar así todo lo que se puede esperar de ella en los años venideros.

§. La madera y el cobre
Una de las ideas sobre la que se está trabajando es la de buscar una bacteria, o un hongo, capaz de dividir la macromolécula de la lignina y de la celulosa (los constituyentes-base de la madera). Si la lignina y la celulosa se pudieran «romper» se harían digeribles y entonces se podría extraer alimento de la madera (eventualmente sólo para uso animal). Es decir, se podrían aislar los microorganismos que se nutren de la madera. Después, una vez tratados, podrían usarse en la alimentación animal. Se trataría, en el fondo, de una variante «ecológica» del viejo proyecto de las bioproteínas del petróleo.

Se recordará de qué se trataba. Los microorganismos debían nutrirse de normal-parafinas y multiplicarse en fermentadores adecuados. Ya que estos microorganismos estaban constituidos en gran parte de proteínas, podían finalmente ser transformados en comida para los animales.

El proyecto, como ya expusimos, tuvo que abandonarse porque existía el riesgo de que a través del petróleo se transmitieran elementos cancerígenos a los animales. Sería diferente un proyecto que partiera de desechos agrícolas, pues en este caso las sustancias que servirían de alimento a las bacterias serían todas naturales, de uso normal en la agricultura.

Las bacterias pueden ser utilizadas también para producir metales, como el cobre. En efecto, se sabe que existen algunas especies de bacterias que se nutren de determinados minerales de cobre. El procedimiento consiste en rociar las rocas que en general contienen minerales de cobre en baja proporción, con un cultivo de bacterias. Éstas se «comen» los minerales de cobre. Al final se recogen las bacterias y se obtiene el metal. La extracción directa sería demasiado costosa, mientras que la que se hace a través de las bacterias puede ser interesante y económica. El caso del cobre es sólo un ejemplo, pero el procedimiento podría extenderse y tener muchas otras aplicaciones.

§. La huertecita y el petróleo
La biotecnología no excluye la posibilidad de que un día se pueda llegar a cultivar el petróleo, como hoy se cultivan patatas o judías. Se ha descubierto una planta, la Euphorbia tirocalli, que contiene rastros de hidrocarburos. Por el momento se trata de pequeñísimas cantidades, pero al principio es muy interesante. Como se sabe, los hidrocarburos del petróleo derivan de la descomposición de microorganismos que han permanecido bajo tierra millones y millones de años. Hasta hace poco tiempo no se conocía otro método natural para producir petróleo en cantidad: el único camino era éste, que requería millones de años.

Con la Euphorbia tirocalli se amplía el abanico de posibilidades. Ahora se trata de ver si es posible mejorar el proceso por medio de la biotecnología: o aumentando el contenido de hidrocarburos en la Euphorbia tirocalli o trasplantando el gen o los genes que presiden la síntesis de los hidrocarburos sobre cualquier otra especie vegetal, más vigorosa. En el estado actual de las investigaciones no es posible hacerse ilusiones: la tierra cultivable es un elemento muy valioso para la alimentación, pero no hay que excluir la posibilidad de que un día se encuentre la manera de hacer coexistir la agricultura para la alimentación con la agricultura petrolífera (quizás utilizando terrenos marginales o no adaptados para las especies agrícolas).

De la misma manera no hay que excluir que el gen de la Euphorbia tirocalli pueda ser implantado en algún microorganismo, y ser multiplicado en fermentadores, para producir así el petróleo «artificial», o hay que olvidar que este tipo de plantación «energética» existe ya. En Brasil, por ejemplo, se está trabajando mucho para aumentar la producción de alcohol extraído de la caña de azúcar. Este alcohol, el etanol, se mezcla después con la gasolina, pero también se puede utilizar directamente como carburante. De la madera, del carbón, del gas, se obtiene otro alcohol, el metanol, que se puede utilizar como carburante aunque tenga un menor contenido energético. También el metanol se puede utilizar como base para la producción de bioproteínas, análogamente a lo que se intentaba hacer con el petróleo.

Se piensa, siempre a propósito de las proteínas artificiales, utilizar también el metano como materia prima en los procesos de fermentación, pues es más sencillo y presenta menos riesgos que el petróleo.

Como puede suponerse, la «gasolina de azúcar» presenta los mismos problemas que hemos visto en relación a la Euphorbia tirocalli: la tierra cultivable es ya escasa para los usos tradicionales y por consiguiente no es posible pensar en grandes plantaciones energéticas. No obstante, el proyecto se ha puesto en marcha en Brasil, con la ventaja de que allí no hay problemas de espacio y de que la mano de obra es relativamente barata. La idea, sin embargo, no es fácilmente transferible a otros países que dispongan de una superficie agrícola cultivable limitada en relación a su población y con salarios y condiciones de trabajo mejores.

En cualquier caso se trata sólo de experimentos y proyectos que están aún en su fase inicial. Hasta dentro de unos años no se dará ningún paso adelante decisivo. La idea de extraer petróleo de los desechos agrícolas (a través de cultivos bacterianos) o de cultivar directamente los hidrocarburos está en el terreno de las posibilidades, que no serán realidad mañana mismo y quizá tampoco pasado mañana. Pero el desafío está ahí.

§. El científico y la mosca
Otro ejemplo de las posibilidades abiertas por la biotecnología es el de la lucha contra los parásitos en la agricultura, y en particular contra los insectos. Generalmente esta lucha se hace con insecticidas químicos. Lo que la gente ignora es que la búsqueda de sustancias químicas adecuadas es cada vez más difícil. Los insectos tienen la capacidad de habituarse con el tiempo a los diversos insecticidas y por tanto se plantea continuamente el problema de encontrar nuevas sustancias, siempre diferentes y cada vez más mortíferas.

Desgraciadamente no existe un método científico para conseguirlo, por lo que el trabajo se limita a la mezcla de unos cuantos productos normalmente eficaces. En la actualidad, antes de conseguir un nuevo insecticida se suelen seleccionar diez mil o más moléculas. Todas ellas se someten a minuciosas pruebas para asegurarse de que no son cancerígenas o mutagénicas y de que poseen las características adecuadas para atacar a los insectos; al final, de todas estas moléculas, sólo queda una que pueda ser utilizada para hacer el nuevo insecticida, destinado a durar algunos años.

Esto explica, entre otras cosas, por qué la industria de estos productos se está convirtiendo en un oligopolio. Las pequeñas y medianas empresas no pueden soportar los elevados costes de investigación y por tanto se retiran del mercado: únicamente sobreviven las grandes empresas, y aun éstas tienen serios problemas para continuar con su actividad.

¿De qué forma puede intervenir la biotecnología en un terreno tan espinoso? A decir verdad, ya se ha encontrado la solución. La razón de que aún no se haya comercializado se debe sólo a la oposición de diversos intereses. ¿De qué se trata? Algunos científicos han estudiados cómo se reproducen los insectos y han descubierto que la hembra tiene una peculiar manera de comunicar a los machos que está en celo: emite por la vagina auténticos mensajes químicos. Se ha descubierto que estos mensajes están constituidos por una molécula bastante fácil de reproducir en el laboratorio, cosa que se ha hecho ya sin excesiva dificultad.

Poseyendo el «mensaje químico del amor» del insecto hembra, todo se hace muy fácil. Existen varios sistemas para exterminar los insectos:

  1. Se esparce en la atmósfera una determinada cantidad (mínima) de este mensaje. Los insectos machos lo reciben y lo siguen hasta la zona de máxima concentración, pero en vez de llegar al lugar donde está la hembra (como sería natural) llegan a un lugar donde no está la hembra y donde, por tanto, no es posible la copulación. Los machos quedan pues desorientados e imposibilitados de unirse con las hembras. Las copulaciones no se producen y la invasión de los insectos se extingue rápidamente.
  2. Uno de los insecticidas más poderosos y letales es el viejo DDT, hoy retirado del mercado porque no es biodegradable y puede dañar la naturaleza. Sin embargo, sirviéndose de «los mensajes de amor», es posible volver a utilizarlo sin ningún peligro. Se prepara un contenedor (protegido por una red de malla bastante estrecha, pero suficientemente amplia como para permitir el paso de los insectos) y se llena de DDT y una pequeña cantidad de «mensajes de amor»: los machos se lanzan sobre el contenedor atraídos por el mensaje, pero en vez de la hembra se encuentran con el DDT y perecen.
  3. Otro sistema de carácter diagnóstico, que combina el «mensaje de amor» con los insecticidas normales, es el siguiente. Por lo general los insecticidas químicos son poco eficaces porque no se sabe exactamente en qué momento se les debe esparcir por la tierra o el aire: se suelen echar demasiado pronto, cuando los insectos no han llegado todavía, o demasiado tarde, cuando los insectos han establecido sólidas colonias. Con los «mensajes de amor» por el contrario es posible saber exactamente cuándo están llegando los insectos. Se produce así: se dispone en la zona elegida una hoja de papel o de plástico rociado de cola y un poco de «mensaje de amor». Apenas llegan los insectos a la zona, se lanzan sobre la hoja de papel atraídos por el «mensaje de amor» y quedan atrapados en la cola. Cuando se ve que el número de insectos pegados en la hoja empieza a ser consistente, significa que la invasión de los insectos ha comenzado y que por consiguiente se puede empezar a esparcir el insecticida, que con toda seguridad cumplirá su objetivo.

Evidentemente los métodos más interesantes son los primeros. No hace falta ser un especialista, en el tema para comprender los enormes ahorros que permiten, hasta el punto de que queda abierto el camino para una radical reestructuración de la industria de los insecticidas químicos. No hay que olvidar que los «mensajes químicos» son relativamente fáciles de producir y que es suficiente con distribuir cantidades muy pequeñas para obtener los resultados deseados.

¿Por qué, entonces, no se utilizan en la agricultura? Porque sería indispensable llegar a una profunda reforma de la lucha contra los insectos. Hoy en día esta lucha se lleva a cabo individualmente. Cada cultivador se ocupa de su campo y trata de exterminar los insectos que minan sus cultivos. Este tipo de lucha obtiene normalmente los efectos deseados con el uso de los insecticidas químicos normales. Como contrapartida, desventaja del consumo de insecticidas es la contaminación que, inevitablemente, llevan al medio ambiente.

Por el contrario, en el caso de los «mensajes de amor» la lucha debe hacerse colectivamente. Si un agricultor distribuye los «mensajes» sobre un campo y los demás no hacen nada, todos los insectos de la zona acabarán en su campo, y su trabajo habrá sido inútil.

Con los «mensajes de amor», en suma, no se trata ya de esparcir insecticidas en los campos, sino de organizar una verdadera y completa lucha biológica contra los insectos que hay que hacer al menos a nivel regional, si no a más altos niveles. Pero esto, como puede imaginarse, no sólo no es fácil de organizar sino que, sobre todo, es contrario a los intereses de las grandes empresas del sector. Se hace poco o nada en este sentido y todo un fértil terreno de investigación queda así inexplorado. Además de los «mensajes de amor», la biotecnología está proporcionando otros interesantes instrumentos en la lucha contra los parásitos. Éste es el caso de las hormonas del crecimiento, que impiden la transformación de las larvas en mariposas, o virus de laboratorio que producen verdaderas epidemias en determinados insectos o hierbas parásitas.

Todo esto está confinado hoy por hoy a los laboratorios de investigación por razones poco explicables. Es posible que en el futuro sean los países en vía de desarrollo, donde las condiciones para una intervención a nivel de gobiernos son más favorables, los que hagan un más rápido e interesante uso de estos descubrimientos de cuanto se ha hecho hasta ahora.

§. El cáncer y la bacteria
La posibilidad que con más ahínco se persigue es, sin duda, la de encontrar algún remedio en la lucha contra el cáncer. Entre los científicos que se ocupan del tema hay muchos que sostienen que estamos cerca de tan ansiada solución. En efecto, puede comprobarse una situación parecida a la que en los años sesenta acabó con la llegada del hombre a la Luna. Esa época fue el fruto del grado de madurez alcanzado por las tecnologías de los cohetes, de la electrónica y de los ordenadores, que constituyeron la base de esa gran conquista del hombre.

Hoy se tiene la impresión de que algo así va a suceder en lo referente al cáncer: la bioquímica, la biología molecular y la genética están a punto de alcanzar un punto en el que no hay que excluir la posibilidad de que «aparezca» el remedio definitivo contra el cáncer. Naturalmente, esto no quiere decir que se pueda vencer el cáncer en el curso de cinco o diez años. Estos procesos son, por lo general, muy largos: basta pensar que el descubrimiento de la penicilina, el primer antibiótico, tiene lugar en 1928, se introduce en el mercado en 1940 y hasta ahora no se considera que las bacterias están suficientemente bajo control, pero no aún de manera total ya que se sigue investigando y subsiste la necesidad de encontrar nuevos antibióticos, empresa nada fácil por cierto.

De todas maneras queda una gran esperanza nacida del descubrimiento del interferón, que ha abierto nuevos horizontes en la terapia del cáncer, dado origen a investigaciones que han descubierto «el mundo de las citoxinas». Antes de explicar de qué se trata conviene recordar en qué consiste un cáncer. Se trata, para entendernos, de algunas células del organismo que enloquecen y no respetan las «órdenes» que les llegan del resto del sistema. Las células cancerígenas crecen y se expanden según su propia lógica. A menudo acaban por entrar en la linfa y en la sangre y se difunden por todo el organismo. No es raro que se acumulen de manera tal que estropeen e impidan funcionar a órganos importantes del cuerpo. A veces dañan órganos vitales provocando la rápida muerte del paciente. Las células del cáncer crecen a expensas del tejido circundante al que le roban el alimento y el espacio.

Las causas del cáncer pueden ser muchas, provocadas por sustancias químicas, radiaciones y, en algunos casos, también por virus, como en el caso del resfriado. Es cosa sabida que hasta ahora bien poco se ha podido hacer contra los virus. Y aquí es donde aparece el interferón, a partir de una circunstancia puramente casual. En 1956 dos virólogos estaban estudiando en Inglaterra la gripe y la posibilidad de combatirla, cuando creyeron haber hecho un importante descubrimiento. Cada vez que un individuo era dañado por un virus se hacía inmune a todos los demás virus porque el cuerpo humano producía una sustancia especial que impedía el ataque de un nuevo virus y lo mantenía alejado de él.

Los dos científicos llamaron a esta sustancia «interferón», pero los demás científicos no creyeron en este descubrimiento y lo bautizaron, un poco despectivamente, como «misinterpretón» (mala interpretación de un fenómeno). En cualquier caso, las investigaciones prosiguieron y actualmente sólo en los Estados Unidos se gastan centenares de miles de millones al año en experimentos sobre los interferones y los compuestos del grupo de las citoxinas, a las que el interferón pertenece. En el mundo se habían comprobado ya más de cien casos de «remisión» de los tumores. Cien casos en los que la enfermedad ha dado marcha atrás.

Las grandes esperanzas que actualmente están puestas en el interferón derivan también de muchos experimentos coronados de relevantes éxitos. Por ejemplo, se le inoculó un virus a un cierto número de ratones; después de un tiempo fueron sacrificados y, a través de procedimientos muy complejos, se pudo extraer una pequeña cantidad del interferón que produjeron al estar expuestos a la acción de un virus. Este interferón se inyectó en otro grupo de ratas; posteriormente se pusieron juntos dos grupos de ratas, unas vacunadas con interferón y otras no, y se le inyectaron a todas el virus de la leucemia: todas las ratas no vacunadas murieron de leucemia, las ratas vacunadas sobrevivieron.

Así se obtuvo la deseada prueba: cuando un organismo es tratado con interferón, resulta inatacable por los virus. La confirmación de la actividad antiviral del interferón fue confirmada incluso en el hombre.

Durante algunos años la producción de interferón ha representado un problema de difícil solución, porque el método disponible preveía su obtención a partir de los glóbulos blancos de la sangre humana. En los inicios de dicha producción, para obtener 400 miligramos de interferón se precisaba tratar 45.000 kilogramos de sangre humana, aislando los glóbulos blancos tras ser estimulados por un virus para producir interferón.

Al ser, además, un producto obtenido con un bajo grado de pureza, su coste era de centenares de millones el gramo. El gran viraje en la producción de interferón y de todas las sustancias del grupo de las citoxinas y de las hormonas de crecimiento, que son producidas por la naturaleza en cantidades pequeñísimas e insuficientes para un empleo sostenido en el tratamiento de la enfermedad, llegó con las biotecnologías que han hecho posible el trasplante de los genes humanos encargados de la producción de estas sustancias en las bacterias. De este modo, las bacterias así «humanizadas» pueden ser inducidas a un crecimiento fácil, en grandes cantidades y a bajo coste, y constituir una fuente de interferón o de otras sustancias de origen humano, de interés científico e industrial.

A poco más de quince años del inicio de las aplicaciones industriales de las biotecnologías, muchas sustancias de origen humano se producen normalmente en las cantidades deseadas para su empleo sostenido en el cuidado de la salud. Pero aún pasarán muchos años más hasta su completo conocimiento.

También conviene llamar aquí la atención sobre el factor tiempo. Como hemos recordado anteriormente, el descubrimiento del interferón tuvo lugar en 1956, pero no se pudo disponer de él en cantidades industriales, masivas, hasta después de 1985: es decir, que pasaron treinta años desde el momento que se hizo el descubrimiento hasta el momento que sus resultados pudieron ponerse al alcance de todo el mundo. Tenemos que repetir lo que ya hemos dicho en otras ocasiones: la «industrialización» de los descubrimientos, incluso de los más importantes y más vitales, requiere siempre períodos de tiempo muy largos. Y eso no es todo: cuando se disponga de grandes cantidades de interferón, será probablemente al empezar a utilizarlo contra los virus; a partir de ese momento empezarán las experimentaciones en masa, se aprenderá a emplearlo, a asociarlo con otros hallazgos. Se aprenderá, en una palabra, a manejarlo. Por esta razón decíamos más arriba que la lucha contra los virus requerirá al menos unos cuarenta años antes de llegar a su fin: lo mismo sucedió en la batalla contra las bacterias y en otros tipos de lucha contra la enfermedad. En cualquier caso, es muy importante que el hombre empiece a disponer de algún arma contra los virus.

§. Biotecnologías e informática
Se puede concluir afirmando que son muchas las analogías entre la informática y las biotecnologías. Lo primero que salta a la vista es que ambas se han podido desarrollar gracias a los progresos conseguidos en otros campos. La informática sería impensable sin las investigaciones sobre el silicio, las matemáticas y la electrónica. Lo mismo puede decirse en lo que se refiere a las biotecnologías, que son hijas de las conquistas de la bioquímica, la biología molecular y la genética, sin olvidar la ayuda prestada por el cada vez más sofisticado instrumental puesto a disposición de los investigadores.

Obsérvese cómo estas avanzadas tecnologías «salen a la luz» únicamente tras un período de grandes descubrimientos científicos a la espalda. Pero las analogías no se acaban aquí. Tanto la biotecnología como la informática tienden a ser aplicables en muchos ámbitos y a contribuir a solucionar los más diversos problemas; por lo demás, los genes son por sí mismos portadores de información. En estos últimos años se intenta llegar a todos los genes del hombre con un programa denominado «el genoma humano», en el cual colaboran los mejores laboratorios de biología del mundo entero. El objetivo es conocer cómo operan y cuáles son las funciones asociadas a cada gen o grupos de gen, y finalmente aislar carencias o errores y hacer posible intervenir en ellos. Se comprende fácilmente hasta qué punto las biotecnologías pueden contribuir a afrontar muchos problemas, y sobre todo dos de los mayores de la humanidad: el hambre y la salud.

Es evidente la relación que guardan con la energía, lo que posibilita llegar a ver un día «cultivos energéticos», siguiendo los diversos caminos actualmente abiertos al estudio. Incluso es posible, evidente sin lugar a dudas, que las biotecnologías podrán revolucionar al cabo de unos decenios gran parte de la industria química, ya sea proporcionando productos absolutamente nuevos, ya sea poniendo a disposición de las empresas procesos más rápidos y menos costosos que los seguidos ahora.

Las biotecnologías, y especialmente las intervenciones genéticas, presentan todavía aspectos problemáticos y mucho más graves que los de la informática, porque mientras éstos implican información para hombres y mujeres, los primeros conciernen al mismo sistema informativo que la naturaleza ha dado a cada ser vivo, incluido el hombre. Las intervenciones pueden incidir sobre este mismo sistema reproductivo y la descendencia de una especie, modificando así la evolución natural. Se plantea, por tanto, un problema ético sobre la licitud de las biotecnologías que ha generado una nueva rama del saber: la «bioética». El problema es particularmente candente en el hombre, y es por eso que hoy se consideran éticamente aceptables la intervenciones genéticas si tienden a eliminar defectos peligrosos y si están claramente libres de consecuencias para el sistema reproductivo. La conclusión es que el hombre debe saber crear nuevas y cada vez más potentes tecnologías, sin olvidar su capacidad (política y social) de controlarlas.

D. Los Nuevos Materiales

La construcción del «segundo planeta» tal vez sería imposible sin la ayuda proveniente del descubrimiento y utilización de nuevos materiales. Para hacerse una idea es suficiente con pensar en tres argumentos:

  1. A partir de ahora habrá que poner en pie una enorme infraestructura (casas, escuelas, carreteras, hospitales), lo que requerirá una enorme cantidad de materiales.
  2. Se empieza a observar que muchos de los materiales que sirvieron para la construcción del «primer planeta», es decir el mundo actual, son escasos o se están agotando.
  3. En otro orden de cosas, se ha visto que el «segundo planeta» sólo será realizable con el concurso de nuevas y avanzadísimas tecnologías que requerirán la puesta a punto y la utilización de materiales de características muy diferentes a las de los actuales y, en algunos casos, impensables hoy.
Para afrontar semejante situación hay que tener presentes algunos aspectos, aparentemente banales, pero que con el tiempo irán cobrando importancia.
  1. Con los mismos elementos de base se conseguirá (ya se está haciendo) fabricar materiales mucho más resistentes y de mayor duración. Esto significa un progresivo descenso en el consumo de estos materiales. Y cuando se piensa en grandes cantidades el hecho de disponer de un acero que «resiste» más tiempo puede llegar a ser fundamental.
  2. El reciclaje: actualmente se recuperan muchos materiales usados que son reutilizados para nuevas aplicaciones. No cabe duda de que el futuro se seguirá haciendo aún a mayor escala. El aluminio, por ejemplo, es un material muy importante y muy abundante que, sin embargo, tiene el defecto de requerir para su fabricación muchísima energía eléctrica, que es la forma de energía más preciada (y más costosa) que existe sobre la Tierra. La recuperación y el reciclaje de los desechos del aluminio permite un consumo de energía muy bajo y esto, en un mundo que estará dominado por el problema de la energía, es muy importante.
  3. Se podrán unir materiales diversos a fin de obtener nuevos materiales de características adecuadas para sustituir los materiales escasos o para «crear» materiales dotados de particulares cualidades. En este terreno se pueden hacer (y en parte ya se están haciendo) cosas bastante insólitas. Piénsese en lo que está sucediendo con las materias plásticas asociadas a fibras de vidrio: se da vida a un material «compuesto» muy resistente que permite, ya hoy, hacer embarcaciones totalmente de plástico, de estructuras ligeras y muy resistentes.
  4. Se podrá conseguir un uso más extenso de los materiales cerámicos, que están hechos prácticamente de tierra y, por tanto, son inagotables por definición. Hoy por hoy los materiales cerámicos tienen el defecto de ser poco trabajables y sólo en condiciones muy particulares y especiales, pero se están llevando a cabo investigaciones para superar el problema y es posible que se llegue un día a disponer de materiales cerámicos trabajables como los metales. Desde nuestro punto de vista puede parecer una idea descabellada, pero no es así; en el pasado el hombre venció desafíos mucho más importantes. Recordemos lo que sucedió con el petróleo, del que en cierto modo se deriva toda la generación de las materias plásticas tan «lejanas» sin embargo del petróleo. O el caso del aluminio, que a pesar de ser uno de los materiales más abundantes de la Tierra escaseó durante mucho tiempo porque no se sabía cómo extraerlo y trabajarlo. Es difícil decir hoy si el desafío de la cerámica podrá superarse, pero es cierto que se está trabajando mucho en este sentido y que es muy probable que la cerámica sea uno de los materiales del futuro.

Otro de los materiales del «segundo planeta» será sin duda el plástico, que se presta a muchísimas aplicaciones y a muchísimas combinaciones con diversos materiales para obtener unas especiales características. A propósito de los materiales plásticos, que se extraen como se sabe del petróleo, surge la duda de si se acabará el petróleo algún día y, por ende, este importante material. Esta duda, sin embargo no tiene ningún fundamento, primero porque el petróleo para usos químicos casi con toda seguridad no llegará a faltar, y segundo porque se pueden obtener materias plásticas a partir de muchos otros materiales: partiendo por ejemplo, del carbón, se puede extraer el metanol y, por consiguiente, toda una química que es muy similar a la derivada del petróleo. También se puede partir de los desechos de la agricultura, que contienen carbono e hidrógeno, para crear una nueva química orgánica, no muy diferente de la actual.

§. Superaleaciones y superconductores
Cuando se piensa en el «segundo planeta» hay que hacer un gran esfuerzo de imaginación, en lo que se refiere a los materiales. En el futuro el hombre adoptará en una gran proporción materiales que hoy no son siquiera concebibles. Por otro lado no es la primera vez que sucede una cosa así. Cuando la humanidad aprendió a manejar un horno y, por tanto, a fundir el estaño con el cobre, creó el bronce que caracterizó durante muchísimos años una civilización que tomó su nombre del bronce. En los próximos decenios sucederá algo parecido. Son muchas las posibilidades que se están barajando cuidadosamente.

Superaleaciones. Son materiales metálicos que resisten temperaturas muy elevadas, incluso hasta los mil grados. Se trata de materiales de reciente obtención, utilizados para hacer las turbinas de los aviones. Poco a poco la industria los irá descubriendo y los adoptará, lo que posibilitará hacer reacciones a muy altas temperaturas y comportará, por tanto, la transformación de muchos procesos productivos.

Metales vítreos. A través de unos sofisticados procedimientos se pueden obtener metales con una estructura vidriosa (es preciso enfriarlos a una enorme velocidad: de miles de grados a cero en una pequeñísima fracción de segundo). Este procedimiento hace posible, por ejemplo, imanes de especiales características que permiten ahorrar mucha energía. Por el momento no está claro el uso que pueda hacerse de semejantes materiales (aparte de su empleo en la construcción de eficientes imanes), pero se tiene la sensación de que pueden abrir nuevas fronteras incluso como materiales estructurales. Mientras tanto se investiga con ahínco en ese campo. Otras aplicaciones se relacionan con materiales para dispositivos electrónicos y fotovoltaicos, materiales estructurales con diversas propiedades mecánicas y, para revestimientos, materiales con estructuras fuera de equilibrio.

Aleaciones magnéticas. Se han hecho aleaciones de cobalto y samario que se han revelado como imanes permanentes muy interesantes. Con estas aleaciones ha sido posible construir micro-motores eléctricos útiles en muchísimas aplicaciones. Antes del descubrimiento de estas aleaciones se usaban imanes permanentes menos potentes, como los de hierro, y antes aún no era posible hacer pequeños motores ya que era necesario utilizar imanes no permanentes y activarlos con circuitos de cobre muy complicados. El problema es éste: tanto el cobalto como el samario son materiales raros y costosos, pero se están experimentando nuevas aleaciones de idénticas características, pero más económicas.

Nuevos materiales. Cada vez se utilizan más materiales conocidos que hasta hace muy poco tiempo pertenecían al terreno de la curiosidad científica: el titanio, el circonio, el tungsteno, el molibdeno, el cadmio y el hafnio. El circonio, por ejemplo, se usa mucho en los reactores nucleares como elemento adecuado para construir los depósitos de combustible. También el cadmio y el hafnio tienen muchas aplicaciones en la tecnología nuclear. Se tiene la sensación de que con el avance de las nuevas tecnologías, materiales hasta ayer pasados por alto asuman una verdadera importancia gracias a sus características. Esto es precisamente lo que está sucediendo con el tungsteno, el molibdeno y el tantalio, muy usado en las actividades espaciales porque están dotados de grandes cualidades refractarias. Por último, hay un metal que podrá revelarse como una excelente alternativa al aluminio: el magnesio. Se trata de un metal muy abundante en la tierra. El problema es que hoy es más caro que el aluminio y que como él, requiere el uso previo de muchísima energía eléctrica. Los estudios en torno al magnesio siguen adelante y se piensa que en el curso de algunos decenios pueda tener un coste competitivo con el del aluminio. Pero la sustitución del aluminio por el magnesio tal vez ocurra antes.

Muchas de las investigaciones se centran en los materiales dieléctricos, capaces de almacenar grandes cantidades de energía sin dejarla transmitir. Hoy existen y son empleados materiales de este tipo, pero aún no se ha encontrado ninguno que no dañe al medio ambiente. Se utilizan sobre todo los bifenilos poli clorurados que generan tumores, si no se manipulan con cuidado, y que tienen una estructura molecular muy semejante a la dioxina. Sin duda tendrán que ser sustituidos, pero aún no se sabe bien con qué.

Pilas fotovoltaicas. Son las que permiten transformar la energía del sol en energía eléctrica. El material base de estas pilas es el silicio, que no tiene un gran rendimiento. Se ha descubierto que funciona mucho mejor el arseniuro de galio, pero desgraciadamente es un material que no existe en la naturaleza y cuya síntesis es carísima. Al ser cada vez mayor el número de aplicaciones solares será inevitable progresar en esta dirección. Casi con toda seguridad se encontrará algún nuevo material o algún nuevo compuesto capaz de proporcionar un gran rendimiento de transformación a un coste razonable.

Iluminación. También en este campo se están llevando a cabo muchas investigaciones. Por ejemplo, se han conseguido bombillas para uso corriente con rendimientos superiores al 50% en términos de conversión luminosa de la energía, contra rendimientos cerca de diez veces inferiores de las bombillas normales de ayer.

Superconductores. Son materiales que transportan energía sin oponer ninguna resistencia. Hasta hace pocos años tal propiedad se presentaba en ciertos metales y aleaciones a temperaturas próximas al cero absoluto, pero hoy se conocen cerámicas superconductoras a temperaturas apenas superiores a las del nitrógeno líquido (–196°C) y no se puede excluir que mañana lleguemos a superconductores a temperatura ambiente. En estas condiciones se superan las leyes normales de la electricidad. Se pueden hacer pasar por estos conductores altísimas corrientes sino que el material sufra y sin problema alguno de recalentamiento. Estos superconductores son muy importantes en todos los casos en los que es indispensable disponer de grandes campos magnéticos (que requieren altas corrientes). Principalmente son indispensables en la fusión nuclear, donde el plasma debe mantenerse aislado dentro de campos magnéticos. Los superconductores, en suma, son materiales que están abriendo nuevos horizontes, y el mismo uso de la electricidad podría cambiar sensiblemente.

Informática. También esta tecnología se está desarrollando en diferentes direcciones, sobre todo en lo referente a los sensores. Estos aparatos son capaces de transformar «señales» de diversa naturaleza en señales eléctricas, «manejables», pues, por los ingenios electrónicos y los ordenadores. Tienen sensibilidad a prácticamente todos los estímulos: la luz, los rayos infrarrojos, las pequeñas presiones, la humedad. Existen sensores capaces de registrar el impacto del aire desplazado por una persona o un objeto en movimiento y de transformarlo en un impulso eléctrico. Evidentemente que el progreso de las aplicaciones de la informática no hará sino estimular continuas investigaciones. Es fácil prever también grandes avances en este terreno.

Ordenadores. Lo dicho en relación a la informática vale también aquí. Se hacen computadoras cada vez más potentes y de dimensiones más y más reducidas. Además, se apunta hacia computadoras de las denominadas paralelas, en las que distintos microprocesadores, potentísimos y sofisticados, trabajan en paralelo con el fin de poder afrontar problemas de gran complejidad, al modo como lo hacen las neuronas de nuestro cerebro. Al mismo tiempo se están desarrollando ordenadores personales portátiles, de dimensiones y peso asimismo reducidos y progresivamente más potentes y poli funcionales.

Materiales biomedicinales. Hoy ya es posible sustituir con materiales artificiales muchos componentes del cuerpo humano, de la misma manera que es posible hacer aceptar al cuerpo muchos materiales extraños para él. Se están poniendo a punto materiales al mismo tiempo durables y biocompatibles para facilitar el trasplante de órganos como los pulmones o los riñones y efectuar importantes «reparaciones» en todo el sistema circulatorio. Pero esto, obviamente, es sólo el principio. Se trata de conseguir toda una generación de materiales biocompatibles, de modo que se puedan sustituir poco a poco las «piezas» humanas dañadas o que no funcionen perfectamente. Por ejemplo, están en estudio membranas «inteligentes» de plástico, capaces de efectuar un trabajo específico y selectivo, como la depuración de la sangre de suciedades y venenos.

Materiales en el espacio. Existe por último la posibilidad de crear materiales hoy por hoy ni siquiera imaginables. Se trata de aquellos materiales «construibles» en el espacio aprovechando el hecho de que fuera de la Tierra se puede trabajar con una fuerza de gravedad casi igual a cero. Las consecuencias de este hecho no se conocen todavía bien. Únicamente se puede elucubrar. Piénsese, por ejemplo, en la posibilidad de endurecer el aluminio con fibras de carbono: se tendría un material que sería al mismo tiempo muy ligero y resistente, hasta el punto de revolucionar toda la técnica de los materiales y su empleo. Hoy no es posible hacer esto en la Tierra porque no se puede alear el aluminio y las fibras de carbono, dados sus muy diferentes pesos específicos. Cuando se tiene el baño de aluminio fundido, las fibras de carbono flotan en él y no se mezclan. En el espacio, por el contrario esta aleación debería ser posible y, casi con toda seguridad, muchas otras cosas. Cosas que hoy no alcanzamos ni a imaginar.

De todo cuanto hemos someramente visto se deduce que los próximos cincuenta años verán una revolución no sólo de la tecnología, sino también de los materiales. Los dos fenómenos, entre otras cosas, no son independientes, pero sí condicionantes. La informática, por ejemplo, ha sido posible gracias a los progresos experimentados en la ciencia de los materiales. A su vez la informática, unida a los descubrimientos hechos en otros sectores, ha hecho posible la carrera del espacio. Y la carrera del espacio abre nuevas perspectivas a la ciencia de los materiales. Es algo así como una carrera de relevos: un descubrimiento posibilita el siguiente, y cada uno contribuye a ampliar el horizonte del hombre. Después de todo, siempre ha sido así.

E. Los Nuevos Espacios

El hombre ha buscado siempre nuevos espacios: partiendo de su aldea primitiva ha llegado a someter al planeta entero aunque, bien es verdad, muchas zonas están todavía por explotar debido a sus condiciones ambientales poco favorables a la vida o a instalaciones de carácter productivo. En los próximos años la situación no variará. Los nuevos espacios en los que el hombre se aventurará son: el espacio exterior a la atmósfera terrestre, el mar y las profundidades terrestres.

A propósito del mar cabe decir que es un tema interesante por dos motivos: la posibilidad de cultivar un poco de todo y los grandes yacimientos de materiales que contiene. En lo que se refiere al cultivo ya existe un precedente con las actuales «factorías» de peces y moluscos, pero esto es sólo el principio. Poco a poco se empieza tomar en serio esta posibilidad y en el futuro no hay que descartar el hecho de que se puedan seleccionar las especies, incluso vegetales, aptas para ser cultivadas en el mar. Ya se ha hablado, en un capítulo precedente, de la posibilidad de encontrar algas cultivables a fin de disponer de material energético (biomasas) del que extraer energía, proteínas y otros productos.

Hace unos años se hablaba incluso de la posibilidad de habitar el mar (se llevaron a cabo algunos experimentos), pero hoy parece ser que se ha abandonado definitivamente este camino. Por el contrario es bastante más interesante el mar como fuente de materiales. Desde hace al menos un centenar de años se sabe que en el fondo de los océanos (y de ciertos lagos) existen «nódulos» de minerales. Estos nódulos son particularmente ricos en manganeso, pero también contienen hierro, cobre, cobalto y otros minerales. El manganeso se utiliza mucho en la industria siderúrgica y sirve para producir aceros resistentes a los golpes y a la abrasión; en el fondo de los océanos se encuentra en cantidades colosales. Hasta ayer mismo no se había pensado nada en concreto en relación a estas reservas, pero en la actualidad se está empezando a explotar estos enormes yacimientos naturales que en total podrían alcanzar varios billones de toneladas. Las tecnologías que pueden permitir aprovechar estos nódulos existen ya y están todas al alcance del hombre. Si se está todavía en una primera fase y se avanza con prudencia, eso se debe a algunos graves problemas:

  1. El primero, muy simple, es sin embargo de enorme relieve: ¿de quién son los océanos? Según el derecho internacional no son de nadie. ¿Quiere decir esto que el primero que llegue puede llevarse los nódulos? ¿No será más correcto pensar que, al no ser de nadie, en realidad son de todos, un patrimonio colectivo? La cuestión la plantean sobre todo los países en vía de desarrollo que, al no disponer de las necesarias tecnologías para aprovechar los nódulos se preguntan por qué han de ser «saqueados» por los países más fuertes.
  2. Para extraer del mar estos nódulos se necesitan enormes inversiones y tecnologías muy complejas. Existe el riesgo de crear una estructura muy grande y muy centralizada mientras que el mundo camina hacia estructuras más ágiles y más al alcance del hombre. En una palabra, existe la posibilidad de que este frente mineral acabe en manos de cualquier opinión pública se inclina por limitar su poder, aunque, por otra parte, ¿quién sino las grandes empresas podrían asumir los costes de semejante operación?
  3. Finalmente es imprescindible actuar con mucho cuidado para no destruir el fondo del mar. Ahora bien si se ha de empezar por dragar el fondo antes de extraer los preciados nódulos polimetálicos, existe el riesgo de que el mar se deteriore, con los incalculables daños que eso significaría para la humanidad.

De cualquier modo no es difícil prever que antes o después se resolverán todos estos problemas y que podrá empezar a explotar la riqueza mineral de los océanos. El contenido de sus yacimientos es demasiado precioso como para dejarlo abandonado en las profundidades. Al contrario, está previsto que las empresas multinacionales se embarquen en proyectos comunes para iniciar la explotación de los minerales que guardan los océanos. Es de desear que entretanto se dicte alguna norma internacional que regule el fenómeno. En caso contrario se podría asistir a una carrera por los océanos más violenta y destructiva que la carrera por el oro que tuvo lugar el pasado siglo. Hace veinte años que las Naciones Unidas se ocupan de este problema y se han logrado asimismo progresos también el plano institucional para conciliar los diversos intereses y facilitar la transición entre las dos diferentes eras económicas, creando las bases para una correcta explotación de las profundidades marinas.

§. La tierra y el cielo
En lo que se refiere a las profundidades terrestres poco hay que decir. El hombre ha perforado siempre la superficie de la Tierra en su búsqueda de materiales que pudieran serle útiles. En la actualidad ha llegado a excavar hasta más de ocho kilómetros de profundidad; lo que no es mucho si se piensa en los 6.300 km del radio de la Tierra. Hay quien opina que convendría llegar a los treinta kilómetros para alcanzar nuevos yacimientos de materiales y nuevas fuentes de energía (sobre todo las derivadas del calor interno del planeta). Los proyectos son atractivos pero no parece que hoy por hoy haya mucho interés por llevarlos a cabo.

Mucho más fantástica y cautivante es, por el contrario, la aventura espacial. En el espacio son posibles dos cosas:

— Hallar nuevos materiales o nuevos yacimientos de viejos materiales.

— Encontrar nuevas fuentes de energía.

En lo que se refiere a los nuevos materiales, digamos que están en estudio proyectos muy ingeniosos. Un primer grupo se relaciona con algo de lo que ya hemos hablado: la posibilidad de producir en el espacio nuevas aleaciones y materiales desconocidos en la Tierra. Pero existe un segundo grupo de proyectos que tiene que ver con los asteroides. El espacio está lleno de pequeñísimos planetas que, por lo general, son bloques compactos de materiales útiles para nosotros (hierro, por ejemplo). Actualmente se está pensando en cómo aprehenderlos para transportarlos después a una «base» (que podría ser la Luna) por medio de cohetes, y explotar allí sus riquezas. Parecen cosas de ciencia-ficción, pero no es así. Un pequeño planeta de un kilómetro cuadrado (un grano de arena en medio del universo) puede contener de 7 a 8 mil millones de toneladas de hierro. Si fuera posible aprehenderlo y llevarlo a la Luna, se dispondría de una enorme mina de metal. Si además se tiene en cuenta el hecho de que en el espacio, al no haber gravedad, se puede trabajar con estructuras muy ligeras, se deduce que un planeta de un kilómetro cuadrado podría proporcionar el material necesario para construir en el espacio una civilización entera.

Desde el punto de vista técnico, esta empresa no desborda las posibilidades del hombre y parece ser realizable ya sea empleando medios completamente automáticos o enviando astronaves con equipos humanos a bordo. Obviamente no se trata de proyectos realizables de inmediato, sino que entran en el terreno de lo que quizá sea posible hacer en el transcurso de los próximos cincuenta años.

El cielo como fuente de energía es objeto de muchos estudios y de muchos proyectos. El más fantástico prevé que los grandes satélites solares fotovoltaicos, de los que nos hemos ocupado más arriba, se lleguen a construir en la Luna, donde la gravedad es mucho menor que en la Tierra, lo que permite la construcción de estructuras «híper ligeras», para después ponerlos en órbita geoestacionaria alrededor del ecuador.

De lo hasta aquí expuesto se extrae la conclusión, correcta sin duda, de que el espacio no es ya únicamente un territorio apto para estimular la fantasía de las gentes: año tras año se está transformando en una zona para la que están en estudio proyectos cada vez más concretos y usos cada vez más «terrestres».

Capítulo V
A dónde va el planeta (desde hoy al año 2050)

Contenido:
A. El planeta de Marchetti
B. El punto de vista hard
C. El punto de vista soft
D. Un punto de vista sobrio, pero no utópico

En los capítulos precedentes hemos visto cuáles son las condiciones en las que se encuentra el planeta y cuáles son los problemas que se deberán afrontar y superar en los próximos decenios. Si se concretan en unos pocos puntos podemos tener una especie de breve guía:

  1. La población está destinada a duplicarse en el curso de los próximos cincuenta años. Nadie podrá impedir este proceso. Por consiguiente, la Tierra será invadida por un auténtico «segundo planeta», en lo que se refiere al número de habitantes, al que habrá que proporcionar casas, trabajo, alimentos, energía y las demás cosas que dignifican la vida del hombre.
  2. Paralelamente, la reserva energética más conocida y tradicional, y también la más cómoda, el petróleo, está a punto de acabarse, sin que el hombre, como había ocurrido siempre en el pasado, tenga a su disposición una nueva fuente con la que nutrir su desarrollo. La Tierra se halla frente a lo que suele definirse como el problema de la «transición cuesta arriba»: debe, pues, encontrar la manera de adaptarse a las nuevas condiciones, impidiendo entretanto la degradación de la vida y de la convivencia ciudadana.
  3. Para llevar a cabo todo esto el hombre sólo puede contar con las reservas provenientes de cinco distintas revoluciones tecnológicas, los nuevos materiales y los nuevos espacios. Cada una de ellas puede facilitar, en diversa medida y en conjunción con las demás, la tarea de recorrer los próximos cincuenta años. Todas estas tecnologías presentan diferentes dificultades. Es difícil, sobre todo, mantenerlas interrelacionadas de modo que los diversos avances, en una u otra tecnología, se estructuren orgánicamente.

En particular, salta a la vista que el problema más grave es el de la energía. Si se pudiera disponer de grandes cantidades sería bastante fácil sortear los obstáculos, pero precisamente la energía es hoy uno de los terrenos más marcados por la incertidumbre. Algunas tecnologías, como la nuclear, podrían resolver los problemas frente a los que se encuentra la humanidad, sin embargo existe una gran hostilidad a que sea utilizada e incluso los ambientes más responsables manifiestan una cierta cautela, debida a los riesgos que comportan las centrales nucleares, aun en el caso de que se tomaran las medidas de seguridad necesarias. Por otra parte, algunas tecnologías, como las solares, no están aún preparadas para satisfacer las crecientes y urgentes necesidades de energía de la población mundial.

Ésta es la razón por la que en las páginas siguientes nos ocuparemos preferentemente del tema de la energía. Reseñaremos las maneras y las técnicas con las que el hombre cuenta, sobre la base de estudios y previsiones fiables, para afrontar los próximos cincuenta años. Resultará evidente, tras la descripción de las diversas posibilidades, que la energía condicionará la vida del hombre en el transcurso de este período de tiempo.

Si no se puede disponer de ella en cantidades suficientes, el mundo que quede excluido de su uso será aún más injusto y violento que el actual. Parece absurdo que haya tantas cosas que dependan de unos barriles de petróleo o de unos vagones de carbón más o menos, pero esto se debe a la poca atención que se prestó al problema en el pasado. El mundo actual es consecuencia lógica de un tiempo pasado en el que sí se podía contar con abundantes e incesantes reservas de energías. El hecho de que haya que afrontar ahora este problema, que nunca se había planteado en el pasado, coloca todas las cuestiones referentes a la vida del hombre en una dimensión diferente y en una perspectiva insólita. Insólita pero no por eso menos real.

A. El planeta de Marchetti

Una aproximación interesante, aunque por muchos motivos paradójica, al estudio del futuro es la desarrollada hace algunos años por Cesare Marchetti, físico italiano que trabaja en el Instituto Internacional para las Aplicaciones de los Análisis de Sistemas (II ASA) de Viena. El valor de esta aproximación es más que nada un juego, pero un juego muy serio, una especie de provocación pura y simple a los que profetizan catástrofes y creen insoluble el problema del aumento de la población.

Marchetti, que es un ingenio vivaz y no convencional, no parte, como hacen muchos otros, de las condiciones actuales para prever después lo que podrá suceder dentro de cincuenta años. En sus estudios pone patas arriba este planteamiento para sustituirlo por el que en América se llamaría «la demanda de un millón de dólares»: ¿cuánta gente puede vivir en la superficie de la Tierra sin que ésta se deteriore hasta resultar inhabitable?

Para responder la cuestión, Marchetti parte de la premisa de que el único límite está en la producción de energía: si se produjera demasiada, al final la Tierra acabaría por ponerse al rojo vivo a causa del calor por ella producido. Tras algunos cálculos termodinámicos relativamente sencillos, que no creemos necesario reproducir aquí, llega a la conclusión de que, en determinadas condiciones y bajo riguroso control, la Tierra puede llegar a asumir una producción de energía unas 1.250 veces mayor que la actual. Esto significa, según los cálculos de Marchetti, que en el planeta hay sitio no sólo para diez mil millones de personas, sino para un billón. Cada una de ellas, por otro lado, podría disponer de cinco veces más de energía de la que dispone hoy un habitante medio de la Tierra.

El mundo de Marchetti, es, por tanto, un mundo poblado hasta lo inverosímil, pero no pobre. Todo lo contrario, la gente tendría más reservas energéticas de las que nunca hubiera soñado.

El escenario que nos muestra no es el de la pobreza, sino el de la abundancia, y esto con una población doscientas veces superior a la actual. La Tierra podría alcanzar el billón de habitantes si no se interrumpe el actual ritmo de crecimiento en el curso de unos trescientos años, es decir, hacia el año 2300. Pero no es esto de lo que se ocupa Marchetti, convencido como muchos otros investigadores de que no se llegará nunca a una cifra tan elevada. Lo que a él le interesa demostrar es que, «si esto sucediera», el mundo podría sobrevivir sin excesivas dificultades.

La premisa de la que parte es que el hombre no es ni un enemigo de la ciudad ni un amigo del campo por disposición natural. Bien al contrario, apenas ha podido ha abandonado el campo y se ha dirigido a la ciudad, cada vez más grande y cada vez más agitada. En suma, el hombre es ante todo un animal urbano. La «calidad de la vida» no consiste, pues, en un retorno a la civilización campesina, como hoy muchos creen, sino en todo lo contrario. A Marchetti, apoyado en estas observaciones, no le dan miedo las ciudades.

Es evidente que las ciudades abundan en el planeta. ¿Dónde vivirá un billón de personas? Desde luego sería imposible que vivieran todas en la Tierra. Según sus cálculos sólo un tercio, alrededor de trescientos treinta mil millones, podría habitar en ciudades situadas en la superficie de la Tierra. En realidad, se trataría de una sola ciudad, llamada Ecumenópolis, nacida de la fusión de las diversas megalópolis que a su vez son aglomeraciones urbanas contiguas, de las que ya se ven los primeros brotes: el área comprendida entre Boston, Nueva York y Washington se la conoce con el nombre de «Boswash», la de Chicago o Pittsburgh a través de Illinois, «Chipias», y la costa californiana de San Francisco a San Diego «Sansan». No hay que ir tan lejos para pensar en las megalópolis: basta echar un vistazo a la cuenca del Ruhr, o al triángulo industrial italiano, para el que se podría acuñar el nombre, no demasiado alegre, de «Gemido»...

Excepto las zonas inaccesibles o inadecuadas para albergar ciudades, toda la superficie de la Tierra estaría cubierta de construcciones muy verticales, que llegarían a constituir una única aglomeración urbana. En esta Ecumenópolis habría una densidad de dos mil habitantes por kilómetro cuadrado, algo así como casi diez veces la media actual italiana. Estas ciudades contarían con un techo común capaz de cobijar a varios millones de habitantes y en su interior el clima estaría regulado por medio de los más modernos y sofisticados sistemas.

Los otros dos tercios de la población mundial, alrededor de setecientos mil millones de personas, vivirían en ciudades construidas sobre el mar. Éstas, a diferencia de las terrestres, serían ciudades de desarrollo fundamentalmente horizontal. Por lo demás, serían muy parecidas a las otras. En ellas se podría trabajar, vivir, habitar, instruirse, viajar y divertirse. Algunos investigadores que viajan alrededor del mundo están proyectando ciudades de este tipo, empresa que parece bastante factible.

Marchetti sostiene que su planeta, concebido para un billón de personas, es realizable, a partir de las tecnologías ya hoy conocidas y controladas por el hombre. No precisa de futuros descubrimientos o de ulteriores puestas a punto de procesos y hallazgos científicos. Ahora bien, admitido que el aumento de la población es posible, cabe dilucidar cómo se nutrirá. Aquí Marchetti da un salto decisivo: todos los alimentos serán sintéticos. Colonias de bacterias alimentadas con hidrógeno, hidrocarburos y celulosa, proporcionarán el alimento necesario. La agricultura tradicional se mantendrá, en pequeña escala, exactamente igual que hoy se mantiene vivo todo el sistema estético-cultural, pero, desde luego, sin que se piense en ella para solucionar el problema del hambre en el mundo.

Es obvio que un crecimiento tan enorme de la población requerirá el despliegue de una cantidad colosal de materiales. ¿Qué se puede hacer en este sentido? También aquí Marchetti nos da una respuesta convincente: el hombre utilizará los materiales que más abunden en la Tierra sin preocuparse si eso conlleva el consumo de gigantescas cantidades de energía. En sus estudios parte de la premisa de que ésta será una sociedad donde abundará la energía (cada individuo podrá disponer de cinco veces más de la que dispone en la actualidad), que ya no será un problema.

La energía también está llamada a resolver la cuestión del agua, una materia que escaseará dentro de veinte años. Marchetti prevé una especie de «circuito cerrado» del agua que deberá ser reciclada y limpiada. También será posible desalinizar el agua del mar y aparatos especiales recogerán el agua de las lluvias para potabilizarla posteriormente. Si a pesar de esto aún faltara agua, podría producirse toda cuanta se quisiera quemando hidrógeno, que se produciría en los reactores nucleares.

El transporte de personas y cosas se haría por medio de vagones que circularían a través de conductos suspendidos en el vacío y no tendrían que vencer ningún roce ya que funcionarían a base de suspensión magnética. Esto en lo que se refiere a las distancias largas: las distancias medias o cortas se cubrirían con los sistemas tradicionales aunque, eso sí, modificados y mejorados.

Queda por saber de dónde procederá la energía que necesitará este pobladísimo planeta. Marchetti no tiene ninguna duda al respecto: la solución estará en las centrales nucleares, normales o auto fertilizantes. También en este caso se trata de tecnologías conocidas y experimentadas. Según sus cálculos no habrá ninguna necesidad de contar con las centrales de fusión nuclear. Este mundo podrá funcionar perfectamente con las centrales nucleares normales a base de uranio. ¿Y de dónde se sacará el uranio necesario para proveer de energía a un billón de personas? Del mar, responde Marchetti. Se ha calculado que en el mar existe tanto uranio como para asegurar la autosuficiencia energética a un mundo de un billón de personas al menos durante mil años. En este período de tiempo la humanidad estará capacitada para aprovechar sin dificultad cualquier otra fuente de energía. La fusión nuclear, sin ir más lejos. O la energía solar. Sin contar que, en teoría, no sólo el uranio, sino otros elementos pesados pueden ser usados como combustibles en las centrales a base de fisión. Se tratará de disponer, al principio, de grandes cantidades de energía para producir la reacción. Sin embargo, a fin de cuentas y como hemos visto, éste será un mundo donde la energía no faltará.

¿Qué se puede decir de este desafío de Cesare Marchetti? Que alcanza la meta que se había propuesto. Demuestra que el límite de la población mundial no es técnico, sino político, social y cultural. Si surgen dudas, y surgen, no es en relación a sus cálculos, sino ante la posibilidad de que el hombre consiga «mantener unida» una humanidad de un billón de personas apoyado en un sistema técnico tan complejo y tan compacto, casi orgánico. Lo que hay de cierto en todo esto se verá en los siguientes apartados, cuando se examinen algunos planteamientos sobre bases reales, algunos métodos estudiados para hacer sobrevivir no a un billón de personas sino sólo diez mil millones.

B. El Punto de Vista hard

Este estudio se debe a dos investigadores alemanes, Wolf Häfele y Wolfang Sassin que trabajan también en el Instituto Internacional de Viena, al igual que Cesare Marchetti. La premisa de la que parten es muy simple pero correcta. En 1975 el mundo contaba en total con cuatro mil millones de habitantes y consumía el equivalente de seis mil millones de toneladas de petróleo. Veamos ahora, dicen, que sucedería en un mundo poblado por ocho mil millones de habitantes, los que habrá en el año 2030, en el que no deseamos que sea preciso un régimen de austeridad energético. Todo lo contrario, sumamos como hipótesis que los países que actualmente consumen poca energía puedan aumentar sensiblemente sus respectivos consumos. Llegaríamos así aun consumo global de energía equivalente a 26 mil millones de toneladas de petróleo. En resumen: la población se duplicaría mientras el consumo de energía aumentaría casi cuatro veces. Esto significa que el mundo no tendría por qué apretarse el cinturón: los habitantes de los Estados Unidos, que actualmente consumen 8,5 toneladas de petróleo-equivalente por cabeza podrían aumentar su consumo per capitel en cerca del 50%. Los habitantes de las zonas más pobres de África y Asia del Sur, que hoy consumen cada uno menos de un tercio de tonelada de petróleo-equivalente al año, podrían alcanzar la tonelada aumentando su consumo en un 200%.

Según cómo se mire se trata de un planteamiento correcto desde el punto de vista social: los países pobres crecen, proporcionalmente, más que los ricos. Si no sucede lo contrario se debe únicamente a que los países ricos parten de una «base» más alta. Este planteamiento excluye, vale la pena repetirlo, cualquier hipótesis de austeridad: el mundo debe tener la posibilidad de crecer.

La premisa, como puede verse, es sin duda interesante. Ahora se trata de saber de dónde se pueden sacar estos veintiséis mil millones de toneladas de petróleo-equivalente. Todo está previsto: quince procederían de la conversión de la energía nuclear (ya veremos de qué manera) y el resto del conjunto de fuentes tradicionales (gas, carbón, petróleo) y nuevas (biomasas, energía solar y el viento), sin olvidar, obviamente, la energía de procedencia hidroeléctrica, que podría llegar a casi mil millones y medio de toneladas equivalentes de petróleo.

Hilando más fino se observan los siguientes elementos:

  1. Siete mil millones y medio de toneladas equivalentes de petróleo sería la contribución de la energía eléctrica obtenida a través de las centrales nucleares tradicionales, que funcionan con uranio y estarían situadas normalmente en los países que las utilizan. Esto significa alrededor de tres mil reactores nucleares frente a los cuatrocientos actuales. Se produciría pues un aumento de unas diez veces respecto a la situación actual en lo que se refiere al número de reactores convencionales en funcionamiento.
  2. Otros siete mil millones y medio de toneladas equivalentes de petróleo los proporcionaría el metanol, un alcohol capaz de sustituir por completo a la gasolina, pero que se diferencia de ésta por su contenido energético de cerca del cincuenta por ciento, que se obtendría en «islas energéticas» muy alejadas y fuertemente custodiadas. Cada una de estas islas, cuyo número se podría limitar en diez, debería producir cada año casi dos mil millones de toneladas de metanol. ¿De qué manera? Reactores nucleares auto fertilizantes producirían calor a alta temperatura, que serviría para transformar el carbón en metanol. Este metanol se llevaría posteriormente a los lugares donde se fuera a consumir, para ser utilizado en centrales eléctricas o para ser quemado directamente, por ejemplo como carburante para automóviles. Cada una de estas islas funcionaría con un millar de reactores. De este modo se pondría en marcha una economía dependiente en gran medida del plutonio de los reactores auto fertilizantes, pero se conseguiría la ventaja de mantenerlos alejados y bien guardados. El plutonio no tendría que ir dando vueltas por el mundo y, por tanto, no daría lugar a problemas de carácter nuclear. El sistema, además, sería «colectivo» desde un principio, dado que estas diez islas tendrían como accionistas a todas las potencias del mundo. Ningún país sería el «patrón» de una isla. En resumen, se iría al encuentro del plutonio porque, si bien se piensa, no puede ser de otra manera, aunque, como contrapartida, estaría en un «circuito protegido» y totalmente aislado del resto del mundo.
  3. Las restantes once mil millones de toneladas equivalentes de petróleo se producirían de la siguiente manera: alrededor de tres mil millones y medio a partir de combustibles fósiles (gas, petróleo y carbón), uno y medio recurriendo a la energía hidroeléctrica y los otros seis por medio de las energías renovables (biomasas, sol y viento).

Lo más destacable de esta fórmula es el alejamiento de las tecnologías «duras» y el empleo del metanol como vehículo energético. El metanol es fácil de transportar y, aunque es tóxico (si se inhala o ingiere) se presta a una gran variedad de aplicaciones tanto directas como indirectas, incluida la petroquímica.

¿Es todo tan sencillo como parece? No exactamente. Las objeciones que se pueden hacer a este planteamiento son varias y de peso. Recordemos que este planteamiento permite al mundo seguir creciendo como lo ha hecho hasta ahora. Las hipótesis menos optimistas (y ya se verá que es indispensable tenerlas en cuenta) comportan que la gente se adapte a una mayor dosis de austeridad o bien a una creciente injusticia social. Pero si se quiere vivir como se ha vivido hasta ahora y sin aumentar el número de injusticias sociales, el esquema propuesto por los dos investigadores alemanes es el mejor que se pueda inventar, aunque desgraciadamente roza la locura.

  1. El sistema comporta una apuesta en favor de la energía nuclear totalmente descabellada. Ni siquiera al más ferviente defensor de las centrales nucleares se le habría ocurrido proponer la instalación de trece mil reactores nucleares, de los cuales las tres cuartas partes serían auto fertilizantes, es decir funcionarían a base de plutonio, frente a los cuatrocientos actuales todos del tipo convencional, es decir, no auto fertilizantes. Hasta hace muy poco se pensaba que las centrales nucleares deberían ser un puente hacía las energías renovables (solar o fusión nuclear). Por el contrario, en este caso la preferencia por la fisión nuclear llega al punto de ser la principal, hasta convertirse en algo de lo que será muy difícil liberar al mundo, tal y como hoy sucede con el petróleo, pero en condiciones aún más severas que las actuales. Tampoco la perspectiva de la fusión nuclear propuesta en este esquema logra demostrar que con los conocimientos científicos y la capacidad tecnológica que ya hoy están al alcance de la mano sea posible ofrecer al mundo toda la energía que necesitará en los próximos siglos.
  2. Por otro lado, no hay que olvidar el enorme tráfico de carbón y metanol que habría en el mundo. Si se compara la pequeña cantidad de carbón que actualmente se transporta a través del océano y las enormes cantidades que, según este esquema, deberían transportarse desde los lugares de origen a las islas energéticas, para ser transformadas en metanol, que habría que enviar a su vez a los países consumidores y si se tiene en cuenta el hecho de que el metanol, a igual capacidad de combustión, ocupa el doble del espacio ocupado por el petróleo, se llega a la conclusión de que el tráfico marítimo, sólo para cubrir las necesidades energéticas, se multiplicaría al menos veinte veces respecto a su densidad actual. Tanto esto como la multiplicación de las centrales nucleares nos deja bastante perplejos. El mundo, después de todo, no se puede cambiar. El tráfico marítimo y en particular el del petróleo suscita ya hoy muchas prevenciones y muchos problemas: incrementarlos veinte o más veces no es una empresa que se pueda afrentar así como así.
  3. Pero aún quedan por examinar aspectos más importantes que éstos si cabe. Nos referimos a los componentes socio-políticos de este esquema. Está claro que se trata de un modelo muy centralizador y ambiguo. Más o menos viene a decir: tu vida no cambiará. Podrás seguir viviendo donde vives y haciendo el trabajo que haces, no te faltará nunca la energía. Y, en efecto, en las grandes ciudades la vida, aparentemente, no cambiará. Por todas partes, en Groenlandia, en los polos, en los océanos habrá doscientas mil personas encargadas de custodiar las islas energéticas, productoras de una parte determinante de la energía consumida en el planeta. Tendrán sus dotaciones de misiles, de barcos y de submarinos para salvaguardar instalaciones tan estratégicas e importantes para el mundo. ¿Al mando de quién estará esté enorme aparato bélico-energético? No está claro. Su funcionamiento presupone, en efecto, una «mano de hierro internacional» capaz de mantener el orden a toda costa y en todas partes. No es agradable decirlo, pero los autores de este plan energético, que proponen una solución capaz de no alterar los actuales estilos de vida de los países industrializados, la actual manera de producir y de organizar la sociedad, gracias a la disponibilidad prácticamente ilimitada de la energía, han demostrado exactamente lo contrario de lo que querían demostrar. En resumidas cuentas, mientras se ofrece al mundo la posibilidad de continuar viviendo como antes e incluso mejor (los países tendrían proporcionalmente más energía), en realidad se cambian las reglas del juego mundial y el esquema de las relaciones entre las diversas potencias. Los poderosos llegarían a ser poderosísimos y los pobres verían su poder reducido a cero: y, por desgracia, las objeciones no se acaban aquí.
  4. El sistema está proyectado con la idea de utilizar todo el uranio del que dispone el mundo. Se partiría de una gran dotación de reactores nucleares convencionales de base agua ligera, para pasar más tarde a una fase donde primarían los reactores auto fertilizantes.

Y, aquí, precisamente, aparece otro de los puntos oscuros de este estudio. Se empieza afirmando que los reactores de plutonio estarían alejados y custodiados para impedir que el plutonio circule libremente. Después se descubre que el sistema necesita un centenar de instalaciones de «reelaboración» del combustible nuclear irradiado para separar de éste el plutonio, y que cada una de estas instalaciones debería disponer de seis o siete depósitos de combustible irradiado. Todo esto sería francamente difícil de alejar de manera similar a los reactores auto fertilizantes, pues estaría por medio el problema del almacenamiento y transporte del combustible irradiado proveniente de los reactores nucleares convencionales no alejados. Así pues, podría parecer puro masoquismo proceder a alejar los reactores de plutonio, que acabarían fatalmente por difundirse en los países consumidores de energía. Para estos países, sin duda sería más sencillo obtener energía eléctrica, y eventualmente hidrógeno, de zonas de producción más cercanas y no tener que recurrir a un sistema tan complejo e intrincado como la conversión del carbón en metanol utilizando la energía de los reactores nucleares.

En resumen, el esquema propuesto por los dos investigadores alemanes a la larga, o quizás antes, serviría para implantar en el mundo un sistema energético en el que la fuente principal estaría constituida por un millar de reactores plutonio. Ahora bien, y vale la pena insistir en ello, si se parte de la premisa de que la gente quiera vivir siempre como vive hoy y sin cambiar su estilo de vida, quizá no haya sistema más sensato para contentarla. Las consecuencias son evidentes: si no cambia el modo de vida y se reduce el consumo, se llegará por inercia a un mundo poblado por diez mil reactores de plutonio y sin duda lamentablemente totalitario. Es una dura conclusión sobre la cual vale la pena reflexionar concienzudamente.

C. El punto de Vista soft

¿Es posible pensar en algún otro plan para los años que quedan hasta llegar al 2030? ¿Un plan que no lleve a la Tierra a un modo de vida abiertamente inaceptable? Muchos han sido los que han intentado dar una respuesta convincente a estas preguntas. Entre ellos se cuenta el joven físico americano Amory Lovins, considerado como el gran paladín de las tecnologías energéticas suaves.

El modelo energético propuesto por Lovins tiene dos vertientes inseparables: una tecno-económica, la otra socio-política. Lovins critica el hecho de que las políticas energéticas que se han adoptado hasta el presente a nivel mundial hayan seguido el sendero de las «energías duras», caracterizadas por instalaciones de producción y distribución centralizadas y, por consiguiente, vulnerables, y que se haya alentado excesivamente el aumento del consumo energético, en particular el de la electricidad. La actual tendencia hacia centrales a base de carbón y nucleares pone en primer plano las molestias y vulnerabilidad ligadas al uso indiscriminado de tecnologías hostiles al hombre y al ambiente, y crea las premisas para una posterior concentración del poder político y económico, debido a la concentración de la población en las áreas urbanas y al desmesurado crecimiento de la burocracia. La consecuencia inevitable es, según Lovins, un peligroso empobrecimiento intelectual, cultural y espiritual. Los reactores nucleares auto fertilizantes son, a juicio de Lovins, el símbolo de un modelo de desarrollo alienante que puede poner en peligro la paz en el mundo.

¿Qué propone Lovins como alternativa al modelo «duro» imaginado por Häfele y Sassin? Un sistema energético basado en energías suaves y renovables, como el sol, el viento y las biomasas vegetales. Estas fuentes energéticas no deberían explotarse según Lovins, a través de grandes instalaciones centralizadas, sino por medio de pequeñas unidades descentralizadas, donde la producción de energía útil esté cerca de los lugares de donde se extrae la materia prima, para que el conjunto sea así menos vulnerable y esté menos expuesto a los riesgos derivados de conflictos militares o sociales. La transición del actual sistema energético «duro» al «suave» requeriría según Lovins cincuenta años, desde el momento en que el modelo suave pudiera ir adelante por sí mismo, siendo a la larga los dos modelos incompatibles entre sí.

Según este modelo, la descentralización de la producción y distribución de energía implicaría de hecho sistemas de poder económico y político a la medida del hombre, caracterizados por una mayor libertad y justicia. La solidaridad a nivel de la comunidad humana pasaría a ser la regla general de comportamiento y favorecería un estilo de vida más frugal, más apoyado en los valores intelectuales, culturales y espirituales respecto a la actual tendencia consumista.

Según Lovins, esto conduciría a una drástica reducción de la demanda de energía, en particular en los países industrializados, de forma que el mundo del año 2030 podría albergar a ocho mil millones de habitantes con un consumo global igual o tal vez inferior a los siete mil millones de toneladas de petróleo-equivalente de 1980. El modelo de Lovins se basa en la consideración de que una importante fracción de energía se consume, en los países industrializados, en forma de calor a temperatura relativamente baja, para el calentamiento y acondicionamiento del aire en los edificios, y que la adopción de las modernas prácticas de aislamiento térmico y de solarización «pasiva» reducirían en gran medida tal consumo.

De lo expuesto se deduce fácilmente que las energías suaves pueden contribuir a la realización de objetivos socio-políticos, y que a su vez estos objetivos representan el punto central de la idea de Lovins.

En cierto modo, el asociar tan decididamente la idea de modelo energético «suave» a objetivos más generales de tipo socio-político parece algo forzado, del mismo modo que parece al menos discutible que sea posible una transformación tan radical y rápida de todas las estructuras económicas, tecnológicas y sociales en la escala de valores y de la organización del trabajo. Por otro lado, si es posible y razonable ahorrar mucha energía en lo que se refiere a los usos domésticos y civiles, parece bastante más difícil conseguir un ahorro igual de sustancioso en el sector industrial, donde las tasas de consumo energético han sido cada vez mayores.

Estos razonamientos nos llevan a la conclusión de que la demanda de energía será mucho mayor de lo que ha previsto Lovins, y que difícilmente las energías renovables y las tecnologías soft podrán por sí solas satisfacer las necesidades energéticas globales.

Pero las críticas al modelo de Lovins no se acaban aquí: ponemos también en duda la validez de la ecuación: energías bandas y sistema energético descentralizado igual a sistema de poder a nivel político-económico descentralizado y mayor autonomía decisoria de cada individuo. En efecto, con el actual sistema, basado en la producción y distribución de energía eléctrica por parte de los electro productores centralizados, cada cual tiene el derecho de disponer, para sus usos domésticos o para sus actividades productivas, de la energía que necesite, y los electro productores tienen el deber de proporcionar el servicio-energía de la mejor manera posible. En otras palabras, un sistema energético interconectado y centralizado permite el máximo poder decisorio descentralizado. Por el contrario, el abandono gradual de los sistemas energéticos centralizados, en la hipótesis de que las energías suaves producidas a nivel local estén en disposición de satisfacer la demanda, expone al riesgo, más que probable, de que en condiciones de insuficiente producción de energía, se deba recurrir al racionamiento de la energía producida centralmente, y los criterios de este racionamiento estarían esencialmente en manos del poder político central. Por consiguiente, no hay que destacar la hipótesis de que, al menos durante un largo período de transición, el modelo de Lovins dé lugar a un aumento del poder de decisión central y a la reducción del grado de libertad del individuo.

La sociedad imaginada por Lovins es de tipo participativo. lo que significa una increíble extensión de los pequeños trabajos individuales (bricolaje) y de la capacidad de manutención, reparación y actividad técnica de cada ciudadano. Pero si un cabeza de familia o una comunidad rural decide no instalar el conjunto de paneles solares, molinos de viento, generadores de biogás, y otros similares, que permiten la producción de energía a base de fuentes renovables con tecnologías suaves y descentradas, ¿qué sucede? Es difícil de creer que un país pueda dejar a la iniciativa de los individuos y de los pequeños grupos la producción de un factor tan esencial como la energía. Lo que Lovins parece ignorar al proponer un modelo «blando» y tan severamente alternativo al modelo «duro» es que la eliminación de las instalaciones energéticas centralizadas, incluso las de carbón o nucleares, conduce a una gran probabilidad de intervención desde arriba para repartir, según discutibles criterios, una cantidad de energía centralizada cada vez más escasa. Y esto puede significar no descentralización, sino progresiva reducción del poder de decisión de cada individuo y un cada vez mayor control de sus acciones.

Por todos estos motivos un modelo tan ingenuo como el de Lovins, aunque atrayente a primera vista, se revela como intrínsecamente frágil y poco convincente.

D. Un Punto de Vista sobrio, pero no utópico

En un intento de conciliar posturas opuestas, desechando tanto los modelos híper duros de Häfele-Sassin, como las utópicas propuestas blandas de Lovins. Colombo y Bernardini, en un estudio preparado para la Comunidad Económica Europea, han propuesto hace algunos años un modelo mixto, que prevé una continua mezcla de tecnologías y fuentes energéticas duras y blandas, y una fuerte reducción de la excesiva tendencia a la urbanización, favorecida en los últimos cien años por la combinación de dos factores: la presión de una población creciente, y la disponibilidad, a buen precio y con comodidad (gas ciudad, electricidad) de energía adecuada a su utilización por parte de los ciudadanos. Colombo y Bernardini parten de las hipótesis de que, a diferencia de lo que sucedía en el pasado, desde la revolución industrial del siglo XVIII hasta nuestros días, ya no es posible adoptar ninguna estrategia energética capaz de producir toda la energía que la sociedad consume, sino que por el contrario se debe tener en cuenta el hecho de que la energía es un bien muy valioso, por lo que conviene limitar la cantidad de energía producida por las fuentes «duras» y centralizadas, para dar paso a las energías blandas y las formas descentralizadas de producir y utilizar esta energía. El planteamiento de Colombo y Bernardini presenta una tasa, en lo que se refiere a la oferta energética, fijada en 14 mil millones de toneladas equivalentes de petróleo en el 2030, es decir, casi el doble del actual nivel de consumo. Pero si pensamos que esta energía deberá satisfacer las necesidades de un número doble de habitantes, y que, sin duda, el desarrollo de los países pobres comportará un fuerte aumento del consumo per cápita de energía, es evidente que este planteamiento prevé la reducción del consumo energético per cápita en los países más avanzados. La consecuencia directa de este planteamiento es que los países ricos deberán frenar bastante el ritmo de crecimiento de la renta per cápita, que tendría que pasar de un 2,5% (media anual en el período 1925-75) a un 1,5% anual en los próximos cincuenta años. El ritmo de crecimiento de renta per cápita en los países en vía de desarrollo también debería reducirse un poco respecto al actual: se pasaría del 2,6% anual del período 1925-75 al 2,3% del período comprendido entre 1980 y 2030.

Pero si recordamos que en estos países aumentará enormemente la población, el incremento de su producto global bruto no será afectado negativamente por un planteamiento de este tipo.

En los países en vía de desarrollo el producto global bruto crecerá al ritmo de un 3,8% anual, valor bastante importante que implica una enorme ayuda por parte de los países ricos.

El plan de Colombo y Bernardini confía a las energías suaves y renovables (sol, viento, hidroelectricidad, geotermia, etc.) el 41% de la energía total producida en el año 2030, y el 59% a las energías duras, según la siguiente distribución: 17% a los hidrocarburos (petróleo y gas), 31% al carbón y 11% a la energía nuclear.

Esto implica dar un importante papel (a diferencia de la propuesta de Lovins) a las formas centralizadas de energía, en un mundo donde la población urbana, que hoy es de cerca de 1.2 mil millones, rozará los 2,4 mil millones.

En lo referente a la repartición del consumo energético entre los países actualmente industrializados y los que aún están en vías de desarrollo, Colombo y Bernardini prevén que en al año 2030 cada una de estas áreas disponga de unos 7 mil millones de toneladas equivalentes de petróleo, mientras que hoy más del 75% de la energía producida es consumida en los países industrializados.

Hemos subrayado más arriba cómo este planteamiento implica la reducción del consumo energético per cápita en los países industrializados, algunos de los cuales (Canadá, Estados Unidos, Suecia) tienen un elevadísimo consumo. Esta alteración de la tendencia histórica es posible, según Colombo y Bernardini, si se reflexiona sobre el hecho de que a medida que aumenta la renta per cápita es posible reducir la parte de bienes materiales ligada a esa renta: se abren así camino a consumos más sutiles, como la enseñanza, la información, la asistencia social, la cultura en sus más diversas manifestaciones, elementos todos que tienden a aumentar la calidad de vida. El advenimiento de las tecnologías de la informática y de la biotecnología favorecerá la reducción de las necesidades de materias primas y energía. En vez de las personas y las cosas, las que viajarán serán las informaciones, que consumen muy poca energía tanto en su procesamiento como en su transporte. La sociedad del futuro tiende a convertirse en algo similar al cerebro humano que, como todo el mundo sabe, desarrolla una completa actividad, consumiendo sólo una cantidad irrisoria de energía. Si la ingeniería genética lograra la posibilidad de la absorción directa del nitrógeno atmosférico por parte de los cereales, se reduciría drásticamente la necesidad de fertilizantes nitrogenados para la agricultura, que requieren mucha energía al ser producidos por la industria química.

Hay también un tema del que ya hemos hablado pero sobre el que vale la pena volver. Hasta hoy, el desarrollo de la población ha corrido paralelo al desarrollo de la urbanización. La gente se dirige incesantemente hacia los grandes centros urbanos huyendo del campo. Se discute mucho sobre si esto tiene que ver con un carácter «natural» del hombre o no. Lo que se sabe es que esta cuestión parece tener una relación muy estrecha con la energía. En el siglo XIX, lo que en Inglaterra provoca la crisis del campo es el progresivo agotamiento de la reserva energética más utilizada por entonces: la leña. La sociedad inglesa tuvo que volver al carbón (que se conocía desde el siglo XII. pero que diversos edictos proscribieron por sucio y contaminante) y aún en nuestros días se puede observar el curioso fenómeno de que, con la sola excepción de Londres, los centros urbanos surgieron al lado de importantes yacimientos de carbón.

Quizá lo más justo sea afirmar que la gente no tiene vocación «natural» ni por el campo ni por la ciudad: para vivir siempre ha necesitado energía, y va a donde hay energía. Cuando había leña suficiente en el campo vivía en el campo, cuando se acabó la leña y apareció el carbón, se concentró en torno a las minas, dando origen a las grandes concentraciones urbanas. Posteriormente, la sustitución del carbón por el petróleo no cambió las cosas: es mucho más sencillo suministrarlo a muchos usuarios concentrados en un área limitada que distribuirlo entre una población diseminada sobre un vasto territorio. Y lo mismo se puede decir en lo referente a la energía eléctrica.

Entre el siglo XIX y el XX nació toda una civilización, basada primero en el carbón y después en el petróleo y la energía eléctrica, que dio primacía a los grandes centros urbanos. No es casual que en los años setenta el coste de la energía en el campo fuera algo así como quince veces superior al que tenía en las grandes ciudades. A los campesinos, por razones sociales, no se les hacía pagar este precio y las tarifas eran bastante similares, pero no obstante se fue construyendo un sistema que facilitaría el paso de la gente del campo a la ciudad.

En el mundo que habrá de construirse en los próximos cincuenta años todo esto podría y debería cambiar. El hecho de que más de un tercio de la energía necesaria la producirá el sol significa que se camina hacia una sociedad descentralizada, muy rural, aunque no campesina en el sentido tradicional del término. Según las previsiones de Colombo y Bernardini, se calcula que en el 2030 los dos tercios de la población mundial vivirán en centros por debajo de los veinte mil habitantes. Éste es un elemento, entre otros, que contribuirá posteriormente a la reducción del consumo energético. En efecto, las grandes ciudades son «máquinas» muy costosas desde el punto de vista del consumo de energía.

La vida en el campo no tendrá por qué ser una vida dura, aislada. El mundo hacia el que se está caminando será un mundo que pondrá a disposición de los campesinos todas las informaciones disponibles para los habitantes de las grandes ciudades. La misma agricultura no será ya un trabajo pesado e ingrato, sino un trabajo muy especializado, que empleará tecnologías de vanguardia y que requerirá por parte de quien la practique un elevado nivel de conocimientos e informaciones.

El panorama propuesto, aunque prevea emplear sólo la mitad de la energía que se necesitaría en el 2030 si continuara la tendencia histórica (como prevé el punto de vista «duro» de Häfele y Sassin) tiene, después de todo, su coherencia. No es un esquema utópico, un castillo en el aire. No obstante, existen algunas dudas sobre su posibilidad de realización y, desgraciadamente, no es difícil comprender por qué.

  1. Por lo pronto presupone que los distintos Estados acepten ralentizar su carrera hacia el bienestar y hacia rentas cada vez mayores. Puede imaginarse hasta qué punto esta tarea no es nada sencilla para las clases dirigentes de los países más desarrollados y tan poco seguras hoy en sus puestos de mando. Una decisión de este tipo debería partir de un acto colectivo de voluntad, bastante poco probable en el seno de sociedades divididas y poco homogéneas como son en nuestros días las de los países más ricos. Sin olvidar que existe una especie de dinámica interna que empuja hacia el crecimiento y que difícilmente puede frenarse. Un razonamiento no muy diferente valdría también en lo que atañe a los países más pobres: ¿cómo se le puede pedir a quien ya tiene poco que acepte un crecimiento aún más lento? Es posible que estos países, los más pobres, ralenticen finalmente su desarrollo, pero no porque así lo quieran, sino por pura necesidad. Por el contrario, nadie puede garantizar que los países más ricos hagan otro tanto. Es lógico esperar que decidan continuar creciendo todo lo posible; por lo tanto, no deberán tomar ninguna decisión, bastará con que se limiten a hacer lo que ya están haciendo. Ésta es, pues, la primera mina que puede hacer saltar por los aires el horizonte propuesto, forzando a pasar de una solución soft a una solución hard como la que hemos visto en el capítulo precedente.
  2. Sin embargo, aún hay una cuestión más delicada. Desde siempre la ciudad ha sido más poderosa que el campo, porque los centros de decisión están en la ciudad, así como las sedes de las grandes instituciones y de las grandes empresas. El panorama propuesto sólo tendrá sentido sí se logra crear un mundo rural progresivo y no atrasado, libre y no esclavista ni expuesto a la tiranía del capital y de la clase política concentrada en la ciudad. Si estas condiciones no se cumplen, la gran «vuelta al campo» que está en la base de este planteamiento no podrá llevarse a cabo: se reanudará la carrera hacia las áreas urbanas y la energía se encaminará hacia las instalaciones «duras», con una presencia de la solar no más que marginal. Una vez más, pues, aparece un elemento que tiende a desplazar una solución soft para imponer una solución hard.
  3. Por último, a pesar de que este plan se ha pensado en gran parte con un ojo puesto en los países más pobres, prevé para el año 2030 un mundo injusto. En Norteamérica la cantidad de energía per cápita disponible descenderá de 1980 al 2030, de 9.2 a 7 toneladas de petróleo-equivalente y la de África y el Sur y Sudeste asiático aumentará de 0.2 a 0,7 toneladas. Mientras que actualmente en Norteamérica se consume cincuenta veces más energía que en África, en el 2030 la distancia entre estas dos áreas será de sólo diez veces. Esto podría parecer una gran conquista (como en efecto lo es), pero no se puede ocultar un dato: según prevé este plan, dentro de cincuenta años África tendrá un consumo energético más o menos como el actual en China y sensiblemente inferior al de hoy en Latinoamérica. Ni siquiera en este planteamiento parece haber esperanzas para los países pobres. Los únicos que crecerán en buena medida serán los países actualmente poco desarrollados pero ricos, como el Oriente Medio y Latinoamérica. En el resto del planeta la pobreza estará en relación a una disponibilidad energética cinco o diez veces inferior a la de los países más ricos. Es cierto que los países pobres tendrán una civilización que les permitirá consumir proporcionalmente menos energía (porque habrá menos ciudades grandes, menos factorías para la producción de acero, menos necesidad de desplazar hombres y cosas), pero la diferencia seguirá siendo grande.

Obviamente, no se sabe si todo será aceptado, porque ése será un mundo en el que las informaciones, como ya se ha dicho en muchas ocasiones, circularán con toda rapidez: el mayor grado de bienestar se alcanzará con la tele pantalla (casi con toda seguridad en color). Y ésta será precisamente la tercera mina puesta en el camino del proyecto soft, pero, también, para ser exactos, la gran incógnita social de los próximos cincuenta años. A partir de hoy hasta el año 2030 el que es pobre lo seguirá siendo, pero, eso sí, de una manera cada vez más irremisible e informatizada. ¿Aceptará su estado o buscará el modo de rebelarse?

Conclusiones

Contenido:
§. La aldea y el planeta
§. Infierno y paraíso
§. El rey y la luz eléctrica
§. El planeta y el super-killer
§. El señor robot y los artistas
§. El rascacielos y la factoría
§. El ingeniero y el sacerdote
§. El viejo y el nuevo mundo
§. El mundo fuera del mundo

Se puede hacer un experimento. Se toma una hoja de papel milimetrado y se marcan, en horizontal, los diez mil años que han precedido a la época actual y los diez mil que seguirán. Luego se marca, en vertical, el número de habitantes de la Tierra en cada período y las previsiones futuras. El gráfico resultante es muy curioso y bastaría para explicar por sí solo muchas de las angustias modernas.

En efecto, se verá que, en los próximos diez mil años, la población tiende a estabilizarse entre los diez y los doce mil millones de habitantes (frente a los cinco y medio actuales). Prácticamente una línea horizontal. Pero el pasado también está representado por una línea similar, naturalmente en un nivel más bajo. Durante siglos y siglos la población de la Tierra fue escasa y no aumentó. La explosión demográfica, la destinada a disparar el número de habitantes de algunos centenares de millones a doce mil millones, está concentrada en un espacio muy reducido: una especie de «escalón» en el gráfico, de apenas trescientos años, tres siglos.

Si se mira el eje vertical, es decir, el del movimiento de la población, el mundo actual se encuentra a menos de la mitad del «escalón»: cuenta con cinco mil millones y medio de habitantes y probablemente llegará a los diez o doce. En lo que se refiere al tiempo, por el contrario, ya se han avanzado dos tercios del «escalón»: dentro de cincuenta años la población mundial habrá alcanzado los diez mil millones de habitantes y, al cabo de unos decenios más, los once o doce mil millones. Una cantidad destinada a permanecer inalterable muchos siglos, quizá siempre.

Los hombres suelen pensar que la época en la que viven es excepcional, única e irrepetible y, desde luego, si lo piensan también ahora no se equivocan. El gráfico demuestra que el aumento de la población en la Tierra no es un fenómeno constante y permanente natural. Todo lo que a este respecto deba y pueda suceder se situará dentro de los trescientos años de los que se ha hablado más arriba. En torno a este «escalón», antes y después, hay siglos y siglos, casi una eternidad de quietud.

Es un poco como si la humanidad se encontrase dentro de un vehículo que de pronto acelera, aumenta su velocidad de manera casi inimaginable tras milenios de calma y ante otros tantos milenios de calma. En estas condiciones no hay que asombrarse si el mundo parece cargado de contrariedades, tensiones y angustias, abrumado por el peso de problemas mayores que él. Cuando se sufren semejantes aceleraciones a pesar de estar preparados, casi biológicamente, para una vida más tranquila, no es fácil tener las ideas claras.

Entre el año 1950 y 1987, el número de habitantes de la Tierra se había duplicado ya, pasando de dos a cinco mil millones. Hoy, la nueva duplicación significa pasar de cinco a diez mil millones en cincuenta años. Proporcionalmente, los dos hechos son equivalentes; pero en términos absolutos el fenómeno tiene un cariz diferente. En los treinta y siete años que van de 1950 a 1987 se tuvo que hacer sitio en la Tierra a dos mil millones de nuevos habitantes; al llegar al año 2050 habrá que hacer sitio a un doble número de personas. Algo así como si a un automóvil subieran primero dos personas, más tarde cuatro y luego, ocho. Obviamente, la segunda duplicación presenta unas dificultades desconocidas para el primero.

Quizá porque por primera (¿y última?) vez en su historia la Tierra se enfrenta a una gravísima situación energética. Los precedentes aumentos de población fueron paralelos a avances tecnológicos que garantizaban abundantes reservas de alimentos, materiales y energía. Actualmente no sucede lo mismo. Empieza a advertirse una preocupante escasez de energía y de otras reservas y la mayor parte de los estudios llevados a cabo indican que la situación no va a cambiar en el curso de los próximos cuarenta o cincuenta años.

Si el lector ha ido siguiendo los razonamientos expuestos en las páginas precedentes, se habrá dado cuenta de que el meollo del problema es precisamente éste. Si se pudiera disponer de toda la energía necesaria a un precio razonable, todos los problemas de este mundo podrían simplificarse y, quien sabe, incluso resolverse.

Con un mayor volumen de energía sería posible lograr un mayor rendimiento de la tierra cultivada, cultivar zonas nuevas, explotar nuevos materiales, extraer agua limpia y dulce del mar, hacer más agradable la vida en muchos aspectos, hacer avanzar a regiones enteras que hoy están en la miseria o por debajo de los límites de la pura supervivencia. Quedaría por resolver, es cierto, el problema de la posterior contaminación del planeta, de preservar el clima y de no degradar el medio ambiente más de lo que ya se ha degradado. Pero todo esto podría resolverse con la ayuda de las modernas tecnologías.

Desgraciadamente, se trata en su mayor parte de sueños porque no existe, ni quizás exista nunca, la energía necesaria, razón por la cual los próximos cincuenta años serán dificilísimos. Se cuenta con las nuevas tecnologías de las que se ha hablado en los capítulos precedentes, que pueden contribuir a vencer el desafío del «segundo planeta»; pero no todo es tan sencillo: una cosa es tener a punto las tecnologías y otra aplicarlas, calar a fondo en los procesos productivos y la sociedad. Pues, como se verá, hay otros problemas aparte de los de la energía cuya solución encierran una gran complejidad.

§. La aldea y el planeta
Una de las características que mejor definen esta época de las precedentes es eso que se puede resumir con la expresión, un poco confusa, de «globalidad de la problemática», en el sentido de que no se trata ya de problemas de esta o aquella comunidad, sino de problemas mundiales, planetarios, globales. Para hacerse una idea, basta reflexionar un poco sobre la vida contemporánea.

También en el pasado, ya sea el más cercano o el más lejano, la historia de la humanidad estuvo salpicada de crisis de reservas con consecuencias a veces terribles y marcada por la introducción de innovaciones que condujeron a menudo a explosiones demográficas. Pero siempre se trató de hechos locales y casi nunca de acontecimientos a nivel planetario.

La difusión de los conocimientos y las tecnologías en el pasado era muy lenta y nada sistemática. El planeta podía presentar, y ésta solía ser la regla, situaciones de prosperidad y de crisis, sin ninguna relación entre ellas y hasta desconocedoras unas de las otras. En los siglos más lejanos las carestías locales obligaban a las poblaciones a dejar sus lugares de origen. Hasta épocas más recientes no humo métodos científicos para el control de las enfermedades, lo que provocaba frecuentes epidemias y pestes devastadoras. Las catástrofes naturales (aluviones, terremotos) no sólo no eran previsibles, sino que podían aniquilar durante siglos regiones y poblaciones, sin posibilidad de movilizar recursos e instrumentos para limitar y reparar los daños ocasionados.

En cualquier caso, como ya hemos dicho, se trataba de sucesos que atañían a grupos de hombres pero no a toda la humanidad. Por el contrario, hoy es mucha mayor la interdependencia, la interconexión, la información. Los modos de vida de los ricos son conocidos por un creciente número de personas y se han convertido, para bien o para mal, en un modelo a imitar, a alcanzar o a enfrentar. Se conocen todos los instrumentos y medios de producción, de cuidado de la salud y de defensa (aunque no siempre estén a disposición de todo el mundo).

En este sentido se puede decir que los problemas actuales son planetarios; en un mundo recorrido por enormes cantidades de informaciones y conocimientos, todo, sea bueno o malo, está inmediatamente «expuesto» a los ojos de toda la humanidad. Y esto hace cada vez más difícil la «convivencia de las diferencias». Al planeta le cuesta cada vez más trabajo ocultar sus desequilibrios, sus injusticias, porque la humanidad tiene conocimiento de ello cada vez con mayor rapidez, cada vez con mayor precisión.

Ésta es una característica nueva, ligada al desarrollo de la civilización de la información, por lo que es difícil prever hasta qué punto se complicará la «gestión del planeta». Lo que sí se puede imaginar es que en el futuro el mundo sólo aceptará un número cada vez menor de «diferencias». Si recordamos los desequilibrios ya existentes actualmente en la Tierra, y la casi imposibilidad de

ponerles remedio en un breve plazo, se tendrá una idea de la gravedad de la situación. Hacer hoy previsiones detalladas a este respecto no sería serio. Pero el problema existe y es muy grande.

§. Infierno y paraíso
Dentro de cada colectivo, de cada civilización, los propios problemas se han sentido, y se sienten, justamente como fundamentales y siempre han surgido nuevas respuestas para superarlos. Este mecanismo de «rebote» de las propias condiciones no se ha perdido nunca. Una situación difícil, por dramática o agobiante que sea, puede soportarse si quien la vive está convencido de que, antes o después, puede mejorar. Pero junto a esta especie de «confianza ilimitada» (el mejoramiento) ha existido siempre la «confianza ilimitada». La que llevaba a soñar, a esperar y a desear, aunque fuera en un mañana bastante lejano, un mundo en el que, finalmente todos los problemas estuvieran resueltos. Así se explica el mito, la continua búsqueda de la edad de oro, del paraíso terrestre.

Paradójicamente, los períodos de crisis agudas se caracterizan por el vigoroso renacimiento de la idea del Edén. Algo así está sucediendo hoy. Se piensa y se dice, por poner un ejemplo, que el año 2050 podría ser la frontera entre las tribulaciones terrestres y el paraíso terrenal. Por esas fechas, por ejemplo, se habría llegado a la completa madurez de la tecnología de la fusión nuclear y de la energía solar. Con la primera, el hombre podría reproducir en la Tierra los mismos fenómenos de fusión de los núcleos que tienen lugar en el sol y en otras estrellas. Por consiguiente tendría a su disposición una cantidad de energía prácticamente infinita y, probablemente, mucho más «limpia», es decir, con menos problemas de contaminación radiactiva. También sería posible resolver los problemas debidos a la carencia de carburantes o de combustibles. Por otro lado, a través de la segunda tecnología, el hombre podría extraer directamente del sol grandes cantidades de energía, limpia e inagotable. El paraíso terrenal, ni más ni menos. Se acabarían así los problemas originados por la dependencia de los jeques y de las fuentes de energía fósil, destinadas a agotarse.

Sin embargo, hay quien piensa que el año 2050 no será el puente entre las tribulaciones terrenas y el paraíso terrestre porque antes estallará el infierno sobre la Tierra. Y del infierno, como se sabe, no se puede volver. ¿Cuánto hay de verdad en estos sueños y en estas pesadillas?

Nadie puede decirlo. Pero el lector no puede dejar de ver que todas las páginas de este libro han sido escritas para demostrar que la humanidad, siempre que quiere hacer uso de ella, tiene en la tecnología los medios para huir del infierno y para acercarse a algo que, si bien no es el paraíso terrestre, promete ser mejor y más confortable que las actuales condiciones.

Pero tampoco en este punto cabe hacerse muchas ilusiones. La historia enseña que, cada vez que el hombre ha logrado resolver sus problemas, han surgido inevitablemente otros, y que el Edén ha quedado siempre como un espejismo lejano. Por suerte también el infierno, aunque rozado más veces, ha quedado fuera de su experiencia.

Conviene que nos extendamos un poco sobre el tema de estos recurrentes sueños y pesadillas del hombre porque los años venideros tendrán una enorme capacidad de suscitar visiones apocalípticas o esperanzas en la mente de las gentes.

§. El rey y la luz eléctrica
En el fondo, el hombre siempre ha pensado en vivir en una era de transición entre dos fases estáticas. Una, la del pasado, que se tiñe de rosa o de negro según los casos y las circunstancias. La otra, la del futuro, donde se imagina se hallará la solución a los problemas y dificultades y, quizá, la felicidad y la riqueza para todos. Sin embargo, ésta es una visión equivocada de las cosas. En realidad es el hombre quien, reconstruyendo la historia pasado, marcando los puntos de referencia, privilegiando determinados aspectos, decide que algunos períodos han sido estacionarios y otros, por el contrario, de transición. Los ejemplos no faltan y tal vez sea útil reflexionar sobre ellos.

El Imperio romano se suele describir como un período estático entre las convulsiones de la última República y la llamada barbarie del medioevo. Y quizá fuera un período estático para quien detentaba el poder o para quien, como los estoicos, se suicidaba cuando no alcanzaba a imaginar ninguna alternativa a sus problemas. Pero, desde luego, no fue estático para las masas de bárbaros que se concentraban en las fronteras para gozar también ellos del bienestar del Estado romano, no para los marginados del imperio, a los que el cristianismo le brindó la revolucionaria tarea de la esperanza en un mañana mejor.

Tampoco el Renacimiento florentino, tras las luchas entre las facciones y la decadencia política, fue sólo un período estático, caracterizado por el desarrollo de la economía, de las letras y de las artes, sino también un momento rico en movimientos políticos (piénsese en Savonarola), culturales y sociales. O el período del Rey Sol en Francia, que contrapone a la estabilización del reino el drama del final de las libertades y autonomías ciudadanas, la guerra, la tragedia de los campesinos expoliados, obligados a aprovisionar a los soldados del rey y a sus enemigos, y a combatir.

Lo mismo se puede decir del período transcurrido entre la guerra franco-prusiana y la primera guerra mundial, que aún se recuerda con el apelativo de belle époque. Tras el drama que asoló Europa se considera este momento como una época feliz, sin guerra (aunque se seguía combatiendo en las colonias), con un continuo desarrollo económico (debido a la explotación del trabajador en el resto del mundo) y caracterizado por un gran optimismo y la confianza en la capacidad del hombre y del progreso gracias a la ciencia y la técnica. Pero ésta fue la época de la consolidación de la burguesía iluminada y especuladora. Tras la sacudida de la Comuna de París, se produjo también el desarrollo y acercamiento al poder de los socialismos europeos a través de luchas, huelgas, revueltas: en Milán, por ejemplo, contra Crispí, el rey y Bava Beccaris; en Odesa y Petersburgo contra la guerra y el régimen zarista.

Por otro lado, la belle époque fue un período de grandes innovaciones tecnológicas, como la creación de la industria química, la introducción de la electricidad, del automóvil, de la aviación, de la radiotelegrafía.

Sobre la historia de la electricidad vale la pena decir unas palabras. Su irrupción, a finales del siglo XIX se recibió en seguida como un hecho que traería bienestar y riqueza. En Milán, donde la electricidad dio sus primeros pasos al inicio de aquel siglo, se festejó y exaltó con un fastuoso espectáculo, el «Bailo Excelsior». Sin embargo, cuando empezaron las primeras investigaciones no se sabía bien para qué serviría y en qué medida la energía eléctrica modificaría la vida sobre el planeta. Se recuerda siempre a este respecto la visita del rey de Inglaterra al laboratorio de Faraday (uno de los padres de la electricidad, junto a Volta y Ampére). El rey se mueve entre el instrumental de Faraday, observa, pide explicaciones y al final comenta: «Muy bonito, de veras. Pero, ¿para qué sirve?» A otro visitante que algún tiempo después hizo la misma pregunta le respondió Faraday con un suspiro: «No lo sé pero estoy seguro de que antes o después alguien deberá pagar impuestos».

En realidad, aquellas investigaciones sobre la electricidad sólo fueron útiles cien años después y hoy el mundo está tan «cargado» de electricidad que casi no se comprende cómo hubiera sido posible la vida de otra manera. La energía eléctrica, efectivamente, tiene un siglo de vida; a finales del siglo XIX los hombres de una sociedad positiva que creía en la ciencia se entregaron durante varios decenios a un tarea que ni siquiera sabían bien a dónde les conduciría y a qué descubrimientos daría lugar. Pero siguieron adelante convencidos de la utilidad e interés del puro saber, y si esto les reportaba alguna buena consecuencia, tanto mejor.

Esta historia, con sus claroscuros, sus elementos positivos y negativos, sus facetas de estabilidad y cambio, su acumulación de dificultades que finalmente se superan y otras que las suceden, demuestra que no es posible resolver definitivamente los problemas que nos amenazan sin generar y afrontar otros. Y demuestra también que la humanidad, casi con toda seguridad, no está destinada a tocar el Edén con la mano.

Por otra parte, el hombre está demasiado ocupado en resolver los problemas de su época como para ocuparse también de los que vendrán después. Además, es prácticamente imposible saber qué problemas aguardan en el futuro aunque uno puede hacer un esfuerzo para imaginárselos.

En el plano político, nadie habría podido prever, hacia mitad de los años ochenta, que el imperio soviético se hundiría repentinamente, y que el fin de la «confrontación» entre ambas superpotencias (USA y URSS) cedería el paso a una situación completamente nueva. Y hoy podemos decir cualquier cosa excepto que la situación política está estabilizada. Ni siquiera ha desaparecido el riesgo de conflictos e incluso guerras continentales, si no mundiales.

§. El planeta y el super-killer
El principal problema del mañana es el de la supervivencia física de la Tierra y la humanidad, no por falta de recursos que, en definitiva, como se ha visto, son el producto del ingenio humano y de su tecnología, sino por la eventualidad de un conflicto generalizado de tipo nuclear. Acontecimiento posible, dadas las dimensiones que está cobrando en la actualidad la carrera de armamentos sobre el planeta.

Una importante y creciente cantidad de reservas se destina al armamento y, en las grandes potencias se han acumulado durante decenios arsenales de bombas capaces de over-kill (super-matar) más veces que el adversario, con lo que se está en disposición de afrontar cualquier eventualidad. Las reservas energéticas dedicadas a los armamentos restan posibilidades al desarrollo de la civilización y consolidan un perverso circuito de empresas, de trabajo, de comercio internacional, de consumo de armas. Circuito difícilmente desmontable de un día para otro. Desgraciadamente esto ocurre tanto en los países desarrollados como en los en vías de desarrollo. Estos últimos, a pesar de los problemas que tienen, son empujados a participar en este circuito que exige dedicar exorbitantes reservas a un armamento que en poco tiempo resulta insuficiente y obsoleto.

El problema de los arsenales bélicos será dramático en el futuro. pero también es un problema actual del que hay que ocuparse rápidamente si se desea apagar a tiempo la mecha encendida que representan los armamentos super homicidas que pueden entrar en acción (por mil razones) de un momento a otro.

El hundimiento de la superpotencia soviética deja abierto el problema del desmantelamiento de su enorme arsenal atómico, hoy distribuido entre mayor número de estados, y el de la utilización para fines pacíficos del material fisible de las bombas. Se trata de un problema al que políticos y científicos están prestando mucha atención.

§. El señor robot y los artistas
Si dentro de medio siglo se lograra un desarme mundial y se hallara la manera de disponer de energía, de reservas materiales u de alimento suficiente para todos, junto a nuevas tecnologías de producción más eficaces que las actuales y menos agresivas para el ambiente, ¿qué problemas podría tener la humanidad?

Quizá la redistribución de las reservas y las rentas entre las distintas clases sociales, sistemas socio-económicos, países y generaciones. Quizás el problema del tiempo libre y de cómo organizar una sociedad compleja y marcadamente postindustrial.

En un sistema como el actual, donde la tecnología ofrece continuas y extraordinarias posibilidades de aumentar la productividad del trabajo, es ilusorio pensar en resolver el problema del paro suprimiendo sin más las innovaciones tecnológicas que conducen a la eliminación de la fuerza-trabajo (como la microelectrónica, la automatización, la robotización, etc.). Es evidente que en el mundo real en que se vive aparecerán no uno sino cien países como Japón, Taiwán, Corea y Singapur, que no aceptarán nunca limitar la carrera hacia el progreso que ellos ven estrechamente ligada al crecimiento económico, con lo que caerá por tierra el proyecto de «contención» de las innovaciones y prestaciones laborales. Es inimaginable una especie de «pacto» mundial tendente a limitar y retardar la aplicación de las nuevas tecnologías a los procesos productivos. Inevitablemente habría algún país que esgrimiría sus motivos para ser considerado como una excepción y no tener que firmar el acuerdo.

Y sería precisamente ese país quien marcaría el ritmo de los restantes.

Sin embargo, queda pendiente el hecho de que para la producción de bienes se necesitarán cada vez menos personas, como consecuencia del creciente uso de robots, cada vez más perfectos y adaptados a cualquier tipo de actividad y producción, complejos y diversificados en sus prestaciones. La progresiva penetración de los robots modificará profundamente el mundo del trabajo. El reducido número de personal necesario tal vez se sienta inclinado a asumir funciones corporativas, a valorarse excesivamente, como ocurre actualmente con los grupos de trabajadores encargados de sectores claves (piénsese, por ejemplo, en los controladores aéreos o los maquinistas de trenes), que pueden bloquear fácilmente el flujo económico o el funcionamiento de los servicios. En pocas palabras, existe la posibilidad de que en el futuro los pocos encargados de la producción intenten apropiarse de grandes cantidades de poder y capital.

Pero también cabe la posibilidad de que suceda lo contrario. Podrían crearse unas condiciones en las que, gracias a los robots, estos trabajadores desempeñarían un papel marginal en la sociedad y serían considerados algo así como modernos esclavos.

Por otra parte, la sociedad podría preferir que todos sus miembros activos se dedicaran al control de la producción de bienes durante una pequeña fracción de tiempo al día. El resto se dedicaría a múltiples actividades de servicio, deportivas y artísticas. En este caso, dentro de medio siglo podría empezar a ver la luz una especie de «sociedad creativa», en la que cada uno podría dar lo mejor de sí.

De todas maneras conviene precisar que la expulsión de fuerza de trabajo en grandes cantidades no es un hecho seguro. Bastaría entregarse en cuerpo y alma a la construcción de todo lo necesario para la supervivencia de los cinco mil millones de habitantes que están en camino (el «segundo planeta») para alejar, durante muchísimo tiempo, esta posibilidad.

No faltarían entonces puestos de trabajo en todas partes, y menos en los países en vías de desarrollo, donde es tanto el camino que queda por recorrer.

Sin embargo, es muy dudoso que las cosas sucedan así, tanto por razones prácticas como políticas. Por un lado es difícil pensar en llegar a movilizar reservas económicas, humanas y tecnológicas para organizar todo de forma que la construcción del «segundo planeta» no suponga nuevos desequilibrios y amenazas. Por otro lado, es fácil prever que se mantendrá la bipartición del mundo en un Norte desarrollado y acomodado y un Sur pobre y cargado de problemas.

Por estas razones es muy probable que la «sociedad creativa», el part-time y el tiempo libre sólo se conocerán, dentro de algunos años, casi únicamente en el Norte.

§. El rascacielos y la factoría
Otro problema que jugará un papel decisivo y sobre el que no es fácil hacer previsiones es el de la diferencia entre el campo y la ciudad. En el curso de cincuenta años, es probable que desaparezca en los países industrializados el abismo entre las grandes ciudades y las áreas rurales, como consecuencia de un proceso, que ya se ha iniciado, de descentralización de las actividades productivas y los servicios, de creación de infraestructuras distribuidas y de valoración de las reservas locales, de los materiales, de los asentamientos urbanos y de la capacidad de trabajo.

El proceso se ve favorecido y estimulado por la irrupción de nuevas tecnologías microelectrónicas, informáticas y biológicas, y podrá ser enriquecido posteriormente por el desarrollo de la energía solar en sus formas de producción descentralizadas.

En los países del Tercer Mundo el problema de las relaciones entre el campo y la ciudad está directamente ligado al modelo de desarrollo que se adopte y a las fuerzas políticas e ideológicas que prevalezcan, tanto localmente como a nivel internacional. Desde este punto de vista es determinante la adopción de planes energéticos duros o, por el contrario, de planes que permitan un mayor pluralismo tecnológico.

Un plan duro privilegiaría en gran medida la ciudad y marginaría las zonas descentralizadas, que tendrían mayores posibilidades de salir de su aislamiento y retraso si se adoptasen planes más equilibrados; como el descrito en el capítulo anterior.

Pero existirán otros muchos motivos de privilegio y de marginación. Por ejemplo, el problema de las diferencias entre el Norte y Sur podría agravarse aún más que en la actualidad. Por consiguiente, la necesidad de una redistribución continuará siendo un problema a nivel internacional de la sociedad del mañana, un problema que no se debe desdramatizar reduciéndolo a un nueva cuestión de reparto de rentas, sino que supone una diferente distribución en el planeta de la cultura, de las capacidades y posibilidades creativas, de la tecnología.

§. El ingeniero y el sacerdote
Sacar adelante la Tierra con todos sus problemas y, en especial, los que se refieren a la duplicación de la población, no será una empresa fácil. Quizá los planes energéticos a los que nos hemos referido en el capítulo precedente y los problemas expuestos en estas «Conclusiones» no permitan hacerse muchas ilusiones al respecto. Sin embargo, lo cierto es que existen las tecnologías y los medios necesarios para llegar en condiciones aceptables a la cita con el año 2050 (que se prevé como un momento clave para la evolución que se espera en materia energética, y no sólo en ella). Por desgracia, estos medios y estas tecnologías requerirán una gestión muy cuidadosa y consciente, muy pragmática, si se nos permite utilizar este término. No se podrá dejar el mundo en manos de los ingenieros, ni mucho menos de los sacerdotes de la política y de las grandes religiones «cerradas».

Con esto queremos subrayar que el problema más grave de todos (más allá de las cuestiones de la energía y la alimentación) sigue siendo el de la construcción de una sociedad en el planeta que haya superado y resuelto no sólo el tema del armamento y del terror de la guerra sino, sobre todo, el de las contraposiciones ideológicas. Una sociedad, en suma, en la que sea concebible el pluralismo ideológico y una convivencia armónica, dialéctica, de esas ideologías y de las diversas etnias en los mismos países.

Esto requiere una larga evolución de las ideologías que no es fácil de conseguir si se piensa en la poderosa vitalidad del capitalismo y su capacidad de encontrar soluciones adaptándose a las distintas circunstancias; si se piensa en la inclinación que sienten por el socialismo clases y pueblos y si se piensa en el vigor y sustancial impermeabilidad de las grandes religiones. Sin esta evolución «convivial», para usar un término de Ivan Illich, de las ideologías, la hipótesis de estabilidad sin catástrofes aparece como poco creíble y, viceversa, esa otra, aterradora, consistente en el intento de sometimiento de un bloque por el otro aparece como inevitable.

Por otra parte están produciéndose cambios, no sólo materiales sino de ideas, mucho más rotundos que en cualquier otro momento de la historia pasada, que señalan una evolución en la sociedad. Cada vez con más frecuencia, aspectos aparentemente externos a las ideologías que cimientan las diversas comunidades son adoptados por estas últimas, contribuyendo así a hacer mella en el monolitismo e impermeabilidad de las mismas ideologías. Solamente esta evolución «convivial» de las ideologías hará posible el pluralismo de las culturas, los modos de vida, los modelos de desarrollo e incluso el pluralismo tecnológico, sin que se obligue a toda la humanidad a perseguir los mismos objetivos con los mismos instrumentos y a contraponerse en bloques cada vez más diferenciados y, por consiguiente, más enemigos. En este panorama adquieren una primordial importancia las direcciones que tomen los que pueden definirse como «los nuevos protagonistas» de la escena internacional. Por ejemplo: ¿cuál será el papel del «mercado libre»?, ¿cuál será el peso de las multinacionales?, ¿qué papel jugarán las puntas de diamante de la eficiencia capitalista y, al mismo tiempo, cuál será la solución ideológica más destructora de la idea tradicional del Estado?

¿Cuál será, por otro lado, el papel de los procesos de planificación después de la caída —por demostrada ineficacia— de los países del socialismo real en Europa central y oriental? ¿Y cuál será la capacidad del hombre para afrontar en términos modernos el desafío de la tecnología y el modo de organización del trabajo que comporta?

¿Cuál será el peso específico de los países que salen del subdesarrollo, de los países recién industrializados, respecto al de los grandes países dotados de reservas y en pleno desarrollo demográfico, pero incapaces de sostener su propia economía? Y, por último, ¿cuál será el peso de las ideologías que en algunos de estos países parecen reafirmarse (baste pensar en el fundamentalismo islámico)? Es imposible avanzar previsiones razonables sobre todas estas cuestiones y, por tanto, no queda más que esperar y apostar por la evolución «convivial» de las grandes ideologías y de las grandes religiones a las que se ha aludido al principio del párrafo.

§. El viejo y el nuevo mundo
Europa, con el área mediterránea que la flanquea, el llamado «viejo mundo», que ha sido el crisol en el que se han forjado muchas de las ideologías hoy dominantes, y que ha contribuido a la formación de algunas grandes religiones, parece estar preparada para experimentar y acoger los impulsos ideológicos más diversos. Europa está geográficamente en el ojo del huracán: tiene al Este Asia, con todas sus complejidades; al Oeste los Estados Unidos y al Sur el mundo en vía de desarrollo (y el islam en particular). La historia ha hecho de los actuales europeos las gentes más capacitadas para la mediación. El potencial científico y tecnológico de Europa se sitúa aún entre los más importantes, aunque su peso político es escaso. En cualquier caso jugará un papel de mediador, pero es difícil prever si lo será sólo pasivamente, dejando los hilos del juego en manos de las superpotencias o si. por el contrario, llegará a convertirse en un miembro activo.

Este párrafo puede parecer al lector una especie de brindis, casi obligado, por Europa, pero no es así. Ya hoy, pero aún más en los próximos decenios, el mundo necesitará mediadores capaces e inteligentes, conocedores de las culturas y los sistemas sociales en liza. A la larga, una vez resueltos los problemas materiales de los que nos hemos ocupado en este libro, se advertirá que la cuestión fundamental será precisamente hallar a alguien capaz de organizar esa «convivialidad» sin la cual difícilmente podrá estar unido el planeta.

No obstante, no tiene mucho sentido anticipar las soluciones que se le podrán dar a este problema tratando de averiguar, por ejemplo, cuál será, dentro de cincuenta años, el «nuevo orden económico internacional». Sin embargo, es justo enfrentarse a tales cuestiones para buscar el modo de resolver los problemas de hoy sin optar por drásticas soluciones que puedan limitar demasiado la libertad de elección de las futuras generaciones. La humanidad de hoy tiene muchos compromisos con ellas, pero, sin duda, el más importantes de todos es el de no predeterminar, con actitudes demasiado rígidas, su vida. En este marco es indispensable comprender que algunas soluciones de los problemas que hoy agobian al mundo (como, por ejemplo, la propuesta de un plan energético duro) pueden condicionar dramáticamente, desde el punto de vista económico, político y social, los márgenes de evolución de la sociedad del mañana, por lo que es preciso buscar soluciones capaces de dejar un mayor número de opciones.

Este libro ha tratado de hacer comprender que hay caminos que permiten al hombre no autodestruirse y mejorar sus condiciones y que, al mismo tiempo, es ilusorio pensar en el espejismo del Edén. Ni habrá un «próximo nuevo medievo» ni un «próximo paraíso terrenal». Según las hipótesis que aceptan de modo realista los límites del planeta, se va hacia una sociedad que se estabilizará demográficamente y que tendrá todavía a su disposición los medios para crecer y distribuir las riquezas creadas, haciendo uso de sus conocimientos y de las innovaciones tecnológicas y sociales.

§. El mundo fuera del mundo
La historia muestra que el hombre ha tratado siempre de superar los límites que encuentra, físicos o no, de extender las fronteras dentro de las que se ve obligado a moverse, de apropiarse de todo lo que alcanza a «ver», y es muy probable que en el futuro siga un comportamiento similar. Tanto más teniendo al alcance de su mano el espacio extraterrestre, con sus reservas por explorar y sus secretos por descubrir. Es evidente que si la aventura que comenzó hace treinta años con Laika y Gagarin y continuó con el alunizaje de Armstrong y, recientemente, con el lanzamiento del «Shuttle» y los «Voyager» debe conducir a la colonización del espacio, la tesis sobre la última duplicación de la población a la que seguirá un equilibrio estable en torno a los 11-12 mil millones de habitantes sigue siendo válida en los que se refiere al planeta Tierra, pero podría ser dramáticamente superada por una nueva explosión demográfica aunque, esta vez, en los espacios extraterrestres.

Aunque, desde luego, esta nueva aventura no nos aguarda en los próximos cincuenta años y, quizá, ni siquiera en los próximos cien.

F I N


Notas:
[1] ENI: Ente Nazionalle della Industria. BP: British Petroleum. (N. del T.)
[2] ENEL: Ente Nazionale. (N. del T.)