martes, 27 de febrero de 2007

The lost Tomb of Jesús


Con el nombre “The Lost Tomb of Jesús”, La tumba perdida de Jesús, será presentado en Marzo por Discovery Channel, en estreno mundial un documental que ya ha desatado una gran polémica en el mundo cristiano en general, católicos y protestantes, así como agnósticos y no creyentes.

Tras ese documental no se encuentra alguien desconocido. James Cameron, ganador del Oscar de la Academia, por la película Titanic, es su productor. Está dirigido por el cineasta judío, nacido en Canadá Simcha Jacobovici.

Ambos señalaron en una reciente conferencia de prensa, ofrecida en la biblioteca pública de New York, que su trabajo se basa en años de investigación de destacados arqueólogos, cuyos nombres no mencionaron, así como de expertos en documentos históricos y especialistas en material genético.

Según la versión de Cameron Jesús mantuvo una relación sentimental con María Magdalena, tuvo un hijo con ella al que llamaron Judah. Agrega que los tres fueron enterrados en unas tumbas encontradas, las unas junto a las otras, en Jerusalén hace 27 años.

Como cuando se trata de religión, fe y evidencias históricas no comprobables, el tema da para mucha discusión y esta comenzará luego que el documental sea estrenado por Discovery.

La cinta basa su teoría, de una supuesta familia de Jesús, en el hallazgo, en marzo de 1980, de unos sepulcros que supuestamente pertenecerían a Jesús y a su familia. Se hace mención especial a que hace 27 años, trabajadores de la construcción encontraron en el este de Talpiot, uno de los suburbios de Jerusalén, una cueva cuya data se estima en mas de dos mil años de antigüedad y que contenía diez tumbas.

Según señala Cameron y su equipo, seis de esos nichos tienen grabados los nombres de Mateo; María Magdalena; Jesús, hijo de José; María, madre de Jesús; José, hermano de Jesús; y Judah, hijo de Jesús.

De acuerdo a lo expresado por el productor norteamericano James Cameron, rigurosos estudios y análisis de ADN demuestran que las sepulturas son las de Jesús y su familia. Ese descubrimiento no significa, necesariamente, que Jesucristo no resucitara tres días después de su muerte, según la creencia cristiana. Lo que no coincide es que de acuerdo a la tradición, el cuerpo sin vida de Jesús fue enterrado debajo de donde hoy se levanta la llamada Iglesia del Santo Sepulcro, de la ciudad vieja de Jerusalén, y objeto de peregrinaje permanente de los creyentes. El denominado “Santo Sepulcro” se encuentra en la línea de confluencia entre la Jerusalén oriental (árabe) y occidental (judía), y allí se depositó el cuerpo de Jesús, según el rito judío, antes de resucitar.

El documental de Cameron sitúa los “osarios” en un barrio del sur de la capital israelí donde ni siquiera hay constancia de que hubiera una iglesia cerca.

En cuanto a sus supuestos familiares, ni católicos, protestantes u ortodoxos reconocen descendencia alguna a Jesús.

Algunos especialistas piensan que las tumbas pertenecerían a una familia judía, con nombres muy similares a la de Jesús, nombres que eran muy comunes en esa época.

El arqueólogo israelí Amos Kloner, uno de los primeros expertos que estudió la cueva descubierta en los años 80, no acepta esta teoría, según se desprende de una entrevista concedida a la BBC, agregando "lo que buscan es hacer dinero".

Cameron a replicado "Nosotros hemos hecho nuestro trabajo; y ahora es momento de que se abra el debate". En la conferencia de Prensa el cineasta junto con mostrar su documental, ha presentado los dos osarios que supuestamente albergaron los cuerpos de Jesús de Nazaret y María Magdalena.

Como a río revuelto ganancia de pescadores, vecinos de la zona en que fueron encontrados los nichos, han declarado que están encantados con el documental. "Esto significa que el precio de nuestras casas subirá porque los cristianos querrán vivir aquí".

Sobre este tema debemos recordar que, en Abril del año 2006, la revista “National Geographic” publicó de manera exclusiva el manuscrito que contiene la historia de Jesús desde el punto de vista del discípulo que lo traicionó, y que se denominó el “Evangelio de Judas”. Se trataba de un manuscrito datado en el siglo III o IV y que contendría la única copia conocida del Evangelio según Judas, el apóstol que traicionó a Jesucristo entregándolo a los romanos.

El escrito según National Geographic fue autentificado adecuadamente a un costo de dos millones de dólares. La autentificación del documento se llevó a cabo utilizando numerosas técnicas, como la prueba del carbono 14, el análisis de tinta, la imagen multiespectral, así como los índices paleográficos e históricos, según ha informado Terry García, vicepresidente de National Geographic. Por el momento, el manuscrito se ha traducido al inglés, al francés y al alemán.

Escrito sobre papiro, el Evangelio según Judas, de 26 páginas, fue hallado cerca de la localidad de Beni Masar, en Egipto, en 1978. En 2000, la fundación Mecenas de Arte Antiguo de Basilea (Suiza) adquirió el documento y comenzó la laboriosa tarea de traducirlo. Los expertos consideran que se trata de una copia de un texto aún más antiguo, en el que Judas aparece retratado como una figura benévola que trata de ayudar a Jesús a cumplir su misión redentora, según lo establecían las escrituras.

Durante 2.000 años, la Biblia ha retratado a Judas como el apóstol traidor que entregó a Jesús a los romanos para que le juzgaran, recibiendo a cambio 30 monedas de plata. Sin embargo, este Evangelio le retrata de manera positiva, describiéndole como uno de los apóstoles predilectos de Cristo y explicando su traición como la culminación de un plan divino, destinado a provocar la crucifixión y dar así origen al Cristianismo. En pocas palabras: Judas habría traicionado a Jesús siguiendo sus propias órdenes.

El Vicepresidente de National Geographic señala que, el documento, es uno de los tres textos antiguos más importantes descubiertos en el último siglo, junto con los manuscritos del Mar Muerto y los de Nag Hammadi (Egipto). Se conocía de la existencia del Evangelio de Judas por una referencia hecha por el obispo Irineo de Lyon en el año 180, en su tratado Contra la herejía, pero hasta ahora nadie sabía a qué hacía mención.

A la polémica, que en su momento estas revelaciones causaron en el mundo cristiano, se sumara la que levantará el documental de Cameron que ya tiene detractores. A una visión diferente se suman expertos en arqueología y religiosos que, pese a lo señalado por los documentalistas, no aceptan que esas evidencias respondan a la realidad histórica conocida, pese a que uno de los osarios tiene la inscripción "Judah, hijo de Jesús", lo que, de acuerdo al documental, pudiera indicar que Jesús tuvo un hijo. Y el simple hecho de que Jesús tuviese un osario contradeciría la creencia cristiana de que Cristo fue resucitado y ascendió al cielo.

Los cristianos creen que el cuerpo de Jesús pasó tres días en el sitio que hoy ocupa la Iglesia del Santo Sepulcro, en la ciudad vieja en Jerusalén.

Osnat Goaz, portavoz de la agencia gubernamental israelí de arqueología, rehusó emitir algún comentario antes de que el documental sea transmitido. Goaz expresó a los periodistas que la Autoridad de Antigüedades aceptó enviar dos osarios a Nueva York, los que mostró Cameron en la conferencia de prensa, pero dijo que no contenían restos humanos.

"Nosotros aceptamos enviar los osarios, pero eso no significa que estamos de acuerdo con los documentalistas", manifestó.

Las afirmaciones del documental han causado la ira de líderes cristianos en Jerusalén.

"La evidencia histórica, religiosa y arqueológica muestra que el lugar en el que Cristo fue sepultado es la Iglesia de la Resurrección", dijo Attallah Hana, clérigo greco ortodoxo en Jerusalén, quien agregó “el documental contradice los principios religiosos y los principios históricos y espirituales que nos sostienen".

Stephen Pfann, erudito bíblico en la Universidad de Tierra Santa en Jerusalén que fue entrevistado para el documental, dice que la hipótesis de los realizadores no es sólida. Pfann ni siquiera está seguro de que el nombre "Jesús" en los osarios fue interpretado correctamente. El piensa que lo más probable es que se trate del nombre "Hanun". Las escrituras semíticas antiguas son notoriamente difíciles de descifrar.



La voz de Galicia, publica el 27 de febrero la siguiente nota que puede arrojar más claridad sobre este tema:

“Para el arqueólogo y profesor Amos Kloner, que documentó esta tumba como la cueva de entierro judía de una familia próspera, cree que no hay pruebas que respalden las afirmaciones de que allí fue enterrado Jesús. “Esta es una cueva judía para entierros. En cuanto a los nombres que aparecen en ella, se trata de una coincidencia. No tenemos una prueba científica de que sea la tumba de Jesús y de los miembros de su familia”, ha declarado Kloner.

El arqueólogo sostiene que de 900 cuevas utilizadas para entierros encontradas en un radio de 4 kilómetros de la ciudad vieja de Jerusalén, que datan del período del Segundo Templo, el nombre Jesús o Yeshu fue encontrado 71 veces, aunque no se halló «Jesús hijo de José».

La Autoridad de Antigüedades de Israel se ha negado a hacer comentarios, aunque en 1996 un portavoz dijo que la probabilidad de que los ataúdes pertenecieran a Jesús era «casi cero».

No obstante, Discovery News ha afirmado que hay nuevas pruebas científicas, incluyendo análisis de ADN efectuados en uno de los principales laboratorios de genética molecular, que sugieren que esta tumba podría haber albergado en algún momento los restos de Jesús y de su familia.

Este descubrimiento también sugiere que Jesús y María Magdalena podrían haber tenido un hijo llamado Judas, según ha agregado este canal de televisión en su sitio internet.

Las iglesias cristianas, ortodoxa y católica, afirman que la tumba de Jesús se encuentra bajo la Iglesia del Santo Sepulcro en el Jerusalén antiguo, mientras que los protestantes sostienen que está más al norte, fuera de las murallas de la ciudad vieja”.

Como pueden ver, de todo hay en la viña del Señor.

lunes, 26 de febrero de 2007

Una verdad inconveniente


Se entregaron los premios Oscar en todas sus categorías incluyendo al mejor documental obteniendo el galardón máximo “Una verdad inconveniente”, del director Davis Guggenheim, que tiene como protagonista al ex vicepresidente, norteamericano Al Gore, que ha llevado adelante una campaña por evitar el calentamiento global y el daño al medio ambiente. Como si fuera poco la compositora Melissa Etheridge ganó, el Oscar, por la música y letras de la canción "I need to wake up" del mismno documental.

El mundo se nos está muriendo y aún no somos capaces de entenderlo. Nos limitamos a respirar nuestro aire sin pensar que es algo compartido. El documental donde Al Gore hace importantes reflexiones, no cabe duda, será un éxito que muchos iremos a ver, ojalá no solo porque ganó el Oscar de la Academia de Ciencias Cinematográficas, principalmente porque es un dramático llamado de atención a no seguir envenenando la tierra.

Los gobiernos de las grandes potencias son los mayores responsables, entre ellos, Estado Unidos y China.

Barcos que quedan encallados en la arena, a miles de kilómetros del mar. Lagos que se secan o mares que ya no existen, bosques desvastados, especies nativas extinguidas, flora y fauna invadida y mutilada por la pereza de los seres humanos, la ambición de otros y le desidia de gobernantes y legisladores, son algunos de los legados que estamos dejando a nuestros hijos y nietos. ¿Quién responde?

El documental An inconvenient truth, su nombre en Inglés, puede contribuir a que tomemos conciencia colectiva que ya, más que tiempo de hablar, escribir y denunciar, debemos es tiempo de actuar inteligentemente, apoyar a quienes son parte de la cruzada del medio ambiente. Separar y no votar por los políticos que tienen el discurso de siempre, y si hacerlo por aquellos que verdaderamente nos prometen una tierra buena en la cual vivir, y que no nos hablen de futuro esplendoroso, cuando ya casi estamos perdiendo el presente.

Pocos han reflexionado que el Tratado de Kyoto, es uno de los proyectos más ambiciosos para poner coto al Calentamiento Global y a la destrucción de la naturaleza.

El tratado se acordó el año 1997, y solo en febrero 2005 entró en vigor en 141 países. Los firmantes se obligan a disminuir sus emisiones de gases de efecto invernadero que amenazan con fenómenos catastróficos al planeta y a sus habitantes. Actualmente los firmantes son 166 países, entre los que se cuentan aquellos responsables del 55 % de la emisión de gases que provocan el efecto invernadero.

El objetivo del Protocolo de Kioto es conseguir reducir, en promedio, un 5,2% las emisiones de gases de efecto invernadero globales sobre los niveles de 1990 para el periodo 2008-2012.

Científicos de todo el mundo aseguran que hace varios años estamos viviendo las consecuencias del calentamiento global: El nivel del mar aumenta en todo el planeta y se están perdiendo grandes extensiones de playa.

Últimamente hay más inundaciones, como las últimas que conocemos en Bolivia, el nivel de los hielos en los polos está bajando, las sequías han aumentado en diversas zonas del planeta y muchas especies de animales y plantas están amenazadas de desaparición.

Los EEUU aun no firmado este tratado, allí se emiten más del 25% de los gases contaminantes del planeta. Entre los países que sí se someterán al tratado de Kioto están los 25 miembros de la UE, y Rusia, cuya adhesión el provocó la entrada en vigor del protocolo. Hay otros países como India y China que aún no se integran a esta verdadera cruzada global para proteger el ambiente y evitar un desastre mayor.

Las zonas más amenazadas del planeta son :

Los grandes glaciares.

Deshielo masivo de glaciares por debajo de los 5 mil metros en los próximos años.

Delta del Nilo y Mekong

Aumentarán las inundaciones en las principales cuencas fluviales de la India, Bangladesh y Nepal.

Desiertos

Las sequías harán aún más dura la vida en las regiones áridas. Desaparecerá la cubierta vegetal, pérdida de biodiversidad y hambrunas.

Países Andinos

Aumentará la intensidad de las corrientes del fenómeno de El Niño y sus consecuencias en los países andinos, como ocurre en Bolivia en estos momentos.

Manglares (Se incluye toda Centro América)

Con la subida del nivel del mar, muchas zonas costeras se inundarán, sufrirán erosión acelerada y se perderán humedales y manglares.

Selva del Amazonas

A su continua deforestación ya conocida, esta selva puede desaparecer y podría convertirse en una zona semi desértica si el planeta se calienta entre dos y tres grados.”

La gran barrera de Coral

La mitad del dióxido de carbono ha ido a parar al mar y se ha vuelto más ácido, desaparecerá la barrera de coral australiana, la única que es posible observar desde el espacio.

Península Antártica

La pérdida de hielo es evidente. En marzo del 2002 se deslizó en un mes la plataforma Larsen, de 500 millones de toneladas de hielo.”

Ártico

El ártico se calienta el doble de rápido que el resto del planeta. La falta de hielo en verano empuja a las especies polares hacia la extinción.

La Tundra
En Alaska y en áreas de alta montaña, en el círculo polar ártico, las investigaciones científicas advierten que el calentamiento global puede ser ya catastrófico.

Áreas Insulares

Se afectará zonas, como las islas: Antillas en América Central, Cuba, Puerto
Rico, Haití, Republica Dominicana, Barbados, Aruba, Jamaica, y otras, y los archipiélagos del Océano Pacífico, Fiji, Tuvalu, Mashall, y Seychelles.

Para evitar estos dañinos efectos, los países industrializados deben reducir las emisiones de los 6 gases de efecto invernadero de origen humano como dióxido de carbono (CO2), metano (CH4) y óxido nitroso (N2O), además de tres gases industriales fluorados: hidrofluorocarbonos (HFC), perfluorocarbonos (PFC) y hexafluoruro de azufre (SF6).

La reducciones son mas bien modestas y creo que no es mucho lo que aportan cuando se mueven, en algunos casos, entre un siete y un ocho %. Estados Unidos y Australia, entre otras naciones, esconden la cabeza, por decirlo de alguna manera para no ver ni presentir el desastre que se avecina.

Finalmente un importante número de delegados de países pro-nucleares han intentado boicotear el Protocolo de Kioto, en cada una de las cumbres, tratando de que la energía nuclear fuese incluida en la lista de medidas del Mecanismo para un Desarrollo Limpio (MDL). Pero reiteradamente la energía nuclear ha sido excluida de las políticas y medidas propuestas para combatir el cambio climático (Artículo 2 del Protocolo de Kioto).

En definitiva, para donde miremos, el ser humano, estructurado en la forma de gobierno y sociedades en que lo haga, salvo honrosas excepciones, aún no toma conciencia que vivimos en un ecosistema extremadamente frágil, formado hace millones de años, en un equilibrio perfecto y que hoy se balancea, al peso de la inconciencia colectiva, al borde del abismo de su propia destrucción.





jueves, 22 de febrero de 2007

¿Una planta nuclear para Chile?


Muchos le tienen miedo al uso de la energía nuclear con fines pacíficos. Generar energía eléctrica en un país que tiene tantos recursos hídricos parece ridículo, pero es talvez nuestro único camino si queremos seguir desarrollándonos. Eso o volver a quemar leña, calentarnos con carbón y alumbrarnos con velas.

Cuando se piensa que con un kilo de uranio, se puede producir tanta energía como si quemáramos 1.000 toneladas de carbón la respuesta parece fácil, siempre y cuando no pensemos en Chernobyl y en otras plantas nucleares, como Three Mile Island, que han tenido serios accidentes de operación.

Chile necesita energía eléctrica disponible para mover fábricas, iluminar ciudades y en general permitir un desarrollo sostenido en el tiempo. Generarla mediante las centrales hidroeléctricas se ha hecho cada vez más complicado por el impacto que, muchas de ellas, provocan en el entorno natural en el cual se levantan.

Desde la generosa cordillera, que es la columna vertebral de nuestro país, asoman más que suficientes caídas de agua para mover, sin parar, turbinas que generen la energía necesaria para las necesidades humanas e industriales, pero, aunque ellas no dañaran el bastante deteriorado patrimonio ecológico de Chile, hay que meditar que el calentamiento global provocado por naciones marxistas – China – y capitalistas Estados Unidos, no garantizan que la majestuosa y blanca montaña pueda ser así, blanca de nieve y pródiga en agua.

¿Una planta nuclear para Chile?, parece ser una solución. Casi suena a un plan de emergencia cuando nos hemos quedado dormidos, sin pensar en el futuro y confiando en el gas barato de una nación extranjera que, verdaderamente, nunca ha tenido gas ni para vender o regalar y menos para suplir sus propias necesidades.
Pero ya metimos la pata y nuestra vista se vuelve a la energía nuclear.
Asociada a la destrucción y muerte en la segunda guerra mundial con los bombardeos a Hiroshima y Nagazaki, temblamos solo en pensar en la contaminación que pueda producir y en los desechos radioactivos etc. Sin embargo, a no más 11 años de terminado el conflicto, en 1956 se puso en marcha, en Inglaterra, la primera planta nuclear generadora de electricidad para uso comercial. En 1990 había 420 reactores nucleares comerciales en 25 países que producían el 17% de la electricidad del mundo. (ciencias de la tierra y el medio ambiente).
Chernobyl nos recuerda que su uso requiere de un manejo cuidadoso y de plantas de última generación, especialmente en cuanto a sus sistemas de seguridad y operación, así como la formación de equipos técnicos de alta especialización.
En la experiencia sufrida por la Unión de Repúblicas Socialistas Soviéticas se encuentra una trágica herencia que se debe considerar. Entre el 15 y el 20% de las tierras agrícolas y de los bosques de Bielorrusia están tan contaminados que no se podrán usar durante los próximos cien años. Los casos de leucemia han aumentado notablemente y la salud de unos 350.000 ucranianos está siendo monitoreada, cuidadosamente, para detectar tempranamente las secuelas de la exposición a grandes dosis de radioactividad, sin considerar los miles de personas que ya han muerto.
¿Cómo funciona una planta de energía nuclear? En términos sencillos se genera calor mediante la “fisión” atómica, para ello se utiliza el isótopo 235 del uranio que es sometido a fisión nuclear en un reactor o varios reactores. En el caso soviético estalló uno de cuatro reactores.
En este proceso el núcleo del átomo de uranio (U-235) es bombardeado por neutrones y se rompe, originándose dos átomos de un tamaño aproximado a la mitad del de uranio y liberándose dos o tres neutrones que inciden sobre átomos de U-235 vecinos, que vuelven a romperse, originándose una reacción en cadena típica.
La fisión controlada del U-235 libera una gran cantidad de energía o calor, que se usa en la planta nuclear para calentar el agua y generar vapor de alta presión. Con este vapor que pasa por las aspas de una turbina se genera electricidad.
El uranio es, en términos muy simples, el combustible de un reactor. No es un mineral barato, además es un recurso no renovable, El mineral de uranio se encuentra en la naturaleza en cantidades limitadas. Depósitos importantes de este mineral existen en Estados Unidos con el 27,4% de las reservas mundiales, África que tiene el 33% y Australia con el 22,5% de la reservas en el mundo.
El uranio contiene tres isótopos: U-238 (99.28%), U-235 (0,71%) y U-234 (0,01%). El U-235, como podemos apreciar, conforma el 0.71 % del mineral por lo que debe purificado y refinado, se le llama comúnmente “uranio enriquecido” de esa manera se aumenta su concentración hasta llegar a niveles de un 3% U-235, haciéndolo así útil para la reacción nuclear.
Para emplear el material radioactivo en un reactor existe todo un sistema de proceso del elemento. Primero se preparan pequeñas pastillas de dióxido de uranio de unos milímetros de espesor. Cada una de estas delgadas tabletas contiene la energía equivalente a una tonelada de carbón. El procedimiento consiste en ponerlas en varillas, de 4 metros de largo que, a su vez, se instalan en grupos de unas 50 a 200 varillas, dependiendo del tamaño del equipo reactor. Un reactor nuclear normalmente puede contener unas 250 agrupaciones de estas varillas.
Finalmente veamos como se divide un reactor nuclear, como el que, probablemente, necesitaría nuestro país para generar energía en el futuro.

Lo primero es el reactor en el que se produce la fisión
Luego viene el generador de vapor en el que el calor producido por la fisión se usa para calentar el agua hasta su punto que es superior al de ebullición del agua
El equipo siguiente es la turbina que produce electricidad con la energía contenida en el vapor que la impulsa haciéndola rotar.
Finalmente está el condensador en el cual se enfría el vapor, convirtiéndolo en agua líquida para ser reutilizada.
La fusión nuclear ocurre en el reactor, allí están los grupos de varillas de combustible que, a su vez, están intercaladas con varias decenas de barras de control, hechas de un material que absorbe los neutrones. Introduciendo estas barras de control a mayor o menor profundidad, se puede controlar el ritmo de la fisión nuclear aumentando o bajando la temperatura, generando mayor o menor energía, ajustándola a las necesidades de generación de electricidad.
En las centrales nucleares modernas se ha instalado un circuito primario de agua en el que esta es calentada por el reactor. Este circuito forma un sistema cerrado en el que el agua circula bajo presión, para que permanezca líquida a pesar de que la temperatura que alcanza es de unos 293ºC. Con el agua del circuito primario se calienta un circuito de agua secundario. El agua del circuito secundario se transforma en vapor a presión que es conducido a la turbina. El giro de la turbina mueve a un generador que es el que produce la corriente eléctrica.
El uso de la energía nuclear tiene aspectos favorables y desfavorables.
Es más barata y no contaminante en términos del proceso, no del material. El almacenamiento a largo plazo de los residuos radiactivos que se generan en las centrales, bien sea en el funcionamiento habitual o en el desmantelamiento, cuando la central ya ha cumplido su ciclo de vida y debe ser cerrada es el mayor problema.
Otro problema es el escape de radioactividad por una falla masiva o mala operación del o los reactores.
En una central nuclear que funciona correctamente la liberación de radiactividad es mínima y perfectamente tolerable ya que entra en los márgenes de radiación natural que habitualmente hay en la biosfera.
Especialmente preocupante es al agua radioactiva del circuito primario si ella escapa hacia el exterior o a fuentes externas.
Lo del uso de la energía nuclear es mucho más amplio y profundo, en lo técnico, de lo que someramente hemos descrito para ustedes.
Chile está en una encrucijada. Políticamente el tema está por entrar a la agenda del Gobierno, resulta claro que el camino se está pavimentando para adoptar una política al respecto – declaraciones del Presidente del PPD Sergio Bitar y del Presidente de la Cámara de Diputados Antonio Leal – son claras señales que el asunto se está hablando en serio.
Para muchos expertos Chile solo podría entrar al club de los países con centrales nucleares, Argentina hace muchos años que cuenta con una, nos tomaría entre siete y diez años.
Creo que es el momento de la discusión ciudadana.

sábado, 17 de febrero de 2007

“There is plenty of room at the bottom”.

(Hay mucho lugar allí al fondo)
Con las palabras que sirven de encabezamiento a este artículo, Richard P. Feynmann, Premio Nóbel de Física, considerado el padre de la nanotecnología inició una conferencia a fines de la década de los cincuenta en una Universidad Norteamericana. Mucho creyeron que se les estaba invitando a acomodarse mejor en una sala llena de profesores y estudiantes.

El tema del Dr. Feynmann era, por decir lo menos, apasionante.

Yo lo descubrí hace solo dos años dado que como periodista, y muy en solitario, me he involucrado en lo científico más como una entretención que de manera especializada. Con el paso del tiempo he tenido la oportunidad de ser invitado a dar conferencias sobre este tema que, a insinuación de un amigo ingeniero, compilé con el título de “reflexiones futuristas”.

La Nanotecnología es el estudio, diseño, creación, síntesis, manipulación y aplicación de materiales, aparatos y sistemas funcionales, a través del control de la materia a nano escala, y la explotación de sus fenómenos y propiedades.

Nos lleva a la posibilidad de fabricar materiales, máquinas e instrumentos a partir del reordenamiento de átomos y moléculas.

Es como si cada átomo y molécula fueran los ladrillos para una nueva construcción.

La unidad de medida “Nano” es la mil millonésima parte de un metro.

Por su parte un micrón es la milésima parte de un milímetro.

Los dispositivos de memoria y de lógica en venta en 1985 tenían estructuras con componentes de aproximadamente un micrón de ancho.

Para 1995, momento de la aparición del Pentium, se habían alcanzado tamaños de más o menos un tercio de micrón, 350 nanómetros.

Ahora se trabaja ya en estructuras de 100 nanómetros, es decir, de un décimo de lo que se había logrado en 1985.

El nanómetro marca el límite de reducción a que podemos llegar cuando hablamos de objetos materiales. En un nanómetro caben cinco átomos.

Un globulo rojo mide 5.000 nanómetros

Las enzimas, hormonas, RNA y ADN, podemos compararlas con máquinas biológicas que, en nuestro organismo, cumplen funciones muy peculiares. Esas pequeñas máquinas son moléculas. Tienen un rango de tamaño de entre uno y varias decenas de nanómetros. Podemos llamarlas, con toda propiedad ¡nano máquinas! Están formadas por miles y decenas de miles de átomos.

Cada uno de esos miles de átomos tiene una ubicación exacta, definida con precisión por un diseño de ingeniería, de modo que el conjunto de esa nano maquinaria pueda funcionar correctamente.

Se trabaja sobre tamaños que no podemos ver, salvo que lo hagamos y manipulemos con un sofisticado equipo, que en castellano podemos traducir como “microscopio de efecto tunel”. Una molécula de ADN mide 2.5 nanómetros. Diez átomos de hidrógeno alineados uno tras otro tienen el largo de un nanómetro.

Cuando se manipula la materia a escala tan minúscula de átomos y moléculas, demuestra fenómenos y propiedades totalmente nuevas.

¿Para que sirve la nanotecnología? Bueno se utiliza para crear materiales, aparatos, sistemas novedosos y de bajo costo, con propiedades únicas, algunas de las cuales tendrán mucho que ver con prolongar nuestra vida, curando enfermedades y previniendo otras, además de un desarrollo tecnológico difícil de dimensionar en este momento.

Cambios cuánticos: En la nano escala, donde rigen las leyes de la física cuántica, las sustancias ordinarias pueden presentar nuevas propiedades, como resistencia extraordinaria, cambios de color, incremento de la reactividad química o conductividad eléctrica, características que las mismas sustancias no tienen en escalas mayores.
Cambios cuantitativos: Con nanotecnología se pueden fabricar cosas "de abajo hacia arriba". Los átomos y las moléculas son los ladrillos de todo, desde un automóvil hasta un edificio. Al usar nanotecnología para fabricar "desde abajo" y evitar el procesamiento de materias primas, la cantidad requerida de éstas se puede reducir drásticamente.
Cambios cualitativos: La fusión entre la materia viva y la no viva en la nano escala, junto con el ensamblaje desde el nivel nanoscópico implica que haya nuevas plataformas de manufactura industrial que podrían ocasionar que la geografía, las materias primas tradicionales e incluso la fuerza de trabajo se volvieran irrelevantes.

El comportamiento de los materiales a una escala tan pequeña lo podemos graficar en algunos de ellos.

El carbono, en la forma de grafito (como en los lápices) es muy suave y maleable, pero en la nano escala puede ser más fuerte que el acero y seis veces más ligero.

El óxido de zinc, generalmente aparece blanco y opaco, pero en la nano escala se vuelve transparente.
El aluminio, del que están hechos los envases de varias bebidas, presenta combustión espontánea en la nano escala y por eso podría usarse como combustible para los cohetes.

Veamos algunos aspectos prácticos de la Nanotecnología molecular.
Por ejemplo se encuentra en etapa experimental un equipo desarrollado por Nanosphere, en Northbrook (Illinois), y basado en la investigación de Chad Mirkin, profesor de química de la Universidad de Northwestern,

Se trata de un detector ultrasensible de proteínas y ADN que podría detectar enfermedades infeccionas y genéticas en sus primeras etapas, antes de que se conviertan en malignas o se extiendan.

Tiene dos ventajas, su precio relativamente bajo y su simplicidad.

Con su extraordinaria sensibilidad, puede detectar signos de enfermedad que pasarían desapercibidos para los dispositivos actuales.

Cada año, en los Estados Unidos, unos 100.000 pacientes que presentan síntomas similares a los de un infarto de miocardio son enviados de vuelta a sus casas, sin tratamiento, debido a que los métodos disponibles actualmente no pueden diagnosticar algunos infartos en su etapa inicial.

Un 20% de estas personas muere en un mes y para el resto el riesgo de sufrir un infarto de miocardio en el año venidero es elevadísimo.

Este nuevo dispositivo de Nanosphere, basado en nanopartículas de oro, detecta la proteína liberada durante un infarto de miocardio en concentraciones mil veces más pequeñas que las que pueden detectar los métodos actuales y, por tanto, puede ayudar a los médicos a diagnosticar y tratar dichos infartos.

Otros de los aspectos que se encuentran en etapa experimental son las máquinas biológicas que podrían transportar “nano robot” utilizando el torrente sanguíneo de venas arterias y hasta vasos capilares. Esto equivale a poder llevar las medicinas al lugar preciso donde se le necesita, evitando daños o efectos secundarios.

Una versión funcional del nanocoche podría transportar otras moléculas a lo largo de una ruta pre determinada o deshacerse de ellas a voluntad en un lugar específico.

Los nanotubos de carbono.
Han vivido con nosotros millones de años, nunca los pudimos ver y menos constatar su tremenda utilidad. Ya los hombres más antiguos que habitaban la tierra convivían con ellos sin enterarse de su existencia y menos de sus propiedades.

El año 1991: Sumio Lijima, (Laboratorio de Investigación fundamental de NEC en Tsukuba) descubre los nanotubos observando una mota de hollín. Desde ese momento en adelante muchas cosas comenzarían a cambiar.

Aún hoy se siguen investigando todas las aplicaciones que esta sencilla, pero a la vez compleja, estructura puede representar en el desarrollo futuro de elementos útiles para el hombre y sus afanes de progreso.

La vigilancia por pantallas de los aeropuertos podría ser mucho más fácil, si las cosas salen como planea el Prof. Michael Strano, de la Universidad de Illinois.

Este profesor, de química e ingeniería química, y sus alumnos han estado trabajando en una tecnología similar que utiliza unos sensores basados en nanotubos de carbono para detectar armas químicas.

Han sido capaces de detectar agentes químicos como los gases nerviosos VX y sarín a un nivel de 50 partes por trillón.

Una parte por trillón equivale a una gota de agua en una piscina del tamaño de un campo de fútbol y 13 metros de profundidad.

"Ahora nos vamos a centrar en los explosivos, que son más complicados", afirma Strano.

A escala “nano” estas frágiles estructuras de carbono tienen un comportamiento asombroso:

En resistencia a la tracción resisten 45 mil millones de pázcales.

El acero se rompe a los 2 millones de pázcales.

Se doblan y vuelven a su estado original sin deteriorarse. Los metales que conocemos incluyendo las fibras de carbono se fracturan ante intentos de esa naturaleza.

La capacidad de transporte de energía eléctrica es de mil millones de amperes por centímetro cuadrado.

El alambre de cobre se funde, aproximadamente, a un millón de amperes por centímetro cuadrado.

Incrustados en un material compuesto, los nanotubos disfrutan de enorme elasticidad y resistencia a la tracción.

Podrían emplearse en coches que reboten en un accidente o edificios que oscilen, en caso de terremoto, en lugar de agrietarse.

La nanotecnología molecular es un tema que debemos tomar en serio, de no hacerlo seremos sobrepasados, en ciencia y tecnología, más allá de lo imaginable.

Estados Unidos lidera la investigación nanotecnológica.
Ya el año 2004, 22 agencias gubernamentales involucradas en programas de investigación en esta área, gastaron 1.000 millones de dólares.

Estados Unidos presentó un plan estratégico para los próximos 10 años, consolidando la investigación nanotecnológica como un sector relevante para esa nación.

Invierten grandes cantidades de dinero en Investigación casi todos los países de la CEU (Comunidad económica Europea), destacando Alemania, España e Inglaterra, a ellas debemos agregar China, Japón, Corea del Sur y la India.

La salud indudablemente es beneficiada por la nanotecnología.

Se podrá detectar el cáncer en sus inicios, a escala de una molécula, y varios años antes que se produzcan los primeros síntomas. Se le podrá atacar en su etapa primaria, cuando no se puede ver o medir un tumor.

Podremos ingerir una gran cantidad de sensores nanométricos que se instalaran en diferentes partes de nuestro cuerpo, para monitorear todas las funciones de nuestros órganos vitales. Ellos nos avisaran tempranamente cuando algo anda mal, a una escala molecular. Ello nos daría varios años de ventaja antes de sentir el primer síntoma de una enfermedad.

Todo esto parece ciencia ficción o el producto de una mente afiebrada, pero antes de 15 años podemos vivir, parte importante, esta realidad.

Nanoparticulas magnéticas podrán aislar moléculas o cuerpos moleculares dañinos a nuestro organismo y eliminarlos.

BUCKYBALLS

En 1985, investigadores de la Universidad de Rice, EE.UU., observaron que condensando carbono vaporizado en un medio inerte, este formaba estructuras perfectamente redondas de 60 átomos, similares a una pelota de fútbol compuesta por paños hexagonales. Estas moléculas fueron bautizadas como buckyballs, y constituyen el descubrimiento más famoso en la corta historia de la nanotecnología, algo que les valió a los doctores Harold W. Kroto y Richard E. Smalley, el Premio Nóbel de Química 1996. Su utilidad práctica se encuentra en período de experimentación.

Un nuevo método permitirá detectar el cáncer de próstata por medio de un simple examen de orina, años antes que los controles habituales puedan descubrirlo.

No se necesitan biopsias ni exámenes invasivos de ninguna naturaleza.

La demanda de productos de nanotecnología para la salud en los Estados Unidos se prevé que se incremente casi el 50% por año hasta alcanzar los 6.5 miles de millones en 2009.

Estos aumentos serán liderados por la introducción de nuevos y mejoradas terapias para el sistema nervioso central y el cáncer basadas en tecnologías de solubilización.

Para 2020 la demanda de productos de nanotecnología para la salud se proyecta que exceda los 100.000 millones de dólares.

Estas y otras tendencias se presentan en un nuevo estudio: Nanotechnology in HealthCare, llevado a cabo por el Freedonia Group

Salud y Nanobiotecnología: hay grandes expectativas en las áreas de prevención, diagnóstico y tratamiento de enfermedades.

Por ejemplo, además de los sensores y nanorobot mencionados anteriormente, podrán colocarse sondas nanoscópicas en un lugar determinado, para medir nuestro estado de salud las veinticuatro horas del día.

Se desarrollarán nuevas herramientas para luchar contra las enfermedades hereditarias mediante el análisis genético, y se podrán crear indicadores que detecten y destruyan, una a una, células cancerígenas.
Un equipo de investigadores trabajando en el MIT, Brigham y en el Hospital de Mujeres de Boston enlazaron las pequeñas partículas con dosis de quimioterapia, y cuando las inyectaron apuntaron sólo a las células cancerosas.

Los investigadores primero realizaron sus experimentos sobre células que crecieron en laboratorios y luego en ratones con tumores humanos de próstata, según el estudio publicado en la edición digital de los Proceedings of the National Academy of Sciences.

“Una única inyección de nuestras nanopartículas erradicó completamente los tumores en cinco de los siete animales tratados y en el resto de los roedores también hubo una significativa reducción del tumor comparado con el (grupo de) control”, dijo el doctor Omid Farokhzad, profesor asistente en Brigham, el Hospital de Mujeres y la Harvard Medical School.

Según un artículo publicado el 16 de agosto de 2006 en Nanotechweb.org, investigadores de la Facultad de Medicina de la Universidad de Washington, del Philips Medical Systems, del Bristol-Myers Squibb Medical Imaging y del Reactor de Investigaciones de la Universidad de Missouri, todos ellos en los EEUU, han utilizado nanopartículas para administrar un fármaco dirigido a las placas (ateromas) que se pueden formar en el flujo sanguíneo y que bloquean las arterias.

Las placas ateroscleróticas se forman debido a una acumulación de colesterol, células inflamatorias y tejido fibroso en el interior de la arteria.

Si la placa se rompe, sus fragmentos podrían desplazarse por el cuerpo y bloquear el riego sanguíneo, provocar turbulencias en el flujo lo que provoca coágulos al corazón o al cerebro, pudiendo causar un infarto o una apoplejía.
Las placas desarrollan su propia fuente de riego para crecer; para ello, generan pequeños vasos sanguíneos en la pared de la arteria que se comunican con la placa.

Fumagillin actúa contra las placas restringiendo el crecimiento de estos nuevos vasos sanguíneos.

“Previamente habíamos comentado que podíamos visualizar las placas con nuestra tecnología de nanopartículas, pero por primera vez hemos demostrado que las nanopartículas también pueden dirigir un fármaco a una localización enferma en un organismo vivo”, afirma Patrick Winter de la Facultad de Medicina de la Universidad de Washington.
El equipo unió nanopartículas paramagnéticas al fármaco fumagillin y a un componente que se pega a las células de los nuevos vasos sanguíneos en desarrollo, lo que hizo que las nanopartículas se concentrasen en el lugar deseado.

Las partículas se podían visualizar por resonancia magnética (MRI), lo que permitió a los médicos comprobar que el fármaco había llegado a la localización deseada, medir la cantidad que finalmente había llegado y hacer un seguimiento del progreso del tratamiento.

“El fármaco fumagillin puede tener efectos secundarios neurocognitivos y dañar el cerebro en dosis elevadas” afirma Winter. “La capacidad de las nanopartículas para concentrar el fármaco en el sitio enfermo permite reducir la dosis.

Esto podría abrir las puertas a muchos fármacos que no han sido aprobados por causar demasiados efectos secundarios a elevadas dosis.

Podría valer la pena volver sobre estos fármacos y averiguar si combinados con nanopartículas podrían ser eficaces en menores dosis, lo que los haría clínicamente útiles”.
Winter y sus colegas, cuyo trabajo se publicó en Arteriosclerosis, Thrombosis, and Vascular Biology, utilizaron una dosis de fumagillin 50.000 veces menor que la utilizada en un estudio anterior y, a pesar de ello, el tratamiento redujo el crecimiento de los nuevos vasos sanguíneos de las placas en un 60-80%.

“Ahora queremos estudiar las primeras fases de la enfermedad, en las que los pacientes no necesitan todavía una intervención inmediata para prevenir problemas cardíacos graves”, afirma Winter.

“Creemos que las nanopartículas combinadas con fumagillin se podrían incorporar en un protocolo que incluya estatinas para la reducción de lípidos o cambios dietéticos”.

En definitiva, sería lato seguir mencionando otros aspectos que contiene la nanotecnología, hay algunos francamente negativos que será materia de un artículo futuro. Entretanto visualicemos lo bueno y positivo.

Un último comentario. Nuestro país está a años luz de esta conquista. Muchos profesionales nunca han escuchado hablar de nanotecnología molecular. He dado conferencias en el Centro de extensión de la Universidad Católica de Santiago, en Antofagasta, Talca, en la Universidad de La Serena, ante destacados profesionales que me han dicho que la palabra “nanotecnología molecular” les era desconocida. No es un delito no haberla escuchado o leído, pero bueno es que nos pongamos al día.

Estamos, como país, muy atrasados en Ciencia y Tecnología y la inversión no tiene relación con los miles de millones de dólares que se gastan en comprar tecnología ajena.

jueves, 15 de febrero de 2007

Creer en Dios a traves de la ciencia


La existencia de un Dios, creador, omnipotente y eterno, ha sido siempre un interrogante. El misterio de su existencia y origen ha llamado a la curiosidad y a creer en él mediante la fe.

Los dogmas contenidos en las religiones, que tratan de explicar nuestra presencia en la tierra, plantean que hay que creer sin buscar razones científicas para ello. Aceptar lo inexplicable como una certeza personal asumiendo lo que determinados libros sagrados dicen.

Cada religión tiene un texto, especialmente las monoteístas, Biblia, Corán, Torá, para referirnos a cristianos, musulmanes o judíos.

¿Puede la ciencia y la investigación conducirnos a una explicación? En lo personal creo que sí. Llevo algunos años dedicándome a dar conferencias sobre temas científicos que han ayudado a confirmar mis creencias.

Los libros sagrados, compilación de tradiciones orales y leyendas muy antiguas nos hablan del origen del universo. Es un gran estallido de creación, “al principio era el verbo”, se nos dice en Génesis, la palabra solamente. Nos habla de un ser que tenía la voluntad y el poder de crear de la nada todo.

“Hágase la luz” dijo la palabra “y la luz fue hecha” y se crearon los planetas y todas las cosas que en ellos había.

La explicación científica nos habla de la existencia de dos gases fundamentales, el Helio y el Hidrogeno, (los elementos más comunes del universo), también de un universo en expansión y de la teoría de un universo pulsante, que se expande y contrae cíclicamente.

A partir de los dos gases fundamentales de la creación, en un período de entre 8.000 y 18.000 millones de años se produce el Big – bang. “Un principio solo era el verbo”.

De pronto todo, inesperadamente, se pone en movimiento. La teoría de la gran explosión tuvo su comienzo con las observaciones realizadas por Edwin Hubble. Es allí cuando la materia inicia una transformación asombrosa a una escala difícil de imaginar sin entrar al mundo de la física. En teoría los investigadores de la moderna astronomía han deducido la historia del universo en fechas tan tempranas de apenas 10-43 segundos (10 millones de trillones de trillones de un segundo) después de la gran explosión.

El reloj del Universo naciente comenzó a correr y cada suceso maravilloso era seguido por otro, en un orden, que encadenaba eventos a escala atómica con un propósito definido.

Durante el primer segundo o menos del Universo, los protones, los neutrones, y los bloques constituyentes de los átomos, fueron formados, cuando los fotones chocaron y convirtieron su energía en masa, y las cuatro fuerzas estaban partidas en identidades separadas. ¿Cuál era la inteligencia que desató estos acontecimientos en un laboratorio sin límites?

Pero era solo el inicio, los segundos seguían corriendo y nuevas maravillas esperaban en el espacio que no tenía luz ni contenidos sólidos.

La temperatura del universo bajó durante este tiempo, de 1032 grados (de 100 millones de trillón de trillones) a 10 mil millones de grados. Aproximadamente tres minutos después de la gran explosión, cuando la temperatura bajó a mil millones grados, los protones y los neutrones se combinaron para formar los núcleos de algunos elementos más pesados, el más notable posible es el helio.

Cuando se es creyente no se asumen los hechos exclusivamente por textos, cuyo origen se confunde en el tiempo. Ellos son, para mí, una referencia a la que vale la pena acudir para sustentar la racionalidad científica cuyo fundamento es la prueba, la demostración y comprobación de la teoría.

Pasado un tiempo, que medido en relación al gigantesco reloj universal, es modesto, viene el paso principal, 300.000 años, aproximadamente, después de la gran explosión, cuando el universo marcaba una temperatura de 3.000 grados.

A esa temperatura, los electrones podían combinar con los núcleos atómicos para formar los átomos neutrales (no puros iones como antes). Sin los electrones libres dejados a los fotones de la dispersión de la luz, el Universo llegó a ser transparente a la radiación (es esta luz que vemos hoy como la radiación cósmica de fondo.)

Y Dios dijo “hágase la luz y la luz fue hecha”

La creación marchaba a paso seguro para formar los elementos que miles de millones de año después albergarían la vida humana, animal y microscópica, que hoy conocemos.

Cada cosa a su turno, las estrellas y las galaxias se comenzaron a formar cerca de mil millones de años después de la gran explosión, y el universo ha continuado, desde entonces, creciendo más grande y más frío. Hasta cuando aún no podemos saberlo.

La pregunta es ¿cómo se puede llegar a la creencia religiosa, por definirla de alguna manera, mediante la comprobación científica?

Para no aburrirles hagamos el siguiente planteamiento, muchas de las características físicas del universo parecen diseñadas, finalmente, para producir vida.

Si las fuerzas relativas de las cuatro fuerzas fundamentales fueran levemente diferentes, las estrellas pudieron nunca haberse formado y la vida como la sabemos habría sido imposible. O si el Universo se hubiera ampliado más rápidamente que como lo hizo, la materia se habría separado hacia fuera rápidamente para unirse en cualquier objeto significativo. Inversamente, si la extensión hubiera sido justo un poco más lenta, el universo se habría derrumbado, dentro de una Gran Contracción. (Big Crasa.)

El creador, el gran arquitecto, el supremo hacedor, la fuerza etc., como queramos llamarle, existe. No lo vemos, no lo tocamos, pero sea quien sea es el origen de todo.

El es el Alfa y el Omega.

Las discrepancias se inician cuando junto al Dios o creador, construimos, entre mitos y leyendas, una historia que cada cual quiere interpretar como única y verdadera sin mirar más allá de las hojas del libro sagrado que consulta.

Quedemos, talvez, que en un principio solo fue el verbo. La palabra encarnada en una acción que, hasta hoy, nos sigue apasionando en la búsqueda de la verdad.