lig tv izle
justin tv

Geología, Peligros Naturales y GeoTecnología

Blog en Monografias.com

 

Ciencia y tecnología

La primera bombilla que está viva

Generar luz sin consumir energía eléctrica puede parecer una utopía, pero la biología tiene una respuesta a ese desafío a través de la bioluminiscencia. El truco está en aprovecharla de forma tal que se convierta en una alternativa viable y amigable con el medioambiente. Philips ha comenzado a explorar un concepto de bioluz basado en bacterias alimentadas con metano. Sus aplicaciones podrían alcanzar a muchos entornos de baja luz, desde cines y discotecas hasta sistemas de señalización y salidas de emergencia.

Se dice que lo esencial es invisible a los ojos, y esto es particularmente cierto a la hora de consumir energía. Encender una luz puede ser lo más natural del mundo para nosotros, ¿pero cuánta energía estamos desperdiciando que no vemos? Desde los cargadores de los móviles hasta aquellos equipos de audio que reportan la hora incluso estando “apagados”, el desperdicio de energía puede ser muy importante, aunque ya se han activado diferentes regulaciones que buscan reducir esta pérdida. Una simple señal que ilumina la palabra “salida” o las flechas indicatorias de las salas de cine necesitan de energía eléctrica a pesar de emitir una luz muy baja, por lo tanto, si los resultados son tan humildes, y el consumo está allí de todas formas, ¿no se podría hacer algo al respecto?

De acuerdo con la gente de Philips, sería posible implementar un sistema de bioluz, basándose en la bioluminiscencia de algunas bacterias. Su concepto tiene la apariencia de células montadas en la pared utilizando un marco de acero, interconectadas entre sí por tubos de silicio que alimentan a las bacterias con metano. El resultado es la emisión de una luz verde, pero puede ser alterado con la introducción de proteínas fluorescentes. El metano es obtenido del digestor instalado como parte del concepto “Microbial Home” de Philips, un hogar en el cual lo que normalmente es considerado como desperdicio puede ser reutilizado para el funcionamiento de otros dispositivos.

Señalizaciones
Señalización en caminos, luces de emergencia, salidas para cines, luz ambiental y hasta indicadores para sistemas de diagnóstico (como monitores de diabetes) serían algunas de las aplicaciones teóricas para este tipo de iluminación. Una bioluz no sería adecuada para iluminar un hogar entero, pero también contribuye a que la “iluminación estética” pueda volverse mucho más verde y eficiente de lo que es ahora. Apenas se trata de un concepto, y sería algo apresurado hablar de una aplicación comercial, sin mencionar el hecho de que estas luces necesitan metano para “trabajar”. Sin embargo, si la generación de metano a partir de material de desperdicio se convierte en una opción para los hogares del futuro, ¿entonces por qué no?
Cortesia ABC.es

Ciencia y tecnología

La fecha 11/11/11 genera inquietud

El próximo viernes 11 de noviembre es una fecha esperada por los numerólogos de todo el mundo, pues coincidirán los números del día, mes y año (11/11/11) incluso se suma la hora 11:11.

Para los adeptos a las ciencias ocultas, esta casualidad podría indicar la ocurrencia de eventos inusuales, mientras que para la mayoría de la gente esta coincidencia de reloj y calendario, que se produce una vez en cien años, pasará totalmente desapercibida, los numerólogos y otros esotéricos buscan las señales que esto podría tener.

Miles de aficionados a las ciencias ocultas planean reunirse ese día para ceremonias o danzas y ya han aparecido varias páginas dedicadas a esta fecha en las redes sociales como Facebook.

Algunos numerólogos atribuyen al número once poderes paranormales que proporcionan un canal de comunicación con el subconsciente. Otros, sostienen que el once representa la dualidad del bien y del mal en la humanidad

____________________________________________________________________________________________
Cortesia Internet

Ciencia y tecnología

Japón evacuará a los residentes cercanos a la central

El Gobierno de Japón ha confirmado que procederá con la evacuación de las áreas que se encuentran en un radio de entre 20 y 30 kilómetros de la central nuclear Fukushima-1, accidentada el pasado 11 de marzo tras el terremoto y el posterior tsunami que asoló la costa noreste nipona.

Una ‘hoja de ruta’ difundida el miércoles propone emprender el desalojo del área a finales de este mes o a comienzos de septiembre, teniendo en cuenta que la situación de la central ha mejorado, en palabras del Ejecutivo japonés.

En la actualidad, se aconseja a los residentes de esa zona que permanezcan en sus hogares y, que estén preparados para efectuar una evacuación de emergencia.

Proceso de negociaciones
El Gobierno nipón iniciará las negociaciones con las autoridades locales a finales de esta semana y les propondrá preparar los planes de reconstrucción, lo que incluirá la reapertura de los hospitales y otros servicios públicos, así como la descontaminación de los centros educativos.

No obstante, ante las últimas informaciones que apuntaban que el nivel de radiación en la planta de Fukushima-1 ha alcanzado su máximo desde el 11 de marzo, el gabinete liderado por el primer ministro, Naoto Kan, se ha comprometido a apoyar a los gobiernos locales en la labor de retorno de los residentes a sus hogares.

Los debates para el desmantelamiento de la central de Fukushima han empezado este jueves en el seno de un grupo de expertos constituido por la Comisión de Energía Atómica nipona. Se espera que en enero del año próximo los reactores de la planta se desactiven definitivamente.

En la primera sesión, el presidente de la Comisión, Shunsuke Kondo, ha emplazado a los miembros a llevar a cabo los esfuerzos necesarios a medio y largo plazo para clausurar la central.

Desmantelamiento cercano
Este grupo de expertos definirá un ‘tempo’ para el desmantelamiento de la planta de Fukushima-1 tomando como referencia el utilizado en la central estadounidense de Three Mile Island en 1979. El principal objetivo, según ha informado la cadena japonesa NHK, es extraer las barras de combustible fundidas. Sin embargo, se desconoce dónde y en qué condiciones se encuentran dichas barras en los tres reactores.

El profesor de la Universidad de Kioto, Hajimu Yamana, que encabeza el grupo de expertos, ha explicado que todavía queda un largo tiempo de preparación para proceder a la extracción de las barras derretidas, ya que, en el caso de Fukushima-1, los reactores están más dañados que los de la central de Three Mile Island. Como consecuencia, Yamana ha subrayado que dicho proceso podría llevar 20 años.

Por otra parte, según ha informado el ministro japonés de Industria, Banri Kaieda, el Gobierno despedirá a tres altos funcionarios responsables de política nuclear por su responsabilidad en la gestión de la crisis en la central de Fukushima.

Los afectados son el viceministro de Economía, Comercio e Industria, Kazuo Matsunaga; el responsable de la Agencia de Seguridad Nuclear e Industrial, Tetsuhiro Hosono; y el responsable de la Agencia para Recursos Naturales y Energía, Tetsuhiro Hosono.
Cortesia elmundo.es

Ciencia y tecnología

Nanomedicamentos inteligentes

La Nanomedicina aprovecha las interesantes propiedades físicas, químicas y biológicas de los materiales de tamaño nanométrico para conseguir mejoras en el campo de la salud. A día de hoy, la Nanomedicina se plantea varios retos fundamentales.

Por una parte busca desarrollar mejores métodos de diagnóstico de enfermedades, que permitan la detección más temprana y fiable de ciertas patologías. Por otra parte, pretende mejorar los tratamientos médicos para hacerlos más eficaces y con menores efectos secundarios. También cabe destacar el esfuerzo investigador que se está dedicando a la medicina regenerativa.

La Nanomedicina promete ejercer un papel relevante en la mejora de nuestra calidad de vida, pero ¿cómo de reales y cercanos son los avances que la Nanomedicina plantea?, ¿qué tratamientos o diagnósticos serán los primeros en aplicarse?, ¿cómo serán los efectos secundarios de estos tratamientos? Este artículo es el primero de una serie que intentará dar respuesta a estas preguntas.

Nanomedicina
En el mundo existen actualmente cientos de grupos de investigación dedicados a explorar las posibilidades de la Nanomedicina. De estos, un buen número de entre los más prestigiosos son españoles. En este artículo y en próximos tendré la fortuna de poder dar la palabra a alguno de estos investigadores expertos para que nos ofrezcan la visión más actual del estado de desarrollo de estos prometedores adelantos.

Uno de estos grupos de gran proyección internacional está dirigido por el investigador Jesús Martínez de la Fuente, del Instituto de Nanociencia de Aragón (INA). Su trabajo de investigación está centrado en el diagnóstico y tratamiento de cáncer mediante la utilización de nanopartículas.
Mónica Luna. ¿Cuál es el principal objetivo de la investigación actual en nanomedicina?

Jesús Martínez de la Fuente: Los esfuerzos se están dirigiendo hacia el desarrollo de sistemas que nos permitan detectar la enfermedad en los inicios de la misma, precisamente cuando va a ser más fácil erradicarla, y que además de detectarla, la puedan tratar. Un fármaco de este tipo, tan eficaz, nos puede parecer sacado de una película de ciencia ficción, pero lo cierto es que en la actualidad existen centenares de grupos de investigación de todo el mundo tratando de conseguir estos ‘nanomedicamentos inteligentes’.
M. L. ¿En qué consisten estos nanomedicamentos que están estudiando?

J. M. de la F: Investigamos la utilización de nanopartículas tanto para el diagnóstico como para el tratamiento del cáncer. En general, las nanopartículas con las que trabajamos miden unas pocas decenas de nanómetros. Un nanómetro es la millonésima parte del grosor de la cabeza de un alfiler. La materia, en esos tamaños nanométricos, adquiere propiedades diferentes, y surgen así nuevas utilidades para estos materiales. Además, hay que tener en cuenta que todas las biomoléculas relevantes en biomedicina tales como ADN, proteínas, carbohidratos, etc… son justamente de tamaño nanométrico.

M. L. ¿Cómo son estas nanopartículas que investigan como ‘fármacos inteligentes’?

J. M. de la F: Las nanopartículas constan de un núcleo de metal u otro material inorgánico y una envuelta de material orgánico. La principal función de este material orgánico es hacer que las nanopartículas sean solubles y estables en medios acuosos, como la sangre. Además, estas nanopartículas portan unas moléculas que les hacen especialmente atractivas a las células cancerígenas y otras moléculas que son el fármaco. Se podría decir que portan un ‘cebo’ para las células malignas, aparte de la medicina propiamente dicha. Por ello debemos tener en cuenta que aunque comúnmente hablemos de ‘nanopartículas’ sería más adecuado hablar de ‘nanosistemas multifuncionales’, ya que estas nanopartículas constan de muy variados componentes.
M. L. ¿Es esta la principal ventaja de estos ‘nanofármacos inteligentes’, el hecho de que ‘ataquen’ sólo las células cancerígenas dejando las sanas al margen?
J. M. de la F: Si, en la actualidad se pretende dar ese paso más allá: conseguir que el medicamento sea dirigido específicamente al tejido u órgano a tratar. Si lográramos este objetivo, los efectos secundarios actuales del fármaco prácticamente se eliminarían.
M. L. ¿Cuál está siendo actualmente la aportación de su grupo de investigación al tema del diagnóstico y tratamiento del cáncer?

J. M. de la F.: Nosotros pretendemos desarrollar una metodología general y eficaz para la obtención de marcadores tumorales y fármacos antitumorales, que además permitan liberar el fármaco antitumoral exactamente donde nosotros queramos con un doble sistema de seguridad. En primer lugar, la nanopartícula porta un ‘cebo’ específico para las células cancerígenas.Esto hará que las nanopartículas (que entre otros componentes, portan los fármacos) se acumulen en el tumor. Por otra parte, gracias a una nueva estrategia que hemos diseñado, el pequeño porcentaje de fármaco que no se localice en el cáncer, no será activo. Solo el fármaco que se encuentre en el tumor actuará debido a que será sólo y exclusivamente allí donde se produzca su liberación. Gracias a este doble sistema de seguridad pretendemos mejorar la actividad de los fármacos antitumorales existentes y de esta manera minimizar los efectos secundarios de los mismos, mejorando así la calidad de vida de los enfermos de cáncer.
M. L. ¿Cómo de seguros serán estos medicamentos basados en la utilización de nanopartículas?

J. M. de la F: Según la legislación farmacológica actual, los descubrimientos realizados en los laboratorios con fines médicos tienen que someterse a exigentes evaluaciones realizadas por agencias nacionales e internacionales, que son aún más estrictas cuando se trata de un ‘nanomedicamento’. Pueden pasar de 15 a 20 años desde que se descubre un ‘nanofármaco’ hasta que sale al mercado. Si finalmente el fármaco se llega a comercializar podemos estar seguros de que es fiable.
M. L. ¿Han realizado algún estudio de los posibles efectos tóxicos del tipo de nanopartículas que utilizan en su investigación?

J. M. de la F: Estudios preliminares de nuestro grupo han demostrado que siempre que las nanopartículas sean suficientemente pequeñas, se eliminan a través de los riñones y la orina, con muy baja acumulación en otros órganos. Estudios exhaustivos de biocompatibilidad y eliminación se realizarán para confirmar estos resultados.
M.L. Muchas gracias por su tiempo y le deseo mucha suerte en esta labor de investigación que tanto beneficio puede reportar a la sociedad.

J. M. de la F: De nada, ha sido un placer.
Cortesia elmundo.es

Ciencia y tecnología

La ciencia del clima, la energía y la sociedad

Es claro que las  montañas tienen su efecto, y el desierto de Gobi está por encima de los 35º N, y ni Las Pampas, ni Brasil, ni la costa este de África ni la de Australia son desiertos. Pero la regla es real y en esas latitudes llueve muy poco o nada, salvo algún aguacero salvaje uno o dos días al año.

¿Por qué ocurre ésto?  Saberlo nos ayuda a saber mucho sobre las lluvias en España, y la evolución del clima en el mundo.

El aire húmedo y caliente sube desde la superficie del mar hasta la parte alta de la atmósfera, en donde hay una como tapa de la misma, que se denomina la tropoausa y está a unos 15 km de altura en la zona ecuatorial y baja a unos 8 km sobre los polos.

Cuando el aire sube y llega arriba, en bandas que van de oeste a este, solo puede seguir moviéndose hacia los polos. Pues a su oeste y a su este hay aire también subiendo.

Se desplaza, pues, hacia los polos, y debería llegar a ellos. ¿Por qué no lo hace?

La Tierra, y el aire de su superficie, se desplazan a muy alta velocidad. La circunferencia de la Tierra en el ecuador mide 40075,16 km, y esa distancia se recorre en 24 h: 1670 km/h, una velocidad casi el doble de la de los aviones comerciales.

Pero la superficie de la Tierra tiene una velocidad igual a 0 km/h en los polos. Su velocidad de oeste a este disminuye con su circunferencia desde el ecuador a los polos.  La velocidad lineal de la Tierra en la latitud de 30º es de 1446 km/h. Puesto que en la tropopausa el rozamiento es muy débil, el aire que ha subido tiene una velocidad hacia el este de 1670 km/h cuando está sobre el Sahara, por ejemplo mientras que el suelo solo se mueve a 1440 km/h. Así que visto desde el suelo el aire se desplaza hacia el este en ambos hemisferios con velocidades de alrededor de 230 km/h. En vez de ir hacia los Polos, se mueve hacia el Este.

Ese aire frío arriba, con vapor de agua, es más pesado que el aire que tiene debajo, ahora aire que sube seco desde tierra firme. El aire frío baja y al bajar aumenta su presión y por tanto su temperatura. Al aumentar la temperatura el agua que contiene se mantiene en forma de vapor, y decimos que el aire se seca. Aunque parezca mentira, hay más vapor de agua sobre el Sahara que sobre los océanos, en verano. Pero no llueve porque el aire sobre el Sahara baja en vez de subir. Los desiertos surgen allí donde el aire en la tropopausa ha girado (relativamente a la superficie de la Tierra) hacia el Este, y donde ha comenzado a bajar secándose.

Según va bajando, el aire gira otra vez y cuando llega a nivel del suelo se mueve hacia el oeste: Son los alisios que soplan en Canarias, los vientos del comercio (Trade Winds) de los ingleses, que impulsaban los barcos de vela desde África hasta las Américas. (Me imagino que saben que los ingleses, para ir  Nueva York, tenían que pasar por las latitudes de Canarias, para coger los alisios).

Tenemos así el primer y más importante motor del movimiento de la atmósfera: Es un motor impulsado por el calentamiento de la superficie de la Tierra.

¿De donde sale ese calentamiento? 

La energía de la Tierra deriva de la radiación solar en una proporción superior al 90% (una pequeña parte es la radiactividad de las rocas del magma, que mantiene éste fundido y provoca los terremotos y volcanes). Sale de la radiación del Sol (que es un reactor nuclear de fusión que funciona como una cadena continua de bombas de hidrógeno) y desde allí llegan, a cada metro cuadrado de la alta atmósfera, 1367 W/m2, en el ecuador y cuando ese metro cuadrado está directamente dirigido al Sol.

Pero esa misma cantidad de radiación cae sobre la superficie de la Luna, y la luna está, o muy caliente o muy fría. Venus recibe 2614 W/m2 y Marte 590 W/m2. La superficie de Venus está cubierta de nubes que reflejan hasta el 60% de esa energía,de forma que a su superficie llegan unos 1000 W/m2, mientras que a la superficie de la Tierra llegan unos 800 W/m2 (en promedio).

En Venus la temperatura en su superficie es, en media, 462ºC, (un planeta incolonizable) mientras que en la Tierra es de 15ºC.

Estos últimos hechos nos dan una pista para saber por qué se evapora el agua de la superficie de los océanos, agua que llueve sobre los continentes y permite la vida.
Cortesia elmundo.es

Ciencia y tecnología

Menos es más en nanotecnología

Sabemos que el color de los materiales cambia cuando los reducimos a dimensiones nanométricas, pero esa es sólo uno de las muchas variaciones que se dan a esta escala. En el artículo de hoy voy a comentar algunas otras transformaciones interesantes que podemos aprovechar para idear nuevas aplicaciones nanotecnológicas.

Mucha más superficie, mayor reactividad
La primera consecuencia de dividir un trozo de material en partes muy pequeñas es que aumenta mucho la superficie en relación al volumen. Por ejemplo, al abrir una barra de pan en dos mitades, se duplica, aproximadamente, su superficie. La parte de la miga que antes pertenecía al interior de la barra ahora está en el exterior también. Las dos figuras de la imagen muestran dos cantidades idénticas del mismo material, sin embargo, el de la derecha ha multiplicado su superficie por 8.

Cuando cortamos un material en trocitos de tamaño nanométrico el porcentaje de átomos que antes estaban situados en el interior pero ahora forman parte de la superficie aumenta tremendamente.

La primera consecuencia de este aumento de superficie es que el material se vuelve mucho más reactivo. Un átomo del interior está rodeado de otros muchos, sin embargo, uno en la superficie sólo está parcialmente enlazado con otros átomos del material. La otra parte de sus enlaces está libre para reaccionar con los otros átomos del entorno. Por ello, cuando el porcentaje de átomos en la superficie aumenta, también lo hace la reactividad del material. Los molineros han sabido desde siempre que cuando la harina se encuentra suspendida en el aire en forma de partículas muy finas hay riesgo de explosión.

Este hecho, el que los nano-objetos tengan tanta superficie en relación con su volumen, tiene muchas aplicaciones tecnológicas. Los gases provenientes de los tubos de escape de los coches serán menos contaminantes gracias a que ya se están fabricando catalizadores mucho más efectivos por ofrecer más superficie de trabajo. Asimismo, la administración de ciertos fármacos también se verá beneficiada: con más moléculas terapéuticas en la superficie dispuestas a interaccionar los fármacos serán también más eficaces. Otro ejemplo interesante es el que expone Pedro Serena en su reciente libro: con cristales de tamaño nanométrico no necesitaremos tanta cantidad de sal en las comidas para que nuestro sentido del gusto siga apreciando el sabor salado.

La perfección de los nanocristales
Los cristales son materiales cuyos átomos están ordenados en redes tridimensionales. En la realidad, todo cristal de dimensiones mayores presenta defectos en esta red: fallos de construcción, ausencias de átomos, impurezas… Estos errores no están inmóviles, sino que van cambiando de lugar en la red. Cuando el tamaño del material es muy pequeño estos defectos llegan con mucha facilidad a la superficie, lugar donde desaparecen, encontrándonos con redes de gran perfección. Por esta razón la temperatura de fusión de estos materiales es distinta.

Aparecen propiedades cuánticas
A partir de principios del siglo XX, varios físicos, entre los cuales se encuentra Einstein, Plank, De Broglie, Bohr o Heisenberg comenzaron a postular las leyes de lo que hoy se conoce como física cuántica. Este nombre proviene del hecho de que, en un átomo, los electrones no pueden tener cualquier valor de la energía, sino que toman valores específicos, por tramos.Imaginémonos que utilizamos una escalera para saltar desde sus peldaños a la tierra. Cuanto más alto subamos, mayor energía adquirimos. Lo notamos al llegar al suelo cuando nos tiramos. Ahora bien, solo podemos adquirir niveles energéticos por peldaños. O nos tiramos desde el tercero o desde el cuarto, pero no hay ningún escalón intermedio.

Algo similar les ocurre a los electrones en un átomo. Sólo pueden estar a unas distancias determinadas del núcleo. Se dice que la energía está ‘cuantizada’, es decir, sólo pueden tomar ciertos valores y no otros. Este fenómeno no es algo que podamos observar en nuestra vida cotidiana pero cuando trabajamos en el rango nanométrico comenzamos a tener muy pocos átomos y por tanto nos encontramos con sistemas con esta propiedad.

Empezamos a notar que la energía no tiene valores continuos, sino que va a ’saltos’. Esta es una característica de los puntos cuánticos. Son nanocristales que al ser iluminados, vuelven a emitir luz pero en una longitud de onda muy específica y que depende del tamaño de este. Hoy en día, con los puntos cuánticos se fabrican diodos láser emisores de luz más eficientes, se obtienen imágenes biomédicas de mayor contraste y se experimenta con ellos para obtener la tercera generación de células solares más eficientes.

Otro ejemplo de la visión anti-intuitiva de la física cuántica es que el electrón deja de ser una partícula que gira en una trayectoria definida alrededor del núcleo del átomo, como si de un planeta en miniatura se tratara, para convertirse en una ‘nube’ de probabilidad. Sólo es posible conocer la probabilidad de que ese electrón esté en una determinada zona. Esta propiedad cuántica tan curiosa es, por ejemplo, el principio de funcionamiento de un microscopio llamado ‘de efecto túnel’ (STM) el cual ha sido el primero en permitirnos ver y manipular átomos, como los que se muestran en la imagen, obtenida por el grupo de investigación del profesor Jose María Gómez Rodríguez (UAM). En ella se muestran los átomos de la superficie del silicio. El tamaño de la imagen es 5.3×5.3 nm.

En esta segunda imagen, obtenida por el mismo grupo de investigación, se observan los orbitales moleculares de la molécula (PTCDA) que en este caso está depositada sobre los átomos de silicio.

Parafraseando al premio Nobel R. Feyman, efectivamente “hay un gran espacio al final”. Tenemos ante nosotros un universo de tamaño diminuto que justo ahora estamos comenzando a explorar, un lugar en donde los materiales se comportan de diferente manera y cuyas extrañas propiedades podemos aprovechar para desarrollar una mejor tecnología.

Mónica Luna es investigadora en Nanociencia y Nanotecnología del Instituto de Microelectrónica de Madrid (CNM-CSIC).
monica.luna.estevez@gmail.com

Cortesia elmundo.es

Ciencia y tecnología

La radiactividad amenaza la pesca mundial

El agua utilizada para refrigerar desde el exterior los reactores dañados por el accidente se ha convertido en un residuo nuclear más en Fukushima. Hasta ahora, la compañía que opera la central (Tepco) la ha estado almacenando en un tanque del circuito de condensación para evitar que fuese a parar al mar de forma incontrolada. Eso en el mejor de los casos, porque la planta atómica aún tiene grietas por las que el agua contaminada está llegando al mar sin control. Los técnicos de la central llevan días tratando de encontrar las vías de agua por donde se filtra, pero aún no han dado con ellas.

En las últimas jornadas, la filtración de agua altamente contaminada hasta los edificios de turbinas de la planta ha obligado a verter 11.500 toneladas de agua radiactiva al océano. Se trata de un agua de radiación baja que Tepco llevará al mar para dejar espacio en el tanque de condensación y poder albergar el agua presente en los edificios de turbinas, que contiene 1.000 veces más radiactividad de la que debe recibir una persona en un año. Los técnicos aún no saben de dónde procede el líquido que ha ido a parar a las turbinas.

Sin embargo, aunque sea un agua de radiactividad baja puede tener un efecto grave sobre los ecosistemas marinos y sobre los productos pesqueros. Los cálculos de Tepco indican que el impacto sobre un adulto que comiera pescado procedente del agua contaminada sería de 0,6 milisieverts al año, el 25% de la dosis anual de radiación a la que la población está expuesta en la naturaleza. Quizá no suponga un problema a corto plazo, pero puede convertirse en una amenaza en los próximos años, según los expertos.

Se acumula en los depredadores marinos
“El mayor problema es que las corrientes oceánicas transportan las partículas radiactivas por todo el mundo. Ya se han detectado en la costa este de Estados Unidos niveles de radiactividad que no son tan mínimos”, asegura Eduardo Rodríguez-Farré, profesor de investigación del CSIC y miembro del Comité Científico de la UE sobre riesgos para la salud. “Estas partículas entran en la cadena trófica y se van acumulando en los organismos”.

Pero el problema está en la acumulación de las partículas de vidas largas. Y no sólo para los consumidores del pescado japonés. Algunos expertos señalan que la presencia de cesio es una amenaza para la pesca mundial a largo plazo. La mayor parte de las partículas radiactivas vertidas al mar son de yodo-131 y no preocupan mucho a las autoridades debido a que se vuelven inocuas en 40 días. Sin embargo, también se ha detectado la presencia de cesio-137, cuya vida media es de 30 años y tarda 150 en volverse inofensivo.

La radiactividad es acumulativa, o que supone un problema grave en las partes altas de la cadena alimenticia. Los depredadores -como el atún o el pez espada- retienen las partículas radiactivas que contienen las presas que se comen durante toda su vida. La radiactividad va aumentando en ellos de forma constante. “Habría que hacer controles rutinarios en el pescado, no de todos los productos, pero sí de una muestra de ellos, por precaución”, asegura Rodríguez-Farré.

Por cierto que en España sólo se hacen análisis de radiactividad a alimentos cuando son producidos cerca de una central nuclear española. Un producto pesquero radiactivo procedente de Japón, o de cualquier otra parte del mundo, podría llegar a las tiendas españolas sin problema alguno.
Cortesia elmundo.es

Ciencia y tecnología

Impulsarán Nicaragua y México la colaboración científica

Autoridades de ambos países firmaron un convenio para la cooperación en diversas áreas.

Un convenio de cooperación científica para impulsar diversas áreas, entre ellas biología y química, ciencias de la salud, biotecnología y ciencias agropecuarias firmaron autoridades de Nicaragua y México.

El convenio fue signado por el director del Consejo Nacional de Ciencia y Tecnología (Conacyt), Juan Carlos Romero Hicks, y por la secretaria ejecutiva del Consejo Nicaragüense de Ciencia y Tecnología, Guadalupe Martínez Valdivia, y fungió como testigo de honor el vicepresidente de Nicaragua, Jaime Morales Carazo.

Mediante el acuerdo se impulsará la formación de recursos humanos de alto nivel, a través de otorgamiento de becas; se apoyarán proyectos de investigación conjunta en tecnología e innovación y se promoverán visitas recíprocas de técnicos académicos y expertos en distintas materias.

Asimismo se intercambiará información científica y tecnológica y de publicaciones especializadas en distintas materias.

Las actividades de este acuerdo serán financiadas con los presupuestos de los respectivos consejos de Ciencia y Tecnología de cada uno de los países firmantes.

En el documento se establece también que la propiedad intelectual de los proyectos, impulsados de manera conjunta, será garantizada mediante la legislación de cada uno de los países y, en su caso, se realizarán consultas para dirimir las diferencias que al respecto pudieran suscitarse.

Además considera establecer proyectos de cooperación en físico- matemáticas, ciencias de la tierra, ingeniería, ciencias sociales, economía y humanidades.

Cortesia Internet

Ciencia y tecnología

De sabios es cambiar

Voy a contar hoy historias de la ciencia. Einstein era un maravilloso físico que veía cosas que los demás no vemos. Hoy quiero hablar de la ciencia en los años a caballo entre el siglol XIX y el XX, cuando se formó Einstein.

En 1864 Maxwell, el gran físico anterior a Einstein, publicó su gran obra de “Una teoría dinámica del campo electromagnético”, en la cual unifica la electricidad y el magnetismo, y demuestra que la luz no es más que una de las casi infinitas ondas de ese campo, una de las ondas electromagnéticas (EM).

Desde entonces, hasta 1905, 40 años (lo cual es una barbaridad en ciencia), la comunidad de físicos intentó, con todas sus fuerzas, resolver el problema del movimiento, de entender cómo se comportaban esas ondas cuando se movían el emisor o el receptor de las mismas.

En el siglo XIX los físicos no podían concebir ondas que no se propagaran en algún medio material, como lo hacen las ondas sonoras (en el aire, agua o en el bronce de las campanas), o las olas del mar. Aunque conocían la existencia del vacío desde los experimentos de Torricelli y Pascal en 1643 y en 1646, no podían aceptar que las ondas  EM se propagaran en él, e inventaron un fluido místico, el éter, tan sutil que lo perneaba todo, incluso nuestros cuerpos, pero inmensamente más rígido que el hierro, pues debía permitir una velocidad de 300.000 km/s para esas ondas.

El ser humano, cuando no encuentra explicaciones racionales para lo que observa, en vez de cambiar sus creencias inventa brujas. La tendencia mística es un recurso genético para la supervivencia: vemos la sombra de un árbol, y salimos corriendo, como protección ante los asesinos reales. Convertimos la ilusión en realidad en nuestras mentes y vivimos en un mundo virtual. Vivir en la realidad es el mayor esfuerzo que se le puede pedir a un ser humano. Testigo: Políticos históricos y contemporáneos, místicos y religiosos, y hoy, la inmensa masa social que vive dentro de la pantalla de la televisión.

Es tan grande ese esfuerzo que hemos dado en llamar genios a aquellos seres humanos que nos hacen ver la realidad, que soplan para quitar las nieblas, y que como niños sin malicia gritan “¡El emperador no lleva ropas!”

Pues bien, al problema del movimiento relativo de la luz cuando se mueven los sistemas de coordenadas se dedicaron dos de las mejores mentes del último tercio del siglo XIX: el físico Lorentz, y el matemático cum físico Poincaré. En 20 años publicaron al menos 30 artículos, utilizando las herramientas disponibles, sobre el problema, pero no consiguieron avanzar ni un milímetro. Intentaban aserrar un bloque de granito utilizando una sierra de madera.

El problema lo resolvió Eisntein cambiando de herramientas, cambiando de hipótesis, aceptando la realidad: Las ecuaciones de Maxwell no dicen nada del medio de propagación. No exigen hipótesis sobre el mismo. Puesto que no necesitan ese éter, no es necesario postularlo, y la respuesta surge instantáneamente: Si no hay medio material, no hay movimiento absoluto, y todos los movimientos del universo son relativos. Esto es la teoría de la relatividad. Lorentz y Poincaré se esforzaron sin éxito veinte años. Einstein lo consiguió en uno, cambiando, sencíllamente, las hipótesis de partida.

De la misma manera, en el desarrollo social solo ideas radicalmente nuevas han sido capaces de eliminar situaciones no solo de injusticia, sino de una bajísima eficiencia económica. Valgan dos ejemplos: La eliminación del ‘derecho’ a tener esclavos, una norma indiscutida desde los comienzos de la era agrícola y aprobada en la Biblia, y la idea de Rousseau de que todos los seres humanos nacen iguales. La economía esclavista de los estados del Sur americanos era de una eficiencia ínfima: Se basaba en explotar los suelos hasta dejarlos yermos y avanzar a destrozar otra zona del país, del planeta. Y la eficiencia de la Francia de los aristócratas era nula.

El mensaje, para el que lo quiera entender, es claro: La solución de problemas enquistados no pasa nunca, nunca, por la insistencia en ideas y tecnologías antiguas (pensemos en las estulticias marxistas, o las tonterías de la economía neoliberal) sino por examinar críticamente las hipótesis en que se basan los modelos que utilizamos y corregirlas adecuadamente.

Quizás para ello se precisen genios. La misión de la educación es esta: Permitir el desarrollo de estos genios, y no lanzar al mercado personas solo capaces de repetir lo aprendido e incapaces de generar cada día ideas nuevas.

Podemos cambiar o podemos insistir en el error.

Cortesia elmundo.es

Ciencia y tecnología

El sistema científico español está muy enfermo

Joan Guinovart, presidente de la Confederación de Sociedades Científicas de España (COSCE), un investigador de prestigio, habitualmente jovial, lo dice con una sonrisa que no oculta su desánimo: «Empezamos 2010 en una situación mala, y en 2011 estamos peor». Le apoya Aurelia Modrego, profesora de la Carlos III: «El sistema de ciencia y tecnología está muy enfermo». Y cierra el círculo Juan José Molero, economista, catedrático de la Complutense, que ha analizado cifra a cifra las partidas de los Presupuestos Generales del Estado para I + D. Su conclusión: en 2011 el sector recibirá un 7,38 por ciento menos dinero público (un 10 por ciento en términos reales, con la inflación).

La COSCE destripa cada año los presupuestos, y, según sus cifras, desde 2008, el I + D ha perdido peso en los presupuestos. El año pasado, recibió un 5,5 por ciento menos; en 2011, un 7,38. El recorte afecta a casi todos los ministerios, salvo Educación; a la investigación militar (-14,77 por ciento) y a la civil (-6,30); a los créditos y a las subvenciones, a casi todos los programas.

«La atmósfera positiva que se generó en 2007/2008 ha desaparecido por completo —explica Guinovart—. El mensaje que estamos dando al exterior es que España, de nuevo, no es buen país para venir a investigar». Guinovart añade que el problema va más allá de la crisis y los recortes. «Lo peor es que los políticos hablan de muchas reformas estructurales, pero no de la más importante, la del sistema de ciencia y tecnología, envejecido e ineficaz».

En este sentido, la COSCE ha presentado su propuesta de crear una Agencia Estatal de Investigación que lidere el sector en España, con competencias sobre financiación y sobre la evaluación de los proyectos, similar a las que funcionan con éxito en otros países europeos.
Cataluña y País Vasco, privilegiadas

En las enmiendas a los Presupuestos se añadieron al sector de la investigación y el desarrollo 58,5 millones procedentes de una partida para imprevistos. De ellos, el 73 por ciento se destinaron a proyectos del País Vasco y más del 10 a Cataluña. Según José de No, investigador del CSIC y miembro de la Comisión que ha analizado las cifras oficiales, se trata de un claro «uso político de los fondos públicos».

Cortesia ABC, España

Ciencia y tecnología

Iniciar sesión

Ingrese el e-mail y contraseña con el que está registrado en Monografias.com

   
 

Regístrese gratis

¿Olvidó su contraseña?

Ayuda