Geología, Peligros Naturales y GeoTecnología

Blog en Monografias.com

 

Necesitamos una nueva ciencia, una nueva idea

Los datos del hielo en el Ártico indican que este océano se está quedando sin hielo en verano. Las empresas de petróleo ya tienen planes maravillosos para explorar los depósitos de crudo a 3000 metros de profundidad, que podrán extraerse solo unos 4 meses al año. La pena es que no hay dinero para financiar el proyecto, en este mundo en ‘crisis’.

¿Para qué dar más pruebas de la realidad? Suban a las montañas y busquen los glaciares. Vayan al Ártico, o busquen fotografías del mismo (las reales, no las de un osito blanco sobre un témpano de hielo), hablen con los viticultores acerca de las uvas, con los epidemiólogos, hablen con los habitantes de América, sometidos a inundaciones, tornados, tifones y huracanes.

Hemos vivido 200 años bajo una idea implícita, no explicitada, subyacente en nuestras mentes: Los recursos son casi gratis e ilimitados. Podemos quemar el planeta. La ciencia (¿la magia?) siempre vendrá al rescate. Y si no viene, eliminémosla y busquemos el culto a la Santa Muerte, el hada (de plástico) en un jarro de formol, o la estafa económica.

Escribo sobre la sociedad, y sobre la economía, porque no hay medidas tecnológicas para parar el cambio climático. La única forma de hacerlo es entrar en otro esquema que, adicionalmente, proporcionará mucha más riqueza a los seres humanos, y mantendrá la armonía de un planeta que no fué otorgado por los dioses para el dominio de aquellos.

Durante la segunda mitad del siglo XVIII los ‘intendants’ que habían pagado por sus cargos para entrar en la alta sociedad francesa empezaron a pedir participación en el gobierno.  Pero era imposible. Las ideas subyacentes de los que controlaban la política francesa, los nobles hereditarios y sus primos (eran familia), los nobles de la iglesia francesa, no podían, sencillamente, no concebían esa posibilidad.

El rey de España, Carlos III experimentó un motín, que no pudo comprender: Era incapaz de entender que ni siquiera una persona, ni mucho menos una cierta parte del pueblo, no aceptara su reino como algo ordenado por dios.  Sencillamente, no entraba en su mente. Era como si viésemos las piedras del camino ascender hacia el cielo delante de nosotros, en un día sin viento. Sencillamente, la posibilidad de un gobierno de plebeyos, y que su posición en el mismo no fuera divina, sino la de un gestor, era imposible no solo de aceptar, sino de concebir. Hoy muchos, no reyes, pobrecitos, sino presidentes de cabildos, comunidades, ayuntamientos, estados federados, presidentes de fondos monetarios, etc.,  no pueden concebir que son meros gestores, trabajadores como otros cualesquiera, y además trabajadores con contrato temporal. Muchos se creen Carlos III. Sencillamente, ser lo mismo que otros no cabe en sus cabecitas.

Pues bien, hoy en día las ideas que se necesitan, no solo para salir del marasmo económico y social (crisis y revueltas en Inglaterra, hace unos años en Francia, guerras en oriente, revueltas en los países del Islam, …) sino para rescatar al planeta del desastre, y para aumentar la riqueza de miles de millones de seres humanos miserables que viven mirando la opulencia de unos pocos,  (los panaderos franceses viento las carrozas de Maria Antonieta?), esas ideas existen, están enunciadas, pero son tan incomprensibles por la religión actual, la teoría económica tradicional, desde el neo-liberalismo al neo-marxismo, como un gobierno del pueblo para Luis XVI, la misma Maria-Antonieta y Carlos III. ¿Entra en la cabeza de un financiero de Londres que un afro-americano de Totenham sea miembro de su club, cene en su restaurante, se mueva en Rolls-Royce?

Cuando uno lee los hechos: Falta de dinero, falta de iniciativa, y las respuestas: Deuda pública, déficit, crédito, fiscalidad, bonos europeos, eliminación del papel del gobierno en la economía, derechos sociales, interés( 2%, 1%, …) de los bancos centrales, etc., etc., uno recuerda la insistencia en las medidas tradicionales de la Europa de entre, digamos 1749 y 1789, que permitieron un déficit tan monstruoso como el actual: La idea era gastar sin producir.

Ninguna de las medidas políticas tomadas en ese siglo, en la Europa continental, sirvieron más que para aumentar el déficit, hasta que se cambió radicalmente de mentalidad, para lo que fue necesaria una revolución sangrienta, y una guerra europea de millones de muertos (la guerra napoleónica de Francia contra todos).

Podemos pensar que lo que impedía el cambio necesario en el siglo XVIII era la idea subyacente del ‘Derecho Divino de los Reyes’. Ese ‘derecho divino’ había sido eliminado en Inglaterra un siglo y medio antes en una serie de guerras civiles y revoluciones menos sangrientas. Tanto en Francia como en Inglaterra la eliminación de ese pensamiento profundo y subyacente implicó la ejecución del rey de turno.

Hoy estamos dentro de un pensamiento similar al del derecho divino de los reyes, similar en su aspecto de pensamiento no explicitado, no puesto en cuestión, no rechazado.

Cualquier reforma actual naufraga de la misma manera que lo hicieron todas las reformas en Francia antes de la revolución francesa. La idea de Rousseau de que todos los hombres son iguales era realmente revolucionaria, y la única que podía cambiar el sistema hacia otro nuevo.  Hasta entonces todo lo escrito defendía (desde la China, hasta el cabo Finisterre, hasta California, marchando desde el Este hacia el Oeste) que los hombres nacían en estratos diferentes que no podían ni  debían ser cruzados.

Hoy los dogmas económicos son tan fuertes como los religiosos de hace 200 años. El crédito, el capital (privado en el liberalismo, publico en el socialismo), los sindicatos, los ‘logros sociales’, etc., etc., son ‘verdades’ tales que se quema en efigie a quien hoy las pone en cuestión (habiendo avanzado en civilización lo suficiente como para que, al menos en una mayoría de países, la quema sea solo en efigie y no en persona).

Se asume la doctrina económica como una ciencia con el mismo valor que la mecánica newtoniana, con el añadido de la cuántica para interacciones atómicas y relativista para velocidades muy elevadas.Con el mismo valor que el electromagnetismo.

Al asumirla como ciencia positiva (aunque sus modelos no han podido ser verificados en la realidad)  cualquier rechazo aparece como un rechazo a la verdad intelectual, un rechazo a un dogma, similar al rechazo al dogma de la Trinidad, mantenido por dos de las ramas del dogma cristiano, católicos y calvinistas, rechazo por el cual Miguel Servet fue quemado en Ginebra en 1553. Hoy no hay quema física, pero si expulsión y ridículo a quienes intentan comunicar que las ideas económicas actuales en todas sus denominaciones o herejías diversas, son como la del derecho divino de los reyes, en la Europa continental del siglo XVIII, o la de la trinidad en la Europa cristiana del  siglo XVI.

¿Qué ideas nuevas necesitamos? Es difícil saberlo, pero es claro que necesitamos ideas distintas de las actuales. El primer esfuerzo, como el rechazo al derecho divino de los reyes, debe ser un rechazo al ‘mercado’ y a la economía financiera como centro de la vida social.Y un rechazo a la idea de los sindicatos.

Este blog se leerá poco,  pero si se leyera, el rechazo al mercado (privado, de Wall Street; o público, de Beijing o de la Habana), el rechazo a los sindicatos, promovería una quema (espero que simbólica) en la plaza, no se si de Ginebra, o de Alcalá de Henares.

El ser humano vive dentro de burbujas de ilusión. Cuando alguien las pincha, el rechazo es universal.

Pero las burbujas acaban desinfladas.

Cortesia elmundo.es

Ciencia

¿Es posible la prosperidad sin crecimiento económico?

La escritora y periodista Irene Lozano moderó la cuarta mesa del Foro, Crecimiento vs. decrecimiento. Hacia nuevas formas de consumo y producción, que reunió a Antonio Calvo Roy, Gustavo Nombela, Antonio Burgueño y Cristina García Rosales. El quinto invitado, Luis González Reyes, coordinador estatal de Ecologistas en Acción, no pudo participar por una desgraciada urgencia de última hora.

       Lozano centró enseguida el debate con una introducción breve y clara. No parece que nuestro planeta puedan soportar el ritmo actual de producción industrial. La huella ecológica es cada vez mayor. En 2010, el 21 de agosto ya habíamos consumido lo que nos correspondía para ese año. El crecimiento económico no solo esquilma recursos y produce residuos, sino que genera injusticia social. Al mismo tiempo, desde el poder se sigue insistiendo en el consumo como única salida a la crisis. Recuperar la confianza del consumidor mediante datos positivos de crecimiento es hoy el anhelo de cualquier gobernante. En principio, la disyuntiva es sencilla y terrible: Si no crecemos se colapsa la economía, si crecemos se colapsa el planeta. ¿Es posible crecer de forma responsable y sostenible, o solo queda la opción radical del decrecimiento inducido?

       Antonio Burgueño, director de Calidad y Medio Ambiente de FCC Construcción, tiene claro que decrecer no es la solución. Es como montar en bicicleta, si paras te caes. La clave está en redefinir continuamente las condiciones y las reglas de ese crecimiento. La sostenibilidad es un concepto dinámico que evoluciona constantemente. Lo que hoy es sostenible aquí, mañana puede no serlo allí. Calvo Roy, director de RSC (responsabilidad social corporativa) de Red Eléctrica, comparte esta opinión. En el sector eléctrico echar el freno es hoy una cuestión imposible. La electricidad no solo es la energía que alimenta a la actual y omnipresente sociedad de la información, sino que también es la que permite que puedan gestionarse otro tipo de energías. Aunque intentemos decrecer, la electricidad seguirá creciendo a nivel global, porque además una gran parte del mundo no desarrollado está reclamando y consiguiendo su acceso a ella. La gran –y diabólica- paradoja del crecimiento económico es que, a la vez que genera más desigualdad social, incita a las victimas de esas injusticias a querer disfrutarlo.

       Según Gustavo Nombela, director del área de Economía, Sostenibilidad y Bienestar de la Fundación Ideas, la crisis nos ha dado un toque de atención que deberíamos aprovechar para cambiar nuestro paradigma de progreso, tanto comunitario como personal. La forma actual de medir el crecimiento de un país, basada en el PIB, es muy limitada, y ya se ha quedado obsoleta. Es absolutamente necesario introducir nuevos indicadores de prosperidad más próximos a cuestiones inmateriales, como felicidad o socialización. Para la arquitecta Cristina García Rosales, esta reinvención de lo que entendemos por calidad de vida es especialmente urgente en las ciudades, donde el crecimiento económico ha dado lugar a un urbanismo paranoico al servicio del disfrute privado y la seguridad en el consumo, un urbanismo de recintos vallados, centros comerciales y grandes desplazamientos que obligan a gastar más. Ciudades pensadas para quienes Mª Angeles Durán llama varavos –varones sanos productivos y motorizados-. Afortunadamente cada vez se habla más de conceptos como urbanismo de los afectos y sostenibilidad afectiva (ambos de Adriana Bisquert), o urbanismo emergente (Juan Freire). Además, una nueva generación de arquitectos está abandonando su tradicional pleitesía al poder y a su ego y acercándose cada vez más a una concienciada sociedad civil que está aprendiendo a usar las redes sociales como altavoz de su descontento y como vehículo para la toma de iniciativas.

 

Cortesia fronterad.es

Ciencia

Japón evacuará a los residentes cercanos a la central

El Gobierno de Japón ha confirmado que procederá con la evacuación de las áreas que se encuentran en un radio de entre 20 y 30 kilómetros de la central nuclear Fukushima-1, accidentada el pasado 11 de marzo tras el terremoto y el posterior tsunami que asoló la costa noreste nipona.

Una ‘hoja de ruta’ difundida el miércoles propone emprender el desalojo del área a finales de este mes o a comienzos de septiembre, teniendo en cuenta que la situación de la central ha mejorado, en palabras del Ejecutivo japonés.

En la actualidad, se aconseja a los residentes de esa zona que permanezcan en sus hogares y, que estén preparados para efectuar una evacuación de emergencia.

Proceso de negociaciones
El Gobierno nipón iniciará las negociaciones con las autoridades locales a finales de esta semana y les propondrá preparar los planes de reconstrucción, lo que incluirá la reapertura de los hospitales y otros servicios públicos, así como la descontaminación de los centros educativos.

No obstante, ante las últimas informaciones que apuntaban que el nivel de radiación en la planta de Fukushima-1 ha alcanzado su máximo desde el 11 de marzo, el gabinete liderado por el primer ministro, Naoto Kan, se ha comprometido a apoyar a los gobiernos locales en la labor de retorno de los residentes a sus hogares.

Los debates para el desmantelamiento de la central de Fukushima han empezado este jueves en el seno de un grupo de expertos constituido por la Comisión de Energía Atómica nipona. Se espera que en enero del año próximo los reactores de la planta se desactiven definitivamente.

En la primera sesión, el presidente de la Comisión, Shunsuke Kondo, ha emplazado a los miembros a llevar a cabo los esfuerzos necesarios a medio y largo plazo para clausurar la central.

Desmantelamiento cercano
Este grupo de expertos definirá un ‘tempo’ para el desmantelamiento de la planta de Fukushima-1 tomando como referencia el utilizado en la central estadounidense de Three Mile Island en 1979. El principal objetivo, según ha informado la cadena japonesa NHK, es extraer las barras de combustible fundidas. Sin embargo, se desconoce dónde y en qué condiciones se encuentran dichas barras en los tres reactores.

El profesor de la Universidad de Kioto, Hajimu Yamana, que encabeza el grupo de expertos, ha explicado que todavía queda un largo tiempo de preparación para proceder a la extracción de las barras derretidas, ya que, en el caso de Fukushima-1, los reactores están más dañados que los de la central de Three Mile Island. Como consecuencia, Yamana ha subrayado que dicho proceso podría llevar 20 años.

Por otra parte, según ha informado el ministro japonés de Industria, Banri Kaieda, el Gobierno despedirá a tres altos funcionarios responsables de política nuclear por su responsabilidad en la gestión de la crisis en la central de Fukushima.

Los afectados son el viceministro de Economía, Comercio e Industria, Kazuo Matsunaga; el responsable de la Agencia de Seguridad Nuclear e Industrial, Tetsuhiro Hosono; y el responsable de la Agencia para Recursos Naturales y Energía, Tetsuhiro Hosono.
Cortesia elmundo.es

Ciencia y tecnología

Nanomedicamentos inteligentes

La Nanomedicina aprovecha las interesantes propiedades físicas, químicas y biológicas de los materiales de tamaño nanométrico para conseguir mejoras en el campo de la salud. A día de hoy, la Nanomedicina se plantea varios retos fundamentales.

Por una parte busca desarrollar mejores métodos de diagnóstico de enfermedades, que permitan la detección más temprana y fiable de ciertas patologías. Por otra parte, pretende mejorar los tratamientos médicos para hacerlos más eficaces y con menores efectos secundarios. También cabe destacar el esfuerzo investigador que se está dedicando a la medicina regenerativa.

La Nanomedicina promete ejercer un papel relevante en la mejora de nuestra calidad de vida, pero ¿cómo de reales y cercanos son los avances que la Nanomedicina plantea?, ¿qué tratamientos o diagnósticos serán los primeros en aplicarse?, ¿cómo serán los efectos secundarios de estos tratamientos? Este artículo es el primero de una serie que intentará dar respuesta a estas preguntas.

Nanomedicina
En el mundo existen actualmente cientos de grupos de investigación dedicados a explorar las posibilidades de la Nanomedicina. De estos, un buen número de entre los más prestigiosos son españoles. En este artículo y en próximos tendré la fortuna de poder dar la palabra a alguno de estos investigadores expertos para que nos ofrezcan la visión más actual del estado de desarrollo de estos prometedores adelantos.

Uno de estos grupos de gran proyección internacional está dirigido por el investigador Jesús Martínez de la Fuente, del Instituto de Nanociencia de Aragón (INA). Su trabajo de investigación está centrado en el diagnóstico y tratamiento de cáncer mediante la utilización de nanopartículas.
Mónica Luna. ¿Cuál es el principal objetivo de la investigación actual en nanomedicina?

Jesús Martínez de la Fuente: Los esfuerzos se están dirigiendo hacia el desarrollo de sistemas que nos permitan detectar la enfermedad en los inicios de la misma, precisamente cuando va a ser más fácil erradicarla, y que además de detectarla, la puedan tratar. Un fármaco de este tipo, tan eficaz, nos puede parecer sacado de una película de ciencia ficción, pero lo cierto es que en la actualidad existen centenares de grupos de investigación de todo el mundo tratando de conseguir estos ‘nanomedicamentos inteligentes’.
M. L. ¿En qué consisten estos nanomedicamentos que están estudiando?

J. M. de la F: Investigamos la utilización de nanopartículas tanto para el diagnóstico como para el tratamiento del cáncer. En general, las nanopartículas con las que trabajamos miden unas pocas decenas de nanómetros. Un nanómetro es la millonésima parte del grosor de la cabeza de un alfiler. La materia, en esos tamaños nanométricos, adquiere propiedades diferentes, y surgen así nuevas utilidades para estos materiales. Además, hay que tener en cuenta que todas las biomoléculas relevantes en biomedicina tales como ADN, proteínas, carbohidratos, etc… son justamente de tamaño nanométrico.

M. L. ¿Cómo son estas nanopartículas que investigan como ‘fármacos inteligentes’?

J. M. de la F: Las nanopartículas constan de un núcleo de metal u otro material inorgánico y una envuelta de material orgánico. La principal función de este material orgánico es hacer que las nanopartículas sean solubles y estables en medios acuosos, como la sangre. Además, estas nanopartículas portan unas moléculas que les hacen especialmente atractivas a las células cancerígenas y otras moléculas que son el fármaco. Se podría decir que portan un ‘cebo’ para las células malignas, aparte de la medicina propiamente dicha. Por ello debemos tener en cuenta que aunque comúnmente hablemos de ‘nanopartículas’ sería más adecuado hablar de ‘nanosistemas multifuncionales’, ya que estas nanopartículas constan de muy variados componentes.
M. L. ¿Es esta la principal ventaja de estos ‘nanofármacos inteligentes’, el hecho de que ‘ataquen’ sólo las células cancerígenas dejando las sanas al margen?
J. M. de la F: Si, en la actualidad se pretende dar ese paso más allá: conseguir que el medicamento sea dirigido específicamente al tejido u órgano a tratar. Si lográramos este objetivo, los efectos secundarios actuales del fármaco prácticamente se eliminarían.
M. L. ¿Cuál está siendo actualmente la aportación de su grupo de investigación al tema del diagnóstico y tratamiento del cáncer?

J. M. de la F.: Nosotros pretendemos desarrollar una metodología general y eficaz para la obtención de marcadores tumorales y fármacos antitumorales, que además permitan liberar el fármaco antitumoral exactamente donde nosotros queramos con un doble sistema de seguridad. En primer lugar, la nanopartícula porta un ‘cebo’ específico para las células cancerígenas.Esto hará que las nanopartículas (que entre otros componentes, portan los fármacos) se acumulen en el tumor. Por otra parte, gracias a una nueva estrategia que hemos diseñado, el pequeño porcentaje de fármaco que no se localice en el cáncer, no será activo. Solo el fármaco que se encuentre en el tumor actuará debido a que será sólo y exclusivamente allí donde se produzca su liberación. Gracias a este doble sistema de seguridad pretendemos mejorar la actividad de los fármacos antitumorales existentes y de esta manera minimizar los efectos secundarios de los mismos, mejorando así la calidad de vida de los enfermos de cáncer.
M. L. ¿Cómo de seguros serán estos medicamentos basados en la utilización de nanopartículas?

J. M. de la F: Según la legislación farmacológica actual, los descubrimientos realizados en los laboratorios con fines médicos tienen que someterse a exigentes evaluaciones realizadas por agencias nacionales e internacionales, que son aún más estrictas cuando se trata de un ‘nanomedicamento’. Pueden pasar de 15 a 20 años desde que se descubre un ‘nanofármaco’ hasta que sale al mercado. Si finalmente el fármaco se llega a comercializar podemos estar seguros de que es fiable.
M. L. ¿Han realizado algún estudio de los posibles efectos tóxicos del tipo de nanopartículas que utilizan en su investigación?

J. M. de la F: Estudios preliminares de nuestro grupo han demostrado que siempre que las nanopartículas sean suficientemente pequeñas, se eliminan a través de los riñones y la orina, con muy baja acumulación en otros órganos. Estudios exhaustivos de biocompatibilidad y eliminación se realizarán para confirmar estos resultados.
M.L. Muchas gracias por su tiempo y le deseo mucha suerte en esta labor de investigación que tanto beneficio puede reportar a la sociedad.

J. M. de la F: De nada, ha sido un placer.
Cortesia elmundo.es

Ciencia y tecnología

La radiactividad amenaza la pesca mundial

El agua utilizada para refrigerar desde el exterior los reactores dañados por el accidente se ha convertido en un residuo nuclear más en Fukushima. Hasta ahora, la compañía que opera la central (Tepco) la ha estado almacenando en un tanque del circuito de condensación para evitar que fuese a parar al mar de forma incontrolada. Eso en el mejor de los casos, porque la planta atómica aún tiene grietas por las que el agua contaminada está llegando al mar sin control. Los técnicos de la central llevan días tratando de encontrar las vías de agua por donde se filtra, pero aún no han dado con ellas.

En las últimas jornadas, la filtración de agua altamente contaminada hasta los edificios de turbinas de la planta ha obligado a verter 11.500 toneladas de agua radiactiva al océano. Se trata de un agua de radiación baja que Tepco llevará al mar para dejar espacio en el tanque de condensación y poder albergar el agua presente en los edificios de turbinas, que contiene 1.000 veces más radiactividad de la que debe recibir una persona en un año. Los técnicos aún no saben de dónde procede el líquido que ha ido a parar a las turbinas.

Sin embargo, aunque sea un agua de radiactividad baja puede tener un efecto grave sobre los ecosistemas marinos y sobre los productos pesqueros. Los cálculos de Tepco indican que el impacto sobre un adulto que comiera pescado procedente del agua contaminada sería de 0,6 milisieverts al año, el 25% de la dosis anual de radiación a la que la población está expuesta en la naturaleza. Quizá no suponga un problema a corto plazo, pero puede convertirse en una amenaza en los próximos años, según los expertos.

Se acumula en los depredadores marinos
“El mayor problema es que las corrientes oceánicas transportan las partículas radiactivas por todo el mundo. Ya se han detectado en la costa este de Estados Unidos niveles de radiactividad que no son tan mínimos”, asegura Eduardo Rodríguez-Farré, profesor de investigación del CSIC y miembro del Comité Científico de la UE sobre riesgos para la salud. “Estas partículas entran en la cadena trófica y se van acumulando en los organismos”.

Pero el problema está en la acumulación de las partículas de vidas largas. Y no sólo para los consumidores del pescado japonés. Algunos expertos señalan que la presencia de cesio es una amenaza para la pesca mundial a largo plazo. La mayor parte de las partículas radiactivas vertidas al mar son de yodo-131 y no preocupan mucho a las autoridades debido a que se vuelven inocuas en 40 días. Sin embargo, también se ha detectado la presencia de cesio-137, cuya vida media es de 30 años y tarda 150 en volverse inofensivo.

La radiactividad es acumulativa, o que supone un problema grave en las partes altas de la cadena alimenticia. Los depredadores -como el atún o el pez espada- retienen las partículas radiactivas que contienen las presas que se comen durante toda su vida. La radiactividad va aumentando en ellos de forma constante. “Habría que hacer controles rutinarios en el pescado, no de todos los productos, pero sí de una muestra de ellos, por precaución”, asegura Rodríguez-Farré.

Por cierto que en España sólo se hacen análisis de radiactividad a alimentos cuando son producidos cerca de una central nuclear española. Un producto pesquero radiactivo procedente de Japón, o de cualquier otra parte del mundo, podría llegar a las tiendas españolas sin problema alguno.
Cortesia elmundo.es

Ciencia y tecnología

Vida primitiva en Nueva Zelanda

La Tierra y Marte fueron muy similares durante sus orígenes, hasta que éste agotó su combustible interno hace unos 3.500 millones de años. El Planeta rojo podría considerarse, por tanto, un fósil a escala planetaria de la Tierra cuando se desarrollaron los hábitats potenciales primigenios. Cinco regiones terrestres con características análogas a ciertos ambientes del pasado de Marte serán analizadas por científicos del Consejo Superior de Investigaciones Científicas (CSIC) y del Instituto Nacional de Técnica Aeroespacial, para evaluar la posible presencia de restos de vida en él. La cuestión es que si aquí la vida se conserva en un ambiente tan exigente, ¿por qué no va a ocurrir en Marte?

Cada una de las regiones seleccionadas posee diferentes características comunes a estos entornos primitivos. “La integración de todas ellas es la que aporta una visión conjunta del entorno marciano”, explica el responsable del proyecto, el paleontólogo del Centro de Astrobiología (centro mixto del CSIC y del Instituto Nacional de Tecnología Aeroespacial) David Fernández. La presencia de restos de biomoléculas en minerales formados en estos ambientes terrestres será extrapolable a Marte, donde los resultados se utilizarán para localizar las áreas de estudio más adecuadas.

Dos de los análogos terrestres están en Parakiri y Rotorua (Nueva Zelanda), hacia donde el equipo partirá el próximo lunes. Ambas zonas poseen depósitos de sílice asociados a fluidos hidrotermales ácidos derivados de la actividad ígnea del subsuelo. Recientemente, la sonda Spirit de la NASA descubrió sedimentos similares en la superficie marciana. El reto será dilucidar si son capaces de preservar información biológica.

Cuando la Tierra era Marte
La zona de Barberton (Sudáfrica) es otro de los entornos seleccionados para el proyecto, ya que está formada por rocas cuya antigüedad ronda los 3.500 millones de años. En aquella época, las condiciones ambientales de la Tierra eran parecidas a las de Marte, lo cual permitirá inferir el ambiente en el que pudieron surgir las primeras evidencias de vida en el Planeta rojo. Mientras, el desierto de Atacama (Chile) se asemeja a la superficie del Planeta rojo por sus condiciones de sequedad extremas influidas por vulcanismo que han promovido el desarrollo de depósitos salinos similares a los detectados en Marte.

El río Tinto (Huelva) es la última región seleccionada. El emplazamiento español ya ha sido objeto de múltiples estudios debido a sus singulares condiciones de acidez y oxidación, capaces de albergar vida. Los análisis han revelado que su ambiente “preserva biomoléculas de gran tamaño que permiten definir los organismos de los que proceden”, asegura el paleontólogo.

Las biomoléculas que el proyecto pretende descubrir son fósiles moleculares de seres vivos, desde microorganismos hasta grandes vertebrados. “Es posible que no se averigüe la procedencia de cada una de ellas, pero su hallazgo implica la existencia de vida en estas regiones”. Fernández se muestra optimista: “si alguna vez hubo vida en Marte, la encontraremos antes o después”.

Cortesia ABC, España

Ciencia

Un material mas fuerte que el acero y flexible como el plástico

Imagine un material más fuerte que el acero pero igual de versátil que el plástico, capaz de asumir una variedad aparentemente infinita de formas. Durante décadas, los científicos han tratado de alcanzar semejante sustancia, que pueda ser moldeada en formas complejas con la misma facilidad y el bajo coste del plástico, pero sin sacrificar la resistencia y durabilidad del metal. Ahora, un equipo dirigido por Schroers Jan, un científico de la Universidad de Yale, ha demostrado que algunos vidrios metálicos desarrollados recientemente pueden ser moldeados por soplado como los plásticos, adquiriendo formas complejas que no se pueden lograr utilizando metal normal pero sin sacrificar ni su fuerza ni su durabilidad. Estas nuevas aleaciones conocidas como Bulk Metallic Glasses (BMG) podrían revolucionar para siempre los procesos de fabricación.

«Estas aleaciones de metal parecer normales, pero pueden ser moldeadas por soplado tan barata y tan fácilmente como el plástico», dice Schroers. Hasta ahora, el equipo ha creado una serie de formas complejas, incluyendo botellas metálicas perfectas, cajas de relojes, resonadores en miniatura y e implantes biomédicos, que pueden ser moldeados en menos de un minuto y son dos veces más fuerte que el acero normal.

El coste de los materiales es el mismo que el del acero de alta gama, pero puede ser procesado de forma tan barata como el plástico. Las aleaciones se componen de diferentes metales, como el circonio, níquel, titanio y cobre.

Nuevas aplicaciones
El equipo moldeó las aleaciones a bajas temperaturas y bajas presiones, donde el cristal metálico se suaviza y fluye como el plástico, pero sin cristalizar como un metal regular. Esto permitió a los científicos dar forma al vídrios metálicos macizos con una facilidad sin precedentes.

Schroers y su equipo ya está utilizando su nueva técnica de procesamiento para la fabricación de resonadores en miniatura para sistemas microelectromecánicos -dispositivos mecánicos diminutos alimentados por electricidad-, giroscopios y otras aplicaciones.

Cortesia ABC, España

Ciencia

‘La ciencia española está enferma y malnutrida’

“Empezamos el año 2010 en una situación mala y en 2011 estamos peor”, asegura Joan Guinovart, presidente de la Confederación de Sociedades Científicas de España (COSCE) y director del Instituto de Investigación Biomédica de Barcelona. Así arrancaba la presentación del ya tradicional análisis de la partida de los presupuestos generales de Estado (PGE) destinada a investigación.

“Cuando se presentaron los presupuestos del año 2010, todos los investigadores esperábamos que en 2011 mejorara la situación”, explica Guinovart, “pero si en 2010 nos sometimos a una cura de adelgazamiento y muchos institutos de investigación sobrevivieron gracias a las ‘reservas de grasa’, en 2011 la ciencia entra en un periodo de malnutrición y de enfermedad”.

Aurelia Modrego, secretaria ejecutiva de la Comisión de la COSCE para el estudio de los PGE, aseguró que, para acabar con esa enfermedad es necesario aplicar “un tratamiento de choque”, que pasaría por la creación “urgente” de una Agencia Estatal de Investigación y la recuperación de la senda de aumento inversor en ciencia rota desde el año pasado.
Tendencia de disminución del gasto en I+D

Guinovart, por su parte, ha lamentado el descenso de recursos públicos dedicados a I+D+i en los últimos presupuestos de un 7,38% en términos corrientes y de en torno al 10% en términos constantes, añadida la inflación prevista. Gasto que lleva desde 2008 una preocupante tendencia de disminución.

El presidente de la COSCE, organismo que aglutina a más de 30.000 científicos españoles, ha lamentado la desaparición de “aquella atmósfera de excitación” creada en los años de bonanza económica en España en la comunidad científica, cuando las inversiones públicas aumentaban progresivamente, al contrario de lo que ocurre ahora.

Los responsables de la COSCE han criticado la lentitud de los políticos para poner en marcha una Agencia Estatal de Investigación, incluida ya en el programa electoral del PSOE en 2004, y cuya creación queda recogida en el proyecto de Ley de la Ciencia, en tramitación parlamentaria, informa Efe.

Para los científicos, este organismo debería seguir el modelo de funcionamiento de instituciones europeas como el European Research Council y disponer de gran nivel de autonomía respecto de las contingencias políticas, así como un alto nivel de corresponsabilidad de todos los agentes relacionados con la investigación y la innovación.

Según Aurelia Modrego, esta entidad debería “proporcionar mayor estabilidad y eficacia a un sistema que se enfrenta al reto inaplazable de generar conocimiento, ideas y capacidades”.

Cortesia elmundo.es

Ciencia

De sabios es cambiar

Voy a contar hoy historias de la ciencia. Einstein era un maravilloso físico que veía cosas que los demás no vemos. Hoy quiero hablar de la ciencia en los años a caballo entre el siglol XIX y el XX, cuando se formó Einstein.

En 1864 Maxwell, el gran físico anterior a Einstein, publicó su gran obra de “Una teoría dinámica del campo electromagnético”, en la cual unifica la electricidad y el magnetismo, y demuestra que la luz no es más que una de las casi infinitas ondas de ese campo, una de las ondas electromagnéticas (EM).

Desde entonces, hasta 1905, 40 años (lo cual es una barbaridad en ciencia), la comunidad de físicos intentó, con todas sus fuerzas, resolver el problema del movimiento, de entender cómo se comportaban esas ondas cuando se movían el emisor o el receptor de las mismas.

En el siglo XIX los físicos no podían concebir ondas que no se propagaran en algún medio material, como lo hacen las ondas sonoras (en el aire, agua o en el bronce de las campanas), o las olas del mar. Aunque conocían la existencia del vacío desde los experimentos de Torricelli y Pascal en 1643 y en 1646, no podían aceptar que las ondas  EM se propagaran en él, e inventaron un fluido místico, el éter, tan sutil que lo perneaba todo, incluso nuestros cuerpos, pero inmensamente más rígido que el hierro, pues debía permitir una velocidad de 300.000 km/s para esas ondas.

El ser humano, cuando no encuentra explicaciones racionales para lo que observa, en vez de cambiar sus creencias inventa brujas. La tendencia mística es un recurso genético para la supervivencia: vemos la sombra de un árbol, y salimos corriendo, como protección ante los asesinos reales. Convertimos la ilusión en realidad en nuestras mentes y vivimos en un mundo virtual. Vivir en la realidad es el mayor esfuerzo que se le puede pedir a un ser humano. Testigo: Políticos históricos y contemporáneos, místicos y religiosos, y hoy, la inmensa masa social que vive dentro de la pantalla de la televisión.

Es tan grande ese esfuerzo que hemos dado en llamar genios a aquellos seres humanos que nos hacen ver la realidad, que soplan para quitar las nieblas, y que como niños sin malicia gritan “¡El emperador no lleva ropas!”

Pues bien, al problema del movimiento relativo de la luz cuando se mueven los sistemas de coordenadas se dedicaron dos de las mejores mentes del último tercio del siglo XIX: el físico Lorentz, y el matemático cum físico Poincaré. En 20 años publicaron al menos 30 artículos, utilizando las herramientas disponibles, sobre el problema, pero no consiguieron avanzar ni un milímetro. Intentaban aserrar un bloque de granito utilizando una sierra de madera.

El problema lo resolvió Eisntein cambiando de herramientas, cambiando de hipótesis, aceptando la realidad: Las ecuaciones de Maxwell no dicen nada del medio de propagación. No exigen hipótesis sobre el mismo. Puesto que no necesitan ese éter, no es necesario postularlo, y la respuesta surge instantáneamente: Si no hay medio material, no hay movimiento absoluto, y todos los movimientos del universo son relativos. Esto es la teoría de la relatividad. Lorentz y Poincaré se esforzaron sin éxito veinte años. Einstein lo consiguió en uno, cambiando, sencíllamente, las hipótesis de partida.

De la misma manera, en el desarrollo social solo ideas radicalmente nuevas han sido capaces de eliminar situaciones no solo de injusticia, sino de una bajísima eficiencia económica. Valgan dos ejemplos: La eliminación del ‘derecho’ a tener esclavos, una norma indiscutida desde los comienzos de la era agrícola y aprobada en la Biblia, y la idea de Rousseau de que todos los seres humanos nacen iguales. La economía esclavista de los estados del Sur americanos era de una eficiencia ínfima: Se basaba en explotar los suelos hasta dejarlos yermos y avanzar a destrozar otra zona del país, del planeta. Y la eficiencia de la Francia de los aristócratas era nula.

El mensaje, para el que lo quiera entender, es claro: La solución de problemas enquistados no pasa nunca, nunca, por la insistencia en ideas y tecnologías antiguas (pensemos en las estulticias marxistas, o las tonterías de la economía neoliberal) sino por examinar críticamente las hipótesis en que se basan los modelos que utilizamos y corregirlas adecuadamente.

Quizás para ello se precisen genios. La misión de la educación es esta: Permitir el desarrollo de estos genios, y no lanzar al mercado personas solo capaces de repetir lo aprendido e incapaces de generar cada día ideas nuevas.

Podemos cambiar o podemos insistir en el error.

Cortesia elmundo.es

Ciencia y tecnología

El sistema científico español está muy enfermo

Joan Guinovart, presidente de la Confederación de Sociedades Científicas de España (COSCE), un investigador de prestigio, habitualmente jovial, lo dice con una sonrisa que no oculta su desánimo: «Empezamos 2010 en una situación mala, y en 2011 estamos peor». Le apoya Aurelia Modrego, profesora de la Carlos III: «El sistema de ciencia y tecnología está muy enfermo». Y cierra el círculo Juan José Molero, economista, catedrático de la Complutense, que ha analizado cifra a cifra las partidas de los Presupuestos Generales del Estado para I + D. Su conclusión: en 2011 el sector recibirá un 7,38 por ciento menos dinero público (un 10 por ciento en términos reales, con la inflación).

La COSCE destripa cada año los presupuestos, y, según sus cifras, desde 2008, el I + D ha perdido peso en los presupuestos. El año pasado, recibió un 5,5 por ciento menos; en 2011, un 7,38. El recorte afecta a casi todos los ministerios, salvo Educación; a la investigación militar (-14,77 por ciento) y a la civil (-6,30); a los créditos y a las subvenciones, a casi todos los programas.

«La atmósfera positiva que se generó en 2007/2008 ha desaparecido por completo —explica Guinovart—. El mensaje que estamos dando al exterior es que España, de nuevo, no es buen país para venir a investigar». Guinovart añade que el problema va más allá de la crisis y los recortes. «Lo peor es que los políticos hablan de muchas reformas estructurales, pero no de la más importante, la del sistema de ciencia y tecnología, envejecido e ineficaz».

En este sentido, la COSCE ha presentado su propuesta de crear una Agencia Estatal de Investigación que lidere el sector en España, con competencias sobre financiación y sobre la evaluación de los proyectos, similar a las que funcionan con éxito en otros países europeos.
Cataluña y País Vasco, privilegiadas

En las enmiendas a los Presupuestos se añadieron al sector de la investigación y el desarrollo 58,5 millones procedentes de una partida para imprevistos. De ellos, el 73 por ciento se destinaron a proyectos del País Vasco y más del 10 a Cataluña. Según José de No, investigador del CSIC y miembro de la Comisión que ha analizado las cifras oficiales, se trata de un claro «uso político de los fondos públicos».

Cortesia ABC, España

Ciencia y tecnología
chatroulette chatrandom

Iniciar sesión

Ingrese el e-mail y contraseña con el que está registrado en Monografias.com

   
 

Regístrese gratis

¿Olvidó su contraseña?

Ayuda