Geología, Peligros Naturales y GeoTecnología

Blog en Monografias.com

 

Ciencia y tecnología

Poseídos por el I+D+i

Inmersos en el epicentro de la crisis económica-especulativa-financiera y bajo el espejismo de la Ley de Economía Sostenible, una nueva pasión se abre, desde hace unos años, en la mente de los dirigentes políticos españoles: el I+D+i. Una poderosa fuerza que ha de convertirse en el motor de un cambio de modelo económico que nos ha de guiar de nuevo por la senda de la prosperidad -real y no virtual- y del bienestar hacia un Sangri-La. Ahora bien, todos estos políticos se olvidan de un hecho fundamental: todos los pasos hacia el progreso se han realizado pisando sobre el terreno de la ciencia.

       Así, el huevo que dio lugar a la gallina de oro de la revolución industrial –donde dicen que se originó el salto al futuro- se llamaba impulso a las sociedades científicas, facultades de matemáticas o física, o institutos tecnológicos que se desarrollaron uno o dos siglos antes. Ellos, y no otros, crearon la mentalidad que propició el desarrollo tecnológico que les precedió.

       Tradicionalmente, y de manera especial una vez que se han puesto al aire las vergüenzas de los neocom, se argumenta que la pujanza económica de un país está íntimamente ligada a su capacidad para la innovación e invención, que a su vez depende de la inversión estatal (inicialmente) en investigación básica y aplicada.

       En este contexto, no resultaron extrañas declaraciones como las del presidente del Consejo de Investigaciones Científicas, argumentando que necesitábamos 50.000 nuevos científicos antes de 2010 para poder abordar con ciertas garantías los retos que planteaba la sociedad del conocimiento.

       Ha llegado la fecha. Sin duda se han cumplido los números -o se está muy cerca de hacerlo-, pero la realidad es bastante más compleja que un discurso político: no siempre las grandes inversiones estatales en I+D+i han sido garantía de desarrollo económico.

       La vitalidad de un país precisa, más que de ingentes cantidades de fondos, de un cambio de mentalidad y una apuesta decidida por la Ciencia, porque sin ella no fue posible ni el capitalismo, ni la revolución industrial -ni la primera ni la segunda ni tampoco la que dicen será la tercera- ni será posible el progreso.

       Este proceso requiere su tiempo y a tenor del desarrollo de la Ley de Ciencia, de los escasos cambios que se han producido en el modo de trabajar en la universidad española y de la situación de los investigadores -también llamados precarios- dista mucho de alcanzar un grado de excelencia.

       Es evidente que una de las peculiaridades de la sociedad española es su falta de tradición científico-técnica. Una sociedad en la que uno de sus grandes iconos intelectuales, don Miguel de Unamuno, que condenó el desarrollo científico con el nefasto “que inventen ellos”, difícilmente albergará un cierto interés por la ciencia. Aun así, hemos pasado en poco más de cien años a esa apuesta por el I+D+i. Por el camino se atravesó el desierto de la autarquía del comienzo del franquismo (salvo esa pequeña luz que supuso el non nato proyecto de la II República), la euforia del Spain is diferent con el desarrollismo de los sesenta basado en la especulación -ya sea del ladrillo o del dinero-, o la economía social de mercado de la democracia. Pero ni por asomo se produjo un movimiento similar al que llevó a Europa a la Revolución Industrial: la pasión por la Ciencia.

 

El nacionalismo tecnológico

Desde mediados del siglo pasado, se justifica el esfuerzo inversor de los estados en ciencia y tecnología con una hipotética relación de causa-efecto entre la inversión estatal en investigación, desarrollo e innovación (I+D+i) y la pujanza económica de una nación.

       Este nacionalismo científico-técnico parte de la premisa de que sólo se llegará a ser un país rico si se consigue inventar e innovar tanto o más que el resto. Consecuentemente, las naciones más importantes y punteras serán aquellas que han hecho -y hacen- los mayores esfuerzos para financiar la investigación en Ciencia y Tecnología.

       Un modelo capitalista que se basa en dos conceptos: el primero de ellos (podría llamarse el problema del parásito) afirma que en una sociedad de mercado, los particulares jamás harán un gran esfuerzo del que puedan beneficiarse todos y, por lo tanto, la financiación de la investigación (especialmente la investigación básica) corresponde al Estado.

       Y el segundo, (podría denominarse la oportunidad nacional) señala que los resultados de la investigación van a favorecer en primer lugar a la nación que los ha desarrollado. El descubridor de una nueva tecnología parte con ventaja a la hora de sacarle rentabilidad.

_____________________________________________________________________________________________

Cortesía de Fronterad

Ciencia y tecnología

Descifrada la «paradoja del sol débil», uno de los grandes misterios de la ciencia

 

Hace casi cuarenta años, el mundialmente famoso astrónomo Carl Sagan y su colega George Mullen formularon la «paradoja del sol débil». Los científicos se preguntaban cómo era posible que en sus inicios, hace prácticamente unos 4.000 años, la Tierra no fuera un desolado paisaje cubierto de hielo, ya que las radiaciones solares eran entonces hasta un 30% menores. Si apenas llegaban los rayos del Sol, ¿qué evitó que el planeta entrara en una temprana edad de hielo que podría haber cambiado el curso completo de su historia? La incógnita ha permanecido hasta nuestros días como uno de los grandes misterios de la ciencia. Muchos han intentado resolverla con argumentos que no han resultado del todo convincentes. Ahora, investigadores daneses y norteamericanos creen conocer la respuesta a esta obsesión. El estudio, publicado en la revista Nature, apunta que para encontrar una solución a la paradoja sólo hay que ponerse a mirar las nubes. Según el informe, firmado por expertos del Museo de Historia Natural de Dinamarca, la Universidad de Copenhague y la Universidad de Stanford en California, la primitiva capa de nubes era mucho más delgada de lo que es ahora y los rayos del sol pudieron calentar los océanos sin obstáculos.
La «paradoja del sol débil» recibió una primera explicación en 1993. El científico atmosférico estadounidense Jim Kasting realizó una serie de cálculos teóricos que demostraban que el 30% de la atmósfera terrestre hace 4.000 millones de años estaba compuesta de CO2. Estos gases habrían actuado en un efecto invernadero, impidiendo que el planeta se congelara. Para Minik Rosing, autor del nuevo estudio e investigador del Museo de Historia Natural de Dinamarca, no fue el CO2 lo que impidió la aparición de una edad de hielo, sino el hecho de que la capa de nubes era mucho más delgada de lo que es en la actualidad y no formaba un escudo tan poderoso frente a los rayos, que pudieron calentar los océanos sin obstáculos.

La razón de la falta de nubes puede explicarse por el proceso por el que éstas se forman. Necesitan sustancias químicas producidas por algas y plantas, que no existían durante ese período. Precisamente, estos procesos químicos han sido capaces de formar una densa capa de nubes que reflejan el paso de los rayos solares, lanzados de nuevo al cosmos, evitando así el calentamiento de los océanos de la Tierra.
Minik Rosing y su equipo llegaron a estas conclusiones tras analizar las muestras de 3.800 millones de años de antigüedad de una montaña de piedra de una de las zonas rocosas más antiguas del mundo, Isua, en la Groenlandia occidental.

_____________________________________________________________________________________________

Cortesía ABC, España

Ciencia y tecnología

Anonimato y autoría en la era digital

Durante todo el siglo XX los grandes nombres de la teoría literaria cuestionaron la presencia del autor en sus obras. El debate puede remontarse a Mallarmé, a T. S. Eliot o al mismo Heidegger, pero serán los críticos americanos del New Criticism y los post-estructuralistas franceses quienes lo llevarán hasta sus últimas consecuencias. Así, Wimsatt y Beardsley, en su deseo de ceñirse a la sola scriptura, hablaron de la falacia que representa buscar la intención del autor en los textos. Dos décadas después, Barthes insistió en la exclusiva existencia de la écriture y certificó, sin más, la defunción del autor. Foucault, al año siguiente, lo resucitó, pero para convertir la figura del autor en una función con que clasificar y separar unos textos de otros. Desde entonces acá mucho ha llovido, pero el autor, por lo general, ha seguido siendo un concepto incómodo, al menos en teoría. La práctica, naturalmente, es otra cosa.

       El plagio y las publicaciones piratas siguen siendo un delito y todos estamos al corriente de las disputas legales en torno a la propiedad intelectual que han surgido con el advenimiento del Internet. Ni Barthes ni Foucault llegaron a conocer ese medio, pero me imagino que a ninguno de los dos les habría hecho ninguna gracia ver sus libros colgados en la red sin su consentimiento, por mucho que uno dijera que la voz del autor está condenada a sumergirse en el magma de la escritura y el otro creyera que todos estamos fatalmente condicionados por discursos coercitivos generados dentro de la sociedad. Pues una cosa es negar la voz del autor y otra muy distinta dejar de cobrar los derechos de un libro.

       Pero sin entrar a discutir cuestiones legales relacionadas con la propiedad intelectual, lo cierto es que el Internet parece favorecer la anonimia y poner en entredicho el papel del autor. En principio, la Web se presenta como un vasto tablero electrónico en donde cualquiera puede colgar lo que le venga en gana. Tal democratización textual produce un lógico recelo. ¿Dónde están los filtros de calidad, las jerarquías, el canon? ¿Quién distingue la voz de los ecos? A primera vista, puede pensarse que la voz creadora y autorizada del autor queda sepultada bajo el estruendo de millones de otras voces y ecos. Sin embargo, a quien frecuenta el Internet con cierta asiduidad a través de un buscador como Google lo primero que le llama la atención es su extraordinario, casi mágico ordenamiento. No estamos ante una biblioteca de Babel caótica y cacofónica como imaginara Borges. Todo lo contrario. En las búsquedas de Google cada texto ocupa un lugar y un sólo lugar. No se necesitan catálogos ni signaturas, basta saber el título de la obra y el nombre del autor para dar con el documento.

       Hay otro fenómeno no menos maravilloso. Con dos o tres frases extraídas de un documento, Google es capaz de identificarlo de manera instantánea entre millones. A veces, si las frases elegidas son raras, el documento en cuestión será el único resultado de la búsqueda. Otras, especialmente si las frases resultan algo más comunes, éste vendrá acompañado de un restringido lote, pero con la peculiaridad de que casi siempre los documentos de ese lote estarán relacionados entre sí, ya sea por el tema, en virtud de su cercanía geográfica y temporal u, ocasionalmente, por ser el producto de un mismo agente. Raramente Google permite, por así decir, el encuentro fortuito de una máquina de coser y un paraguas en una mesa de disección. Toda expresión personal tiene derecho a existir en la red, pero cada documento está ubicado dentro de unas coordenadas espacio-temporales específicas y en función de su repertorio verbal. Nadie puede salirse del círculo lingüístico al que pertenece. Cada palabra y cada frase que ponemos en un texto lo sitúan en un punto determinado, colindante con otros documentos afines.

       El fenómeno descrito deja traslucir, por lo pronto, un primer principio en relación con la lengua que hablamos, pues si, en efecto, las frases de un texto tienen en casi todos los casos correspondencias con textos afines, quiere decirse que la producción lingüística no consiste mayoritariamente en combinar palabras individuales ad infinitum, como piensa la gramática generativa de Chomsky, sino en recordar frases previamente archivadas. Todo hablante, como no puede ser de otra manera, está en deuda con su entorno, pero sólo en estos últimos años, con la posibilidad de cotejar un texto dado con corpus ingentes, ha quedado meridianamente clara la función de la memoria en el lenguaje. Al hablar o al escribir no hacemos otra cosa que recordar frases oídas antes, aunque paradójicamente apenas haya un enunciado igual a otro.  La creatividad lingüística al nivel del enunciado es total, mientras que es casi inexistente al nivel de frase.

____________________________________________________________________________________________
Cortesía Fronterad.com

Ciencia y tecnología

El olor de los libros

En abril de 2009 la web Smell of Books presentaba los primeros sprays de aromas para libros electrónicos. Su idea era potenciar las capacidades sensoriales de estos dispositivos y animar a los nostálgicos del olor a papel y tinta a abrazar las nuevas tecnologías. 

       El anuncio suscitó enseguida las protestas de The Authors Guild, una gestora de derechos intelectuales que exigió la retirada del producto al ver en él una amenaza para los futuros derechos de aroma de aquellos autores que quisieran integrar el olor como parte creativa de su obra, algo que sin duda la tecnología iba a permitir en breve.

       Todo fue una broma de los divertidos DuroSport Electronics, pero tuvo una gran repercusión en internet porque aludía a un debate abierto entre los defensores del libro tradicional y los del libro electrónico, discusión en la que, antes o después, siempre se acababa hablando del olor. 

       Cuando el hombre se puso de pie, el olfato inició su decadencia hasta convertirse en el sentido segundón que es en la actualidad. Denostado por filósofos, ignorado por artistas, su carácter directo, terrenal, poco fino, hasta grosero, más bien relacionado con lo evitable que con lo placentero -sí, ya sabemos que Napoleón escribió a Josefina aquello de llegaré a Paris mañana por la noche, no te laves, pero eso es otra historia-, excesivamente subjetivo, ha hecho incluso que no exista vocabulario específico para definir con precisión los olores ni el acto de oler. Es quizás ese estatus de gran desconocido el que está fomentando una tendencia a restituir al olfato su prestigio perdido. En nuestros días disciplinas como la aromaterapia o el marketing olfativo le están devolviendo un cierto marchamo de sentido influyente. En esa línea, los más refinados defensores del libro de papel lo esgrimen, cual magdalena de Proust, como la llave de todas las evocaciones.

       A mí, que soy un esnifador confeso de libros, lo del olor me parece sólo la punta del iceberg de un fetichismo mucho más complejo. Admitámoslo, todo bibliófilo es un bibliómano. Más que lectores, acabamos siendo coleccionistas. Compramos muchos libros por el mero hecho de atesorarlos, conscientes de que quizás no los leeremos nunca, pero sabiendo que son parte estructural de la extraña arquitectura de nuestra felicidad. 

       Poseer el libro, recordar que lo tenemos, disfrutar buscándolo en el paisaje cambiante de nuestra biblioteca, hallarlo al fin. Luego palparlo brevemente, olfatearlo, una ojeada cómplice, quizás leer unos párrafos, y enseguida devolverlo al estricto orden lineal o a la estudiada dejadez de los montones. Ése es uno de los rituales del poseído.

       El aroma de un libro nuevo lo aportan el papel, la tinta y la proporción en que ambos se combinan. En esta genética del olor, el papel proporciona la información dominante, pero la tinta, con su disposición, obra el milagro de la personalidad. Tipografías, espacios, interlineados y sangrías son los que, al precisar la exacta relación entre las áreas, otorgan los matices últimos de cada fragancia. No es fácil el equilibrio. Así, un abismo se abre entre la tristeza lacónica de un libro de poesía, generoso de poro y breve de tinta, y la exaltación química del cuché anegado de imágenes y texto.

       Yo, como los perros, utilizo el olfato para mi primer contacto íntimo con los libros. Procuro que sea en privado. Los abro hacia la mitad, como una breva en sazón, las yemas de los dedos bajo las cubiertas. Penetro entonces con la nariz hasta el fondo del ángulo y aspiro despacio mientras el papel acaricia mis mejillas. Luego, ya en la agradable rutina de la convivencia diaria, disfruto plácidamente de su aroma de crucero, el que me conceden mientras los leo, discreto y sutil, a veces imperceptible, listo para combinarse con los vericuetos de la mente y lo que me rodea. Como soy propenso a hacer marcas y anotaciones en sus páginas, me gusta usar para ello buenos lápices de grafito y madera de cedro, blandos -2B en adelante­­- y bien lacados. Son perfectos para oler y chupetear durante la lectura. Su aroma combina prodigiosamente con el del papel fresco. Además, sirven como marcapáginas.

       Los libros, como los árboles, cuando se agrupan desarrollan capacidades que no poseen por separado. Ocurre en bibliotecas y librerías. Desde un punto de vista olfativo, prefiero las segundas. Una buena librería de nuevo, a primera hora de la mañana, recién abierta, sin apenas público, es un festín aromático para el adicto. Disfruto entonces recorriéndolas a la deriva. A veces ocurre que, en un determinado punto, una conjunción fortuita de editoriales, formatos y colocación, genera una fragancia única e irrepetible que no tardo en añorar.

       Entre las editoriales establecidas, me gusta especialmente el aroma de Anagrama -recuerdo con emoción la primera vez que olí 2666- y el de Tusquets. Casi todos sus títulos han sido impresos por Liberdúplex y Limpergraf. También me parecen irreprochables los olores de Acantilado y Libros del Asteroide. Debería ser más frecuente que los libros nos desvelaran en sus créditos la referencia exacta del papel con el que están construidos, como hace el MACBA en sus exquisitas publicaciones con papel Fredigoni.

_____________________________________________________________________________________________
Cortesía de Fronterad

Ciencia y tecnología

El cerebro es Robin Hood

El deseo de combatir las desigualdades, especialmente las que dividen el mundo en ricos y pobres, no es sólo una cuestión moral. Un grupo de investigadores del Instituto de Tecnología de California en Pasadena (Estados Unidos) y del Trinity College en Dublín (Irlanda) han descubierto la zona del cerebro donde nacen los sentimientos de paridad, justicia y equilibrio, aquella que más desarrollada debía de tener el famoso Robin Hood, que robaba a los poderosos para repartir el botín entre los desfavorecidos. Los resultados del trabajo se publican en la revista Nature.
Según los investigadores, los centros de recompensa en el cerebro humano responden con más fuerza cuando una persona pobre recibe una recompensa económica que cuando la premiada es una persona rica. Lo sorprendente es que este patrón de actividad se mantiene incluso si el cerebro que está siendo estudiado pertenece a alguien adinerado.
Desde hace tiempo se sabe que a los seres humanos no les gusta la desigualdad, sobre todo cuando se trata de dinero. Dígale a dos personas que trabajan en el mismo sitio y tienen las mismas funciones que sus sueldos son diferentes y comenzarán las problemas. Pero lo que no se conocía era cómo esos sentimientos tenían su propio «cableado» en el cerebro. Según explica Thomas N. Mitchell, profesor de Neurociencia Cognitiva del Instituto de Neurociencia del Trinity College e investigador principal del trabajo, con este estudio «comenzamos a tener una idea de dónde procede la aversión a la desigualdad. No es sólo la aplicación de una regla social o convención, existe también algo sobre el procesamiento básico de recompensas en el cerebro que refleja estas consideraciones».
50 dólares frente a cinco
El cerebro procesa las «recompensas», como comida, dinero o música agradable, que crean respuestas positivas en el organismo, en áreas como la corteza ventromedial prefrontal (CVMPF) y el cuerpo estriado ventral. En sus experimentos, los investigadores examinaron cómo el CVMPF y el estriado ventral reaccionaban en 40 voluntarios a los que se les presentaba una serie de escenarios de transferencia de dinero mientras pasaban por un escáner de imágenes de resonancia magnética funcional (IRMf). Así, en uno de los casos al participante se le decía que se le darían 50 dólares y 20 a otra persona; en un segundo escenario, el estudiante podía ganar sólo 5 dólares y la otra persona 50. Las imágenes de IRMf permitían a los investigadores examinar cómo el cerebro de cada participante respondía a cada posible intercambio económico.
Sin embargo, antes del paso por el escáner cada participante dentro de una pareja era asignado de forma aleatoria a una de dos situaciones: un participante obtenía una gran cantidad monetaria al inicio del experimento (50 dólares) mientras el otro comenzaba sin ningún dinero. La forma en la que los centros de recompensa cerebral de los voluntarios respondían ante los diversos escenarios dependía de si comenzaban el experimento con una ventaja financiera sobre sus compañeros.
Sin egoismos
«Las personas que comenzaron pobres tenían una reacción cerebral más fuerte ante las cosas que les daban dinero y no reaccionaban ante el dinero que se le daba a la otra personas», explica Colin Camerer, del Instituto de Tecnología de California y coautor del estudio. Lo que sorprendió a los científicos fue que en el experimento las personas que empezaban ricas tenían una reacción más fuerte cuando la otra persona conseguía dinero que cuando lo hacían ellas mismas. «En otras palabras, a sus cerebros les gustaba que los otros consiguieran dinero más de lo que les gustaba conseguirlo a ellos», añade Camerer.
Los investigadores saben ahora que estas áreas no sólo procesan el interés propio sino que además de responder a las recompensas que se consiguen también lo hacen ante las que consiguen otros individuos. Lo autores señalan que el siguiente paso es intentar comprender cómo estos cambios se trasladan a la conducta. Así, ponen como ejemplo a quien descubre que le pagan menos que a otro por el mismo trabajo y podría terminar trabajando con menos interés y motivación.

_____________________________________________________________________________________________

Cortesía de ABC,España

Ciencia y tecnología

Las ocho grandes chapuzas de la historia de la ciencia

Aunque la ciencia nos ha hecho la vida mucho más segura y, sin duda, es uno de los asideros a los que la humanidad tendrá que agarrarse con todas sus fuerzas para garantizar su futuro, no deja de ser una actividad humana y, por lo tanto, por muy rígidos que sean sus métodos de trabajo, no está exenta de cometer errores. Precisamente, la confianza pública hacia la ciencia ha descendido en los últimos tiempos a causa de algunas noticias contradictorias, como la confusión que rodea a la investigación sobre el cambio climático o los problemas casi cómicos que ha tenido el Gran Colisionador de Hadrones para ponerse en funcionamiento -desde el fracaso que supuso su parón pocos días después del primer «on» en septiembre de 2008 hasta el cortocircuito provocado por una miga de pan dejada por un pájaro el pasado noviembre-. Eso por no hablar de los fraudes científicos, como el cometido por el sur coreano Hwang Woo-suk, condenado por falsear una investigación sobre clonación de embriones humanos, aunque esa es otra historia en la que la mala fe entra en escena. Como nadie es perfecto, el físico y periodista británico Michale Brooks, colaborador de la revista NewScientist y del diario Daily Telegraph, enumera algunos de los errores garrafales de los científicos a lo largo de la historia, un escenario que no estamos acostumbrados a conocer:
1- El empecinamiento de Galileo Galilei: Para demostrar ante el Papa Urbano VIII que la Tierra giraba alrededor del Sol, el sabio florentino escribió una fórmula matemática. Desgraciadamente, utilizó las mareas como base de su argumentación. Sus cálculos señalaban que debía haber una marea alta al día en lugar de dos, pero Galileo se negó a reconocer su error, ridiculizando a aquellos que apuntaban que las mareas estaban, efectivamente, influidas por la Luna. Obviamente, se equivocaba.
2- La energía de las ancas de rana: Un siglo después, pero todavía en Italia, Luigi Calvani, pionero de la electricidad, cometió un famoso error. Después de colgar una hilera de ranas en la cerca de hierro de un jardín, las piernas de los animales comenzaron a temblar. Sorprendido, Calvani dedujo rápidamente una nueva teoría de la «electricidad animal», afirmando que el tejido biológico genera su propia corriente. Sin embargo,la contracción muscular experimentada por las extremidades de los batracios había sido provocada al tocarlas Galvani con unas tijeras metálicas durante una tormenta eléctrica.
3- Un trago de vómito negro: A principios del siglo XIX, el doctor Stubbins Ffirth estaba convencido de que la fiebre amarilla disminuía en invierno porque era fruto del calor y el estrés, y que no era contagiosa. Estaba tan convencido de sus teorías que decidió beber vómito negro directamente de la boca de un enfermo. Logró sobrevivir, pero no porque la fiebre amarilla no sea contagiosa, sino porque el virus tiene que ser transmitido directamente al torrente sanguíneo. En realidad, tuvo mucha suerte.
4- Los rayos X, un absurdo: Corría el año 1896 cuando el matemático y físico británico Lord Kelvin, que había ya había dimitido como presidente de la Royal Society de Londres, declaraba que los recientes informes de los rayos X «eran tan absurdos que, sin lugar a dudas, debían de ser un engaño». Tuvo que tragarse sus palabras. Ese mismo año, después de ver la evidencia por sí mismo, Kelvin dio marcha atrás e incluso aceptó ver su mano a través de los rayos. Rectificar es de sabios.
5- ¿Malos consejos para Einstein?: En 1917, antes de publicar su famosa teoría de la relatividad, Albert Einstein preguntó a un grupo de astrónomos si el universo estaba en expansión. Necesitaba saberlo porque sus ecuaciones describían un universo que podría estar creciendo o menguando. Los astrónomos le contestaron que nada de eso, que estaba estable, así que Einstein introdujo en sus cálculos una «constante cosmológica». Una década más tarde, Edwin Hubble descubrió que el Universo está en expansión.
Einsten llamó a la inserción de esta constate su «mayor error», pero lo cierto es que no lo fue tanto. Recientes descubrimientos sobre la naturaleza del tiempo y del espacio muestran que sí necesitamos una constante cosmológica después de todo.
6- La teoría fundamental del universo: En 1921, el astrónomo Sir Arthur Eddington descubrió una serie de coincidencias en algunas cifras relacionadas con la cosmología, y se dedicó a demostrar que esto era una pista que podría conducir a una teoría fundamental del universo. La teoría se desmontó fácilmente cuando otro colega vio que uno de los números no era correcto.
7- Una sonda se estrella por confundir los metros con los pies: En 1999, la sonda de la NASA Mars Climate Orbiter se encontró misteriosamente 60 kilómetros más ceca del Planeta Rojo de lo esperado. El supuesto enigma no fue provocado por un viaje en el espacio-tiempo, más nos hubiera gustado, sino porque los responsables de la nave no se entendieron. Los científicos de la NASA habían estado trabajando en metros y centímetros, mientras que los ingenieros de la multinacional Lockheed Martín, que suministraban el software de navegación, lo hacían en pies y pulgadas. El resultado es que, incapaces de alcanzar una órbita estable, la nave se precipitó sobre la superficie de Marte. Un garrafal fallo de principiante.
8- Un virus que sí es infeccioso: Biólogos franceses de la Universidad del Mediterráneo en Marsella anunciaron en 2003 que habían descubierto el virus más grande del mundo, el «Mimivirus», treinta veces más grande que los rinovirus que provocan un resfriado y prácticamente indestructible. Se anunció que el virus no podía infectar a los seres humanos, pero un año más tarde, uno de los técnicos de laboratorio enfermó de neumonía inducida por mimivirus. El virus era nuevo para la ciencia, pero no para el ser humano: el 10% de los enfermos de mimivirus tienen anticuerpos en su sangre.

_____________________________________________________________________________________________

Cortesía de ABC, España

Ciencia y tecnología

Atrapando el tiempo

El 5 de septiembre de 1906, Ludwig Boltzman, uno de los físicos más eminentes de todos los tiempos, realizó su último experimento que resultó ser irreversible. Ató una soga a los barrotes de una ventana de su casa, hizo un nudo corredizo alrededor de su cuello y se ahorcó. Minutos más tarde, cuando la señora Boltzman regresó al hogar después de haber llevado un traje a la tintorería, se encontró a su marido muerto, quieto como el péndulo de un reloj al que se le ha acabado la cuerda.

Nunca se perdonó haber tardado en llegar a casa o incluso haber salido de ella y así evitar el desenlace fatal que la convirtió en viuda. Cuando el ser humano se enfrenta a una situación final, seguro que en más de una ocasión desearía tener la capacidad de retroceder en el tiempo para cambiar su manera de comportarse.

       Manejar las manecillas del reloj es un pensamiento que ha torturado a más de uno, y resulta una constante en la literatura, en la psicología, en la filosofía o en la física… En definitiva, en todas y cada una de las disciplinas en las que el hombre desarrolla una actividad intelectual.

       Hoy, el tiempo sigue dándonos quebraderos de cabeza. Si nos detenemos en la física y damos un breve repaso a todas sus teorías, ya sean las newtonianas, las de la relatividad o la cuántica, observaremos que no se hace ni una sola referencia a la existencia de una flecha que marque la dirección del tiempo. En ellas, su transcurrir podría ir tanto hacia adelante como hacia atrás.

       Esta paradoja fue llevada al extremo por Richard Feynmam, quien llegó a proponer que en todo el Universo podría haber un electrón que estuviese en todas partes a la vez. Es decir, que podría viajar en el tiempo en todas direcciones y, por lo tanto, ser omnipresente.

       También Einstein creía en la reversibilidad de la variable tiempo. Un relativista como él pensaba que el antes y el después no son más que meras clasificaciones de un proceso reversible. Existen abundantes notas de su pensamiento al respecto en la correspondencia que mantenía con la viuda de Michelangello Beso, su mejor amigo.

       Es ciencia y son hipótesis demostradas a nivel teórico… ¿Vértigo?  No, simplemente son la expresión de un hecho aceptado -pero a regañadientes- por el hombre: existe un límite que nadie hasta ahora -por más sensaciones de déjà vu que podamos tener- ha podido traspasar. Un límite que marca nuestras vidas y que no es otro que la irreversibilidad del tiempo.

 

Modificar el tiempo manejando el calendario

Manejarlo a nuestro antojo es algo que nos ha obsesionado, sobre todo desde que se descubrió cómo los periodos luz y oscuridad determinan y conforman nuestra existencia, determinan el flujo de las mareas o marcan el crecimiento de las cosechas. Y en ese tránsito de controlar los ciclos vitales, el tiempo también ha sido protagonista de problemas mucho más prosaicos.

       Preocupaciones que llevaron a tomar drásticas medidas a Julio César, que llegó a imponer su propio calendario. Originariamente, los romanos utilizaban un calendario de 304 días distribuidos en 10 meses (seis meses de 30 días y 4 de 31 días). Los desfases producidos  (el año solar tiene 365 días) se ajustaban en el último mes del año, pero se hacían con criterios políticos y no astronómicos. Por ejemplo, determinar el día de pagar a la servidumbre o para prorrogar cargo de un funcionario, adelantando o retrasando las votaciones (eso que ahora se hace en la Unión Europea cuando deciden parar el reloj hasta que se llegue a un determinado acuerdo), o sea utilizando razones científicas de peso. Luego, con Numa (el primer rey romano), se pasó a un calendario de 12 meses, de 30 días cada uno.

       El año empezaba a finales de marzo, que era el primer mes de primavera y cuando se decidían las campañas militares del año. Los meses iban desde Martium hasta Februarium en este orden: Martium: mes de Marte, dios de la guerra. April: mes de apertura de flores (por la primavera, en el hemisferio norte) o mes de Afrodita. Maium: mes de Maia, diosa de la abundancia y madre de Mercurio. Junium: mes de Juno, diosa del hogar y la familia. Quintil: mes quinto. Sextil: mes sexto. September: mes séptimo. October: mes octavo. November: mes noveno. December: mes décimo. Januarium: mes de Jano, dios de los portales y Februarium: mes de las hogueras purificatorias (februa).

       Tan absorto estaba Julio César con los problemas que le causaba el año solar, que en el 47 a.C. hizo el primer viaje a través de esta coordenada. Se sacó literalmente de la manga 83 días más. Ese año, el 47 a.C., entró por méritos propios en el Libro de los Récords, ya que duró 445 días.

       El divino César, hasta el laurel de los ajustes de tiempo, decidió poner el  contador a cero, ya que la continua modificación de días (cada año romano de 360 días quitaba cinco al año solar de 365) se iba de las manos y acababa por alterar las estaciones (una convención humana). Así, cada seis años se alteraba un mes y se producía la paradoja de que crecían las plantas en invierno o se producía la caída de las hojas en pleno verano, algo realmente molesto para cualquier mente mínimamente ordenada. Además del año más largo de la historia, impuso su calendario, conocido como juliano, que pasó a tener 365 días y se introdujo el famoso año bisiesto.

       Pero tampoco los cálculos del bueno del César eran exactos y unos 15 siglos después hubo que revisarlo. Los astrónomos imperiales consideraban que el año trópico estaba constituido por 365,25 días, pero la cifra correcta es de 365 días, 5 horas, 48 minutos y 45,16 segundos. Es decir, que cada año se agregaban 11 minutos de más, y poco a poco se convirtieron, allá por el año de 1267, en 10 días.

       Fue entonces cuando se planificó el segundo viaje en el tiempo, más modesto que el del César. El promotor fue ni más ni menos que el mismísimo papa Gregorio XIII, quien decidió -por voluntad divina- que del 4 de octubre de 1582 se pasara directamente al 15 del mismo mes. Había nacido el calendario gregoriano (el actualmente en vigor).

_____________________________________________________________________________________________
Cortesía de Fronterad

Ciencia y tecnología

El hombre que quiso crear un nuevo continente

Diariamente encontramos en la blogosfera historias fascinantes y estremecedoras. El poder que tienen las bitácoras para analizar noticias, contrastar opiniones y sobre todo contar relatos de una forma pormenorizada y sin las prisas “del directo”, resulta incuestionable. Por eso nos gustaría destacar una de las anotaciones más relevantes en las últimas horas, que nos traslada hasta el año 1927, en pleno periodo de entreguerras y momento en el que Herman Sorgel, un arquitecto alemán que quería hacer reflotar a la vieja Europa de la grave crisis que la azotaba, comienza a idear “Atlantropa”.
Se trataba de un ambicioso proyecto para construir una gigantesca presa de 35 kilómetros de largo, 300 metros de alto y 500 de ancho en el estrecho de Gibraltar, que no sólo supondría una importante fuente de electricidad y de puestos de trabajo, sino que permitiría interrumpir el flujo de agua proveniente desde el atlántico y rebajar el nivel del mar Mediterráneo unos doscientos metros en sesenta años. De esta forma, el Mar Nostrum poco a poco se iría evaporando y en ese tiempo se ganarian unos 600.000 kilómetros cuadrados de tierra, que podrían ser aprovechados para la agricultura y la ganadería generando riqueza a unos 150 millones de personas. Europa y África quedarían unidos por un titánico programa de obras de ingeniería encabezado por este gran dique del estrecho y el nuevo continente engendrado se llamaría Atlantropa.
Sin entrar a valorar las repercusiones medioambientales de un proyecto como este, los planes del incansable Herman Sorgel iban más allá que el terreno méramente arquitectónico y estaban cargados de un claro interés colonialista, que por otra parte, era la tónica reinante en la Europa de aquella época. Por este motivo, entre sus “revolucionarias” ideas también estaban construir otra presa para aprovechar las crecidas del río Congo que inundaría los “improductivos” bosques que ocupaban la mayor parte de ese país, borrando del mapa un número incontable de pueblos y especies, la creación de nuevos puertos de mar, por delante de muchos de los actuales (Nuevo Tánger, Nuevo Nápoles, Nueva Génova…) y la búsqueda de una capital para el nuevo continente llamada Porte du Rhone cerca de la actual Marsella.
Afortunadamente, las ideas de nuestro particular creador de continentes, si bien captaron cierto interés de algunos escritores y filósofos de la época, no terminaron por convencer a sus comptariotas nazis y la llegada de la energía atómica y el fin del colonialismo se encargaron del resto.

_____________________________________________________________________________________________

Cortesía de ABC, España

Ciencia y tecnología

Mujeres y Ciencia. No, gracias. Por Victoria López-Rodas y Eduardo Costas

Del mismo modo que hasta hace bien poco la jueza era tan solo la mujer del juez -incluso para la Real Academia de la Lengua, que sigue manteniendo esta definición como segunda acepción de la palabra- si aplicamos o buscamos un significado al vocablo científica encontraremos un espacio vacío. No tiene entidad propia, va indefectiblemente ligado al masculino y a lo largo de la historia, sobre todo en el periodo negro que se inicia con la Edad Media y va hasta los albores del pasado siglo, la mujer en este campo ha estado sumida en el más absoluto ostracismo, salvo honrosas excepciones.

       No obstante, el panorama en la actualidad ha cambiado. Aunque tampoco invita a dar muestras de júbilo, sobre todo en España, donde a pesar del aumento del número de mujeres investigadoras en las tres últimas décadas, estamos lejos de alcanzar una proporción paritaria entre hombres y mujeres dedicados a la ciencia en todos sus niveles. Según el informe que la Fundación Española para la Ciencia y la Tecnología(FECYT) que se presentó a finales de 2007, tan sólo 14 de cada 100 catedráticos de la universidad pública española eran mujeres.

       Más optimistas, en parte, resultan las conclusiones del último informe del Consejo Superior de Investigaciones Científicas (CSIC) Mujeres investigadoras 2009, donde se refleja que “la presencia de mujeres científicas ya supera la barrera del 40%”. Pero a continuación subraya que a pesar de ello, “los cargos directivos siguen acaparados por los hombres”. Hablar de género y encontrar un pero es todo uno. Es una constante en la historia de la civilización.

       El telón, para el mundo del conocimiento en general y para la participación de la mujer en él en particular, definitivamente cayó en la Edad Media. Si buscamos una fecha, un punto de inflexión, lo encontramos en el año 415 de nuestra era. Antes, en honor a la verdad, no se puede afirmar que la mujer tuviera un lugar de privilegio. Seguía siendo una ciudadana de segunda, con acceso limitado a la educación, pero ciudadana y no sierva. Es decir, con ciertos o limitados derechos que permitían sus incursiones en Ciencia.

       Los siguientes 1.400 años transcurrieron en un patético inmovilismo donde las privilegiadas pudieron ocuparse en el oficio de reina, santa o cortesana y el resto, simplemente, conformarse con ser la sombra de su señor, sea cual fuere el dominio de este. Bueno, alguna afortunada alcanzó la categoría de maga o bruja y con suerte pudo escapar de la tea de churruscar las herejías.

 

Hipatia, el final del sueño clásico

Una exaltada turba de fanáticos dirigidos por el arzobispo Cirilo detuvo en Alejandría un carruaje. Su ocupante, una mujer, fue violentamente sacada al exterior, desnudada, vejada y torturada hasta morir desollada viva al arrancar sus carnes con conchas marinas. Acto seguido, sus restos fueron quemados.

       La multitud, exultante tras el brutal asesinato, dirigió sus pasos hacia la Biblioteca -el mayor tesoro científico y cultural de la antigüedad- y presos por la euforia la incendiaron. Las llamas acabaron para siempre con más de mil años de trabajo de las civilizaciones clásicas. Medio millón de obras científicas y literarias fueron pasto de las llamas.

       De las 123 obras de teatro de Sófocles, sólo se conservaron siete. El fuego también se llevó consigo los diseños de las máquinas de vapor que había ideado Herón de Alejandría y la máquina de Anticitera, la primera calculadora hecha por el hombre. La humanidad dio un espectacular salto hacia atrás, un retroceso de más de un milenio. En cambio, a Cirilo lo proclamaron santo.

       La desventurada que sufrió las iras del populacho se llamaba Hipatia. Acababa de cumplir los 45 y se trataba, sin duda, de la mejor y más reputada científica de su tiempo. En su corta vida había escrito 44 libros, inventado el astrolabio plano, el idómetro, el planisferio y el destilador de agua.

       Además, ocupaba su tiempo impartiendo asignaturas de Matemáticas, Astronomía y Física a la vez que dirigía la escuela Neoplatónica de Filosofía. En definitiva, era la representación del racionalismo científico. Todo ello, además, encarnado en el cuerpo de una mujer. Dos palabras, razón y ciencia, que se habían convertido en lo más reprobable para el emergente poder de la Iglesia católica, que apenas hacía un suspiro había abandonado las catacumbas y la clandestinidad para acomodarse junto al cetro de los poderosos.

       Se abría paso una corriente de pensamiento alejada del racionalismo, que se devanó los sesos preguntándose si ese ser inferior -la mujer- poseía alma, mientras intentaba entender cómo Dios había sido capaz de crear un “animal” tan imperfecto. Un manto de olvido cubrió descubrimientos como el de los “tornillos de agua”, realizado por la institución que dirigía Hipatia, por medio del cual se regaban los campos de cultivo. Dios prevalecía en las mentes de los hombres y la hambruna en sus estómagos.

       Hipatia, más conocida ahora gracias al filme Ágora de Alejandro Amenábar, es ese símbolo que acabó convirtiéndose en mártir y ejemplo de obstinación -y también de destino fatal- para aquellas mujeres que intentaron salirse de los caminos marcados por el establishment y romper el status quo de la dominación del macho. Historias individuales de lucha, valor, inteligencia y coraje que se opusieron con firmeza a los prejuicios, el fanatismo y la irracionalidad.

       Operan tal cantidad de variantes en un proceso histórico que resulta imposible explicar el porqué ocurrieron determinados hechos. Por ello, aunque resulta absurdo pensar que si Hipatia no hubiera sido salvajemente asesinada, y con ella destruida la Bibilioteca de Alejandría, la Edad Media no hubiera sobrevenido, no lo es tanto afirmar que relegar a las mujeres de la vida intelectual, algo que se hizo feroz y cruelmente patente en ese periodo, fue una de las causas del estancamiento sufrido por el ser humano a lo largo de esta época oscura.

_____________________________________________________________________________________________
Cortesia de Fronterad

Ciencia y tecnología

Un gorro para leer el pensamiento

Investigadores de la Universidad Miguel Hernández (UMH) de Elche han creado un sistema interactivo pionero en el mundo que permite a un usuario utilizar un ordenador y navegar por Internet a través únicamente de las señales cerebrales.
El dispositivo (interfaz), presentado en el Campus ilicitano, ha sido desarrollado por el Grupo de Neuroingeniería Biomédica de esta universidad y el Centro de Investigación Biomédica en Red en Bioingeniería, Biomateriales y Nanomedicina (CIBER-BBN).
La interfaz, que permite lograr una interactividad entre el usuario y el ordenador, consiste en un gorro que incorpora hasta más de medio centenar de electrodos que captan la actividad cerebral.
A través de amplificadores, el computador procesa las señales registradas y, con los algoritmos desarrollados por los investigadores, determina qué intenciones tiene la persona. “Permite hacer búsquedas en Internet, mover el ratón, corregir movimientos, escribir un documento, abrir una carpeta o crear un archivo”, según ha explicado el investigador y profesor de la UMH Eduardo Fernández.
Aunque inicialmente no permite usar programas sofisticados, como Photoshop, “aunque se podría alcanzar”, ha añadido Fernández, “no es el objetivo que se busca”, pues la idea es dar prioridad a aquellas necesidades que pueden ser más útiles para las personas con discapacidad”.
“El objetivo del proyecto es ayudar a los discapacitados para que éstos puedan interactuar con un ordenador, si bien también podría aplicarse a cualquier dispositivo, como un interruptor de luz”, ha manifestado el investigador ilicitano.
«Único en el mundo»
La tecnología básica empleada en este proyecto, financiado por el Ministerio de Ciencia con 130.000 euros, no es novedosa -ya se ha aplicado para usar dispositivos con la vista-, pero sí lo es su aplicación al manejo de ordenadores, “lo que hace a este proyecto único en el mundo”.
La interfaz, que usa señales electroencefalográficas (EEG), permite detectar cuál es la intención de la persona mediante potenciales evocados, que corresponden a señales EEG que reflejan una respuesta automática del cerebro a un estímulo visual externo.
El siguiente paso de este proyecto, tal como ha asegurado otro de los investigadores José María Azorín, es “comprobar que funciona en personas con diferentes discapacidades, ya que por ahora sólo se ha probado en personas sanas y, no en vano, el proyecto está hecho pensando en los dependientes”.
Tras recordar que la investigación está en su segundo año de desarrollo sobre los tres previstos, Azorín ha subrayado la necesidad de “innovar” sobre este mismo sistema para “lograr que sea más rápido y fácil de usar”.
Millones de neuronas
“La señal no es lo suficientemente buena, pues el electrodo está en la superficie de la cabeza, a un centímetro y medio por encima de la señal y, además, se registran millones de neuronas, con lo que, por ahora, no se puede ser muy específico en las órdenes”, ha especificado Fernández.
De momento, la interfaz no está patentada y “la idea es ponerla a disposición de todo aquel que la necesite desde la UMH, aunque si hay empresas interesadas en potenciarla, bienvenidas sean”, han concluido los investigadores.
Esta investigación se enmarca dentro de un proyecto de investigación concedido por el Ministerio de Ciencia e Innovación, denominado ‘Control de Sistemas TeleRobóticos mediante Interfaces Avanzadas para Personas Discapacitadas’, en el que se desarrollan interfaces cerebrales para controlar dispositivos robóticos.
_________________________________________________________________________________
Cortesia de ABC, Espana

Ciencia y tecnología
chatroulette chatrandom