Geología, Peligros Naturales y GeoTecnología

Blog en Monografias.com

 

La primera bombilla que está viva

Generar luz sin consumir energía eléctrica puede parecer una utopía, pero la biología tiene una respuesta a ese desafío a través de la bioluminiscencia. El truco está en aprovecharla de forma tal que se convierta en una alternativa viable y amigable con el medioambiente. Philips ha comenzado a explorar un concepto de bioluz basado en bacterias alimentadas con metano. Sus aplicaciones podrían alcanzar a muchos entornos de baja luz, desde cines y discotecas hasta sistemas de señalización y salidas de emergencia.

Se dice que lo esencial es invisible a los ojos, y esto es particularmente cierto a la hora de consumir energía. Encender una luz puede ser lo más natural del mundo para nosotros, ¿pero cuánta energía estamos desperdiciando que no vemos? Desde los cargadores de los móviles hasta aquellos equipos de audio que reportan la hora incluso estando “apagados”, el desperdicio de energía puede ser muy importante, aunque ya se han activado diferentes regulaciones que buscan reducir esta pérdida. Una simple señal que ilumina la palabra “salida” o las flechas indicatorias de las salas de cine necesitan de energía eléctrica a pesar de emitir una luz muy baja, por lo tanto, si los resultados son tan humildes, y el consumo está allí de todas formas, ¿no se podría hacer algo al respecto?

De acuerdo con la gente de Philips, sería posible implementar un sistema de bioluz, basándose en la bioluminiscencia de algunas bacterias. Su concepto tiene la apariencia de células montadas en la pared utilizando un marco de acero, interconectadas entre sí por tubos de silicio que alimentan a las bacterias con metano. El resultado es la emisión de una luz verde, pero puede ser alterado con la introducción de proteínas fluorescentes. El metano es obtenido del digestor instalado como parte del concepto “Microbial Home” de Philips, un hogar en el cual lo que normalmente es considerado como desperdicio puede ser reutilizado para el funcionamiento de otros dispositivos.

Señalizaciones
Señalización en caminos, luces de emergencia, salidas para cines, luz ambiental y hasta indicadores para sistemas de diagnóstico (como monitores de diabetes) serían algunas de las aplicaciones teóricas para este tipo de iluminación. Una bioluz no sería adecuada para iluminar un hogar entero, pero también contribuye a que la “iluminación estética” pueda volverse mucho más verde y eficiente de lo que es ahora. Apenas se trata de un concepto, y sería algo apresurado hablar de una aplicación comercial, sin mencionar el hecho de que estas luces necesitan metano para “trabajar”. Sin embargo, si la generación de metano a partir de material de desperdicio se convierte en una opción para los hogares del futuro, ¿entonces por qué no?
Cortesia ABC.es

Ciencia y tecnología

La ciencia del clima, la energía y la sociedad

Es claro que las  montañas tienen su efecto, y el desierto de Gobi está por encima de los 35º N, y ni Las Pampas, ni Brasil, ni la costa este de África ni la de Australia son desiertos. Pero la regla es real y en esas latitudes llueve muy poco o nada, salvo algún aguacero salvaje uno o dos días al año.

¿Por qué ocurre ésto?  Saberlo nos ayuda a saber mucho sobre las lluvias en España, y la evolución del clima en el mundo.

El aire húmedo y caliente sube desde la superficie del mar hasta la parte alta de la atmósfera, en donde hay una como tapa de la misma, que se denomina la tropoausa y está a unos 15 km de altura en la zona ecuatorial y baja a unos 8 km sobre los polos.

Cuando el aire sube y llega arriba, en bandas que van de oeste a este, solo puede seguir moviéndose hacia los polos. Pues a su oeste y a su este hay aire también subiendo.

Se desplaza, pues, hacia los polos, y debería llegar a ellos. ¿Por qué no lo hace?

La Tierra, y el aire de su superficie, se desplazan a muy alta velocidad. La circunferencia de la Tierra en el ecuador mide 40075,16 km, y esa distancia se recorre en 24 h: 1670 km/h, una velocidad casi el doble de la de los aviones comerciales.

Pero la superficie de la Tierra tiene una velocidad igual a 0 km/h en los polos. Su velocidad de oeste a este disminuye con su circunferencia desde el ecuador a los polos.  La velocidad lineal de la Tierra en la latitud de 30º es de 1446 km/h. Puesto que en la tropopausa el rozamiento es muy débil, el aire que ha subido tiene una velocidad hacia el este de 1670 km/h cuando está sobre el Sahara, por ejemplo mientras que el suelo solo se mueve a 1440 km/h. Así que visto desde el suelo el aire se desplaza hacia el este en ambos hemisferios con velocidades de alrededor de 230 km/h. En vez de ir hacia los Polos, se mueve hacia el Este.

Ese aire frío arriba, con vapor de agua, es más pesado que el aire que tiene debajo, ahora aire que sube seco desde tierra firme. El aire frío baja y al bajar aumenta su presión y por tanto su temperatura. Al aumentar la temperatura el agua que contiene se mantiene en forma de vapor, y decimos que el aire se seca. Aunque parezca mentira, hay más vapor de agua sobre el Sahara que sobre los océanos, en verano. Pero no llueve porque el aire sobre el Sahara baja en vez de subir. Los desiertos surgen allí donde el aire en la tropopausa ha girado (relativamente a la superficie de la Tierra) hacia el Este, y donde ha comenzado a bajar secándose.

Según va bajando, el aire gira otra vez y cuando llega a nivel del suelo se mueve hacia el oeste: Son los alisios que soplan en Canarias, los vientos del comercio (Trade Winds) de los ingleses, que impulsaban los barcos de vela desde África hasta las Américas. (Me imagino que saben que los ingleses, para ir  Nueva York, tenían que pasar por las latitudes de Canarias, para coger los alisios).

Tenemos así el primer y más importante motor del movimiento de la atmósfera: Es un motor impulsado por el calentamiento de la superficie de la Tierra.

¿De donde sale ese calentamiento? 

La energía de la Tierra deriva de la radiación solar en una proporción superior al 90% (una pequeña parte es la radiactividad de las rocas del magma, que mantiene éste fundido y provoca los terremotos y volcanes). Sale de la radiación del Sol (que es un reactor nuclear de fusión que funciona como una cadena continua de bombas de hidrógeno) y desde allí llegan, a cada metro cuadrado de la alta atmósfera, 1367 W/m2, en el ecuador y cuando ese metro cuadrado está directamente dirigido al Sol.

Pero esa misma cantidad de radiación cae sobre la superficie de la Luna, y la luna está, o muy caliente o muy fría. Venus recibe 2614 W/m2 y Marte 590 W/m2. La superficie de Venus está cubierta de nubes que reflejan hasta el 60% de esa energía,de forma que a su superficie llegan unos 1000 W/m2, mientras que a la superficie de la Tierra llegan unos 800 W/m2 (en promedio).

En Venus la temperatura en su superficie es, en media, 462ºC, (un planeta incolonizable) mientras que en la Tierra es de 15ºC.

Estos últimos hechos nos dan una pista para saber por qué se evapora el agua de la superficie de los océanos, agua que llueve sobre los continentes y permite la vida.
Cortesia elmundo.es

Ciencia y tecnología

Menos es más en nanotecnología

Sabemos que el color de los materiales cambia cuando los reducimos a dimensiones nanométricas, pero esa es sólo uno de las muchas variaciones que se dan a esta escala. En el artículo de hoy voy a comentar algunas otras transformaciones interesantes que podemos aprovechar para idear nuevas aplicaciones nanotecnológicas.

Mucha más superficie, mayor reactividad
La primera consecuencia de dividir un trozo de material en partes muy pequeñas es que aumenta mucho la superficie en relación al volumen. Por ejemplo, al abrir una barra de pan en dos mitades, se duplica, aproximadamente, su superficie. La parte de la miga que antes pertenecía al interior de la barra ahora está en el exterior también. Las dos figuras de la imagen muestran dos cantidades idénticas del mismo material, sin embargo, el de la derecha ha multiplicado su superficie por 8.

Cuando cortamos un material en trocitos de tamaño nanométrico el porcentaje de átomos que antes estaban situados en el interior pero ahora forman parte de la superficie aumenta tremendamente.

La primera consecuencia de este aumento de superficie es que el material se vuelve mucho más reactivo. Un átomo del interior está rodeado de otros muchos, sin embargo, uno en la superficie sólo está parcialmente enlazado con otros átomos del material. La otra parte de sus enlaces está libre para reaccionar con los otros átomos del entorno. Por ello, cuando el porcentaje de átomos en la superficie aumenta, también lo hace la reactividad del material. Los molineros han sabido desde siempre que cuando la harina se encuentra suspendida en el aire en forma de partículas muy finas hay riesgo de explosión.

Este hecho, el que los nano-objetos tengan tanta superficie en relación con su volumen, tiene muchas aplicaciones tecnológicas. Los gases provenientes de los tubos de escape de los coches serán menos contaminantes gracias a que ya se están fabricando catalizadores mucho más efectivos por ofrecer más superficie de trabajo. Asimismo, la administración de ciertos fármacos también se verá beneficiada: con más moléculas terapéuticas en la superficie dispuestas a interaccionar los fármacos serán también más eficaces. Otro ejemplo interesante es el que expone Pedro Serena en su reciente libro: con cristales de tamaño nanométrico no necesitaremos tanta cantidad de sal en las comidas para que nuestro sentido del gusto siga apreciando el sabor salado.

La perfección de los nanocristales
Los cristales son materiales cuyos átomos están ordenados en redes tridimensionales. En la realidad, todo cristal de dimensiones mayores presenta defectos en esta red: fallos de construcción, ausencias de átomos, impurezas… Estos errores no están inmóviles, sino que van cambiando de lugar en la red. Cuando el tamaño del material es muy pequeño estos defectos llegan con mucha facilidad a la superficie, lugar donde desaparecen, encontrándonos con redes de gran perfección. Por esta razón la temperatura de fusión de estos materiales es distinta.

Aparecen propiedades cuánticas
A partir de principios del siglo XX, varios físicos, entre los cuales se encuentra Einstein, Plank, De Broglie, Bohr o Heisenberg comenzaron a postular las leyes de lo que hoy se conoce como física cuántica. Este nombre proviene del hecho de que, en un átomo, los electrones no pueden tener cualquier valor de la energía, sino que toman valores específicos, por tramos.Imaginémonos que utilizamos una escalera para saltar desde sus peldaños a la tierra. Cuanto más alto subamos, mayor energía adquirimos. Lo notamos al llegar al suelo cuando nos tiramos. Ahora bien, solo podemos adquirir niveles energéticos por peldaños. O nos tiramos desde el tercero o desde el cuarto, pero no hay ningún escalón intermedio.

Algo similar les ocurre a los electrones en un átomo. Sólo pueden estar a unas distancias determinadas del núcleo. Se dice que la energía está ‘cuantizada’, es decir, sólo pueden tomar ciertos valores y no otros. Este fenómeno no es algo que podamos observar en nuestra vida cotidiana pero cuando trabajamos en el rango nanométrico comenzamos a tener muy pocos átomos y por tanto nos encontramos con sistemas con esta propiedad.

Empezamos a notar que la energía no tiene valores continuos, sino que va a ’saltos’. Esta es una característica de los puntos cuánticos. Son nanocristales que al ser iluminados, vuelven a emitir luz pero en una longitud de onda muy específica y que depende del tamaño de este. Hoy en día, con los puntos cuánticos se fabrican diodos láser emisores de luz más eficientes, se obtienen imágenes biomédicas de mayor contraste y se experimenta con ellos para obtener la tercera generación de células solares más eficientes.

Otro ejemplo de la visión anti-intuitiva de la física cuántica es que el electrón deja de ser una partícula que gira en una trayectoria definida alrededor del núcleo del átomo, como si de un planeta en miniatura se tratara, para convertirse en una ‘nube’ de probabilidad. Sólo es posible conocer la probabilidad de que ese electrón esté en una determinada zona. Esta propiedad cuántica tan curiosa es, por ejemplo, el principio de funcionamiento de un microscopio llamado ‘de efecto túnel’ (STM) el cual ha sido el primero en permitirnos ver y manipular átomos, como los que se muestran en la imagen, obtenida por el grupo de investigación del profesor Jose María Gómez Rodríguez (UAM). En ella se muestran los átomos de la superficie del silicio. El tamaño de la imagen es 5.3×5.3 nm.

En esta segunda imagen, obtenida por el mismo grupo de investigación, se observan los orbitales moleculares de la molécula (PTCDA) que en este caso está depositada sobre los átomos de silicio.

Parafraseando al premio Nobel R. Feyman, efectivamente “hay un gran espacio al final”. Tenemos ante nosotros un universo de tamaño diminuto que justo ahora estamos comenzando a explorar, un lugar en donde los materiales se comportan de diferente manera y cuyas extrañas propiedades podemos aprovechar para desarrollar una mejor tecnología.

Mónica Luna es investigadora en Nanociencia y Nanotecnología del Instituto de Microelectrónica de Madrid (CNM-CSIC).
monica.luna.estevez@gmail.com

Cortesia elmundo.es

Ciencia y tecnología

Impulsarán Nicaragua y México la colaboración científica

Autoridades de ambos países firmaron un convenio para la cooperación en diversas áreas.

Un convenio de cooperación científica para impulsar diversas áreas, entre ellas biología y química, ciencias de la salud, biotecnología y ciencias agropecuarias firmaron autoridades de Nicaragua y México.

El convenio fue signado por el director del Consejo Nacional de Ciencia y Tecnología (Conacyt), Juan Carlos Romero Hicks, y por la secretaria ejecutiva del Consejo Nicaragüense de Ciencia y Tecnología, Guadalupe Martínez Valdivia, y fungió como testigo de honor el vicepresidente de Nicaragua, Jaime Morales Carazo.

Mediante el acuerdo se impulsará la formación de recursos humanos de alto nivel, a través de otorgamiento de becas; se apoyarán proyectos de investigación conjunta en tecnología e innovación y se promoverán visitas recíprocas de técnicos académicos y expertos en distintas materias.

Asimismo se intercambiará información científica y tecnológica y de publicaciones especializadas en distintas materias.

Las actividades de este acuerdo serán financiadas con los presupuestos de los respectivos consejos de Ciencia y Tecnología de cada uno de los países firmantes.

En el documento se establece también que la propiedad intelectual de los proyectos, impulsados de manera conjunta, será garantizada mediante la legislación de cada uno de los países y, en su caso, se realizarán consultas para dirimir las diferencias que al respecto pudieran suscitarse.

Además considera establecer proyectos de cooperación en físico- matemáticas, ciencias de la tierra, ingeniería, ciencias sociales, economía y humanidades.

Cortesia Internet

Ciencia y tecnología

El gen de la fe dominará el mundo

Las sociedades occidentales y modernas parecen inclinarse cada vez más hacia el laicismo, por lo que es lógico pensar que, a medida que otros países se suben al tren del desarrollo y alcanzan cotas de bienestar similares o más elevadas que las actuales, los seres humanos tenderán, de manera global, a abandonar sus creencias o, al menos, a replanteárselas o a dejarlas en un segundo plano frente a otros valores. Si embargo, los hombres del futuro nacerán más predispuestos a creer en algún tipo de dios y a dar a la vida un sentido más espiritual, porque así lo marcará su genética, según un estudio elaborado por Robert Rowthorn, investigador de la Universidad de Cambridge. El trabajo, publicado en la revista Proceedings of the Royal Society B, se basa en algo bastante sencillo en realidad, las altas tasas de fecundidad de los grupos humanos religiosos. Esos elevados niveles, según el modelo de Rowthorn, afectarán al futuro de la evolución genética humana y, por lo tanto, a la «estructura biológica» de la sociedad.
«Si la fertilidad de la gente religiosa sigue siendo más alta que la de los agnósticos, los genes que predisponen a las personas hacia la religión se extenderán», afirma Rowthorn a PhysOrg.com. Esto no significa que todo el mundo abrace alguna fe, ya que «los genes no son un destino», matiza el autor del informe, profesor de Economía. «Muchas personas que están genéticamente predispuestas hacia la religión pueden llevar una vida aconfesional, debido a las influencias culturales a las que han sido expuestas».
Más hijos si existe Dios
El modelo de Rowthorn se basa en estudios previos que demuestran que las personas religiosas tienen más hijos que las que rechazan la existencia de algo superior. Según la Encuesta Mundial de Valores, realizada en 82 países, los adultos que asisten a servicios religiosos más de una vez por semana tienen de media 2,5 hijos, mientras que los que no asisten se quedan con 1,67. Los más ortodoxos, como por ejemplo los amish, tienen cuatro veces más hijos que la media de los aconfesionales. Esto no se debe a factores biológicos, sino a una cuestión de creencias y valores. En los últimos veinte años, la población amish en EE.UU. se ha duplicado, pasando de 123.000 hijos en 1991 a 249.000 en 2010. Tienen seis hijos por mujer. A este ritmo, la población amish llegará a 7.000.000 en 2100.
La fertilidad puede ser cuestión de la cultura, pero la predisposición de un individuo hacia la religión puede estar influida por la genética. Rowthorn utiliza un «gen de la religiosidad» para explicarlo. Si ambos padres tienen esa característica genética en su ADN, es más probable que su hijo la manifieste. Sin embargo, puede que no ocurra porque no le haya tocado esta lotería genética. De igual forma, aunque lo tenga, eso no quiere decir que se convierta en una persona religiosa de forma irremediable. Simplemente, tiene más probabilidades de serlo. La cuestión es que, en el futuro, según la investigación, más y más gente tendrá más probabilidades de serlo.

Cortesia ABC, España

Ciencia y tecnología

Un complejo problema de matemática, resuelto por las abejas

Científicos británicos han descubierto que las abejas son capaces de realizar la ruta más corta posible entre las flores incluso si, en un experimento, éstas son cambiadas de orden. Parece algo simple pero, en realidad, su comportamiento demuestra una mente matemática de primer orden. Al elegir la ruta más corta y eficaz, son capaces de resolver un complejo y famoso problema matemático conocido como «El problema del viajante de comercio».
El problema del viajante consiste en encontrar el recorrido más corto para un vendedor que tiene que visitar varias ciudades y volver al punto de partida. Se lo plantean, por ejemplo, las compañías de teléfonos para elegir la ruta que deben seguir los recolectores de dinero de las cabinas públicas instaladas en una ciudad o, claro esta, los comerciales que deben hacer una ruta en poco tiempo.
A pesar de la sencillez de su planteamiento, este problema puede dar más de un quebradero de cabeza, y los matemáticos lo equiparan a otras conjeturas aparentemente más complejas. De hecho, los ordenadores de una empresa pueden pasar varios días dando vueltas a este asunto de logística antes de dar una respuesta. Sin embargo, para las abejas, que carecen de tecnología y que tienen el cerebro del tamaño de una semilla, la elección, misteriosamente, parece ser un juego de niños.
«En la naturaleza, las abejas tienen que visitar cientos de flores de una forma que minimice la distancia del viaje y, después de forma fiable, puedan encontrar su camino a casa», explica Lars Chittka, investigador de la Escuela Queen Mary de Ciencias Biológicas y Químicas (Universidad de Londres). «No es ninguna proeza trivial si se tiene el cerebro del tamaño de una cabeza de alfiler», añade. Por si fuera poco, es la primera vez que se conoce que un animal sea capaz de resolver un dilema semejante.
Aprendizaje rapido
El equipo utilizó flores artificiales para comprobar si las abejas seguían una ruta definida por el orden en el cual descubrían las flores o si eran capaces de encontrar la ruta más corta. Después de explorar la ubicación de las flores, las abejas aprendieron rápidamente a recorrer el camino más corto.
Los científicos creen que además de mejorar nuestra comprensión de cómo las abejas se desplazan para la polinización, la investigación también servirá para conocer los circuitos neuronales necesarios para la resolución de problemas complejos, y, especialmente, para introducir mejoras en la gestión de redes como el tráfico en las carreteras, el flujo de información en la web o el de las cadenas de suministro.
La investigación saldrá publicada en la revista The American Naturalist. 
 
Cortesía ABC, España

Ciencia y tecnología

El despertar del Sol puede enfriar la Tierra

Durante los últimos once años, el Sol ha atravesado un periodo de letargo en el que se ha mantenido tranquilo y en calma, una fase que parece haber terminado este año con un despertar virulento de la estrella. Esa larga paz solar, incluso inusualmente excesiva durante 2008 y 2009, ha tenido unos efectos imprevistos sobre el clima y la atmósfera de la Tierra, unas consecuencias que los científicos no preveían. Investigadores del Imperial College de Londres y la Universidad de Colorado sugieren que la disminución de la actividad del Sol, lejos de enfriar el planeta, ha colaborado en su calentamiento. El estudio aparece publicado en el último número de la revista Nature.

La actividad solar transcurre en ciclos de once años. Cuando disminuye, la cantidad total de radiación que llega a la Tierra también es menor, lo que, en un principio, hace pensar que se produce una disminución de la temperaturas. Pero no es así.
Los investigadores analizaron la actividad del Sol durante el período 2004-2007, cuando se encontraba en la parte decreciente del ciclo, con la ayuda de instrumentos de medición del satélite SORCE, que mide la energía del sol en diferentes longitudes de onda.
¿Una anomalía?
Efectivamente, la actividad solar disminuyó durante ese período, pero los científicos comprobaron asombrados que la Tierra no sólo no se enfrió, sino que el Sol pudo haber provocado que nuestro planeta se calentara más. Contrariamente a lo esperado, la cantidad de energía que alcanzó la Tierra en longitudes de onda visibles en lugar de decrecer cuando la actividad del Sol disminuía, causó un efecto de calentamiento. Los investigadores creen que es posible que ocurra lo mismo a la inversa. Es decir, que en períodos que aumenta la actividad solar, la Tierra tienda a enfriarse en lugar de calentarse.
«Estos resultados son un reto respecto a lo que creíamos saber acerca del efecto del Sol en nuestro clima», afirma Joanna Haigh, autora principal de la investigación y miembro del Instituto Grantham para el Cambio Climático en el Imperial College de Londres. Sin embargo, «sólo nos muestra una instantánea de la actividad solar, y su comportamiento durante los tres años de nuestro estudio podría ser una anomalía». El equipo cree necesario ampliar la investigación para confirmar sus resultados.

Cortesìa ABC, España

Ciencia y tecnología

El Nobel de Física 2010 premia el nuevo material para la electrónica del futuro

Tras la entrega del Nobel de Medicina a Robert Edwards por el desarrollo de la fecundación in vitro, hoy ha sido el turno para la Física. Este año la Real Academia de las Ciencias de Suecia ha galardonado a Andre Geim y Konstantin Novoselov por sus trabajos pioneros en el desarrollo del grafeno, un material bidimensional útil para el desarrollo de dispositivos electrónicos flexibles y más eficientes, como ordenadores y pantallas táctiles así como paneles solares.

Geim, de 51 años, y Novoselov, de 36, recibirán el premio de la Academia sueca el próximo 10 de diciembre por sus experimentos con este nuevo material, que posibilita avances decisivos en la Física cuántica.

Los dos son rusos de nacimiento y actualmente investigan en la Universidad de Manchester (Reino Unido). Geim, nacido en Sochi, Rusia, en 1958 y nacionalizado holandés, se doctoró en Ciencias Físicas en 1987 en la Academia Rusa de Ciencias de Chernogolovka.

Su colega Novoselov nació en 1974 en Nizhny Tagil, Rusia, tiene doble nacionalidad (británico-rusa). Ha ejercido en la Universidad de Nijmegen (Holanda) y es catedrático en la Universidad de Manchester, como Geim.
Un material revolucionario

Los expertos consideran que los dispositivos de grafeno van a ser sustancialmente más rápidos que los de silicio, que se emplean en la actualidad en la mayoría de aparatos electrónicos, con lo que se podrán fabricar dispositivos y ordenadores mucho más flexibles y eficientes.

El grafeno es una estructura laminar plana, de un átomo de grosor, compuesta por átomos de carbono densamente empaquetados en una red cristalina en forma de panal de abeja.

Los premiados obtuvieron el grafeno a partir del grafito (usado para fabricar lápices). Este nuevo material se caracteriza por poseer una alta conductividad térmica y eléctrica y por combinar una alta elasticidad y ligereza con una extrema dureza, que lo sitúa como el material más resistente del mundo.

Además, puede reaccionar químicamente con otros elementos y compuestos químicos, lo que convierte al grafeno en un material con un gran potencial de desarrollo.
186 físicos premiados

El nombre del físico español Juan Ignacio Cirac, reconocido por sus investigaciones en computación cuántica y óptica cuántica, sonaba también este año como uno de los favoritos aunque finalmente no logró el premio.

El año pasado, el Nobel de Física fue para Charles Kuen Kao, Willard Sterling Boyle y George Elwood Smith, tres pioneros estadounidenses cuyas investigaciones pusieron los cimientos de la sociedad de la información moderna al impulsar las tecnologías que permitieron desarrollar las telecomunicaciones del mundo actual.

Creados por Alfred Nobel, inventor de la dinamita, estos prestigiosos premios se otorgan cada año a personas que hayan hecho investigaciones sobresalientes que contribuyan contribuciones notables a la sociedad. Desde 1901, el Premio Nobel de Física ha sido entregado a 186 científicos de todo el mundo.

Fue el alemán Wilhelm Conrad Röntgen quien estrenó la larga lista de premiados a comienzos del siglo XX por el descubrimiento de los rayos X. A día de hoy el premio asciente a casi un millón de euros.

Cortesìa de elmundo.es

Ciencia y tecnología

China lidera crecimiento en energía eólica

China es el país con mayor crecimiento de energía eólica, con 13,75 gigawatts (GW) de nueva capacidad en 2009, de un total mundial instalado ese año de 38 GW, según el World Market Update de BTM
Consult.

Mientras, crece la presencia de las compañías del país asiático entre los principales suministradores de turbinas para el aprovechamiento de la fuerza de los vientos.

De acuerdo con la fuente, cinco empresas chinas abastecedoras de esos medios figuran entre las 15 más importantes a escala internacional.

El 2009 fue un año de instalación récord de nuevas capacidades a nivel internacional para la generación de esa energía, al sumarse 38 GW, pese a la crisis económica global.

En ese período ellas se incrementaron un 35 por ciento aproximadamente, y los mayores crecimientos ocurrieron en China,
Canadá, España y Estados Unidos.

Actualmente operan en el orbe más de 160 GW obtenidos del aprovechamiento de la fuerza de los vientos, precisó además el World Market Update de BTM.

Ese tipo de energía representó buena parte de toda la nueva potencia de generación eléctrica instalada en el mundo en 2009, según la Asociación Empresarial Eólica de España.

Se estima que el valor de ese mercado crecerá de un monto de 75 mil millones de dólares en 2010 a 144 mil millones en 2014.

________________________________________________________________________________________________

Cortesía Internet

Ciencia y tecnología

Científicos aseguran poder probar la «Teoría del Todo»

¿Una teoría de la física que pueda explicarlo absolutamente todo? ¿Que pueda dar razones sobre cómo se creó el Universo, sobre cuántos tipos de materia existen y cómo se relacionan entre ellos, sobre cómo se comportan el espacio y el tiempo…? Es la «Teoría Unificada» o «Teoría del Todo». Este ansiado modelo, que algunos han llegado a considerar una mera fantasía científica, puede estar más cerca de lo que nunca se creyó posible. Científicos del Imperial College de Londres aseguran que es posible probar de forma empírica la «Teoría de las Cuerdas», algo que jamás se había demostrado sobre el papel. No es lo mismo, de acuerdo, pero es el modelo del que se espera nazca la teoría universal. En definitiva, el primer paso para contestar a todos los porqués.

Para desenredar este galimatías hay que empezar por el principio. Para la «Teoría de las Cuerdas» -desarrollada originalmente para describir las partículas fundamentales que han creado el Universo-, los componentes básicos de la materia (átomos y partículas subatómicas) no son puntos o esferas, como se han descrito hasta ahora, sino hilos vibrantes de energía denominados cuerdas. Las cuerdas vibran de unas formas determinadas dotando a las partículas de sus propiedades únicas, como la masa y la carga. Muchos científicos son muy escépticos a esta propuesta, pero sus defensores creen que puede convertirse en una Teoría del todo, capaz de explicar todos los fenómenos de la Naturaleza. Pero hasta ahora había un pequeño problema: nunca había sido probada.
Los investigadores del Imperial College creen que han dado una vuelta de tuerca a esta situación. En un artículo publicado en la revista Physical Review, describen cómo llevar a cabo la primera prueba experimental sobre la validez (o no) de la «Teoría de las Cuerdas». Y aseguran que se puede demostrar a través de un fenómeno con el que nunca antes se había relacionado: el entrelazamiento cuántico, por el que dos o más partículas se unen tanto que no pueden describirse por separado. Cuando esto ocurre, aunque las partículas se encuentren a millones de kilómetros, cuando el estado de una de ellas cambia, la de la otra también lo hace.
Descubierto por casualidad
Como este entrelazamiento se puede probar en laboratorio, los científicos creen que también se podría utilizar para comprobar si las predicciones de la «Teoría de las Cuerdas» funcionan de verdad. Esta demostración resultaría un hito en el campo de la física teórica.
Según explica la web científica Physorg.com, Michael Duff, responsable de la investigación y profesor del Departamento de Física Teórica del Imperial College, llegó a estas conclusiones de forma casual, cuando, en una conferencia en Tasmania, otro físico explicaba unas fórmulas matemáticas sobre el entrelazamiento cuántico. De repente, Duff se percató de la similitud entre las fórmulas que le estaban presentado y otras que él mismo había desarrollado años antes sobre la «Teoría de las Cuerdas» para describir el comportamiento de los agujeros negros. El descubrimiento fue totalmente inesperado y, si se confirma, puede cambiar la forma en la que se comprende la física. No hay una conexión obvia para explicar por qué una teoría que se desarrolla para describir el funcionamiento del Universo es útil para hacer lo mismo con el comportamiento de algo tan minúsculo como los sistemas cuánticos entrelazados, pero resulta, por lo menos, muy llamativo. «Esto puede decirnos algo muy profundo sobre el mundo en el que vivimos o no ser más que una peculiar coincidencia», apunta Duff. El tiempo lo dirá.

_____________________________________________________________________________________________

Cortesìa ABC, España

Ciencia y tecnología

Iniciar sesión

Ingrese el e-mail y contraseña con el que está registrado en Monografias.com

   
 

Regístrese gratis

¿Olvidó su contraseña?

Ayuda

film izle Home Design Spielaffe sesso video giochi