Geología, Peligros Naturales y GeoTecnología

Blog en Monografias.com

 

De la gravedad de los cuerpos a los cuerpos gravemente enfermos

Una de las investigaciones más hermosas y apasionantes que en estos momentos están teniendo lugar en España es la llevada a cabo por el profesor Antonio Brú, de la facultad de Matemáticas de la Universidad Complutense, y su equipo interdisciplinar. El profesor Brú pertenece la saga de científicos que, nacidos con Galileo, utiliza las matemáticas para estudiar y entender el comportamiento de los sistemas dinámicos —esto es, los hechos que involucran cosas cuyo estado cambia con el tiempo—.

 

“La filosofía está escrita en ese grandioso libro que está continuamente abierto ante nuestros ojos (lo llamo universo). Pero no se puede descrifrar si antes no se comprende el lenguaje y se conocen los caracteres en que está escrito. Está escrito en lenguaje matemático, siendo sus caracteres triángulos, círculos y figuras geométricas. Sin estos medios, es humanamente imposible comprender una palabra: sin ellos, deambulamos vanamente por un oscuro laberinto” (Galileo Galilei, Saggiatore, § 6).

 

Poco a poco, y a lo largo de miles de años, la humanidad se fue dando cuenta de que los hechos de la naturaleza tienen muchas regularidades y de que, si tomamos nota, analizamos y estudiamos estas regularidades, podemos utilizarlas para  predecir, ordenar y entender lo que ocurre en el mundo que nos rodea. También fue comprendiendo que una de las herramientas más útiles y fiables para llevar a cabo esta tarea es la matemática. Uno de los momentos culminantes en este proceso, que como casi todos los procesos está lleno de altibajos, fue la Revolución Científica Europea del siglo XVII. Fue entonces que se desarrolló el método científico que caracteriza hoy nuestra cultura, y que consta de dos fases. En la primera observamos la naturaleza que nos rodea, buscando identificar los hechos que en ella ocurren. En la segunda estudiamos el comportamiento que los hechos ilustran, y lo ordenamos en un modelo (construido frecuentemente con ayuda de las matemáticas) coherente con los hechos, que nos permita entender lo que ocurre y predecir lo que va a ocurrir.

 

El primero en estudiar los sistemas dinámicos utilizando este método fue Galileo, que era un gran observador, pero no era especialmente ducho en matemáticas. Por eso sólo se leyó la introducción del libro de Copérnico Sobre las revoluciones de las esferas celestes (escrito por a lo largo de unos veinticinco años de trabajo, entre 1507 y 1532, y publicado póstumamente en 1543). Llevado por el entusiasmo ante la defensa del método científico que encontró en dicha introducción, Galileo abrazó de inmediato el modelo de círculos construido por Copérnico para describir el sistema dinámico formado por los planetas. Desafortunadamente, el modelo de círculos de Copérnico era erróneo, pero eso Galileo no lo podía saber porque no había revisado los trabajos —las cuentas— de Copérnico, unas matemáticas que él no estaba capacitado para entender (véase I. Stengers, Los episodios galileanos, en ‘Historia de las Ciencias’, Michel Serres ed., Ed. Cátedra 1991). Las ideas de Copérnico y Galileo sobre el sistema solar, eran el lugar común entre las gentes de su época cultas en humanidades y sin formación matemática, pero  ya se sabían obsoletas en los medios académicos más avanzados del momento gracias a los trabajos de Kepler. En cualquier caso, en aquel entonces el clero de la Iglesia de Roma tampoco era especialmente culto en matemáticas, y el detalle de si las órbitas de los planetas son circulares o no carecía de importancia para la curia del Vaticano: en círculos o no en círculos, los planetas giran alrededor de la Tierra y punto, mantenían, y encerraron a Galileo por blasfemo.

 

La comprensión de los sistemas dinámicos gravitatorios comenzó con Newton, gracias a que éste no desconfió de los modelos matemáticos creados por Kepler, que le habían llevado a construir un modelo planetario elíptico. La matemática empleada por Newton era, en su momento, matemática de vanguardia, mucha de ella desarrollada por él mismo y sus contemporáneos. Los modelos matemáticos desarrollados en los siglos XVI y XVII permitieron a los científicos de la época avanzar en la comprensión del comportamiento de sistemas dinámicos gravitatorios, y los desarrollados a finales del XIX y principios del XX permitieron a Einstein acabar de comprenderlos.

 

Hasta mediados del siglo XX la física y las matemáticas lideraron el camino de la investigación científica. Las secuelas de la Segunda Guerra Mundial cambiaron esa situación, y la biología sustituyó a la física en su papel motor de mucha de la investigación llevada a cabo por los científicos. Curiosamente, la muerte y la destrucción incentivaron el estudio de la vida, tanto la que conocemos en nuestro planeta como otras posibles vidas en otros planetas. Así, desde mediados del siglo pasado matemáticos, físicos, geólogos, químicos, médicos y biólogos, entre otros, han aunado esfuerzos y han conseguido empezar a entender el comportamiento de algunos sistemas vivos. Concretamente, un tipo de modelos matemáticos desarrolladas a lo largo del XX están permitiendo al profesor Brú y su equipo entender el comportamiento de algunos sistemas dinámicos vivos, entre los cuales un ejemplo importantísimo son los complicados bordes de los tumores sólidos. Comencemos por describir estos modelos, conocidos por el nombre de fractales.

No existe una definición matemática de lo que es un fractal. Dicho de otro modo, existen muchas definiciones de lo que es un fractal, pero ninguna en que estén de acuerdo todos los matemáticos (conjunto con dimensión topológica distinta de su dimensión Hausdorff, conjunto con dimensión topológica menor que su dimensión Hausdorff, conjunto con dimensión Hausdorff no entera, conjunto con dimensión Hausdorff entera pero con estructura irregular, etcétera). Explicar cualquiera de estas definiciones sin usar maquinaria matemática pesada sería tan difícil como explicar qué es el rojo sin utilizar la idea de longitud de onda o cualquier otro concepto de la física. Por otro lado, si queremos hacer entender a alguien qué es el rojo, no tenemos más que señalar con el dedo hacia cualquier objeto de dicho color. Si mostramos algo ya no hace falta decirlo. La mejor manera de entender qué es un fractal es construirse uno.
En cada una de las etapas reflejadas en las figuras, cada vez que repetimos el proceso obtenemos otra figura cuyo perímetro es el doble que el de la anterior y cuyas áreas coinciden. Por eso,  si el perímetro del cuadrado inicial mide, digamos, P centímetros y su área A centímetros cuadrados, tras llevar a cabo este proceso 100 veces obtendremos una nueva figura con un perímetro  P·2100 cms. y cuya área seguirá siendo de A centímetros cuadrados; y después de 1.000.000 de etapas el perímetro de la figura aumentará hasta P·21.000.000 cms., y el área seguirá siendo de A centímetros         cuadrados.  Repitiendo el proceso cuántas veces haga falta, podemos conseguir una línea tan larga como queramos que contenga en su interior la misma área A. La línea que va surgiendo en este proceso ilimitado —un sistema dinámico— se llama un fractal; a éste concreto se le conoce como la isla (o curva) de Koch.

 

Las figuras fractales son figuras que van surgiendo en procesos dinámicos interminable con un patrón de comportamiento bien definido. Por decirlo de alguna manera, son figuras en las que el borde se está moviendo y está constantemente cambiando, y en las que el cambio tiene lugar paso a paso y siguiendo un comportamiento muy preciso en cada paso. Algunos fractales, como la isla de Koch, están creados por el hombre. Pero la mayor parte de ellos se encuentran por todas partes en la naturaleza que nos rodea: las líneas de las costas, las turbulencias en el agua de los ríos, las superficies de arcillas, etcétera.

 

Las figuras del tipo de los fractales se han venido estudiando en matemáticas desde principios del siglo veinte por matemáticos como Borel (1895), Lebesgue (1904), Carathéodory (1914), Hausdorff (1919) y Besicovich (hasta su muerte en 1970) y Mandelbrot. Clásicamente, las figuras se caracterizan por dos atributos: su forma y su tamaño. Y cuando estudiamos las figuras según su forma y su tamaño, decimos, para entendernos, que estamos haciendo geometría. En el caso de las figuras fractales tamaño y forma resultan muy difíciles de describir. Pensemos en la isla de Koch que acabamos de aprender a construir. ¿Cómo describir su forma, si la forma nunca acaba de estar terminada, por decirlo de alguna manera? Y el tamaño de la isla tampoco es asunto fácil de encarar. Para describir el tamaño de un cuadro, por ejemplo, damos indistintamente las medidas de su alto y ancho —su perímetro— o de su área en metros cuadrados. Pero la isla de Koch se trata de una figura con un perímetro ilimitadamente largo pero con área finita. ¿Cuál de ellos ha de considerarse su tamaño? ¿Como caracterizar una figura sin forma o tamaño fijos? ¿Se pueden estudiar figuras sin prestar atención a tamaño o forma? Sí, haciendo topología en vez de geometría. Veamos mediante un ejemplo lo que es la topología.

 En topología se estudia la configuración esencial de figuras como el mapa del metro o la isla de Koch. La configuración esencial de la gráfica de una línea de metro la da el orden y conexión entre las paradas. Hausdorff llamó a la configuración esencial de figuras fruto de sistemas dinámicos, como la isla de Koch, su dimensión. La dimensión de un conjunto es un número que nos da una medida de su complejidad como objeto, y no depende de su tamaño ni de su forma, por lo que no se trata de una noción geométrica sino topológica. Por ejemplo, un punto (o conjunto finito de puntos) tiene dimensión 0, una línea (o trozo de línea) tiene dimensión 1 y una superficie tiene dimensión 2. Durante mucho tiempo, en matemáticas se manejó una idea intuitiva de la dimensión de un conjunto (el número de coordenadas independientes necesarias para determinar la posición de un punto en tal conjunto), y hasta mediados del siglo XIX no se necesitó dar mayor precisión al concepto de dimensión. Pero cuando surgió la posibilidad de utilizar modelos distintos del espacio euclídeo tridimensional —el que se estudia en la escuela— para describir el mundo de los hechos físicos, se necesitó dar una definición precisa de lo que es exactamente la dimensión de un conjunto.

 

Definir con precisión qué es la dimensión de un conjunto no resultó tarea fácil, y costó mucho años conseguirlo. Los primeros en encarar la tarea de definir con precisión la dimensión de un conjunto fueron Richard Dedekind y Georg Cantor. En su correspondencia de 1874 [FG], encontramos trazos de sus reflexiones sobre la idea intuitiva de dimensión, y también nos hacemos una idea del tipo de dificultades que encararon. Por ejemplo, Cantor y Dedekind pensaban que no debería ser posible establecer una correspondencia biunívoca entre conjuntos de distinta dimensión, por ejemplo una recta (dimensión 1) y una superficie (dimensión 2). Para sorpresa de toda la comunidad matemática, en 1877 Cantor logró construir una correspondencia biunívoca entre un segmento y un cuadrado, un segmento y un cubo y, en general, un segmento y una caja de cualquier dimensión positiva p, contradiciendo la idea intuitiva de dimensión, y abriendo el camino a una manera nueva de pensar estas cuestiones. Este nuevo modo de pensar permitió a Felix Hausdorff dar el gran salto y concebir una noción de dimensión que puede ser utilizada tanto para conjuntos y figuras euclídeas —triángulos o esferas, por ejemplo— cuyas dimensiones son números enteros (0, 1, 2, etcétera), como para figuras sofisticadas del estilo de las que forman la isla de Koch, que es mucho más que una línea, pero no llega a ser una superficie “terminada”, con lo que habrá de tener por dimensión un número entre 1 y 2, que en este caso resulta ser (log 4)/(log 3). La definición de dimensión Hausdorff de un conjunto es sofisticada, y requiere bastante maquinaria técnica. Pero en el caso de algunos fractales, como por ejemplo el borde de la isla de Koch, hay maneras sencillas de describirla y, a veces, de calcularla. Aunque la forma y el tamaño de estos fractales estén cambiando constantemente y paso a paso, la relación forma/tamaño permanece constante siempre. El número que mide esta relación constante entre los tamaños y formas que va tomando un fractal en sus distintas etapas es lo que llamamos dimensión del fractal, relacionada, aunque no coincidente, con otra noción “nueva” de dimensión: la dimensión de autosemejanza.

 

 En el primero de los trabajos [Br-1] que en los últimos años han publicado, Antonio Brú y su equipo estudian algunos ejemplos de los sistemas dinámicos vivos que son los tumores sólidos, y demuestran que estos sistemas forman un fractal (de dimensiones que abarcan en los casos estudiados tanto in vivo como in Vitro, desde 1.12 hasta 1.34). Reconocer, entender y analizar el fractal que forma su contorno, ha permitido a este equipo de científicos entender, a su vez, cómo tiene lugar el crecimiento de un tumor sólido, algo que está teniendo importantes consecuencias tanto en la investigación como en el tratamiento de los tumores sólidos. Veamos tres ejemplos concretos de propiedades del crecimiento de los tumores sólidos que se han podido entender gracias a las investigaciones del profesor Brú y su equipo.
Las nuevas células que se forman al dividirse en dos las células del borde del tumor, se van moviendo por él hasta que encuentran una posición cóncava en la que están rodeadas por el mayor número posible de células. Hasta ahora se suponía que las nuevas células tumorales que van surgiendo se van colocando allá donde tienen mayor acceso a los nutrientes. Las investigaciones de Antonio Brú demuestran, sin embargo que las nuevas células buscan refugio en las concavidades del borde del tumor, precisamente allá donde la el acceso a  nutrientes es mucho menor que en cualquier saliente del mismo. Esto ha permitido entender que la auténtica competencia celular no se debe a la lucha por los nutrientes (como se suponía hasta ahora y en lo que se basan las terapias antiangiogénicas) sino por el espacio. Las nuevas células buscan colocarse allá donde su posición aumente al máximo posible el tamaño global del tumor. Esto demuestra que, en contra de lo que se creía hasta ahora (que los tumores invaden primero y destruyen después), los tumores han de destruir primero para luego poder invadir el espacio que queda libre. Así pues el mecanismo de desarrollo del tumor lo constituye la difusión espacial en el borde del tumor, y este mecanismo se puede anular —y por lo tanto detener el crecimiento del tumor— activando a los encargados  de esta anulación: los neutrófilos del sistema inmune, unos actores completamente imprevistos hasta el momento.

 

3. El crecimiento de la colonia cancerosa es lineal en el tiempo (salvo, claro está, en el período inicial, cuando hay pocas células, en que crece de manera exponencial). Ante este hecho, es inevitable enfrentarse al problema que supone el que las terapias actuales de radioterapia y quimioterapia estén basadas en el supuesto de que el crecimiento de las células del tumor es exponencial en el tiempo.

 

El trabajo del profesor Brú y su equipo les ha colocado (a ellos e, indirectamente, a la Universidad Complutense) entre los pioneros del estudio de los sistemas dinámicos vivos. Se trata de un terreno poco explorado hasta mediados del siglo XX, y en el que la comunidad científica de este país lleva ya un par de décadas haciendo contribuciones fundamentales (por ejemplo, las investigaciones del ecosistema de Riotinto llevadas a cabo por el equipo del profesor Ricardo Amils del Centro de Biología Molecular de la UAM, en el que actualmente colaboran el CSIC, el INTA y la NASA, está resultando esencial en el estudio de la posibilidad de vida en otros planetas).

 

La importante novedad que el trabajo de Antonio Brú aporta es la utilización de modelos matemáticos. Las matemáticas están funcionando, por así decirlo, como un microscopio a través del cual se puede ver y entender el rol indispensable y benigno que en la lucha contra el tumor desempeñan células que, como los neutrófilos, permanecían hasta ahora ocultas a los ojos de médicos y biólogos. Como tantas otras veces a lo largo de la historia de la ciencia, al desvelar lo que hasta su uso permanecía oculto, las matemáticas están aportando nuevas claves, claves que ya se empiezan a buscar también en disciplinas como la hidrología, geología o astrofísica, donde la incorporación de matemáticas nuevas en el estudio del comportamiento de los correspondientes sistemas dinámicos está permitiendo, por primera vez desde hace décadas, avanzar en su comprensión.

 

 

Bibliografía

[Br-1] A. Brú, S. Albertos, J. L. Subiza, J. López García-Asensio, I. Brú, The Universal Dynamics of Tumor Growth, Biological Journal, Vol. 85, Nov 2003, 2948-2961.

[Br-2] Brú A, Del Fresno C, Soares-Schanoski A, Albertos S, Brú I, Porres A, Rollán-Landeras E, Dopazo A, Casero D, Gómez-Piña V, García L, Arnalich F, Alvarez R, Rodríguez-Rojas A, Fuentes-Prior P, López-Collazo E., Position-dependent expression of GADD45alpha in rat brain tumours, Medical Oncology 24-4 (2007), 436-444.

[FG]  J. Fauvel, J. Gray, eds., The History of Mathematics —a Reader—, The Open University, Macmillan Pr. 1987.

 

 

 

Capi Corrales Rodrigáñez es profesora del departamento de Álgebra de la facultad de Matemáticas de la Universidad Complutense de Madrid. En FronteraD ha publicado La saga Crepúsculo: Los Libros. Escribe el blog http://www.mat.ucm.es/~ccorrale/

 

 

 

Sobre fractales en FronteraD, véase el artículo de Marc Meléndez Mandelbrot, domador de fieras matemáticas
 

1. La mayor parte de la actividad celular —reproducción, búsqueda de alimentos, etcétera— de los tumores sólidos se concentra en la banda externa (el borde) de los mismos. Las consecuencias de conocer esta propiedad del comportamiento y crecimiento de los tumores sólidos son enormes. Por ejemplo, el que la proliferación esté restringida al borde de la colonia de células tumorales significa que las células interiores proliferan a un ritmo distinto que las de fuera. Esto implica necesariamente la existencia de un mecanismo inhibidor del crecimiento de las células interiores. El que la actividad tumoral se concentre en el borde, tiene también consecuencias muy importantes a la hora de decidir dónde se pincha para tomar biopsias de un tumor. Hasta ahora básicamente no se sabía dónde pinchar y se pinchaba en el centro para asegurar el acierto, lo contrario de lo que parece adecuado a la vista de estos descubrimientos. Habría que pinchar donde mayor actividad tumoral hay, esto es, en el borde.

 

3. Es fácil comprobar que el plano del Metro de Madrid que regalan en cualquiera de sus paradas no se ajusta a la realidad del tramado de la red que forman las vías —basta buscar Sol, Tirso de Molina y Antón Martín en un callejero de Madrid y comparar la forma de los recorridos—, salvo en dos aspectos: el orden en que las paradas están situadas en la red y las conexiones entre las distintas líneas. Todos los demás detalles los ignora, y no reproduce fielmente ni las distancias ni los recorridos. Dicho con otras palabras, no respeta el tamaño ni la forma real de las vías. Sin embargo, esto no supone ningún problema para los viajeros. Estos sólo necesitan que la gráfica les proporcione con toda exactitud el nombre de los lugares donde subir y bajar en su orden correcto, así como el nombre de las paradas en las que hacer trasbordo y cambiar de línea. Si imprimiésemos la gráfica del Metro sobre una hoja de goma elástica y fuésemos deformándola hasta hacerle coincidir con la forma real de la ciudad de Madrid, ¿qué pasaría? Pues que la configuración esencial de la gráfica no cambiaría, y el plano no resultaría ni más ni menos útil que antes. Podemos estirar, podemos contraer, podemos cambiar su forma o su tamaño, pero mientras no rompamos nada, no alteraremos su configuración y se tratará, esencialmente, de la misma gráfica.

Física

Físicos confirman que viaje en el tiempo es imposible

Un equipo de físicos japoneses acaba de echar por tierra la fabulosa posibilidad, hasta ahora solo parte de las tramas de las historias de ciencia ficción, de viajar en el tiempo. Experimentos realizados en los últimos años sugerían la eventualidad de que los fotones, las unidades de luz, tomadas de forma individual, podían superar la misma velocidad de la luz en su conjunto, pero los investigadores han confirmado que este salto en las reglas del Universo no es posible. Y si esto no es posible, por mucho que duela a los más entusiastas, tampoco lo será viajar al pasado o al futuro.

Durante la investigación, publicada en Physical Review, los científicos, dirigidos por Shengwang Du, hicieron pasar pares de fotones a través de un vapor de átomos a unas 100 millonésimas de grado sobre el cero absoluto, la temperatura más baja de Universo, según informa la BBC. Y resultó que los fotones individuales cumplían con los límites de la velocidad de la luz en el vacío, lo que significa que siguen el principio de causalidad establecido por la teoría de la relatividad de Einstein, por el que el efecto no puede suceder antes de su causa.

Los límites Einstein
«Einstein afirmaba que la velocidad de la luz imponía la ley del tráfico del Universo: nada puede viajar más rápido que la luz», explican los investigadores de la Universidad de Ciencia y Tecnología de Hong Kong. «El estudio demuestra que un único fotón también obedece esa ley», subraya. Para el profesor Du, el fracaso individual de los fotones «cierra el debate» de la velocidad que pueden adquirir estas partículas. Además, la investigación puede proporcionar nueva información en los estudios sobre transmisión cuántica.

La luz viaja a una velocidad de casi 300.000.000 metros por segundo en el vacío, pero puede variar en diferentes materiales, como el agua (el popular experimento de la pajita «doblada» en el vaso) o los gases.

Cortesia ABC, España

Física

E = mc². Biografía de la más famosa ecuación del mundo.

Uno de los libros que más golosamente he leído en mi vida se titula E = mc². Una biografía de la más famosa ecuación del mundo. Su autor (el del libro, no el de la ecuación) es el estadounidense David Bodanis, tan inteligente que reside en Gran Bretaña. Ya saben ustedes lo que dijo Oscar Wilde cuando le preguntaron en la aduana de Nueva York si tenía algo que declarar: “Sí” contestó, “mi talento”. Con lo cual dejaba en claro que el talento, en Estados Unidos, es un producto de importación. Pero al mismo tiempo le abría las puertas a la exportación del propio, que en ese país parece que no tiene mucho campo para desarrollarse.

       Sabido es que el genio de Albert Einstein formuló esa ecuación en 1905, estableciendo que la energía (E) es igual a la masa (m) multiplicada por el cuadrado de la velocidad de la luz (c²). Menos sabido es que la primera vez que Einstein la expuso en público fue el 21 de septiembre de 1909, hace ahora cien años, en la Andräschule de Salzburgo, ante los más de mil participantes en el 81° Congreso de la Sociedad de Investigadores y Médicos alemanes. Su ponencia versaba Sobre el desarrollo de nuestras ideas acerca de la esencia y la constitución de la radiación.
       Pero regresemos al libro mencionado al principio. David Bodanis nos cuenta en él la historia de la gestación de la teoría de la relatividad y de los conceptos que la componen. Desde la energía, concebida como tal por el físico inglés Michael Faraday, hasta la velocidad de la luz, medida por vez primera en 1675 por el astrónomo danés Olaus Rømer. Dicho sea de paso, la c que designa a esa velocidad viene del latín: de celeritas, celeridad en castellano.

       Y al contarnos Bodanis la historia de la ecuación nos está contando al mismo tiempo la historia de la fisión nuclear y de la bomba atómica, pero también la del universo y dentro de ella la del planeta azul en el que viviremos mientras haya energía solar que lo caliente y mientras no sea tan grande el agujero de ozono que esa misma energía termine por achicharrarnos. Ni que decir tiene que este libro es mejor leerlo teniendo unos mínimos conocimientos de conceptos elementales de Física y Química, pero me atrevo a pensar que incluso sin ellos resulta apasionante.

       También por las servidumbres humanas que pone al descubierto. Por ejemplo, el ninguneo histórico de tres mujeres cuyos trabajos fueron esenciales para el progreso en esta materia específica: la francesa Emilie du Châtelet (una aristócrata apasionada por la investigación científica, además de amante y compañera de trabajos de nadie menos que Voltaire), y junto a ella, lejana ya  en el tiempo, dos contemporáneas: la austríaca Lise Meitner (a quien en realidad corresponden la gloria de que disfruta, y el premio Nobel que recibió, Otto Hahn) y la inglesa Cecilia Helena Payne-Gaposchkin, la primera en desentrañar el misterio de la composición química del sol.

       Este libro también nos muestra al desnudo el entusiasmo nazi de científicos alemanes como Geiger (el inventor de los contadores radioactivos que llevan su nombre) y Heisenberg, quien siempre se vanaglorió de haber podido inventar la bomba atómica antes que Oppenheimer en el desierto de Nevada, pero que no lo hizo para no ponerla en manos de Hitler: una mentira que puso en circulación después de perdida la guerra, para salvar su prestigio, sin saber que los ingleses habían grabado ocultamente todas las conversaciones que mantuvo mientras estuvo internado… y que demuestran todo lo contrario.

       Claro está que Heisenberg, una vez ya inventada la bomba atómica, no podía aspirar a la suerte del criminal de guerra Wernher von Braun, llevado con todos los honores a los Estados Unidos para que allí desarrollara sus proyectos balísticos: los mismos que había ensayado durante la guerra haciendo bombardear Londres con los mortíferos cohetes V1 y V2. (Para quienes no sepan alemán, esa V es la inicial de Vergeltung, que significa “venganza”, y era como una réplica irónica de los nazis a la V de la victoria, gesto emblemático de Churchill… quien se lo copió, dicho sea de paso, a Leslie Howard en la versión cinematográfica de Pygmalion, la obra maestra de Bernard Shaw de donde luego saldría el musical My Fair Lady).

       Para terminar, quiero contarles el origen del malentendido según el cual la teoría de la relatividad –cuya clave es la ecuación de marras– sólo se encuentra al alcance de un par de científicos bastante cualificados. Nada de eso. La teoría de la relatividad la puede entender cualquiera que tenga los mínimos conocimientos exigibles de Física, y que decida invertir un poquito de tiempo en la comprensión de sus fundamentos. ¿De dónde proviene entonces la noción de su impenetrabilidad?  Es muy sencillo, y Bodanis lo cuenta donosamente en su libro.

       El 6 de noviembre de 1919, la Real Sociedad Astronómica de Londres celebró una sesión extraordinaria para dar a conocer al mundo la comprobación rigurosa de que la teoría de la relatividad había sido certificada por las observaciones de unos equipos enviados a África y a Brasil. Unos equipos que se dedicaron a seguir la luz del sol en su recorrido por el sistema del astro rey, y las desviaciones en que incurría. La medición de esas desviaciones era el marchamo de veracidad que ratificaba de una vez para siempre la genial intuición de Einstein.

 

Cortesia fronterad.es

Física

La Cuántica desafía la realidad, el invento del año

La prestigiosa revista Science ha presentado su tradicional «top ten» con los descubrimientos científicos más importantes de 2010 y, posiblemente, ha sorprendido con su elección. Este año, corona el ranking la primera máquina cuántica. Para muchos puede ser un invento desconocido, pero es el primer dispositivo hecho por el ser humano que no responde a las leyes de la mecánica clásica, sino al mismo conjunto de normas que rige el comportamiento de las moléculas o los átomos. Es diminuto, sí, pero visible al ojo humano. Para hacernos una idea de su importancia, puede ser un primer paso para averiguar si algún día seremos capaces de estar en dos sitios a la vez al mismo tiempo. Este ingenio ha superado en la lista de los editores de la “biblia” científica incluso a la famosa célula artificial de Craig Venter o a la secuenciación del genoma del Neandertal. Estas son las diez grandes investigaciones:
-La primera máquina cuántica:
Hasta este año, todos los objetos hechos por el hombre han sido realizados de acuerdo a las leyes de la mecánica clásica. En marzo, sin embargo, un grupo de investigadores presentaba en la revista Nature y ante una reunión de la Sociedad Física Americana en Portland un aparato cuyo funcionamiento responde a la mecánica cuántica, el conjunto de normas que rige el comportamiento de las cosas pequeñas, como las moléculas, los átomos y las partículas subatómicas. Para Science, este experimento es el mayor avance científico del año, debido a que rompe el conocimiento establecido, al ingenio que encierra su creación y a sus numerosas aplicaciones potenciales.
Los físicos Andrew Cleland y John Martins de la Universidad de California en Santa Bárbara y sus colegas enfriaron un diminuto remo de metal o «baqueta cuántica», de unos 30 micrómetros de longitud, pero visible al ojo humano, que vibra cuando se coloca en movimiento en un rango de frecuencias. Después, conectaron el remo a un circuito eléctrico superconductor para que alcanzara el estado cuántico, una meta largamente buscada por los científicos. Entonces, y debido a las extrañas reglas de la mecánica cuántica, consiguieron colocar simultáneamente el remo en movimiento… mientras se mantenía quieto. El remo, simultáneamente, estaba vibrando y no vibrando. Los investigadores demostraron que los principios de la mecánica cuántica pueden aplicarse a objetos cotidianos. “Nadie había demostrado hasta la fecha que, si tomas un objeto grande, con billones de átomos, la mecánica cuántica se aplique a su movimiento”, dijo en su día el propio Cleland.
Este descubrimiento puede abrir muchas puertas en el mundo de la física, desarrollar nuevos dispositivos para controlar los estados cuánticos de la luz o, en última instancia y aunque parezca ciencia ficción, investigar los límites de nuestro sentido de la realidad. El último gran objetivo es colocar un objeto macroscópico, algo tan grande como un ser humano, por ejemplo, en dos lugares a la vez.
-La primera célula sintética:
John Craig Venter, uno de los “padres” del genoma humano, anunció en mayo la primera célula sintética fabricada por el ser humano, un híbrido con la estructura natural de una bacteria viva y el material genético artificial. Para lograrlo, el científico generó un cromosoma sintético, una réplica del genoma de la bacteria Mycoplasma myoides, y después lo trasplantó a otra bacteria viva (M. Capricolum), que actuó como recipiente para crear un nuevo ser. En el futuro, los investigadores prevén la creación de genomas sintéticos a la carta, para generar biocombustibles, productos farmacéuticos u otros compuestos químicos.
-Todos somos Neandertales:
El investigador del Instituto Max Planck de Antropología Evolutiva, Svante Pääbo, con la colaboración de decenas de científicos de todo el mundo, entre ellos varios españoles, presentó en octubre la culminación de su proyecto más ambicioso: la secuenciación del genoma del hombre de Neandertal. Descubrió algo asombroso: un 2% de nuestra genoma proviene de esta especie. Todos los seres humanos, excepto los africanos, llevamos estos genes. Esto implica un cruce entre neandertales y humanos.
-El mayor paso en la prevención del VIH:
2010 es el año en el que más pasos en prevención del sida se han dado. A falta de una vacuna eficaz, se ha demostrado que unas pastillas y un gel vaginal reducen a la mitad las probabilidades de contagio. El fármaco utilizado en la investigación se llama «Truvada», un antirretroviral «dos en uno» que combina en una tableta dos fármacos (tenofovir y emtricitabina). Miles de seropositivos utilizan ya este tratamiento para frenar en su organismo el avance del VIH, pero no se había demostrado su capacidad de prevenir la infección. Un estudio con más de 2.500 homosexuales sanos de seis países demostró que puede reducir en un 44 por ciento las posibilidades de infectarse. Pero en los casos en los que el cumplimiento es total y los afectados fueron fieles al medicamento, la eficacia superó el 90%, según se publicó en la revista «New England Journal of Medicine». Es la mejor noticia en prevención del sida que se tiene en mucho años. Los beneficiarios serían las personas que no pueden o no quieren utilizar preservativo, están en riesgo de sufrir una violación o temen no protegerse cuando están bajo los efectos del alcohol. Funcionaría como una fórmula de protección sin tener que negociar con la pareja. La segunda opción es un gel microbicida que, aplicado en la vagina o en el ano antes de mantener relaciones sexuales, puede reducir el riesgo de VIH en casi un 40% y de infección por herpes genital en un 51%. Es la primera vez que un microbicida de uso tópico resulta eficaz, informa N. Ramírez de Castro.
-La secuenciación de los genes de enfermedades raras:
El mundo científico cuenta con una nueva herramienta para encontrar una mutación genética que causa una enfermedad. Después del genoma han secuenciado el exoma. Ahora en lugar de buscar una alteración genética en los 3.000 millones de pares de bases del genoma, los genetistas podrán hacerlo con los exones, la fracción pequeña de ADN que codifica para proteínas. La secuencia del exoma ha dado paso a una larga lista de mutaciones que están detrás de una docena de misteriosas enfermedades que provocan niveles muy bajos de colesterol, deformidades faciales o malformaciones cerebrales, informa N. Ramírez de Castro.
-Simulaciones de dinámica molecular:
Los investigadores han aprovechado el poder de una de las computadoras más poderosas del mundo para rastrear los movimientos de los átomos de una pequeña proteína durante una duración cien veces mayor que cualquier intento previo.
-El simulador cuántico:
Para describir lo que ven en el laboratorio, los físicos elaboran teorías basadas en ecuaciones que pueden ser muy difíciles de resolver. Este año, sin embargo, científicos han descubierto un atajo haciendo simulaciones cuánticas, cristales artificiales en los que puntos de luz láser desempeñan el papel de los iones y los átomos atrapados en la luz hacen de electrones. El ingenio procura respuestas rápidas a problemas teóricos de la física de materia condensada y que, eventualmente, podrían ayudar a resolver misterios como la superconductividad.
-Los 1.000 genomas y uno más:
Las tecnologías de secuenciación del genoma cada vez más rápidas y baratas están permitiendo la elaboración de estudios a gran escala del ADN. El proyecto de los 1.000 genomas, por ejemplo, ha identificado gran parte de la variación genómica que nos hace humanos, y otras investigaciones trabajan en revelar más sobre la función que juega el genoma.
-La reprogramación celular:
Las técnicas que permiten reprogramar células de manera para que se comporten como células madre no especializadas ya son habituales en los laboratorios. Este año, unos investigadores han encontrado una forma de hacerlo con RNA sintético, una técnica cien veces más eficaz, mucho más rápida y potencialmente segura para su utilización terapéutica.
-El retorno de la rata:
Los ratones han gobernado el mundo de los animales de laboratorio, pero los investigadores prefieren utilizar ratas para muchos de sus trabajos. Es más fácil trabajar con ellas y anatómicamente son muy similares a los seres humanos. Su gran problema es que los científicos todavía no han conseguido aplicar en ellas la técnica que se utiliza para conseguir ratones knockout o ratón KO, un ratón modificado por ingeniería genética para desactivar algunos de sus genes y comprender su función. Sin embargo, una investigación desarrollada este año promete traer ratas knockout a los laboratorios.

Cortesía ABC, España

Física

Einsteins tenía razón: el Universo es plano

Una vieja idea desechada por Einstein podría contener las claves para resolver uno de los mayores misterios científicos de la actualidad: la razón por la que el universo se sigue expandiendo cada vez a más velocidad, algo que sucede a pesar de la acción de la gravedad, una fuerza que tiende a unir, y no a separar, los objetos que podemos ver en el firmamento. Ahora, Christian Marinoni y Adeline Buzzi, dos físicos de la Universidad de Provence, en Francia, han llegado a la conclusión de que la “constante cosmológica” de Einstein, una especie de fuerza repulsiva que se opone a la gravedad, es la mejor manera de explicar la energía oscura, la principal sospechosa de la aceleración del universo. Marinoni y Buzzi, que acaban de publicar su trabajo en Nature, han llegado, además, a la conclusión de que vivimos en un universo plano.
En el año 1917, Albert Einstein insertó en su teoría general de la relatividad un factor de corrección, que llamó constante cosmológica, para forzar a sus ecuaciones a predecir el universo estacionario (es decir, inmutable) en el que él creía. La constante cosmológica era una especie de fuerza repulsiva opuesta a la gravedad, algo necesario, pensaba Einstein, para que el universo fuera estable y no terminara colapsándose sobre sí mismo debido a la acción gravitatoria de la materia que contiene.
Sin embargo, apenas dos años después, en 1919, el astrónomo Edwin Hubble demostró que, lejos de colapsarse, el universo seguía, de hecho, expandiéndose, haciéndose cada vez más y más grande. Y la materia contenida por él, en lugar de ir juntándose, se estaba separando. Einstein desechó, por tanto, su constante cosmológica, que llegó incluso a considerar como el “mayor error” de su vida. Un “error”, sin embargo, del que ahora los científicos dependen para intentar explicar el universo en que vivimos.
La energía oscura
En efecto, y muchos años después de que Hubble realizara su trascendental descubrimiento, se hizo evidente otro hecho descorazonador: el universo no solo se está expandiendo, sino que el ritmo de esa expansión se está acelerando. Es decir, que la velocidad de expansión no es constante, sino que aumenta con el tiempo. ¿Qué fuerza descomunal es capaz de oponerse a la gravedad y conseguir un efecto semejante? Hasta ahora, la Ciencia no ha podido dar una respuesta a esta cuestión.
Lo que sí se sabe es que, para que la gravedad pudiera frenar la expansión, debería de existir muchísima más materia de la que podemos ver. Toda la materia ordinaria, la que forma galaxias, estrellas y planetas, apenas si da cuenta de un 4% de la masa total del universo. Otro 23 % de esa masa está formado por materia oscura, una misteriosa clase de materia que no brilla y que, por tanto, no podemos ver. Y el 73% restante está constituido por algo que, a falta de una definición mejor, los científicos han llamado “energía oscura”. Una extraña fuerza que, de alguna manera, sería la responsable de la actual aceleración del universo.
Para llevar a cabo su estudio, Marinoni y Buzzi han desarrollado un sencillo método que les ha permitido medir la “geometría” del universo. Un método basado en la observación de 500 parejas de galaxias distantes y que les ha permitido medir cuál es la curvatura del espacio.
¿Curvo o plano?
¿Pero cuál es exactamente la geometría del universo? ¿Vivimos dentro de una especie de esfera de múltiples dimensiones o se trata más bien de un tejido espaciotemporal que se curva suavemente y sin llegar nunca a cerrarse sobre sí mismo? ¿O puede que incluso no se curve en absoluto y que en realidad habitemos en un universo plano? La cuestión, uno de los mayores interrogantes de la Cosmología, tiene para nosotros implicaciones muy concretas y que van mucho más allá de ser simples cuestiones teóricas. De hecho, la geometría del universo influye de forma decisiva en los objetos que observamos.
En un espacio curvo o esférico, la luz que nos llega de galaxias o estrellas lejanas se deforma durante su largo viaje, de manera que la imagen que vemos no se corresponde con la realidad, sino que está distorsionada. Sería, en cierta medida, igual que mirarnos sobre la superficie de una bola metálica y ver nuestro rostro completamente deformado. En un espacio plano, sin embargo, esa distorsión no existiría y nos permitiría ver los objetos celestes tal y como son.
Pero, ¿cómo saber cuál de las posibilidades es la correcta? Hasta ahora, los científicos han buscado la respuesta estudiando hasta la saciedad las propiedades y las características de la luz que nos llega de las estrellas, el único vínculo físico que nos une a ellas.
Estudiando al detalle esa luz, examinándola fotón a fotón, ha sido posible averiguar, por ejemplo, si el objeto que la emite se acerca o se aleja de nosotros, y a qué velocidad. O incluso conocer los elementos químicos que contiene la fuente emisora de esa luz, permitiéndonos averiguar la composición de estrellas o planetas lejanos, a pesar de las enormes distancias que nos separan. Lo que no podemos saber es hasta qué punto esa luz se ha deformado durante su viaje y, por lo tanto, hasta qué punto es real, o no, lo que estamos viendo.
Sí que sabemos, por ejemplo, que la longitud de onda de un rayo de luz se deforma con el movimiento, hacia la parte roja del espectro electromagnético (corrimiento hacia el rojo) o hacia la parte azul, según si el objeto emisor se está alejando o acercándose. Y también sabemos que los rayos luminosos sufren alteraciones al pasar cerca de fuertes campos gravitatorios, como galaxias o agujeros negros.
Los modernos instrumentos de observación son capaces, sin embargo, de corregir electrónicamente esas distorsiones y presentarnos la luz como si éstas nunca se hubieran producido. Pero calcular cómo afecta a la luz la geometría misma del universo es una cosa completamente diferente.
500 parejas de galaxias
“El aspecto más interesante de nuestro trabajo -explica Marinoni- es que no existen datos previos que podamos utilizar”. Lo cual significa que sus hallazgos no dependen de cálculos ajenos y que podrían estar equivocados. Los investigadores, pues, decidieron intentar explicar la energía oscura estudiando la geometría del universo. Y es que la geometría del espacio tiempo puede distorsionar, como hemos visto, las imágenes que recibimos de las estructuras que se encuentran en él.
Por eso, los científicos decidieron buscar pruebas de esas distorsiones observando 500 parejas de galaxias distantes en órbita la una alrededor de la otra. Usando las magnitudes de las distorsiones observadas, Marinoni y Buzzi fueron trazando la forma que tiene el tejido espacio temporal. Una forma que, según han podido determinar, refuerza la posibilidad de que vivamos en un universo plano. Y si vivimos en un universo plano, la vieja idea einsteniana de la constante cosmológica volvería a cobrar fuerza. Tanto, que incluso podría ser la llave que estamos buscando para comprender la energía oscura.

Cortesia ABC, España

Física

El rayo que nos cambió la vida

La historia del láser comenzó en 1917 como un postulado teórico de Albert Einstein, que pensó que existía la posibilidad de estimular los electrones de un átomo para lograr que emitieran luz en una determinada longitud de onda. Pero todavía tendría que pasar algún tiempo para la demostración experimental de este efecto; más de 40 años para conseguir desarrollar el primer dispositivo eficiente basado en este enunciado.

A principios de siglo, probablemente, a nadie se le pasó por la cabeza que la teoría de la radiación estimulada pudiera tener implicaciones prácticas y, mucho menos, que acabara siendo uno de los cinco inventos más importantes de la historia. En la actualidad, es difícil creer que el desarrollo que hace posible el 95% de las comunicaciones de telefonía se le denominara en los años 50 ‘un invento en busca de una aplicación’, pero así fue. Y tal vez sea uno de los mejores ejemplos de cómo una idea surgida de la curiosidad científica puede transformar radicalmente el mundo.

El interés por desarrollar este artefacto comenzó en los años 50, una época en la que diferentes grupos de investigadores, algunos por su cuenta y otros asociados a prestigiosos laboratorios, perseguían la idea de construir lo que luego sería conocido como láser. Y aunque, finalmente, fue Mainman el que se llevó ‘el gato al agua’ fabricando en 1960 el primer láser experimental que empleaba rubí como medio amplificador, fueron muchos los científicos que pusieron su granito de arena para que este invento fuera posible.

Como anécdota curiosa que ejemplifica lo que ha cambiado la visión de la Ciencia en este medio siglo, se podría contar que cuando este físico comunicó a la prensa su invención, el dispositivo era tan minúsculo -sólo medía unos centímetros de longitud- que para la foto se mostró a los periodistas otro aparato que, aunque no funcionaba, impresionaba más por su tamaño.

Alentado por la industria del cine se le atribuyeron propiedades espectaculares, como la del ‘rayo de la muerte’, aunque sus inicios fueron más modestos. De hecho, su primera aplicación industrial fue la soldadura de chapa de automóviles. Pero a estas alturas, los investigadores, aún no sabiendo exactamente para qué, ya intuían sus enormes posibilidades y las patentes relacionadas con este invento se multiplicaron.

Hoy en día nos sería muy difícil imaginar un mundo sin láser. Es la base de la fibra óptica que hace posible el funcionamiento de la red de comunicaciones que ofrece la telefonía o Internet; de soportes como el CD, el DVD o el Blu ray; del lector de código de barras; de las impresoras láser; de los hologramas de seguridad en tarjetas de crédito; del desarrollo de la ingeniería aeronáutica o automovilística; de los bisturís que han revolucionado la cirugía; del perfeccionamiento de las miras telescópicas; de los medidores de distancias. En definitiva, si nos detuviéramos a analizar muchos de los objetos que nos rodean y aplicaciones que nos han cambiado la vida es seguro que, directa o indirectamente, este invento tiene mucho que ver.

Pero ¿qué propiedades tiene esta luz que la hace tan especial? ¿En qué se diferencia de la emitida por otras fuentes, como podría ser el fuego o una bombilla? Para empezar la palabra ‘Laser’ son las siglas inglesas de Light Amplification by Stimulated Emission of Radiation (Amplificación de Luz por Emisión Estimulada de Radiación) y se trata de una luz con unas ciertas características bien diferenciadas.

El láser es monocromático, de un solo color, mientras que la luz ordinaria es el resultado de la combinación de diferentes colores. Es coherente, lo cual significa que todas sus partículas de luz están en sintonía con las demás. Y posee también direccionalidad, lo que implica que sus fotones viajan en la misma dirección, pudiéndose concentrar en un punto muy pequeño. Y estas propiedades son la base de su inmenso poder y versatilidad, ya que permiten hacer desde una holografía o cortar un duro metal a medir la distancia que hay de la tierra a la luna.

El láser del futuro
Este año 2010, el láser cumple medio siglo de vida y coincidiendo con este aniversario, el Instituto de Física Interdisciplinar y Sistemas Complejos del IFISC (CSIC-UIB) ha elaborado, dentro de la Semana de la Ciencia, un programa especial en el que quieren divulgar múltiples aspectos de este gran invento del siglo XX. El ciclo de conferencias comenzó con la impartida por Claudio Mirasso, catedrático de la UIB e investigador del IFISC, titulada 50 años de un invento que ha cambiado nuestras vidas, en la que explicó los fundamentos científicos del láser, de su tecnología; así como sus aplicaciones presentes y posibilidades de futuro.

Y si lo que conocemos es sorprendente, lo que está a punto de llegar entra en el territorio de la ciencia ficción. Según este investigador no quedan muchos años para lograr la fusión nuclear. La instalación NIF (National Ignition Facility) es un gran proyecto de EEUU que posee 192 haces de luz enfocados hacia un punto mínimo. La focalización de toda esa energía en un diámetro inferior a un cabello alcanzaría temperaturas de 100 millones de grados -como en el interior de una estrella- y sería capaz de liberar en la miniexplosión instantánea una cantidad ingente de energía como para alumbrar a todo un país. ¿Quién nos dice que no será el láser la fuente de energía inagotable y limpia que estamos buscando?

Por otra parte, la posibilidad de focalizar el haz más y mejor está mejorando la capacidad de almacenamiento de la información. Según Mirasso, la fecha en que podamos tener en un disco de ordenador todas las películas de la historia del cine en alta definición está a la vuelta de la esquina. Otro de los campos menos conocidos del láser es el que está relacionado con la nanotecnología. El origen de todas estas aplicaciones son las pinzas ópticas conformadas por un haz de rayo láser fuertemente enfocado, que produce un área de máxima intensidad y con la energía suficiente para atrapar una partícula de materia y mantenerla inmóvil en el punto de enfoque de la luz.

Fueron desarrolladas en 1986 por Ashkin y sus colaboradores y, desde entonces, gracias a la incorporación de diversos tipos de haces de luz se han perfeccionando, por lo que se cuenta con múltiples técnicas de manipulación óptica muy avanzadas. Por ejemplo, estas pinzas se han utilizado para examinar la cantidad de fuerza necesaria para estirar y enrollar moléculas individuales de ADN. ¿Cómo podríamos denominar a comienzos del siglo XXI a este ‘invento en busca de una aplicación’?
Cortesía elmundo.es

Física

Los ocho descubrimientos de la física que han cambiado nuestra mente

Desde el descubrimiento de una extraña forma de antimateria y la experimentación con nudos de luz hasta, por supuesto, la recreación de un pequeño Big Bang en el LHC, el mundo de la física, tan lejano para la mayoría de nosotros, ha aumentado su popularidad en los últimos meses con una serie de asombrosos y desconcertantes descubrimientos. Estos son algunos de los hallazgos más impactantes que han trastocado nuestra mente y que, posiblemente, cambiarán en un futuro no muy lejano la forma en la que conocemos el mundo:
1. La recreación del Big Bang en el LHC: Indudablemente, es una de grandes noticias del año. La ciencia abrió el pasado martes una puerta a un grado superior de conocimiento al recrear en el Centro Europeo de Investigaciones Nucleares (CERN) un pequeño Big Bang de laboratorio. El acelerador de partículas LHC, conocido como la «máquina de Dios», consiguió colisionar haces de protones a una velocidad 3,5 veces superior de la alcanzada nunca, desatando un proceso de energía de 7 TeV (teravoltios). Este experimento, posiblemente el mayor del siglo, puede permitirnos conocer en un par de años nuevos datos sobre cómo se originó el Universo y cómo está compuesta la materia.

2. La «sopa caliente» después del Big Bang:
Físicos del Laboratorio Nacional de Energía de Brookhaven, en Nueva York, lograron el pasado mes de febrero crear por primera vez una especie de «sopa» de materia250.000 veces más caliente que el centro de nuestro Sol -una temperatura absolutamente infernal- y que reúne condiciones similares a las que se produjeron justo después del Big Bang, la gran explosión que dio origen al Universo. Es la materia más caliente nunca creada en laboratorio. El experimento se logró haciendo chocar en un acelerador de partículas llamado Relativistic Heavy Ion Collider (RHIC), un hermano pequeño del europeo LHC, el núcleo de partículas de oro a velocidades super rápidas, de forma que se derrían los protones.
3. Los anillos de Borromeo:
Usando átomos de litio, un grupo de científicos de la Rice University en Houston (EE.UU.) ha recreado un antiguo símbolo matemático que se había visto ya en el siglo II en el arte budista afgano. El símbolo, llamado los anillos o el nudo de Borromeo, representan tres anillos unidos entre sí. Si alguno de ellos fuera retirado, el resto también se separaría. Los físicos ya habían predicho que las partículas deben ser capaces de formar esta misma disposición, pero nadie había sido capaz de demostrarlo hasta ahora. El experimento que lo confirma, anunciado el pasado mes de diciembre, llega cuarenta años después de que la teoría fuera formulada.

4. La luz curva la materia:
Es fácil comprobar cómo la materia curva la luz, pero es mucho más raro encontrar el caso contrario, que sea la luz la que curve la materia. Hace tan sólo unos días, investigadores de la Universidad de Michigan (EE.UU.) comprobaron cómo cintas planas de nanopartículas -pedacitos de materia la mil millonésima parte de un metro de largo- expuestas a la luz se doblaban en espirales. Los resultados pueden ayudar a los ingenieros a diseñar nuevos compontenes para la óptica y la electrónica.
5. Un paso hacia la fusión nuclear:

La fusión nuclear - la fusión de núcleos atómicos que sucede dentro de las estrellas - es un objetivo buscado desde hace mucho tiempo en la Tierra. Si los científicos consiguen semejante hazaña, podríamos obtener una poderosa fuente de energía prácticamente inagotable y con muy pocas consecuencias ambientales. Un equipo de físicos logró un paso más hacia este objetivo en enero cuando anunciaron que habían construido un imán de levitación que recrea algunas de las condiciones que se creen necesarias para la fusión. Al suspender un imán gigante en forma de donut en el aire, los investigadores fueron capaces de controlar el movimiento de un gas extremadamente caliente de partículas cargadas dentro de la cámara exterior del imán. La densidad de este gas está cerca de lo que se necesita para la fusión nuclear, según los investigadores de la Universidad de Columbia.

6. Una nueva partícula de antimateria:
El equipo internacional de científicos que estudia colisiones de alta energía de iones de oro en el Relativistic Heavy Ion Collider (RHIC) anunció a principios de marzo que había conseguido encontrar algo excepcional: la forma más extraña y éxotica de antimateria nunca vista hasta ahora, una antipartícula que podría haber existido en los primeros momentos del Big Bang. Se trata del antihipertritón, el núcleo del antihipertritio, que contiene un antiprotón, un antineutrón y una antipartícula lambda. Para conseguir este logro, los investigadores provocaron el choque de iones de oro en el colisionador.

7. Nudos hechos con luz:
¿Es posible hacer nudos con rayos de luz? La respuesta es sí. Un equipo de físicos de las universidades de Bristol, Glasgow y Southampton, en el Reino Unido, ha sido el responsable. La luz puede viajar en línea recta, pero a veces se retuerce en nudos. Los investigadores utilizaron un holograma controlado por ordenador para hacer girar haces de luz láser. Los hologramas fueron diseñados recurriendo a la teoría de los nudos -una especialidad de la matemática abstracta inspirada por los nudos que se producen en cordones y cuerdas-. Entender cómo controlar la luz de esta forma tiene implicaciones importantes para la tecnología láser utilizada en una amplia gama de industrias.

8. Un enredo fantasmal:
Una de las más extrañas predicciones de la teoría de la mecánica cuántica es que las partículas pueden quedarse «enredadas» incluso después de haber sido separadas en el espacio, de forma que cuando una acción se realiza sobre una partícula, la segunda partícula responde de inmediato. En junio de 2009, los físicos midieron por primera vez un nuevo tipo de sistema, dos pares separados de partículas que vibran.

Además de este listado, existe otro descubrimiento que, de momento, se queda tan sólo en una pregunta pero que, de confirmarse, podría suponer el más importante en muchos años en el mundo de la Física, un hallazgo que daría la vuelta por completo a los parámetros científicos que manejamos ahora. Un equipo de científicos, entre los que se encuentran investigadores de la Universidad de Florida (EE.UU.), ha encontrado la que puede ser la primera partícula de materia oscura. Las pruebas aún no son concluyentes, pero sí muy esperanzadoras. El detector CDMS (Cryogenic Dark Matter Search), construido en las profundidades de la mina Soudan, una antigua explotación de hierro en Minnesota, captó dos posibles partículas de este tipo, también conocidas como WIMPS, pero hay una oportunidad entre cuatro de que estas partículas sean simplemente «ruido de fondo».

_____________________________________________________________________________________________

Cortesía ABC, España

Física

Confirmado: Einstein tenía razón

Muchos experimentos han demostrado antes que Albert Einstein tenía razón, pero ninguno ha sido tan preciso y absolutamente minucioso como éste. Mientras que pruebas en aviones y cohetes han confirmado que la gravedad hace que el reloj marche más lentamente -una importante predicción dentro de la teoría de la relatividad-, un nuevo experimento en un interferómetro atómico, un instrumento que mide con gran precisión longitudes de onda de la luz, ha sido capaz de medir esta lentitud de una forma 10.000 veces más exacta. ¿El resultado? Como era de esperar, que el genio de origen alemán estaba en lo cierto.
«Los resultados vuelven a demostrar que las teorías de Einstein describen el mundo real», afirma con sencillez Holger Müller, profesor de física en la Universidad de Berkeley en California (EE.UU.). «Este experimento demuestra que la gravedad cambia el curso del tiempo, un concepto fundamental de la teoría de Einstein», afirma Müller. El fenómeno se puede comprobar gracias a una característica de los rayos de luz conocida como corrimiento hacia el rojo, ya que las oscilaciones de las ondas de luz van más lentas y se vuelven más rojas con la influencia de la gravedad. El proceso es muy parecido, por ejemplo, al paso de una ambulancia. Cuando el vehículo se acerca, el sonido de su sirena parece más agudo; cuando se aleja, más grave. De la misma forma, cuando la luz se aleja tiende al rojo, y cuando se acerca, al azul.
Una décima de milímetroEn el experimento, publicado esta semana en la revista Nature, los científicos utilizaron átomos de cesio que pueden representarse en ondas de materia que oscilan 3×1025 veces por segundo, una barbaridad de 30 millones de miles de millones de miles de millones de veces por segundo. Un láser impulsa el átomo una décima de milímetro, dándole un pequeño impulso fuera de su campo gravitacional de la Tierra. En otra situación, el átomo permanece inmóvil dentro de la gravedad de la Tierra. Aquí el tiempo pasa más despacio. Las mediciones realizadas por los científicos fueron 10.000 veces más exactas que las practicadas hace treinta años con dos relojes de hidrógeno, uno situado en la Tierra y otro enviado en un cohete a una altura de 10.000 kilómetros en el espacio.
Lejos de ser una simple teoría, la investigación tiene importantes implicaciones para los sistemas de navegación GPS y la precisión de los relojes, entre otros aspectos. «Si utilizamos nuestros mejores relojes, con una precisión de 17 dígitos, en los satélites de posicionamiento global, podemos determinar la posición al milímetro», explica el científico norteamericano Steven Chu, premio Nobel de Física en 1997. «Pero levantar un reloj un metro produce un cambio en el dígito 16. Así que, para tener relojes aún más exactos, necesitamos conocer mejor la influencia de la gravedad».
Pero el experimento, según los investigadores, demuestra, por encima de todo, «una visión profunda de Einstein, que la gravedad es una manifestación de la curvatura del espacio y el tiempo, uno de los grandes descubrimientos de la humanidad»
_____________________________________________________________________________________________
Cortesía de ABC, España

Física

Físicos británicos logran hacer nudos con rayos de luz

La remarcable hazaña de hacer nudos con rayos de luz ha sido conseguida por un equipo de físicos de las universidades de Bristol, Glasgow y Southampton, en el Reino Unido, según publica esta semana Nature Physics. Entender cómo controlar la luz de esta forma tiene implicaciones importantes para la tecnología láser utilizada en una amplia gama de industrias.
El doctor Mark Dennis de la Universidad de Bristol y autor principal del estudio explica que en un rayo de luz, «el flujo de luz a través del espacio es parecido al agua que discurre por un río». Aunque a menudo fluye en una línea recta -caso de un puntero o una linterna- la luz puede igualmente «fluir en forma de remolinos y torbellinos, creando en el espacio líneas denominadas vórtices ópticos. A través de esas líneas, la intensidad de la luz es cero (negro). Toda la luz que nos rodea está llena de esas líneas oscuras, incluso aunque no podamos verlas».
Los vórtices ópticos pueden ser creados con hologramas que dirigen el flujo de luz. En el presente estudio, el equipo diseñó hologramas recurriendo a la teoría de los nudos -una especialidad de la matemática abstracta inspirada por los nudos que se producen en cordones y cuerdas-. Mediante estos hologramas especialmente diseñados fueron capaces de crear nudos en vórtices ópticos.
Esta nueva investigación demuestra una aplicación física para una rama de las matemáticas considerada hasta ahora completamente abstracta, informa Science Daily. «El sofisticado diseño del holograma requerido
por la demostración experimental de la luz anudada muestra un control óptico avanzado, que sin duda podrá ser empleado en futuros dispositivos láser».
_____________________________________________________________________________________________________________

Cortesía de ABC, España

Física

Científicos logran por primera vez mezclar el agua y el aceite

Un grupo de investigadores estadounidenses ha conseguido hacer realidad el viejo sueño de la física de los líquidos, algo que parecía imposible: mezclar el agua y el aceite. Y lo ha hecho mediante el uso de un catalizador. Al mismo tiempo, los científicos han logrado acelerar las reacciones en esa mezcla, lo que ayudaría a optimizar las técnicas de refinamiento de biocombustibles, según indican en un estudio publicado por la revista Science.
Según ha explicado el científico argentino Daniel Resasco, profesor de ingeniería de materiales químicos y biológicos de la Universidad de Oklahoma, la mezcla había sido imposible hasta ahora.
«A diferencia de los combustibles comunes que sólo contienen componentes hidrofóbicos, los biocombustibles contienen compuestos oxigenados como los aldehídos, alcoholes y ácidos que son muy solubles en agua», señala Resasco. «La novedad es que estas nanopartículas que hemos desarrollado son capaces no sólo de estabilizar emulsiones agua-aceite y localizarse en la interfase (el punto de contacto entre los dos materiales), sino también de catalizar reacciones».
Más económico y efectivoSegún el científico, debido a que tienen dos «caras», una hidrofílica y otra hidrofóbica, los llamados «nanohídridos» que han desarrollado pueden catalizar reacciones en el agua y otras en el aceite. «De esa manera, se eliminan muchos pasos en el proceso de mejoramiento de los biocombustibles», ha indicado.
El equipo dirigido por el ingeniero Steven Crossley, de la Universidad de Oklahoma, preparó un grupo especial de nanopartículas mezclando nanotubos hidrofóbicos con óxido de sílice, que es hidrofílico. Esta combinación logró que las nanopartículas se unieran en la interfase, entre el aceite y el agua. Al utilizar paladio como catalizador metálico en las nanopartículas, los científicos pudieron medir la reacción del catalizador. Según Resasco, el proceso permite la conversión simultánea de todos los productos oxigenados de una manera más económica y efectiva.
____________________________________________________________________________________________________________
Cortesía de ABC, España

Física

Iniciar sesión

Ingrese el e-mail y contraseña con el que está registrado en Monografias.com

   
 

Regístrese gratis

¿Olvidó su contraseña?

Ayuda

film izle Home Design Spielaffe sesso video giochi