Participaciones en el XLI Carnaval de la Física

A continuación tenéis la lista de participaciones que están llegando al XLI Carnaval de la Física, cuya temática en esta ocasión es las misteriosas y polémicas: Materia Oscura y Energía Oscura, pero recordad que no es un requisitos que se trate de ese tema así que estad atentos porque habrá mucha variedad en los aportes. 

Este Carnaval recién empieza pero ya llegan algunos aportes, estaré actualizando esta entrada diariamente así que estad atentos y ¡No os perdáis ninguno!  

El día 28 de Abril se publicará la lista definitiva.

1. Aquí abajo todos flotan…

@ihateberries estrena esta edición del carnaval a través de su blog @molesybits, cuya entrada tiene un titulo muy apropiado, descubre de que se trata el principio de Arquímides y su funcionamiento en este océano de aire que nos rodea, ademas de contar con un vídeo explicativo de un excelente programa de televisión que incluye una rata gigante… No os lo podéis perder..!! 
 
 
@Ununcuadio logra una combinación perfecta entre Superhéroes, Supervillanos, Superpoderes y la Ciencia, os lo recomiendo encarecidamente…!! 
Los superhéroes tienen dos identidades para despistar a los supervillanos (a excepción de Iron Man claro…). Salvo quizá Batman, el resto de superhéroes mantienen los superpoderes aunque no tengan puesto el equipo de faena, así que en cierta forma son superhéroes las 24 horas del día. Y tanto en los comics como en la vida real existen ciertos elementos de este basto Universo que pueden tener “Superpoderes”,  Y los Fluidos supercríticos (SCF) no son la excepción, debido a que si tienen o no puesto su traje de combate de igual manera podemos aprovechar sus “superpoderes”, y así nos ahorramos muchos problemas. Descubre esta nueva aventura en compañía de unos verdaderos superhéroes… Los Fluidos Supercríticos..!! 

3. Stern y Gerlach – El experimento que cambio el curso de la Física

@altatoron nos lleva unos cuantos años hacia el pasado, a conocer la historia de un par de físicos que lograron cambiar el curso de la Física gracias a su ferviente perseverancia, un poco de suerte y un par de cigarrillos baratos. Adentraros en la historia de Otto Stern y Walter Gerlach dos físicos con mucha convicción y suerte, juntos lograron llevar a cabo un experimento que literalmente cambio el curso de la Física y la encausaron a lo que es ahora, el experimento fue la primera verificación experimental de las predicciones de la teoría cuántica. Con él, la física cuántica pasó, de ser un conjunto de recetas que trataba de explicar el extraño mundo microscópico, a ser una verdadera teoría física, capaz de hacer predicciones que eran verificadas experimentalmente.

4. Explicando la materia oscura a un estudiante de derecho (o a cualquiera que no sea astrofísico)

@astrosalpimien nos explica en esta oportunidad en que consiste la materia oscura, tomando como base la rotación de las galaxias espirales que de hecho fueron las primeras en el que se detectó (o mejor dicho, no se detectó) la materia oscura. Con palabras sencillas, un vídeo de Sheldon Cooper y con un mínimo de detalles técnicos seguramente comprenderás fácilmente que es la materia oscura y como es que sabemos que esta allá fuera aunque no podamos verla. Como el titulo lo indica no tienes que ser un físico o un astrofísico para poder comprenderlos… Así que ¿Qué estáis esperando?… Leed, leed y leed…!!

5. El Principio del Universo

@Monzonete nos presenta un vídeo de aproximadamente 3 minutos de duración en el  que se nos explica clara y muy sencillamente que paso después del Big Bang, el científico realizador del vídeo es Tom Whyntie. Realmente vale la pena verlo.

6. Explicando la materia oscura… a cualquiera que no sea astrofísico II: Materia oscura en el universo

@Astrosalpimien se hace presente una vez mas en el Carnaval y en esta ocasión nos presenta la segunda parte de su muy interesante primera entrada: “Explicando la materia oscura… a cualquiera que no sea astrofísico”. En su entrada nos da un recorrido por fenómenos astrofísicos en los que es necesario introducir un término adicional de materia oscura a la materia ordinaria para poderlos explicar, incluyendo las Galaxias Elípticas, las Galaxias Espirales, los Cúmulos de Galaxias, las Lentes Gravitatorias, etc. Si no eres astrofísico y te gusta el espacio, esta es la entrada que tienes que leer… 

7. La central nuclear y cómo tener una en casa

@Roskiencia nos presenta una excelente entrada sobre las Centrales Nucleares y como es que funcionan, la Fisión Nuclear y ademas nos enseña que construir nuestra propia Central Nuclear no es nada difícil, y la podemos tener hasta en la sala de nuestra casa… Yo no se que vais a hacer vosotros, pero yo empiezo a buscar un poco de Uranio 235.

8. El principio de Fermat, los extraterrestres y el pelo en el pechete

@Cuantozombi y su increíble originalidad ha echo de las suyas otra vez, esta vez con la ayuda de Fermat, donde nos explica un extracto del relato La historia de tu vida, de Ted Chiang… Una divertidisíma explicación que sin lugar a dudas simplemente os encantará…

9. Una breve historia de casi todo

Mi buen amigo @CuantosyCuerdas estrena sección en su Blog con una muy buena reseña sobre un libro que todos deberíamos leer: “Una breve historia de casi todo”,  Bill Bryson (el autor del libro) nos da un recorrido científico que empieza desde el principio del Universo mismo hasta nuestros días, un libro que simplemente te cautivara… Pero si aun así dudáis de mi, echadle un vistazo a la completísima reseña que @CuantosyCuerdas nos presenta, no os arrepentiréis, os lo aseguro…

10. Cine y bichos: Erin Brockovich

@ManoloSanchezA nos explica en su blog que es exactamente el Cromo Hexavalente y sus utilidades practicas, ademas de servir como tema central en una reconocida película biográfica llamada “Erin Brockovich”… Si os gusta la Física y la Química debéis  leerla… 

11. Superfluidez y condensación de Bose – Einstein

@AdrianMaciaRey nos presenta en esta ocasión un tema que helaría a cualquiera…. Literalmente… Como protagonistas tenemos los  gases a temperaturas extremadamente bajas, cercanas al cero absoluto y de alguno de los extraordinarios fenómenos que se dan en estas condiciones extremas. Y como nos sugiere Adrian coged un abrigo antes de partir… 

12. La materia y la energía oscura, una primera aproximación

Araceli Giménez Lorente en su Blog HIGH ABILITY DIMENSION nos habla de forma muy concreta acerca de la que posiblemente seria la materia y energía oscura… Ademas, al final podéis apreciar un muy buen documental sobre el tema… 

13. Humor Físico III, Ángeles en un alfiler

Y Araceli Giménez Lorente nos regala una verdadera joya en otro blog, en esta ocasión en “El mundo de las Ideas”, me ha encantado y os la recomiendo encarecidamente… Un ejemplo de que nunca debemos dejar que nos “enseñen” a pensar… 

Presentación de la XLI edición del Carnaval de la Física

Hoy tengo el gran honor de anunciar que la que sera la XLI edición del Carnaval de la Física estará siendo albergada por este mes de Abril en el presente Blog. Si aún no sabéis de qué se trata esta iniciativa, no os asustéis,  a continuación os explicare que tenéis que hacer para poder participar, y de verdad espero que lo hagáis, porque es muy fácil y juntos aprenderemos muchas cosas nuevas.

El Carnaval de la Física se celebra mensualmente desde el 30 de noviembre del 2009 cuando fue creado por la gente del Blog Gravedad cero y cada mes se aloja en un Blog diferente. En esta ocasión el testigo pasa a mi de parte del genial “Cuantos y Cuerdas”.

Para los que queráis participar, el único requisito es publicar en su propio blog hasta el día 25 de Abril del año en curso un texto que sea lo más divulgativo y didáctico posible sobre un tema que tenga alguna relación con el mundo de la física. No es necesario hablar de astrofísica sino que la entrada puede tratar, por ejemplo, de la explicación de un fenómeno físico, del uso de nuevos materiales, de física teórica  meteorología, de historia de la física, pero también de una poesía, una pieza de teatro, de música que hable de la relación entre física y otros ámbitos del conocimiento, cualquier cosa que os podáis imaginar pero siempre que tenga relación con la física.

En vuestra entrada debéis indicar que participáis en la XLI edición del Carnaval de la Física, mencionar el Blog anfitrión y dirigir mediante un enlace a él (en este caso este Blog “El Factor Ciencia” algo así como “Esta entrada participa en la XLI edición del Carnaval de la Física, alojado en esta ocasión en el blog El Factor Ciencia” y no os olvidéis de enlazar con mi Blog. A continuación tenéis que comunicármelo, para lo cual hay dos maneras posibles:

  • Escribirme un e-mail a: elfactorciencia@gmail.com
  • Mandar un Tuit a mi cuenta: @CienciaBlog 

Según normas del carnaval no se admite como forma de comunicación dejar un comentario en el Blog anfitrión. Por lo que debéis enlazarme a vuestra contribución. La fecha tope de envió de vuestras entradas es el 25 de Abril y el día 30 publicaré una entrada con todas las contribuciones y un pequeño resumen, aunque iré publicando y actualizando las entradas que me vayáis mandando. Recordaros que se puede participar con más de una entrada, de hecho tantas como queráis, así que no esperéis tanto para hacerme trabajar.

Ahora solo me falta sugerir una temática para vuestras contribuciones pero recordad que podéis hacerla sobre lo que vosotros querías. Lo he pensado bastante y nada me gustaría mas que una contribución que este relacionada con la Materia Oscura y la Energía Oscura, que hemos echo para detectarlas, que sabemos sobre ellas, hasta donde hemos llegado para comprenderlas y a donde llegaremos en un futuro cercano. Pero recordad que es solo una sugerencia, así que no tenéis excusa para participar y si no lo habéis echo en ediciones anteriores os invito a que os animéis a hacerlo en esta oportunidad, ya veis que es muy fácil.

Saludos y nos vemos en el Carnaval, que os estaré esperando.

Los mejores programas para Astrónomos Aficionados

La inmensidad del Universo no se puede comparar absolutamente con nada, seguramente desde que eramos tan solo unos niños nos enseñaron que el Cosmos es prácticamente infinito y que nuestro planeta es tan solo un diminuto punto en un inacabable mar de sorprendentes monstruos. Concebir la idea de que exista algo que sea tan grande como para que sea prácticamente imposible siquiera imaginárnoslo es algo que deja pasmado a cualquiera.

La belleza y complejidad del Universo es impresionante. Seguramente usted, querido lector, al igual que yo, nos hemos encontrado alguna noche oscura y tranquila ante el hermoso baile celestial de un sin fin de brillantes gigantes. Pocas cosas en la vida se pueden comparar al sentimiento de asombro e incontenible curiosidad que llena nuestros adentros al ser testigos de una de las mas grandes maravillas del Universo.

Desde la antigüedad el hombre sintió la necesidad de saber mas acerca de su entorno cercano y también de lo mas lejano.  En nuestros días saciar esa necesidad e increíble curiosidad esta al alcance de unos cuantos clics, pero para los que preferimos pasar la noche en algún lugar solitario y lejano de la contaminación lumínica de las enormes ciudades es mucho mas satisfactorio observar las estrellas y cuerpos celestes sin otro intermediario que un telescopio o unos prismáticos (conocidos también como binoculares) y descubrir por nosotros mismos los secretos del Cosmos.

Y para todos los que comparten conmigo la afición a ver estrellas desde el claro de alguna colina o el ultimo piso de un rascacielos o desean iniciar su camino en esta afición seguramente les harán falta algunas cartas astronómicas para poder localizar el cuerpo celeste que desean observar o por lo menos saber que es exactamente lo que están viendo. Así que aquí tratare los temas concernientes a varios programas que en el transcurso de mi vida he utilizado y que me han ayudado grandemente cuando no tengo conexión a la Internet.

CELESTIA

Es un software planetario gratuito, de libre distribución bajo licencia GNU por lo que es completamente gratis, que nos posibilita explorar el Universo en tres dimensiones, simular viajes a través de nuestro sistema solar, viajar a más de 100.000 estrellas de la vía láctea o incluso fuera de nuestra galaxia. Celestia viene con un catálogo grande de estrellas, de galaxias, de planetas, de lunas, de asteroides, de cometas, y de naves espaciales. Si éste no es bastante, puedes descargar (e incluso diseñar) gran cantidad de nuevos objetos, reales o imaginarios, y agregarlos fácilmente

Ventajas: 

  • Puedes utilizarlo en cualquier computadora sin importar el rendimiento (es un programa muy ligero).
  • Puedes dividir la pantalla hasta en 32 secciones para seguir diferentes objetos
  • Puedes configurar el tiempo a placer, así que puedes ver eclipses de siglos pasados o bien los del próximo milenio.
  • Puedes tomar una captura de pantalla.
  • Tiene animaciones en 3D.
  • Puedes tomar vídeos de los desplazamientos en 3D.
  • Hay versiones para Windows, Mac y Linux.

Desventajas:

  • Si necesitas información extra sobre algún objeto eres dirigido a una pagina web con el contenido, algo que para mi gusto no es grato.
  • Es un poco difícil de controlar pero nada del otro mundo.

Clic sobre la Imagen para ir al sitio de oficial de descarga.

WINSTARS

Como su nombre lo indica es un mapa de estrellas, simplemente mi favorito tanto por su manejabilidad como por su capacidad de controlar la mayoría de las monturas disponibles en el mercado, por lo que solo debes alinear bien tu telescopio introducir las coordenadas o simplemente seleccionar el objeto que quieres ver y el programa hará el resto.

Ventajas:

  • Tiene una base de datos de 2.500.000 de estrellas.
  • Una dirección de observación fácil de utilizar.
  • Interfaz 3D para mayor realismo.
  • Información detallada acerca de cada objeto.
  • Impulsa una amplia gama de telescopios
  • Tiene una versión de pago muy barata.
  • Cuenta con perspectiva desde la superficie de la Tierra en tiempo real de todos los objetos.

Desventajas:

  • Tiene algunas funciones bloqueadas solo para usuarios de pago pero con una licencia de educación gratuita se pueden activar.
  • La visualización en modo Planetario no es cómoda.

Clic sobre la imagen para ir a la pagina Oficial de Descarga.

 

 

STELLARIUM

Stellarium es un programa gratuito de código abierto. Es capaz de mostrar un cielo realista en 3D, tal como se aprecia a simple vista, con binoculares o telescopio. Se está usando en proyectores de planetario. Sólo especifica las coordenadas y listo. Es un programa que me encanta por sus gráficos y perspectivas visuales pero que algunas veces tiende a confundir en cuanto a coordenadas. Lo he utilizado en infinidad de ocasiones y es un programa que vale la pena probar.

Ventajas:

  • Cuenta con constelaciones de doce culturas diferentes.
  • Vía Láctea muy realista.
  • Catalogo con mas de 210 millones de estrellas.
  • Un zoom muy intuitivo.
  • Esta en español.
  • Posee control del telescopio.
  • Proyección de ojo de pez para las cúpulas del planetario.
  • Simulaciones de estrellas fugaces, eclipses y supernovas.
  • Puede personalizarse increíblemente.
  • Es gratis y de licencia GNU.
  • Disponible para Linux, Mac, Windows.

Desventajas:

  • Tiende a ir un poco lento en ordenadores poco potentes.
  • El control de tiempo tiende a fallar con lapsos muy grandes de tiempo.
  • La interfaz tiende a ser demasiado técnica pero entendible.

Clic sobre la imagen para ir a la pagina Oficial de descarga.

Los programas anteriores son muy buenos y completamente gratis…!!

Ademas aprovecho el espacio para pedirles disculpas por no actualizar seguido el Blog, quizás por estar descansando pero últimamente he estado enfermo,  espero reponerme pronto y regresar con todo dentro de unos cuantos días  Mientras tanto dedicare todo el tiempo que pueda a terminar con el diseño y elaboración del Webcomic que tengo pendiente con ustedes.

Saludos🙂

[“Esta entrada participa en la XL edición del Carnaval de la Fisica, alojado en esta ocasión por el increible Blog de  Cuantos y Cuerdas“]

Una Estrella de la Muerte sin Ciencia Ficción

La Estrella de la Muerte es un arma colosal, del tamaño de una luna entera. Con un disparo a quemarropa contra el indefenso planeta Alderaan, patria de la princesa Leia, la Estrella de la Muerte lo incinera y provoca una titánica explosión que lanza restos planetarios a través del sistema solar.

El gemido angustioso de mil millones de almas crea una perturbación en la Fuerza que se siente en toda la galaxia. Pero ¿es realmente posible el arma Estrella de la Muerte de la saga La guerra de las galaxias? ¿Podría un arma semejante concentrar una batería de cañones láser para vaporizar un planeta entero? ¿Qué pasa con los famosos sables de luz que llevan Luke Skywalker y Darth Vader, que pueden cortar acero reforzado pese a que están hechos de haces luminosos? ¿Son las pistolas de rayos, como los fáseres en Star Trek, armas viables para futuras generaciones de soldados y oficiales de la ley?

Diagrama esquemático de la Estrella de la Muerte

Millones de espectadores que vieron La guerra de las galaxias quedaron estupefactos ante estos asombrosos y originales efectos especiales. Algunos críticos, no obstante, los despreciaron; dijeron que todo eso era pura diversión pero evidentemente imposible. Las pistolas de rayos que destruyen planetas del tamaño de la Luna son imposibles, como lo son las espadas hechas de haces luminosos solidificados. Esta vez, el maestro de los efectos especiales, había ido demasiado lejos.

Aunque quizá sea difícil de creer, el hecho es que no hay ningún límite físico a la cantidad de energía bruta que puede acumularse en un haz de luz. No hay ninguna ley de la física que impida la creación de una Estrella de la Muerte o de sables luminosos. De hecho, haces de radiación gamma que destruyen planetas existen en la naturaleza. La titánica ráfaga de radiación procedente de un lejano estallido de rayos gamma en el espacio profundo crea una explosión solo superada por el
propio Big Bang. Cualquier planeta que desafortunadamente esté dentro de la diana de un estallido de rayos gamma será incinerado o reducido a pedazos o quizás menos que pedazos…

Ilustración de un estallido de rayos gamma.

LAS ARMAS DE RAYOS A TRAVÉS DE LA HISTORIA

El sueño de dominar haces de energía no es realmente nuevo, sino que está enraizado en la mitología y el folclore antiguos. El dios griego Zeus era famoso por arrojar rayos sobre los mortales. El dios nórdico Thor tenía un martillo mágico, Mjolnir, que podía desprender rayos, mientras que el dios hindú Indra era conocido por disparar haces de energía desde una lanza mágica. 

Pintura que ilustra al dios Zeus y el poder del rayo.

La idea de utilizar rayos como un arma práctica empezó probablemente con la obra del gran matemático griego Arquímedes, quizá el científico más importante de la Antigüedad, que descubrió una cruda versión del cálculo infinitesimal hace dos mil años, antes de Newton y Leibniz. Arquímedes sirvió en la defensa del reino de Siracusa en una batalla legendaria contra las fuerzas del general romano Marcelo durante la segunda guerra púnica, en el 214 a.C. Se dice que creó grandes baterías de reflectores solares que concentraban los rayos del Sol en las velas de las naves enemigas y las incendiaba. (Todavía hoy los científicos discuten sobre si esto era un arma de rayos practicable; varios equipos de científicos han tratado de repetir esta hazaña con diferentes resultados).

Funcionamiento de la estrategia de Arquímedes para derrotar a los romanos.

Las pistolas de rayos irrumpen en el escenario de la ciencia ficción en 1889 con el clásico de H. G. Wells La guerra de los mundos, en el que alienígenas procedentes de Marte devastan ciudades enteras disparando haces de energía térmica desde armas montadas en trípodes. Durante la Segunda Guerra Mundial, los nazis, siempre dispuestos a explotar los últimos avances en tecnología para conquistar el mundo, experimentaron con varias formas de pistolas de rayos, incluido un aparato sónico, basado en espejos parabólicos, que podía concentrar intensos haces de sonido. Las armas creadas a partir de haces luminosos concentrados pasaron a formar parte del imaginario colectivo con la película de James Bond Goldfinger, el primer film de Hollywood en el que aparecía un láser. (El legendario espía británico estaba tendido y sujeto con correas en una mesa metálica mientras un potente haz láser que avanzaba lentamente entre sus piernas iba fundiendo la mesa y amenazaba con cortarle por la mitad).

James Bond a punto de ser cortado a la mitad por un rayo láser.

Al principio, los físicos se mofaron de la idea de las pistolas de rayos que aparecían en la novela de Wells porque violaban las leyes de la óptica. De acuerdo con las ecuaciones de Maxwell, la luz que vemos a nuestro alrededor se dispersa rápidamente y es incoherente (es decir, es una mezcla de ondas de diferentes frecuencias y fases). En otro tiempo se pensaba que haces de luz uniformes, coherentes y concentrados, como los que encontramos en los haces láser, eran imposibles.

LA REVOLUCIÓN CUÁNTICA

Todo esto cambió con la llegada de la teoría cuántica. A comienzos del siglo XX estaba claro que aunque las leyes de Newton y las ecuaciones de Maxwell eran espectacularmente acertadas para explicar el movimiento de los planetas y el comportamiento de la luz, no podían explicar toda una clase de fenómenos. Fallaban estrepitosamente para explicar por qué los materiales conducen la electricidad, por qué los metales se funden a ciertas temperaturas, por qué los gases emiten luz cuando son calentados, por qué ciertas sustancias se hacen superconductoras a bajas temperaturas —todo lo cual requiere una comprensión de la dinámica interna de los átomos—. Había llegado el tiempo para una revolución. Doscientos cincuenta años de física newtoniana estaban a punto de ser superados, lo que anunciaba el nacimiento de una nueva física. 

En 1900 Max Planck, en Alemania, propuso que la energía no era continua, como pensaba Newton, sino que se daba en pequeños paquetes discretos llamados «cuantos». Tiempo después, en 1905, Einstein postuló que la luz consistía en estos minúsculos paquetes discretos, más tarde bautizados como «fotones». Con esta idea poderosa pero simple, Einstein fue capaz de explicar el efecto fotoeléctrico, por qué los metales que reciben luz emiten electrones.

Hoy, el efecto fotoeléctrico y el fotón forman la base de la televisión, los láseres, las células solares y buena parte de la electrónica moderna. La teoría de Einstein del fotón era tan revolucionaria que incluso Max Planck, normalmente un gran defensor de Einstein, no podía creerla al principio. Al escribir sobre Einstein, Planck dijo «que a veces pueda haber errado el blanco […] como por ejemplo, en su hipótesis de los cuantos de luz, no puede realmente alegarse en su contra». 

Y no podía faltar Einstein…

En 1913 el físico danés Niels Bohr nos dio una imagen del átomo completamente nueva, una imagen que se parecía a un sistema solar en miniatura. Pero a diferencia de lo que ocurre en un sistema solar en el espacio exterior, los electrones solo pueden moverse en órbitas o capas discretas alrededor del núcleo. Cuando los electrones «saltaban» de una capa a otra capa más interna con menor energía, emitían un fotón de energía. Cuando un electrón absorbía un fotón de energía discreta, «saltaba» a una capa más grande con más energía. Una teoría del átomo casi completa surgió en 1925 con la llegada de la mecánica cuántica y la obra revolucionaria de Erwin Schródinger, Werner Heisenberg y muchos otros. Según la teoría cuántica, el electrón era una partícula, pero tenía una onda asociada con ella, lo que le daba propiedades de partícula y de onda a la vez. La onda obedecía a una ecuación, llamada ecuación de onda de Schródinger, que permitía calcular las propiedades de los átomos, incluidos todos los «saltos» postulados por Bohr.

Antes de 1925 los átomos todavía eran considerados objetos misteriosos que muchos, como el filósofo Ernst Mach, creían que no podían existir. Después de 1925 se podía observar realmente la dinámica del átomo y predecir realmente sus propiedades. Esto significaba que si tuviéramos un ordenador suficientemente grande, podríamos derivar las propiedades de los elementos químicos a partir de las leyes de la teoría cuántica. De la misma forma que los físicos newtonianos podrían calcular los movimientos de todos los cuerpos celestes en el universo si tuvieran una  máquina de calcular suficientemente grande, los físicos cuánticos afirmaban que en teoría se podrían calcular todas las propiedades de los elementos químicos del universo. Si tuviéramos un ordenador suficientemente grande, también podríamos escribir la función de onda de un ser humano entero.

MÁSERES Y LÁSERES 

En 1953 el profesor Charles Townes de la Universidad de California en Berkeley y sus colegas produjeron la primera fuente de radiación coherente en forma de microondas. Fue bautizada como «máser» (las siglas de amplificación de microondas mediante emisión estimulada de radiación). El y los físicos rusos Nikolái Basov y Alexander Projorov ganarían el premio Nobel en 1964. Sus resultados fueron extendidos pronto a la luz visible, lo que dio nacimiento al láser. (Un fáser, sin embargo, es un aparato de ficción popularizado en Star Trek).

El primer Máser.

En un láser se empieza con un medio especial que transmitirá el haz láser, tal como un gas, un cristal o un diodo especial. Luego se bombea energía en este medio desde el exterior, en forma de electricidad, radio, luz o una reacción química. Este repentino flujo de energía se transmite a los átomos del medio, de modo que los electrones absorben la energía y saltan a las capas electrónicas más externas. En este estado excitado el medio es inestable.

Si se envía entonces un haz de luz a través del medio, los fotones incidirán en cada átomo y harán que se desexciten repentinamente, caigan a un nivel inferior y liberen más fotones en el proceso. Esto produce a su vez aún más electrones que liberan fotones, y por último se crea una cascada de átomos que colapsan, lo que libera repentinamente en el haz billones y billones de fotones.

La clave es que, para ciertas sustancias, cuando se produce esta avalancha todos los fotones están vibrando al unísono, es decir, son coherentes. (Imaginemos una hilera de fichas de dominó. Las fichas de dominó en su estado más bajo están tumbadas sobre la mesa. Las fichas en su estado bombeado de alta energía permanecen verticales, similares a los átomos excitados por bombeo en el medio. Si empujamos una ficha, podemos desencadenar un repentino colapso de toda esta energía de una vez, igual que en un haz láser).

Solo ciertos materiales «lasearán», es decir, solo en materiales especiales sucede que cuando un fotón incide en un átomo bombeado se emitirá otro fotón que es coherente con el fotón original. Como resultado de tal coherencia, en este diluvio de fotones todos los fotones vibran al unísono, creando un haz láser fino como un pincel. (Contrariamente al mito, el haz láser no permanece siempre fino como un pincel. Un haz láser dirigido a la Luna, por ejemplo, se expandirá poco a poco hasta que cree una mancha de algunos kilómetros de diámetro). Un sencillo láser de gas consiste en un tubo con helio y neón. Cuando se envía electricidad a través del tubo, los átomos se energizan. Entonces, si la energía se libera de golpe, se produce un haz de luz coherente. El haz se amplifica colocando espejos en cada extremo del tubo, de modo que el haz rebota de un lado a otro entre ambos. Un espejo es completamente opaco, pero el otro permite que escape una pequeña cantidad de energía en cada paso, de manera que sale un haz luminoso por dicho extremo. 

Esquema de un máser de hidrógeno.

Hoy día encontramos láseres en casi todas partes, desde las cajas registradoras de los supermercados a los ordenadores  modernos, pasando por los cables de fibra óptica que conectan con internet, las impresoras láser y los reproductores de CD. También se utilizan en cirugía ocular, o para eliminar tatuajes, e incluso en salones de belleza. En 2004 se vendieron en todo el mundo láseres por valor de más de 5.400 millones de dólares.

TIPOS DE LÁSERES 

Cada día se descubren nuevos láseres a medida que se encuentran nuevos materiales que pueden «lasear», y a medida que se descubren nuevas maneras de bombear energía al medio. 

La pregunta es: ¿son algunas de estas técnicas apropiadas para construir un láser suficientemente potente para alimentar una Estrella de la Muerte? Hoy hay una desconcertante variedad de láseres, dependiendo del material que «lasea» y de la energía que es inyectada en el material (por ejemplo, electricidad, haces intensos de luz, incluso explosiones químicas). Entre ellos:

  • Láseres de gas. Entre estos se incluyen los láseres de helio-neón, que son muy comunes y dan un familiar haz rojo. Son alimentados mediante ondas de radio o electricidad. Los láseres de helio-neón son muy débiles. Pero los láseres de dióxido de carbono pueden utilizase para moldear, cortar y soldar en la industria pesada, y pueden crear haces de enorme potencia que son totalmente invisibles.
  • Láseres químicos. Estos potentes láseres son alimentados por una reacción química, tal como un chorro ardiente de etileno y trifluoruro de nitrógeno, o NE,. Tales láseres son suficientemente potentes para ser utilizados en aplicaciones militares. Láseres químicos se utilizan en láseres del ejército de Estados Unidos, basados en tierra o en el aire, que pueden producir millones de vatios de potencia y están diseñados para disparar contra misiles de corto alcance en pleno vuelo. 
  • Láseres de excímero. Estos láseres también están alimentados por reacciones químicas, en las que con frecuencia interviene un gas inerte (por ejemplo, argón, kriptón o xenón) y flúor o cloro. Producen luz ultravioleta y pueden utilizarse para grabar minúsculos transistores en chips en la industria de semiconductores, o para cirugía ocular delicada. 
  • Láseres de estado sólido. El primer láser operativo construido consistía en un cristal de rubí de zafiro-cromo. Una gran variedad de cristales, junto con tulio y otros elementos químicos, soportará un haz láser. Pueden producir pulsos ultracortos de luz láser de alta energía. 
  • Láseres de semiconductor. Diodos, que normalmente se utilizan en la industria de semiconductores, pueden producir los haces intensos utilizados en la industria de corte y soldadura. También suelen encontrarse en las cajas registradoras de los supermercados para leer el código de barras de los productos. 
  • Láseres de colorante. Estos láseres utilizan colorantes orgánicos como medio. Son excepcionalmente útiles para crear pulsos ultracortos de luz, que con frecuencia solo duran billonésimas de segundo.

LÁSERES Y PISTOLAS DE RAYOS

Dada la gran variedad de láseres comerciales y la potencia de los láseres militares, ¿por qué no tenemos pistolas de rayos aptas para usar en combate o en el campo de batalla? Pistolas de rayos de uno u otro tipo parecen ser algo estándar en el armamento de las películas de ciencia ficción. ¿Por qué no estamos trabajando para crearlas? La simple respuesta está en la falta de una batería portátil. Se necesitarían baterías en miniatura que tuvieran la potencia de una enorme central eléctrica y pese a todo sean suficientemente pequeñas para caber en la palma de la mano. Hoy día la única manera de dominar la potencia de una gran central nuclear es construir una. Actualmente el aparato militar más pequeño que puede contener grandes cantidades de energía es una bomba de hidrógeno en miniatura, que podría destruir tanto a quien la lleva como al blanco.

Pistolas láser, de ser posibles serian mas pequeñas, creo…

Hay también un segundo problema: la estabilidad del material del láser. En teoría no hay límite a la energía que se puede  concentrar en un láser. El problema es que el material del láser en una pistola  de rayos manual no sería estable. Los láseres de cristal, por ejemplo, se sobrecalentarán y agrietarán si se bombea en ellos demasiada energía. Así, para crear un láser extraordinariamente potente, del tipo que pudiera vaporizar un objeto o  neutralizar a un enemigo, sería necesario utilizarla  potencia de una explosión. En tal caso, la estabilidad del material del láser no es una limitación, puesto que dicho láser solo se utilizaría una vez.

La manipulación de un láser requiere de mucho cuidado.

Debido a los problemas de crear una batería portátil y un material de láser estable, no es posible construir una pistola de rayos manual con la tecnología actual. Las pistolas de rayos son posibles, pero solo si están conectadas por cable a una fuente de alimentación. O quizá con nanotecnología podríamos ser capaces de crear baterías en miniatura que almacenen o generen energía suficiente para crear las intensas ráfagas de energía requeridas en un dispositivo manual. Actualmente, como hemos visto, la nanotecnología es muy primitiva. En el nivel atómico los científicos han sido capaces de crear dispositivos atómicos muy ingeniosos, pero poco prácticos, tales como un ábaco atómico y una guitarra atómica. Pero es concebible que a finales de este siglo o en el próximo la nanotecnología sea capaz de darnos baterías en miniatura que puedan almacenar esas fabulosas cantidades de energía.

Un rayo de luz no puede solidificarse ni detenerse.

Los sables de luz adolecen de un problema similar. Cuando se estrenó la película La guerra de las galaxias en los años setenta y los sables de luz se convirtieron en un juguete de éxito entre los niños, muchos críticos señalaron que tales artefactos nunca podrían hacerse. En primer lugar, es imposible solidificar la luz. La luz viaja siempre a la velocidad de la luz, no puede hacerse sólida. En segundo lugar, un haz luminoso no termina en medio del aire como los sables de luz utilizados en La guerra de las galaxias. Los haces luminosos se prolongan indefinidamente; un sable de luz real llegaría al cielo.

Esquema de un posible sable de luz “normal”.

En realidad, hay una manera de construir una especie de sable de luz utilizando plasma, o gas ionizado supercaliente. Pueden hacerse plasmas suficientemente calientes para brillar en la oscuridad y también cortar el acero. Un sable de luz de plasma consistiría en una vara delgada y hueca que sale del mango, como una antena telescópica. Dentro de este tubo se liberarían plasmas calientes que escaparían a través de pequeños agujeros situados regularmente a lo largo de la varilla. A medida que el plasma fluyera desde el mango hasta la varilla, y a través de los agujeros, crearía un tubo largo y brillante de gas supercaliente, suficiente para fundir el acero. Este aparato se suele conocer como una antorcha de plasma.

Lo mas parecido a un sable láser es una antorcha de plasma.

Así pues, es posible crear un dispositivo de alta energía que se parece a un sable de luz. Pero como sucede con las pistolas de rayos, sería necesario crear una batería portátil de alta energía. O bien se necesitarían largos cables que conectaran el sable de luz a una fuente de alimentación, o habría que crear, mediante la nanotecnología, una minúscula fuente de alimentación que pudiera suministrar enormes cantidades de potencia. De modo que aunque hoy es posible crear alguna forma de pistolas de rayos y sables de luz, las armas manuales que se encuentran en las películas de ciencia ficción están más allá de la tecnología actual.

ENERGÍA PARA UNA ESTRELLA DE LA MUERTE

Para crear un cañón láser Estrella de la Muerte que pueda destruir un planeta entero y aterrorizar a una galaxia, tal como el que se describe en La guerra de las galaxias, habría que crear el láser más potente que se haya imaginado jamás. Actualmente algunos de los láseres más potentes en la Tierra se están utilizando para producir temperaturas que solo se encuentran en el centro de las estrellas. En forma de reactores de fusión, algún día podrían dominar la potencia de las estrellas en la Tierra.

Reacción de Fusión.

Las máquinas de fusión tratan de imitar lo que sucede en el espacio exterior cuando se forma una estrella. Una estrella empieza como una enorme bola de gas hidrógeno, hasta que la gravedad comprime el gas y con ello lo calienta; las temperaturas llegan a alcanzar niveles astronómicos. En el interior profundo de un núcleo estelar, por ejemplo, las temperaturas pueden ser entre 50 millones y 100 millones de grados centígrados, suficientes para hacer que los núcleos de hidrógeno choquen unos con otros y formen núcleos de helio; en el proceso se libera una ráfaga de energía. La fusión del hidrógeno en helio, en la que una pequeña cantidad de masa se convierte en energía mediante la famosa ecuación de Einstein E = mc2, es la fuente de energía de las estrellas.

La Estrella de la Muerte y su fuente de poder.

Hoy día los científicos ensayan dos maneras de dominar la fusión en la Tierra. Ambas han resultado ser muchos más difíciles de desarrollar de lo esperado.

Fusión por confinamiento inercial 

El primer método se llama «confinamiento inercial». Utiliza los láseres más potentes en la Tierra para crear un pedazo de Sol en el laboratorio. Un láser de estado sólido de neodimio es idóneo para reproducir las temperaturas abrasadoras que solo se encuentran en el corazón de una estrella. Estos sistemas de láser tienen el tamaño de una gran fábrica y contienen una batería de láseres que disparan una serie de haces láser paralelos a través de un largo túnel. Estos haces láser de alta potencia inciden en una serie de pequeños espejos dispuestos alrededor de una esfera; los espejos concentran cuidadosamente los haces láser en una minúscula ampolla rica en hidrógeno (hecha de sustancias tales como deuteruro de litio, el ingrediente activo de una bomba de hidrógeno). La ampolla tiene normalmente el tamaño de una cabeza de alfiler y solo pesa 10 miligramos.

El golpe de luz láser incinera la superficie de la ampolla, lo que hace que la superficie se vaporice y comprima la ampolla. Cuando la ampolla colapsa se crea una onda de choque que llega al corazón de la ampolla y hace subir la temperatura a millones de grados, suficiente para fusionar los núcleos de hidrógeno en helio. Las temperaturas y presiones son tan astronómicas que se satisface el «criterio de Lawson», el mismo criterio que se satisface en las bombas de hidrógeno y en el corazón de las estrellas. (El criterio de Lawson establece que debe alcanzarse un rango específico de temperaturas, densidades y tiempo de confinamiento para desatar el proceso de fusión, sea en una bomba de hidrógeno, una estrella o en un reactor de fusión).

En el proceso de confinamiento inercial se liberan enormes cantidades de energía, y también neutrones. (El deuteruro de litio puede llegar a temperaturas de 100 millones de grados centígrados y una densidad veinte veces mayor que la del plomo). Los neutrones que se emiten desde la ampolla inciden en una capa esférica de material que recubre la cámara, y la capa se calienta. La capa calentada hace hervir agua y el vapor puede utilizarse para impulsar una turbina y producir electricidad.

El problema, no obstante, está en ser capaces de concentrar uniformemente una potencia tan intensa en una minúscula ampolla esférica. El primer intento serio de crear fusión por láser fue el láser Shiva, un sistema láser de veinte haces construido en el Laboratorio Nacional Lawrence Livermore (LLNL) en California, que empezó a operar en 1978. (Shiva es la diosa hindú de múltiples brazos, a los que imita el diseño del sistema láser). La actuación del sistema láser Shiva fue decepcionante, pero fue suficiente para demostrar que la fusión por láser es técnicamente posible. El sistema láser Shiva fue reemplazado más tarde por el láser Nova, con una energía diez veces mayor que la de Shiva. Pero el láser Nova tampoco consiguió una ignición adecuada de las ampollas. En cualquier caso, preparó el camino para la investigación actual en la Instalación Nacional de Ignición (NIF), cuya construcción empezó en 1997 en el LLNL.

Pero ni siquiera la máquina de fusión por láser de la NIF, que contiene los láseres más potentes de la Tierra, puede acercarse de momento al poder devastador de la Estrella de la Muerte de La guerra de las galaxias. Para construir tal aparato debemos buscar en otras fuentes de potencia.

Fusión por confinamiento magnético 

El segundo método que los científicos podrían utilizar para alimentar una Estrella de la Muerte se llama «confinamiento magnético», un proceso en el que un plasma caliente de hidrógeno gaseoso está contenido dentro de un campo magnético. De hecho, este método podría proporcionar realmente el prototipo para los primeros reactores de fusión comerciales. Hoy día, el proyecto de fusión más avanzado de este tipo es el Reactor Experimental Termonuclear Internacional (ITER).En 2006 un consorcio de naciones (incluidas la Unión Europea, Estados Unidos, China, Japón, Corea, Rusia y la India) decidió construir el ITER en Cadarache, al sur de Francia. Está diseñado para calentar hidrógeno gaseoso hasta 100 millones de grados centígrados. Podría convertirse en el primer reactor de fusión en la historia que genere más energía que la que consume. Está diseñado para generar 500 megavatios de potencia durante 500 segundos (el récord actual es 16 megavatios de potencia durante 1 segundo).

Logotipo de la ITER

El ITER debería generar su primer plasma para 2016 y estar plenamente operativo en 2022. Con un coste de 12.000 millones de dólares, es el tercer proyecto científico más caro de la historia (después del Proyecto Manhattan y la Estación Espacial Internacional). El ITER se parece a un gran donut, con enormes bobinas enrolladas alrededor de la superficie por cuyo interior circula hidrógeno gaseoso. Las bobinas se enfrían hasta hacerse superconductoras, y entonces se bombea en ellas una enorme cantidad de energía eléctrica, lo que crea un campo magnético que confina el plasma dentro del donut. Cuando este se alimenta con una corriente eléctrica, el gas se calienta hasta temperaturas estelares.

La razón de que los científicos estén tan excitados con el ITER es la perspectiva de crear una fuente de energía barata. El suministro de combustible para los reactores de fusión es agua de mar ordinaria, que es rica en hidrógeno. Sobre el papel al menos, la fusión puede proporcionarnos un suministro de energía inagotable y barato. Entonces, ¿por qué no tenemos ahora reactores de fusión? ¿Por qué se han necesitado tantas  décadas para hacer progresos si el proceso de fusión ya era conocido en la década de 1950? El problema reside en la enorme dificultad de comprimir el combustible hidrógeno de un modo uniforme. En las estrellas la gravedad comprime el hidrógeno en una esfera perfecta, de modo que el gas se caliente uniforme y limpiamente. En la fusión por láser de la NIF, los haces concéntricos de luz láser que incineran la superficie de la ampolla deben ser perfectamente uniformes, y es extraordinariamente difícil conseguir esta uniformidad.

En las máquinas de confinamiento magnético, los campos magnéticos tienen polos norte y polos sur; como resultado, comprimir el gas uniformemente en una esfera es extremadamente difícil. Lo mejor que podemos hacer es crear un campo magnético en forma de donut. Pero comprimir el gas es como estrujar un globo. Cada vez que se estruja el globo por un extremo, el aire infla alguna otra parte. Estrujar el globo uniforme y simultáneamente en todas direcciones es un reto difícil. Normalmente el gas caliente se escapa de la botella magnética, toca eventualmente las paredes del reactor y detiene el proceso de fusión. Por eso ha sido tan difícil estrujar el hidrógeno durante más de un segundo. A diferencia de la generación actual de centrales nucleares de fisión, un reactor de fusión no creará grandes cantidades de residuos nucleares. (Cada central de fisión tradicional produce cada año 30 toneladas de residuos nucleares de un nivel extremadamente alto. Por el contrario, el residuo nuclear creado por una máquina de fusión sería básicamente el acero radiactivo que quedaría cuando el reactor fuera finalmente desmantelado).

La fusión no resolverá por completo la crisis energética de la Tierra en un futuro cercano; según el francés Pierre-Gilles de Gennes, premio Nobel de Física, «Decimos que pondremos el Sol en una caja. La idea es bonita. El problema es que no sabemos cómo hacer la caja». Pero si todo va bien, los investigadores tienen esperanzas de que en menos de cuarenta años el ITER pueda allanar  el camino para la comercialización de la energía de fusión, energía que puede proporcionar electricidad para nuestros hogares. Algún día, los reactores de fusión aliviarán nuestro problema energético, liberando con seguridad la potencia del Sol sobre la Tierra. Pero ni siquiera los reactores de fusión por confinamiento magnético ofrecerían suficiente energía para alimentar un arma como la Estrella de la Muerte. Para eso necesitaríamos un diseño totalmente nuevo.

LÁSERES DE RAYOS X CON DETONADOR NUCLEAR

Hay otra posibilidad para simular un cañón láser Estrella de la Muerte con la tecnología conocida hoy, y es con una bomba de hidrógeno. Una batería de láseres de rayos X que aproveche y concentre la potencia de las armas nucleares podría generar en teoría suficiente energía para activar un dispositivo que podría incinerar un planeta entero.  La fuerza nuclear libera una energía que, para una misma cantidad de material, es unos 100 millones de veces mayor que la liberada en una reacción química. Un trozo de uranio enriquecido no mayor que una pelota de tenis es suficiente para incinerar toda una ciudad y convertirla en una bola de fuego —incluso si solo el 1 por ciento de su masa se ha convertido en energía—. Como ya
se ha dicho, hay varias maneras de inyectar energía en un haz láser. La más potente de todas, con mucho, es utilizar la fuerza liberada por una bomba nuclear.

Los láseres de rayos X tienen un enorme valor científico además de militar. Debido a su longitud de onda muy corta pueden utilizase para sondear distancias atómicas y descifrar la estructura atómica de moléculas complejas, una hazaña que es extraordinariamente difícil utilizando métodos ordinarios. Toda una nueva ventana a las reacciones químicas se abre cuando podemos «mirar» los propios átomos en movimiento y su disposición adecuada dentro de una molécula. Puesto que una bomba de hidrógeno emite una enorme cantidad de energía en el rango de rayos X, los láseres de rayos X también pueden ser alimentados por armas nucleares. La persona más estrechamente vinculada con el láser de rayos X es el físico Edward Teller, padre de la bomba de hidrógeno.

Edward Teller, padre de la bomba de hidrógeno.

De todos es sabido que Teller fue el físico que declaró ante el Congreso en los años cincuenta que Robert Oppenheimer, que había dirigido el Proyecto Manhattan, no era digno de confianza para seguir trabajando en la bomba de hidrógeno debido a sus ideas políticas. El testimonio de Teller llevó a que Oppenheimer cayera en desgracia y se le revocara su credencial de seguridad; muchos físicos destacados nunca perdonaron a Teller lo que hizo. Básicamente, el láser de rayos X de Teller es una pequeña bomba nuclear rodeada de varillas de cobre. La detonación del arma nuclear libera una onda de choque esférica de rayos X intensos. Estos rayos X energéticos atraviesan las varillas de cobre, que actúan como el material del láser y concentran la potencia de los rayos X en haces intensos. Estos haces de rayos X podrían dirigirse luego hacia cabezas nucleares enemigas. Por supuesto, un artefacto semejante solo se podría utilizar una vez, puesto que la detonación nuclear
hace que el láser de rayos X se autodestruya.

El test inicial de un láser de rayos X alimentado nuclearmente fue llamado el test Cabra, y se llevó a cabo en 1983 en un pozo subterráneo. Se detonó una bomba de hidrógeno cuyo diluvio de rayos X incoherentes fue luego concentrado en un haz láser de rayos X coherente.

Al principio el test fue considerado un éxito, y de hecho en 1983 inspiró al presidente Ronald Reagan para anunciar, en un discurso histórico, su intención de construir un escudo defensivo «guerra de las galaxias». Así se puso en marcha un proyecto de muchos miles de millones de dólares, que continúa todavía hoy, para construir una serie de artefactos como el láser de rayos X alimentado nuclearmente para acabar con los misiles balísticos intercontinentales (ICBM) enemigos. (Una investigación posterior demostró que el detector utilizado para realizar las medidas durante el test Cabra quedó destruido; por lo tanto sus medidas no eran fiables).

LA FÍSICA DE UNA ESTRELLA DE LA MUERTE

¿Pueden crearse armas capaces de destruir un planeta entero, como en La guerra de las  galaxias? En teoría, la respuesta es  sí. Habría varias formas de crearlas. En primer lugar, no hay ningún límite físico a la energía que puede liberar una bomba de hidrógeno. He aquí cómo funciona. (Los detalles precisos de la bomba de hidrógeno son alto secreto e incluso hoy están clasificadas por el Gobierno de Estados Unidos, pero las líneas generales son bien conocidas). Una bomba de hidrógeno se construye en realidad en muchas etapas. Mediante una secuencia adecuada de esas etapas, se puede producir una bomba nuclear de magnitud casi arbitraria.

La primera etapa consiste en una bomba de fisión estándar, que utiliza el poder del uranio 235 para liberar una ráfaga de rayos X, como sucedió en la bomba de Hiroshima. Una fracción de segundo antes de que la onda explosiva de la bomba atómica lo destroce todo, la esfera de rayos X en expansión alcanza a la onda (puesto que viaja a la velocidad de la luz), que es entonces reconcentrada en un contenedor de deuteruro de litio, la sustancia activa de una bomba de hidrógeno.(Cómo se hace esto exactamente sigue siendo materia reservada).

Los rayos X que inciden en el deuteruro de litio hacen que colapse y se caliente hasta millones de grados, lo que provoca una segunda explosión, mucho mayor que la primera. La ráfaga de rayos X procedente de esta bomba de hidrógeno puede luego ser reconcentrada en un segundo trozo de deuteruro de litio, lo que provoca una tercera explosión. De esta manera, se pueden apilar capas de deuteruro de litio y crear una bomba de hidrógeno de magnitud inimaginable.

De hecho, la mayor bomba de hidrógeno construida fue una de dos etapas detonada por la Unión Soviética en 1961, que liberó una energía de 50 millones de toneladas de TNT, aunque teóricamente era capaz de un explosión equivalente a más de 100 millones de toneladas de TNT (unas 5.000 veces la potencia de la bomba de Hiroshima). Incinerar un planeta entero, sin embargo, es algo de una magnitud completamente diferente. Para esto, la Estrella de la Muerte tendría que lanzar miles de tales láseres de rayos X al espacio, y luego sería necesario dispararlos todos a la vez. (Recordemos, por comparación, que en el apogeo de la guerra fría Estados Unidos y la Unión Soviética almacenaban unas 30.000 bombas nucleares cada uno).

La energía total de un número tan enorme de láseres de rayos X sería suficiente para incinerar la superficie de un planeta. Por lo tanto, sería ciertamente posible que un imperio galáctico a cientos de miles de años en el futuro creara un arma semejante. Para una civilización muy avanzada hay una segunda opción: crear una Estrella de la Muerte utilizando la energía de un estallido de rayos gamma. Una Estrella de la Muerte semejante liberaría una ráfaga de radiación solo superada por el big bang. Los estallidos de rayos gamma ocurren de forma natural en el espacio exterior, pero es concebible que una civilización avanzada pudiera dominar su enorme poder. Controlando el giro de una estrella mucho antes de que sufra  un colapso y produzca una hipernova, se podría dirigir el estallido de rayos gamma a cualquier punto del espacio.

ESTALLIDOS DE RALLOS GAMMA 

Los estallidos de rayos gamma se vieron realmente por primera vez en la década de 1970, cuando el ejército de Estados Unidos lanzó el satélite Vela para detectar «destellos nucleares» (pruebas de una detonación no autorizada de una bomba nuclear). Pero en lugar de detectar destellos nucleares, el satélite Vela detectó enorme ráfagas de radiación procedentes del espacio.

Satélite Vela.

Al principio, el descubrimiento sembró el pánico en el Pentágono: ¿estaban los soviéticos probando una nueva arma nuclear en el espacio exterior? Más tarde se determinó que esas ráfagas de radiación llegaban uniformemente de todas las direcciones del cielo, lo que significaba que en realidad procedían de fuera de la Vía Láctea. Pero si eran extragalácticas, debían estar liberando  cantidades de energía verdaderamente astronómicas, suficientes para iluminar todo el universo visible.

Cuando la Unión Soviética se descompuso en 1990, el Pentágono desclasificó un gran volumen de datos astronómicos, lo que abrumó a los astrónomos. De repente, los astrónomos comprendieron que tenían delante un fenómeno nuevo y misterioso, un fenómeno que requeriría reescribir los libros de texto de ciencia. Puesto que los estallidos de rayos gamma duran solo de algunos segundos a unos pocos minutos antes de desaparecer, se requiere un elaborado sistema de sensores para detectarlos y analizarlos. Primero, los satélites detectan la ráfaga de radiación inicial y envían las coordenadas exactas de la ráfaga a la Tierra. Estas coordenadas son entonces introducidas en telescopios ópticos o radiotelescopios, que apuntan hacia la localización exacta del estallido de rayos gamma.

Aunque quedan muchos detalles por clarificar, una teoría sobre los orígenes de los estallidos de rayos gamma es que son «hipernovas» de enorme potencia que dejan tras ellas agujeros negros masivos. Es como si los estallidos de rayos gamma fueran agujeros negros monstruosos en formación. Pero los agujeros negros emiten dos «chorros» de radiación, uno desde el polo norte y otro desde el polo sur, como una peonza que gira. La radiación que se ve procedente de un estallido de rayos gamma distante es, al parecer, uno de los chorros que apunta hacia la Tierra. Si el chorro de un estallido de rayos gamma estuviera dirigido a la Tierra y el estallido de rayos gamma estuviese en nuestra vecindad galáctica (a unos pocos centenares de años luz de la Tierra), su potencia sería suficiente para destruir toda la vida en nuestro planeta. 

Inicialmente, el pulso de rayos X del estallido de rayos gamma crearía un pulso electromagnético que barrería todos los equipos electrónicos en la  Tierra. Su intenso haz de rayos X y rayos gamma sería suficiente para dañar la atmósfera de la Tierra y destruir nuestra capa de ozono protectora. El chorro del estallido de rayos gamma calentaría la superficie de la Tierra a grandes temperaturas, lo que eventualmente provocaría enormes tormentas que abarcarían todo el planeta. Quizá el estallido de rayos gamma no hiciera explotar en realidad al planeta, como en la película La guerra de las galaxias, pero sin duda destruiría toda la vida, dejando un planeta desolado.

Es concebible que una civilización centenares de miles o un millón de años más avanzada que la nuestra fuera capaz de dirigir un agujero negro semejante en la dirección de un blanco. Esto podría hacerse desviando la trayectoria de planetas y estrellas de neutrones hacia la estrella moribunda a un ángulo preciso antes de que colapse. Esta desviación sería suficiente para cambiar el eje de giro de la estrella de modo que pudiera apuntarse en una dirección dada. Una  estrella moribunda sería el mayor cañón de rayos imaginable. Y para los habitantes del planeta objetivo seria el fin, esperemos que a nuestra querida Tierra no le ocurra nada parecido…

Esta entrada participa en la XXXIX Edición del Carnaval de la Física, que esta siendo organizado en esta ocasión por el blog El zombi de Schrödinger. ]

REFERENCIAS |

El Sistema Solar que pocos conocen

 

Quizás el titulo de este articulo sea un tanto polémico, pero no se me ocurrió ninguno mejor para llamar la atención sobre un tema importante en la Astronomía, una idea que aun en esta época es muy poco conocida pero que mentes atentas, mentes curiosas como la de usted querido lector,  ya han experimentado esa oleada de incertidumbre y ganas de descubrir la verdad que a todos, alguna vez en la vida, nos invade y no nos deja tranquilos.

La idea principal de este artículo lo podemos resumir en una pregunta:

¿De que tamaño es el Sistema Solar?

Para muchos es una respuesta fácil de responder y quizás hasta tonta, ingenua o cosas por el estilo, pero para muchos otros se nos hace un tanto difícil poder responder con precisión, mas que una cantidad expresada en metros o kilómetros, lo que en realidad queremos es hacernos una idea mental de que tan grande es nuestro Sistema Solar (algo muy difícil), no es tan simple, ¿Dónde empieza?, ¿Dónde termina?, ¿Cómo lo sabemos?… esas y muchas otras preguntas se tornan difíciles de responder si no tenemos una solida formación en Ciencias.

El Universo es enorme, absolutamente todos sin excepción lo sabemos, pero aunque posiblemente sea infinito, hoy en día los astrónomos pueden hacer cosas asombrosas con unos juguetitos llamados Telescopios. 

Telescopio Sky-Watcher

En la actualidad estos dispositivos son muy potentes y han venido a acortar las distancias estelares que antes nos parecían insalvables, son tan potentes que inclusive si yo encendiera una cerilla en la Luna usted podría localizar la llama desde la Tierra utilizando un buen Telescopio.

Los telescopios nos han proporcionado  una herramienta imprescindible y eficaz para sondear el enorme y basto Universo al que pertenecemos, nos ha permitido acercarnos a objetos celestes que están al otro lado del Cosmos, hoy en día podemos deducir el tamaño e incluso la habitabilidad potencial de los planetas.

Podemos captar briznas de radiación tan ridículamente leves con radio-telescopios que, la cuantía total de energía recogida del exterior del Sistema Solar por todos ellos juntos, desde que se inicio la recolección en 1951, es “Menos que la energía de un solo copo de nieve al dar en el suelo.”  en palabras del propio Carl Sagan.

Gracias a los telescopios pocas son las cosas que pasan en el Universo y que no puedan descubrir los astrónomos si se lo proponen. Pero aunque podemos ver muy lejos, quizás necesitamos mirar un poco mas cerca.

 

LIMITES DEL SISTEMA SOLAR

Aunque estemos en un Universo enorme, tan grande que nos es posible para la mente humana poder imaginar su extensión, el hombre siempre ha sido ambicioso, siempre quiere llegar mas lejos, mas profundo, queremos descubrir los secretos que aun están ocultos en el otro extremo de nuestro Cosmos, pero la realidad nos golpea con fuerza al notar que ni siquiera conocemos bien lo que esta relativamente cerca de nosotros… de nuestros planetas vecinos.

Para casi todas las personas el límite de nuestro Sistema Solar esta delimitado por el último planeta: Plutón. La mayoría de personas asegura que Plutón es un planeta cuando en realidad fue degradado de esa “categoría” y a pasado a  ser un “planeta enano” tras un intenso debate, la UAI (Unión Astronómica Internacional) decidió el 24 de agosto de 2006, por unanimidad, re-clasificar a Plutón.

Plutón es un “planeta enano”.

Ya hace 6 años desde que se llego a esa decisión que reduciría el número de planetas de 9 a 8 solamente, por experiencia propia puedo decir que he visto a muchas personas que aun creen que Plutón es un planeta mas, he leído varios textos que no han sido corregidos y siguen mostrando gráficos del Sistema Solar donde aun se incluye a Plutón como parte del conjunto de planetas. Y lo que mas me ha sorprendido e irritado es que profesores de escuela siguen enseñando a sus alumnos algo que ha sido modificado hace bastante tiempo y que no es solamente del conocimiento de mentes ilustres, sino de todas las personas en general.

Pero retomando el camino que dejamos hace unos párrafos arriba, si Plutón ya no es considerado un planeta y es para muchos el punto de referencia que delimita el Sistema Solar del resto del Cosmos, ahora que ya no es un planeta. ¿Cual es el límite del Sistema Solar en realidad?

En cuanto al propio Plutón, nadie está seguro del todo de cuál es su tamaño, de qué está hecho, qué tipo de atmósfera tiene e incluso de lo que es realmente. Muchos astrónomos creen que no es en modo alguno un planeta, que sólo es el objeto de mayor tamaño que se ha localizado hasta ahora en una región de desechos galácticos denominada cinturón Kuiper. El cinturón Kuiper fue postulado, en realidad, por un astrónomo llamado F. C. Leonard en 1930, pero el nombre honra a Gerard Kuiper, un holandés que trabajaba en Estados Unidos y que fue quien difundió la idea.

Cinturón de Kuiper.

El cinturón Kuiper es el origen de lo que llamamos cometas de periodo corto (los que pasan con bastante regularidad), el más famoso de los cuales es el cometa Halley. Los cometas de periodo largo, que son más retraídos —y entre los que figuran dos que nos han visitado recientemente, Hale-Bopp y Hyakutake— proceden de la nube Oort, mucho más alejada, y de la que hablaremos más en breve.

La Nube de Oort

¿Y cómo de lejos es eso exactamente? Resulta casi inimaginable. El espacio es sencillamente enorme… Sencillamente enorme y nunca me cansare de decirlo.

Imaginemos, sólo a efectos de edificación y entretenimiento, que estamos a punto de iniciar un viaje en una nave espacial. No vamos a ir muy lejos, sólo hasta el borde de nuestro sistema solar. Pero necesitamos hacernos una idea de lo grande que es el espacio y la pequeña parte del mismo que ocupamos.

Nos vamos de Viaje..!!

La mala noticia es que mucho me temo que no podamos estar de vuelta en casa para la cena. Incluso en el caso de que viajásemos a la velocidad de la luz (300.000 kilómetros por segundo), tardaríamos siete horas en llegar a Plutón. Pero no podemos aproximarnos siquiera a esa velocidad. Tendremos que ir a la velocidad de una nave espacial, y las naves espaciales son bastante más lentas. La velocidad máxima que ha conseguido hasta el momento un artefacto humano es la de las naves espaciales Voyager 1 y 2, que están ahora alejándose de nosotros a unos 56.000 kilómetros por hora.

La Sonda Voyager 1.

La razón de que se lanzasen estas naves cuando se lanzaron (en agosto y septiembre de 1977) era que Júpiter, Saturno, Urano y Neptuno estaban alineados de una forma que sólo se da una vez cada 175 años. Esto permitía a las dos naves utilizar una técnica de «aprovechamiento de la gravedad» por la que eran lanzadas sucesivamente de un gigante gaseoso al siguiente en una especie de versión cósmica de chasquido de látigo. Aun así, tardaron nueve años en llegar a Urano y doce en cruzar la órbita de Plutón.

De una forma u otra, será un viaje largo. Es probable que de lo primero que te des cuenta sea que el espacio tiene un nombre extraordinariamente apropiado y que es muy poco interesante, por desgracia.

Posiblemente nuestro sistema solar sea lo más animado que hay en billones de kilómetros, pero todo el material visible que contiene (el Sol, los planetas y sus lunas, los 1.000 millones de rocas que giran en el cinturón de asteroides, los cometas y demás cuerpos a la deriva) ocupan menos de una billonésima parte del espacio disponible.

 Te darás cuenta también enseguida de que ninguno de los mapas que hayas podido ver del sistema solar estaba dibujado ni siquiera remotamente a escala. La mayoría de los mapas que se ven en las clases muestra los planetas uno detrás de otro a intervalos de buena vecindad —los gigantes exteriores llegan incluso a proyectar sombras unos sobre otros en algunas ilustraciones) —, pero se trata de un engaño necesario para poder incluirlos a todos en la misma hoja. 

Sistema Solar representado sin escala

En verdad, Neptuno no está un poquito más lejos que Júpiter. Está mucho más allá de Júpiter, cinco veces más que la distancia que separa a Júpiter de la Tierra, tan lejos que recibe sólo un 3 % de la luz que recibe Júpiter. Las distancias son tales, en realidad, que no es prácticamente posible dibujar a escala el sistema solar. Aunque añadieses montones de páginas plegadas a los libros de texto o utilizases una hoja de papel de cartel realmente muy grande, no podrías aproximarte siquiera.

En un dibujo a escala del sistema solar, con la Tierra reducida al diámetro aproximado de un guisante, Júpiter estaría a 300 metros de distancia y, Plutón, a 2,5 kilómetros —y sería del tamaño similar al de una bacteria, así que de todos modos no podrías verlo—. A la misma escala, Próxima Centauri, que es la estrella que nos queda más cerca, estaría a 16.000 kilómetros de distancia. Aunque lo redujeses todo de tamaño hasta el punto en que Júpiter fuese tan pequeño como el punto final de esta frase y Plutón no mayor que una molécula, Plutón seguiría quedando a 1o metros de distancia.

Así que el sistema solar es realmente enorme. Cuando llegásemos a Plutón, nos habríamos alejado tanto del Sol —nuestro amado y cálido Sol, que nos broncea y nos da la vida—, que éste se habría quedado reducido al tamaño de una cabeza de alfiler. Sería poco más que una estrella brillante.

El Sol visto desde los planetas del Sistema Solar y Plutón.

En un vacío tan solitario se puede empezar a entender por qué han escapado a nuestra atención incluso los objetos más significativos (las lunas de Plutón, por ejemplo). Y Plutón no ha sido ni mucho menos un caso único a ese respecto. Hasta las expediciones del Voyager, se creía que Neptuno tenía dos lunas. El Voyager descubrió otras seis. Cuando yo era un niño, se creía que había 30 lunas en el sistema solar. Hoy el total es de 9o, como mínimo, y aproximadamente un tercio de ellas se han descubierto en los últimos años. Lo que hay que tener en cuenta, claro, cuando se considera el universo en su conjunto, es que ni siquiera sabemos en realidad lo que hay en nuestro sistema solar.

Bueno, la otra cosa que notarás, cuando pasemos a toda velocidad Plutón, es que estamos dejando atrás Plutón. Si compruebas el itinerario, verás que se trata de un viaje hasta el borde de nuestro sistema solar, y me temo que aún no hemos llegado. Plutón puede ser el último objeto que muestran los mapas escolares, pero el sistema solar no termina ahí. Ni siquiera estamos cerca del final al pasar Plutón.

El Cinturón de Kuiper.

Después de Plutón   hemos de pasar por El Cinturón de Kuiper. Es una región en forma de disco que se encuentra más allá de la órbita de Neptuno, aproximadamente entre 30 y 100 UA (Unidades Astronómicas) del Sol, que contiene muchos pequeños cuerpos helados. Actualmente se le considera la fuente de los cometas de periodo corto.  Aunque los valores de las estimaciones son bastante variables, se calcula que existen al menos 70.000 “transneptunianos” entre las 30 y 50 unidades astronómicas, con diámetros superiores a los 100 km. Más allá de las 50 UA es posible que existan más cuerpos de este tipo, pero en todo caso están fuera del alcance de las actuales técnicas de detección. Las observaciones muestran también que se hallan confinados dentro de unos pocos grados por encima o por debajo del plano de la eclíptica. Estos objetos se les conoce como KBO’s (Kuiper Belt Objects).

El estudio del cinturón de Kuiper es muy interesante por varios motivos:

  • Los objetos que contiene son remanentes muy primitivos de las primeras fases de acreción del sistema solar. La región central, más densa, se condensó para formar los planetas gigantes (las composiciones de Urano y Neptuno son casi idénticas a la de los cometas). En la región más y menos densa, la acreción progresó lentamente, pese a lo cual se formaron un gran número de pequeños cuerpos.
  • Es aceptado ampliamente que el cinturón de Kuiper es la fuente de los cometas de corto período, del mismo modo que la nube de Oort lo es para los de largo período.

Ocasionalmente, la órbita de un objeto del Cinturón de Kuiper se verá perturbada por las interacciones de los planetas gigantes de tal forma que cruzará la de Neptuno. Entonces será muy probable que tenga un encuentro cercano con Neptuno, quien le expulsará del sistema solar o lo enviará en una órbita que cruce las de los otros planetas gigantes o incluso hacia el sistema solar interior.

Curiosamente, parece que los objetos de la Nube de Oort se formaron más cerca del Sol que los objetos del Cinturón de Kuiper. Los objetos pequeños que se formaran cerca de los planetas gigantes habrían sido eyectados del sistema solar debido a los encuentros gravitatorios. Aquellos que no escaparan del todo formarían la distante Nube de Oort. Los objetos pequeños que se formaran más lejos no sufrirían estas interacciones y formarían el Cinturón de Kuiper.

La Nube de Oort.

No llegaremos hasta el borde del sistema solar hasta que hayamos cruzado la nube de Oort, un vasto reino celestial de cometas a la deriva, y no llegaremos hasta allí durante otros —lo siento muchísimo— 10.000 años. Plutón, lejos de hallarse en el límite exterior del sistema solar, como tan displicentemente indicaban aquellos mapas escolares, Plutón se encuentra apenas a una cincuenta-milésima parte del trayecto.

No tenemos ninguna posibilidad de hacer semejante viaje, claro. Los 386.000 kilómetros del viaje hasta la Luna. Aún representan para nosotros una empresa de enorme envergadura. La misión tripulada a Marte, solicitada por el primer presidente Bush en un momento de atolondramiento pasajero, se desechó tajantemente cuando alguien averiguó que costaría 450.000 millones de dólares y que, con probabilidad, acabaría con la muerte de todos los tripulantes.

Basándonos en lo que sabemos ahora yen lo que podemos razonablemente imaginar, no existe absolutamente ninguna posibilidad de que un ser humano llegue nunca a visitar el borde de nuestro sistema solar… nunca. Queda demasiado lejos. Tal como están las cosas, ni siquiera con el telescopio Hubble podemos ver el interior de la nube Oort, así que no podemos saber en realidad lo que hay allí. Su existencia es probable, pero absolutamente hipotética.” Lo único que se puede decir con seguridad sobre la nube Oort es, más o menos, que empieza en algún punto situado más allá de Plutón y que se extiende por el cosmos a lo largo de unos dos años luz. La unidad básica de medición en el sistema solar es la Unidad Astronómica, UA, que representa la distancia del Sol a la Tierra.

Plutón está a unas 40 UA de la Tierra y, el centro de la nube Oort, a unas 50.000 UA.

Ls verdadera extensión de nuestro Sistema Solar.

El Sistema Solar en Perspectiva.

Pero finjamos de nuevo que hemos llegado a la nube Oort. Lo primero que advertirías es lo tranquilísimo que está todo allí. Nos encontramos ya lejos de todo… tan lejos de nuestro Sol que ni siquiera es la estrella más brillante del firmamento. Parece increíble que ese diminuto y lejano centelleo tenga gravedad suficiente para mantener en órbita a todos esos cometas. No es un vínculo muy fuerte, así que los cometas se desplazan de un modo mayestático, a una velocidad de unos 563 kilómetros por hora. De cuando en cuando, alguna ligera perturbación gravitatoria (una estrella que pasa, por ejemplo) desplaza de su órbita normal a uno de esos cometas solitarios. A veces se precipitan en el vacío del espacio y nunca se los vuelve a ver, pero otras veces caen en una larga órbita alrededor del Sol.

Esquema del Sistema Solar.

Ese es nuestro verdadero Sistema Solar, mucho mas grande de lo que pensábamos. Aunque en el vasto Universo, nuestro Sistema Solar es como un grano de arena en un desierto infinito…!!  

Pero en vez de desanimarnos al ver el enorme Cosmos lleno de secretos, debemos alegrarnos puesto que hay mucho por descubrir, mucho por discutir y mucho por aportar a la Ciencia…

Referencias |

Observando el asteroide 2012DA14

Por todos es sabido que este 15 y 16 de febrero del año en curso el asteroide 2012DA14 se acercará a la Tierra a una distancia aproximada de 27.860 km y un peso de 130.000 toneladas, se acercara en la que supone la mayor aproximación de un objeto cósmico peligroso a nuestro planeta de la que tiene constancia la agencia espacial NASA.

El asteroide, denominado 2012DA14, fue detectado por astrónomos en España hace un año, cuando se hallaba a 4,3 millones de kilómetros de la Tierra, y se aproxima al planeta a 28.100 kilómetros por hora, según estimaciones de la NASA.  La roca, del tamaño de medio campo de fútbol, es tan opaca que los astrónomos solo pueden observar su trayectoria en la gama infrarroja del espectro donde se refleja el calor del Sol.

Fue detectado por primera vez el 23 de febrero de 2012 por astrónomos aficionados afiliados al observatorio de La Sagra, en Mallorca, y desde entonces varias agencias espaciales le han seguido la pista y han hecho proyecciones de su posible trayectoria. El viernes 15 de febrero, a las 19.24 GMT, el asteroide de unos 45 metros de ancho pasará sobre Sumatra (Indonesia) y se situará a unos 8.050 kilómetros por debajo de los casi 400 satélites geosincrónicos puestos en órbita por la humanidad.

El 2012DA14 pasará cerca de la Tierra en horas del día en las Américas, pero en otras partes del mundo será posible avistarlo como un pequeño punto de luz que pasa de norte a sur.

Observación fotográfica y CCD:

El asteroide no será visible a simple vista, pero con unos prismáticos será sencillo localizarlo y realizar una estimación de brillo empleando el método de Argelander, que usan los observadores de estrellas variables. En su máxima magnitud alcanzará la +7.4

Para los que quieran registrarlo fotográficamente, se pueden hacer fotografías con una cámara digital a foco primario, o con CCD. Con exposiciones muy cortas, se apreciaría claramente el trazo del asteroide, frente a las estrellas, que aparecerían como puntos. Hay que tener en cuenta que el asteroide se desplazará muy rápido, y que la franja temporal de observación también será corta, por lo que si se piensa realizar este tipo de observaciones hay que poner el equipo a punto al menos la noche anterior.

Cartas de Localización:

La forma mas cómoda de localizarlo. Como precaución, se ha de observar desde un horizonte norte sin obstáculos, ya que desde ciertas latitudes el asteroide no alcanza mucha altura.

Así que si al igual que yo vives en MADRID, España  o sus cercanías esta es la información que necesitaras para poder ver el transito de 2012DA14.

Clic sobre la imagen para mas información.

Si vives en otra parte de España aquí tienes unos links que te dirigirán a un mapa como el que aparece arriba y su correspondiente gráfico de posiciones para su localización.  ;)

Si no vives en alguno de estos lugares y quieres personalizar o ajustar de mejor manera los cálculos, solamente debes entrar a la siguiente pagina Heavens Above selecciona tu localización y dale clic al botón de abajo donde dice “Submit”, luego que hayas regresado a la pagina principal dale clic al enlace que aparece con un anuncio en verde a la par. Estarás viendo un mapa celeste con el cual te podrás guiar y una tabla de posiciones para que te sea mas fácil usar tu telescopio o tus binoculares.

Ahora toma todas las fotografías que puedas y si puedes compártelas conmigo a través de Twitter escribiéndome un tuit a mi usuario @CienciaBlog y yo con gusto les daré RT…!!  

La Ciencia de la Invisibilidad

Todos, absolutamente todos hemos estado en algún momento de nuestra existencia en situaciones absolutamente bochornosas, es completamente inevitable. Muchos nos hemos tropezado para luego caer estrepitosamente, chocar el auto de nuestros padres, olvidarte del aniversario de tu pareja, llamar “mama”  a alguna de tus profesoras (algo traumatico), en fin, un montón de situaciones que nadie quisiera experimentar.

Es probable que dentro de unos años te olvides de lo que hiciste un verano, del cumpleaños de tu hijo o hasta del nombre de tu marido, pero lo que nunca olvidarás son esos momentos embarazosos en los que te hubiera gustado que te tragara la tierra, o por lo menos ser invisible, que nadie te viera y así por lo menos no ser victima de las miradas asesinas de los agraviados y quizás una muerte próxima.

Aunque ser invisible no solamente serviría para escapar de alguna situación “difícil”. También, es el sueño de muchos ladrones, científicos locos, supervillanos y un montón mas de desequilibrados mentales.

Aunque seria una gran tentación para cualquier humano el poseer esa capacidad, podría hacer lo quisiera sin que nadie pudiera verlo… Algo que quebrantaría la moralidad de cualquier persona… Pero desde el punto de vista científico, ¿Es posible?

¿Realmente es posible hacernos invisibles o hacer invisible algún objeto?… ¿Existe mas de un método para conseguirlo?… ¿Que utilidades puede traernos la invisibilidad ademas de el uso militar?

Por ejemplo, en la famosa serie Star Trek IV: El viaje a casa, la tripulación del Enterprise se apropia de un crucero de batalla Klingon. A diferencia de las naves espaciales de la Flota Estelar de la Federación, las naves espaciales del imperio Klingon tienen un «dispositivo de ocultación» secreto que las hace invisibles a la luz o el radar, de modo que las naves de Klingon pueden deslizarse sin ser detectadas tras las naves espaciales de la Federación y tenderles emboscadas con impunidad. Este dispositivo de ocultación ha dado al imperio Klingon una ventaja  estratégica sobre la Federación de Planetas.

Nave Klingon

Pero, ¿Realmente es posible tal dispositivo? o ¿tan solo es una idea disparatada imposible de realizar? La invisibilidad ha sido siempre una de las maravillas de la ciencia ficción y de lo fantástico, desde las páginas de El hombre invisible al mágico manto de invisibilidad de los libros de Harry Potter, o el anillo en El señor de los anillos (mi preferido).

El Anillo Único – El Señor de los Anillos

Pero durante un siglo al menos, casi todos los físicos han descartado la posibilidad de mantos de invisibilidad o algo que se le parezca, afirmando lisa y  llanamente que son imposibles: violan las leyes de la óptica y no se adecuan a ninguna de las propiedades conocidas de la materia.

Pero hoy lo imposible puede hacerse posible.  Nuevos avances en metamateriales están obligando a una revisión importante de los libros de texto de óptica. Se han construido en el laboratorio prototipos operativos de tales materiales que han despertado un gran interés en los medios de comunicación, la industria y el ejército al hacer que lo visible se haga invisible.

La invisibilidad a través de la historia

La invisibilidad es quizá una de las ideas más viejas en la mitología antigua. Desde el comienzo de la historia escrita, las personas que se han encontrado solas en una noche procelosa se han sentido aterrorizadas por los espíritus invisibles de los muertos, las almas de los que desaparecieron hace tiempo que acechan en la oscuridad.

El héroe griego Perseo pudo acabar con la malvada Medusa armado con el yelmo de la invisibilidad.

Los generales de los ejércitos han soñado con un dispositivo de invisibilidad. Siendo invisible, uno podría atravesar las líneas enemigas y capturar al enemigo por sorpresa. Los criminales podrían utilizar la invisibilidad para llevar a cabo robos espectaculares.

La invisibilidad desempeñaba un papel central en la teoría de Platón de la ética y la moralidad. En su principal obra filosófica, La República, Platón narra el mito del anillo de Giges. El pobre pero honrado pastor Giges de Lidia entra en una cueva oculta y encuentra una tumba que contiene un cadáver que lleva un anillo de oro. Giges descubre que ese anillo de oro tiene el poder mágico de hacerle invisible. Pronto este pobre pastor queda embriagado con el poder que le da este anillo. Después de introducirse subrepticiamente en el palacio del rey, Giges utiliza su poder para seducir a la reina y, con la ayuda de esta, asesinar al rey y convertirse en el próximo rey de Lidia.

La moraleja que deseaba extraer Platón es que ningún hombre puede resistir la tentación de poder robar y matar a voluntad. Todos los hombres son corruptibles. La moralidad es una construcción social impuesta desde fuera. Un hombre puede aparentar ser moral en público para mantener su reputación de integridad y honestidad, pero una vez que posee el poder de la invisibilidad, el uso de dicho poder sería irresistible.

Platón

 (Algunos creen que esta moraleja fue la inspiración para la trilogía de El señor de los anillos de J. R. R. Tolkien, en la que un anillo que garantiza la invisibilidad a quien lo lleva es también una fuente del mal).

La invisibilidad es asimismo un elemento habitual en la ciencia ficción. En la serie Flash Gordon de la década de 1950, Flash se hace invisible para escapar al pelotón de fusilamiento de Ming el Despiadado. En las novelas y las películas de Harry Potter, Harry lleva un manto especial o “mágico” que le permite moverse por el colegio Hogwarts sin ser detectado.

La capa de la invisibilidad de Harry Potter

H.G. Wells dio forma concreta a esta mitología con su clásica novela El hombre invisible, en la que un estudiante de medicina descubre accidentalmente el poder de la cuarta dimensión y se hace invisible. Por desgracia, él utiliza este fantástico poder para su beneficio privado, empieza una oleada de crímenes menores, y al final muere tratando de huir desesperadamente de la policía.

El hombre invisible

Las ecuaciones de Maxwell y el secreto de la luz

Solo con la obra del físico escocés James Clerk Maxwell, uno de los gigantes de la física del siglo XIX, los físicos tuvieron una comprensión firme de las leyes de la óptica. Maxwell era, en cierto sentido, lo contrario de Michael Faraday.

Mientras que Faraday tenía un soberbio instinto experimental pero ninguna educación formal, Maxwell era un maestro de las matemáticas avanzadas. Destacó como estudiante de física matemática en  Cambridge, donde Isaac Newton había trabajado dos siglos antes. Newton había inventado el cálculo infinitesimal, que se expresaba en el lenguaje de las «ecuaciones diferenciales», que describen cómo los objetos experimentan cambios infinitesimales en el espacio y el tiempo.

James Clerk Maxwell

El movimiento de las ondas oceánicas, los fluidos, los gases y las balas de cañón podían expresarse en el lenguaje de las ecuaciones diferenciales. Maxwell tenía un objetivo claro: expresar los revolucionarios hallazgos de Faraday y sus campos de fuerza mediante ecuaciones diferenciales precisas.

Maxwell partió del descubrimiento de Faraday de que los campos eléctricos podían convertirse en campos magnéticos, y viceversa. Asumió las representaciones de Faraday de los campos de fuerza y las reescribió en el lenguaje preciso de las ecuaciones diferenciales, lo que dio lugar a uno de los más importantes conjuntos de ecuaciones de la ciencia moderna. constituyen un conjunto de ocho ecuaciones diferenciales de aspecto imponente. Cualquier físico e ingeniero del mundo tiene que jurar sobre ellas cuando llega a dominar el electromagnetismo en la facultad. 

A continuación, Maxwell se hizo la pregunta decisiva: si los campos magnéticos pueden convertirse en campos eléctricos y viceversa, ¿qué sucede si se están convirtiendo continuamente unos en otros en una pauta inacabable? Maxwell encontró que estos campos electromagnéticos crearían una onda muy parecida a las olas en el mar. Calculó la velocidad de dichas ondas y, para su asombro, ¡descubrió que era igual a la velocidad de la luz! En 1864, tras descubrir este hecho, escribió proféticamente: «Esta velocidad es tan próxima a la de la luz que parece que tenemos una buena razón para concluir que la propia luz… es una perturbación electromagnética». 

Fue quizá uno de los mayores descubrimientos de la historia humana. El secreto de la luz se revelaba por fin. Evidentemente, Maxwell se dio cuenta de que todas las cosas, el brillo del amanecer, el resplandor de la puesta de Sol, los extraordinarios colores del arco iris y el firmamento estrellado podían describirse mediante las ondas que garabateaba en una hoja de papel.

Hoy entendemos que todo el espectro electromagnético —desde el radar a la televisión, la luz infrarroja, la luz ultravioleta, los rayos X, las microondas y los rayos gamma— no es otra cosa que ondas de Maxwell, que a su vez son vibraciones de los campos de fuerza de Faraday.  Al comentar la importancia de las ecuaciones de Maxwell, Einstein escribió que son «las más profundas y fructíferas que ha experimentado la física desde la época de Newton».

La teoría de la luz de Maxwell y la teoría atómica dan explicaciones sencillas de la óptica y la invisibilidad. En un sólido, los átomos están fuertemente concentrados, mientras que en un líquido o en un gas las moléculas están mucho más espaciadas. La mayoría de los sólidos son opacos porque los rayos de luz no pueden atravesar la densa matriz de átomos en un sólido, que actúa como un muro de ladrillo. Por el contrario, muchos líquidos y gases son transparentes porque la luz pasa con más facilidad entre los grandes espacios entre sus átomos, un espacio que es mayor que la longitud de onda de la luz visible.

Existen excepciones importantes a esta regla. Muchos cristales son, además de sólidos, transparentes. Pero los átomos de un cristal están dispuestos en una estructura reticular precisa, ordenados en filas regulares, con un espaciado regular entre ellos. Así, un haz luminoso puede seguir muchas trayectorias a través de una red cristalina. Por consiguiente, aunque un cristal está tan fuertemente empaquetado como cualquier sólido, la luz puede abrirse camino a través del cristal.

Bajo ciertas condiciones, un objeto sólido puede hacerse transparente si los átomos se disponen al azar. Esto puede hacerse calentando ciertos materiales a alta temperatura y enfriándolos rápidamente. El vidrio, por ejemplo, es un sólido con muchas propiedades de un líquido debido a la disposición aleatoria de sus átomos. Algunos caramelos también pueden hacerse transparentes con este método. Es evidente que la invisibilidad es una propiedad que surge en el nivel atómico, mediante las ecuaciones de Maxwell, y por ello sería extraordinariamente difícil, si no imposible, de reproducir utilizando métodos ordinarios.

Para hacer invisible a Harry Potter habría que licuarlo, hervirlo para crear vapor, cristalizarlo, calentarlo de nuevo y luego enfriarlo, todo lo cual sería muy difícil de conseguir incluso para un mago.

El ejército, incapaz de crear aviones invisibles, ha intentado hacer lo que más se les parece: crear tecnología furtiva, que hace los aviones invisibles al radar. La tecnología furtiva se basa en las ecuaciones de Maxwell para conseguir una serie de trucos. Un caza a reacción furtivo es perfectamente visible al ojo humano, pero su imagen en la pantalla de un radar enemigo solo tiene el tamaño que correspondería a un pájaro grande. (La tecnología furtiva es en realidad una mezcla de trucos. Cambiando los materiales dentro del caza a reacción, reduciendo su contenido de acero y utilizando en su lugar plásticos y resinas, cambiando los ángulos de su fuselaje, re-ordenando sus toberas, y así sucesivamente, es posible hacer que los haces del radar enemigo que inciden en el aparato se dispersen en todas direcciones, de modo que nunca vuelven a la pantalla del radar enemigo.

Caza furtivo moderno F-35 Lightning II

Incluso con tecnología furtiva, un caza a reacción no es del todo invisible; lo que hace es desviar y dispersar tantas ondas de radar como es técnicamente posible).

Metamateriales e invisibilidad

Pero quizá el más prometedor entre los nuevos desarrollos que implican invisibilidad es un nuevo material exótico llamado  «metamaterial», que tal vez un día haga los objetos verdaderamente invisibles. Resulta irónico que la creación de metamateriales se considerara en otro tiempo imposible porque violaban las leyes de la óptica. Pero en 2006, investigadores de la Universidad de Duke en Durham, Carolina del Norte, y del Imperial College de Londres, desafiaron con éxito la sabiduría convencional y utilizaron metamateriales para hacer un objeto invisible a la radiación de microondas. Aunque hay aún muchos obstáculos que superar, ahora tenemos por primera vez en la historia un diseño para hacer invisibles objetos ordinarios. (La Agencia de Investigación de Proyectos Avanzados de Defensa [DARPA] del Pentágono financió esta investigación).

El potencial revolucionario de los metamateriales «cambiará por completo nuestro enfoque de la óptica y casi todos los aspectos de la electrónica. Algunos de estos metamateriales pueden hacer realidad hazañas que habrían parecido milagrosas hace solo unas décadas».

¿Qué son estos metamateriales? Son sustancias que tienen propiedades ópticas que no se encuentran en la naturaleza. Los metamateriales se crean insertando en una sustancia minúsculos implantes que obligan a las ondas electromagnéticas a, curvarse de formas heterodoxas. En la Universidad,de Duke los científicos insertaron en bandas,de cobre minúsculos circuitos eléctricos dispuestos,en círculos planos concéntricos (una forma,que recuerda algo a las resistencias de un horno,eléctrico).

Ejemplo de lo que seria un auto construido con metamateriales.

El resultado fue una mezcla sofisticada,de cerámica, teflón, compuestos de fibra y componentes,metálicos. Estos minúsculos implantes,en el cobre hacen posible curvar y canalizar de,una forma específica la trayectoria de la radiación,de microondas. Pensemos en cómo fluye un río alrededor de una roca. Puesto que el agua rodea fácilmente la roca, la presencia de la roca no se deja sentir aguas abajo. Del mismo modo, los metamateriales pueden alterar y curvar continuamente la trayectoria de las microondas de manera que estas fluyan alrededor de un cilindro, por ejemplo, lo que haría esencialmente invisible a las microondas todo lo que hay dentro del cilindro.

Si el material puede eliminar toda la reflexión y todas las sombras, entonces puede hacer un objeto totalmente invisible para dicha forma de, radiación. Los científicos demostraron satisfactoriamente,este principio con un aparato hecho de diez anillos,de fibra óptica cubiertos con elementos de,cobre. Un anillo de cobre en el interior del aparato,se hacía casi invisible a la radiación de microondas,pues solo arrojaba una sombra, minúscula.

En el corazón de los metamateriales está su capacidad para manipular algo llamado «índice de refracción ». La refracción es la curvatura que experimenta la trayectoria de la luz cuando atraviesa un medio transparente. Si usted mete la mano en el agua, o mira a través de los cristales de sus gafas, advertirá que el agua y el cristal distorsionan y curvan la trayectoria de la luz ordinaria.

Manipulación de la Refracción por parte de un Metamaterial.

La razón de que la luz se curve en el cristal o en el agua es que la luz se frena cuando entra en un medio transparente denso. La velocidad de la luz en el vacío es siempre la misma, pero la luz que viaja a través del agua o del cristal debe atravesar billones de átomos y con ello se frena. (El cociente entre la velocidad de la luz en el vacío y la velocidad más lenta de la luz entro de un medio es lo que se llama índice de refracción. Puesto que la luz se frena en el vidrio, el índice de refracción de este es siempre mayor que 1,0).

Por ejemplo, el índice de refracción es 1,0 para el vacío, 1,0003 para el aire, 1,5 para el vidrio y 2,4 para el diamante. Normalmente, cuanto más denso es el medio, mayor es el grado de curvatura, y mayor el índice de refracción. Un efecto familiar del índice de refracción es un espejismo. Si usted viaja en coche un día tórrido y mira hacia delante al horizonte, verá cómo la carretera parece brillar y crea la ilusión de un lago donde se refleja la luz.

Un ejemplo de Espejismo en el Desierto.

En el desierto pueden verse a veces las siluetas de ciudades y montañas distantes en el horizonte. Esto se debe a que el aire caliente que sube del asfalto o del suelo del desierto tiene una densidad menor que el aire normal, y por lo tanto un índice de refracción menor que el del aire más frío que le rodea; por ello, la luz procedente de objetos distantes puede refractarse en el asfalto hacia sus ojos y producirle la ilusión de que está viendo objetos distantes.

Normalmente, el índice de refracción es constante. Un fino haz de luz se curva cuando entra en el vidrio y luego sigue una línea recta. Pero supongamos por un momento que pudiéramos controlar el índice de refracción a voluntad, de modo que pudiera cambiar de forma continua en cada punto del vidrio. A medida que la luz se moviera en este nuevo material, se iría curvando y alabeando en nuevas direcciones, en una trayectoria que serpentearía a través de la sustancia.

Si pudiéramos controlar el índice de refracción dentro de un metamaterial de modo que la luz rodeara a un objeto, entonces el objeto se haría invisible. Para ello, este metamaterial debería tener un índice de refracción negativo, lo que cualquier libro de texto de óptica dice que es imposible.

Concepto de Refracción.

(Los metamateriales fueron teorizados por primera vez en un artículo del físico soviético Víctor Veselago en 1967, y se demostró que tenían propiedades ópticas extrañas, tales como un índice de refracción negativo y efecto Doppler inverso. Los metamateriales son tan extraños y aparentemente absurdos que en otro tiempo se pensó que eran imposibles de construir. Pero en los últimos años se han construido metamateriales en el laboratorio, lo que ha obligado a los físicos reacios a reescribir los libros de texto de óptica).

Aunque un verdadero manto de invisibilidad es posible dentro de las leyes de la física, como reconocerán la mayoría de los físicos, aún quedan formidables obstáculos técnicos antes de que esta tecnología pueda extenderse para trabajar con luz visible y no solo radiación de microondas.

En general, las estructuras internas implantadas dentro del metamaterial deben ser más pequeñas que la longitud de onda de la radiación. Por ejemplo, las microondas pueden tener una longitud de onda de unos 3 centímetros, de modo que para que un metamaterial curve la trayectoria de las microondas debe tener insertados en su interior implantes minúsculos menores que 3 centímetros. Pero para hacer un objeto invisible a la luz verde, con una longitud de onda de 500 nanómetros (nm), el metamaterial debe tener insertadas estructuras que sean solo de unos 50 nanómetros de longitud, y estas son escalas de longitud atómica que requieren nanotecnología.

Escala de los Nanómetros y Micrómetros.

(Un nanómetro es una mil millonésima de metro. Aproximadamente cinco átomos pueden caber en un nanómetro). Este es quizá el problema clave al que se enfrentan nuestros intentos de crear un verdadero manto de invisibilidad. Los átomos individuales dentro de un metamaterial tendrían que ser modificados para curvar un rayo de luz como una serpiente.

Metamateriales para luz visible

La carrera ha empezado. Desde que se anunció que se han fabricado materiales en el laboratorio se ha producido una estampida de actividad en esta área, con nuevas ideas y sorprendentes avances cada pocos meses. El objetivo es claro: utilizar nanotecnología para crear metamateriales que puedan curvar la luz visible, no solo las microondas. Se han propuesto varios enfoques, todos ellos muy prometedores. Uno de ellos es utilizar la tecnología ya disponible, es decir, tomar prestadas técnicas ya conocidas de la industria de semiconductores para crear nuevos metamateriales. Una técnica llamada «fotolitografía » está en el corazón de la miniaturización informática, y con ello impulsa la revolución de los ordenadores. Esta tecnología permite a los ingenieros colocar cientos de millones de minúsculos transistores en una pastilla de silicio no mayor que un pulgar.

La razón de que la potencia de los ordenadores se duplique cada dieciocho meses (lo que se conoce como ley de Moore) es que los científicos utilizan luz ultravioleta para «grabar» componentes cada vez más pequeños en un chip de silicio. Esta técnica es muy similar al modo en que se utilizan las plantillas para crear vistosas camisetas. (Los ingenieros de ordenadores empiezan con una delgada tableta de silicio y aplican sobre ella capas extraordinariamente delgadas de materiales diversos. Luego se coloca sobre la tableta una máscara plástica que actúa como una plantilla. Esta contiene los complejos perfiles de los cables, transistores y componentes de ordenador que constituyen el esqueleto básico del circuito. La tableta se baña entonces en radiación ultravioleta, que tiene una longitud de onda muy corta, y dicha radiación imprime la estructura en la tableta fotosensible. Tratando la tableta con gases y ácidos especiales, la circuitería completa de la máscara queda grabada en las zonas de la tableta que estuvieron expuestas a la luz ultravioleta. Este proceso crea una tableta que contiene centenares de millones de surcos minúsculos, que forman los perfiles de los transistores).

Un spinner utilizado en la fotolitografía.

Actualmente, los componentes más pequeños que se pueden crear con este proceso de grabado son de unos 53 nm (o unos 150 átomos de largo). Un hito en la búsqueda de la invisibilidad se alcanzó cuando esta técnica de grabado de tabletas fue utilizada por un grupo de científicos para crear el primer metamaterial que opera en el rango de la luz visible. Científicos en Alemania y en el Departamento de Energía de Estados Unidos anunciaron a principios de 2007 que, por primera vez en la historia, habían fabricado un metamaterial que funcionaba para luz roja. Lo «imposible» se había conseguido en un tiempo notablemente corto. El físico Costas Soukoulis del Laboratorio Ames en Iowa, junto con Stefan Linden, Martin Wegener y Gunnar Dolling de la Universidad de Karlsruhe, en Alemania, fueron capaces de crear un metamaterial que tenía un índice de —0,6 para la luz roja, con una longitud de onda de 780 nm.

Hasta ahora esos científicos han conseguido un índice de refracción negativo solo para luz roja. Su próximo paso sería utilizar esta tecnología para crear un metamaterial que curvara la luz roja enteramente alrededor de un objeto, haciéndolo invisible a dicha luz. Estas líneas de investigación pueden tener desarrollos futuros en el área de los «cristales fotónicos».  El objetivo de la tecnología de cristales fotónicos es crear un chip que utilice luz, en lugar de electricidad, para procesar información.

Esto supone utilizar nanotecnología para grabar minúsculos componentes en una tableta, de modo que el índice de refracción cambie con cada componente. Los transistores que utilizan luz tienen varias ventajas sobre los que utilizan electricidad. Por ejemplo, las pérdidas de calor son mucho menores en los cristales fotónicos. (En los chips de silicio avanzados, el calor generado es suficiente para freír un huevo. Por ello deben ser enfriados continuamente o de lo contrario fallarán, pero mantenerlos fríos es muy costoso).

No es sorprendente que la ciencia de los cristales fotónicos sea ideal para los metamateriales, puesto que ambas tecnologías implican la manipulación del índice de refracción de la luz en la nanoescala.

La Invisibilidad plasmónica

Para no quedarse atrás, otro grupo anunció a mediados de 2007 que había creado un metamaterial que curva luz visible utilizando una tecnología completamente diferente, llamada «plasmónica». Los físicos Henri Lezec, Jennifer Dionne y Harry Atwater del Instituto de Tecnología de California (Caltech) anunciaron que habían creado un metamaterial que tenía un índice negativo para la más difícil región azul-verde del espectro visible de la luz.

El objetivo de la plasmónica es «estrujar» la luz de modo que se puedan manipular objetos en la nanoescala, especialmente en la superficie de metales. La razón de que los metales conduzcan la electricidad es que los electrones están débilmente ligados a los átomos del metal, de modo que pueden moverse con libertad a lo largo de la superficie de la red metálica. La electricidad que fluye por los cables de su casa representa el flujo uniforme de estos electrones débilmente ligados en la superficie metálica. Pero en ciertas condiciones, cuando un haz luminoso incide en la superficie metálica, los electrones pueden vibrar al unísono con el haz luminoso original, lo que da lugar a movimientos ondulatorios de los electrones en la superficie metálica (llamados plasmones), y estos movimientos ondulatorios laten al unísono con el haz luminoso original.

En física, un plasmón es un cuanto de oscilación del plasma.

Y lo que es más importante, estos plasmones se pueden «estrujar» de modo que tengan la misma frecuencia que el haz original (y con ello lleven la misma información) pero tengan una longitud de onda mucho más pequeña. En principio se podrían introducir estas ondas estrujadas en nanocables.

Como sucede con los cristales fotónicos, el objetivo último de la plasmónica es crear chips de ordenador que computen utilizando luz en lugar de electricidad. El grupo del Caltech construyó su metamaterial a partir de dos capas de plata, con un aislante de silicio-nitrógeno en medio (de un espesor de solo 50 nm), que actuaba como una «guía de onda» que podía guiar la dirección de las ondas plasmónicas.

Luz láser entra y sale del aparato a través de dos rendijas horadadas en el metamaterial. Analizando los ángulos a los que se curva la luz láser cuando atraviesa el metamaterial, se puede verificar que la luz está siendo curvada mediante un índice negativo.

El futuro de los metamateriales

Los avances en metamateriales se acelerarán en el futuro por la sencilla razón de que ya hay un gran interés en crear transistores que utilicen haces luminosos en lugar de electricidad. Por consiguiente, la investigación en invisibilidad puede «subirse al carro» de la investigación en curso en cristales fotónicos y plasmónica para crear sustitutos para el chip de silicio. Ya se están invirtiendo centenares de millones de dólares a fin de crear sustitutos para la tecnología del silicio, y la investigación en metamateriales se beneficiará de estos esfuerzos de investigación. Debido a los grandes avances que se dan en este campo cada pocos meses, no es sorprendente que algunos físicos piensen que algún tipo de escudo de invisibilidad puede salir de los laboratorios en unas pocas décadas.

Por ejemplo, los científicos confían en que en los próximos años serán capaces de crear metamateriales que puedan hacer a un objeto totalmente invisible para una frecuencia de luz visible, al menos en dos dimensiones. Hacer esto requerirá insertar minúsculos nanoimplantes ya no en una formación regular, sino en pautas sofisticadas, de modo que la luz se curve suavemente alrededor de un objeto.

Curvatura de la luz sobre un objeto.

A continuación, los científicos tendrán que crear metamateriales que puedan curvar la luz en tres dimensiones, no solo en las superficies bidimensionales planas. La fotolitografía ha sido perfeccionada para hacer tabletas de silicio planas, pero crear metamateriales tridimensionales requerirá apilar tabletas de una forma complicada.

Después de eso, los científicos tendrán que resolver el problema de crear metamateriales que puedan curvar no solo una frecuencia, sino muchas. Esta será quizá la tarea más difícil, puesto que los minúsculos implantes que se han ideado hasta ahora solo curvan luz de una frecuencia precisa. Los científicos tal vez tendrán que crear metamateriales basados en capas, y cada capa curvará una frecuencia específica. La solución a este problema no está clara. En cualquier caso, una vez que se obtenga finalmente un escudo de invisibilidad, será probablemente un aparato complicado. El manto de Harry Potter estaba hecho de tela delgada y flexible, y volvía invisible a cualquiera que se metiese dentro.

Pero para que esto sea posible, el índice de refracción dentro de la tela tendría que estar cambiando constantemente de forma complicada mientras la tela se agitara, lo que no resulta práctico.

Lo más probable es que un verdadero «manto» de invisibilidad tenga que estar hecho de un cilindro sólido de metamateriales, al menos inicialmente. De esa manera, el índice de refracción podría fijarse dentro del cilindro. (Versiones más avanzadas podrían incorporar con el tiempo metamateriales que sean flexibles y puedan retorcerse, y aun así hacer que la luz fluya en la trayectoria correcta dentro de los metamateriales. De esta manera, cualquiera que estuviera en el interior del manto tendría cierta flexibilidad de movimientos).

Algunos han señalado un defecto en el escudo de invisibilidad: cualquiera que estuviese dentro no sería capaz de mirar hacia fuera sin hacerse visible.

Imaginemos a un Harry Potter totalmente invisible excepto por sus ojos, que parecerían estar flotando en el aire. Cualquier agujero para los ojos en el manto de invisibilidad sería claramente visible desde el exterior. Si Harry Potter fuera invisible se encontraría ciego bajo su manto de invisibilidad. (Una posible solución a este problema sería insertar dos minúsculas placas de vidrio cerca de la posición de los agujeros para los ojos. Estas placas de vidrio actuarían como «divisores de haz», que dividen una minúscula porción de la luz que incide en las placas y luego envía a luz a los ojos. De este modo, la mayor parte de la luz que incidiera en el manto fluiría a su alrededor, haciendo a la persona invisible, pero una minúscula cantidad de luz sería desviada hacia los ojos).

Por terribles que sean estas dificultadas, científicos e ingenieros son optimistas en que algún tipo de manto de invisibilidad pueda construirse en las próximas décadas.

Invisibilidad y nanotecnología

Como he mencionado antes, la clave para la invisibilidad puede estar en la nanotecnología, es decir, la capacidad de manipular estructuras de tamaño atómico de una mil millonésima de metro.

El nacimiento de la nanotecnología data de una famosa conferencia de 1959 impartida por el premio Nobel Richard Feynman ante la Sociedad Americana de Física, con el irónico título «Hay mucho sitio al fondo». En dicha conferencia especulaba sobre lo que podrían parecer las máquinas más pequeñas compatibles con las leyes de la física conocidas. Feynman era consciente de que podían construirse máquinas cada vez más pequeñas hasta llegar a distancias atómicas, y entonces podrían utilizarse los átomos para crear otras máquinas.

Richard Feynman.

Máquinas atómicas, tales como poleas, palancas y ruedas, estaban dentro de las leyes de la física, concluía él, aunque serían extraordinariamente difíciles de hacer.

La nanotecnología languideció durante años porque manipular átomos individuales estaba más allá de la tecnología de la época. Pero en 1981 los físicos hicieron un gran avance con la invención del microscopio de efecto túnel, que les valió el premio Nobel de Física a los científicos Gerd Binning y Heinrich Rohrer que trabajaban en el Laboratorio IBM en Zurich.

De repente, los físicos podían obtener sorprendentes «imágenes» de átomos individuales dispuestos como se presentan en los libros de química, algo que los críticos de la teoría atómica consideraban imposible en otro tiempo. Ahora era posible obtener magníficas fotografías de átomos alineados en un cristal o un metal. Las fórmulas químicas utilizadas por los científicos, con una serie compleja de átomos empaquetados en una molécula, podían verse a simple vista. Además, el microscopio de efecto túnel hizo posible la manipulación de átomos individuales.

Logo de la empresa IBM escrito con átomos.

De hecho, se escribieron las letras «IBM» tomando átomos de uno en uno, lo que causó sensación en el mundo científico. Los científicos ya no iban a ciegas cuando manipulaban átomos individuales, sino que realmente podían verlos y jugar con ellos.

El microscopio de efecto túnel es engañosamente simple. Como una aguja de fonógrafo que explora un disco, una sonda aguda pasa lentamente sobre el material a analizar. (La punta es tan aguda que consiste en un solo átomo). Una pequeña carga eléctrica se coloca en la sonda, y una corriente fluye desde la sonda, a través del material, hasta la superficie que hay debajo.

Secuencia de movimientos para el diseño del Logo.

La sonda es también suficientemente sensible para mover átomos individuales y crear «máquinas » sencillas a partir de átomos individuales. La tecnología está ahora tan avanzada que puede mostrarse un racimo de átomos en una pantalla de ordenador, y entonces, moviendo simplemente el cursor del ordenador, los átomos pueden moverse en la dirección que uno quiera. Se pueden manipular montones de átomos a voluntad, como si se estuviera jugando con bloques Lego.

Además de formar las letras del alfabeto utilizando átomos individuales, se pueden crear asimismo juguetes atómicos, tales como un ábaco hecho de átomos individuales.

Los átomos están dispuestos en una superficie con ranuras verticales. Dentro de estas ranuras verticales se pueden insertar buckybolas de carbono (que tienen la forma de un balón de fútbol, pero están hechas de átomos de carbono individuales). Estas bolas de carbono pueden moverse entonces arriba y abajo en cada ranura, con lo que se tiene un ábaco atómico. También es posible grabar dispositivos atómicos utilizando haces de electrones. Por ejemplo, científicos de la Universidad de Cornell han hecho la guitarra más pequeña del mundo, veinte veces más pequeña que un cabello humano, grabada en silicio cristalino. Tiene seis cuerdas, cada una de 100 átomos de grosor, y las cuerdas pueden ser pulsadas utilizando un microscopio de fuerzas atómicas. (Esta guitarra producirá música realmente, pero las frecuencias que produce están muy por encima del rango de audición humana).

De momento, la mayoría de estas «máquinas» nanotech son meros juguetes. Aún están por crear máquinas más complicadas con engranajes y cojinetes. Pero muchos ingenieros confían en que no está lejos el tiempo en que seremos capaces de producir verdaderas máquinas atómicas. (Las máquinas atómicas se encuentran realmente en la naturaleza. Las células pueden nadar libremente en el agua porque pueden agitar pelos minúsculos. Pero cuando se analiza la juntura entre el pelo y la célula se ve que es realmente una máquina atómica que permite que el pelo se mueva en todas direcciones. Así, una clave para desarrollar la nanotecnología es copiar a la naturaleza, que dominó el arte de las máquinas atómicas hace miles de millones de años).

Hologramas e Invisibilidad

Otra manera de hacer a una persona parcialmente invisible es fotografiar el escenario que hay detrás de ella y luego proyectar directamente esa imagen de fondo en la ropa de la persona o en una pantalla que lleve delante. Vista de frente parece que la persona se haya hecho transparente, que la luz haya atravesado de alguna manera su cuerpo.

«Se utilizaría para ayudar a los pilotos a ver a través del suelo de la cabina en una pista de aterrizaje, o a los conductores que tratan de ver a través de una valla para aparcar un automóvil». Una videocámara fotografía lo que hay detrás del manto. Luego esta imagen se introduce en un proyector de vídeo que ilumina la parte frontal del manto, de modo que parece que la luz ha pasado a través de la persona.

Prototipos del manto de camuflaje óptico existen realmente en el laboratorio. Si miramos directamente a una persona que lleve este manto tipo pantalla, parece que haya desaparecido, porque todo lo que vemos es una imagen de lo que hay tras la persona. Pero si movemos un poco los ojos, la imagen en el manto no cambia, lo que nos dice que es un fraude. Un camuflaje óptico más realista necesitaría crear la ilusión de una imagen 3D.

Esquema de un holograma.

Para ello se necesitarían hologramas. Un holograma es una imagen 3D creada mediante láseres (como la imagen 3D de la princesa Leia en La guerra de las galaxias). Una persona podría hacerse invisible si el escenario de fondo fuera fotografiado con una cámara holográfica especial y la imagen holográfica fuera luego proyectada a través de una pantalla holográfica especial colocada delante de la persona.

Alguien que estuviera enfrente de la persona vería la pantalla holográfica, que contiene la imagen 3D del escenario de fondo, menos la persona. Parecería que la persona había desaparecido. En lugar de dicha persona habría una imagen 3D precisa del escenario de fondo. Incluso si se movieran los ojos no se podría decir que lo que se estaba viendo era un fraude.

Estas imágenes 3D son posibles porque la luz láser es «coherente», es decir, todas las ondas están vibrando perfectamente al unísono. Los hologramas se generan haciendo que un haz láser coherente se divida en dos partes. La mitad del haz incide en una película fotográfica. La otra mitad ilumina un objeto, rebota en este y luego incide en la misma película fotográfica. Cuando estos dos haces interfieren en la película se crea una figura de interferencia que codifica toda la información que hay en la onda 3D original.

Cuando se revela la película, no dice mucho; es algo parecido a una intrincada figura de tela de araña con remolinos y líneas. Pero cuando se permite que un haz láser incida en esta película, súbitamente aparece como por arte de magia una réplica 3D exacta del objeto original. No obstante, los problemas técnicos que plantea la invisibilidad holográfica son formidables.

Un reto es crear una cámara holográfica que sea capaz de tomar al menos 50 fotogramas por segundo. Otro problema es almacenar y procesar toda la información. Finalmente, habría que proyectar esta imagen en una pantalla de modo que la imagen pareciera realista.

Invisibilidad vía la cuarta dimensión

Deberíamos mencionar también que una manera aún más sofisticada de hacerse invisible era mencionada por H. G. Wells en El hombre invisible, e implicaba utilizar el poder de la cuarta dimensión.

¿Sería posible salir de nuestro universo tridimensional y cernirnos sobre él, desde el punto de vista de una cuarta dimensión?

Como una mariposa tridimensional que se cierne sobre una hoja de papel bidimensional, seríamos invisibles a cualquiera que viviera en el universo por debajo de nosotros.

Un problema con esta idea es que todavía no se ha demostrado que existan dimensiones más altas. Además, un viaje hipotético a una dimensión más alta requeriría energías mucho más allá de cualquiera alcanzable con  nuestra tecnología actual. Como forma viable de crear invisibilidad, este método está claramente más allá de nuestro conocimiento y nuestra capacidad actuales.

Hasta la vista…. Si acaso me vuelven a ver… 

Las tecnologías actuales han logrado grandes avances pero aun no son lo suficientemente avanzadas como para crear una forma de invisibilidad carente de fallas. En las próximas décadas, o al menos dentro de este siglo, una forma de invisibilidad puede llegar a ser realidad. Dentro de un tiempo ya existirán las mantas de la invisibilidad como la que utiliza Harry Potter, aunque yo sigo prefiriendo el Anillo Único. 

Esta entrada participa en la XXXIX Edición del Carnaval de la Física, que esta siendo organizado en esta ocasión por el blog El zombi de Schrödinger. ]

Referencias |

 

La Teletransportación: ¿Realidad o ficción?

¿Quien no ha llegado tarde alguna vez a una cita importante?, puedo asegurar que usted amable lector al igual que yo hemos asistido tarde al colegio, la universidad, el trabajo, etc., etc., etc., y muchos etcéteras mas, el ritmo de vida que todos llevamos en esta sociedad nos ha obligado a “movernos rápido”, todos tenemos muchas cosas que hacer durante el día (que cada vez nos parece mas corto) y para poder cumplir con todo lo que debemos, siempre nos encontramos viajando de un lugar a otro lo mas rápido posible, para ello recurrimos a varios medios de transporte como lo son: las bicicletas, automóviles, motocicletas, autobuses, trenes, barcos y aviones.

Pero la mente humana se ha encargado de abrir nuevas vías,  que sean mucho mas rápidas y de ser posibles instantáneas para que de esa manera tengamos un poco mas de tiempo para cumplir con nuestro trajín diario. Y es en ese instante que aparece en escena la Teletransportación. 

¿Pero qué tal si pudiésemos reemplazar ese “movernos rápido” por un “movernos instantáneamente”?

ORIGEN DEL TERMINO 

Literalmente Teletransportación quiere decir: “desplazar a distancia”. Lo cual nosotros entendemos como un desplazamiento que se produce sin necesidad de establecer contacto físico directamente con el objeto para que este se mueva. 

El termino “Teletransportación”, fue acuñado en el año 1930 por un reconocido investigador y escritor de la época, un tal Charles Fort de origen estadounidense, quien se dedicaba al estudio de los hechos que la ciencia de la época no podía solucionar.

Fort utilizo esa palabra para describir una supuesta conexión entre unas misteriosas desapariciones y apariciones que sucedían en varias partes del mundo. 

TELETRANSPORTACIÓN Y CIENCIA FICCIÓN

Si se descubriera la forma de transportar al instante a una persona o un objeto de un lugar a otro, seria sin lugar a duda una tecnología que cambiara el curso de toda nuestra civilización. Aunque todos los medios de transporte (las industrias que sirven y en las que se basan dichos sistemas) que actualmente son utilizados serian completamente obsoletos.

Imagínese un día normal, la alarma de su smartphone no funciono, se despierta tarde, se levanta y se viste lo mas rápido que puede, apenas si se acomoda el cabello (si es que lo tiene), engulle a toda prisa una rebana de pan tostado y bebe un sorbo de su taza de café, pero espere… usted no tiene que conducir al trabajo, simplemente se sienta en su sillón y presiona un botón e instantáneamente se encontrara sentado en la silla de su oficina, frente al ordenador listo para empezar a trabajar. 

Seria algo increíble y muy cómodo que la vida real fuese de esa manera, pero es una pena que simplemente sea parte de una renombrada cinta del genero favorito de los Frikis (me incluyo)… La gloriosa Ciencia Ficción.

Quizas la idea de teletransportación mas temprana que incursionó en la ciencia ficción es el cuento “The man without a body” que traducido es: “El hombre sin un cuerpo”  escrito por David P. Mitchell que relata la historia de un científico que logra descubrir un metro para desarmar los átomos de su gato y transmitirlos por uno de sus cables de telégrafo  pero debido a su mala suerte, cuando intenta hacerlo con su cuerpo, la batería de su telégrafo se agota cuando solo había transmitido su cabeza, falleciendo en el intento.

Pero la sociedad en general no adopto la idea de la teletransportación hasta que la famosa serie de 1966,  Star Trek y sus películas fueron lanzadas al aire.

Y es en esa serie que se introdujo la figura de un dispositivo que hacia posible la teletransportación llamado “transportador”, teóricamente consiste en una técnica de escaneo que permite determinar la posición de las partículas del objeto, desmantelarlo y enviarla a través de un rayo a un puno definido donde se ensamblaran nuevamente.

Si nos ponemos a pensar en detalle todo lo que eso implica, llegamos a la conclusión de que el cuerpo de una persona esta compuesto por billones de billones de átomos. Y por cada uno de ellos, se debe de reproducir con absoluta exactitud su posición, el espín de cada electrón, cada una de las estructuras moleculares y ademas las formas en que todo esto interacciona entre si, como se esta moviendo, como están vibrando, todas las velocidades exactas y muchas cosas mas. 

Aunque un dato curioso es que en la serie de “Star Trek” se utilizo el concepto de la teletransportación  porque no se contaba con el presupuesto necesario como para recrear los despegues y aterrizajes de las naves en los planetas. 

Y mas recientemente, en la serie televisiva que ha causado una revolución en concepto de ciencia y comedia, “The Big Bang Theory”, en uno de sus episodios el físico teórico Sheldon Cooper define lo que es la teletransportación:

Aunque una máquina teletransportadora pudiera determinar el estado cuántico de la materia de un individuo, en realidad no estaría teletransportándolo, sino destruyéndolo en una ubicación para luego recrearlo en otra.

TELETRANSPORTACIÓN Y CIENCIA REAL

Aunque todo eso parezca una tarea prácticamente imposible de llevarse a cabo, desde el punto de vista científico, “no existiría ninguna limitación física natural por la cual no pudiese realizarse”.

Después de todo, si podemos efectuar dicho procedimiento con un único átomo (y más adelante veremos que puede hacerse y se ha hecho) no debería haber una limitante natural que nos impida hacerlo con un objeto macroscópico, como un ser humano. Lo que si existen, por lo menos en la actualidad, son limitaciones tecnológicas que nos impiden poner todo esto en práctica.

La principal limitación tecnológica que tenemos actualmente esta relacionada directamente con la capacidad de almacenamiento de información. Imaginemos que al convertir todos los átomos de nuestro cuerpo en energía  deberíamos de almacenar toda la información relativa a cada uno de estos, para poder recuperarse nuevamente en el lugar de destino. El problema directo es que el teletransporte de una sola persona generaría miles de millones de millones de terabytes de información. 

Para poder hacernos una idea mas exacta, si lográramos almacenar toda la información de una sola persona en varios discos de 1 Terabyte cada uno, necesitaríamos unos 500 millones de edificios del tamaño del Empire State para poder guardarlos.

Y como todo esto es ciencia pero sobretodo física, no podíamos dejar fuera de la fiesta al  físico mas famoso de todos los tiempos, si señores y señoras, me refiero a Don Albert Einstein…

Y a todo esto, ¿porque Einstein ?… Pues porque también podría existir una problemática tecnológica relacionada con la conversión de materia a energía. Como bien sabemos, y según fue expresado por la famosísima ecuación de Einstein “E=MC²”, la materia y la energía son la misma cosa, e incluso pueden transformarse y convertirse la una en la otra. Aunque parezca increíble, algo tan inofensivo como una galleta, podría contener tanta energía como una bomba atómica. La clave es cuán rápidamente dicha energía es liberada, lo cual en física se conoce como potencia, equivalente a energía por unidad de tiempo. Entonces, la conversión de la masa de un ser humano promedio a energía daría como resultado 40 veces la energía liberada en la más grande de las explosiones atómicas. Sin el medio tecnológico apropiado para controlar esta situación, el teletransporte podría resultar catastrófico.

Pero aparte de los problemas tecnológicos que de por si no son pocos, se le han de sumar unos no menos importantes, los problemas éticos o filosóficos.

Estos problemas filosóficos se resumen en una sola pregunta:

¿Qué es lo que se obtiene del otro lado al llevar a cabo el proceso de teletransporte?

¿Es la misma persona, o solamente una réplica cuántica perfecta? ¿Se está desarmando a la persona y armándola en otro lado; o acaso se la está desarmando, almacenando la información y luego creándola de cero nuevamente usando dicha información? ¿El teletransporte estaría matando al individuo y luego creando una copia exacta del mismo; o de alguna forma lo preserva y luego lo transporta a otro lado? Mientras se mantengan sin contestar, todas estas preguntas plantearían profundas cuestiones éticas y filosóficas muy relevantes.

LA MECÁNICA CUÁNTICA

Seguramente todos nosotros hemos oído hablar o hemos leído acerca de la  mecánica cuántica. Esta rama de la física, que representa un gigantesco avance con respecto a la física clásica newtoniana, plantea muchas situaciones sumamente exóticas y en extremo extrañas, algunas de las cuales incluso se contradicen radicalmente con nuestra lógica y sentido común. 

Uno de los principios fundamentales de la mecánica cuántica es lo que se conoce como la dualidad onda-partícula, la cual desbarató completamente nuestra forma previa de observar el mundo atómico. Previo al desarrollo de la mecánica cuántica, los físicos solían considerar al átomo como una unidad compuesta por un núcleo (que estaba formado por protones y neutrones) y una serie de electrones girando en torno a dicho núcleo en órbitas establecidas. Con el desarrollo de la mecánica cuántica, los físicos descubrieron que dichas “órbitas establecidas” no existían; en cambio, los electrones actuaban como ondas y hacían saltos cuánticos en sus movimientos aparentemente caóticos dentro de los átomos.

Otra de las exóticas propiedades de la mecánica cuántica es lo que se ha dado en conocer como el principio de incertidumbre de Heisenberg. Según este principio, no se puede conocer a la vez la velocidad y la posición exacta de un electrón, ni se puede conocer su energía exacta medida en un intervalo de tiempo dado. Sumado a la dualidad onda-partícula, este nos impide conocer la posición exacta de los electrones que orbitan al núcleo; solo podemos encontrar diferentes intensidades de onda y hablar de la probabilidad de encontrar un electrón concreto en cualquier lugar y cualquier instante de la misma.

Si tomamos en consideración la dualidad onda-partícula y el principio de incertidumbre, la mecánica cuántica nos dice entonces que en el nivel cuántico se violan todas las leyes básicas de sentido común: los electrones pueden desaparecer y reaparecer en otro lugar diferente, y también pueden estar en muchos lugares al mismo tiempo. De esta forma, los electrones podrían experimentar a nivel cuántico algo muy similar al proceso de teletransporte.

Mientras que para los electrones resulta sumamente sencillo, incluso natural, desaparecer en un lado y reaparecer en otro, trasladado a escalas macroscópicas la posibilidad de que esto mismo suceda es increíblemente remota. Aunque dicha posibilidad existe y está permitida por las leyes físicas, habría que esperar un tiempo muchísimo mayor que la edad del Universo para que ocurriera. Además, en un cuerpo humano formado por billones y billones de átomos, incluso si los electrones están danzando y saltando en su viaje alrededor del núcleo, hay tantos de ellos que sus movimientos se promedian. De hecho, a grandes rasgos, esta es la razón por la cual en nuestro nivel las sustancias parecen sólidas y permanentes.

Si bien todos estos fenómenos son sumamente interesantes y nos permiten pensar que las leyes naturales del Universo no prohíben el teletransporte, lejos se encuentran de las formas de teletransporte que nos serían útiles. Pero no nos desilusionemos y busquemos que otras opciones podemos tomar en cuenta…

EL ENTRELAZAMIENTO CUÁNTICO

Traten de imaginarse un fenómeno tan exótico y raro, que inclusive el propio Einstein tuvo que recurrir a la palabra “fantasmal” para describir a grandes rasgos su funcionamiento. El fenómeno al que me refiero se conoce como entrelazamiento cuántico, y es una de las propiedades más extrañas de la mecánica cuántica. Tan extraña es que solamente algunos pocos “elegidos” consiguen comprender realmente las muy complejas y extensas matemáticas detrás de dicha propiedad.

Explicado de forma sencilla, el entrelazamiento cuántico funciona así:  En primer lugar se deben tomar dos electrones (o cualquier partícula subatómica que les guste) en estado de coherencia, es decir, que cuenten con las mismas propiedades y vibren al unísono. Luego, aunque dichos electrones sean separados por inmensas distancias, incluso distancias tan grandes que la luz no consiga viajar de un electrón al otro, estos permanecerán en sincronización ondulatoria, y cualquier modificación que se realice sobre las propiedades de uno de los electrones, se reflejará instantáneamente en el otro electrón remoto.

Inclusive si las partículas se encuentran separadas por años luz de distancia, seguirá existiendo una onda invisible que las conecta, como si hubiese algún tipo de conexión profunda que las vincula, como si tuviesen conciencia o un alma propia. El mismo Einstein solía denominar a este fenómeno, de forma burlona, como una “fantasmal acción a distancia”.

En la década de 1980, un equipo científico de Francia probó experimentalmente este fenómeno utilizando dos detectores separados por 13 metros de distancia y midiendo los espines de fotones emitidos por átomos de calcio. Increíblemente, los resultados concordaron por completo con la teoría cuántica: aún estando separados, cuando se modificaban las propiedades de uno de los fotones, dicha modificación se reflejaba instantáneamente en el otro fotón, como si algo desconocido los mantuviese unidos y comunicase esa información entre ellos.

En el año 1993, científicos de IBM demostraron que era físicamente posible teletransportar objetos, al menos a nivel atómico, usando el entrelazamiento cuántico. En realidad lo que se transporta no es el objeto en sí, sino toda la información contenida dentro del mismo. Desde entonces los físicos han conseguido teletransportar fotones e incluso átomos enteros utilizando las propiedades del entrelazamiento cuántico, en lo que se ha dado a conocer como “teletransporte cuántico”.

Con la utilización de este método se han logrado increíbles avances recientes en relación con el teletransporte. En el año 2004 físicos de la Universidad de Viena teletransportaron partículas de luz a una distancia de 600 metros. En el mismo año, se consiguió el teletransporte cuántico no de fotones de luz, sino de átomos reales (puntualmente tres átomos de berilio), lo cual nos acerca a un dispositivo de teletransporte más realista y útil. En el año 2006 se logró otro avance espectacular: el primer teletransporte de un objeto macroscópico. Un equipo de físicos consiguió entrelazar un haz luminoso con un gas de átomos de cesio, el cual involucraba billones y billones de átomos. Luego codificaron la información contenida dentro de pulsos de láser y fueron capaces de teletransportar esa información a los átomos de cesio a una distancia de casi medio metro.

En el año 2012, investigadores europeos batieron el récord hasta entonces vigente pues lograron teletransportar fotones a una distancia de 143 kilómetros. Así que podemos decir que cada vez estamos mas cerca…

TELETRANSPORTE Y EL CONDENSADO DE BOSE-EINSTEIN

Debido a que lograr un estado de entrelazamiento cuántico entre objetos plantea inmensas dificultades, los físicos comenzaron a explorar otras posibilidades para el teletransporte de objetos sin la necesidad de recurrir al entrelazamiento. En el año 2007, finalmente se consiguió desarrollar un nuevo esquema de teletransporte, basado en un nuevo estado de la materia denominado “condensado de Bose-Einstein” (o BEC).

En la naturaleza se puede encontrar la temperatura más fría en el espacio exterior, la cual corresponde a 3°K por encima del cero absoluto (esto se debe al calor residual del Big Bang que aún llena el Universo). En cambio,un BEC se encuentra a una millonésima de mil millonésima de grado sobre el cero absoluto, lo más que podemos acercarnos a este último. Cuando un objeto se enfría hasta alcanzar casi el cero absoluto, todos sus átomos se ponen en el estado de energía más baja, de modo que comienzan a vibrar al unísono y se hacen coherentes entre sí.

El nuevo dispositivo de teletransporte funcionaría entonces de la siguiente manera. Se toma un conjunto de átomos de rubidio super-fríos en un estado BEC. Entonces se aplica al BEC un haz de materia, también compuesto por átomos de rubidio. Estos últimos átomos también“quieren ponerse” en el estado de energía más baja, así que ceden su exceso de energía en forma de un pulso de luz. Este haz de luz, que contiene toda la información cuántica de la materia original, se envía a través de un cable de fibra óptica. Por último, el haz de luz incide sobre otro BEC, que transforma el haz de luz en el haz de materia original.

Este nuevo método de teletransporte es sumamente prometedor, puesto que se evita el muy complicado entrelazamiento de átomos. De cualquier modo, las cosas no son tan sencillas como parecerían: este método también tiene sus problemáticas, principalmente por depender de las propiedades de los BEC, que son muy difíciles de recrear en el laboratorio.

QUE PODEMOS ESPERAR

Como nos hemos dado cuenta, la teletransportación esta un poco lejos de hacerse realidad debido a que aun tenemos problemas técnicos muy difíciles de superar, pero al paso en el que la tecnología esta evolucionando si podemos asegurar que llegara el día en el que teletransportarse sea tan común y ordinario como leer la ultima notificación de nuestra red social favorita. Quizas solo necesitemos de unos cuantos siglos o quizás de un tiempo mucho mayor.

Falta aun mucho por descubrir, mucho por hacer y demasiado por discutir.

Sabemos que actualmente se requieren los laboratorios y el instrumental más avanzado del mundo para teletransportar tan solo algunos átomos. Los físicos confían que en las próximas décadas se pueda realizar el teletransporte de objetos más complejos, como moléculas o incluso algún virus. Pero nosotros no viviríamos lo suficiente como para llegar a verlo, aunque alguno de nuestros descendientes podría estar disfrutando de esa invención dentro de un buen tiempo.

Aun siendo así  cuando llegue el momento seguro ese avance científico sera una de las mas significativas revoluciones experimentadas por la humanidad y la sociedad. 

Esta entrada participa en la XXXIX Edición del Carnaval de la Física, que esta siendo organizado en esta ocasión por el blog El zombi de Schrödinger. ]

Referencias |

El Universo y sus feroces Monstruos

El titulo de esta entrada créanme que no ha sido exagerado de ninguna manera. Para muchos el basto Universo es tranquilo, y en realidad parece ser gobernado por verdadera paz que impera en todas direcciones veamos a donde veamos. Pero esa idea errónea que casi todos tenemos es causada en parte debido a que no podemos ver la mayoría de las bestias que salpican nuestro cosmos.

El Universo en realidad es un lugar que definido en pocas palabras seria algo como: caos, desorden, fuerza, peligro y muchos otros sinónimos. 

El Universo se genero con una violenta explosión y desde su inicio se siguen produciendo toda clase de procesos violentos en él.

Existen muchos feroces monstruos que se estremecen en puntos lejanos del Universo y hay varios que están bastante cerca como para no ignorarlos.  La mayoría de ellos son enormes y para poder medirlos los astrofísicos los comparan con la masa de nuestro Sol, equivalente a unas 332.950 veces la masa de la Tierra, su valor es:

Dentro de todos esos gigantes violentos, mencionare a quienes mas destacan, tanto por su voracidad como por su increíble energía. Los principales son:

  • Las Supernovas
  • Los Agujeros Negros Supermasivos
  • Los Quasares 
  • Y los Magnetares.

Todos ellos empiezan su historia con la muerte de una estrella cuyo destino final dependerá de la masa que posea. Imaginemos una estrella como nuestro Sol, cuando este “muera” se transformara en una enana blanca, un remanente un tanto inerte de lo que era cuando aun no no había agotado su combustible nuclear.

Si el Sol fuera ocho veces mas masivo entonces al morir todo indicaría que se convertirá en una estrella de neutrones, la cual surge luego de una explosión de determinados tipos de supernova.

Si el Sol fuera unas treinta veces mas masivo, el resultado final seria un hambriento agujero negro.

Cuando algunos de estos monstruos interactúan con otras estrellas u objetos de su mismo tipo se originan algunos eventos cósmicos extraordinariamente energéticos  tan fantásticos que su detección es celebrada por los astrónomos de todo el mundo.

Observatorio Swift

Debido a ello, el Universo conocido esta siendo vigilado continuamente para que no nos perdamos de tan espectaculares acontecimientos, los astrofísicos investigan el Cosmos con los ojos electrónicos de los observatorios espaciales, como el Fermo, el Swift, el Hubble, el CXO, y varios mas de la NASA que buscan el rastro de algunos monstruos cósmicos en las emanaciones de rayos Gammaráfagas colosales de energía que surgen tras una explosión de supernova muy potente, o tras la colisión de objetos masivos y compactos, como las estrellas de neutrones o los agujeros negros.

Las Supernovas

Una supernova es una enorme explosión estelar que se manifiesta de forma increíble  algunas veces se puede notar a simple vista en algún lugar de la esfera celeste en donde anteriormente no se tenia constancia de existiese algo en particular. Debido a ello se les denomino supernovas (estrellas nuevas).

Una supernova puede llegar a producir destellos de luz muy intensos que pueden prolongarse durante semanas e inclusive varios meses. Su característica principal es que aumentan su intensidad luminosa hasta que superan la del resto de la galaxia y llegan a una magnitud absoluta.

Su origen aun se debate, pueden ser estrellas muy masivas que son incapaces de sostenerse por la presión de degeneración de los electrones [1], lo que provoca que se contraigan violenta y repentinamente generando durante el proceso una enorme emisión de energía. Llegando a liberar en repetidas ocasiones  1044 J de energia.

La explosión de una supernova provoca la expulsión de las capas externas de una estrella por medio de poderosas ondas de choque.

Un caso muy conocido ocurrió a primeras horas de la mañana del 19 de marzo del 2008, un punto muy luminoso se hizo visible en la constelación de Boyero, no se trataba de una estrella nueva, era una explosión de rayos gamma de 2.5 millones de veces mas luminosa que la mas brillante de las supernovas, ocurrida en una época tan remota que el Universo ni siquiera había alcanzado la mitad de su edad actual. Ese fenómeno impresionante duro unos 15 segundos y aunque provoco mucho entusiasmo en la comunidad astronómica de todo el mundo, quedo en segundo plano, porque en la mañana del 23 de abril, los instrumentos abordo del telescopio espacial Swift de la NASA captaron una explosión cataclísmica en la constelación de Leo.

Ese evento que apenas duro unos 10 segundos, constituye la mayor fuente de radiaciones gamma jamas descubierta hasta la fecha, esa estrella seguramente se convirtió en un agujero negro. Ese suceso ocurrió a mas de 13.000 millones de años luz, y tuvo lugar apenas unos 630 millones de años después del Big Bag, y es el acontecimiento astrofísico mas antiguo jamas detectado hasta ahora.

El objeto mas lejano, el GRB 090423 (dentro del circulo) ocurrió unos 630 millones de años después del Big Bang .

A esa distancia, la mayoría de las explosiones de supernovas son indetectables. Sólo un 1% de ellas lo hace de tal forma que la materia es expulsada a mas de 99.99% de la velocidad de la luz. Se trata de un suceso increíblemente energético (las explosiones de rayos gamma generan mas energía en unos segundos que nuestra estrella en toda su vida), que confirma que en las primeras etapas del Universo ya se producía el nacimiento y colapso de estrellas masivas.

 

Agujero Negro Supermasivo 

Lo que llamamos un agujero negro Supermasivo es un agujero negro con una masa del orden de millones o inclusive miles de millones de masas solares.

Se cree que muchas, si no es que todas las galaxias tienen un agujero negro supermasivo en su centro. Inclusive una de las teorías mas extendidas en los últimos tiempos es que todas las galaxias elípticas y espirales tienen un agujero negro supermasivo en su centro, lo cual conseguiría generar suficiente gravedad como para mantener la unidad.

Imagen del desarrollo de Sagitario A*

El ejemplo mas claro es el que tenemos mas próximo, en el centro de nuestra galaxia se encuentra Sagitario A*, cuya existencia se ha confirmado de forma definitiva en el centro de la Vía Láctea. Para detectarlo los astrónomos utilizaron ondas de rayos infrarrojos que evitaban el polvo estelar que bloquea la vista de esa zona central. Durante años, fueron tomando puntos de referencia de la órbita de las 28 estrellas, que se mueven más rápido por estar cerca del agujero negro. «Han podido estudiar la órbita completa de una de ellas que tarda 16 años en recorrerla y de ese modo pueden definir la materia que siente cada estrella, que es la que tiene el agujero negro.

En algunas regiones del espacio, la fuerza de gravedad es tan formidable que ni la luz puede escapar. Eso es, en esencia un agujero negro, pero los agujeros negros supermasivos son auténticos monstruos cósmicos con un diámetro tan grande como la del Sistema Solar.

Los agujeros negros de este tamaño pueden formarse solo de dos formas: por un lento crecimiento de materia (que requiere un periodo muy largo de tiempo y enormes cantidades de materia ), o directamente por presión externa en los primeros instantes del Big Bang.

El agujero negro supermasivo mas grande de todos podría ser un agujero negro que esta situado en la galaxia NGC mil 227, ubicada a 220 millones de años luz de distancia de la Tierra en la constelación de Perseo.

Se especula que agujeros negros supermasivos en el centro de muchas galaxias, actuarían como los “motores” de las mismas, provocando sus movimientos giratorios, tales como galaxias Seyfert [2] y quasares.

Los Quasares

Un quasar es técnicamente una galaxia hiperactiva, los quasares son las mas brillantes y letales del espacio. En el corazón de esas galaxias habita un monstruo galáctico, los quasares son alimentados por un agujero negro supermasivo que absorbe continuamente enormes cantidades de materia y estrellas cada año. Los quasares con los objetos energéticos mas efectivos del universo, emiten mas energía que 100 galaxias normales. 

Los quares visibles muestran un desplazamiento al rojo muy alto. El consenso científico dice que esto es un efecto de la expansión métrica del universo entre los quasares y la Tierra. Combinando esto con la Ley de Hubble se sabe que los quasares están muy distantes. Para ser observables a esas distancias, la energía de emisión de los quasares hace empequeñecer a casi todos los fenómenos astrofísicos conocidos en el universo, exceptuando comparativamente a eventos de duración breve como supernovas y brotes de rayos gamma. Los quasares pueden fácilmente liberar energía a niveles iguales que la combinación de cientos de galaxias medianas. La luz producida sería equivalente a la de un billón de soles.

Todos los quasares se sitúan a grandes distancias de la Tierra, el más cercano a 780 millones de años luz y el más lejano a 13.000 millones de años luz,

Los Magnetares o Imanes de los Dioses

Un magnetar o magnetoestrella es una estrella de neutrones alimentada con un campo magnético extremadamente fuerte. Estas estrellas desprenden emisiones de alta energía de rayos X y rayos gamma.  Se estima que este tipo de cuerpos celestes se originan de estrellas que poseen entre 30 a 40 veces la masa de nuestro Sol. 

La vida activa de un magnetar es corta, sus potentes campos magnéticos se desmoronan pasados los 10.000 años, perdiendo consecuentemente su vigorosa emisión de rayos X.

Un magnetar que cuente con un radio de tan sólo 10 kilómetros contiene la misma masa que nuestro Sol.

El 27 de diciembre de 2004, se registró un estallido de rayos gamma proveniente del magnetar denominado SGR 1806-20 situado en la Vía Láctea. El origen estaba situado a unos 50.000 años luz. En la opinión de eminentes astrónomos, si se hubiera producido a tan solo 10 años luz de la Tierra, −distancia que nos separa de alguna de las estrellas más cercanas−, hubiera peligrado seriamente la vida en nuestro planeta al destruir la capa de ozono, alterando el clima global y destruyendo la atmósfera. Esta explosión resultó ser unas cien veces más potente que cualquier otro estallido registrado hasta esa fecha. La energía liberada en dos centésimas de segundo fue superior a la producida por el Sol en 250.000 años.

Mas recientemente en agosto de 2005, el satélite Swift de la NASA capto un resplandor super brillante en una remota región del universo que tardo 250 segundos. Esa explosión produjo la misma energía que generaría nuestro Sol durante 10.000 millones de años. Ese fenómeno correspondía con un inusual estallido de rayos gamma y encajaba, con la actividad de un Magnetar.

Y en junio de 2010, la Agencia Espacial Europea anuncio el hallazgo de uno es estos objetos a 15.000 años luz de la tierra. Pese a la distancia, es capaz de aportar a nuestro planeta tanta energía como una erupción Solar.

A continuación se puede ver una pequeña comparación entre distintas intensidades de campos magnéticos:

  • Brújula movida por el campo magnético de la Tierra: 0,6 Gauss
  • Pequeño imán, como los sujetapapeles de los frigoríficos: 100 Gauss
  • Campo generado en la Tierra por los electro imanes más potentes:4,5×105 Gauss
  • Campo máximo atribuido a una de las denominadas estrellas blancas: 10×108 Gauss
  • Magnetares (SGRs y AXPs):  1014 ~ 1015 Gauss

Sin duda alguna los cuerpos que crean los mayores campos magnéticos de todo el Universo.  

Si algún astronauta hipotéticamente se desviara de su curso y se acercase a unos 100.000 km de distancia, las consecuencias serian terroríficas, el campo magnético del magnetar podría desordenar los átomos de la carne humana y sus fuerzas gravitatorias destrozarían a una persona.

Un magnetar situado a 10 años luz de nuestro Sistema Solar podría causar un cataclismo cósmico, destruiría nuestra atmósfera y seria el fin de la vida en la Tierra.

Aunque la probabilidad de que se encuentren cerca de nosotros es casi nula, podemos estar tranquilos. Lo bueno de todo esto es que aunque ocurriera cualquier contacto con alguno de estos monstruos muchos de nosotros ya no estaremos aquí para verlo. Al menos eso es lo que dicen los científicos.

¿Cómo sabemos que la Teoría de la Relatividad es correcta?

Seguramente todos hemos escuchado hablar de Albert Einstein, sin duda es uno de los físicos mas importantes de la historia y para muchos el mayor genio de todos los tiempos (en lo personal prefiero a Newton, pero queda a cuestión de gustos). Considero que estoy en lo correcto al afirmar que no existe persona en la tierra que tenga conocimientos básicos de ciencia y que no sepa quien es la persona de la siguiente imagen. 

Albert Einstein es un físico que en su época obtuvo un enorme reconocimiento de la sociedad y tanta fama como las actuales estrellas de cine o  de la música. No había lugar en el que una multitud de personas se acercaran a el para verlo mejor, intercambiar algunas palabras e inclusive obtener alguna fotografía del físico.

Pero no vamos a hablar acerca de su fama, vamos a hablar acerca de su obra, mas especificamente de su Teoría de la Relatividad, muchas personas han escuchado de esta revolucionaria obra, la idea general es fácil de comprender, pero adentrarse en sus variaciones y todo lo que implica dentro de la Física es algo que a muchos confunde con facilidad y a los que estamos familiarizados con ella nos causa ese nudo en la garganta al ver semejantes postulados.

Para muchos una simple obra teórica que no sirve de nada y que aun no ha sido comprobada, para muchos otros significa el futuro por develar junto con la mecánica cuántica.

La teoría de la relatividad, desarrollada fundamentalmente por Albert Einstein, pretendía originalmente explicar ciertas anomalías en el concepto de movimiento relativo, pero en su evolución se ha convertido en una de las teorías más importantes en las ciencias físicas y ha sido la base para que los físicos demostraran la unidad esencial de la materia y la energía, el espacio y el tiempo, y la equivalencia entre las fuerzas de la gravitación y los efectos de la aceleración de un sistema.

La teoría de la relatividad, tal como la desarrolló Einstein, tuvo dos formulaciones diferentes.

  • La primera es la que corresponde a dos trabajos publicados en 1906 en los Annalen der Physik. Es conocida como la Teoría de la relatividad especial y se ocupa de sistemas que se mueven uno respecto del otro con velocidad constante (pudiendo ser igual incluso a cero).
  • La segunda, llamada Teoría de la relatividad general (así se titula la obra de 1916 en que la formuló), se ocupa de sistemas que se mueven a velocidad variable.

La teoría especial de la relatividad no negaba las teorías de Newton o de Galileo, simplemente las corregía. La relatividad sólo se hacía evidente a velocidades cercanas a la velocidad de la luz. A velocidades “normales”, las diferencias en los resultados al utilizar las transformaciones de Galileo y las transformaciones de Lorentz, son tan pequeñas que no se pueden detectar, y es por eso que las implicaciones de la relatividad especial nos parecen tan poco intuitivas. Pero si fuéramos capaces de generar una velocidad suficiente (digamos 3/4 de la velocidad de la luz, por ejemplo), empezaríamos a notar los efectos predichos por la relatividad:  

  • Los relojes en movimiento irían más lentos que los estacionarios (no porqué el reloj funcionara más despacio, sino por el tiempo en sí).  
  • Los objetos en movimiento se contraerían en la dirección del movimiento.  
  • Cuanto más rápido se moviera un objeto, más masa tendría. 

Estos efectos están presentes en nuestra vida diaria, pero son tan increíblemente pequeños que los podemos despreciar perfectamente. Ese es el porque de que las transformaciones de Galileo funcionan tan bien, y las podemos seguir utilizando en nuestros sistemas de referencia que se mueven con velocidades relativamente pequeñas.

 

Teoría de la relatividad especial

Los postulados de la relatividad especial son dos. El primero afirma que todo movimiento es relativo a cualquier otra cosa, y por lo tanto el éter, que se había considerado durante todo el siglo XIX como medio propagador de la luz y como la única cosa absolutamente firme del Universo, con movimiento absoluto y no determinable, quedaba fuera de lugar en la física, que no necesitaba de un concepto semejante (el cual, además, no podía determinarse por ningún experimento).

El segundo postulado afirma que la velocidad de la luz es siempre constante con respecto a cualquier observador. De sus premisas teóricas obtuvo una serie de ecuaciones que tuvieron consecuencias importantes e incluso algunas desconcertantes, como el aumento de la masa con la velocidad. Uno de sus resultados más importantes fue la equivalencia entre masa y energía, según la conocida fórmula E=mc², en la que c es la velocidad de la luz y representa la energía obtenible por un cuerpo de masa cuando toda su masa sea convertida en energía.

Dicha equivalencia entre masa y energía fue demostrada en el laboratorio en el año 1932, y dio lugar a impresionantes aplicaciones concretas en el campo de la física (tanto la fisión nuclear como la fusión termonuclear son procesos en los que una parte de la masa de los átomos se transforma en energía). Los aceleradores de partículas donde se obtiene un incremento de masa son un ejemplo experimental  muy claro de la teoría de la relatividad especial.

La teoría también establece que en un sistema en movimiento con respecto a un observador se verifica una dilatación del tiempo; esto se ilustra claramente con la famosa paradoja de los gemelos:

“imaginemos a dos gemelos de veinte años, y que uno permaneciera en la Tierra y el otro partiera en una astronave, tan veloz como la luz, hacia una meta distante treinta años luz de la Tierra; al volver la astronave, para el gemelo que se quedó en la Tierra habrían pasado sesenta años; en cambio, para el otro sólo unos pocos días”.

Teoría de la relatividad general

La teoría de la relatividad general se refiere al caso de movimientos que se producen con velocidad variable y tiene como postulado fundamental el principio de equivalencia, según el cual los efectos producidos por un campo gravitacional equivalen a los producidos por el movimiento acelerado.

La revolucionaria hipótesis tomada por Einstein fue provocada por el hecho de que la teoría de la relatividad especial, basada en el principio de la constancia de la velocidad de la luz sea cual sea el movimiento del sistema de referencia en el que se mide (tal y como se demostró en el experimento de Michelson y Morley [1]), no concuerda con la teoría de la gravitación newtoniana: si la fuerza con que dos cuerpos se atraen depende de la distancia entre ellos, al moverse uno tendría que cambiar al instante la fuerza sentida por el otro, es decir, la interacción tendría una velocidad de propagación infinita, violando la teoría especial de la relatividad que señala que nada puede superar la velocidad de la luz.

Tras varios intentos fallidos de acomodar la interacción gravitatoria con la relatividad, Einstein sugirió de que la gravedad no es una fuerza como las otras, sino que es una consecuencia de que el espacio-tiempo se encuentra deformado por la presencia de masa (o energía, que es lo mismo). Entonces, cuerpos como la tierra no se mueven en órbitas cerradas porque haya una fuerza llamada gravedad, sino que se mueven en lo más parecido a una línea recta, pero en un espacio-tiempo que se encuentra deformado por la presencia del sol.

Los cálculos de la relatividad general se realizan en un espacio-tiempo de cuatro dimensiones, tres espaciales y una temporal, adoptado ya en la teoría de la relatividad restringida al tener que abandonar el concepto de simultaneidad. Sin embargo, a diferencia del espacio de Minkowsy y debido al campo gravitatorio, este universo no es euclidiano. Así, la distancia que separa dos puntos contiguos del espacio-tiempo en este universo es más complejo que en el espacio de Minkowsky [2].

Con esta teoría se obtienen órbitas planetarias muy similares a las que se obtienen con la mecánica de Newton. Uno de los puntos de discrepancia entre ambas, la anormalmente alargada órbita del planeta Mercurio, que presenta un efecto de rotación del eje mayor de la elipse (aproximadamente un grado cada diez mil años) observado experimentalmente algunos años antes de enunciarse la teoría de la relatividad, y no explicado con las leyes de Newton, sirvió de confirmación experimental de la teoría de Einstein.

Un efecto que corroboró tempranamente la teoría de la relatividad general es la deflexión que sufren los rayos de luz en presencia de campos gravitatorios (conocido como doblamiento de la luz). Los rayos luminosos, al pasar de una región de un campo gravitatorio a otra, deberían sufrir un desplazamiento en su longitud de onda (el Desplazamiento al rojo de Einstein), lo que fue comprobado midiendo el desplazamiento aparente de una estrella, con respecto a un grupo de estrellas tomadas como referencia, cuando los rayos luminosos provenientes de ella rozaban el Sol.

La verificación se llevó a cabo aprovechando un eclipse total de Sol (para evitar el deslumbramiento del observador por los rayos solares, en el momento de ser alcanzados por la estrella); la estrella fue fotografiada dos veces, una en ausencia y otra en presencia del eclipse. Así, midiendo el desplazamiento aparente de la estrella respecto al de las estrellas de referencia, se obtenía el ángulo de desviación que resultó ser muy cercano a lo que Einstein había previsto.

El concepto de tiempo resultó profundamente afectado por la relatividad general. Un sorprendente resultado de esta teoría es que el tiempo debe transcurrir más lentamente cuanto más fuerte sea el campo gravitatorio en el que se mida. Esta predicción también fue confirmada por la experiencia en 1962. De hecho, muchos de los modernos sistemas de navegación por satélite tienen en cuenta este efecto, que de otro modo darían errores en el cálculo de la posición de varios kilómetros.

Otra sorprendente deducción de la teoría de Einstein es el fenómeno de colapso gravitacional que da origen a la creación de los agujeros negros. Dado que el potencial gravitatorio es no lineal, al llegar a ser del orden del cuadrado de la velocidad de la luz puede crecer indefinidamente, apareciendo una singularidad en las soluciones. El estudio de los agujeros negros se ha convertido en pocos años en una de las áreas de estudio de mayor actividad en el campo de la cosmología.

 

Cómo se demostró la Teoría de la Relatividad 

En 1919 un equipo de investigadores británicos partió hacia la isla africana de Príncipe para probar que un físico alemán tenía razón. Albert Einstein había presentado la Teoría General de la Relatividad en 1915. El nuevo paradigma, de ser correcto, iba a cambiar radicalmente la forma de entender el universo.

La oportunidad para comprobar si Einstein estaba en lo cierto se presentó el 29 de mayo de 1919. Ese día, se produciría un eclipse de magnitud descomunal que recorrería varios países cercanos al ecuador. Duraría 6 minutos y 50 segundos (la duración máxima de un eclipse es de 7 minutos y 31 segundos) y daría la oportunidad de realizar un gran número de observaciones útiles para dirimir la controversia.

El Astrónomo Real, Sir Frank Dyson, planeó una misión doble. Un equipo que él mismo dirigiría partiría hacia la ciudad brasileña de Sobral y un segundo grupo observaría el eclipse desde la isla africana de Príncipe. Al frente de esta misión estaría el astrofísico Arthur Eddington, en aquellos años uno de los pocos que de verdad comprendían la teoría de la relatividad.

Para explicar su teoría, Einstein había planteado una situación hipotética en la que la línea de visión entre un observador en la Tierra y una estrella estuviese bloqueada por el borde del Sol. Si Newton tuviese razón, la estrella permanecería invisible, pero Einstein calculó que algo mucho más sorprendente sucedería. La fuerza gravitatoria solar doblaría el espacio a su alrededor, los rayos de la estrella seguirían ese camino curvado para rodear el Sol y llegarían sin problemas hasta el observador en la Tierra. El oportuno eclipse permitiría poner a prueba esta hipótesis al ocultar la luz solar; gracias a la Luna, los científicos británicos podrían fotografiar las estrellas cercanas al Sol que en condiciones normales quedan ocultas por el fulgor del astro.

La suerte de Eddington pareció desvanecerse conforme se acercaba el día. Llovió durante los 19 días previos al 29 de mayo y cuando comenzó el eclipse las nubes tapaban el Sol.

Durante 400 segundos, los científicos pensaron que su oportunidad se había desvanecido, pero entonces, cuando sólo faltaban 10 segundos para que se apartase la Luna, las nubes se retiraron y Eddington pudo tomar una sola fotografía.

Comparando esa única imagen con otras que había tomado cuando el Sol no estaba allí, el astrofísico inglés pudo calcular que la gravedad solar había provocado una deflección de la luz de aproximadamente 1,6 segundos de arco. El resultado coincidía con la predicción de la Teoría de la Relatividad General; Einstein tenía razón.

MAS RECIENTEMENTE

La misión Gravity Probe B  [3] de la agencia espacial estadounidense (NASA) comprobó dos predicciones de la teoría general de la relatividad del científico Albert Einstein, tras más de 40 años de haberse iniciado el experimento.

Con un costo de 760 millones de dólares, la nave propiedad de la NASA demostró que la fuerza de gravedad de los grandes cuerpos del Universo distorsiona el tiempo y el espacio, demostrando que la gravedad se produce cuando la masa curva el espacio y el tiempo, referidos al efecto geodésico, al mismo tiempo en el que demuestra la torsión que se produce en el espacio y tiempo debido a la torsión de los cuerpos, por lo que dos predicciones de la teoría de la relatividad de Einstein son comprobadas.

En su página oficial, la NASA publicó que la sonda espacial determinó ambos efectos con una precisión mayor a lo esperado por científicos, explicando que el comportamiento de GP-B hubiera sido otro si la gravedad no afectara al espacio y al tiempo, por lo que la teoría de Einstein es confirmada.

En conferencia de prensa publicada también en el sitio de la NASA, Francis Everitt, físico de la Universidad de Stanford y principal investigador del satélite Gravity Probe B, señaló que el proyecto iniciado hace más de 40 décadas, pudo demostrar que el Universo de Einstein, el tiempo y el espacio son deformados por la gravedad. La Tierra distorsiona ligeramente el espacio a su alrededor debido a la gravedad.

El científico ejemplificó el descubrimiento del físico mencionando que si la Tierra estuviera sumergida en miel, a medida que el planeta rote, la miel a su alrededor de arremolinaría, mismo efecto que ocurre con el tiempo y el espacio.

En el Universo de Einstein, el tiempo y el espacio son deformados por la gravedad. La Tierra distorsiona ligeramente el espacio a su alrededor, debido a su gravedad.

Si los giroscopios hubieran apuntado en la misma dirección siempre que estuvieran en órbita (…) Pero como confirmación de la teoría general de la relatividad de Einstein, los giroscopios experimentaron cambios mensurables en la dirección de su giro a medida que eran atraídos por la gravedad de la Tierra

La NASA detalló que el proyecto fue ideado por primera ocasión en 1959, como un satélite que orbitaba la Tierra y a través de la recopilación de información determinar la teoría de Einstein.

El lanzamiento de GP-B se registró hace 41 años, a una órbita de más de 600 kilómetros sobre la Tierra con cuatro giroscopios, ruedas de un aparato circular que gira en torno a un eje y que indica el movimiento y registra los cambios en su orientación.

Las tecnologías creadas para desarrollar la sonda gravitacional fueron usadas luego para elaborar los sistemas de posicionamiento global (GPS) y el cálculo de la radiación de fondo del Universo.

Ese cálculo es la base de la teoría del Big Bang y dio lugar al premio Nobel para John Mather [4], de la NASA.

Datos curiosos acerca de la Teoría de la Relatividad

  • Al crear su Teoría, Einstein no la llamó relatividad. La palabra nunca aparece en su trabajo original de 1905 : ”Sobre la electrodinámica de los cuerpos en movimiento”, y de hecho odiaba el término, prefiriendo el de “teoría de la invariación” (porque las leyes de la física parecen las mismas para todos los observadores –  y no hay nada “relativo” en ello).
  • ¿El continuo del espacio-tiempo? No, eso no es de Einstein. La idea del tiempo como cuarta dimensión se le ocurrió a Hermann Minkowski, uno de los profesores de Einstein, quién una vez le llamó “perro vago” a causa de su poco aprecio por las matemáticas.
  • El físico austriaco Friedrich Hasenöhrl publicó una variación de la ecuación: E = mc2 un año antes de que lo hiciera Einstein. (Pueden ver mas información en esta entrada: “El verdadero origen de E = mc^2”)
  • El trabajo que Einstein desempeñaba a jornada completa para la oficina suiza de patentes le forzaba a trabajar en la relatividad durante las horas en que nadie le observaba. Escondía los papeles en su atiborrada mesa de trabajo cuando se le acercaba algún supervisor.
  • El afecto también es relativo, o al menos para Einstein lo era. “Necesito a mi mujer, ella resuelve todos los problemas matemáticos por mi”, escribió Einstein mientras completaba su teoría en 1904. Para el año 1914, le ordenó “renunciar a tener toda clase de relación personal conmigo, ya que esto no es algo que se requiera de forma absoluta por razones sociales”.
  • Las leyes también son relativas. Según Einstein, nada viaja más rápido que la luz, pero el propio espacio no tiene esta limitación; inmediatamente después del Big Bang, la huida expansiva del universo logró aparentemente superar a la luz.
  • En retrospectiva, parece que Eddington modifico los resultados, descartando las fotos que mostraban el resultado “incorrecto” de la Teoría de la Relatividad, aunque esto quizás solo sea un mito.
  • A día de hoy comprendemos tan bien la relatividad general que la usamos para pesar galaxias y para localizar planetas distantes por la forma en que doblan la luz.

 

Si aún no te aclaras demasiado con las ideas de Einstein prueba con esta explicación dada por el propio interesado:

“Pon tu mano en una estufa durante un minuto y te parecerá una hora. Siéntate junto a una chica bonita durante una hora y te parecerá un minuto. Eso es la relatividad”.

REFERENCIAS |