Archivo de la categoría: Explicación

Una Estrella de la Muerte sin Ciencia Ficción

La Estrella de la Muerte es un arma colosal, del tamaño de una luna entera. Con un disparo a quemarropa contra el indefenso planeta Alderaan, patria de la princesa Leia, la Estrella de la Muerte lo incinera y provoca una titánica explosión que lanza restos planetarios a través del sistema solar.

El gemido angustioso de mil millones de almas crea una perturbación en la Fuerza que se siente en toda la galaxia. Pero ¿es realmente posible el arma Estrella de la Muerte de la saga La guerra de las galaxias? ¿Podría un arma semejante concentrar una batería de cañones láser para vaporizar un planeta entero? ¿Qué pasa con los famosos sables de luz que llevan Luke Skywalker y Darth Vader, que pueden cortar acero reforzado pese a que están hechos de haces luminosos? ¿Son las pistolas de rayos, como los fáseres en Star Trek, armas viables para futuras generaciones de soldados y oficiales de la ley?

Diagrama esquemático de la Estrella de la Muerte

Millones de espectadores que vieron La guerra de las galaxias quedaron estupefactos ante estos asombrosos y originales efectos especiales. Algunos críticos, no obstante, los despreciaron; dijeron que todo eso era pura diversión pero evidentemente imposible. Las pistolas de rayos que destruyen planetas del tamaño de la Luna son imposibles, como lo son las espadas hechas de haces luminosos solidificados. Esta vez, el maestro de los efectos especiales, había ido demasiado lejos.

Aunque quizá sea difícil de creer, el hecho es que no hay ningún límite físico a la cantidad de energía bruta que puede acumularse en un haz de luz. No hay ninguna ley de la física que impida la creación de una Estrella de la Muerte o de sables luminosos. De hecho, haces de radiación gamma que destruyen planetas existen en la naturaleza. La titánica ráfaga de radiación procedente de un lejano estallido de rayos gamma en el espacio profundo crea una explosión solo superada por el
propio Big Bang. Cualquier planeta que desafortunadamente esté dentro de la diana de un estallido de rayos gamma será incinerado o reducido a pedazos o quizás menos que pedazos…

Ilustración de un estallido de rayos gamma.

LAS ARMAS DE RAYOS A TRAVÉS DE LA HISTORIA

El sueño de dominar haces de energía no es realmente nuevo, sino que está enraizado en la mitología y el folclore antiguos. El dios griego Zeus era famoso por arrojar rayos sobre los mortales. El dios nórdico Thor tenía un martillo mágico, Mjolnir, que podía desprender rayos, mientras que el dios hindú Indra era conocido por disparar haces de energía desde una lanza mágica. 

Pintura que ilustra al dios Zeus y el poder del rayo.

La idea de utilizar rayos como un arma práctica empezó probablemente con la obra del gran matemático griego Arquímedes, quizá el científico más importante de la Antigüedad, que descubrió una cruda versión del cálculo infinitesimal hace dos mil años, antes de Newton y Leibniz. Arquímedes sirvió en la defensa del reino de Siracusa en una batalla legendaria contra las fuerzas del general romano Marcelo durante la segunda guerra púnica, en el 214 a.C. Se dice que creó grandes baterías de reflectores solares que concentraban los rayos del Sol en las velas de las naves enemigas y las incendiaba. (Todavía hoy los científicos discuten sobre si esto era un arma de rayos practicable; varios equipos de científicos han tratado de repetir esta hazaña con diferentes resultados).

Funcionamiento de la estrategia de Arquímedes para derrotar a los romanos.

Las pistolas de rayos irrumpen en el escenario de la ciencia ficción en 1889 con el clásico de H. G. Wells La guerra de los mundos, en el que alienígenas procedentes de Marte devastan ciudades enteras disparando haces de energía térmica desde armas montadas en trípodes. Durante la Segunda Guerra Mundial, los nazis, siempre dispuestos a explotar los últimos avances en tecnología para conquistar el mundo, experimentaron con varias formas de pistolas de rayos, incluido un aparato sónico, basado en espejos parabólicos, que podía concentrar intensos haces de sonido. Las armas creadas a partir de haces luminosos concentrados pasaron a formar parte del imaginario colectivo con la película de James Bond Goldfinger, el primer film de Hollywood en el que aparecía un láser. (El legendario espía británico estaba tendido y sujeto con correas en una mesa metálica mientras un potente haz láser que avanzaba lentamente entre sus piernas iba fundiendo la mesa y amenazaba con cortarle por la mitad).

James Bond a punto de ser cortado a la mitad por un rayo láser.

Al principio, los físicos se mofaron de la idea de las pistolas de rayos que aparecían en la novela de Wells porque violaban las leyes de la óptica. De acuerdo con las ecuaciones de Maxwell, la luz que vemos a nuestro alrededor se dispersa rápidamente y es incoherente (es decir, es una mezcla de ondas de diferentes frecuencias y fases). En otro tiempo se pensaba que haces de luz uniformes, coherentes y concentrados, como los que encontramos en los haces láser, eran imposibles.

LA REVOLUCIÓN CUÁNTICA

Todo esto cambió con la llegada de la teoría cuántica. A comienzos del siglo XX estaba claro que aunque las leyes de Newton y las ecuaciones de Maxwell eran espectacularmente acertadas para explicar el movimiento de los planetas y el comportamiento de la luz, no podían explicar toda una clase de fenómenos. Fallaban estrepitosamente para explicar por qué los materiales conducen la electricidad, por qué los metales se funden a ciertas temperaturas, por qué los gases emiten luz cuando son calentados, por qué ciertas sustancias se hacen superconductoras a bajas temperaturas —todo lo cual requiere una comprensión de la dinámica interna de los átomos—. Había llegado el tiempo para una revolución. Doscientos cincuenta años de física newtoniana estaban a punto de ser superados, lo que anunciaba el nacimiento de una nueva física. 

En 1900 Max Planck, en Alemania, propuso que la energía no era continua, como pensaba Newton, sino que se daba en pequeños paquetes discretos llamados «cuantos». Tiempo después, en 1905, Einstein postuló que la luz consistía en estos minúsculos paquetes discretos, más tarde bautizados como «fotones». Con esta idea poderosa pero simple, Einstein fue capaz de explicar el efecto fotoeléctrico, por qué los metales que reciben luz emiten electrones.

Hoy, el efecto fotoeléctrico y el fotón forman la base de la televisión, los láseres, las células solares y buena parte de la electrónica moderna. La teoría de Einstein del fotón era tan revolucionaria que incluso Max Planck, normalmente un gran defensor de Einstein, no podía creerla al principio. Al escribir sobre Einstein, Planck dijo «que a veces pueda haber errado el blanco […] como por ejemplo, en su hipótesis de los cuantos de luz, no puede realmente alegarse en su contra». 

Y no podía faltar Einstein…

En 1913 el físico danés Niels Bohr nos dio una imagen del átomo completamente nueva, una imagen que se parecía a un sistema solar en miniatura. Pero a diferencia de lo que ocurre en un sistema solar en el espacio exterior, los electrones solo pueden moverse en órbitas o capas discretas alrededor del núcleo. Cuando los electrones «saltaban» de una capa a otra capa más interna con menor energía, emitían un fotón de energía. Cuando un electrón absorbía un fotón de energía discreta, «saltaba» a una capa más grande con más energía. Una teoría del átomo casi completa surgió en 1925 con la llegada de la mecánica cuántica y la obra revolucionaria de Erwin Schródinger, Werner Heisenberg y muchos otros. Según la teoría cuántica, el electrón era una partícula, pero tenía una onda asociada con ella, lo que le daba propiedades de partícula y de onda a la vez. La onda obedecía a una ecuación, llamada ecuación de onda de Schródinger, que permitía calcular las propiedades de los átomos, incluidos todos los «saltos» postulados por Bohr.

Antes de 1925 los átomos todavía eran considerados objetos misteriosos que muchos, como el filósofo Ernst Mach, creían que no podían existir. Después de 1925 se podía observar realmente la dinámica del átomo y predecir realmente sus propiedades. Esto significaba que si tuviéramos un ordenador suficientemente grande, podríamos derivar las propiedades de los elementos químicos a partir de las leyes de la teoría cuántica. De la misma forma que los físicos newtonianos podrían calcular los movimientos de todos los cuerpos celestes en el universo si tuvieran una  máquina de calcular suficientemente grande, los físicos cuánticos afirmaban que en teoría se podrían calcular todas las propiedades de los elementos químicos del universo. Si tuviéramos un ordenador suficientemente grande, también podríamos escribir la función de onda de un ser humano entero.

MÁSERES Y LÁSERES 

En 1953 el profesor Charles Townes de la Universidad de California en Berkeley y sus colegas produjeron la primera fuente de radiación coherente en forma de microondas. Fue bautizada como «máser» (las siglas de amplificación de microondas mediante emisión estimulada de radiación). El y los físicos rusos Nikolái Basov y Alexander Projorov ganarían el premio Nobel en 1964. Sus resultados fueron extendidos pronto a la luz visible, lo que dio nacimiento al láser. (Un fáser, sin embargo, es un aparato de ficción popularizado en Star Trek).

El primer Máser.

En un láser se empieza con un medio especial que transmitirá el haz láser, tal como un gas, un cristal o un diodo especial. Luego se bombea energía en este medio desde el exterior, en forma de electricidad, radio, luz o una reacción química. Este repentino flujo de energía se transmite a los átomos del medio, de modo que los electrones absorben la energía y saltan a las capas electrónicas más externas. En este estado excitado el medio es inestable.

Si se envía entonces un haz de luz a través del medio, los fotones incidirán en cada átomo y harán que se desexciten repentinamente, caigan a un nivel inferior y liberen más fotones en el proceso. Esto produce a su vez aún más electrones que liberan fotones, y por último se crea una cascada de átomos que colapsan, lo que libera repentinamente en el haz billones y billones de fotones.

La clave es que, para ciertas sustancias, cuando se produce esta avalancha todos los fotones están vibrando al unísono, es decir, son coherentes. (Imaginemos una hilera de fichas de dominó. Las fichas de dominó en su estado más bajo están tumbadas sobre la mesa. Las fichas en su estado bombeado de alta energía permanecen verticales, similares a los átomos excitados por bombeo en el medio. Si empujamos una ficha, podemos desencadenar un repentino colapso de toda esta energía de una vez, igual que en un haz láser).

Solo ciertos materiales «lasearán», es decir, solo en materiales especiales sucede que cuando un fotón incide en un átomo bombeado se emitirá otro fotón que es coherente con el fotón original. Como resultado de tal coherencia, en este diluvio de fotones todos los fotones vibran al unísono, creando un haz láser fino como un pincel. (Contrariamente al mito, el haz láser no permanece siempre fino como un pincel. Un haz láser dirigido a la Luna, por ejemplo, se expandirá poco a poco hasta que cree una mancha de algunos kilómetros de diámetro). Un sencillo láser de gas consiste en un tubo con helio y neón. Cuando se envía electricidad a través del tubo, los átomos se energizan. Entonces, si la energía se libera de golpe, se produce un haz de luz coherente. El haz se amplifica colocando espejos en cada extremo del tubo, de modo que el haz rebota de un lado a otro entre ambos. Un espejo es completamente opaco, pero el otro permite que escape una pequeña cantidad de energía en cada paso, de manera que sale un haz luminoso por dicho extremo. 

Esquema de un máser de hidrógeno.

Hoy día encontramos láseres en casi todas partes, desde las cajas registradoras de los supermercados a los ordenadores  modernos, pasando por los cables de fibra óptica que conectan con internet, las impresoras láser y los reproductores de CD. También se utilizan en cirugía ocular, o para eliminar tatuajes, e incluso en salones de belleza. En 2004 se vendieron en todo el mundo láseres por valor de más de 5.400 millones de dólares.

TIPOS DE LÁSERES 

Cada día se descubren nuevos láseres a medida que se encuentran nuevos materiales que pueden «lasear», y a medida que se descubren nuevas maneras de bombear energía al medio. 

La pregunta es: ¿son algunas de estas técnicas apropiadas para construir un láser suficientemente potente para alimentar una Estrella de la Muerte? Hoy hay una desconcertante variedad de láseres, dependiendo del material que «lasea» y de la energía que es inyectada en el material (por ejemplo, electricidad, haces intensos de luz, incluso explosiones químicas). Entre ellos:

  • Láseres de gas. Entre estos se incluyen los láseres de helio-neón, que son muy comunes y dan un familiar haz rojo. Son alimentados mediante ondas de radio o electricidad. Los láseres de helio-neón son muy débiles. Pero los láseres de dióxido de carbono pueden utilizase para moldear, cortar y soldar en la industria pesada, y pueden crear haces de enorme potencia que son totalmente invisibles.
  • Láseres químicos. Estos potentes láseres son alimentados por una reacción química, tal como un chorro ardiente de etileno y trifluoruro de nitrógeno, o NE,. Tales láseres son suficientemente potentes para ser utilizados en aplicaciones militares. Láseres químicos se utilizan en láseres del ejército de Estados Unidos, basados en tierra o en el aire, que pueden producir millones de vatios de potencia y están diseñados para disparar contra misiles de corto alcance en pleno vuelo. 
  • Láseres de excímero. Estos láseres también están alimentados por reacciones químicas, en las que con frecuencia interviene un gas inerte (por ejemplo, argón, kriptón o xenón) y flúor o cloro. Producen luz ultravioleta y pueden utilizarse para grabar minúsculos transistores en chips en la industria de semiconductores, o para cirugía ocular delicada. 
  • Láseres de estado sólido. El primer láser operativo construido consistía en un cristal de rubí de zafiro-cromo. Una gran variedad de cristales, junto con tulio y otros elementos químicos, soportará un haz láser. Pueden producir pulsos ultracortos de luz láser de alta energía. 
  • Láseres de semiconductor. Diodos, que normalmente se utilizan en la industria de semiconductores, pueden producir los haces intensos utilizados en la industria de corte y soldadura. También suelen encontrarse en las cajas registradoras de los supermercados para leer el código de barras de los productos. 
  • Láseres de colorante. Estos láseres utilizan colorantes orgánicos como medio. Son excepcionalmente útiles para crear pulsos ultracortos de luz, que con frecuencia solo duran billonésimas de segundo.

LÁSERES Y PISTOLAS DE RAYOS

Dada la gran variedad de láseres comerciales y la potencia de los láseres militares, ¿por qué no tenemos pistolas de rayos aptas para usar en combate o en el campo de batalla? Pistolas de rayos de uno u otro tipo parecen ser algo estándar en el armamento de las películas de ciencia ficción. ¿Por qué no estamos trabajando para crearlas? La simple respuesta está en la falta de una batería portátil. Se necesitarían baterías en miniatura que tuvieran la potencia de una enorme central eléctrica y pese a todo sean suficientemente pequeñas para caber en la palma de la mano. Hoy día la única manera de dominar la potencia de una gran central nuclear es construir una. Actualmente el aparato militar más pequeño que puede contener grandes cantidades de energía es una bomba de hidrógeno en miniatura, que podría destruir tanto a quien la lleva como al blanco.

Pistolas láser, de ser posibles serian mas pequeñas, creo…

Hay también un segundo problema: la estabilidad del material del láser. En teoría no hay límite a la energía que se puede  concentrar en un láser. El problema es que el material del láser en una pistola  de rayos manual no sería estable. Los láseres de cristal, por ejemplo, se sobrecalentarán y agrietarán si se bombea en ellos demasiada energía. Así, para crear un láser extraordinariamente potente, del tipo que pudiera vaporizar un objeto o  neutralizar a un enemigo, sería necesario utilizarla  potencia de una explosión. En tal caso, la estabilidad del material del láser no es una limitación, puesto que dicho láser solo se utilizaría una vez.

La manipulación de un láser requiere de mucho cuidado.

Debido a los problemas de crear una batería portátil y un material de láser estable, no es posible construir una pistola de rayos manual con la tecnología actual. Las pistolas de rayos son posibles, pero solo si están conectadas por cable a una fuente de alimentación. O quizá con nanotecnología podríamos ser capaces de crear baterías en miniatura que almacenen o generen energía suficiente para crear las intensas ráfagas de energía requeridas en un dispositivo manual. Actualmente, como hemos visto, la nanotecnología es muy primitiva. En el nivel atómico los científicos han sido capaces de crear dispositivos atómicos muy ingeniosos, pero poco prácticos, tales como un ábaco atómico y una guitarra atómica. Pero es concebible que a finales de este siglo o en el próximo la nanotecnología sea capaz de darnos baterías en miniatura que puedan almacenar esas fabulosas cantidades de energía.

Un rayo de luz no puede solidificarse ni detenerse.

Los sables de luz adolecen de un problema similar. Cuando se estrenó la película La guerra de las galaxias en los años setenta y los sables de luz se convirtieron en un juguete de éxito entre los niños, muchos críticos señalaron que tales artefactos nunca podrían hacerse. En primer lugar, es imposible solidificar la luz. La luz viaja siempre a la velocidad de la luz, no puede hacerse sólida. En segundo lugar, un haz luminoso no termina en medio del aire como los sables de luz utilizados en La guerra de las galaxias. Los haces luminosos se prolongan indefinidamente; un sable de luz real llegaría al cielo.

Esquema de un posible sable de luz “normal”.

En realidad, hay una manera de construir una especie de sable de luz utilizando plasma, o gas ionizado supercaliente. Pueden hacerse plasmas suficientemente calientes para brillar en la oscuridad y también cortar el acero. Un sable de luz de plasma consistiría en una vara delgada y hueca que sale del mango, como una antena telescópica. Dentro de este tubo se liberarían plasmas calientes que escaparían a través de pequeños agujeros situados regularmente a lo largo de la varilla. A medida que el plasma fluyera desde el mango hasta la varilla, y a través de los agujeros, crearía un tubo largo y brillante de gas supercaliente, suficiente para fundir el acero. Este aparato se suele conocer como una antorcha de plasma.

Lo mas parecido a un sable láser es una antorcha de plasma.

Así pues, es posible crear un dispositivo de alta energía que se parece a un sable de luz. Pero como sucede con las pistolas de rayos, sería necesario crear una batería portátil de alta energía. O bien se necesitarían largos cables que conectaran el sable de luz a una fuente de alimentación, o habría que crear, mediante la nanotecnología, una minúscula fuente de alimentación que pudiera suministrar enormes cantidades de potencia. De modo que aunque hoy es posible crear alguna forma de pistolas de rayos y sables de luz, las armas manuales que se encuentran en las películas de ciencia ficción están más allá de la tecnología actual.

ENERGÍA PARA UNA ESTRELLA DE LA MUERTE

Para crear un cañón láser Estrella de la Muerte que pueda destruir un planeta entero y aterrorizar a una galaxia, tal como el que se describe en La guerra de las galaxias, habría que crear el láser más potente que se haya imaginado jamás. Actualmente algunos de los láseres más potentes en la Tierra se están utilizando para producir temperaturas que solo se encuentran en el centro de las estrellas. En forma de reactores de fusión, algún día podrían dominar la potencia de las estrellas en la Tierra.

Reacción de Fusión.

Las máquinas de fusión tratan de imitar lo que sucede en el espacio exterior cuando se forma una estrella. Una estrella empieza como una enorme bola de gas hidrógeno, hasta que la gravedad comprime el gas y con ello lo calienta; las temperaturas llegan a alcanzar niveles astronómicos. En el interior profundo de un núcleo estelar, por ejemplo, las temperaturas pueden ser entre 50 millones y 100 millones de grados centígrados, suficientes para hacer que los núcleos de hidrógeno choquen unos con otros y formen núcleos de helio; en el proceso se libera una ráfaga de energía. La fusión del hidrógeno en helio, en la que una pequeña cantidad de masa se convierte en energía mediante la famosa ecuación de Einstein E = mc2, es la fuente de energía de las estrellas.

La Estrella de la Muerte y su fuente de poder.

Hoy día los científicos ensayan dos maneras de dominar la fusión en la Tierra. Ambas han resultado ser muchos más difíciles de desarrollar de lo esperado.

Fusión por confinamiento inercial 

El primer método se llama «confinamiento inercial». Utiliza los láseres más potentes en la Tierra para crear un pedazo de Sol en el laboratorio. Un láser de estado sólido de neodimio es idóneo para reproducir las temperaturas abrasadoras que solo se encuentran en el corazón de una estrella. Estos sistemas de láser tienen el tamaño de una gran fábrica y contienen una batería de láseres que disparan una serie de haces láser paralelos a través de un largo túnel. Estos haces láser de alta potencia inciden en una serie de pequeños espejos dispuestos alrededor de una esfera; los espejos concentran cuidadosamente los haces láser en una minúscula ampolla rica en hidrógeno (hecha de sustancias tales como deuteruro de litio, el ingrediente activo de una bomba de hidrógeno). La ampolla tiene normalmente el tamaño de una cabeza de alfiler y solo pesa 10 miligramos.

El golpe de luz láser incinera la superficie de la ampolla, lo que hace que la superficie se vaporice y comprima la ampolla. Cuando la ampolla colapsa se crea una onda de choque que llega al corazón de la ampolla y hace subir la temperatura a millones de grados, suficiente para fusionar los núcleos de hidrógeno en helio. Las temperaturas y presiones son tan astronómicas que se satisface el «criterio de Lawson», el mismo criterio que se satisface en las bombas de hidrógeno y en el corazón de las estrellas. (El criterio de Lawson establece que debe alcanzarse un rango específico de temperaturas, densidades y tiempo de confinamiento para desatar el proceso de fusión, sea en una bomba de hidrógeno, una estrella o en un reactor de fusión).

En el proceso de confinamiento inercial se liberan enormes cantidades de energía, y también neutrones. (El deuteruro de litio puede llegar a temperaturas de 100 millones de grados centígrados y una densidad veinte veces mayor que la del plomo). Los neutrones que se emiten desde la ampolla inciden en una capa esférica de material que recubre la cámara, y la capa se calienta. La capa calentada hace hervir agua y el vapor puede utilizarse para impulsar una turbina y producir electricidad.

El problema, no obstante, está en ser capaces de concentrar uniformemente una potencia tan intensa en una minúscula ampolla esférica. El primer intento serio de crear fusión por láser fue el láser Shiva, un sistema láser de veinte haces construido en el Laboratorio Nacional Lawrence Livermore (LLNL) en California, que empezó a operar en 1978. (Shiva es la diosa hindú de múltiples brazos, a los que imita el diseño del sistema láser). La actuación del sistema láser Shiva fue decepcionante, pero fue suficiente para demostrar que la fusión por láser es técnicamente posible. El sistema láser Shiva fue reemplazado más tarde por el láser Nova, con una energía diez veces mayor que la de Shiva. Pero el láser Nova tampoco consiguió una ignición adecuada de las ampollas. En cualquier caso, preparó el camino para la investigación actual en la Instalación Nacional de Ignición (NIF), cuya construcción empezó en 1997 en el LLNL.

Pero ni siquiera la máquina de fusión por láser de la NIF, que contiene los láseres más potentes de la Tierra, puede acercarse de momento al poder devastador de la Estrella de la Muerte de La guerra de las galaxias. Para construir tal aparato debemos buscar en otras fuentes de potencia.

Fusión por confinamiento magnético 

El segundo método que los científicos podrían utilizar para alimentar una Estrella de la Muerte se llama «confinamiento magnético», un proceso en el que un plasma caliente de hidrógeno gaseoso está contenido dentro de un campo magnético. De hecho, este método podría proporcionar realmente el prototipo para los primeros reactores de fusión comerciales. Hoy día, el proyecto de fusión más avanzado de este tipo es el Reactor Experimental Termonuclear Internacional (ITER).En 2006 un consorcio de naciones (incluidas la Unión Europea, Estados Unidos, China, Japón, Corea, Rusia y la India) decidió construir el ITER en Cadarache, al sur de Francia. Está diseñado para calentar hidrógeno gaseoso hasta 100 millones de grados centígrados. Podría convertirse en el primer reactor de fusión en la historia que genere más energía que la que consume. Está diseñado para generar 500 megavatios de potencia durante 500 segundos (el récord actual es 16 megavatios de potencia durante 1 segundo).

Logotipo de la ITER

El ITER debería generar su primer plasma para 2016 y estar plenamente operativo en 2022. Con un coste de 12.000 millones de dólares, es el tercer proyecto científico más caro de la historia (después del Proyecto Manhattan y la Estación Espacial Internacional). El ITER se parece a un gran donut, con enormes bobinas enrolladas alrededor de la superficie por cuyo interior circula hidrógeno gaseoso. Las bobinas se enfrían hasta hacerse superconductoras, y entonces se bombea en ellas una enorme cantidad de energía eléctrica, lo que crea un campo magnético que confina el plasma dentro del donut. Cuando este se alimenta con una corriente eléctrica, el gas se calienta hasta temperaturas estelares.

La razón de que los científicos estén tan excitados con el ITER es la perspectiva de crear una fuente de energía barata. El suministro de combustible para los reactores de fusión es agua de mar ordinaria, que es rica en hidrógeno. Sobre el papel al menos, la fusión puede proporcionarnos un suministro de energía inagotable y barato. Entonces, ¿por qué no tenemos ahora reactores de fusión? ¿Por qué se han necesitado tantas  décadas para hacer progresos si el proceso de fusión ya era conocido en la década de 1950? El problema reside en la enorme dificultad de comprimir el combustible hidrógeno de un modo uniforme. En las estrellas la gravedad comprime el hidrógeno en una esfera perfecta, de modo que el gas se caliente uniforme y limpiamente. En la fusión por láser de la NIF, los haces concéntricos de luz láser que incineran la superficie de la ampolla deben ser perfectamente uniformes, y es extraordinariamente difícil conseguir esta uniformidad.

En las máquinas de confinamiento magnético, los campos magnéticos tienen polos norte y polos sur; como resultado, comprimir el gas uniformemente en una esfera es extremadamente difícil. Lo mejor que podemos hacer es crear un campo magnético en forma de donut. Pero comprimir el gas es como estrujar un globo. Cada vez que se estruja el globo por un extremo, el aire infla alguna otra parte. Estrujar el globo uniforme y simultáneamente en todas direcciones es un reto difícil. Normalmente el gas caliente se escapa de la botella magnética, toca eventualmente las paredes del reactor y detiene el proceso de fusión. Por eso ha sido tan difícil estrujar el hidrógeno durante más de un segundo. A diferencia de la generación actual de centrales nucleares de fisión, un reactor de fusión no creará grandes cantidades de residuos nucleares. (Cada central de fisión tradicional produce cada año 30 toneladas de residuos nucleares de un nivel extremadamente alto. Por el contrario, el residuo nuclear creado por una máquina de fusión sería básicamente el acero radiactivo que quedaría cuando el reactor fuera finalmente desmantelado).

La fusión no resolverá por completo la crisis energética de la Tierra en un futuro cercano; según el francés Pierre-Gilles de Gennes, premio Nobel de Física, «Decimos que pondremos el Sol en una caja. La idea es bonita. El problema es que no sabemos cómo hacer la caja». Pero si todo va bien, los investigadores tienen esperanzas de que en menos de cuarenta años el ITER pueda allanar  el camino para la comercialización de la energía de fusión, energía que puede proporcionar electricidad para nuestros hogares. Algún día, los reactores de fusión aliviarán nuestro problema energético, liberando con seguridad la potencia del Sol sobre la Tierra. Pero ni siquiera los reactores de fusión por confinamiento magnético ofrecerían suficiente energía para alimentar un arma como la Estrella de la Muerte. Para eso necesitaríamos un diseño totalmente nuevo.

LÁSERES DE RAYOS X CON DETONADOR NUCLEAR

Hay otra posibilidad para simular un cañón láser Estrella de la Muerte con la tecnología conocida hoy, y es con una bomba de hidrógeno. Una batería de láseres de rayos X que aproveche y concentre la potencia de las armas nucleares podría generar en teoría suficiente energía para activar un dispositivo que podría incinerar un planeta entero.  La fuerza nuclear libera una energía que, para una misma cantidad de material, es unos 100 millones de veces mayor que la liberada en una reacción química. Un trozo de uranio enriquecido no mayor que una pelota de tenis es suficiente para incinerar toda una ciudad y convertirla en una bola de fuego —incluso si solo el 1 por ciento de su masa se ha convertido en energía—. Como ya
se ha dicho, hay varias maneras de inyectar energía en un haz láser. La más potente de todas, con mucho, es utilizar la fuerza liberada por una bomba nuclear.

Los láseres de rayos X tienen un enorme valor científico además de militar. Debido a su longitud de onda muy corta pueden utilizase para sondear distancias atómicas y descifrar la estructura atómica de moléculas complejas, una hazaña que es extraordinariamente difícil utilizando métodos ordinarios. Toda una nueva ventana a las reacciones químicas se abre cuando podemos «mirar» los propios átomos en movimiento y su disposición adecuada dentro de una molécula. Puesto que una bomba de hidrógeno emite una enorme cantidad de energía en el rango de rayos X, los láseres de rayos X también pueden ser alimentados por armas nucleares. La persona más estrechamente vinculada con el láser de rayos X es el físico Edward Teller, padre de la bomba de hidrógeno.

Edward Teller, padre de la bomba de hidrógeno.

De todos es sabido que Teller fue el físico que declaró ante el Congreso en los años cincuenta que Robert Oppenheimer, que había dirigido el Proyecto Manhattan, no era digno de confianza para seguir trabajando en la bomba de hidrógeno debido a sus ideas políticas. El testimonio de Teller llevó a que Oppenheimer cayera en desgracia y se le revocara su credencial de seguridad; muchos físicos destacados nunca perdonaron a Teller lo que hizo. Básicamente, el láser de rayos X de Teller es una pequeña bomba nuclear rodeada de varillas de cobre. La detonación del arma nuclear libera una onda de choque esférica de rayos X intensos. Estos rayos X energéticos atraviesan las varillas de cobre, que actúan como el material del láser y concentran la potencia de los rayos X en haces intensos. Estos haces de rayos X podrían dirigirse luego hacia cabezas nucleares enemigas. Por supuesto, un artefacto semejante solo se podría utilizar una vez, puesto que la detonación nuclear
hace que el láser de rayos X se autodestruya.

El test inicial de un láser de rayos X alimentado nuclearmente fue llamado el test Cabra, y se llevó a cabo en 1983 en un pozo subterráneo. Se detonó una bomba de hidrógeno cuyo diluvio de rayos X incoherentes fue luego concentrado en un haz láser de rayos X coherente.

Al principio el test fue considerado un éxito, y de hecho en 1983 inspiró al presidente Ronald Reagan para anunciar, en un discurso histórico, su intención de construir un escudo defensivo «guerra de las galaxias». Así se puso en marcha un proyecto de muchos miles de millones de dólares, que continúa todavía hoy, para construir una serie de artefactos como el láser de rayos X alimentado nuclearmente para acabar con los misiles balísticos intercontinentales (ICBM) enemigos. (Una investigación posterior demostró que el detector utilizado para realizar las medidas durante el test Cabra quedó destruido; por lo tanto sus medidas no eran fiables).

LA FÍSICA DE UNA ESTRELLA DE LA MUERTE

¿Pueden crearse armas capaces de destruir un planeta entero, como en La guerra de las  galaxias? En teoría, la respuesta es  sí. Habría varias formas de crearlas. En primer lugar, no hay ningún límite físico a la energía que puede liberar una bomba de hidrógeno. He aquí cómo funciona. (Los detalles precisos de la bomba de hidrógeno son alto secreto e incluso hoy están clasificadas por el Gobierno de Estados Unidos, pero las líneas generales son bien conocidas). Una bomba de hidrógeno se construye en realidad en muchas etapas. Mediante una secuencia adecuada de esas etapas, se puede producir una bomba nuclear de magnitud casi arbitraria.

La primera etapa consiste en una bomba de fisión estándar, que utiliza el poder del uranio 235 para liberar una ráfaga de rayos X, como sucedió en la bomba de Hiroshima. Una fracción de segundo antes de que la onda explosiva de la bomba atómica lo destroce todo, la esfera de rayos X en expansión alcanza a la onda (puesto que viaja a la velocidad de la luz), que es entonces reconcentrada en un contenedor de deuteruro de litio, la sustancia activa de una bomba de hidrógeno.(Cómo se hace esto exactamente sigue siendo materia reservada).

Los rayos X que inciden en el deuteruro de litio hacen que colapse y se caliente hasta millones de grados, lo que provoca una segunda explosión, mucho mayor que la primera. La ráfaga de rayos X procedente de esta bomba de hidrógeno puede luego ser reconcentrada en un segundo trozo de deuteruro de litio, lo que provoca una tercera explosión. De esta manera, se pueden apilar capas de deuteruro de litio y crear una bomba de hidrógeno de magnitud inimaginable.

De hecho, la mayor bomba de hidrógeno construida fue una de dos etapas detonada por la Unión Soviética en 1961, que liberó una energía de 50 millones de toneladas de TNT, aunque teóricamente era capaz de un explosión equivalente a más de 100 millones de toneladas de TNT (unas 5.000 veces la potencia de la bomba de Hiroshima). Incinerar un planeta entero, sin embargo, es algo de una magnitud completamente diferente. Para esto, la Estrella de la Muerte tendría que lanzar miles de tales láseres de rayos X al espacio, y luego sería necesario dispararlos todos a la vez. (Recordemos, por comparación, que en el apogeo de la guerra fría Estados Unidos y la Unión Soviética almacenaban unas 30.000 bombas nucleares cada uno).

La energía total de un número tan enorme de láseres de rayos X sería suficiente para incinerar la superficie de un planeta. Por lo tanto, sería ciertamente posible que un imperio galáctico a cientos de miles de años en el futuro creara un arma semejante. Para una civilización muy avanzada hay una segunda opción: crear una Estrella de la Muerte utilizando la energía de un estallido de rayos gamma. Una Estrella de la Muerte semejante liberaría una ráfaga de radiación solo superada por el big bang. Los estallidos de rayos gamma ocurren de forma natural en el espacio exterior, pero es concebible que una civilización avanzada pudiera dominar su enorme poder. Controlando el giro de una estrella mucho antes de que sufra  un colapso y produzca una hipernova, se podría dirigir el estallido de rayos gamma a cualquier punto del espacio.

ESTALLIDOS DE RALLOS GAMMA 

Los estallidos de rayos gamma se vieron realmente por primera vez en la década de 1970, cuando el ejército de Estados Unidos lanzó el satélite Vela para detectar «destellos nucleares» (pruebas de una detonación no autorizada de una bomba nuclear). Pero en lugar de detectar destellos nucleares, el satélite Vela detectó enorme ráfagas de radiación procedentes del espacio.

Satélite Vela.

Al principio, el descubrimiento sembró el pánico en el Pentágono: ¿estaban los soviéticos probando una nueva arma nuclear en el espacio exterior? Más tarde se determinó que esas ráfagas de radiación llegaban uniformemente de todas las direcciones del cielo, lo que significaba que en realidad procedían de fuera de la Vía Láctea. Pero si eran extragalácticas, debían estar liberando  cantidades de energía verdaderamente astronómicas, suficientes para iluminar todo el universo visible.

Cuando la Unión Soviética se descompuso en 1990, el Pentágono desclasificó un gran volumen de datos astronómicos, lo que abrumó a los astrónomos. De repente, los astrónomos comprendieron que tenían delante un fenómeno nuevo y misterioso, un fenómeno que requeriría reescribir los libros de texto de ciencia. Puesto que los estallidos de rayos gamma duran solo de algunos segundos a unos pocos minutos antes de desaparecer, se requiere un elaborado sistema de sensores para detectarlos y analizarlos. Primero, los satélites detectan la ráfaga de radiación inicial y envían las coordenadas exactas de la ráfaga a la Tierra. Estas coordenadas son entonces introducidas en telescopios ópticos o radiotelescopios, que apuntan hacia la localización exacta del estallido de rayos gamma.

Aunque quedan muchos detalles por clarificar, una teoría sobre los orígenes de los estallidos de rayos gamma es que son «hipernovas» de enorme potencia que dejan tras ellas agujeros negros masivos. Es como si los estallidos de rayos gamma fueran agujeros negros monstruosos en formación. Pero los agujeros negros emiten dos «chorros» de radiación, uno desde el polo norte y otro desde el polo sur, como una peonza que gira. La radiación que se ve procedente de un estallido de rayos gamma distante es, al parecer, uno de los chorros que apunta hacia la Tierra. Si el chorro de un estallido de rayos gamma estuviera dirigido a la Tierra y el estallido de rayos gamma estuviese en nuestra vecindad galáctica (a unos pocos centenares de años luz de la Tierra), su potencia sería suficiente para destruir toda la vida en nuestro planeta. 

Inicialmente, el pulso de rayos X del estallido de rayos gamma crearía un pulso electromagnético que barrería todos los equipos electrónicos en la  Tierra. Su intenso haz de rayos X y rayos gamma sería suficiente para dañar la atmósfera de la Tierra y destruir nuestra capa de ozono protectora. El chorro del estallido de rayos gamma calentaría la superficie de la Tierra a grandes temperaturas, lo que eventualmente provocaría enormes tormentas que abarcarían todo el planeta. Quizá el estallido de rayos gamma no hiciera explotar en realidad al planeta, como en la película La guerra de las galaxias, pero sin duda destruiría toda la vida, dejando un planeta desolado.

Es concebible que una civilización centenares de miles o un millón de años más avanzada que la nuestra fuera capaz de dirigir un agujero negro semejante en la dirección de un blanco. Esto podría hacerse desviando la trayectoria de planetas y estrellas de neutrones hacia la estrella moribunda a un ángulo preciso antes de que colapse. Esta desviación sería suficiente para cambiar el eje de giro de la estrella de modo que pudiera apuntarse en una dirección dada. Una  estrella moribunda sería el mayor cañón de rayos imaginable. Y para los habitantes del planeta objetivo seria el fin, esperemos que a nuestra querida Tierra no le ocurra nada parecido…

Esta entrada participa en la XXXIX Edición del Carnaval de la Física, que esta siendo organizado en esta ocasión por el blog El zombi de Schrödinger. ]

REFERENCIAS |

Anuncios

El Sistema Solar que pocos conocen

 

Quizás el titulo de este articulo sea un tanto polémico, pero no se me ocurrió ninguno mejor para llamar la atención sobre un tema importante en la Astronomía, una idea que aun en esta época es muy poco conocida pero que mentes atentas, mentes curiosas como la de usted querido lector,  ya han experimentado esa oleada de incertidumbre y ganas de descubrir la verdad que a todos, alguna vez en la vida, nos invade y no nos deja tranquilos.

La idea principal de este artículo lo podemos resumir en una pregunta:

¿De que tamaño es el Sistema Solar?

Para muchos es una respuesta fácil de responder y quizás hasta tonta, ingenua o cosas por el estilo, pero para muchos otros se nos hace un tanto difícil poder responder con precisión, mas que una cantidad expresada en metros o kilómetros, lo que en realidad queremos es hacernos una idea mental de que tan grande es nuestro Sistema Solar (algo muy difícil), no es tan simple, ¿Dónde empieza?, ¿Dónde termina?, ¿Cómo lo sabemos?… esas y muchas otras preguntas se tornan difíciles de responder si no tenemos una solida formación en Ciencias.

El Universo es enorme, absolutamente todos sin excepción lo sabemos, pero aunque posiblemente sea infinito, hoy en día los astrónomos pueden hacer cosas asombrosas con unos juguetitos llamados Telescopios. 

Telescopio Sky-Watcher

En la actualidad estos dispositivos son muy potentes y han venido a acortar las distancias estelares que antes nos parecían insalvables, son tan potentes que inclusive si yo encendiera una cerilla en la Luna usted podría localizar la llama desde la Tierra utilizando un buen Telescopio.

Los telescopios nos han proporcionado  una herramienta imprescindible y eficaz para sondear el enorme y basto Universo al que pertenecemos, nos ha permitido acercarnos a objetos celestes que están al otro lado del Cosmos, hoy en día podemos deducir el tamaño e incluso la habitabilidad potencial de los planetas.

Podemos captar briznas de radiación tan ridículamente leves con radio-telescopios que, la cuantía total de energía recogida del exterior del Sistema Solar por todos ellos juntos, desde que se inicio la recolección en 1951, es “Menos que la energía de un solo copo de nieve al dar en el suelo.”  en palabras del propio Carl Sagan.

Gracias a los telescopios pocas son las cosas que pasan en el Universo y que no puedan descubrir los astrónomos si se lo proponen. Pero aunque podemos ver muy lejos, quizás necesitamos mirar un poco mas cerca.

 

LIMITES DEL SISTEMA SOLAR

Aunque estemos en un Universo enorme, tan grande que nos es posible para la mente humana poder imaginar su extensión, el hombre siempre ha sido ambicioso, siempre quiere llegar mas lejos, mas profundo, queremos descubrir los secretos que aun están ocultos en el otro extremo de nuestro Cosmos, pero la realidad nos golpea con fuerza al notar que ni siquiera conocemos bien lo que esta relativamente cerca de nosotros… de nuestros planetas vecinos.

Para casi todas las personas el límite de nuestro Sistema Solar esta delimitado por el último planeta: Plutón. La mayoría de personas asegura que Plutón es un planeta cuando en realidad fue degradado de esa “categoría” y a pasado a  ser un “planeta enano” tras un intenso debate, la UAI (Unión Astronómica Internacional) decidió el 24 de agosto de 2006, por unanimidad, re-clasificar a Plutón.

Plutón es un “planeta enano”.

Ya hace 6 años desde que se llego a esa decisión que reduciría el número de planetas de 9 a 8 solamente, por experiencia propia puedo decir que he visto a muchas personas que aun creen que Plutón es un planeta mas, he leído varios textos que no han sido corregidos y siguen mostrando gráficos del Sistema Solar donde aun se incluye a Plutón como parte del conjunto de planetas. Y lo que mas me ha sorprendido e irritado es que profesores de escuela siguen enseñando a sus alumnos algo que ha sido modificado hace bastante tiempo y que no es solamente del conocimiento de mentes ilustres, sino de todas las personas en general.

Pero retomando el camino que dejamos hace unos párrafos arriba, si Plutón ya no es considerado un planeta y es para muchos el punto de referencia que delimita el Sistema Solar del resto del Cosmos, ahora que ya no es un planeta. ¿Cual es el límite del Sistema Solar en realidad?

En cuanto al propio Plutón, nadie está seguro del todo de cuál es su tamaño, de qué está hecho, qué tipo de atmósfera tiene e incluso de lo que es realmente. Muchos astrónomos creen que no es en modo alguno un planeta, que sólo es el objeto de mayor tamaño que se ha localizado hasta ahora en una región de desechos galácticos denominada cinturón Kuiper. El cinturón Kuiper fue postulado, en realidad, por un astrónomo llamado F. C. Leonard en 1930, pero el nombre honra a Gerard Kuiper, un holandés que trabajaba en Estados Unidos y que fue quien difundió la idea.

Cinturón de Kuiper.

El cinturón Kuiper es el origen de lo que llamamos cometas de periodo corto (los que pasan con bastante regularidad), el más famoso de los cuales es el cometa Halley. Los cometas de periodo largo, que son más retraídos —y entre los que figuran dos que nos han visitado recientemente, Hale-Bopp y Hyakutake— proceden de la nube Oort, mucho más alejada, y de la que hablaremos más en breve.

La Nube de Oort

¿Y cómo de lejos es eso exactamente? Resulta casi inimaginable. El espacio es sencillamente enorme… Sencillamente enorme y nunca me cansare de decirlo.

Imaginemos, sólo a efectos de edificación y entretenimiento, que estamos a punto de iniciar un viaje en una nave espacial. No vamos a ir muy lejos, sólo hasta el borde de nuestro sistema solar. Pero necesitamos hacernos una idea de lo grande que es el espacio y la pequeña parte del mismo que ocupamos.

Nos vamos de Viaje..!!

La mala noticia es que mucho me temo que no podamos estar de vuelta en casa para la cena. Incluso en el caso de que viajásemos a la velocidad de la luz (300.000 kilómetros por segundo), tardaríamos siete horas en llegar a Plutón. Pero no podemos aproximarnos siquiera a esa velocidad. Tendremos que ir a la velocidad de una nave espacial, y las naves espaciales son bastante más lentas. La velocidad máxima que ha conseguido hasta el momento un artefacto humano es la de las naves espaciales Voyager 1 y 2, que están ahora alejándose de nosotros a unos 56.000 kilómetros por hora.

La Sonda Voyager 1.

La razón de que se lanzasen estas naves cuando se lanzaron (en agosto y septiembre de 1977) era que Júpiter, Saturno, Urano y Neptuno estaban alineados de una forma que sólo se da una vez cada 175 años. Esto permitía a las dos naves utilizar una técnica de «aprovechamiento de la gravedad» por la que eran lanzadas sucesivamente de un gigante gaseoso al siguiente en una especie de versión cósmica de chasquido de látigo. Aun así, tardaron nueve años en llegar a Urano y doce en cruzar la órbita de Plutón.

De una forma u otra, será un viaje largo. Es probable que de lo primero que te des cuenta sea que el espacio tiene un nombre extraordinariamente apropiado y que es muy poco interesante, por desgracia.

Posiblemente nuestro sistema solar sea lo más animado que hay en billones de kilómetros, pero todo el material visible que contiene (el Sol, los planetas y sus lunas, los 1.000 millones de rocas que giran en el cinturón de asteroides, los cometas y demás cuerpos a la deriva) ocupan menos de una billonésima parte del espacio disponible.

 Te darás cuenta también enseguida de que ninguno de los mapas que hayas podido ver del sistema solar estaba dibujado ni siquiera remotamente a escala. La mayoría de los mapas que se ven en las clases muestra los planetas uno detrás de otro a intervalos de buena vecindad —los gigantes exteriores llegan incluso a proyectar sombras unos sobre otros en algunas ilustraciones) —, pero se trata de un engaño necesario para poder incluirlos a todos en la misma hoja. 

Sistema Solar representado sin escala

En verdad, Neptuno no está un poquito más lejos que Júpiter. Está mucho más allá de Júpiter, cinco veces más que la distancia que separa a Júpiter de la Tierra, tan lejos que recibe sólo un 3 % de la luz que recibe Júpiter. Las distancias son tales, en realidad, que no es prácticamente posible dibujar a escala el sistema solar. Aunque añadieses montones de páginas plegadas a los libros de texto o utilizases una hoja de papel de cartel realmente muy grande, no podrías aproximarte siquiera.

En un dibujo a escala del sistema solar, con la Tierra reducida al diámetro aproximado de un guisante, Júpiter estaría a 300 metros de distancia y, Plutón, a 2,5 kilómetros —y sería del tamaño similar al de una bacteria, así que de todos modos no podrías verlo—. A la misma escala, Próxima Centauri, que es la estrella que nos queda más cerca, estaría a 16.000 kilómetros de distancia. Aunque lo redujeses todo de tamaño hasta el punto en que Júpiter fuese tan pequeño como el punto final de esta frase y Plutón no mayor que una molécula, Plutón seguiría quedando a 1o metros de distancia.

Así que el sistema solar es realmente enorme. Cuando llegásemos a Plutón, nos habríamos alejado tanto del Sol —nuestro amado y cálido Sol, que nos broncea y nos da la vida—, que éste se habría quedado reducido al tamaño de una cabeza de alfiler. Sería poco más que una estrella brillante.

El Sol visto desde los planetas del Sistema Solar y Plutón.

En un vacío tan solitario se puede empezar a entender por qué han escapado a nuestra atención incluso los objetos más significativos (las lunas de Plutón, por ejemplo). Y Plutón no ha sido ni mucho menos un caso único a ese respecto. Hasta las expediciones del Voyager, se creía que Neptuno tenía dos lunas. El Voyager descubrió otras seis. Cuando yo era un niño, se creía que había 30 lunas en el sistema solar. Hoy el total es de 9o, como mínimo, y aproximadamente un tercio de ellas se han descubierto en los últimos años. Lo que hay que tener en cuenta, claro, cuando se considera el universo en su conjunto, es que ni siquiera sabemos en realidad lo que hay en nuestro sistema solar.

Bueno, la otra cosa que notarás, cuando pasemos a toda velocidad Plutón, es que estamos dejando atrás Plutón. Si compruebas el itinerario, verás que se trata de un viaje hasta el borde de nuestro sistema solar, y me temo que aún no hemos llegado. Plutón puede ser el último objeto que muestran los mapas escolares, pero el sistema solar no termina ahí. Ni siquiera estamos cerca del final al pasar Plutón.

El Cinturón de Kuiper.

Después de Plutón   hemos de pasar por El Cinturón de Kuiper. Es una región en forma de disco que se encuentra más allá de la órbita de Neptuno, aproximadamente entre 30 y 100 UA (Unidades Astronómicas) del Sol, que contiene muchos pequeños cuerpos helados. Actualmente se le considera la fuente de los cometas de periodo corto.  Aunque los valores de las estimaciones son bastante variables, se calcula que existen al menos 70.000 “transneptunianos” entre las 30 y 50 unidades astronómicas, con diámetros superiores a los 100 km. Más allá de las 50 UA es posible que existan más cuerpos de este tipo, pero en todo caso están fuera del alcance de las actuales técnicas de detección. Las observaciones muestran también que se hallan confinados dentro de unos pocos grados por encima o por debajo del plano de la eclíptica. Estos objetos se les conoce como KBO’s (Kuiper Belt Objects).

El estudio del cinturón de Kuiper es muy interesante por varios motivos:

  • Los objetos que contiene son remanentes muy primitivos de las primeras fases de acreción del sistema solar. La región central, más densa, se condensó para formar los planetas gigantes (las composiciones de Urano y Neptuno son casi idénticas a la de los cometas). En la región más y menos densa, la acreción progresó lentamente, pese a lo cual se formaron un gran número de pequeños cuerpos.
  • Es aceptado ampliamente que el cinturón de Kuiper es la fuente de los cometas de corto período, del mismo modo que la nube de Oort lo es para los de largo período.

Ocasionalmente, la órbita de un objeto del Cinturón de Kuiper se verá perturbada por las interacciones de los planetas gigantes de tal forma que cruzará la de Neptuno. Entonces será muy probable que tenga un encuentro cercano con Neptuno, quien le expulsará del sistema solar o lo enviará en una órbita que cruce las de los otros planetas gigantes o incluso hacia el sistema solar interior.

Curiosamente, parece que los objetos de la Nube de Oort se formaron más cerca del Sol que los objetos del Cinturón de Kuiper. Los objetos pequeños que se formaran cerca de los planetas gigantes habrían sido eyectados del sistema solar debido a los encuentros gravitatorios. Aquellos que no escaparan del todo formarían la distante Nube de Oort. Los objetos pequeños que se formaran más lejos no sufrirían estas interacciones y formarían el Cinturón de Kuiper.

La Nube de Oort.

No llegaremos hasta el borde del sistema solar hasta que hayamos cruzado la nube de Oort, un vasto reino celestial de cometas a la deriva, y no llegaremos hasta allí durante otros —lo siento muchísimo— 10.000 años. Plutón, lejos de hallarse en el límite exterior del sistema solar, como tan displicentemente indicaban aquellos mapas escolares, Plutón se encuentra apenas a una cincuenta-milésima parte del trayecto.

No tenemos ninguna posibilidad de hacer semejante viaje, claro. Los 386.000 kilómetros del viaje hasta la Luna. Aún representan para nosotros una empresa de enorme envergadura. La misión tripulada a Marte, solicitada por el primer presidente Bush en un momento de atolondramiento pasajero, se desechó tajantemente cuando alguien averiguó que costaría 450.000 millones de dólares y que, con probabilidad, acabaría con la muerte de todos los tripulantes.

Basándonos en lo que sabemos ahora yen lo que podemos razonablemente imaginar, no existe absolutamente ninguna posibilidad de que un ser humano llegue nunca a visitar el borde de nuestro sistema solar… nunca. Queda demasiado lejos. Tal como están las cosas, ni siquiera con el telescopio Hubble podemos ver el interior de la nube Oort, así que no podemos saber en realidad lo que hay allí. Su existencia es probable, pero absolutamente hipotética.” Lo único que se puede decir con seguridad sobre la nube Oort es, más o menos, que empieza en algún punto situado más allá de Plutón y que se extiende por el cosmos a lo largo de unos dos años luz. La unidad básica de medición en el sistema solar es la Unidad Astronómica, UA, que representa la distancia del Sol a la Tierra.

Plutón está a unas 40 UA de la Tierra y, el centro de la nube Oort, a unas 50.000 UA.

Ls verdadera extensión de nuestro Sistema Solar.

El Sistema Solar en Perspectiva.

Pero finjamos de nuevo que hemos llegado a la nube Oort. Lo primero que advertirías es lo tranquilísimo que está todo allí. Nos encontramos ya lejos de todo… tan lejos de nuestro Sol que ni siquiera es la estrella más brillante del firmamento. Parece increíble que ese diminuto y lejano centelleo tenga gravedad suficiente para mantener en órbita a todos esos cometas. No es un vínculo muy fuerte, así que los cometas se desplazan de un modo mayestático, a una velocidad de unos 563 kilómetros por hora. De cuando en cuando, alguna ligera perturbación gravitatoria (una estrella que pasa, por ejemplo) desplaza de su órbita normal a uno de esos cometas solitarios. A veces se precipitan en el vacío del espacio y nunca se los vuelve a ver, pero otras veces caen en una larga órbita alrededor del Sol.

Esquema del Sistema Solar.

Ese es nuestro verdadero Sistema Solar, mucho mas grande de lo que pensábamos. Aunque en el vasto Universo, nuestro Sistema Solar es como un grano de arena en un desierto infinito…!!  

Pero en vez de desanimarnos al ver el enorme Cosmos lleno de secretos, debemos alegrarnos puesto que hay mucho por descubrir, mucho por discutir y mucho por aportar a la Ciencia…

Referencias |

La Ciencia de la Invisibilidad

Todos, absolutamente todos hemos estado en algún momento de nuestra existencia en situaciones absolutamente bochornosas, es completamente inevitable. Muchos nos hemos tropezado para luego caer estrepitosamente, chocar el auto de nuestros padres, olvidarte del aniversario de tu pareja, llamar “mama”  a alguna de tus profesoras (algo traumatico), en fin, un montón de situaciones que nadie quisiera experimentar.

Es probable que dentro de unos años te olvides de lo que hiciste un verano, del cumpleaños de tu hijo o hasta del nombre de tu marido, pero lo que nunca olvidarás son esos momentos embarazosos en los que te hubiera gustado que te tragara la tierra, o por lo menos ser invisible, que nadie te viera y así por lo menos no ser victima de las miradas asesinas de los agraviados y quizás una muerte próxima.

Aunque ser invisible no solamente serviría para escapar de alguna situación “difícil”. También, es el sueño de muchos ladrones, científicos locos, supervillanos y un montón mas de desequilibrados mentales.

Aunque seria una gran tentación para cualquier humano el poseer esa capacidad, podría hacer lo quisiera sin que nadie pudiera verlo… Algo que quebrantaría la moralidad de cualquier persona… Pero desde el punto de vista científico, ¿Es posible?

¿Realmente es posible hacernos invisibles o hacer invisible algún objeto?… ¿Existe mas de un método para conseguirlo?… ¿Que utilidades puede traernos la invisibilidad ademas de el uso militar?

Por ejemplo, en la famosa serie Star Trek IV: El viaje a casa, la tripulación del Enterprise se apropia de un crucero de batalla Klingon. A diferencia de las naves espaciales de la Flota Estelar de la Federación, las naves espaciales del imperio Klingon tienen un «dispositivo de ocultación» secreto que las hace invisibles a la luz o el radar, de modo que las naves de Klingon pueden deslizarse sin ser detectadas tras las naves espaciales de la Federación y tenderles emboscadas con impunidad. Este dispositivo de ocultación ha dado al imperio Klingon una ventaja  estratégica sobre la Federación de Planetas.

Nave Klingon

Pero, ¿Realmente es posible tal dispositivo? o ¿tan solo es una idea disparatada imposible de realizar? La invisibilidad ha sido siempre una de las maravillas de la ciencia ficción y de lo fantástico, desde las páginas de El hombre invisible al mágico manto de invisibilidad de los libros de Harry Potter, o el anillo en El señor de los anillos (mi preferido).

El Anillo Único – El Señor de los Anillos

Pero durante un siglo al menos, casi todos los físicos han descartado la posibilidad de mantos de invisibilidad o algo que se le parezca, afirmando lisa y  llanamente que son imposibles: violan las leyes de la óptica y no se adecuan a ninguna de las propiedades conocidas de la materia.

Pero hoy lo imposible puede hacerse posible.  Nuevos avances en metamateriales están obligando a una revisión importante de los libros de texto de óptica. Se han construido en el laboratorio prototipos operativos de tales materiales que han despertado un gran interés en los medios de comunicación, la industria y el ejército al hacer que lo visible se haga invisible.

La invisibilidad a través de la historia

La invisibilidad es quizá una de las ideas más viejas en la mitología antigua. Desde el comienzo de la historia escrita, las personas que se han encontrado solas en una noche procelosa se han sentido aterrorizadas por los espíritus invisibles de los muertos, las almas de los que desaparecieron hace tiempo que acechan en la oscuridad.

El héroe griego Perseo pudo acabar con la malvada Medusa armado con el yelmo de la invisibilidad.

Los generales de los ejércitos han soñado con un dispositivo de invisibilidad. Siendo invisible, uno podría atravesar las líneas enemigas y capturar al enemigo por sorpresa. Los criminales podrían utilizar la invisibilidad para llevar a cabo robos espectaculares.

La invisibilidad desempeñaba un papel central en la teoría de Platón de la ética y la moralidad. En su principal obra filosófica, La República, Platón narra el mito del anillo de Giges. El pobre pero honrado pastor Giges de Lidia entra en una cueva oculta y encuentra una tumba que contiene un cadáver que lleva un anillo de oro. Giges descubre que ese anillo de oro tiene el poder mágico de hacerle invisible. Pronto este pobre pastor queda embriagado con el poder que le da este anillo. Después de introducirse subrepticiamente en el palacio del rey, Giges utiliza su poder para seducir a la reina y, con la ayuda de esta, asesinar al rey y convertirse en el próximo rey de Lidia.

La moraleja que deseaba extraer Platón es que ningún hombre puede resistir la tentación de poder robar y matar a voluntad. Todos los hombres son corruptibles. La moralidad es una construcción social impuesta desde fuera. Un hombre puede aparentar ser moral en público para mantener su reputación de integridad y honestidad, pero una vez que posee el poder de la invisibilidad, el uso de dicho poder sería irresistible.

Platón

 (Algunos creen que esta moraleja fue la inspiración para la trilogía de El señor de los anillos de J. R. R. Tolkien, en la que un anillo que garantiza la invisibilidad a quien lo lleva es también una fuente del mal).

La invisibilidad es asimismo un elemento habitual en la ciencia ficción. En la serie Flash Gordon de la década de 1950, Flash se hace invisible para escapar al pelotón de fusilamiento de Ming el Despiadado. En las novelas y las películas de Harry Potter, Harry lleva un manto especial o “mágico” que le permite moverse por el colegio Hogwarts sin ser detectado.

La capa de la invisibilidad de Harry Potter

H.G. Wells dio forma concreta a esta mitología con su clásica novela El hombre invisible, en la que un estudiante de medicina descubre accidentalmente el poder de la cuarta dimensión y se hace invisible. Por desgracia, él utiliza este fantástico poder para su beneficio privado, empieza una oleada de crímenes menores, y al final muere tratando de huir desesperadamente de la policía.

El hombre invisible

Las ecuaciones de Maxwell y el secreto de la luz

Solo con la obra del físico escocés James Clerk Maxwell, uno de los gigantes de la física del siglo XIX, los físicos tuvieron una comprensión firme de las leyes de la óptica. Maxwell era, en cierto sentido, lo contrario de Michael Faraday.

Mientras que Faraday tenía un soberbio instinto experimental pero ninguna educación formal, Maxwell era un maestro de las matemáticas avanzadas. Destacó como estudiante de física matemática en  Cambridge, donde Isaac Newton había trabajado dos siglos antes. Newton había inventado el cálculo infinitesimal, que se expresaba en el lenguaje de las «ecuaciones diferenciales», que describen cómo los objetos experimentan cambios infinitesimales en el espacio y el tiempo.

James Clerk Maxwell

El movimiento de las ondas oceánicas, los fluidos, los gases y las balas de cañón podían expresarse en el lenguaje de las ecuaciones diferenciales. Maxwell tenía un objetivo claro: expresar los revolucionarios hallazgos de Faraday y sus campos de fuerza mediante ecuaciones diferenciales precisas.

Maxwell partió del descubrimiento de Faraday de que los campos eléctricos podían convertirse en campos magnéticos, y viceversa. Asumió las representaciones de Faraday de los campos de fuerza y las reescribió en el lenguaje preciso de las ecuaciones diferenciales, lo que dio lugar a uno de los más importantes conjuntos de ecuaciones de la ciencia moderna. constituyen un conjunto de ocho ecuaciones diferenciales de aspecto imponente. Cualquier físico e ingeniero del mundo tiene que jurar sobre ellas cuando llega a dominar el electromagnetismo en la facultad. 

A continuación, Maxwell se hizo la pregunta decisiva: si los campos magnéticos pueden convertirse en campos eléctricos y viceversa, ¿qué sucede si se están convirtiendo continuamente unos en otros en una pauta inacabable? Maxwell encontró que estos campos electromagnéticos crearían una onda muy parecida a las olas en el mar. Calculó la velocidad de dichas ondas y, para su asombro, ¡descubrió que era igual a la velocidad de la luz! En 1864, tras descubrir este hecho, escribió proféticamente: «Esta velocidad es tan próxima a la de la luz que parece que tenemos una buena razón para concluir que la propia luz… es una perturbación electromagnética». 

Fue quizá uno de los mayores descubrimientos de la historia humana. El secreto de la luz se revelaba por fin. Evidentemente, Maxwell se dio cuenta de que todas las cosas, el brillo del amanecer, el resplandor de la puesta de Sol, los extraordinarios colores del arco iris y el firmamento estrellado podían describirse mediante las ondas que garabateaba en una hoja de papel.

Hoy entendemos que todo el espectro electromagnético —desde el radar a la televisión, la luz infrarroja, la luz ultravioleta, los rayos X, las microondas y los rayos gamma— no es otra cosa que ondas de Maxwell, que a su vez son vibraciones de los campos de fuerza de Faraday.  Al comentar la importancia de las ecuaciones de Maxwell, Einstein escribió que son «las más profundas y fructíferas que ha experimentado la física desde la época de Newton».

La teoría de la luz de Maxwell y la teoría atómica dan explicaciones sencillas de la óptica y la invisibilidad. En un sólido, los átomos están fuertemente concentrados, mientras que en un líquido o en un gas las moléculas están mucho más espaciadas. La mayoría de los sólidos son opacos porque los rayos de luz no pueden atravesar la densa matriz de átomos en un sólido, que actúa como un muro de ladrillo. Por el contrario, muchos líquidos y gases son transparentes porque la luz pasa con más facilidad entre los grandes espacios entre sus átomos, un espacio que es mayor que la longitud de onda de la luz visible.

Existen excepciones importantes a esta regla. Muchos cristales son, además de sólidos, transparentes. Pero los átomos de un cristal están dispuestos en una estructura reticular precisa, ordenados en filas regulares, con un espaciado regular entre ellos. Así, un haz luminoso puede seguir muchas trayectorias a través de una red cristalina. Por consiguiente, aunque un cristal está tan fuertemente empaquetado como cualquier sólido, la luz puede abrirse camino a través del cristal.

Bajo ciertas condiciones, un objeto sólido puede hacerse transparente si los átomos se disponen al azar. Esto puede hacerse calentando ciertos materiales a alta temperatura y enfriándolos rápidamente. El vidrio, por ejemplo, es un sólido con muchas propiedades de un líquido debido a la disposición aleatoria de sus átomos. Algunos caramelos también pueden hacerse transparentes con este método. Es evidente que la invisibilidad es una propiedad que surge en el nivel atómico, mediante las ecuaciones de Maxwell, y por ello sería extraordinariamente difícil, si no imposible, de reproducir utilizando métodos ordinarios.

Para hacer invisible a Harry Potter habría que licuarlo, hervirlo para crear vapor, cristalizarlo, calentarlo de nuevo y luego enfriarlo, todo lo cual sería muy difícil de conseguir incluso para un mago.

El ejército, incapaz de crear aviones invisibles, ha intentado hacer lo que más se les parece: crear tecnología furtiva, que hace los aviones invisibles al radar. La tecnología furtiva se basa en las ecuaciones de Maxwell para conseguir una serie de trucos. Un caza a reacción furtivo es perfectamente visible al ojo humano, pero su imagen en la pantalla de un radar enemigo solo tiene el tamaño que correspondería a un pájaro grande. (La tecnología furtiva es en realidad una mezcla de trucos. Cambiando los materiales dentro del caza a reacción, reduciendo su contenido de acero y utilizando en su lugar plásticos y resinas, cambiando los ángulos de su fuselaje, re-ordenando sus toberas, y así sucesivamente, es posible hacer que los haces del radar enemigo que inciden en el aparato se dispersen en todas direcciones, de modo que nunca vuelven a la pantalla del radar enemigo.

Caza furtivo moderno F-35 Lightning II

Incluso con tecnología furtiva, un caza a reacción no es del todo invisible; lo que hace es desviar y dispersar tantas ondas de radar como es técnicamente posible).

Metamateriales e invisibilidad

Pero quizá el más prometedor entre los nuevos desarrollos que implican invisibilidad es un nuevo material exótico llamado  «metamaterial», que tal vez un día haga los objetos verdaderamente invisibles. Resulta irónico que la creación de metamateriales se considerara en otro tiempo imposible porque violaban las leyes de la óptica. Pero en 2006, investigadores de la Universidad de Duke en Durham, Carolina del Norte, y del Imperial College de Londres, desafiaron con éxito la sabiduría convencional y utilizaron metamateriales para hacer un objeto invisible a la radiación de microondas. Aunque hay aún muchos obstáculos que superar, ahora tenemos por primera vez en la historia un diseño para hacer invisibles objetos ordinarios. (La Agencia de Investigación de Proyectos Avanzados de Defensa [DARPA] del Pentágono financió esta investigación).

El potencial revolucionario de los metamateriales «cambiará por completo nuestro enfoque de la óptica y casi todos los aspectos de la electrónica. Algunos de estos metamateriales pueden hacer realidad hazañas que habrían parecido milagrosas hace solo unas décadas».

¿Qué son estos metamateriales? Son sustancias que tienen propiedades ópticas que no se encuentran en la naturaleza. Los metamateriales se crean insertando en una sustancia minúsculos implantes que obligan a las ondas electromagnéticas a, curvarse de formas heterodoxas. En la Universidad,de Duke los científicos insertaron en bandas,de cobre minúsculos circuitos eléctricos dispuestos,en círculos planos concéntricos (una forma,que recuerda algo a las resistencias de un horno,eléctrico).

Ejemplo de lo que seria un auto construido con metamateriales.

El resultado fue una mezcla sofisticada,de cerámica, teflón, compuestos de fibra y componentes,metálicos. Estos minúsculos implantes,en el cobre hacen posible curvar y canalizar de,una forma específica la trayectoria de la radiación,de microondas. Pensemos en cómo fluye un río alrededor de una roca. Puesto que el agua rodea fácilmente la roca, la presencia de la roca no se deja sentir aguas abajo. Del mismo modo, los metamateriales pueden alterar y curvar continuamente la trayectoria de las microondas de manera que estas fluyan alrededor de un cilindro, por ejemplo, lo que haría esencialmente invisible a las microondas todo lo que hay dentro del cilindro.

Si el material puede eliminar toda la reflexión y todas las sombras, entonces puede hacer un objeto totalmente invisible para dicha forma de, radiación. Los científicos demostraron satisfactoriamente,este principio con un aparato hecho de diez anillos,de fibra óptica cubiertos con elementos de,cobre. Un anillo de cobre en el interior del aparato,se hacía casi invisible a la radiación de microondas,pues solo arrojaba una sombra, minúscula.

En el corazón de los metamateriales está su capacidad para manipular algo llamado «índice de refracción ». La refracción es la curvatura que experimenta la trayectoria de la luz cuando atraviesa un medio transparente. Si usted mete la mano en el agua, o mira a través de los cristales de sus gafas, advertirá que el agua y el cristal distorsionan y curvan la trayectoria de la luz ordinaria.

Manipulación de la Refracción por parte de un Metamaterial.

La razón de que la luz se curve en el cristal o en el agua es que la luz se frena cuando entra en un medio transparente denso. La velocidad de la luz en el vacío es siempre la misma, pero la luz que viaja a través del agua o del cristal debe atravesar billones de átomos y con ello se frena. (El cociente entre la velocidad de la luz en el vacío y la velocidad más lenta de la luz entro de un medio es lo que se llama índice de refracción. Puesto que la luz se frena en el vidrio, el índice de refracción de este es siempre mayor que 1,0).

Por ejemplo, el índice de refracción es 1,0 para el vacío, 1,0003 para el aire, 1,5 para el vidrio y 2,4 para el diamante. Normalmente, cuanto más denso es el medio, mayor es el grado de curvatura, y mayor el índice de refracción. Un efecto familiar del índice de refracción es un espejismo. Si usted viaja en coche un día tórrido y mira hacia delante al horizonte, verá cómo la carretera parece brillar y crea la ilusión de un lago donde se refleja la luz.

Un ejemplo de Espejismo en el Desierto.

En el desierto pueden verse a veces las siluetas de ciudades y montañas distantes en el horizonte. Esto se debe a que el aire caliente que sube del asfalto o del suelo del desierto tiene una densidad menor que el aire normal, y por lo tanto un índice de refracción menor que el del aire más frío que le rodea; por ello, la luz procedente de objetos distantes puede refractarse en el asfalto hacia sus ojos y producirle la ilusión de que está viendo objetos distantes.

Normalmente, el índice de refracción es constante. Un fino haz de luz se curva cuando entra en el vidrio y luego sigue una línea recta. Pero supongamos por un momento que pudiéramos controlar el índice de refracción a voluntad, de modo que pudiera cambiar de forma continua en cada punto del vidrio. A medida que la luz se moviera en este nuevo material, se iría curvando y alabeando en nuevas direcciones, en una trayectoria que serpentearía a través de la sustancia.

Si pudiéramos controlar el índice de refracción dentro de un metamaterial de modo que la luz rodeara a un objeto, entonces el objeto se haría invisible. Para ello, este metamaterial debería tener un índice de refracción negativo, lo que cualquier libro de texto de óptica dice que es imposible.

Concepto de Refracción.

(Los metamateriales fueron teorizados por primera vez en un artículo del físico soviético Víctor Veselago en 1967, y se demostró que tenían propiedades ópticas extrañas, tales como un índice de refracción negativo y efecto Doppler inverso. Los metamateriales son tan extraños y aparentemente absurdos que en otro tiempo se pensó que eran imposibles de construir. Pero en los últimos años se han construido metamateriales en el laboratorio, lo que ha obligado a los físicos reacios a reescribir los libros de texto de óptica).

Aunque un verdadero manto de invisibilidad es posible dentro de las leyes de la física, como reconocerán la mayoría de los físicos, aún quedan formidables obstáculos técnicos antes de que esta tecnología pueda extenderse para trabajar con luz visible y no solo radiación de microondas.

En general, las estructuras internas implantadas dentro del metamaterial deben ser más pequeñas que la longitud de onda de la radiación. Por ejemplo, las microondas pueden tener una longitud de onda de unos 3 centímetros, de modo que para que un metamaterial curve la trayectoria de las microondas debe tener insertados en su interior implantes minúsculos menores que 3 centímetros. Pero para hacer un objeto invisible a la luz verde, con una longitud de onda de 500 nanómetros (nm), el metamaterial debe tener insertadas estructuras que sean solo de unos 50 nanómetros de longitud, y estas son escalas de longitud atómica que requieren nanotecnología.

Escala de los Nanómetros y Micrómetros.

(Un nanómetro es una mil millonésima de metro. Aproximadamente cinco átomos pueden caber en un nanómetro). Este es quizá el problema clave al que se enfrentan nuestros intentos de crear un verdadero manto de invisibilidad. Los átomos individuales dentro de un metamaterial tendrían que ser modificados para curvar un rayo de luz como una serpiente.

Metamateriales para luz visible

La carrera ha empezado. Desde que se anunció que se han fabricado materiales en el laboratorio se ha producido una estampida de actividad en esta área, con nuevas ideas y sorprendentes avances cada pocos meses. El objetivo es claro: utilizar nanotecnología para crear metamateriales que puedan curvar la luz visible, no solo las microondas. Se han propuesto varios enfoques, todos ellos muy prometedores. Uno de ellos es utilizar la tecnología ya disponible, es decir, tomar prestadas técnicas ya conocidas de la industria de semiconductores para crear nuevos metamateriales. Una técnica llamada «fotolitografía » está en el corazón de la miniaturización informática, y con ello impulsa la revolución de los ordenadores. Esta tecnología permite a los ingenieros colocar cientos de millones de minúsculos transistores en una pastilla de silicio no mayor que un pulgar.

La razón de que la potencia de los ordenadores se duplique cada dieciocho meses (lo que se conoce como ley de Moore) es que los científicos utilizan luz ultravioleta para «grabar» componentes cada vez más pequeños en un chip de silicio. Esta técnica es muy similar al modo en que se utilizan las plantillas para crear vistosas camisetas. (Los ingenieros de ordenadores empiezan con una delgada tableta de silicio y aplican sobre ella capas extraordinariamente delgadas de materiales diversos. Luego se coloca sobre la tableta una máscara plástica que actúa como una plantilla. Esta contiene los complejos perfiles de los cables, transistores y componentes de ordenador que constituyen el esqueleto básico del circuito. La tableta se baña entonces en radiación ultravioleta, que tiene una longitud de onda muy corta, y dicha radiación imprime la estructura en la tableta fotosensible. Tratando la tableta con gases y ácidos especiales, la circuitería completa de la máscara queda grabada en las zonas de la tableta que estuvieron expuestas a la luz ultravioleta. Este proceso crea una tableta que contiene centenares de millones de surcos minúsculos, que forman los perfiles de los transistores).

Un spinner utilizado en la fotolitografía.

Actualmente, los componentes más pequeños que se pueden crear con este proceso de grabado son de unos 53 nm (o unos 150 átomos de largo). Un hito en la búsqueda de la invisibilidad se alcanzó cuando esta técnica de grabado de tabletas fue utilizada por un grupo de científicos para crear el primer metamaterial que opera en el rango de la luz visible. Científicos en Alemania y en el Departamento de Energía de Estados Unidos anunciaron a principios de 2007 que, por primera vez en la historia, habían fabricado un metamaterial que funcionaba para luz roja. Lo «imposible» se había conseguido en un tiempo notablemente corto. El físico Costas Soukoulis del Laboratorio Ames en Iowa, junto con Stefan Linden, Martin Wegener y Gunnar Dolling de la Universidad de Karlsruhe, en Alemania, fueron capaces de crear un metamaterial que tenía un índice de —0,6 para la luz roja, con una longitud de onda de 780 nm.

Hasta ahora esos científicos han conseguido un índice de refracción negativo solo para luz roja. Su próximo paso sería utilizar esta tecnología para crear un metamaterial que curvara la luz roja enteramente alrededor de un objeto, haciéndolo invisible a dicha luz. Estas líneas de investigación pueden tener desarrollos futuros en el área de los «cristales fotónicos».  El objetivo de la tecnología de cristales fotónicos es crear un chip que utilice luz, en lugar de electricidad, para procesar información.

Esto supone utilizar nanotecnología para grabar minúsculos componentes en una tableta, de modo que el índice de refracción cambie con cada componente. Los transistores que utilizan luz tienen varias ventajas sobre los que utilizan electricidad. Por ejemplo, las pérdidas de calor son mucho menores en los cristales fotónicos. (En los chips de silicio avanzados, el calor generado es suficiente para freír un huevo. Por ello deben ser enfriados continuamente o de lo contrario fallarán, pero mantenerlos fríos es muy costoso).

No es sorprendente que la ciencia de los cristales fotónicos sea ideal para los metamateriales, puesto que ambas tecnologías implican la manipulación del índice de refracción de la luz en la nanoescala.

La Invisibilidad plasmónica

Para no quedarse atrás, otro grupo anunció a mediados de 2007 que había creado un metamaterial que curva luz visible utilizando una tecnología completamente diferente, llamada «plasmónica». Los físicos Henri Lezec, Jennifer Dionne y Harry Atwater del Instituto de Tecnología de California (Caltech) anunciaron que habían creado un metamaterial que tenía un índice negativo para la más difícil región azul-verde del espectro visible de la luz.

El objetivo de la plasmónica es «estrujar» la luz de modo que se puedan manipular objetos en la nanoescala, especialmente en la superficie de metales. La razón de que los metales conduzcan la electricidad es que los electrones están débilmente ligados a los átomos del metal, de modo que pueden moverse con libertad a lo largo de la superficie de la red metálica. La electricidad que fluye por los cables de su casa representa el flujo uniforme de estos electrones débilmente ligados en la superficie metálica. Pero en ciertas condiciones, cuando un haz luminoso incide en la superficie metálica, los electrones pueden vibrar al unísono con el haz luminoso original, lo que da lugar a movimientos ondulatorios de los electrones en la superficie metálica (llamados plasmones), y estos movimientos ondulatorios laten al unísono con el haz luminoso original.

En física, un plasmón es un cuanto de oscilación del plasma.

Y lo que es más importante, estos plasmones se pueden «estrujar» de modo que tengan la misma frecuencia que el haz original (y con ello lleven la misma información) pero tengan una longitud de onda mucho más pequeña. En principio se podrían introducir estas ondas estrujadas en nanocables.

Como sucede con los cristales fotónicos, el objetivo último de la plasmónica es crear chips de ordenador que computen utilizando luz en lugar de electricidad. El grupo del Caltech construyó su metamaterial a partir de dos capas de plata, con un aislante de silicio-nitrógeno en medio (de un espesor de solo 50 nm), que actuaba como una «guía de onda» que podía guiar la dirección de las ondas plasmónicas.

Luz láser entra y sale del aparato a través de dos rendijas horadadas en el metamaterial. Analizando los ángulos a los que se curva la luz láser cuando atraviesa el metamaterial, se puede verificar que la luz está siendo curvada mediante un índice negativo.

El futuro de los metamateriales

Los avances en metamateriales se acelerarán en el futuro por la sencilla razón de que ya hay un gran interés en crear transistores que utilicen haces luminosos en lugar de electricidad. Por consiguiente, la investigación en invisibilidad puede «subirse al carro» de la investigación en curso en cristales fotónicos y plasmónica para crear sustitutos para el chip de silicio. Ya se están invirtiendo centenares de millones de dólares a fin de crear sustitutos para la tecnología del silicio, y la investigación en metamateriales se beneficiará de estos esfuerzos de investigación. Debido a los grandes avances que se dan en este campo cada pocos meses, no es sorprendente que algunos físicos piensen que algún tipo de escudo de invisibilidad puede salir de los laboratorios en unas pocas décadas.

Por ejemplo, los científicos confían en que en los próximos años serán capaces de crear metamateriales que puedan hacer a un objeto totalmente invisible para una frecuencia de luz visible, al menos en dos dimensiones. Hacer esto requerirá insertar minúsculos nanoimplantes ya no en una formación regular, sino en pautas sofisticadas, de modo que la luz se curve suavemente alrededor de un objeto.

Curvatura de la luz sobre un objeto.

A continuación, los científicos tendrán que crear metamateriales que puedan curvar la luz en tres dimensiones, no solo en las superficies bidimensionales planas. La fotolitografía ha sido perfeccionada para hacer tabletas de silicio planas, pero crear metamateriales tridimensionales requerirá apilar tabletas de una forma complicada.

Después de eso, los científicos tendrán que resolver el problema de crear metamateriales que puedan curvar no solo una frecuencia, sino muchas. Esta será quizá la tarea más difícil, puesto que los minúsculos implantes que se han ideado hasta ahora solo curvan luz de una frecuencia precisa. Los científicos tal vez tendrán que crear metamateriales basados en capas, y cada capa curvará una frecuencia específica. La solución a este problema no está clara. En cualquier caso, una vez que se obtenga finalmente un escudo de invisibilidad, será probablemente un aparato complicado. El manto de Harry Potter estaba hecho de tela delgada y flexible, y volvía invisible a cualquiera que se metiese dentro.

Pero para que esto sea posible, el índice de refracción dentro de la tela tendría que estar cambiando constantemente de forma complicada mientras la tela se agitara, lo que no resulta práctico.

Lo más probable es que un verdadero «manto» de invisibilidad tenga que estar hecho de un cilindro sólido de metamateriales, al menos inicialmente. De esa manera, el índice de refracción podría fijarse dentro del cilindro. (Versiones más avanzadas podrían incorporar con el tiempo metamateriales que sean flexibles y puedan retorcerse, y aun así hacer que la luz fluya en la trayectoria correcta dentro de los metamateriales. De esta manera, cualquiera que estuviera en el interior del manto tendría cierta flexibilidad de movimientos).

Algunos han señalado un defecto en el escudo de invisibilidad: cualquiera que estuviese dentro no sería capaz de mirar hacia fuera sin hacerse visible.

Imaginemos a un Harry Potter totalmente invisible excepto por sus ojos, que parecerían estar flotando en el aire. Cualquier agujero para los ojos en el manto de invisibilidad sería claramente visible desde el exterior. Si Harry Potter fuera invisible se encontraría ciego bajo su manto de invisibilidad. (Una posible solución a este problema sería insertar dos minúsculas placas de vidrio cerca de la posición de los agujeros para los ojos. Estas placas de vidrio actuarían como «divisores de haz», que dividen una minúscula porción de la luz que incide en las placas y luego envía a luz a los ojos. De este modo, la mayor parte de la luz que incidiera en el manto fluiría a su alrededor, haciendo a la persona invisible, pero una minúscula cantidad de luz sería desviada hacia los ojos).

Por terribles que sean estas dificultadas, científicos e ingenieros son optimistas en que algún tipo de manto de invisibilidad pueda construirse en las próximas décadas.

Invisibilidad y nanotecnología

Como he mencionado antes, la clave para la invisibilidad puede estar en la nanotecnología, es decir, la capacidad de manipular estructuras de tamaño atómico de una mil millonésima de metro.

El nacimiento de la nanotecnología data de una famosa conferencia de 1959 impartida por el premio Nobel Richard Feynman ante la Sociedad Americana de Física, con el irónico título «Hay mucho sitio al fondo». En dicha conferencia especulaba sobre lo que podrían parecer las máquinas más pequeñas compatibles con las leyes de la física conocidas. Feynman era consciente de que podían construirse máquinas cada vez más pequeñas hasta llegar a distancias atómicas, y entonces podrían utilizarse los átomos para crear otras máquinas.

Richard Feynman.

Máquinas atómicas, tales como poleas, palancas y ruedas, estaban dentro de las leyes de la física, concluía él, aunque serían extraordinariamente difíciles de hacer.

La nanotecnología languideció durante años porque manipular átomos individuales estaba más allá de la tecnología de la época. Pero en 1981 los físicos hicieron un gran avance con la invención del microscopio de efecto túnel, que les valió el premio Nobel de Física a los científicos Gerd Binning y Heinrich Rohrer que trabajaban en el Laboratorio IBM en Zurich.

De repente, los físicos podían obtener sorprendentes «imágenes» de átomos individuales dispuestos como se presentan en los libros de química, algo que los críticos de la teoría atómica consideraban imposible en otro tiempo. Ahora era posible obtener magníficas fotografías de átomos alineados en un cristal o un metal. Las fórmulas químicas utilizadas por los científicos, con una serie compleja de átomos empaquetados en una molécula, podían verse a simple vista. Además, el microscopio de efecto túnel hizo posible la manipulación de átomos individuales.

Logo de la empresa IBM escrito con átomos.

De hecho, se escribieron las letras «IBM» tomando átomos de uno en uno, lo que causó sensación en el mundo científico. Los científicos ya no iban a ciegas cuando manipulaban átomos individuales, sino que realmente podían verlos y jugar con ellos.

El microscopio de efecto túnel es engañosamente simple. Como una aguja de fonógrafo que explora un disco, una sonda aguda pasa lentamente sobre el material a analizar. (La punta es tan aguda que consiste en un solo átomo). Una pequeña carga eléctrica se coloca en la sonda, y una corriente fluye desde la sonda, a través del material, hasta la superficie que hay debajo.

Secuencia de movimientos para el diseño del Logo.

La sonda es también suficientemente sensible para mover átomos individuales y crear «máquinas » sencillas a partir de átomos individuales. La tecnología está ahora tan avanzada que puede mostrarse un racimo de átomos en una pantalla de ordenador, y entonces, moviendo simplemente el cursor del ordenador, los átomos pueden moverse en la dirección que uno quiera. Se pueden manipular montones de átomos a voluntad, como si se estuviera jugando con bloques Lego.

Además de formar las letras del alfabeto utilizando átomos individuales, se pueden crear asimismo juguetes atómicos, tales como un ábaco hecho de átomos individuales.

Los átomos están dispuestos en una superficie con ranuras verticales. Dentro de estas ranuras verticales se pueden insertar buckybolas de carbono (que tienen la forma de un balón de fútbol, pero están hechas de átomos de carbono individuales). Estas bolas de carbono pueden moverse entonces arriba y abajo en cada ranura, con lo que se tiene un ábaco atómico. También es posible grabar dispositivos atómicos utilizando haces de electrones. Por ejemplo, científicos de la Universidad de Cornell han hecho la guitarra más pequeña del mundo, veinte veces más pequeña que un cabello humano, grabada en silicio cristalino. Tiene seis cuerdas, cada una de 100 átomos de grosor, y las cuerdas pueden ser pulsadas utilizando un microscopio de fuerzas atómicas. (Esta guitarra producirá música realmente, pero las frecuencias que produce están muy por encima del rango de audición humana).

De momento, la mayoría de estas «máquinas» nanotech son meros juguetes. Aún están por crear máquinas más complicadas con engranajes y cojinetes. Pero muchos ingenieros confían en que no está lejos el tiempo en que seremos capaces de producir verdaderas máquinas atómicas. (Las máquinas atómicas se encuentran realmente en la naturaleza. Las células pueden nadar libremente en el agua porque pueden agitar pelos minúsculos. Pero cuando se analiza la juntura entre el pelo y la célula se ve que es realmente una máquina atómica que permite que el pelo se mueva en todas direcciones. Así, una clave para desarrollar la nanotecnología es copiar a la naturaleza, que dominó el arte de las máquinas atómicas hace miles de millones de años).

Hologramas e Invisibilidad

Otra manera de hacer a una persona parcialmente invisible es fotografiar el escenario que hay detrás de ella y luego proyectar directamente esa imagen de fondo en la ropa de la persona o en una pantalla que lleve delante. Vista de frente parece que la persona se haya hecho transparente, que la luz haya atravesado de alguna manera su cuerpo.

«Se utilizaría para ayudar a los pilotos a ver a través del suelo de la cabina en una pista de aterrizaje, o a los conductores que tratan de ver a través de una valla para aparcar un automóvil». Una videocámara fotografía lo que hay detrás del manto. Luego esta imagen se introduce en un proyector de vídeo que ilumina la parte frontal del manto, de modo que parece que la luz ha pasado a través de la persona.

Prototipos del manto de camuflaje óptico existen realmente en el laboratorio. Si miramos directamente a una persona que lleve este manto tipo pantalla, parece que haya desaparecido, porque todo lo que vemos es una imagen de lo que hay tras la persona. Pero si movemos un poco los ojos, la imagen en el manto no cambia, lo que nos dice que es un fraude. Un camuflaje óptico más realista necesitaría crear la ilusión de una imagen 3D.

Esquema de un holograma.

Para ello se necesitarían hologramas. Un holograma es una imagen 3D creada mediante láseres (como la imagen 3D de la princesa Leia en La guerra de las galaxias). Una persona podría hacerse invisible si el escenario de fondo fuera fotografiado con una cámara holográfica especial y la imagen holográfica fuera luego proyectada a través de una pantalla holográfica especial colocada delante de la persona.

Alguien que estuviera enfrente de la persona vería la pantalla holográfica, que contiene la imagen 3D del escenario de fondo, menos la persona. Parecería que la persona había desaparecido. En lugar de dicha persona habría una imagen 3D precisa del escenario de fondo. Incluso si se movieran los ojos no se podría decir que lo que se estaba viendo era un fraude.

Estas imágenes 3D son posibles porque la luz láser es «coherente», es decir, todas las ondas están vibrando perfectamente al unísono. Los hologramas se generan haciendo que un haz láser coherente se divida en dos partes. La mitad del haz incide en una película fotográfica. La otra mitad ilumina un objeto, rebota en este y luego incide en la misma película fotográfica. Cuando estos dos haces interfieren en la película se crea una figura de interferencia que codifica toda la información que hay en la onda 3D original.

Cuando se revela la película, no dice mucho; es algo parecido a una intrincada figura de tela de araña con remolinos y líneas. Pero cuando se permite que un haz láser incida en esta película, súbitamente aparece como por arte de magia una réplica 3D exacta del objeto original. No obstante, los problemas técnicos que plantea la invisibilidad holográfica son formidables.

Un reto es crear una cámara holográfica que sea capaz de tomar al menos 50 fotogramas por segundo. Otro problema es almacenar y procesar toda la información. Finalmente, habría que proyectar esta imagen en una pantalla de modo que la imagen pareciera realista.

Invisibilidad vía la cuarta dimensión

Deberíamos mencionar también que una manera aún más sofisticada de hacerse invisible era mencionada por H. G. Wells en El hombre invisible, e implicaba utilizar el poder de la cuarta dimensión.

¿Sería posible salir de nuestro universo tridimensional y cernirnos sobre él, desde el punto de vista de una cuarta dimensión?

Como una mariposa tridimensional que se cierne sobre una hoja de papel bidimensional, seríamos invisibles a cualquiera que viviera en el universo por debajo de nosotros.

Un problema con esta idea es que todavía no se ha demostrado que existan dimensiones más altas. Además, un viaje hipotético a una dimensión más alta requeriría energías mucho más allá de cualquiera alcanzable con  nuestra tecnología actual. Como forma viable de crear invisibilidad, este método está claramente más allá de nuestro conocimiento y nuestra capacidad actuales.

Hasta la vista…. Si acaso me vuelven a ver… 

Las tecnologías actuales han logrado grandes avances pero aun no son lo suficientemente avanzadas como para crear una forma de invisibilidad carente de fallas. En las próximas décadas, o al menos dentro de este siglo, una forma de invisibilidad puede llegar a ser realidad. Dentro de un tiempo ya existirán las mantas de la invisibilidad como la que utiliza Harry Potter, aunque yo sigo prefiriendo el Anillo Único. 

Esta entrada participa en la XXXIX Edición del Carnaval de la Física, que esta siendo organizado en esta ocasión por el blog El zombi de Schrödinger. ]

Referencias |

 

La Teletransportación: ¿Realidad o ficción?

¿Quien no ha llegado tarde alguna vez a una cita importante?, puedo asegurar que usted amable lector al igual que yo hemos asistido tarde al colegio, la universidad, el trabajo, etc., etc., etc., y muchos etcéteras mas, el ritmo de vida que todos llevamos en esta sociedad nos ha obligado a “movernos rápido”, todos tenemos muchas cosas que hacer durante el día (que cada vez nos parece mas corto) y para poder cumplir con todo lo que debemos, siempre nos encontramos viajando de un lugar a otro lo mas rápido posible, para ello recurrimos a varios medios de transporte como lo son: las bicicletas, automóviles, motocicletas, autobuses, trenes, barcos y aviones.

Pero la mente humana se ha encargado de abrir nuevas vías,  que sean mucho mas rápidas y de ser posibles instantáneas para que de esa manera tengamos un poco mas de tiempo para cumplir con nuestro trajín diario. Y es en ese instante que aparece en escena la Teletransportación. 

¿Pero qué tal si pudiésemos reemplazar ese “movernos rápido” por un “movernos instantáneamente”?

ORIGEN DEL TERMINO 

Literalmente Teletransportación quiere decir: “desplazar a distancia”. Lo cual nosotros entendemos como un desplazamiento que se produce sin necesidad de establecer contacto físico directamente con el objeto para que este se mueva. 

El termino “Teletransportación”, fue acuñado en el año 1930 por un reconocido investigador y escritor de la época, un tal Charles Fort de origen estadounidense, quien se dedicaba al estudio de los hechos que la ciencia de la época no podía solucionar.

Fort utilizo esa palabra para describir una supuesta conexión entre unas misteriosas desapariciones y apariciones que sucedían en varias partes del mundo. 

TELETRANSPORTACIÓN Y CIENCIA FICCIÓN

Si se descubriera la forma de transportar al instante a una persona o un objeto de un lugar a otro, seria sin lugar a duda una tecnología que cambiara el curso de toda nuestra civilización. Aunque todos los medios de transporte (las industrias que sirven y en las que se basan dichos sistemas) que actualmente son utilizados serian completamente obsoletos.

Imagínese un día normal, la alarma de su smartphone no funciono, se despierta tarde, se levanta y se viste lo mas rápido que puede, apenas si se acomoda el cabello (si es que lo tiene), engulle a toda prisa una rebana de pan tostado y bebe un sorbo de su taza de café, pero espere… usted no tiene que conducir al trabajo, simplemente se sienta en su sillón y presiona un botón e instantáneamente se encontrara sentado en la silla de su oficina, frente al ordenador listo para empezar a trabajar. 

Seria algo increíble y muy cómodo que la vida real fuese de esa manera, pero es una pena que simplemente sea parte de una renombrada cinta del genero favorito de los Frikis (me incluyo)… La gloriosa Ciencia Ficción.

Quizas la idea de teletransportación mas temprana que incursionó en la ciencia ficción es el cuento “The man without a body” que traducido es: “El hombre sin un cuerpo”  escrito por David P. Mitchell que relata la historia de un científico que logra descubrir un metro para desarmar los átomos de su gato y transmitirlos por uno de sus cables de telégrafo  pero debido a su mala suerte, cuando intenta hacerlo con su cuerpo, la batería de su telégrafo se agota cuando solo había transmitido su cabeza, falleciendo en el intento.

Pero la sociedad en general no adopto la idea de la teletransportación hasta que la famosa serie de 1966,  Star Trek y sus películas fueron lanzadas al aire.

Y es en esa serie que se introdujo la figura de un dispositivo que hacia posible la teletransportación llamado “transportador”, teóricamente consiste en una técnica de escaneo que permite determinar la posición de las partículas del objeto, desmantelarlo y enviarla a través de un rayo a un puno definido donde se ensamblaran nuevamente.

Si nos ponemos a pensar en detalle todo lo que eso implica, llegamos a la conclusión de que el cuerpo de una persona esta compuesto por billones de billones de átomos. Y por cada uno de ellos, se debe de reproducir con absoluta exactitud su posición, el espín de cada electrón, cada una de las estructuras moleculares y ademas las formas en que todo esto interacciona entre si, como se esta moviendo, como están vibrando, todas las velocidades exactas y muchas cosas mas. 

Aunque un dato curioso es que en la serie de “Star Trek” se utilizo el concepto de la teletransportación  porque no se contaba con el presupuesto necesario como para recrear los despegues y aterrizajes de las naves en los planetas. 

Y mas recientemente, en la serie televisiva que ha causado una revolución en concepto de ciencia y comedia, “The Big Bang Theory”, en uno de sus episodios el físico teórico Sheldon Cooper define lo que es la teletransportación:

Aunque una máquina teletransportadora pudiera determinar el estado cuántico de la materia de un individuo, en realidad no estaría teletransportándolo, sino destruyéndolo en una ubicación para luego recrearlo en otra.

TELETRANSPORTACIÓN Y CIENCIA REAL

Aunque todo eso parezca una tarea prácticamente imposible de llevarse a cabo, desde el punto de vista científico, “no existiría ninguna limitación física natural por la cual no pudiese realizarse”.

Después de todo, si podemos efectuar dicho procedimiento con un único átomo (y más adelante veremos que puede hacerse y se ha hecho) no debería haber una limitante natural que nos impida hacerlo con un objeto macroscópico, como un ser humano. Lo que si existen, por lo menos en la actualidad, son limitaciones tecnológicas que nos impiden poner todo esto en práctica.

La principal limitación tecnológica que tenemos actualmente esta relacionada directamente con la capacidad de almacenamiento de información. Imaginemos que al convertir todos los átomos de nuestro cuerpo en energía  deberíamos de almacenar toda la información relativa a cada uno de estos, para poder recuperarse nuevamente en el lugar de destino. El problema directo es que el teletransporte de una sola persona generaría miles de millones de millones de terabytes de información. 

Para poder hacernos una idea mas exacta, si lográramos almacenar toda la información de una sola persona en varios discos de 1 Terabyte cada uno, necesitaríamos unos 500 millones de edificios del tamaño del Empire State para poder guardarlos.

Y como todo esto es ciencia pero sobretodo física, no podíamos dejar fuera de la fiesta al  físico mas famoso de todos los tiempos, si señores y señoras, me refiero a Don Albert Einstein…

Y a todo esto, ¿porque Einstein ?… Pues porque también podría existir una problemática tecnológica relacionada con la conversión de materia a energía. Como bien sabemos, y según fue expresado por la famosísima ecuación de Einstein “E=MC²”, la materia y la energía son la misma cosa, e incluso pueden transformarse y convertirse la una en la otra. Aunque parezca increíble, algo tan inofensivo como una galleta, podría contener tanta energía como una bomba atómica. La clave es cuán rápidamente dicha energía es liberada, lo cual en física se conoce como potencia, equivalente a energía por unidad de tiempo. Entonces, la conversión de la masa de un ser humano promedio a energía daría como resultado 40 veces la energía liberada en la más grande de las explosiones atómicas. Sin el medio tecnológico apropiado para controlar esta situación, el teletransporte podría resultar catastrófico.

Pero aparte de los problemas tecnológicos que de por si no son pocos, se le han de sumar unos no menos importantes, los problemas éticos o filosóficos.

Estos problemas filosóficos se resumen en una sola pregunta:

¿Qué es lo que se obtiene del otro lado al llevar a cabo el proceso de teletransporte?

¿Es la misma persona, o solamente una réplica cuántica perfecta? ¿Se está desarmando a la persona y armándola en otro lado; o acaso se la está desarmando, almacenando la información y luego creándola de cero nuevamente usando dicha información? ¿El teletransporte estaría matando al individuo y luego creando una copia exacta del mismo; o de alguna forma lo preserva y luego lo transporta a otro lado? Mientras se mantengan sin contestar, todas estas preguntas plantearían profundas cuestiones éticas y filosóficas muy relevantes.

LA MECÁNICA CUÁNTICA

Seguramente todos nosotros hemos oído hablar o hemos leído acerca de la  mecánica cuántica. Esta rama de la física, que representa un gigantesco avance con respecto a la física clásica newtoniana, plantea muchas situaciones sumamente exóticas y en extremo extrañas, algunas de las cuales incluso se contradicen radicalmente con nuestra lógica y sentido común. 

Uno de los principios fundamentales de la mecánica cuántica es lo que se conoce como la dualidad onda-partícula, la cual desbarató completamente nuestra forma previa de observar el mundo atómico. Previo al desarrollo de la mecánica cuántica, los físicos solían considerar al átomo como una unidad compuesta por un núcleo (que estaba formado por protones y neutrones) y una serie de electrones girando en torno a dicho núcleo en órbitas establecidas. Con el desarrollo de la mecánica cuántica, los físicos descubrieron que dichas “órbitas establecidas” no existían; en cambio, los electrones actuaban como ondas y hacían saltos cuánticos en sus movimientos aparentemente caóticos dentro de los átomos.

Otra de las exóticas propiedades de la mecánica cuántica es lo que se ha dado en conocer como el principio de incertidumbre de Heisenberg. Según este principio, no se puede conocer a la vez la velocidad y la posición exacta de un electrón, ni se puede conocer su energía exacta medida en un intervalo de tiempo dado. Sumado a la dualidad onda-partícula, este nos impide conocer la posición exacta de los electrones que orbitan al núcleo; solo podemos encontrar diferentes intensidades de onda y hablar de la probabilidad de encontrar un electrón concreto en cualquier lugar y cualquier instante de la misma.

Si tomamos en consideración la dualidad onda-partícula y el principio de incertidumbre, la mecánica cuántica nos dice entonces que en el nivel cuántico se violan todas las leyes básicas de sentido común: los electrones pueden desaparecer y reaparecer en otro lugar diferente, y también pueden estar en muchos lugares al mismo tiempo. De esta forma, los electrones podrían experimentar a nivel cuántico algo muy similar al proceso de teletransporte.

Mientras que para los electrones resulta sumamente sencillo, incluso natural, desaparecer en un lado y reaparecer en otro, trasladado a escalas macroscópicas la posibilidad de que esto mismo suceda es increíblemente remota. Aunque dicha posibilidad existe y está permitida por las leyes físicas, habría que esperar un tiempo muchísimo mayor que la edad del Universo para que ocurriera. Además, en un cuerpo humano formado por billones y billones de átomos, incluso si los electrones están danzando y saltando en su viaje alrededor del núcleo, hay tantos de ellos que sus movimientos se promedian. De hecho, a grandes rasgos, esta es la razón por la cual en nuestro nivel las sustancias parecen sólidas y permanentes.

Si bien todos estos fenómenos son sumamente interesantes y nos permiten pensar que las leyes naturales del Universo no prohíben el teletransporte, lejos se encuentran de las formas de teletransporte que nos serían útiles. Pero no nos desilusionemos y busquemos que otras opciones podemos tomar en cuenta…

EL ENTRELAZAMIENTO CUÁNTICO

Traten de imaginarse un fenómeno tan exótico y raro, que inclusive el propio Einstein tuvo que recurrir a la palabra “fantasmal” para describir a grandes rasgos su funcionamiento. El fenómeno al que me refiero se conoce como entrelazamiento cuántico, y es una de las propiedades más extrañas de la mecánica cuántica. Tan extraña es que solamente algunos pocos “elegidos” consiguen comprender realmente las muy complejas y extensas matemáticas detrás de dicha propiedad.

Explicado de forma sencilla, el entrelazamiento cuántico funciona así:  En primer lugar se deben tomar dos electrones (o cualquier partícula subatómica que les guste) en estado de coherencia, es decir, que cuenten con las mismas propiedades y vibren al unísono. Luego, aunque dichos electrones sean separados por inmensas distancias, incluso distancias tan grandes que la luz no consiga viajar de un electrón al otro, estos permanecerán en sincronización ondulatoria, y cualquier modificación que se realice sobre las propiedades de uno de los electrones, se reflejará instantáneamente en el otro electrón remoto.

Inclusive si las partículas se encuentran separadas por años luz de distancia, seguirá existiendo una onda invisible que las conecta, como si hubiese algún tipo de conexión profunda que las vincula, como si tuviesen conciencia o un alma propia. El mismo Einstein solía denominar a este fenómeno, de forma burlona, como una “fantasmal acción a distancia”.

En la década de 1980, un equipo científico de Francia probó experimentalmente este fenómeno utilizando dos detectores separados por 13 metros de distancia y midiendo los espines de fotones emitidos por átomos de calcio. Increíblemente, los resultados concordaron por completo con la teoría cuántica: aún estando separados, cuando se modificaban las propiedades de uno de los fotones, dicha modificación se reflejaba instantáneamente en el otro fotón, como si algo desconocido los mantuviese unidos y comunicase esa información entre ellos.

En el año 1993, científicos de IBM demostraron que era físicamente posible teletransportar objetos, al menos a nivel atómico, usando el entrelazamiento cuántico. En realidad lo que se transporta no es el objeto en sí, sino toda la información contenida dentro del mismo. Desde entonces los físicos han conseguido teletransportar fotones e incluso átomos enteros utilizando las propiedades del entrelazamiento cuántico, en lo que se ha dado a conocer como “teletransporte cuántico”.

Con la utilización de este método se han logrado increíbles avances recientes en relación con el teletransporte. En el año 2004 físicos de la Universidad de Viena teletransportaron partículas de luz a una distancia de 600 metros. En el mismo año, se consiguió el teletransporte cuántico no de fotones de luz, sino de átomos reales (puntualmente tres átomos de berilio), lo cual nos acerca a un dispositivo de teletransporte más realista y útil. En el año 2006 se logró otro avance espectacular: el primer teletransporte de un objeto macroscópico. Un equipo de físicos consiguió entrelazar un haz luminoso con un gas de átomos de cesio, el cual involucraba billones y billones de átomos. Luego codificaron la información contenida dentro de pulsos de láser y fueron capaces de teletransportar esa información a los átomos de cesio a una distancia de casi medio metro.

En el año 2012, investigadores europeos batieron el récord hasta entonces vigente pues lograron teletransportar fotones a una distancia de 143 kilómetros. Así que podemos decir que cada vez estamos mas cerca…

TELETRANSPORTE Y EL CONDENSADO DE BOSE-EINSTEIN

Debido a que lograr un estado de entrelazamiento cuántico entre objetos plantea inmensas dificultades, los físicos comenzaron a explorar otras posibilidades para el teletransporte de objetos sin la necesidad de recurrir al entrelazamiento. En el año 2007, finalmente se consiguió desarrollar un nuevo esquema de teletransporte, basado en un nuevo estado de la materia denominado “condensado de Bose-Einstein” (o BEC).

En la naturaleza se puede encontrar la temperatura más fría en el espacio exterior, la cual corresponde a 3°K por encima del cero absoluto (esto se debe al calor residual del Big Bang que aún llena el Universo). En cambio,un BEC se encuentra a una millonésima de mil millonésima de grado sobre el cero absoluto, lo más que podemos acercarnos a este último. Cuando un objeto se enfría hasta alcanzar casi el cero absoluto, todos sus átomos se ponen en el estado de energía más baja, de modo que comienzan a vibrar al unísono y se hacen coherentes entre sí.

El nuevo dispositivo de teletransporte funcionaría entonces de la siguiente manera. Se toma un conjunto de átomos de rubidio super-fríos en un estado BEC. Entonces se aplica al BEC un haz de materia, también compuesto por átomos de rubidio. Estos últimos átomos también“quieren ponerse” en el estado de energía más baja, así que ceden su exceso de energía en forma de un pulso de luz. Este haz de luz, que contiene toda la información cuántica de la materia original, se envía a través de un cable de fibra óptica. Por último, el haz de luz incide sobre otro BEC, que transforma el haz de luz en el haz de materia original.

Este nuevo método de teletransporte es sumamente prometedor, puesto que se evita el muy complicado entrelazamiento de átomos. De cualquier modo, las cosas no son tan sencillas como parecerían: este método también tiene sus problemáticas, principalmente por depender de las propiedades de los BEC, que son muy difíciles de recrear en el laboratorio.

QUE PODEMOS ESPERAR

Como nos hemos dado cuenta, la teletransportación esta un poco lejos de hacerse realidad debido a que aun tenemos problemas técnicos muy difíciles de superar, pero al paso en el que la tecnología esta evolucionando si podemos asegurar que llegara el día en el que teletransportarse sea tan común y ordinario como leer la ultima notificación de nuestra red social favorita. Quizas solo necesitemos de unos cuantos siglos o quizás de un tiempo mucho mayor.

Falta aun mucho por descubrir, mucho por hacer y demasiado por discutir.

Sabemos que actualmente se requieren los laboratorios y el instrumental más avanzado del mundo para teletransportar tan solo algunos átomos. Los físicos confían que en las próximas décadas se pueda realizar el teletransporte de objetos más complejos, como moléculas o incluso algún virus. Pero nosotros no viviríamos lo suficiente como para llegar a verlo, aunque alguno de nuestros descendientes podría estar disfrutando de esa invención dentro de un buen tiempo.

Aun siendo así  cuando llegue el momento seguro ese avance científico sera una de las mas significativas revoluciones experimentadas por la humanidad y la sociedad. 

Esta entrada participa en la XXXIX Edición del Carnaval de la Física, que esta siendo organizado en esta ocasión por el blog El zombi de Schrödinger. ]

Referencias |

El Universo y sus feroces Monstruos

El titulo de esta entrada créanme que no ha sido exagerado de ninguna manera. Para muchos el basto Universo es tranquilo, y en realidad parece ser gobernado por verdadera paz que impera en todas direcciones veamos a donde veamos. Pero esa idea errónea que casi todos tenemos es causada en parte debido a que no podemos ver la mayoría de las bestias que salpican nuestro cosmos.

El Universo en realidad es un lugar que definido en pocas palabras seria algo como: caos, desorden, fuerza, peligro y muchos otros sinónimos. 

El Universo se genero con una violenta explosión y desde su inicio se siguen produciendo toda clase de procesos violentos en él.

Existen muchos feroces monstruos que se estremecen en puntos lejanos del Universo y hay varios que están bastante cerca como para no ignorarlos.  La mayoría de ellos son enormes y para poder medirlos los astrofísicos los comparan con la masa de nuestro Sol, equivalente a unas 332.950 veces la masa de la Tierra, su valor es:

Dentro de todos esos gigantes violentos, mencionare a quienes mas destacan, tanto por su voracidad como por su increíble energía. Los principales son:

  • Las Supernovas
  • Los Agujeros Negros Supermasivos
  • Los Quasares 
  • Y los Magnetares.

Todos ellos empiezan su historia con la muerte de una estrella cuyo destino final dependerá de la masa que posea. Imaginemos una estrella como nuestro Sol, cuando este “muera” se transformara en una enana blanca, un remanente un tanto inerte de lo que era cuando aun no no había agotado su combustible nuclear.

Si el Sol fuera ocho veces mas masivo entonces al morir todo indicaría que se convertirá en una estrella de neutrones, la cual surge luego de una explosión de determinados tipos de supernova.

Si el Sol fuera unas treinta veces mas masivo, el resultado final seria un hambriento agujero negro.

Cuando algunos de estos monstruos interactúan con otras estrellas u objetos de su mismo tipo se originan algunos eventos cósmicos extraordinariamente energéticos  tan fantásticos que su detección es celebrada por los astrónomos de todo el mundo.

Observatorio Swift

Debido a ello, el Universo conocido esta siendo vigilado continuamente para que no nos perdamos de tan espectaculares acontecimientos, los astrofísicos investigan el Cosmos con los ojos electrónicos de los observatorios espaciales, como el Fermo, el Swift, el Hubble, el CXO, y varios mas de la NASA que buscan el rastro de algunos monstruos cósmicos en las emanaciones de rayos Gammaráfagas colosales de energía que surgen tras una explosión de supernova muy potente, o tras la colisión de objetos masivos y compactos, como las estrellas de neutrones o los agujeros negros.

Las Supernovas

Una supernova es una enorme explosión estelar que se manifiesta de forma increíble  algunas veces se puede notar a simple vista en algún lugar de la esfera celeste en donde anteriormente no se tenia constancia de existiese algo en particular. Debido a ello se les denomino supernovas (estrellas nuevas).

Una supernova puede llegar a producir destellos de luz muy intensos que pueden prolongarse durante semanas e inclusive varios meses. Su característica principal es que aumentan su intensidad luminosa hasta que superan la del resto de la galaxia y llegan a una magnitud absoluta.

Su origen aun se debate, pueden ser estrellas muy masivas que son incapaces de sostenerse por la presión de degeneración de los electrones [1], lo que provoca que se contraigan violenta y repentinamente generando durante el proceso una enorme emisión de energía. Llegando a liberar en repetidas ocasiones  1044 J de energia.

La explosión de una supernova provoca la expulsión de las capas externas de una estrella por medio de poderosas ondas de choque.

Un caso muy conocido ocurrió a primeras horas de la mañana del 19 de marzo del 2008, un punto muy luminoso se hizo visible en la constelación de Boyero, no se trataba de una estrella nueva, era una explosión de rayos gamma de 2.5 millones de veces mas luminosa que la mas brillante de las supernovas, ocurrida en una época tan remota que el Universo ni siquiera había alcanzado la mitad de su edad actual. Ese fenómeno impresionante duro unos 15 segundos y aunque provoco mucho entusiasmo en la comunidad astronómica de todo el mundo, quedo en segundo plano, porque en la mañana del 23 de abril, los instrumentos abordo del telescopio espacial Swift de la NASA captaron una explosión cataclísmica en la constelación de Leo.

Ese evento que apenas duro unos 10 segundos, constituye la mayor fuente de radiaciones gamma jamas descubierta hasta la fecha, esa estrella seguramente se convirtió en un agujero negro. Ese suceso ocurrió a mas de 13.000 millones de años luz, y tuvo lugar apenas unos 630 millones de años después del Big Bag, y es el acontecimiento astrofísico mas antiguo jamas detectado hasta ahora.

El objeto mas lejano, el GRB 090423 (dentro del circulo) ocurrió unos 630 millones de años después del Big Bang .

A esa distancia, la mayoría de las explosiones de supernovas son indetectables. Sólo un 1% de ellas lo hace de tal forma que la materia es expulsada a mas de 99.99% de la velocidad de la luz. Se trata de un suceso increíblemente energético (las explosiones de rayos gamma generan mas energía en unos segundos que nuestra estrella en toda su vida), que confirma que en las primeras etapas del Universo ya se producía el nacimiento y colapso de estrellas masivas.

 

Agujero Negro Supermasivo 

Lo que llamamos un agujero negro Supermasivo es un agujero negro con una masa del orden de millones o inclusive miles de millones de masas solares.

Se cree que muchas, si no es que todas las galaxias tienen un agujero negro supermasivo en su centro. Inclusive una de las teorías mas extendidas en los últimos tiempos es que todas las galaxias elípticas y espirales tienen un agujero negro supermasivo en su centro, lo cual conseguiría generar suficiente gravedad como para mantener la unidad.

Imagen del desarrollo de Sagitario A*

El ejemplo mas claro es el que tenemos mas próximo, en el centro de nuestra galaxia se encuentra Sagitario A*, cuya existencia se ha confirmado de forma definitiva en el centro de la Vía Láctea. Para detectarlo los astrónomos utilizaron ondas de rayos infrarrojos que evitaban el polvo estelar que bloquea la vista de esa zona central. Durante años, fueron tomando puntos de referencia de la órbita de las 28 estrellas, que se mueven más rápido por estar cerca del agujero negro. «Han podido estudiar la órbita completa de una de ellas que tarda 16 años en recorrerla y de ese modo pueden definir la materia que siente cada estrella, que es la que tiene el agujero negro.

En algunas regiones del espacio, la fuerza de gravedad es tan formidable que ni la luz puede escapar. Eso es, en esencia un agujero negro, pero los agujeros negros supermasivos son auténticos monstruos cósmicos con un diámetro tan grande como la del Sistema Solar.

Los agujeros negros de este tamaño pueden formarse solo de dos formas: por un lento crecimiento de materia (que requiere un periodo muy largo de tiempo y enormes cantidades de materia ), o directamente por presión externa en los primeros instantes del Big Bang.

El agujero negro supermasivo mas grande de todos podría ser un agujero negro que esta situado en la galaxia NGC mil 227, ubicada a 220 millones de años luz de distancia de la Tierra en la constelación de Perseo.

Se especula que agujeros negros supermasivos en el centro de muchas galaxias, actuarían como los “motores” de las mismas, provocando sus movimientos giratorios, tales como galaxias Seyfert [2] y quasares.

Los Quasares

Un quasar es técnicamente una galaxia hiperactiva, los quasares son las mas brillantes y letales del espacio. En el corazón de esas galaxias habita un monstruo galáctico, los quasares son alimentados por un agujero negro supermasivo que absorbe continuamente enormes cantidades de materia y estrellas cada año. Los quasares con los objetos energéticos mas efectivos del universo, emiten mas energía que 100 galaxias normales. 

Los quares visibles muestran un desplazamiento al rojo muy alto. El consenso científico dice que esto es un efecto de la expansión métrica del universo entre los quasares y la Tierra. Combinando esto con la Ley de Hubble se sabe que los quasares están muy distantes. Para ser observables a esas distancias, la energía de emisión de los quasares hace empequeñecer a casi todos los fenómenos astrofísicos conocidos en el universo, exceptuando comparativamente a eventos de duración breve como supernovas y brotes de rayos gamma. Los quasares pueden fácilmente liberar energía a niveles iguales que la combinación de cientos de galaxias medianas. La luz producida sería equivalente a la de un billón de soles.

Todos los quasares se sitúan a grandes distancias de la Tierra, el más cercano a 780 millones de años luz y el más lejano a 13.000 millones de años luz,

Los Magnetares o Imanes de los Dioses

Un magnetar o magnetoestrella es una estrella de neutrones alimentada con un campo magnético extremadamente fuerte. Estas estrellas desprenden emisiones de alta energía de rayos X y rayos gamma.  Se estima que este tipo de cuerpos celestes se originan de estrellas que poseen entre 30 a 40 veces la masa de nuestro Sol. 

La vida activa de un magnetar es corta, sus potentes campos magnéticos se desmoronan pasados los 10.000 años, perdiendo consecuentemente su vigorosa emisión de rayos X.

Un magnetar que cuente con un radio de tan sólo 10 kilómetros contiene la misma masa que nuestro Sol.

El 27 de diciembre de 2004, se registró un estallido de rayos gamma proveniente del magnetar denominado SGR 1806-20 situado en la Vía Láctea. El origen estaba situado a unos 50.000 años luz. En la opinión de eminentes astrónomos, si se hubiera producido a tan solo 10 años luz de la Tierra, −distancia que nos separa de alguna de las estrellas más cercanas−, hubiera peligrado seriamente la vida en nuestro planeta al destruir la capa de ozono, alterando el clima global y destruyendo la atmósfera. Esta explosión resultó ser unas cien veces más potente que cualquier otro estallido registrado hasta esa fecha. La energía liberada en dos centésimas de segundo fue superior a la producida por el Sol en 250.000 años.

Mas recientemente en agosto de 2005, el satélite Swift de la NASA capto un resplandor super brillante en una remota región del universo que tardo 250 segundos. Esa explosión produjo la misma energía que generaría nuestro Sol durante 10.000 millones de años. Ese fenómeno correspondía con un inusual estallido de rayos gamma y encajaba, con la actividad de un Magnetar.

Y en junio de 2010, la Agencia Espacial Europea anuncio el hallazgo de uno es estos objetos a 15.000 años luz de la tierra. Pese a la distancia, es capaz de aportar a nuestro planeta tanta energía como una erupción Solar.

A continuación se puede ver una pequeña comparación entre distintas intensidades de campos magnéticos:

  • Brújula movida por el campo magnético de la Tierra: 0,6 Gauss
  • Pequeño imán, como los sujetapapeles de los frigoríficos: 100 Gauss
  • Campo generado en la Tierra por los electro imanes más potentes:4,5×105 Gauss
  • Campo máximo atribuido a una de las denominadas estrellas blancas: 10×108 Gauss
  • Magnetares (SGRs y AXPs):  1014 ~ 1015 Gauss

Sin duda alguna los cuerpos que crean los mayores campos magnéticos de todo el Universo.  

Si algún astronauta hipotéticamente se desviara de su curso y se acercase a unos 100.000 km de distancia, las consecuencias serian terroríficas, el campo magnético del magnetar podría desordenar los átomos de la carne humana y sus fuerzas gravitatorias destrozarían a una persona.

Un magnetar situado a 10 años luz de nuestro Sistema Solar podría causar un cataclismo cósmico, destruiría nuestra atmósfera y seria el fin de la vida en la Tierra.

Aunque la probabilidad de que se encuentren cerca de nosotros es casi nula, podemos estar tranquilos. Lo bueno de todo esto es que aunque ocurriera cualquier contacto con alguno de estos monstruos muchos de nosotros ya no estaremos aquí para verlo. Al menos eso es lo que dicen los científicos.

¿Cómo sabemos que la Teoría de la Relatividad es correcta?

Seguramente todos hemos escuchado hablar de Albert Einstein, sin duda es uno de los físicos mas importantes de la historia y para muchos el mayor genio de todos los tiempos (en lo personal prefiero a Newton, pero queda a cuestión de gustos). Considero que estoy en lo correcto al afirmar que no existe persona en la tierra que tenga conocimientos básicos de ciencia y que no sepa quien es la persona de la siguiente imagen. 

Albert Einstein es un físico que en su época obtuvo un enorme reconocimiento de la sociedad y tanta fama como las actuales estrellas de cine o  de la música. No había lugar en el que una multitud de personas se acercaran a el para verlo mejor, intercambiar algunas palabras e inclusive obtener alguna fotografía del físico.

Pero no vamos a hablar acerca de su fama, vamos a hablar acerca de su obra, mas especificamente de su Teoría de la Relatividad, muchas personas han escuchado de esta revolucionaria obra, la idea general es fácil de comprender, pero adentrarse en sus variaciones y todo lo que implica dentro de la Física es algo que a muchos confunde con facilidad y a los que estamos familiarizados con ella nos causa ese nudo en la garganta al ver semejantes postulados.

Para muchos una simple obra teórica que no sirve de nada y que aun no ha sido comprobada, para muchos otros significa el futuro por develar junto con la mecánica cuántica.

La teoría de la relatividad, desarrollada fundamentalmente por Albert Einstein, pretendía originalmente explicar ciertas anomalías en el concepto de movimiento relativo, pero en su evolución se ha convertido en una de las teorías más importantes en las ciencias físicas y ha sido la base para que los físicos demostraran la unidad esencial de la materia y la energía, el espacio y el tiempo, y la equivalencia entre las fuerzas de la gravitación y los efectos de la aceleración de un sistema.

La teoría de la relatividad, tal como la desarrolló Einstein, tuvo dos formulaciones diferentes.

  • La primera es la que corresponde a dos trabajos publicados en 1906 en los Annalen der Physik. Es conocida como la Teoría de la relatividad especial y se ocupa de sistemas que se mueven uno respecto del otro con velocidad constante (pudiendo ser igual incluso a cero).
  • La segunda, llamada Teoría de la relatividad general (así se titula la obra de 1916 en que la formuló), se ocupa de sistemas que se mueven a velocidad variable.

La teoría especial de la relatividad no negaba las teorías de Newton o de Galileo, simplemente las corregía. La relatividad sólo se hacía evidente a velocidades cercanas a la velocidad de la luz. A velocidades “normales”, las diferencias en los resultados al utilizar las transformaciones de Galileo y las transformaciones de Lorentz, son tan pequeñas que no se pueden detectar, y es por eso que las implicaciones de la relatividad especial nos parecen tan poco intuitivas. Pero si fuéramos capaces de generar una velocidad suficiente (digamos 3/4 de la velocidad de la luz, por ejemplo), empezaríamos a notar los efectos predichos por la relatividad:  

  • Los relojes en movimiento irían más lentos que los estacionarios (no porqué el reloj funcionara más despacio, sino por el tiempo en sí).  
  • Los objetos en movimiento se contraerían en la dirección del movimiento.  
  • Cuanto más rápido se moviera un objeto, más masa tendría. 

Estos efectos están presentes en nuestra vida diaria, pero son tan increíblemente pequeños que los podemos despreciar perfectamente. Ese es el porque de que las transformaciones de Galileo funcionan tan bien, y las podemos seguir utilizando en nuestros sistemas de referencia que se mueven con velocidades relativamente pequeñas.

 

Teoría de la relatividad especial

Los postulados de la relatividad especial son dos. El primero afirma que todo movimiento es relativo a cualquier otra cosa, y por lo tanto el éter, que se había considerado durante todo el siglo XIX como medio propagador de la luz y como la única cosa absolutamente firme del Universo, con movimiento absoluto y no determinable, quedaba fuera de lugar en la física, que no necesitaba de un concepto semejante (el cual, además, no podía determinarse por ningún experimento).

El segundo postulado afirma que la velocidad de la luz es siempre constante con respecto a cualquier observador. De sus premisas teóricas obtuvo una serie de ecuaciones que tuvieron consecuencias importantes e incluso algunas desconcertantes, como el aumento de la masa con la velocidad. Uno de sus resultados más importantes fue la equivalencia entre masa y energía, según la conocida fórmula E=mc², en la que c es la velocidad de la luz y representa la energía obtenible por un cuerpo de masa cuando toda su masa sea convertida en energía.

Dicha equivalencia entre masa y energía fue demostrada en el laboratorio en el año 1932, y dio lugar a impresionantes aplicaciones concretas en el campo de la física (tanto la fisión nuclear como la fusión termonuclear son procesos en los que una parte de la masa de los átomos se transforma en energía). Los aceleradores de partículas donde se obtiene un incremento de masa son un ejemplo experimental  muy claro de la teoría de la relatividad especial.

La teoría también establece que en un sistema en movimiento con respecto a un observador se verifica una dilatación del tiempo; esto se ilustra claramente con la famosa paradoja de los gemelos:

“imaginemos a dos gemelos de veinte años, y que uno permaneciera en la Tierra y el otro partiera en una astronave, tan veloz como la luz, hacia una meta distante treinta años luz de la Tierra; al volver la astronave, para el gemelo que se quedó en la Tierra habrían pasado sesenta años; en cambio, para el otro sólo unos pocos días”.

Teoría de la relatividad general

La teoría de la relatividad general se refiere al caso de movimientos que se producen con velocidad variable y tiene como postulado fundamental el principio de equivalencia, según el cual los efectos producidos por un campo gravitacional equivalen a los producidos por el movimiento acelerado.

La revolucionaria hipótesis tomada por Einstein fue provocada por el hecho de que la teoría de la relatividad especial, basada en el principio de la constancia de la velocidad de la luz sea cual sea el movimiento del sistema de referencia en el que se mide (tal y como se demostró en el experimento de Michelson y Morley [1]), no concuerda con la teoría de la gravitación newtoniana: si la fuerza con que dos cuerpos se atraen depende de la distancia entre ellos, al moverse uno tendría que cambiar al instante la fuerza sentida por el otro, es decir, la interacción tendría una velocidad de propagación infinita, violando la teoría especial de la relatividad que señala que nada puede superar la velocidad de la luz.

Tras varios intentos fallidos de acomodar la interacción gravitatoria con la relatividad, Einstein sugirió de que la gravedad no es una fuerza como las otras, sino que es una consecuencia de que el espacio-tiempo se encuentra deformado por la presencia de masa (o energía, que es lo mismo). Entonces, cuerpos como la tierra no se mueven en órbitas cerradas porque haya una fuerza llamada gravedad, sino que se mueven en lo más parecido a una línea recta, pero en un espacio-tiempo que se encuentra deformado por la presencia del sol.

Los cálculos de la relatividad general se realizan en un espacio-tiempo de cuatro dimensiones, tres espaciales y una temporal, adoptado ya en la teoría de la relatividad restringida al tener que abandonar el concepto de simultaneidad. Sin embargo, a diferencia del espacio de Minkowsy y debido al campo gravitatorio, este universo no es euclidiano. Así, la distancia que separa dos puntos contiguos del espacio-tiempo en este universo es más complejo que en el espacio de Minkowsky [2].

Con esta teoría se obtienen órbitas planetarias muy similares a las que se obtienen con la mecánica de Newton. Uno de los puntos de discrepancia entre ambas, la anormalmente alargada órbita del planeta Mercurio, que presenta un efecto de rotación del eje mayor de la elipse (aproximadamente un grado cada diez mil años) observado experimentalmente algunos años antes de enunciarse la teoría de la relatividad, y no explicado con las leyes de Newton, sirvió de confirmación experimental de la teoría de Einstein.

Un efecto que corroboró tempranamente la teoría de la relatividad general es la deflexión que sufren los rayos de luz en presencia de campos gravitatorios (conocido como doblamiento de la luz). Los rayos luminosos, al pasar de una región de un campo gravitatorio a otra, deberían sufrir un desplazamiento en su longitud de onda (el Desplazamiento al rojo de Einstein), lo que fue comprobado midiendo el desplazamiento aparente de una estrella, con respecto a un grupo de estrellas tomadas como referencia, cuando los rayos luminosos provenientes de ella rozaban el Sol.

La verificación se llevó a cabo aprovechando un eclipse total de Sol (para evitar el deslumbramiento del observador por los rayos solares, en el momento de ser alcanzados por la estrella); la estrella fue fotografiada dos veces, una en ausencia y otra en presencia del eclipse. Así, midiendo el desplazamiento aparente de la estrella respecto al de las estrellas de referencia, se obtenía el ángulo de desviación que resultó ser muy cercano a lo que Einstein había previsto.

El concepto de tiempo resultó profundamente afectado por la relatividad general. Un sorprendente resultado de esta teoría es que el tiempo debe transcurrir más lentamente cuanto más fuerte sea el campo gravitatorio en el que se mida. Esta predicción también fue confirmada por la experiencia en 1962. De hecho, muchos de los modernos sistemas de navegación por satélite tienen en cuenta este efecto, que de otro modo darían errores en el cálculo de la posición de varios kilómetros.

Otra sorprendente deducción de la teoría de Einstein es el fenómeno de colapso gravitacional que da origen a la creación de los agujeros negros. Dado que el potencial gravitatorio es no lineal, al llegar a ser del orden del cuadrado de la velocidad de la luz puede crecer indefinidamente, apareciendo una singularidad en las soluciones. El estudio de los agujeros negros se ha convertido en pocos años en una de las áreas de estudio de mayor actividad en el campo de la cosmología.

 

Cómo se demostró la Teoría de la Relatividad 

En 1919 un equipo de investigadores británicos partió hacia la isla africana de Príncipe para probar que un físico alemán tenía razón. Albert Einstein había presentado la Teoría General de la Relatividad en 1915. El nuevo paradigma, de ser correcto, iba a cambiar radicalmente la forma de entender el universo.

La oportunidad para comprobar si Einstein estaba en lo cierto se presentó el 29 de mayo de 1919. Ese día, se produciría un eclipse de magnitud descomunal que recorrería varios países cercanos al ecuador. Duraría 6 minutos y 50 segundos (la duración máxima de un eclipse es de 7 minutos y 31 segundos) y daría la oportunidad de realizar un gran número de observaciones útiles para dirimir la controversia.

El Astrónomo Real, Sir Frank Dyson, planeó una misión doble. Un equipo que él mismo dirigiría partiría hacia la ciudad brasileña de Sobral y un segundo grupo observaría el eclipse desde la isla africana de Príncipe. Al frente de esta misión estaría el astrofísico Arthur Eddington, en aquellos años uno de los pocos que de verdad comprendían la teoría de la relatividad.

Para explicar su teoría, Einstein había planteado una situación hipotética en la que la línea de visión entre un observador en la Tierra y una estrella estuviese bloqueada por el borde del Sol. Si Newton tuviese razón, la estrella permanecería invisible, pero Einstein calculó que algo mucho más sorprendente sucedería. La fuerza gravitatoria solar doblaría el espacio a su alrededor, los rayos de la estrella seguirían ese camino curvado para rodear el Sol y llegarían sin problemas hasta el observador en la Tierra. El oportuno eclipse permitiría poner a prueba esta hipótesis al ocultar la luz solar; gracias a la Luna, los científicos británicos podrían fotografiar las estrellas cercanas al Sol que en condiciones normales quedan ocultas por el fulgor del astro.

La suerte de Eddington pareció desvanecerse conforme se acercaba el día. Llovió durante los 19 días previos al 29 de mayo y cuando comenzó el eclipse las nubes tapaban el Sol.

Durante 400 segundos, los científicos pensaron que su oportunidad se había desvanecido, pero entonces, cuando sólo faltaban 10 segundos para que se apartase la Luna, las nubes se retiraron y Eddington pudo tomar una sola fotografía.

Comparando esa única imagen con otras que había tomado cuando el Sol no estaba allí, el astrofísico inglés pudo calcular que la gravedad solar había provocado una deflección de la luz de aproximadamente 1,6 segundos de arco. El resultado coincidía con la predicción de la Teoría de la Relatividad General; Einstein tenía razón.

MAS RECIENTEMENTE

La misión Gravity Probe B  [3] de la agencia espacial estadounidense (NASA) comprobó dos predicciones de la teoría general de la relatividad del científico Albert Einstein, tras más de 40 años de haberse iniciado el experimento.

Con un costo de 760 millones de dólares, la nave propiedad de la NASA demostró que la fuerza de gravedad de los grandes cuerpos del Universo distorsiona el tiempo y el espacio, demostrando que la gravedad se produce cuando la masa curva el espacio y el tiempo, referidos al efecto geodésico, al mismo tiempo en el que demuestra la torsión que se produce en el espacio y tiempo debido a la torsión de los cuerpos, por lo que dos predicciones de la teoría de la relatividad de Einstein son comprobadas.

En su página oficial, la NASA publicó que la sonda espacial determinó ambos efectos con una precisión mayor a lo esperado por científicos, explicando que el comportamiento de GP-B hubiera sido otro si la gravedad no afectara al espacio y al tiempo, por lo que la teoría de Einstein es confirmada.

En conferencia de prensa publicada también en el sitio de la NASA, Francis Everitt, físico de la Universidad de Stanford y principal investigador del satélite Gravity Probe B, señaló que el proyecto iniciado hace más de 40 décadas, pudo demostrar que el Universo de Einstein, el tiempo y el espacio son deformados por la gravedad. La Tierra distorsiona ligeramente el espacio a su alrededor debido a la gravedad.

El científico ejemplificó el descubrimiento del físico mencionando que si la Tierra estuviera sumergida en miel, a medida que el planeta rote, la miel a su alrededor de arremolinaría, mismo efecto que ocurre con el tiempo y el espacio.

En el Universo de Einstein, el tiempo y el espacio son deformados por la gravedad. La Tierra distorsiona ligeramente el espacio a su alrededor, debido a su gravedad.

Si los giroscopios hubieran apuntado en la misma dirección siempre que estuvieran en órbita (…) Pero como confirmación de la teoría general de la relatividad de Einstein, los giroscopios experimentaron cambios mensurables en la dirección de su giro a medida que eran atraídos por la gravedad de la Tierra

La NASA detalló que el proyecto fue ideado por primera ocasión en 1959, como un satélite que orbitaba la Tierra y a través de la recopilación de información determinar la teoría de Einstein.

El lanzamiento de GP-B se registró hace 41 años, a una órbita de más de 600 kilómetros sobre la Tierra con cuatro giroscopios, ruedas de un aparato circular que gira en torno a un eje y que indica el movimiento y registra los cambios en su orientación.

Las tecnologías creadas para desarrollar la sonda gravitacional fueron usadas luego para elaborar los sistemas de posicionamiento global (GPS) y el cálculo de la radiación de fondo del Universo.

Ese cálculo es la base de la teoría del Big Bang y dio lugar al premio Nobel para John Mather [4], de la NASA.

Datos curiosos acerca de la Teoría de la Relatividad

  • Al crear su Teoría, Einstein no la llamó relatividad. La palabra nunca aparece en su trabajo original de 1905 : ”Sobre la electrodinámica de los cuerpos en movimiento”, y de hecho odiaba el término, prefiriendo el de “teoría de la invariación” (porque las leyes de la física parecen las mismas para todos los observadores –  y no hay nada “relativo” en ello).
  • ¿El continuo del espacio-tiempo? No, eso no es de Einstein. La idea del tiempo como cuarta dimensión se le ocurrió a Hermann Minkowski, uno de los profesores de Einstein, quién una vez le llamó “perro vago” a causa de su poco aprecio por las matemáticas.
  • El físico austriaco Friedrich Hasenöhrl publicó una variación de la ecuación: E = mc2 un año antes de que lo hiciera Einstein. (Pueden ver mas información en esta entrada: “El verdadero origen de E = mc^2”)
  • El trabajo que Einstein desempeñaba a jornada completa para la oficina suiza de patentes le forzaba a trabajar en la relatividad durante las horas en que nadie le observaba. Escondía los papeles en su atiborrada mesa de trabajo cuando se le acercaba algún supervisor.
  • El afecto también es relativo, o al menos para Einstein lo era. “Necesito a mi mujer, ella resuelve todos los problemas matemáticos por mi”, escribió Einstein mientras completaba su teoría en 1904. Para el año 1914, le ordenó “renunciar a tener toda clase de relación personal conmigo, ya que esto no es algo que se requiera de forma absoluta por razones sociales”.
  • Las leyes también son relativas. Según Einstein, nada viaja más rápido que la luz, pero el propio espacio no tiene esta limitación; inmediatamente después del Big Bang, la huida expansiva del universo logró aparentemente superar a la luz.
  • En retrospectiva, parece que Eddington modifico los resultados, descartando las fotos que mostraban el resultado “incorrecto” de la Teoría de la Relatividad, aunque esto quizás solo sea un mito.
  • A día de hoy comprendemos tan bien la relatividad general que la usamos para pesar galaxias y para localizar planetas distantes por la forma en que doblan la luz.

 

Si aún no te aclaras demasiado con las ideas de Einstein prueba con esta explicación dada por el propio interesado:

“Pon tu mano en una estufa durante un minuto y te parecerá una hora. Siéntate junto a una chica bonita durante una hora y te parecerá un minuto. Eso es la relatividad”.

REFERENCIAS |

Paradojas científicas que no conocias

Por norma general, ante muchas situaciones (la mayoría de ellas), acostumbramos dejarnos llevar por el sentido común y la lógica, que son las mismas que nos dictan los parámetros para pensar y decidir en base a un determinado escenario. Sin embargo, en ciertas ocasiones, las cosas terminan siendo muy diferentes a lo que pensábamos desde un principio, o directamente, desafían el sentido común y la lógica, llegando al punto de resultar imposibles.

A este concepto se le denomina paradoja.  

Debido a que las paradojas son bastante conocidas por la sociedad en general, en esta entrada he de desarrollar las ideas generales de las paradojas mas conocidas en el ámbito científico y no científico, así que sí conocen otras comenten y las agregare gustosamente.

El gato de Schrödinger

Sin duda alguna mi paradoja preferida es la del experimento teórico de El gato de Schrödinger.  Esta paradoja muy famosa pertenece al campo de la física, más concretamente al de la física cuántica.  En este mismo blog pueden encontrar una entrada dedicada exclusivamente a esta paradoja.

En el experimento de Schrödinger, tenemos una caja totalmente opaca, con 3 elementos en su interior: un gato (vivo), una botella con un gas venenoso y un aparato con una partícula radioactiva, la cual tiene una probabilidad del 50% de desintegrarse.

En el caso de desintegrarse, la botella libera el gas, matando al gato. En el caso de no desintegrarse, no ocurre absolutamente nada (y el gato vive).

La paradoja consiste en que, según nuestro sentido común, el gato estará vivo o muerto pero no podremos saberlo hasta abrir la caja. Según las leyes de la física cuántica, el gato está vivo y muerto (los dos estados a la vez) hasta que se abra la caja y se compruebe.

  

Es muy conocida por las personas en general, estén o no relacionadas con algún campo de la ciencia. En el mundo de Internet es muy conocida (quizás por el mero hecho de existir un gato en la demostración).

Existe una variación del gato de Schrödinger, denominado El suicidio cuántico, aunque también podríamos denominarlo la venganza del gato de Schrödinger, ya que se desarrolla la teoría desde el punto de vista del gato (y con un humano).

 

Más información | La mascota preferida de Schrödinger  

El Cuadrado Perdido

El problema del cuadrado perdido es una paradoja muy conocida y utilizada en el inicio del estudio de la geometría, dentro del campo de las matemáticas. 

La paradoja consiste en la reordenación de los elementos del triángulo de la imagen superior. ¿Cómo es posible que sólo reordenando las mismas piezas, nos sobre ese espacio cuadrado?

Obviamente, tiene truco y se trata sólo de una ilusión óptica. En el siguiente enlace se puede observar claramente la explicación de ese cuadrado que desaparece.


Solución visual | Solution to Missing Square 

 La cinta de Möbius

La banda o cinta de Möbius (o Moebius) es una figura simple y muy sencilla de construir que se utiliza mucho en el ámbito de las matemáticas (geometría) o en topología.  

Entre las propiedades de esta cinta, que son las que la hacen paradójica, quizás la que más destaca es que tiene una sola cara y un solo borde, lo que lo convierte en algo similar a un objeto imposible (pero obviamente, posible).

Más información | WIKIPEDIA Y GAUSSIANOS

La paradoja del Abuelo

La paradoja del abuelo es una paradoja física muy utilizada en la ciencia ficción, ya que tiene su base en los viajes en el tiempo. Es muy conocida y se ha utilizado en muchas obras, como por ejemplo Terminator, Regreso al futuro o Futurama.  

Suponiendo el caso de que una persona pudiera viajar hacia atrás en el tiempo, retrocediera varios años y matase a su abuelo antes de que tuviera descendencia (concretamente al padre del viajero del tiempo), este no habría nacido ni hubiera tenido hijos, por lo cual el viajero del tiempo tampoco nacería ni le sería posible viajar en el tiempo para matar a su abuelo.  

Es curioso como se han ideado ciertas soluciones a esta paradoja para hacer posible el suceso, como la existencia de universos paralelos, líneas temporales alternativas o tantas otras.

Mas información | WIKIPEDIA

¿El huevo o la gallina?

Probablemente, la paradoja más conocida del mundo. La hemos escuchado de nuestros hermanos, nuestros padres, los abuelitos, la mayoría de nuestros amigos, los profesores, prácticamente todo mundo la conoce (aunque algunos no saben que es una paradoja).

«¿Qué ocurrió primero, la gallina o el huevo?». En el caso de ser la gallina, se plantea que la gallina tuvo que salir de un huevo. En el caso de ser el huevo, éste lo tuvo que poner una gallina.

Este dilema, adjudicado a las ramas de la filosofía, es muy conocido en la cultura popular y se han realizado multitud de teorías sobre ella. Por ejemplo, Aristóteles afirmaba que lo primero en existir fue la gallina, mientras que Stephen Hawking asegura que lo fue el huevo.  

 Mas información | WIKIPEDIA

 La paradoja del Cumpleaños

Esta paradoja, pertenece al campo de las matemáticas, más específicamente a la estadística. 

Se dice que en un cumpleaños con 23 personas, existe una probabilidad de más del 50% de que al menos dos personas cumplan años el mismo día. De hecho, si hay 50 personas, la probabilidad es casi del 100% (97% exactamente).


Esta paradoja sorprende mucho por una especie de ilusión mental, ya que el sentido común dicta lo contrario que la demostración matemática. Aún así, si no te crees la paradoja, puedes comprobarlo en el simulador visual del enlace.

Simulador de la paradoja del cumpleaños | http://www-stat.stanford.edu/~susan/surprise/Birthday.html
Mas información | WIKIPEDIA  

Teorema de los Infinitos Monos

Otro teorema clásico y popular, que quizás no llega a ser paradoja, pero sí merece la pena añadir en este listado, es el teorema de los infinitos monos. Es tan conocido que ha sido referenciado en multitud de obras, desde el libro La guía del autoestopista galáctico, de Douglas Adams, hasta en varios capítulos de Los Simpsons, entre muchos otros.

El teorema afirma que si un número infinito de monos escribieran a máquina por un intervalo infinito de tiempo, acabarían escribiendo las obras de Shakespeare.

Aunque el teorema original versaba sobre un sólo mono y cualquier libro de la Biblioteca Nacional Francesa, la cultura popular hizo que se popularizara esta versión. Hace varios años, también se llevó a cabo un experimento (Experimento Vivaria) donde tomaron fotos y realizaron pruebas a varios monos, para ver que eran capaces de escribir y durante cuanto tiempo.

Mas Información | Informe del experimento Vivaria y también Infinite monkey theory 

La paradoja de Monty Hall

Otra paradoja perteneciente al campo de la estadística es la paradoja de Monty Hall, también llamada la paradoja de las tres puertas.  

En un concurso televisivo tenemos tres puertas cerradas. Detrás de una de ellas hay un coche, mientras que detrás de las otras dos, hay una cabra respectivamente.

Después de que el concursante haga su elección (y antes de comprobar si ha acertado), el presentador abre una de las puertas no elegidas donde sabe que hay una cabra y le pregunta al concursante «¿Está seguro de querer abrir esa puerta o quiere elegir otra?»

El sentido común dicta que no hay diferencia entre cambiar o no la elección de la puerta, sin embargo, el problema tiene trampa, ya que si nos quedamos con la puerta elegida inicialmente tenemos menos probabilidades de acierto que si cambiamos de puerta.

Monty Hall Simulatorhttp://www.grand-illusions.com/simulator/montysim.htm
Más información | La paradoja de Monty Hall 

 La paradoja de Abilene

La paradoja de Abilene es una situación estudiada en el campo de la sociología en la que un grupo de personas realizan una acción que no quieren realizar (individualmente) porque ningún miembro está dispuesto a objetar algo o negarse.  

En una calurosa tarde, un matrimonio y su suegra están jugando al dominó a la sombra. El suegro propone hacer un viaje a Abilene (un caluroso viaje de más de 80km). La mujer acepta «¡Gran idea!». El marido dice «A mi me parece bien, espero que a tu madre también». «Por supuesto», responde.

Tras realizar el viaje, con más horas de lo previsto, malhumorados y agotados, la suegra dice «Menudo viaje. Hubiera preferido quedarme en casa, pero acepté porque estaban muy ilusionados». El marido reconoce que vino sólo para satisfacer al resto ya que pensó que estarían aburridos, mientras que la mujer sostiene que aceptó para no estropear el plan de los demás.

Finalmente, quedan perplejos. Decidieron en común hacer un viaje que ninguno de ellos quería hacer.

 Mas información | WIKIPEDIA

La paradoja de los gemelos

La paradoja de los gemelos (o de los relojes) es un experimento teórico catalogado dentro de la física (relatividad).

Dos gemelos deciden realizar un experimento: Uno de ellos viajará en una nave a la velocidad de la luz a una estrella, mientras que el otro se queda en la Tierra.

De acuerdo con la dilatación del tiempo (teoría de la relatividad), cuando el gemelo viajero vuelva a la Tierra, será más joven que el que se quedó, ya que el tiempo del gemelo de la nave va más despacio que el de la Tierra.

Mas información | WIKIPEDIA

El dilema del Prisionero

El dilema del prisionero no es una paradoja en sí, pero es un problema dentro de la rama de la teoría de juegos que puede considerarse paradójico.  

La policía arresta a dos sospechosos. No hay pruebas suficientes para condenarlos, sin embargo, se les separa en dos celdas diferentes y se les ofrece el mismo trato: Si uno de ellos confiesa y su cómplice no, se condenará 10 años al cómplice y se liberará al delator. Si ambos confiesan, se condenarán a 6 años cada uno. Si ninguno confiesa, sólo podrán encerrarlos durante 6 meses por cargos menores.

El experimento muestra que dos personas no cooperarán, incluso aunque en ello vaya el interés de las dos.

Es curioso saber que, en una variación de este problema, el prisionero iterado, se repite varias veces el mismo juego, añadiendo la posibilidad de castigar al otro jugador por la no cooperación en partidas previas. El incentivo para defraudar termina siendo superado por la amenaza del castigo, por lo que conduce a una cooperación forzada.

Mas información | WIKIPEDIA 

La paradoja del Hotel Infinito

El Hotel infinito de Hilbert es una metáfora paradójica relacionada con el mundo de las matemáticas.  

Dos grandes empresarios con un hotel gigante, tienen el problema de que quieren garantizar a los clientes que siempre tendrán una habitación disponible para un nuevo cliente. Como el hotel actual, con 1.000.000 de habitaciones no era suficiente, tomaron cartas en el asunto.  

Los dos empresarios decidieron construir el primer hotel con habitaciones infinitas. Un número infinito de habitaciones garantizaba dar alojamiento a un número infinito de clientes. Pero al llegar un nuevo cliente, se vieron de nuevo con el mismo problema.

Para ello idearon una solución. Dar alojamiento a los clientes con la única condición de que si llega un nuevo cliente, tienen que abandonar su habitación e irse a la habitación siguiente (+1). Así, el nuevo cliente se hospedaría en la habitación 1, y el resto se iría rodando a la habitación directamente siguiente. Como el hotel tiene un número infinito de habitaciones, no habría última habitación.

Más información | WIKIPEDIA

 La paradoja de la Serpiente

Finalmente, para terminar, otra paradoja popular, muy similar al de el huevo o la gallina, denominada La paradoja de la serpiente, muy utilizada en campos y materias de filosofía. 

Un uróboro es una palabra griega que representa a un animal que engulle su propia cola, formando un círculo. Si dicho animal, por ejemplo, una serpiente, comienza a comerse su cola y termina tragándose todo su cuerpo… ¿Dónde estaría la serpiente?


La paradoja entra en juego cuando nos damos cuenta que la serpiente se encuentra dentro de su propio estómago, pero simultáneamente sigue comiéndose a sí misma.

Más información Uróboro http://es.wikipedia.org/wiki/Ur%C3%B3boros

La paradoja de la Fuerza Irresistible

La paradoja de la fuerza irresistible (o imparable) es una paradoja clásica que se formula así: ¿Qué pasaría si una fuerza imparable chocara contra un objeto inamovible?

Lógica: Si existe una cosa tal como una fuerza imparable, entonces no puede existir un objeto inamovible, y viceversa. Es lógicamente imposible la existencia de los objetos (una fuerza imparable y un objeto inamovible) en un mismo universo al mismo tiempo.  

Semántica: Si existe una cosa tal como una fuerza imparable, entonces hablar de un objeto inamovible es un sinsentido en ese contexto y viceversa, con lo cual el asunto vendría a ser algo así como preguntar, por ejemplo, por un triángulo de cuatro lados, ó ¿qué ocurriría si dos más dos diera como resultado cinco?.


Esta paradoja es similar a la paradoja de la omnipotencia, pero ésta se suele discutir en el contexto de la omnipotencia divina (¿Podría Dios crear una piedra tan pesada que ni él mismo pudiera levantarla?).

La paradoja debe ser entendida como un ejercicio de lógica, no como el postulado de una posible realidad. Según las creencias científicas modernas, no hay, y de hecho no puede haber, fuerzas imparables ni objetos inamovibles. Un objeto inamovible tendría que tener una inercia infinita y por lo tanto una masa infinita. Tal objeto se derrumbaría bajo su propia gravedad y crearía una singularidad. Una fuerza imparable implicaría una energía infinita, lo que según la ecuación de Albert Einstein E=mc² implicaría también una masa infinita. Obsérvese que, desde un punto de vista moderno, una bala de cañón que no puede ser absorbida y una pared que no puede ser derribada son un mismo tipo de objeto imposible, uno con inercia infinita.

Un ejemplo de esta paradoja fuera de la cultura occidental puede ser visto en el origen de la palabra china para paradoja (矛盾), literalmente “lanza escudo” la palabra proviene de una historia en la que un vendedor estaba tratando de vender una lanza y un escudo. Cuando le preguntaron cómo de buena era su lanza, éste aseguró que podía atravesar cualquier escudo y cuando le preguntaron cómo de bueno era su escudo respondió que podía detener los ataques de cualquier lanza. Entonces una persona preguntó qué pasaría si lanzaba su lanza contra su escudo. El vendedor no pudo contestar y esto condujo a la aparición en el idioma de 自相矛盾 o “auto – contradictorio”.

Otra aproximación a esta paradoja es decir simplemente que el objeto continuará existiendo, ya que por definición una fuerza imparable es un objeto inamovible.  

 Mas información WIKIPEDIA 

La paradoja de Fermi

Y para terminar, una paradoja de índole científico muy conocida por las personas en general. Básicamente la paradoja de Fermi es la contradicción entre las estimaciones que afirman que hay una alta probabilidad de existencia de civilizaciones inteligentes en el universo, y la ausencia de evidencia de dichas civilizaciones. Surgió en 1950 en medio de una conversación informal del físico Enrico Fermi con otros físicos del laboratorio pero ha tenido importantes implicaciones en los proyectos de búsquedas de señales de civilizaciones extraterrestres.

Trata de responder a la pregunta: «¿Somos los seres humanos la única civilización avanzada en el Universo?» La ecuación de Drake para estimar el número de civilizaciones extraterrestres con las que finalmente podríamos ponernos en contacto parece implicar que tal tipo de contacto no es extremadamente raro. La respuesta de Fermi a esta conclusión es que si hubiera numerosas civilizaciones avanzadas en nuestra galaxia entonces «¿Dónde están? ¿Por qué no hemos encontrado trazas de vida extraterrestre inteligente, por ejemplo, sondas, naves espaciales o transmisiones?» Aquéllos que se adhieren a las conclusiones de Fermi suelen referirse a esta premisa como el Principio de Fermi.

La paradoja puede resumirse de la manera siguiente: La creencia común de que el Universo posee numerosas civilizaciones avanzadas tecnológicamente, combinada con nuestras observaciones que sugieren todo lo contrario es paradójica sugiriendo que nuestro conocimiento o nuestras observaciones son defectuosas o incompletas.  


La formulación de la paradoja surgió en una época en la que Fermi estaba trabajando en el Proyecto Manhattan cuyo fin era el desarrollo de la bomba atómica estadounidense. La respuesta de Fermi a su paradoja es que toda civilización avanzada desarrollada en la galaxia, desarrolla con su tecnología el potencial de exterminarse tal y como percibía que estaba ocurriendo en su época. El hecho de no encontrar otras civilizaciones extraterrestres implicaba para él un trágico final para la humanidad.

Mas información | WIKIPEDIA 

Cosmología y el Principio Antrópico

¿El Universo fue creado para el hombre o eso es lo que nosotros queremos creer?

El principio antrópico quizás este entre los primeros lugares en el top de los temas mas polémicos de la cosmología. Prepárense para el debate y la controversia.!!!

Para empezar debemos tener un concepto general pero preciso acerca de lo que es la cosmología[1]. Desde que el hombre ha podido ver las estrellas, el Sol y la Luna se ha preguntado porque y como se origino, como ha evolucionado y como sera en un futuro, el conjunto de estudios sobre el Universo en su conjunto es lo que podemos llamar cosmología.

Por ende la cosmología conduce a cuestiones y teorías que se basan en 3 puntos de inflexión  la Ciencia, la filosofía y la religión. Para poder explicar quizás la pregunta mas importante de todas en la rama de la Cosmología, ¿Como se origino y porque nuestro Universo es como es?… se requiere de una mezcla de esas 3 disciplinas, lo que conlleva a muchos y muy acalorados debates para defender y/o descartar varias teorías.

Una de ellas engloba un principio que para muchos (realmente muchos) es un tanto confuso y fuera de toda lógica. Ese principio fue propuesto por un cosmólogo y físico teórico de origen australiano llamado Brandon Carter [2] durante una celebre conferencia ante la Unión Astronómica Internacional que se llevo a cabo en 1974.

Las ideas de este físico se pueden resumir en:

“Aunque nuestra situación [en el universo] no es necesariamente central, es necesariamente privilegiada en algún grado”. 

Según este principio, la vida en la Tierra y la aparición del hombre en ella se conectan en una relación con el origen del Universo. El principio es muchas veces confuso y casi siempre controvertido, puede expresarse de muchas formas distintas, pero su idea fundamental puede resumirse en que:

“El Universo es como es porque nosotros estamos aquí para observarlo”.

Tanto desde el punto de vista físico como cosmológico, esta afirmación otorga un papel fundamental a los seres dotados de conciencia dentro de la inmensa maquinaria universal. 

Aunque tiene varias formulaciones (débil, fuerte y final), todas recogen (con un grado ascendente de rotundidad) que las condiciones y variables que se vienen dando desde el principio del Universo parecen haber sido “afinadas” de forma que, finalmente, hayan permitido la aparición de vida consciente e inteligente en el Cosmos. Esto no tiene nada que ver con la figura de un “creador”; más bien viene a decir que, de todos los Universos posibles que pudieron crearse en el Big Bang, éste es el que tenemos porque unos seres como nosotros están aquí para poder observarlo y plantear las preguntas necesarias para comprenderlo.

Podemos decir que es un principio que tiene parecido con el conocido argumento del diseño.

Cuando nos ponemos a contemplar cualquier forma de vida en la tierra no podemos sentir nada mas que admiración. La naturaleza ha llegado a tal complejidad que lo único que podemos hacer es preguntarnos como es que ha llegado a ser tal como es. Cada ser viviente tiene estructuras orgánicas y finalidad en sus funciones, algo tan increíble y magnifico no puede ser obra de la casualidad o de la probabilidad, y es allí donde los antiguos pensadores atribuyeron todo el merito a la voluntad creadora del Gran Diseñador o Dios. El argumento del diseño ha venido siendo utilizado junto con argumentos cosmologicos como prueba irrefutable de la existencia de un Creador del Universo.

El planteamiento del principio antrópico causo un enorme revuelo, sobre todo en los medios de divulgación científica, debido a que con el principio antrópico debemos “razonar a la inversa” de como se hace con el “método científico”, dicho de otra manera, en vez de decir que la vida en la Tierra apareció porque las condiciones para ello fueron favorables, el principio manifiesta que la existencia de nosotros, seres inteligentes aquí en la Tierra puede ser usada para explicar porque el universo es como es y por qué las leyes de la naturaleza son como las conocemos.

Inclusive el celebre físico teórico Stepehn Hawking [3] sugirió un una de sus publicaciones del 2004 que nuestro Universo es mucho menos “especial” de lo que los exponentes del principio antrópico pretenden. En su Historia del tiempo [4], Stephen Hawking lo dijo escuetamente así:

“Vemos el universo de la forma que es porque si fuese diferente no estaríamos aquí para observarlo”. 

Aunque Brandon Carter presentó sus ideas en 1974 en una publicación de la Unión Astronómica Internacional [5], en 1983 declaró que, en su forma original, el principio sólo pretendía poner sobre aviso a los astrofísicos y los cosmólogos sobre los posibles errores que se derivarían de la interpretación de los datos astronómicos y cosmológicos a menos que las restricciones biológicas del observador se tomasen en cuenta.

Como naturalmente sabemos, los razonamientos de esta clase han sido y siempre serán objeto de muchos y muy intensos debates. A pesar de que ha sido muy combatido por la corriente materialista, el principio antrópico ha provocado un acercamiento del hombre al universo, hasta llegar al punto de que ya varios científicos han llegado inclusive a hablar del Universo como “un hogar para el hombre”. 

Según el principio antrópico, el universo está adaptado al hombre, como si hubiese sido expresamente diseñado para que él lo habitase. Este principio, que en su forma débil es aceptado por los cosmólogos, dada su evidencia, viene a decir:

Las cosas en la Tierra son como son, porque en el universo fueron como fueron. Y si no hubieran sido como fueron, nosotros no existiríamos.

En términos más científicos, en dicha forma débil, el principio antrópico fue enunciado así por Barrow y Tipler en 1986:

“Los valores observados de todas las cantidades cosmológicas y físicas [del universo] no son igualmente probables sino que aparecen restringidos por el requisito de que existan lugares donde pueda surgir vida basada en el carbono y por el requisito de que el universo posea bastante edad para que ello haya sido ya así”.

Ambos autores lo calificaron como “uno de los más importantes y bien fundados principios de la ciencia”.

¿Esto es Física verdadera o tan solo Filosofía?

Algunos cosmologos como John Peacock se declararon a favor del principio antrópico  rechazando la idea relativamente extendida de que este principio representa un gran paso hacia atrás frente a la física  Muchos otros hablaron del principio como de una idea mas filosófica que científica. Tal es el caso del astrofisica Lawrence Karuss quien dijo que el principio antrópico era:

“una forma de matar el tiempo cuando los físicos no tenían una mejor idea.”

En lo personal, yo estoy mas que de acuerdo con Karuss, aunque el principio en si mismo da mucho en que pensar. Podemos decir que es una modificación a la filosofía escrita en el lenguaje de la física, no podemos afirmar donde termina una y empieza la otra, pero se nota un tanto fantasiosa.

¿Y todo eso que implica?

Antes de llegar a las conclusiones imaginemos la siguiente situación para poder comprender mejor las ideas del articulo:

Haz sido reclutado para participar en un experimento, estas en una ciudad que ha sido aislada completamente del mundo exterior, solo estas tu y 999.999 personas mas, en total hay un millón de personas. El experimento solamente durara 48 horas, antes de que lleguen las 6:00 P.M. todas las personas excepto una (elegida completamente al azar) recibirán una inyección que los matara mientras estén durmiendo, mientras que a la ultima persona recibirá una inyección placebo [6] .

Luego de ello todos son enviados a sus casas y todos se van a dormir. A la mañana siguiente, solo una persona de el millón despierta en su cama (todos los demás han muerto). Y por supuesto, supongamos que tú eres la única persona que despierta y que no sabes cual es el criterio que ha determinado la elección de quien vive y quien muere, solamente que todos menos uno han muerto y tú eres el muy agradecido afortunado.

Solo imagínate, al despertar estarías muy sorprendido, ¡estas vivo! Una probabilidad de uno entre un millón, ¡y has sido tú el que se ha salvado! ¿Pero por qué? ¿Qué es lo que te hace especial, diferente?

Con una probabilidad tan pequeña de salvarte, ¿no es lógico pensar que alguien ha elegido que tú seas el que se salve?

Pero tú sabes lo que significa la selección del observador: estas realizando estas conjeturas sabiendo que tú eres el observador, y no otro. ¿Qué quiere decir esto? Supongo que no tienes ninguna duda:

Cualquiera que fuera la persona que se salve pensaría que es especial y tiene mucha suerte, porque todos los demás están muertos y no pueden preguntarse nada.

Es decir, eres “especial” no porque haya ningún designio para salvarte, sino porque eres el único que puede hacerse preguntas. Y daría lo mismo que en vez de un millón hubiera un sextillón o un billón de personas de las cuales solo una se salva, esa persona se preguntaría porque la han elegido a ella.

¿Y todo esto que implica?

Desde hace muchos años se ha venido poniendo de manifiesto la aparente “sintonización” de las constantes del Universo para producir la vida tal como la conocemos. Si se cambia casi cualquiera de las constante sin dimensiones que determinan el comportamiento relativo de las fuerzas fundamentales del Universo, no estaríamos aquí.  Y el cambio puede ser muy pequeño: por ejemplo, hacer la fuerza nuclear fuerte un 2% mas grande, haría que el hidrógeno fuera el único elemento químico estable del Universo (no habría reacciones químicas porque no habría elementos con los que realizarlas ), lo mismo ocurre con la fuerza gravitatoria, la fuerza nuclear débil, la constante de estructura fina… cambios en muchas de ellas significaría un Universo estéril, frió y sin vida.

Esto nos ha llevado a preguntarnos, desde hace mucho tiempo:

 ¿No es demasiada casualidad? De todos los posibles valores que tienen estas constantes, ¿por qué razón tienen los que, precisamente, nos han creado a nosotros?

De hecho, esta “coincidencia” en las constantes universales es un argumento relativamente común a favor de la existencia de Dios. Puesto que, si estas constantes pueden tomar muchos valores (supongamos que todos los valores tienen la misma probabilidad de ocurrir) y justo han ocurrido los que han producido la vida, ¿no es lógico pensar que no puede ser fruto del azar? La probabilidad es tan pequeña que parece que el Universo ha tenido que ser “diseñado” para la vida.

Pero este argumento es incompleto. Para simplificar el problema, supongamos que la premisa de la que parte del argumento del “Diseño Inteligente” (que todos los valores posibles de las constantes tienen la misma probabilidad de ocurrir) es cierta y que (por ejemplo) la probabilidad de que tengan los valores reales que observamos es de una entre un billón.

El defensor del argumento anterior diría: La probabilidad de que el Universo sea como es y no de otra manera es de una entre un billón. Esta probabilidad es minúscula, por lo tanto podemos afirmar que es muy probable que haya un “diseñador” que ha elegido los valores de estas constantes a priori para producir la vida inteligente en la Tierra.

En efecto, supongamos que la probabilidad de que el Universo produzca la vida como la conocemos es de una entre un billón: supongamos que hay un billón de Universos “posibles”, y en todos menos uno no existe la vida. Si yo fuera un observador externo a todos los Universos, podría afirmar que la probabilidad de elegir uno al azar y que tenga vida es de una entre un billón….pero si estoy en el Universo y me hago estas preguntas, es que necesariamente estoy justo en el que existe la vida inteligente.

De hecho, expresado así, el argumento es una tautología [7]:

Un Universo en el que existo y puedo preguntarme por qué existe la vida en él debe, necesariamente, ser un Universo cuyas condiciones son las indispensables para la vida, independientemente de lo improbables que éstas sean.

Este argumento es, dicho con mis propias palabras, la forma débil del Principio Antrópico.

¿Qué utilidad puede tener una perogrullada así? Voy a expresar el Principio con otras palabras: Puede haber muchísimos Universos en los que no exista vida inteligente, pero sólo en los que sí la haya puede haber alguien que se sorprenda de lo excepcional que es el suyo.

Es decir, que puede que no haya nada en absoluto “excepcional” en nuestro Universo. Los valores de sus constantes pueden ser totalmente aleatorios, como los de otro millón, o billón, o trillón de Universos, pero sólo en aquellos de esos Universos en los que da la casualidad de que surja la vida puede algún ser preguntarse por qué tiene la suerte de que las constantes valgan lo que valen.

Lo mismo puede aplicarse a otros argumentos del “Diseño Inteligente”. Por ejemplo:

 ¿cómo es posible que, por azar ciego, la evolución haya creado algo tan complejo como el ser humano, capaz de hacerse preguntas sobre el Universo?

Imaginemos que, de cien millones de planetas en los que la evolución empieza de cero, sólo en uno (aleatoriamente elegido) pudiera producirse vida inteligente. ¿Qué pensarían los seres de ese planeta? No voy a redundar en los mismos razonamientos – la selección del observador una vez más.

Existen otras formas del Principio Antrópico que no me parecen tan filosóficamente sólidas y, de hecho, se llama a muchas cosas “Principio Antrópico” y no está muy claro, a veces, a qué se refieren con eso. Pero espero que la idea central haya quedado clara.

Conclusión

La humanidad hizo una buena utilización del aparente diseño de la naturaleza como prueba positiva de la existencia de Dios. Pero fue gracias a la aparición de  El origen de la especies de Darwin cuando el ateo pudo sentirse intelectualmente completo, al tener en sus manos una alternativa naturalista y científica a la diversidad y a la complejidad de la vida en la Tierra. Una vez desterrado de la biología  el viejo argumento del diseño resurgió en el contexto del principio antrópico y en un nuevo escenario, la cosmología. Al igual que con el argumento clásico del diseño, el nuevo argumento del principio antrópico ha sido perfectamente desmontado desde el punto de vista lógico  Y en la misma linea de Darwin, la física y la cosmología nos presentan escenarios completamente naturalistas donde el ajuste fino aparente de la constantes de la física y de los parámetros que rigen el universo es una consecuencia trivial de los mismo.

Como se puede ver, no es cierto que exista un callejón sin salida para una explicación completamente naturalista del origen del universo, de sus leyes y características. Es más, la situación es más bien todo lo contrario; Aquellos que siguen buscando alguna evidencia de diseño divino o finalidad en la Naturaleza se encuentran en las mismas narices con un muro al final del camino. A medida que sabemos más sobre la física del universo primigenio, la imagen del Creador se diluye hasta convertirse en sólo la esperanza de algunos de poner al hombre en un lugar central que nunca le ha correspondido. Porque el primer gran pecado del argumento del diseño siempre fue su injustificado antropocentrismo. Plantear un propósito para los cielos centrado en lo humano suena a una lamentable falta de sentido del humor acerca de la condición humana.

Pero como siempre, el lector tiene la ultima palabra.

Referencias: 

Libros y Artículos de Interés relacionados:

  • Barrow, John D. and Tipler,Frank J. 1986. The Anthropic Cosmological Principle. Oxford: Oxford University Press.
  •  López, Cayetano 1999. Universo sin fin. Taurus
  • Hoyle, F 1953 Phys. Rev. 92, pp. 649 y 1095. Ver también Hoyle, F., “The Universe: Past and Present Reflections,” in Annual Reviews of Astronomy and Astrophysics, 20. (1982)
  • Carter, Brandon 1974. Large Number Coincidences and the Anthropic Principle in Cosmology, in M. S. Longair, ed. D. Reidel Publishing Co. “Confrontation of Cosmological Theory with Astronomical. Proceedings of the second Copernicus Symposium”.
  • John Brockman 1995, La tercera cultura, Tusquets editores 1996
  •  Mayr E. 1978 Scient. Am. 239, 46.
  • Smolin, Lee 1997, The Life of the Cosmos. New York, Oxford.
  • Thimothy Ferris 1998, Informe sobre el universo, Ed. Crítica, p.257.
  • On the Anthropic principle in the Multiverse: Addressing Provability and Tautology 
  • Anthropic Argument for Three Generations – Andrew Gould

Nueva teoría acerca de los Agujeros Negros

Los agujeros negros están rodeados de muchos misterios, pero ahora los autores de un estudio reciente están impulsando una nueva y revolucionaria teoría que podría explicar algunas de sus singulares propiedades.

A juzgar por las conclusiones a las que han llegado los especialistas del Instituto Niels Bohr en Dinamarca y de otras instituciones, los agujeros negros tienen propiedades que se asemejan a las de la dinámica de sólidos y las de la dinámica de fluidos.

Los agujeros negros son objetos extremadamente compactos en el universo. Son tan compactos que generan una fuerza gravitatoria fortísima, y todo lo que se acerca demasiado a ellos lo absorben. Ni siquiera la luz puede escapar. Cuando ésta alcanza a un agujero negro es absorbida por completo, sin reflejarse. Como resultado de ello, el objeto no se puede ver directamente (no emite luz) y por eso se le llama agujero negro. ( Pueden conocer más acerca de lo que son en esta otra entrada: ¿Que son los agujeros negros? )

En física teórica pueden existir diferentes planos que se comportan como los agujeros negros y que son llamados branas negras. Cuando éstas se pliegan en múltiples dimensiones forman un “pliegue negro”.

Según se deduce de lo investigado hasta ahora, un pliegue negro tiene una relación con la gravedad, la mecánica de fluidos y la física del estado sólido.

Los investigadores saben que los agujeros negros son muy compactos, pero ignoran cuáles son sus propiedades cuánticas.

El equipo de Niels Obers, profesor de física teórica de partículas y cosmología en el Instituto Niels Bohr de la Universidad de Copenhague, trabaja con modelos teóricos para entender mejor los enrevesados entresijos de la física de los agujeros negros. Obers explica que se puede concebir un agujero negro como una partícula. Ésta, en principio, no tiene ninguna dimensión. Es un punto, en el sentido más extremo. Si una partícula adquiere una dimensión, se convierte en una cuerda. Si ésta adquiere una dimensión adicional, se convierte en un plano. Los físicos llaman a este plano una brana.

 (Imagen: Recreación artística por Merete Rasmussen)

Según la teoría de las cuerdas, pueden existir diferentes clases de branas, incluyendo planos que se comportan como los agujeros negros, llamados branas negras. Desde la perspectiva de la física, las branas negras tienen temperatura y son objetos dinámicos; además, al plegarse en múltiples dimensiones, forman un pliegue negro.

Niels Obers, Jay Armas y Jakob Gath ahora han hecho un nuevo avance en la descripción de la física de los agujeros negros, basándose en las teorías de las branas negras y los pliegues negros.

Las branas negras son objetos hidrodinámicos, es decir, tienen las propiedades de un líquido. Ahora se ha descubierto que las branas negras también tienen propiedades que pueden ser explicadas en términos de propiedades típicas de los sólidos. Pueden comportarse como un material elástico cuando son dobladas.

Cuando las branas negras se doblan y pliegan en un pliegue negro, se crea un efecto piezoeléctrico (electricidad que se produce debido a la presión). Este nuevo efecto puede entenderse como una cuerda negra ligeramente doblada y provista con una mayor concentración de carga eléctrica en el lado interior con respecto al exterior. Esto produce dos polos cargados eléctricamente en las cuerdas negras. Los agujeros negros fueron predichos por la teoría de la gravedad de Einstein. Esto ilustra que hay una relación sorprendente entre la gravedad, la mecánica de fluidos y la física del estado sólido.

Información Adicional:  http://www.nbi.ku.dk/english/news/news12/new-knowledge-about-the-remarkable-properties-of-black-holes/

El verdadero origen de E = mc^2

Hace un par de días estaba leyendo algunas noticias de ciencia que me envían algunos amigos por correo electrónico, me encontré con la grata sorpresa de que  por primera vez había recibido una noticia muy interesante.

Un nuevo estudio revela que la contribución de un poco conocido físico austriaco, Friedrich Hasenöhrl, quien pudo haber sido el precursor de la famosa ecuación de Einstein.

Dos físicos estadounidenses describen el papel desempeñado por el físico austríaco Friedrich Hasenöhrl en el establecimiento de la proporcionalidad entre la energía (E) de una cantidad de materia con su masa (m) en una cavidad llena de radiación. En un artículo a punto de ser publicado en la European Physical H Diario , Stephen Boughn de Haverford College en Pensylvannia y Tony Rothman de la Universidad de Princeton en Nueva Jersey argumentan cómo el trabajo Hasenöhrl, por la que ahora recibe poco crédito, puede haber contribuido a la famosa ecuación E = mc 2 .

Dada la falta de reconocimiento por la contribución de Hasenöhrl, los autores examinaron la obra original del físico austriaco sobre la radiación de cuerpo negro en una cavidad con paredes perfectamente reflectantes. Este estudio trata de identificar el cuerpo negro de masa cambia cuando la cavidad se mueve respecto al observador.

El año de 1904 seguía su curso normal, Einstein aun trabajaba muy duramente en  los aspectos finales sobre su Teoría de la Relatividad Especial que seria publicada en el para muchos “año glorioso” de 1905.

Mientras tanto un físico austriaco llamado Fritz Hasenöhrl examinaba las propiedades de la radiación de un cuerpo negro en una cavidad en movimiento. Logro calcular el trabajo necesario para mantener la cavidad en movimiento constante mientras se llenaba con la radiación del cuerpo negro y llego a la conclusión de que la energía de radiación asociada con una masa aparente indicaba la siguiente ecuación:

Luego en un trabajo posterior, también en 1904, Hasenöhrl logro obtener el mismo resultado mediante el calculo de la fuerza necesaria para acelerar una cavidad que ya estaba llena de radiación.

A principios de 1905, se corrigió el ultimo resultado a:

Ese ultimo resultado, ha llevado a muchos a concluir que Hasenöhrl fue una victima mas del mismo “error” cometido por otros que se deriva en esa relación entre la masa y la energía electrostática del electrón. Algunos han atribuido el error a la negligencia de no mensurar la tensión en la cavidad del cuerpo negro.

Pero el error principal en su primer paper fue, irónicamente  que no se representaba la perdida de la masa de las tapas de los extremos del cuerpo negro a medida que irradiaban energía en la cavidad.

Sin embargo, aun teniendo en cuenta esto se concluye que la radiación de cuerpo negro tiene una masa equivalente de:

Dependiendo de si se equipara el impulso o la energía cinética de la radiación para el impulso o la energía cinética de una masa equivalente.

En su segundo y tercer paper, que tratan acerca de una cavidad acelerada, Hasenöhrl llego a la conclusión de que la masa asociada con la radiación de cuerpo negro era:

Un resultado que en el contexto limitado de experimentación de Hasenöhrl, es realmente consistente con la relatividad especial. (Si se incluyen todos los componentes del sistema, incluyendo las tensiones de la cavidad, entonces la masa total y la energía del sistema son, sin duda, una relación muy consistente  de  m = E / c2 )

Una lección importante de estos análisis es que E = 2 , aunque extremadamente útil, no es una “ley de la física” en el sentido de que no debe aplicarse indiscriminadamente a cualquier sistema ampliado y, en particular, a los subsistemas de la cual que se componen.

Journal Reference:

  1. Stephen Boughn Fritz Hasenöhrl y E = mc 2. La Revista Europea de Física H [link de la publicación]