Archivo de la categoría: Astrofisica

Una Estrella de la Muerte sin Ciencia Ficción

La Estrella de la Muerte es un arma colosal, del tamaño de una luna entera. Con un disparo a quemarropa contra el indefenso planeta Alderaan, patria de la princesa Leia, la Estrella de la Muerte lo incinera y provoca una titánica explosión que lanza restos planetarios a través del sistema solar.

El gemido angustioso de mil millones de almas crea una perturbación en la Fuerza que se siente en toda la galaxia. Pero ¿es realmente posible el arma Estrella de la Muerte de la saga La guerra de las galaxias? ¿Podría un arma semejante concentrar una batería de cañones láser para vaporizar un planeta entero? ¿Qué pasa con los famosos sables de luz que llevan Luke Skywalker y Darth Vader, que pueden cortar acero reforzado pese a que están hechos de haces luminosos? ¿Son las pistolas de rayos, como los fáseres en Star Trek, armas viables para futuras generaciones de soldados y oficiales de la ley?

Diagrama esquemático de la Estrella de la Muerte

Millones de espectadores que vieron La guerra de las galaxias quedaron estupefactos ante estos asombrosos y originales efectos especiales. Algunos críticos, no obstante, los despreciaron; dijeron que todo eso era pura diversión pero evidentemente imposible. Las pistolas de rayos que destruyen planetas del tamaño de la Luna son imposibles, como lo son las espadas hechas de haces luminosos solidificados. Esta vez, el maestro de los efectos especiales, había ido demasiado lejos.

Aunque quizá sea difícil de creer, el hecho es que no hay ningún límite físico a la cantidad de energía bruta que puede acumularse en un haz de luz. No hay ninguna ley de la física que impida la creación de una Estrella de la Muerte o de sables luminosos. De hecho, haces de radiación gamma que destruyen planetas existen en la naturaleza. La titánica ráfaga de radiación procedente de un lejano estallido de rayos gamma en el espacio profundo crea una explosión solo superada por el
propio Big Bang. Cualquier planeta que desafortunadamente esté dentro de la diana de un estallido de rayos gamma será incinerado o reducido a pedazos o quizás menos que pedazos…

Ilustración de un estallido de rayos gamma.

LAS ARMAS DE RAYOS A TRAVÉS DE LA HISTORIA

El sueño de dominar haces de energía no es realmente nuevo, sino que está enraizado en la mitología y el folclore antiguos. El dios griego Zeus era famoso por arrojar rayos sobre los mortales. El dios nórdico Thor tenía un martillo mágico, Mjolnir, que podía desprender rayos, mientras que el dios hindú Indra era conocido por disparar haces de energía desde una lanza mágica. 

Pintura que ilustra al dios Zeus y el poder del rayo.

La idea de utilizar rayos como un arma práctica empezó probablemente con la obra del gran matemático griego Arquímedes, quizá el científico más importante de la Antigüedad, que descubrió una cruda versión del cálculo infinitesimal hace dos mil años, antes de Newton y Leibniz. Arquímedes sirvió en la defensa del reino de Siracusa en una batalla legendaria contra las fuerzas del general romano Marcelo durante la segunda guerra púnica, en el 214 a.C. Se dice que creó grandes baterías de reflectores solares que concentraban los rayos del Sol en las velas de las naves enemigas y las incendiaba. (Todavía hoy los científicos discuten sobre si esto era un arma de rayos practicable; varios equipos de científicos han tratado de repetir esta hazaña con diferentes resultados).

Funcionamiento de la estrategia de Arquímedes para derrotar a los romanos.

Las pistolas de rayos irrumpen en el escenario de la ciencia ficción en 1889 con el clásico de H. G. Wells La guerra de los mundos, en el que alienígenas procedentes de Marte devastan ciudades enteras disparando haces de energía térmica desde armas montadas en trípodes. Durante la Segunda Guerra Mundial, los nazis, siempre dispuestos a explotar los últimos avances en tecnología para conquistar el mundo, experimentaron con varias formas de pistolas de rayos, incluido un aparato sónico, basado en espejos parabólicos, que podía concentrar intensos haces de sonido. Las armas creadas a partir de haces luminosos concentrados pasaron a formar parte del imaginario colectivo con la película de James Bond Goldfinger, el primer film de Hollywood en el que aparecía un láser. (El legendario espía británico estaba tendido y sujeto con correas en una mesa metálica mientras un potente haz láser que avanzaba lentamente entre sus piernas iba fundiendo la mesa y amenazaba con cortarle por la mitad).

James Bond a punto de ser cortado a la mitad por un rayo láser.

Al principio, los físicos se mofaron de la idea de las pistolas de rayos que aparecían en la novela de Wells porque violaban las leyes de la óptica. De acuerdo con las ecuaciones de Maxwell, la luz que vemos a nuestro alrededor se dispersa rápidamente y es incoherente (es decir, es una mezcla de ondas de diferentes frecuencias y fases). En otro tiempo se pensaba que haces de luz uniformes, coherentes y concentrados, como los que encontramos en los haces láser, eran imposibles.

LA REVOLUCIÓN CUÁNTICA

Todo esto cambió con la llegada de la teoría cuántica. A comienzos del siglo XX estaba claro que aunque las leyes de Newton y las ecuaciones de Maxwell eran espectacularmente acertadas para explicar el movimiento de los planetas y el comportamiento de la luz, no podían explicar toda una clase de fenómenos. Fallaban estrepitosamente para explicar por qué los materiales conducen la electricidad, por qué los metales se funden a ciertas temperaturas, por qué los gases emiten luz cuando son calentados, por qué ciertas sustancias se hacen superconductoras a bajas temperaturas —todo lo cual requiere una comprensión de la dinámica interna de los átomos—. Había llegado el tiempo para una revolución. Doscientos cincuenta años de física newtoniana estaban a punto de ser superados, lo que anunciaba el nacimiento de una nueva física. 

En 1900 Max Planck, en Alemania, propuso que la energía no era continua, como pensaba Newton, sino que se daba en pequeños paquetes discretos llamados «cuantos». Tiempo después, en 1905, Einstein postuló que la luz consistía en estos minúsculos paquetes discretos, más tarde bautizados como «fotones». Con esta idea poderosa pero simple, Einstein fue capaz de explicar el efecto fotoeléctrico, por qué los metales que reciben luz emiten electrones.

Hoy, el efecto fotoeléctrico y el fotón forman la base de la televisión, los láseres, las células solares y buena parte de la electrónica moderna. La teoría de Einstein del fotón era tan revolucionaria que incluso Max Planck, normalmente un gran defensor de Einstein, no podía creerla al principio. Al escribir sobre Einstein, Planck dijo «que a veces pueda haber errado el blanco […] como por ejemplo, en su hipótesis de los cuantos de luz, no puede realmente alegarse en su contra». 

Y no podía faltar Einstein…

En 1913 el físico danés Niels Bohr nos dio una imagen del átomo completamente nueva, una imagen que se parecía a un sistema solar en miniatura. Pero a diferencia de lo que ocurre en un sistema solar en el espacio exterior, los electrones solo pueden moverse en órbitas o capas discretas alrededor del núcleo. Cuando los electrones «saltaban» de una capa a otra capa más interna con menor energía, emitían un fotón de energía. Cuando un electrón absorbía un fotón de energía discreta, «saltaba» a una capa más grande con más energía. Una teoría del átomo casi completa surgió en 1925 con la llegada de la mecánica cuántica y la obra revolucionaria de Erwin Schródinger, Werner Heisenberg y muchos otros. Según la teoría cuántica, el electrón era una partícula, pero tenía una onda asociada con ella, lo que le daba propiedades de partícula y de onda a la vez. La onda obedecía a una ecuación, llamada ecuación de onda de Schródinger, que permitía calcular las propiedades de los átomos, incluidos todos los «saltos» postulados por Bohr.

Antes de 1925 los átomos todavía eran considerados objetos misteriosos que muchos, como el filósofo Ernst Mach, creían que no podían existir. Después de 1925 se podía observar realmente la dinámica del átomo y predecir realmente sus propiedades. Esto significaba que si tuviéramos un ordenador suficientemente grande, podríamos derivar las propiedades de los elementos químicos a partir de las leyes de la teoría cuántica. De la misma forma que los físicos newtonianos podrían calcular los movimientos de todos los cuerpos celestes en el universo si tuvieran una  máquina de calcular suficientemente grande, los físicos cuánticos afirmaban que en teoría se podrían calcular todas las propiedades de los elementos químicos del universo. Si tuviéramos un ordenador suficientemente grande, también podríamos escribir la función de onda de un ser humano entero.

MÁSERES Y LÁSERES 

En 1953 el profesor Charles Townes de la Universidad de California en Berkeley y sus colegas produjeron la primera fuente de radiación coherente en forma de microondas. Fue bautizada como «máser» (las siglas de amplificación de microondas mediante emisión estimulada de radiación). El y los físicos rusos Nikolái Basov y Alexander Projorov ganarían el premio Nobel en 1964. Sus resultados fueron extendidos pronto a la luz visible, lo que dio nacimiento al láser. (Un fáser, sin embargo, es un aparato de ficción popularizado en Star Trek).

El primer Máser.

En un láser se empieza con un medio especial que transmitirá el haz láser, tal como un gas, un cristal o un diodo especial. Luego se bombea energía en este medio desde el exterior, en forma de electricidad, radio, luz o una reacción química. Este repentino flujo de energía se transmite a los átomos del medio, de modo que los electrones absorben la energía y saltan a las capas electrónicas más externas. En este estado excitado el medio es inestable.

Si se envía entonces un haz de luz a través del medio, los fotones incidirán en cada átomo y harán que se desexciten repentinamente, caigan a un nivel inferior y liberen más fotones en el proceso. Esto produce a su vez aún más electrones que liberan fotones, y por último se crea una cascada de átomos que colapsan, lo que libera repentinamente en el haz billones y billones de fotones.

La clave es que, para ciertas sustancias, cuando se produce esta avalancha todos los fotones están vibrando al unísono, es decir, son coherentes. (Imaginemos una hilera de fichas de dominó. Las fichas de dominó en su estado más bajo están tumbadas sobre la mesa. Las fichas en su estado bombeado de alta energía permanecen verticales, similares a los átomos excitados por bombeo en el medio. Si empujamos una ficha, podemos desencadenar un repentino colapso de toda esta energía de una vez, igual que en un haz láser).

Solo ciertos materiales «lasearán», es decir, solo en materiales especiales sucede que cuando un fotón incide en un átomo bombeado se emitirá otro fotón que es coherente con el fotón original. Como resultado de tal coherencia, en este diluvio de fotones todos los fotones vibran al unísono, creando un haz láser fino como un pincel. (Contrariamente al mito, el haz láser no permanece siempre fino como un pincel. Un haz láser dirigido a la Luna, por ejemplo, se expandirá poco a poco hasta que cree una mancha de algunos kilómetros de diámetro). Un sencillo láser de gas consiste en un tubo con helio y neón. Cuando se envía electricidad a través del tubo, los átomos se energizan. Entonces, si la energía se libera de golpe, se produce un haz de luz coherente. El haz se amplifica colocando espejos en cada extremo del tubo, de modo que el haz rebota de un lado a otro entre ambos. Un espejo es completamente opaco, pero el otro permite que escape una pequeña cantidad de energía en cada paso, de manera que sale un haz luminoso por dicho extremo. 

Esquema de un máser de hidrógeno.

Hoy día encontramos láseres en casi todas partes, desde las cajas registradoras de los supermercados a los ordenadores  modernos, pasando por los cables de fibra óptica que conectan con internet, las impresoras láser y los reproductores de CD. También se utilizan en cirugía ocular, o para eliminar tatuajes, e incluso en salones de belleza. En 2004 se vendieron en todo el mundo láseres por valor de más de 5.400 millones de dólares.

TIPOS DE LÁSERES 

Cada día se descubren nuevos láseres a medida que se encuentran nuevos materiales que pueden «lasear», y a medida que se descubren nuevas maneras de bombear energía al medio. 

La pregunta es: ¿son algunas de estas técnicas apropiadas para construir un láser suficientemente potente para alimentar una Estrella de la Muerte? Hoy hay una desconcertante variedad de láseres, dependiendo del material que «lasea» y de la energía que es inyectada en el material (por ejemplo, electricidad, haces intensos de luz, incluso explosiones químicas). Entre ellos:

  • Láseres de gas. Entre estos se incluyen los láseres de helio-neón, que son muy comunes y dan un familiar haz rojo. Son alimentados mediante ondas de radio o electricidad. Los láseres de helio-neón son muy débiles. Pero los láseres de dióxido de carbono pueden utilizase para moldear, cortar y soldar en la industria pesada, y pueden crear haces de enorme potencia que son totalmente invisibles.
  • Láseres químicos. Estos potentes láseres son alimentados por una reacción química, tal como un chorro ardiente de etileno y trifluoruro de nitrógeno, o NE,. Tales láseres son suficientemente potentes para ser utilizados en aplicaciones militares. Láseres químicos se utilizan en láseres del ejército de Estados Unidos, basados en tierra o en el aire, que pueden producir millones de vatios de potencia y están diseñados para disparar contra misiles de corto alcance en pleno vuelo. 
  • Láseres de excímero. Estos láseres también están alimentados por reacciones químicas, en las que con frecuencia interviene un gas inerte (por ejemplo, argón, kriptón o xenón) y flúor o cloro. Producen luz ultravioleta y pueden utilizarse para grabar minúsculos transistores en chips en la industria de semiconductores, o para cirugía ocular delicada. 
  • Láseres de estado sólido. El primer láser operativo construido consistía en un cristal de rubí de zafiro-cromo. Una gran variedad de cristales, junto con tulio y otros elementos químicos, soportará un haz láser. Pueden producir pulsos ultracortos de luz láser de alta energía. 
  • Láseres de semiconductor. Diodos, que normalmente se utilizan en la industria de semiconductores, pueden producir los haces intensos utilizados en la industria de corte y soldadura. También suelen encontrarse en las cajas registradoras de los supermercados para leer el código de barras de los productos. 
  • Láseres de colorante. Estos láseres utilizan colorantes orgánicos como medio. Son excepcionalmente útiles para crear pulsos ultracortos de luz, que con frecuencia solo duran billonésimas de segundo.

LÁSERES Y PISTOLAS DE RAYOS

Dada la gran variedad de láseres comerciales y la potencia de los láseres militares, ¿por qué no tenemos pistolas de rayos aptas para usar en combate o en el campo de batalla? Pistolas de rayos de uno u otro tipo parecen ser algo estándar en el armamento de las películas de ciencia ficción. ¿Por qué no estamos trabajando para crearlas? La simple respuesta está en la falta de una batería portátil. Se necesitarían baterías en miniatura que tuvieran la potencia de una enorme central eléctrica y pese a todo sean suficientemente pequeñas para caber en la palma de la mano. Hoy día la única manera de dominar la potencia de una gran central nuclear es construir una. Actualmente el aparato militar más pequeño que puede contener grandes cantidades de energía es una bomba de hidrógeno en miniatura, que podría destruir tanto a quien la lleva como al blanco.

Pistolas láser, de ser posibles serian mas pequeñas, creo…

Hay también un segundo problema: la estabilidad del material del láser. En teoría no hay límite a la energía que se puede  concentrar en un láser. El problema es que el material del láser en una pistola  de rayos manual no sería estable. Los láseres de cristal, por ejemplo, se sobrecalentarán y agrietarán si se bombea en ellos demasiada energía. Así, para crear un láser extraordinariamente potente, del tipo que pudiera vaporizar un objeto o  neutralizar a un enemigo, sería necesario utilizarla  potencia de una explosión. En tal caso, la estabilidad del material del láser no es una limitación, puesto que dicho láser solo se utilizaría una vez.

La manipulación de un láser requiere de mucho cuidado.

Debido a los problemas de crear una batería portátil y un material de láser estable, no es posible construir una pistola de rayos manual con la tecnología actual. Las pistolas de rayos son posibles, pero solo si están conectadas por cable a una fuente de alimentación. O quizá con nanotecnología podríamos ser capaces de crear baterías en miniatura que almacenen o generen energía suficiente para crear las intensas ráfagas de energía requeridas en un dispositivo manual. Actualmente, como hemos visto, la nanotecnología es muy primitiva. En el nivel atómico los científicos han sido capaces de crear dispositivos atómicos muy ingeniosos, pero poco prácticos, tales como un ábaco atómico y una guitarra atómica. Pero es concebible que a finales de este siglo o en el próximo la nanotecnología sea capaz de darnos baterías en miniatura que puedan almacenar esas fabulosas cantidades de energía.

Un rayo de luz no puede solidificarse ni detenerse.

Los sables de luz adolecen de un problema similar. Cuando se estrenó la película La guerra de las galaxias en los años setenta y los sables de luz se convirtieron en un juguete de éxito entre los niños, muchos críticos señalaron que tales artefactos nunca podrían hacerse. En primer lugar, es imposible solidificar la luz. La luz viaja siempre a la velocidad de la luz, no puede hacerse sólida. En segundo lugar, un haz luminoso no termina en medio del aire como los sables de luz utilizados en La guerra de las galaxias. Los haces luminosos se prolongan indefinidamente; un sable de luz real llegaría al cielo.

Esquema de un posible sable de luz “normal”.

En realidad, hay una manera de construir una especie de sable de luz utilizando plasma, o gas ionizado supercaliente. Pueden hacerse plasmas suficientemente calientes para brillar en la oscuridad y también cortar el acero. Un sable de luz de plasma consistiría en una vara delgada y hueca que sale del mango, como una antena telescópica. Dentro de este tubo se liberarían plasmas calientes que escaparían a través de pequeños agujeros situados regularmente a lo largo de la varilla. A medida que el plasma fluyera desde el mango hasta la varilla, y a través de los agujeros, crearía un tubo largo y brillante de gas supercaliente, suficiente para fundir el acero. Este aparato se suele conocer como una antorcha de plasma.

Lo mas parecido a un sable láser es una antorcha de plasma.

Así pues, es posible crear un dispositivo de alta energía que se parece a un sable de luz. Pero como sucede con las pistolas de rayos, sería necesario crear una batería portátil de alta energía. O bien se necesitarían largos cables que conectaran el sable de luz a una fuente de alimentación, o habría que crear, mediante la nanotecnología, una minúscula fuente de alimentación que pudiera suministrar enormes cantidades de potencia. De modo que aunque hoy es posible crear alguna forma de pistolas de rayos y sables de luz, las armas manuales que se encuentran en las películas de ciencia ficción están más allá de la tecnología actual.

ENERGÍA PARA UNA ESTRELLA DE LA MUERTE

Para crear un cañón láser Estrella de la Muerte que pueda destruir un planeta entero y aterrorizar a una galaxia, tal como el que se describe en La guerra de las galaxias, habría que crear el láser más potente que se haya imaginado jamás. Actualmente algunos de los láseres más potentes en la Tierra se están utilizando para producir temperaturas que solo se encuentran en el centro de las estrellas. En forma de reactores de fusión, algún día podrían dominar la potencia de las estrellas en la Tierra.

Reacción de Fusión.

Las máquinas de fusión tratan de imitar lo que sucede en el espacio exterior cuando se forma una estrella. Una estrella empieza como una enorme bola de gas hidrógeno, hasta que la gravedad comprime el gas y con ello lo calienta; las temperaturas llegan a alcanzar niveles astronómicos. En el interior profundo de un núcleo estelar, por ejemplo, las temperaturas pueden ser entre 50 millones y 100 millones de grados centígrados, suficientes para hacer que los núcleos de hidrógeno choquen unos con otros y formen núcleos de helio; en el proceso se libera una ráfaga de energía. La fusión del hidrógeno en helio, en la que una pequeña cantidad de masa se convierte en energía mediante la famosa ecuación de Einstein E = mc2, es la fuente de energía de las estrellas.

La Estrella de la Muerte y su fuente de poder.

Hoy día los científicos ensayan dos maneras de dominar la fusión en la Tierra. Ambas han resultado ser muchos más difíciles de desarrollar de lo esperado.

Fusión por confinamiento inercial 

El primer método se llama «confinamiento inercial». Utiliza los láseres más potentes en la Tierra para crear un pedazo de Sol en el laboratorio. Un láser de estado sólido de neodimio es idóneo para reproducir las temperaturas abrasadoras que solo se encuentran en el corazón de una estrella. Estos sistemas de láser tienen el tamaño de una gran fábrica y contienen una batería de láseres que disparan una serie de haces láser paralelos a través de un largo túnel. Estos haces láser de alta potencia inciden en una serie de pequeños espejos dispuestos alrededor de una esfera; los espejos concentran cuidadosamente los haces láser en una minúscula ampolla rica en hidrógeno (hecha de sustancias tales como deuteruro de litio, el ingrediente activo de una bomba de hidrógeno). La ampolla tiene normalmente el tamaño de una cabeza de alfiler y solo pesa 10 miligramos.

El golpe de luz láser incinera la superficie de la ampolla, lo que hace que la superficie se vaporice y comprima la ampolla. Cuando la ampolla colapsa se crea una onda de choque que llega al corazón de la ampolla y hace subir la temperatura a millones de grados, suficiente para fusionar los núcleos de hidrógeno en helio. Las temperaturas y presiones son tan astronómicas que se satisface el «criterio de Lawson», el mismo criterio que se satisface en las bombas de hidrógeno y en el corazón de las estrellas. (El criterio de Lawson establece que debe alcanzarse un rango específico de temperaturas, densidades y tiempo de confinamiento para desatar el proceso de fusión, sea en una bomba de hidrógeno, una estrella o en un reactor de fusión).

En el proceso de confinamiento inercial se liberan enormes cantidades de energía, y también neutrones. (El deuteruro de litio puede llegar a temperaturas de 100 millones de grados centígrados y una densidad veinte veces mayor que la del plomo). Los neutrones que se emiten desde la ampolla inciden en una capa esférica de material que recubre la cámara, y la capa se calienta. La capa calentada hace hervir agua y el vapor puede utilizarse para impulsar una turbina y producir electricidad.

El problema, no obstante, está en ser capaces de concentrar uniformemente una potencia tan intensa en una minúscula ampolla esférica. El primer intento serio de crear fusión por láser fue el láser Shiva, un sistema láser de veinte haces construido en el Laboratorio Nacional Lawrence Livermore (LLNL) en California, que empezó a operar en 1978. (Shiva es la diosa hindú de múltiples brazos, a los que imita el diseño del sistema láser). La actuación del sistema láser Shiva fue decepcionante, pero fue suficiente para demostrar que la fusión por láser es técnicamente posible. El sistema láser Shiva fue reemplazado más tarde por el láser Nova, con una energía diez veces mayor que la de Shiva. Pero el láser Nova tampoco consiguió una ignición adecuada de las ampollas. En cualquier caso, preparó el camino para la investigación actual en la Instalación Nacional de Ignición (NIF), cuya construcción empezó en 1997 en el LLNL.

Pero ni siquiera la máquina de fusión por láser de la NIF, que contiene los láseres más potentes de la Tierra, puede acercarse de momento al poder devastador de la Estrella de la Muerte de La guerra de las galaxias. Para construir tal aparato debemos buscar en otras fuentes de potencia.

Fusión por confinamiento magnético 

El segundo método que los científicos podrían utilizar para alimentar una Estrella de la Muerte se llama «confinamiento magnético», un proceso en el que un plasma caliente de hidrógeno gaseoso está contenido dentro de un campo magnético. De hecho, este método podría proporcionar realmente el prototipo para los primeros reactores de fusión comerciales. Hoy día, el proyecto de fusión más avanzado de este tipo es el Reactor Experimental Termonuclear Internacional (ITER).En 2006 un consorcio de naciones (incluidas la Unión Europea, Estados Unidos, China, Japón, Corea, Rusia y la India) decidió construir el ITER en Cadarache, al sur de Francia. Está diseñado para calentar hidrógeno gaseoso hasta 100 millones de grados centígrados. Podría convertirse en el primer reactor de fusión en la historia que genere más energía que la que consume. Está diseñado para generar 500 megavatios de potencia durante 500 segundos (el récord actual es 16 megavatios de potencia durante 1 segundo).

Logotipo de la ITER

El ITER debería generar su primer plasma para 2016 y estar plenamente operativo en 2022. Con un coste de 12.000 millones de dólares, es el tercer proyecto científico más caro de la historia (después del Proyecto Manhattan y la Estación Espacial Internacional). El ITER se parece a un gran donut, con enormes bobinas enrolladas alrededor de la superficie por cuyo interior circula hidrógeno gaseoso. Las bobinas se enfrían hasta hacerse superconductoras, y entonces se bombea en ellas una enorme cantidad de energía eléctrica, lo que crea un campo magnético que confina el plasma dentro del donut. Cuando este se alimenta con una corriente eléctrica, el gas se calienta hasta temperaturas estelares.

La razón de que los científicos estén tan excitados con el ITER es la perspectiva de crear una fuente de energía barata. El suministro de combustible para los reactores de fusión es agua de mar ordinaria, que es rica en hidrógeno. Sobre el papel al menos, la fusión puede proporcionarnos un suministro de energía inagotable y barato. Entonces, ¿por qué no tenemos ahora reactores de fusión? ¿Por qué se han necesitado tantas  décadas para hacer progresos si el proceso de fusión ya era conocido en la década de 1950? El problema reside en la enorme dificultad de comprimir el combustible hidrógeno de un modo uniforme. En las estrellas la gravedad comprime el hidrógeno en una esfera perfecta, de modo que el gas se caliente uniforme y limpiamente. En la fusión por láser de la NIF, los haces concéntricos de luz láser que incineran la superficie de la ampolla deben ser perfectamente uniformes, y es extraordinariamente difícil conseguir esta uniformidad.

En las máquinas de confinamiento magnético, los campos magnéticos tienen polos norte y polos sur; como resultado, comprimir el gas uniformemente en una esfera es extremadamente difícil. Lo mejor que podemos hacer es crear un campo magnético en forma de donut. Pero comprimir el gas es como estrujar un globo. Cada vez que se estruja el globo por un extremo, el aire infla alguna otra parte. Estrujar el globo uniforme y simultáneamente en todas direcciones es un reto difícil. Normalmente el gas caliente se escapa de la botella magnética, toca eventualmente las paredes del reactor y detiene el proceso de fusión. Por eso ha sido tan difícil estrujar el hidrógeno durante más de un segundo. A diferencia de la generación actual de centrales nucleares de fisión, un reactor de fusión no creará grandes cantidades de residuos nucleares. (Cada central de fisión tradicional produce cada año 30 toneladas de residuos nucleares de un nivel extremadamente alto. Por el contrario, el residuo nuclear creado por una máquina de fusión sería básicamente el acero radiactivo que quedaría cuando el reactor fuera finalmente desmantelado).

La fusión no resolverá por completo la crisis energética de la Tierra en un futuro cercano; según el francés Pierre-Gilles de Gennes, premio Nobel de Física, «Decimos que pondremos el Sol en una caja. La idea es bonita. El problema es que no sabemos cómo hacer la caja». Pero si todo va bien, los investigadores tienen esperanzas de que en menos de cuarenta años el ITER pueda allanar  el camino para la comercialización de la energía de fusión, energía que puede proporcionar electricidad para nuestros hogares. Algún día, los reactores de fusión aliviarán nuestro problema energético, liberando con seguridad la potencia del Sol sobre la Tierra. Pero ni siquiera los reactores de fusión por confinamiento magnético ofrecerían suficiente energía para alimentar un arma como la Estrella de la Muerte. Para eso necesitaríamos un diseño totalmente nuevo.

LÁSERES DE RAYOS X CON DETONADOR NUCLEAR

Hay otra posibilidad para simular un cañón láser Estrella de la Muerte con la tecnología conocida hoy, y es con una bomba de hidrógeno. Una batería de láseres de rayos X que aproveche y concentre la potencia de las armas nucleares podría generar en teoría suficiente energía para activar un dispositivo que podría incinerar un planeta entero.  La fuerza nuclear libera una energía que, para una misma cantidad de material, es unos 100 millones de veces mayor que la liberada en una reacción química. Un trozo de uranio enriquecido no mayor que una pelota de tenis es suficiente para incinerar toda una ciudad y convertirla en una bola de fuego —incluso si solo el 1 por ciento de su masa se ha convertido en energía—. Como ya
se ha dicho, hay varias maneras de inyectar energía en un haz láser. La más potente de todas, con mucho, es utilizar la fuerza liberada por una bomba nuclear.

Los láseres de rayos X tienen un enorme valor científico además de militar. Debido a su longitud de onda muy corta pueden utilizase para sondear distancias atómicas y descifrar la estructura atómica de moléculas complejas, una hazaña que es extraordinariamente difícil utilizando métodos ordinarios. Toda una nueva ventana a las reacciones químicas se abre cuando podemos «mirar» los propios átomos en movimiento y su disposición adecuada dentro de una molécula. Puesto que una bomba de hidrógeno emite una enorme cantidad de energía en el rango de rayos X, los láseres de rayos X también pueden ser alimentados por armas nucleares. La persona más estrechamente vinculada con el láser de rayos X es el físico Edward Teller, padre de la bomba de hidrógeno.

Edward Teller, padre de la bomba de hidrógeno.

De todos es sabido que Teller fue el físico que declaró ante el Congreso en los años cincuenta que Robert Oppenheimer, que había dirigido el Proyecto Manhattan, no era digno de confianza para seguir trabajando en la bomba de hidrógeno debido a sus ideas políticas. El testimonio de Teller llevó a que Oppenheimer cayera en desgracia y se le revocara su credencial de seguridad; muchos físicos destacados nunca perdonaron a Teller lo que hizo. Básicamente, el láser de rayos X de Teller es una pequeña bomba nuclear rodeada de varillas de cobre. La detonación del arma nuclear libera una onda de choque esférica de rayos X intensos. Estos rayos X energéticos atraviesan las varillas de cobre, que actúan como el material del láser y concentran la potencia de los rayos X en haces intensos. Estos haces de rayos X podrían dirigirse luego hacia cabezas nucleares enemigas. Por supuesto, un artefacto semejante solo se podría utilizar una vez, puesto que la detonación nuclear
hace que el láser de rayos X se autodestruya.

El test inicial de un láser de rayos X alimentado nuclearmente fue llamado el test Cabra, y se llevó a cabo en 1983 en un pozo subterráneo. Se detonó una bomba de hidrógeno cuyo diluvio de rayos X incoherentes fue luego concentrado en un haz láser de rayos X coherente.

Al principio el test fue considerado un éxito, y de hecho en 1983 inspiró al presidente Ronald Reagan para anunciar, en un discurso histórico, su intención de construir un escudo defensivo «guerra de las galaxias». Así se puso en marcha un proyecto de muchos miles de millones de dólares, que continúa todavía hoy, para construir una serie de artefactos como el láser de rayos X alimentado nuclearmente para acabar con los misiles balísticos intercontinentales (ICBM) enemigos. (Una investigación posterior demostró que el detector utilizado para realizar las medidas durante el test Cabra quedó destruido; por lo tanto sus medidas no eran fiables).

LA FÍSICA DE UNA ESTRELLA DE LA MUERTE

¿Pueden crearse armas capaces de destruir un planeta entero, como en La guerra de las  galaxias? En teoría, la respuesta es  sí. Habría varias formas de crearlas. En primer lugar, no hay ningún límite físico a la energía que puede liberar una bomba de hidrógeno. He aquí cómo funciona. (Los detalles precisos de la bomba de hidrógeno son alto secreto e incluso hoy están clasificadas por el Gobierno de Estados Unidos, pero las líneas generales son bien conocidas). Una bomba de hidrógeno se construye en realidad en muchas etapas. Mediante una secuencia adecuada de esas etapas, se puede producir una bomba nuclear de magnitud casi arbitraria.

La primera etapa consiste en una bomba de fisión estándar, que utiliza el poder del uranio 235 para liberar una ráfaga de rayos X, como sucedió en la bomba de Hiroshima. Una fracción de segundo antes de que la onda explosiva de la bomba atómica lo destroce todo, la esfera de rayos X en expansión alcanza a la onda (puesto que viaja a la velocidad de la luz), que es entonces reconcentrada en un contenedor de deuteruro de litio, la sustancia activa de una bomba de hidrógeno.(Cómo se hace esto exactamente sigue siendo materia reservada).

Los rayos X que inciden en el deuteruro de litio hacen que colapse y se caliente hasta millones de grados, lo que provoca una segunda explosión, mucho mayor que la primera. La ráfaga de rayos X procedente de esta bomba de hidrógeno puede luego ser reconcentrada en un segundo trozo de deuteruro de litio, lo que provoca una tercera explosión. De esta manera, se pueden apilar capas de deuteruro de litio y crear una bomba de hidrógeno de magnitud inimaginable.

De hecho, la mayor bomba de hidrógeno construida fue una de dos etapas detonada por la Unión Soviética en 1961, que liberó una energía de 50 millones de toneladas de TNT, aunque teóricamente era capaz de un explosión equivalente a más de 100 millones de toneladas de TNT (unas 5.000 veces la potencia de la bomba de Hiroshima). Incinerar un planeta entero, sin embargo, es algo de una magnitud completamente diferente. Para esto, la Estrella de la Muerte tendría que lanzar miles de tales láseres de rayos X al espacio, y luego sería necesario dispararlos todos a la vez. (Recordemos, por comparación, que en el apogeo de la guerra fría Estados Unidos y la Unión Soviética almacenaban unas 30.000 bombas nucleares cada uno).

La energía total de un número tan enorme de láseres de rayos X sería suficiente para incinerar la superficie de un planeta. Por lo tanto, sería ciertamente posible que un imperio galáctico a cientos de miles de años en el futuro creara un arma semejante. Para una civilización muy avanzada hay una segunda opción: crear una Estrella de la Muerte utilizando la energía de un estallido de rayos gamma. Una Estrella de la Muerte semejante liberaría una ráfaga de radiación solo superada por el big bang. Los estallidos de rayos gamma ocurren de forma natural en el espacio exterior, pero es concebible que una civilización avanzada pudiera dominar su enorme poder. Controlando el giro de una estrella mucho antes de que sufra  un colapso y produzca una hipernova, se podría dirigir el estallido de rayos gamma a cualquier punto del espacio.

ESTALLIDOS DE RALLOS GAMMA 

Los estallidos de rayos gamma se vieron realmente por primera vez en la década de 1970, cuando el ejército de Estados Unidos lanzó el satélite Vela para detectar «destellos nucleares» (pruebas de una detonación no autorizada de una bomba nuclear). Pero en lugar de detectar destellos nucleares, el satélite Vela detectó enorme ráfagas de radiación procedentes del espacio.

Satélite Vela.

Al principio, el descubrimiento sembró el pánico en el Pentágono: ¿estaban los soviéticos probando una nueva arma nuclear en el espacio exterior? Más tarde se determinó que esas ráfagas de radiación llegaban uniformemente de todas las direcciones del cielo, lo que significaba que en realidad procedían de fuera de la Vía Láctea. Pero si eran extragalácticas, debían estar liberando  cantidades de energía verdaderamente astronómicas, suficientes para iluminar todo el universo visible.

Cuando la Unión Soviética se descompuso en 1990, el Pentágono desclasificó un gran volumen de datos astronómicos, lo que abrumó a los astrónomos. De repente, los astrónomos comprendieron que tenían delante un fenómeno nuevo y misterioso, un fenómeno que requeriría reescribir los libros de texto de ciencia. Puesto que los estallidos de rayos gamma duran solo de algunos segundos a unos pocos minutos antes de desaparecer, se requiere un elaborado sistema de sensores para detectarlos y analizarlos. Primero, los satélites detectan la ráfaga de radiación inicial y envían las coordenadas exactas de la ráfaga a la Tierra. Estas coordenadas son entonces introducidas en telescopios ópticos o radiotelescopios, que apuntan hacia la localización exacta del estallido de rayos gamma.

Aunque quedan muchos detalles por clarificar, una teoría sobre los orígenes de los estallidos de rayos gamma es que son «hipernovas» de enorme potencia que dejan tras ellas agujeros negros masivos. Es como si los estallidos de rayos gamma fueran agujeros negros monstruosos en formación. Pero los agujeros negros emiten dos «chorros» de radiación, uno desde el polo norte y otro desde el polo sur, como una peonza que gira. La radiación que se ve procedente de un estallido de rayos gamma distante es, al parecer, uno de los chorros que apunta hacia la Tierra. Si el chorro de un estallido de rayos gamma estuviera dirigido a la Tierra y el estallido de rayos gamma estuviese en nuestra vecindad galáctica (a unos pocos centenares de años luz de la Tierra), su potencia sería suficiente para destruir toda la vida en nuestro planeta. 

Inicialmente, el pulso de rayos X del estallido de rayos gamma crearía un pulso electromagnético que barrería todos los equipos electrónicos en la  Tierra. Su intenso haz de rayos X y rayos gamma sería suficiente para dañar la atmósfera de la Tierra y destruir nuestra capa de ozono protectora. El chorro del estallido de rayos gamma calentaría la superficie de la Tierra a grandes temperaturas, lo que eventualmente provocaría enormes tormentas que abarcarían todo el planeta. Quizá el estallido de rayos gamma no hiciera explotar en realidad al planeta, como en la película La guerra de las galaxias, pero sin duda destruiría toda la vida, dejando un planeta desolado.

Es concebible que una civilización centenares de miles o un millón de años más avanzada que la nuestra fuera capaz de dirigir un agujero negro semejante en la dirección de un blanco. Esto podría hacerse desviando la trayectoria de planetas y estrellas de neutrones hacia la estrella moribunda a un ángulo preciso antes de que colapse. Esta desviación sería suficiente para cambiar el eje de giro de la estrella de modo que pudiera apuntarse en una dirección dada. Una  estrella moribunda sería el mayor cañón de rayos imaginable. Y para los habitantes del planeta objetivo seria el fin, esperemos que a nuestra querida Tierra no le ocurra nada parecido…

Esta entrada participa en la XXXIX Edición del Carnaval de la Física, que esta siendo organizado en esta ocasión por el blog El zombi de Schrödinger. ]

REFERENCIAS |

El Sistema Solar que pocos conocen

 

Quizás el titulo de este articulo sea un tanto polémico, pero no se me ocurrió ninguno mejor para llamar la atención sobre un tema importante en la Astronomía, una idea que aun en esta época es muy poco conocida pero que mentes atentas, mentes curiosas como la de usted querido lector,  ya han experimentado esa oleada de incertidumbre y ganas de descubrir la verdad que a todos, alguna vez en la vida, nos invade y no nos deja tranquilos.

La idea principal de este artículo lo podemos resumir en una pregunta:

¿De que tamaño es el Sistema Solar?

Para muchos es una respuesta fácil de responder y quizás hasta tonta, ingenua o cosas por el estilo, pero para muchos otros se nos hace un tanto difícil poder responder con precisión, mas que una cantidad expresada en metros o kilómetros, lo que en realidad queremos es hacernos una idea mental de que tan grande es nuestro Sistema Solar (algo muy difícil), no es tan simple, ¿Dónde empieza?, ¿Dónde termina?, ¿Cómo lo sabemos?… esas y muchas otras preguntas se tornan difíciles de responder si no tenemos una solida formación en Ciencias.

El Universo es enorme, absolutamente todos sin excepción lo sabemos, pero aunque posiblemente sea infinito, hoy en día los astrónomos pueden hacer cosas asombrosas con unos juguetitos llamados Telescopios. 

Telescopio Sky-Watcher

En la actualidad estos dispositivos son muy potentes y han venido a acortar las distancias estelares que antes nos parecían insalvables, son tan potentes que inclusive si yo encendiera una cerilla en la Luna usted podría localizar la llama desde la Tierra utilizando un buen Telescopio.

Los telescopios nos han proporcionado  una herramienta imprescindible y eficaz para sondear el enorme y basto Universo al que pertenecemos, nos ha permitido acercarnos a objetos celestes que están al otro lado del Cosmos, hoy en día podemos deducir el tamaño e incluso la habitabilidad potencial de los planetas.

Podemos captar briznas de radiación tan ridículamente leves con radio-telescopios que, la cuantía total de energía recogida del exterior del Sistema Solar por todos ellos juntos, desde que se inicio la recolección en 1951, es “Menos que la energía de un solo copo de nieve al dar en el suelo.”  en palabras del propio Carl Sagan.

Gracias a los telescopios pocas son las cosas que pasan en el Universo y que no puedan descubrir los astrónomos si se lo proponen. Pero aunque podemos ver muy lejos, quizás necesitamos mirar un poco mas cerca.

 

LIMITES DEL SISTEMA SOLAR

Aunque estemos en un Universo enorme, tan grande que nos es posible para la mente humana poder imaginar su extensión, el hombre siempre ha sido ambicioso, siempre quiere llegar mas lejos, mas profundo, queremos descubrir los secretos que aun están ocultos en el otro extremo de nuestro Cosmos, pero la realidad nos golpea con fuerza al notar que ni siquiera conocemos bien lo que esta relativamente cerca de nosotros… de nuestros planetas vecinos.

Para casi todas las personas el límite de nuestro Sistema Solar esta delimitado por el último planeta: Plutón. La mayoría de personas asegura que Plutón es un planeta cuando en realidad fue degradado de esa “categoría” y a pasado a  ser un “planeta enano” tras un intenso debate, la UAI (Unión Astronómica Internacional) decidió el 24 de agosto de 2006, por unanimidad, re-clasificar a Plutón.

Plutón es un “planeta enano”.

Ya hace 6 años desde que se llego a esa decisión que reduciría el número de planetas de 9 a 8 solamente, por experiencia propia puedo decir que he visto a muchas personas que aun creen que Plutón es un planeta mas, he leído varios textos que no han sido corregidos y siguen mostrando gráficos del Sistema Solar donde aun se incluye a Plutón como parte del conjunto de planetas. Y lo que mas me ha sorprendido e irritado es que profesores de escuela siguen enseñando a sus alumnos algo que ha sido modificado hace bastante tiempo y que no es solamente del conocimiento de mentes ilustres, sino de todas las personas en general.

Pero retomando el camino que dejamos hace unos párrafos arriba, si Plutón ya no es considerado un planeta y es para muchos el punto de referencia que delimita el Sistema Solar del resto del Cosmos, ahora que ya no es un planeta. ¿Cual es el límite del Sistema Solar en realidad?

En cuanto al propio Plutón, nadie está seguro del todo de cuál es su tamaño, de qué está hecho, qué tipo de atmósfera tiene e incluso de lo que es realmente. Muchos astrónomos creen que no es en modo alguno un planeta, que sólo es el objeto de mayor tamaño que se ha localizado hasta ahora en una región de desechos galácticos denominada cinturón Kuiper. El cinturón Kuiper fue postulado, en realidad, por un astrónomo llamado F. C. Leonard en 1930, pero el nombre honra a Gerard Kuiper, un holandés que trabajaba en Estados Unidos y que fue quien difundió la idea.

Cinturón de Kuiper.

El cinturón Kuiper es el origen de lo que llamamos cometas de periodo corto (los que pasan con bastante regularidad), el más famoso de los cuales es el cometa Halley. Los cometas de periodo largo, que son más retraídos —y entre los que figuran dos que nos han visitado recientemente, Hale-Bopp y Hyakutake— proceden de la nube Oort, mucho más alejada, y de la que hablaremos más en breve.

La Nube de Oort

¿Y cómo de lejos es eso exactamente? Resulta casi inimaginable. El espacio es sencillamente enorme… Sencillamente enorme y nunca me cansare de decirlo.

Imaginemos, sólo a efectos de edificación y entretenimiento, que estamos a punto de iniciar un viaje en una nave espacial. No vamos a ir muy lejos, sólo hasta el borde de nuestro sistema solar. Pero necesitamos hacernos una idea de lo grande que es el espacio y la pequeña parte del mismo que ocupamos.

Nos vamos de Viaje..!!

La mala noticia es que mucho me temo que no podamos estar de vuelta en casa para la cena. Incluso en el caso de que viajásemos a la velocidad de la luz (300.000 kilómetros por segundo), tardaríamos siete horas en llegar a Plutón. Pero no podemos aproximarnos siquiera a esa velocidad. Tendremos que ir a la velocidad de una nave espacial, y las naves espaciales son bastante más lentas. La velocidad máxima que ha conseguido hasta el momento un artefacto humano es la de las naves espaciales Voyager 1 y 2, que están ahora alejándose de nosotros a unos 56.000 kilómetros por hora.

La Sonda Voyager 1.

La razón de que se lanzasen estas naves cuando se lanzaron (en agosto y septiembre de 1977) era que Júpiter, Saturno, Urano y Neptuno estaban alineados de una forma que sólo se da una vez cada 175 años. Esto permitía a las dos naves utilizar una técnica de «aprovechamiento de la gravedad» por la que eran lanzadas sucesivamente de un gigante gaseoso al siguiente en una especie de versión cósmica de chasquido de látigo. Aun así, tardaron nueve años en llegar a Urano y doce en cruzar la órbita de Plutón.

De una forma u otra, será un viaje largo. Es probable que de lo primero que te des cuenta sea que el espacio tiene un nombre extraordinariamente apropiado y que es muy poco interesante, por desgracia.

Posiblemente nuestro sistema solar sea lo más animado que hay en billones de kilómetros, pero todo el material visible que contiene (el Sol, los planetas y sus lunas, los 1.000 millones de rocas que giran en el cinturón de asteroides, los cometas y demás cuerpos a la deriva) ocupan menos de una billonésima parte del espacio disponible.

 Te darás cuenta también enseguida de que ninguno de los mapas que hayas podido ver del sistema solar estaba dibujado ni siquiera remotamente a escala. La mayoría de los mapas que se ven en las clases muestra los planetas uno detrás de otro a intervalos de buena vecindad —los gigantes exteriores llegan incluso a proyectar sombras unos sobre otros en algunas ilustraciones) —, pero se trata de un engaño necesario para poder incluirlos a todos en la misma hoja. 

Sistema Solar representado sin escala

En verdad, Neptuno no está un poquito más lejos que Júpiter. Está mucho más allá de Júpiter, cinco veces más que la distancia que separa a Júpiter de la Tierra, tan lejos que recibe sólo un 3 % de la luz que recibe Júpiter. Las distancias son tales, en realidad, que no es prácticamente posible dibujar a escala el sistema solar. Aunque añadieses montones de páginas plegadas a los libros de texto o utilizases una hoja de papel de cartel realmente muy grande, no podrías aproximarte siquiera.

En un dibujo a escala del sistema solar, con la Tierra reducida al diámetro aproximado de un guisante, Júpiter estaría a 300 metros de distancia y, Plutón, a 2,5 kilómetros —y sería del tamaño similar al de una bacteria, así que de todos modos no podrías verlo—. A la misma escala, Próxima Centauri, que es la estrella que nos queda más cerca, estaría a 16.000 kilómetros de distancia. Aunque lo redujeses todo de tamaño hasta el punto en que Júpiter fuese tan pequeño como el punto final de esta frase y Plutón no mayor que una molécula, Plutón seguiría quedando a 1o metros de distancia.

Así que el sistema solar es realmente enorme. Cuando llegásemos a Plutón, nos habríamos alejado tanto del Sol —nuestro amado y cálido Sol, que nos broncea y nos da la vida—, que éste se habría quedado reducido al tamaño de una cabeza de alfiler. Sería poco más que una estrella brillante.

El Sol visto desde los planetas del Sistema Solar y Plutón.

En un vacío tan solitario se puede empezar a entender por qué han escapado a nuestra atención incluso los objetos más significativos (las lunas de Plutón, por ejemplo). Y Plutón no ha sido ni mucho menos un caso único a ese respecto. Hasta las expediciones del Voyager, se creía que Neptuno tenía dos lunas. El Voyager descubrió otras seis. Cuando yo era un niño, se creía que había 30 lunas en el sistema solar. Hoy el total es de 9o, como mínimo, y aproximadamente un tercio de ellas se han descubierto en los últimos años. Lo que hay que tener en cuenta, claro, cuando se considera el universo en su conjunto, es que ni siquiera sabemos en realidad lo que hay en nuestro sistema solar.

Bueno, la otra cosa que notarás, cuando pasemos a toda velocidad Plutón, es que estamos dejando atrás Plutón. Si compruebas el itinerario, verás que se trata de un viaje hasta el borde de nuestro sistema solar, y me temo que aún no hemos llegado. Plutón puede ser el último objeto que muestran los mapas escolares, pero el sistema solar no termina ahí. Ni siquiera estamos cerca del final al pasar Plutón.

El Cinturón de Kuiper.

Después de Plutón   hemos de pasar por El Cinturón de Kuiper. Es una región en forma de disco que se encuentra más allá de la órbita de Neptuno, aproximadamente entre 30 y 100 UA (Unidades Astronómicas) del Sol, que contiene muchos pequeños cuerpos helados. Actualmente se le considera la fuente de los cometas de periodo corto.  Aunque los valores de las estimaciones son bastante variables, se calcula que existen al menos 70.000 “transneptunianos” entre las 30 y 50 unidades astronómicas, con diámetros superiores a los 100 km. Más allá de las 50 UA es posible que existan más cuerpos de este tipo, pero en todo caso están fuera del alcance de las actuales técnicas de detección. Las observaciones muestran también que se hallan confinados dentro de unos pocos grados por encima o por debajo del plano de la eclíptica. Estos objetos se les conoce como KBO’s (Kuiper Belt Objects).

El estudio del cinturón de Kuiper es muy interesante por varios motivos:

  • Los objetos que contiene son remanentes muy primitivos de las primeras fases de acreción del sistema solar. La región central, más densa, se condensó para formar los planetas gigantes (las composiciones de Urano y Neptuno son casi idénticas a la de los cometas). En la región más y menos densa, la acreción progresó lentamente, pese a lo cual se formaron un gran número de pequeños cuerpos.
  • Es aceptado ampliamente que el cinturón de Kuiper es la fuente de los cometas de corto período, del mismo modo que la nube de Oort lo es para los de largo período.

Ocasionalmente, la órbita de un objeto del Cinturón de Kuiper se verá perturbada por las interacciones de los planetas gigantes de tal forma que cruzará la de Neptuno. Entonces será muy probable que tenga un encuentro cercano con Neptuno, quien le expulsará del sistema solar o lo enviará en una órbita que cruce las de los otros planetas gigantes o incluso hacia el sistema solar interior.

Curiosamente, parece que los objetos de la Nube de Oort se formaron más cerca del Sol que los objetos del Cinturón de Kuiper. Los objetos pequeños que se formaran cerca de los planetas gigantes habrían sido eyectados del sistema solar debido a los encuentros gravitatorios. Aquellos que no escaparan del todo formarían la distante Nube de Oort. Los objetos pequeños que se formaran más lejos no sufrirían estas interacciones y formarían el Cinturón de Kuiper.

La Nube de Oort.

No llegaremos hasta el borde del sistema solar hasta que hayamos cruzado la nube de Oort, un vasto reino celestial de cometas a la deriva, y no llegaremos hasta allí durante otros —lo siento muchísimo— 10.000 años. Plutón, lejos de hallarse en el límite exterior del sistema solar, como tan displicentemente indicaban aquellos mapas escolares, Plutón se encuentra apenas a una cincuenta-milésima parte del trayecto.

No tenemos ninguna posibilidad de hacer semejante viaje, claro. Los 386.000 kilómetros del viaje hasta la Luna. Aún representan para nosotros una empresa de enorme envergadura. La misión tripulada a Marte, solicitada por el primer presidente Bush en un momento de atolondramiento pasajero, se desechó tajantemente cuando alguien averiguó que costaría 450.000 millones de dólares y que, con probabilidad, acabaría con la muerte de todos los tripulantes.

Basándonos en lo que sabemos ahora yen lo que podemos razonablemente imaginar, no existe absolutamente ninguna posibilidad de que un ser humano llegue nunca a visitar el borde de nuestro sistema solar… nunca. Queda demasiado lejos. Tal como están las cosas, ni siquiera con el telescopio Hubble podemos ver el interior de la nube Oort, así que no podemos saber en realidad lo que hay allí. Su existencia es probable, pero absolutamente hipotética.” Lo único que se puede decir con seguridad sobre la nube Oort es, más o menos, que empieza en algún punto situado más allá de Plutón y que se extiende por el cosmos a lo largo de unos dos años luz. La unidad básica de medición en el sistema solar es la Unidad Astronómica, UA, que representa la distancia del Sol a la Tierra.

Plutón está a unas 40 UA de la Tierra y, el centro de la nube Oort, a unas 50.000 UA.

Ls verdadera extensión de nuestro Sistema Solar.

El Sistema Solar en Perspectiva.

Pero finjamos de nuevo que hemos llegado a la nube Oort. Lo primero que advertirías es lo tranquilísimo que está todo allí. Nos encontramos ya lejos de todo… tan lejos de nuestro Sol que ni siquiera es la estrella más brillante del firmamento. Parece increíble que ese diminuto y lejano centelleo tenga gravedad suficiente para mantener en órbita a todos esos cometas. No es un vínculo muy fuerte, así que los cometas se desplazan de un modo mayestático, a una velocidad de unos 563 kilómetros por hora. De cuando en cuando, alguna ligera perturbación gravitatoria (una estrella que pasa, por ejemplo) desplaza de su órbita normal a uno de esos cometas solitarios. A veces se precipitan en el vacío del espacio y nunca se los vuelve a ver, pero otras veces caen en una larga órbita alrededor del Sol.

Esquema del Sistema Solar.

Ese es nuestro verdadero Sistema Solar, mucho mas grande de lo que pensábamos. Aunque en el vasto Universo, nuestro Sistema Solar es como un grano de arena en un desierto infinito…!!  

Pero en vez de desanimarnos al ver el enorme Cosmos lleno de secretos, debemos alegrarnos puesto que hay mucho por descubrir, mucho por discutir y mucho por aportar a la Ciencia…

Referencias |

El Universo y sus feroces Monstruos

El titulo de esta entrada créanme que no ha sido exagerado de ninguna manera. Para muchos el basto Universo es tranquilo, y en realidad parece ser gobernado por verdadera paz que impera en todas direcciones veamos a donde veamos. Pero esa idea errónea que casi todos tenemos es causada en parte debido a que no podemos ver la mayoría de las bestias que salpican nuestro cosmos.

El Universo en realidad es un lugar que definido en pocas palabras seria algo como: caos, desorden, fuerza, peligro y muchos otros sinónimos. 

El Universo se genero con una violenta explosión y desde su inicio se siguen produciendo toda clase de procesos violentos en él.

Existen muchos feroces monstruos que se estremecen en puntos lejanos del Universo y hay varios que están bastante cerca como para no ignorarlos.  La mayoría de ellos son enormes y para poder medirlos los astrofísicos los comparan con la masa de nuestro Sol, equivalente a unas 332.950 veces la masa de la Tierra, su valor es:

Dentro de todos esos gigantes violentos, mencionare a quienes mas destacan, tanto por su voracidad como por su increíble energía. Los principales son:

  • Las Supernovas
  • Los Agujeros Negros Supermasivos
  • Los Quasares 
  • Y los Magnetares.

Todos ellos empiezan su historia con la muerte de una estrella cuyo destino final dependerá de la masa que posea. Imaginemos una estrella como nuestro Sol, cuando este “muera” se transformara en una enana blanca, un remanente un tanto inerte de lo que era cuando aun no no había agotado su combustible nuclear.

Si el Sol fuera ocho veces mas masivo entonces al morir todo indicaría que se convertirá en una estrella de neutrones, la cual surge luego de una explosión de determinados tipos de supernova.

Si el Sol fuera unas treinta veces mas masivo, el resultado final seria un hambriento agujero negro.

Cuando algunos de estos monstruos interactúan con otras estrellas u objetos de su mismo tipo se originan algunos eventos cósmicos extraordinariamente energéticos  tan fantásticos que su detección es celebrada por los astrónomos de todo el mundo.

Observatorio Swift

Debido a ello, el Universo conocido esta siendo vigilado continuamente para que no nos perdamos de tan espectaculares acontecimientos, los astrofísicos investigan el Cosmos con los ojos electrónicos de los observatorios espaciales, como el Fermo, el Swift, el Hubble, el CXO, y varios mas de la NASA que buscan el rastro de algunos monstruos cósmicos en las emanaciones de rayos Gammaráfagas colosales de energía que surgen tras una explosión de supernova muy potente, o tras la colisión de objetos masivos y compactos, como las estrellas de neutrones o los agujeros negros.

Las Supernovas

Una supernova es una enorme explosión estelar que se manifiesta de forma increíble  algunas veces se puede notar a simple vista en algún lugar de la esfera celeste en donde anteriormente no se tenia constancia de existiese algo en particular. Debido a ello se les denomino supernovas (estrellas nuevas).

Una supernova puede llegar a producir destellos de luz muy intensos que pueden prolongarse durante semanas e inclusive varios meses. Su característica principal es que aumentan su intensidad luminosa hasta que superan la del resto de la galaxia y llegan a una magnitud absoluta.

Su origen aun se debate, pueden ser estrellas muy masivas que son incapaces de sostenerse por la presión de degeneración de los electrones [1], lo que provoca que se contraigan violenta y repentinamente generando durante el proceso una enorme emisión de energía. Llegando a liberar en repetidas ocasiones  1044 J de energia.

La explosión de una supernova provoca la expulsión de las capas externas de una estrella por medio de poderosas ondas de choque.

Un caso muy conocido ocurrió a primeras horas de la mañana del 19 de marzo del 2008, un punto muy luminoso se hizo visible en la constelación de Boyero, no se trataba de una estrella nueva, era una explosión de rayos gamma de 2.5 millones de veces mas luminosa que la mas brillante de las supernovas, ocurrida en una época tan remota que el Universo ni siquiera había alcanzado la mitad de su edad actual. Ese fenómeno impresionante duro unos 15 segundos y aunque provoco mucho entusiasmo en la comunidad astronómica de todo el mundo, quedo en segundo plano, porque en la mañana del 23 de abril, los instrumentos abordo del telescopio espacial Swift de la NASA captaron una explosión cataclísmica en la constelación de Leo.

Ese evento que apenas duro unos 10 segundos, constituye la mayor fuente de radiaciones gamma jamas descubierta hasta la fecha, esa estrella seguramente se convirtió en un agujero negro. Ese suceso ocurrió a mas de 13.000 millones de años luz, y tuvo lugar apenas unos 630 millones de años después del Big Bag, y es el acontecimiento astrofísico mas antiguo jamas detectado hasta ahora.

El objeto mas lejano, el GRB 090423 (dentro del circulo) ocurrió unos 630 millones de años después del Big Bang .

A esa distancia, la mayoría de las explosiones de supernovas son indetectables. Sólo un 1% de ellas lo hace de tal forma que la materia es expulsada a mas de 99.99% de la velocidad de la luz. Se trata de un suceso increíblemente energético (las explosiones de rayos gamma generan mas energía en unos segundos que nuestra estrella en toda su vida), que confirma que en las primeras etapas del Universo ya se producía el nacimiento y colapso de estrellas masivas.

 

Agujero Negro Supermasivo 

Lo que llamamos un agujero negro Supermasivo es un agujero negro con una masa del orden de millones o inclusive miles de millones de masas solares.

Se cree que muchas, si no es que todas las galaxias tienen un agujero negro supermasivo en su centro. Inclusive una de las teorías mas extendidas en los últimos tiempos es que todas las galaxias elípticas y espirales tienen un agujero negro supermasivo en su centro, lo cual conseguiría generar suficiente gravedad como para mantener la unidad.

Imagen del desarrollo de Sagitario A*

El ejemplo mas claro es el que tenemos mas próximo, en el centro de nuestra galaxia se encuentra Sagitario A*, cuya existencia se ha confirmado de forma definitiva en el centro de la Vía Láctea. Para detectarlo los astrónomos utilizaron ondas de rayos infrarrojos que evitaban el polvo estelar que bloquea la vista de esa zona central. Durante años, fueron tomando puntos de referencia de la órbita de las 28 estrellas, que se mueven más rápido por estar cerca del agujero negro. «Han podido estudiar la órbita completa de una de ellas que tarda 16 años en recorrerla y de ese modo pueden definir la materia que siente cada estrella, que es la que tiene el agujero negro.

En algunas regiones del espacio, la fuerza de gravedad es tan formidable que ni la luz puede escapar. Eso es, en esencia un agujero negro, pero los agujeros negros supermasivos son auténticos monstruos cósmicos con un diámetro tan grande como la del Sistema Solar.

Los agujeros negros de este tamaño pueden formarse solo de dos formas: por un lento crecimiento de materia (que requiere un periodo muy largo de tiempo y enormes cantidades de materia ), o directamente por presión externa en los primeros instantes del Big Bang.

El agujero negro supermasivo mas grande de todos podría ser un agujero negro que esta situado en la galaxia NGC mil 227, ubicada a 220 millones de años luz de distancia de la Tierra en la constelación de Perseo.

Se especula que agujeros negros supermasivos en el centro de muchas galaxias, actuarían como los “motores” de las mismas, provocando sus movimientos giratorios, tales como galaxias Seyfert [2] y quasares.

Los Quasares

Un quasar es técnicamente una galaxia hiperactiva, los quasares son las mas brillantes y letales del espacio. En el corazón de esas galaxias habita un monstruo galáctico, los quasares son alimentados por un agujero negro supermasivo que absorbe continuamente enormes cantidades de materia y estrellas cada año. Los quasares con los objetos energéticos mas efectivos del universo, emiten mas energía que 100 galaxias normales. 

Los quares visibles muestran un desplazamiento al rojo muy alto. El consenso científico dice que esto es un efecto de la expansión métrica del universo entre los quasares y la Tierra. Combinando esto con la Ley de Hubble se sabe que los quasares están muy distantes. Para ser observables a esas distancias, la energía de emisión de los quasares hace empequeñecer a casi todos los fenómenos astrofísicos conocidos en el universo, exceptuando comparativamente a eventos de duración breve como supernovas y brotes de rayos gamma. Los quasares pueden fácilmente liberar energía a niveles iguales que la combinación de cientos de galaxias medianas. La luz producida sería equivalente a la de un billón de soles.

Todos los quasares se sitúan a grandes distancias de la Tierra, el más cercano a 780 millones de años luz y el más lejano a 13.000 millones de años luz,

Los Magnetares o Imanes de los Dioses

Un magnetar o magnetoestrella es una estrella de neutrones alimentada con un campo magnético extremadamente fuerte. Estas estrellas desprenden emisiones de alta energía de rayos X y rayos gamma.  Se estima que este tipo de cuerpos celestes se originan de estrellas que poseen entre 30 a 40 veces la masa de nuestro Sol. 

La vida activa de un magnetar es corta, sus potentes campos magnéticos se desmoronan pasados los 10.000 años, perdiendo consecuentemente su vigorosa emisión de rayos X.

Un magnetar que cuente con un radio de tan sólo 10 kilómetros contiene la misma masa que nuestro Sol.

El 27 de diciembre de 2004, se registró un estallido de rayos gamma proveniente del magnetar denominado SGR 1806-20 situado en la Vía Láctea. El origen estaba situado a unos 50.000 años luz. En la opinión de eminentes astrónomos, si se hubiera producido a tan solo 10 años luz de la Tierra, −distancia que nos separa de alguna de las estrellas más cercanas−, hubiera peligrado seriamente la vida en nuestro planeta al destruir la capa de ozono, alterando el clima global y destruyendo la atmósfera. Esta explosión resultó ser unas cien veces más potente que cualquier otro estallido registrado hasta esa fecha. La energía liberada en dos centésimas de segundo fue superior a la producida por el Sol en 250.000 años.

Mas recientemente en agosto de 2005, el satélite Swift de la NASA capto un resplandor super brillante en una remota región del universo que tardo 250 segundos. Esa explosión produjo la misma energía que generaría nuestro Sol durante 10.000 millones de años. Ese fenómeno correspondía con un inusual estallido de rayos gamma y encajaba, con la actividad de un Magnetar.

Y en junio de 2010, la Agencia Espacial Europea anuncio el hallazgo de uno es estos objetos a 15.000 años luz de la tierra. Pese a la distancia, es capaz de aportar a nuestro planeta tanta energía como una erupción Solar.

A continuación se puede ver una pequeña comparación entre distintas intensidades de campos magnéticos:

  • Brújula movida por el campo magnético de la Tierra: 0,6 Gauss
  • Pequeño imán, como los sujetapapeles de los frigoríficos: 100 Gauss
  • Campo generado en la Tierra por los electro imanes más potentes:4,5×105 Gauss
  • Campo máximo atribuido a una de las denominadas estrellas blancas: 10×108 Gauss
  • Magnetares (SGRs y AXPs):  1014 ~ 1015 Gauss

Sin duda alguna los cuerpos que crean los mayores campos magnéticos de todo el Universo.  

Si algún astronauta hipotéticamente se desviara de su curso y se acercase a unos 100.000 km de distancia, las consecuencias serian terroríficas, el campo magnético del magnetar podría desordenar los átomos de la carne humana y sus fuerzas gravitatorias destrozarían a una persona.

Un magnetar situado a 10 años luz de nuestro Sistema Solar podría causar un cataclismo cósmico, destruiría nuestra atmósfera y seria el fin de la vida en la Tierra.

Aunque la probabilidad de que se encuentren cerca de nosotros es casi nula, podemos estar tranquilos. Lo bueno de todo esto es que aunque ocurriera cualquier contacto con alguno de estos monstruos muchos de nosotros ya no estaremos aquí para verlo. Al menos eso es lo que dicen los científicos.

¿Cómo sabemos que la Teoría de la Relatividad es correcta?

Seguramente todos hemos escuchado hablar de Albert Einstein, sin duda es uno de los físicos mas importantes de la historia y para muchos el mayor genio de todos los tiempos (en lo personal prefiero a Newton, pero queda a cuestión de gustos). Considero que estoy en lo correcto al afirmar que no existe persona en la tierra que tenga conocimientos básicos de ciencia y que no sepa quien es la persona de la siguiente imagen. 

Albert Einstein es un físico que en su época obtuvo un enorme reconocimiento de la sociedad y tanta fama como las actuales estrellas de cine o  de la música. No había lugar en el que una multitud de personas se acercaran a el para verlo mejor, intercambiar algunas palabras e inclusive obtener alguna fotografía del físico.

Pero no vamos a hablar acerca de su fama, vamos a hablar acerca de su obra, mas especificamente de su Teoría de la Relatividad, muchas personas han escuchado de esta revolucionaria obra, la idea general es fácil de comprender, pero adentrarse en sus variaciones y todo lo que implica dentro de la Física es algo que a muchos confunde con facilidad y a los que estamos familiarizados con ella nos causa ese nudo en la garganta al ver semejantes postulados.

Para muchos una simple obra teórica que no sirve de nada y que aun no ha sido comprobada, para muchos otros significa el futuro por develar junto con la mecánica cuántica.

La teoría de la relatividad, desarrollada fundamentalmente por Albert Einstein, pretendía originalmente explicar ciertas anomalías en el concepto de movimiento relativo, pero en su evolución se ha convertido en una de las teorías más importantes en las ciencias físicas y ha sido la base para que los físicos demostraran la unidad esencial de la materia y la energía, el espacio y el tiempo, y la equivalencia entre las fuerzas de la gravitación y los efectos de la aceleración de un sistema.

La teoría de la relatividad, tal como la desarrolló Einstein, tuvo dos formulaciones diferentes.

  • La primera es la que corresponde a dos trabajos publicados en 1906 en los Annalen der Physik. Es conocida como la Teoría de la relatividad especial y se ocupa de sistemas que se mueven uno respecto del otro con velocidad constante (pudiendo ser igual incluso a cero).
  • La segunda, llamada Teoría de la relatividad general (así se titula la obra de 1916 en que la formuló), se ocupa de sistemas que se mueven a velocidad variable.

La teoría especial de la relatividad no negaba las teorías de Newton o de Galileo, simplemente las corregía. La relatividad sólo se hacía evidente a velocidades cercanas a la velocidad de la luz. A velocidades “normales”, las diferencias en los resultados al utilizar las transformaciones de Galileo y las transformaciones de Lorentz, son tan pequeñas que no se pueden detectar, y es por eso que las implicaciones de la relatividad especial nos parecen tan poco intuitivas. Pero si fuéramos capaces de generar una velocidad suficiente (digamos 3/4 de la velocidad de la luz, por ejemplo), empezaríamos a notar los efectos predichos por la relatividad:  

  • Los relojes en movimiento irían más lentos que los estacionarios (no porqué el reloj funcionara más despacio, sino por el tiempo en sí).  
  • Los objetos en movimiento se contraerían en la dirección del movimiento.  
  • Cuanto más rápido se moviera un objeto, más masa tendría. 

Estos efectos están presentes en nuestra vida diaria, pero son tan increíblemente pequeños que los podemos despreciar perfectamente. Ese es el porque de que las transformaciones de Galileo funcionan tan bien, y las podemos seguir utilizando en nuestros sistemas de referencia que se mueven con velocidades relativamente pequeñas.

 

Teoría de la relatividad especial

Los postulados de la relatividad especial son dos. El primero afirma que todo movimiento es relativo a cualquier otra cosa, y por lo tanto el éter, que se había considerado durante todo el siglo XIX como medio propagador de la luz y como la única cosa absolutamente firme del Universo, con movimiento absoluto y no determinable, quedaba fuera de lugar en la física, que no necesitaba de un concepto semejante (el cual, además, no podía determinarse por ningún experimento).

El segundo postulado afirma que la velocidad de la luz es siempre constante con respecto a cualquier observador. De sus premisas teóricas obtuvo una serie de ecuaciones que tuvieron consecuencias importantes e incluso algunas desconcertantes, como el aumento de la masa con la velocidad. Uno de sus resultados más importantes fue la equivalencia entre masa y energía, según la conocida fórmula E=mc², en la que c es la velocidad de la luz y representa la energía obtenible por un cuerpo de masa cuando toda su masa sea convertida en energía.

Dicha equivalencia entre masa y energía fue demostrada en el laboratorio en el año 1932, y dio lugar a impresionantes aplicaciones concretas en el campo de la física (tanto la fisión nuclear como la fusión termonuclear son procesos en los que una parte de la masa de los átomos se transforma en energía). Los aceleradores de partículas donde se obtiene un incremento de masa son un ejemplo experimental  muy claro de la teoría de la relatividad especial.

La teoría también establece que en un sistema en movimiento con respecto a un observador se verifica una dilatación del tiempo; esto se ilustra claramente con la famosa paradoja de los gemelos:

“imaginemos a dos gemelos de veinte años, y que uno permaneciera en la Tierra y el otro partiera en una astronave, tan veloz como la luz, hacia una meta distante treinta años luz de la Tierra; al volver la astronave, para el gemelo que se quedó en la Tierra habrían pasado sesenta años; en cambio, para el otro sólo unos pocos días”.

Teoría de la relatividad general

La teoría de la relatividad general se refiere al caso de movimientos que se producen con velocidad variable y tiene como postulado fundamental el principio de equivalencia, según el cual los efectos producidos por un campo gravitacional equivalen a los producidos por el movimiento acelerado.

La revolucionaria hipótesis tomada por Einstein fue provocada por el hecho de que la teoría de la relatividad especial, basada en el principio de la constancia de la velocidad de la luz sea cual sea el movimiento del sistema de referencia en el que se mide (tal y como se demostró en el experimento de Michelson y Morley [1]), no concuerda con la teoría de la gravitación newtoniana: si la fuerza con que dos cuerpos se atraen depende de la distancia entre ellos, al moverse uno tendría que cambiar al instante la fuerza sentida por el otro, es decir, la interacción tendría una velocidad de propagación infinita, violando la teoría especial de la relatividad que señala que nada puede superar la velocidad de la luz.

Tras varios intentos fallidos de acomodar la interacción gravitatoria con la relatividad, Einstein sugirió de que la gravedad no es una fuerza como las otras, sino que es una consecuencia de que el espacio-tiempo se encuentra deformado por la presencia de masa (o energía, que es lo mismo). Entonces, cuerpos como la tierra no se mueven en órbitas cerradas porque haya una fuerza llamada gravedad, sino que se mueven en lo más parecido a una línea recta, pero en un espacio-tiempo que se encuentra deformado por la presencia del sol.

Los cálculos de la relatividad general se realizan en un espacio-tiempo de cuatro dimensiones, tres espaciales y una temporal, adoptado ya en la teoría de la relatividad restringida al tener que abandonar el concepto de simultaneidad. Sin embargo, a diferencia del espacio de Minkowsy y debido al campo gravitatorio, este universo no es euclidiano. Así, la distancia que separa dos puntos contiguos del espacio-tiempo en este universo es más complejo que en el espacio de Minkowsky [2].

Con esta teoría se obtienen órbitas planetarias muy similares a las que se obtienen con la mecánica de Newton. Uno de los puntos de discrepancia entre ambas, la anormalmente alargada órbita del planeta Mercurio, que presenta un efecto de rotación del eje mayor de la elipse (aproximadamente un grado cada diez mil años) observado experimentalmente algunos años antes de enunciarse la teoría de la relatividad, y no explicado con las leyes de Newton, sirvió de confirmación experimental de la teoría de Einstein.

Un efecto que corroboró tempranamente la teoría de la relatividad general es la deflexión que sufren los rayos de luz en presencia de campos gravitatorios (conocido como doblamiento de la luz). Los rayos luminosos, al pasar de una región de un campo gravitatorio a otra, deberían sufrir un desplazamiento en su longitud de onda (el Desplazamiento al rojo de Einstein), lo que fue comprobado midiendo el desplazamiento aparente de una estrella, con respecto a un grupo de estrellas tomadas como referencia, cuando los rayos luminosos provenientes de ella rozaban el Sol.

La verificación se llevó a cabo aprovechando un eclipse total de Sol (para evitar el deslumbramiento del observador por los rayos solares, en el momento de ser alcanzados por la estrella); la estrella fue fotografiada dos veces, una en ausencia y otra en presencia del eclipse. Así, midiendo el desplazamiento aparente de la estrella respecto al de las estrellas de referencia, se obtenía el ángulo de desviación que resultó ser muy cercano a lo que Einstein había previsto.

El concepto de tiempo resultó profundamente afectado por la relatividad general. Un sorprendente resultado de esta teoría es que el tiempo debe transcurrir más lentamente cuanto más fuerte sea el campo gravitatorio en el que se mida. Esta predicción también fue confirmada por la experiencia en 1962. De hecho, muchos de los modernos sistemas de navegación por satélite tienen en cuenta este efecto, que de otro modo darían errores en el cálculo de la posición de varios kilómetros.

Otra sorprendente deducción de la teoría de Einstein es el fenómeno de colapso gravitacional que da origen a la creación de los agujeros negros. Dado que el potencial gravitatorio es no lineal, al llegar a ser del orden del cuadrado de la velocidad de la luz puede crecer indefinidamente, apareciendo una singularidad en las soluciones. El estudio de los agujeros negros se ha convertido en pocos años en una de las áreas de estudio de mayor actividad en el campo de la cosmología.

 

Cómo se demostró la Teoría de la Relatividad 

En 1919 un equipo de investigadores británicos partió hacia la isla africana de Príncipe para probar que un físico alemán tenía razón. Albert Einstein había presentado la Teoría General de la Relatividad en 1915. El nuevo paradigma, de ser correcto, iba a cambiar radicalmente la forma de entender el universo.

La oportunidad para comprobar si Einstein estaba en lo cierto se presentó el 29 de mayo de 1919. Ese día, se produciría un eclipse de magnitud descomunal que recorrería varios países cercanos al ecuador. Duraría 6 minutos y 50 segundos (la duración máxima de un eclipse es de 7 minutos y 31 segundos) y daría la oportunidad de realizar un gran número de observaciones útiles para dirimir la controversia.

El Astrónomo Real, Sir Frank Dyson, planeó una misión doble. Un equipo que él mismo dirigiría partiría hacia la ciudad brasileña de Sobral y un segundo grupo observaría el eclipse desde la isla africana de Príncipe. Al frente de esta misión estaría el astrofísico Arthur Eddington, en aquellos años uno de los pocos que de verdad comprendían la teoría de la relatividad.

Para explicar su teoría, Einstein había planteado una situación hipotética en la que la línea de visión entre un observador en la Tierra y una estrella estuviese bloqueada por el borde del Sol. Si Newton tuviese razón, la estrella permanecería invisible, pero Einstein calculó que algo mucho más sorprendente sucedería. La fuerza gravitatoria solar doblaría el espacio a su alrededor, los rayos de la estrella seguirían ese camino curvado para rodear el Sol y llegarían sin problemas hasta el observador en la Tierra. El oportuno eclipse permitiría poner a prueba esta hipótesis al ocultar la luz solar; gracias a la Luna, los científicos británicos podrían fotografiar las estrellas cercanas al Sol que en condiciones normales quedan ocultas por el fulgor del astro.

La suerte de Eddington pareció desvanecerse conforme se acercaba el día. Llovió durante los 19 días previos al 29 de mayo y cuando comenzó el eclipse las nubes tapaban el Sol.

Durante 400 segundos, los científicos pensaron que su oportunidad se había desvanecido, pero entonces, cuando sólo faltaban 10 segundos para que se apartase la Luna, las nubes se retiraron y Eddington pudo tomar una sola fotografía.

Comparando esa única imagen con otras que había tomado cuando el Sol no estaba allí, el astrofísico inglés pudo calcular que la gravedad solar había provocado una deflección de la luz de aproximadamente 1,6 segundos de arco. El resultado coincidía con la predicción de la Teoría de la Relatividad General; Einstein tenía razón.

MAS RECIENTEMENTE

La misión Gravity Probe B  [3] de la agencia espacial estadounidense (NASA) comprobó dos predicciones de la teoría general de la relatividad del científico Albert Einstein, tras más de 40 años de haberse iniciado el experimento.

Con un costo de 760 millones de dólares, la nave propiedad de la NASA demostró que la fuerza de gravedad de los grandes cuerpos del Universo distorsiona el tiempo y el espacio, demostrando que la gravedad se produce cuando la masa curva el espacio y el tiempo, referidos al efecto geodésico, al mismo tiempo en el que demuestra la torsión que se produce en el espacio y tiempo debido a la torsión de los cuerpos, por lo que dos predicciones de la teoría de la relatividad de Einstein son comprobadas.

En su página oficial, la NASA publicó que la sonda espacial determinó ambos efectos con una precisión mayor a lo esperado por científicos, explicando que el comportamiento de GP-B hubiera sido otro si la gravedad no afectara al espacio y al tiempo, por lo que la teoría de Einstein es confirmada.

En conferencia de prensa publicada también en el sitio de la NASA, Francis Everitt, físico de la Universidad de Stanford y principal investigador del satélite Gravity Probe B, señaló que el proyecto iniciado hace más de 40 décadas, pudo demostrar que el Universo de Einstein, el tiempo y el espacio son deformados por la gravedad. La Tierra distorsiona ligeramente el espacio a su alrededor debido a la gravedad.

El científico ejemplificó el descubrimiento del físico mencionando que si la Tierra estuviera sumergida en miel, a medida que el planeta rote, la miel a su alrededor de arremolinaría, mismo efecto que ocurre con el tiempo y el espacio.

En el Universo de Einstein, el tiempo y el espacio son deformados por la gravedad. La Tierra distorsiona ligeramente el espacio a su alrededor, debido a su gravedad.

Si los giroscopios hubieran apuntado en la misma dirección siempre que estuvieran en órbita (…) Pero como confirmación de la teoría general de la relatividad de Einstein, los giroscopios experimentaron cambios mensurables en la dirección de su giro a medida que eran atraídos por la gravedad de la Tierra

La NASA detalló que el proyecto fue ideado por primera ocasión en 1959, como un satélite que orbitaba la Tierra y a través de la recopilación de información determinar la teoría de Einstein.

El lanzamiento de GP-B se registró hace 41 años, a una órbita de más de 600 kilómetros sobre la Tierra con cuatro giroscopios, ruedas de un aparato circular que gira en torno a un eje y que indica el movimiento y registra los cambios en su orientación.

Las tecnologías creadas para desarrollar la sonda gravitacional fueron usadas luego para elaborar los sistemas de posicionamiento global (GPS) y el cálculo de la radiación de fondo del Universo.

Ese cálculo es la base de la teoría del Big Bang y dio lugar al premio Nobel para John Mather [4], de la NASA.

Datos curiosos acerca de la Teoría de la Relatividad

  • Al crear su Teoría, Einstein no la llamó relatividad. La palabra nunca aparece en su trabajo original de 1905 : ”Sobre la electrodinámica de los cuerpos en movimiento”, y de hecho odiaba el término, prefiriendo el de “teoría de la invariación” (porque las leyes de la física parecen las mismas para todos los observadores –  y no hay nada “relativo” en ello).
  • ¿El continuo del espacio-tiempo? No, eso no es de Einstein. La idea del tiempo como cuarta dimensión se le ocurrió a Hermann Minkowski, uno de los profesores de Einstein, quién una vez le llamó “perro vago” a causa de su poco aprecio por las matemáticas.
  • El físico austriaco Friedrich Hasenöhrl publicó una variación de la ecuación: E = mc2 un año antes de que lo hiciera Einstein. (Pueden ver mas información en esta entrada: “El verdadero origen de E = mc^2”)
  • El trabajo que Einstein desempeñaba a jornada completa para la oficina suiza de patentes le forzaba a trabajar en la relatividad durante las horas en que nadie le observaba. Escondía los papeles en su atiborrada mesa de trabajo cuando se le acercaba algún supervisor.
  • El afecto también es relativo, o al menos para Einstein lo era. “Necesito a mi mujer, ella resuelve todos los problemas matemáticos por mi”, escribió Einstein mientras completaba su teoría en 1904. Para el año 1914, le ordenó “renunciar a tener toda clase de relación personal conmigo, ya que esto no es algo que se requiera de forma absoluta por razones sociales”.
  • Las leyes también son relativas. Según Einstein, nada viaja más rápido que la luz, pero el propio espacio no tiene esta limitación; inmediatamente después del Big Bang, la huida expansiva del universo logró aparentemente superar a la luz.
  • En retrospectiva, parece que Eddington modifico los resultados, descartando las fotos que mostraban el resultado “incorrecto” de la Teoría de la Relatividad, aunque esto quizás solo sea un mito.
  • A día de hoy comprendemos tan bien la relatividad general que la usamos para pesar galaxias y para localizar planetas distantes por la forma en que doblan la luz.

 

Si aún no te aclaras demasiado con las ideas de Einstein prueba con esta explicación dada por el propio interesado:

“Pon tu mano en una estufa durante un minuto y te parecerá una hora. Siéntate junto a una chica bonita durante una hora y te parecerá un minuto. Eso es la relatividad”.

REFERENCIAS |

Descubiertas las primeras galaxias del Universo

Recientemente se ha confeccionado el primer censo de las galaxias más primitivas y distantes. Un equipo de astrónomos dirigido por el Instituto Tecnológico de California (Caltech), en Pasadena, ha utilizado el Telescopio Espacial Hubble de la NASA para descubrir siete de las galaxias más arcaicas y distantes.

La más antigua de estas galaxias descubiertas ha sido observada tal como era cuando el universo tenía sólo 380 millones años de edad. Todas las galaxias recién descubiertas se formaron hace más de 13.000 millones de años, cuando el universo tenía sólo el 4 por ciento de su edad actual. A ese período los astrónomos lo llaman el “amanecer cósmico”, debido a que fue entonces cuando nacieron las primeras galaxias y el universo pasó a estar más iluminado. Las estrellas y galaxias comenzaron a formarse alrededor de 200 millones de años después del Big Bang. El universo tiene ahora 13.700 millones de años de edad.

Las nuevas observaciones abarcan un período de entre 350 millones y 600 millones de años después del Big Bang, y representan el primer censo fiable de galaxias en una época tan temprana de la historia cósmica. Los astrónomos han comprobado que la cantidad de galaxias aumentó constantemente con el paso del tiempo, lo que respalda la idea de que las primeras galaxias no se formaron en una proliferación masiva y acelerada, sino que poco a poco se fueron forjando con la progresiva anexión de estrellas

[Img #11725]

La nueva imagen de campo ultraprofundo del Hubble revela 7 galaxias remotas nunca antes vistas. 

Dado que a la luz le toma miles de millones de años viajar distancias tan vastas, las imágenes astronómicas muestran cómo se veía el universo durante ese período, hace miles de millones de años, cuando la luz que ahora nos llega se embarcó en su viaje. Cuanto más lejos en el espacio miran los astrónomos, más atrás en el tiempo están viendo.

En el nuevo estudio, el equipo de Richard Ellis ha explorado los confines conocidos del cosmos y, por lo tanto, un pasado igual de lejano, en este caso el más remoto que ha sido estudiado hasta ahora con el Telescopio Espacial Hubble. Las nuevas observaciones llevaron al Hubble al límite de sus capacidades técnicas, y permiten atisbar cómo serán las que se hagan con la próxima generación de telescopios espaciales infrarrojos, gracias a los cuales será posible sondear el universo aún más atrás en el tiempo.

Información Adicional: http://www.caltech.edu/content/caltech-led-astronomers-discover-galaxies-near-cosmic-dawn

Nueva teoría acerca de los Agujeros Negros

Los agujeros negros están rodeados de muchos misterios, pero ahora los autores de un estudio reciente están impulsando una nueva y revolucionaria teoría que podría explicar algunas de sus singulares propiedades.

A juzgar por las conclusiones a las que han llegado los especialistas del Instituto Niels Bohr en Dinamarca y de otras instituciones, los agujeros negros tienen propiedades que se asemejan a las de la dinámica de sólidos y las de la dinámica de fluidos.

Los agujeros negros son objetos extremadamente compactos en el universo. Son tan compactos que generan una fuerza gravitatoria fortísima, y todo lo que se acerca demasiado a ellos lo absorben. Ni siquiera la luz puede escapar. Cuando ésta alcanza a un agujero negro es absorbida por completo, sin reflejarse. Como resultado de ello, el objeto no se puede ver directamente (no emite luz) y por eso se le llama agujero negro. ( Pueden conocer más acerca de lo que son en esta otra entrada: ¿Que son los agujeros negros? )

En física teórica pueden existir diferentes planos que se comportan como los agujeros negros y que son llamados branas negras. Cuando éstas se pliegan en múltiples dimensiones forman un “pliegue negro”.

Según se deduce de lo investigado hasta ahora, un pliegue negro tiene una relación con la gravedad, la mecánica de fluidos y la física del estado sólido.

Los investigadores saben que los agujeros negros son muy compactos, pero ignoran cuáles son sus propiedades cuánticas.

El equipo de Niels Obers, profesor de física teórica de partículas y cosmología en el Instituto Niels Bohr de la Universidad de Copenhague, trabaja con modelos teóricos para entender mejor los enrevesados entresijos de la física de los agujeros negros. Obers explica que se puede concebir un agujero negro como una partícula. Ésta, en principio, no tiene ninguna dimensión. Es un punto, en el sentido más extremo. Si una partícula adquiere una dimensión, se convierte en una cuerda. Si ésta adquiere una dimensión adicional, se convierte en un plano. Los físicos llaman a este plano una brana.

 (Imagen: Recreación artística por Merete Rasmussen)

Según la teoría de las cuerdas, pueden existir diferentes clases de branas, incluyendo planos que se comportan como los agujeros negros, llamados branas negras. Desde la perspectiva de la física, las branas negras tienen temperatura y son objetos dinámicos; además, al plegarse en múltiples dimensiones, forman un pliegue negro.

Niels Obers, Jay Armas y Jakob Gath ahora han hecho un nuevo avance en la descripción de la física de los agujeros negros, basándose en las teorías de las branas negras y los pliegues negros.

Las branas negras son objetos hidrodinámicos, es decir, tienen las propiedades de un líquido. Ahora se ha descubierto que las branas negras también tienen propiedades que pueden ser explicadas en términos de propiedades típicas de los sólidos. Pueden comportarse como un material elástico cuando son dobladas.

Cuando las branas negras se doblan y pliegan en un pliegue negro, se crea un efecto piezoeléctrico (electricidad que se produce debido a la presión). Este nuevo efecto puede entenderse como una cuerda negra ligeramente doblada y provista con una mayor concentración de carga eléctrica en el lado interior con respecto al exterior. Esto produce dos polos cargados eléctricamente en las cuerdas negras. Los agujeros negros fueron predichos por la teoría de la gravedad de Einstein. Esto ilustra que hay una relación sorprendente entre la gravedad, la mecánica de fluidos y la física del estado sólido.

Información Adicional:  http://www.nbi.ku.dk/english/news/news12/new-knowledge-about-the-remarkable-properties-of-black-holes/

Como se esta enfriando el Universo desde el Big Bang

Haciendo uso de la CSIRO Australia Telescope Array compacto cerca de Narrabri, Nueva Gales del Sur, un equipo internacional de Suecia, Francia, Alemania y Australia han medido cuán caliente estaba el Universo cuando tenía la mitad de su edad actual.

Esta es la medida más precisa que jamás se ha hecho de cómo el Universo se ha enfriado durante su historia de 13,77 mil millones de años.  Dado que la luz tarda en viajar, cuando miramos hacia el espacio lo que vemos es el universo como lo fue en el pasado, como lo fue cuando la luz dejó las galaxias que estamos viendo. Así que para mirar hacia atrás a mitad de camino en la historia del universo, tenemos que mirar a mitad de camino en todo el Universo.

¿Cómo podemos medir la temperatura a una distancia tan grande?

Los astrónomos estudiaron gas en una galaxia sin nombre  que se encuentra a 7200 millones de años luz de distancia [posee un corrimiento al rojo de 0,89].

Lo único que mantiene este gas caliente es la radiación cósmica de fondo, el brillo remanente del Big Bang. Por suerte, hay otra galaxia poderosa, un quásar (llamado PKS 1830-211), que está detrás de la galaxia sin nombre. Las ondas de radio de este quásar tienen que pasar a través del gas de la galaxia en primer plano. Al hacerlo, las moléculas de gas absorben algo de la energía de las ondas de radio. Esto deja un distintivo de “huella digital” en las ondas de radio.

De esta “huella digital” es de donde los astrónomos calcularon la temperatura del gas. Encontraron que era 5,08 grados Kelvin (-267,92 grados Celsius), muy frío, pero aún más caliente que el Universo actual, que está en 2,73 grados Kelvin (-270,27 grados Celsius).

De acuerdo con la teoría del Big Bang, la temperatura de la radiación cósmica de fondo cae suavemente a medida que el Universo se expande. Eso es lo que vemos en las mediciones. El Universo de unos pocos millones de años atrás era unos grados más caliente de lo que es ahora, exactamente como la teoría del Big Bang lo predice.

Journal Reference:

  1. S. Muller , A. Beelen, J. H. Black, S. J. Curran, C. Horellou, S. Aalto, F. Combes, M. Guelin, C. Henkel. A precise and accurate determination of the cosmic microwave background temperature at z=0.89Astronomy & Astrophysics, 2013 [link del paper original]

Un cráter marciano posiblemente albergó un lago

La sonda espacial MRO (Mars Reconnaissance Orbiter), que está en órbita al Planeta Rojo desde 2006, ha permitido obtener nuevos indicios de la antigua existencia de agua líquida en la superficie de Marte.

Los nuevos indicios los ha obtenido el equipo de Joseph Michalski, del Instituto de Ciencia Planetaria en Tucson, Arizona. Michalski y sus colaboradores han hecho un análisis de datos espectrométricos reunidos por la MRO. Esta sonda de la NASA hizo observaciones cruciales del fondo del cráter McLaughlin. Dicho cráter mide 92 kilómetros (57 millas) de diámetro y alcanza 2,2 kilómetros (1,4 millas) de profundidad.

Todo apunta a que el cráter albergó un lago, alimentado por aguas subterráneas.

En el fondo del cráter hay rocas que contienen minerales de carbonato y de arcilla que se forman en presencia de agua. El cráter McLaughlin carece de cauces fluviales grandes que pudieran haber servido para conducir agua a su interior. Sí hay pequeños canales que nacen en el borde de la pared del cráter, pero terminan cerca del nivel que pudo haber marcado la superficie del lago.

En su conjunto, éstas y otras características sugieren que los citados minerales de carbonato y de arcilla se formaron en un lago cuyo lecho era el cráter (que constituía una cuenca cerrada) y que estaba alimentado por aguas subterráneas

[Img #11654]

Ese lago, y el medio acuático subterráneo del que se abastecía de agua, pudieron ser sitios aptos para albergar formas de vida.

El cráter McLaughlin está situado en el extremo bajo de un terreno con pendiente, el cual mide varios cientos de kilómetros de longitud y se halla en el lado oeste de la región marciana conocida como Arabia Terra. Al igual que en la Tierra, las ubicaciones marcianas más probables para lagos alimentados por aguas subterráneas son las que tienen poca elevación con respecto al terreno circundante. Por lo tanto, en ese aspecto la ubicación del cráter McLaughlin también encaja a la perfección con la teoría de que albergó un lago.

Conforme se avanza en la exploración del Planeta Rojo, más complejo se revela este mundo, y mayores resultan ser sus similitudes con la Tierra.

INFORMACIÓN ADICIONAL : http://www.jpl.nasa.gov/news/news.php?release=2013-028

Los mitos mas conocidos sobre el espacio

Las películas que vemos en el cine, los comics y los libros que leemos ejercen una gran influencia en la imaginación y los conocimientos colectivos.  Tampoco es de de mucha ayuda las observaciones caseras que hacemos desde la tierra. Nuestra atmósfera varía los colores, distancias aparentes y posiciones de los astros (un efecto como el que se produce al ver a través del agua). Estos fenómenos hacen que la gente tenga ideas equivocadas sobre cómo es el espacio, la última frontera.

Cosas que por lógica creemos que un niño de preescolar puede responder, pero que en realidad inclusive a profesionales universitarios se les hace muy difícil razonar, debido a que dentro del transcurso de nuestras vidas hemos adquirido conocimientos y razonamientos que aunque parezcan lógicos no son verdaderos.

Así que les traigo un compendio de los mitos mas conocidos acerca del espacio…

Cinturón de asteroides

 Películas como El Imperio Contraataca o The Last Starfighter nos ilustran cinturones de asteroides en hora punta donde en espacios de unas cuantas centenas de metros hay cerca de 100 o mas asteroides  Naves espaciales que ignoran los principios de la inercia, efectuando complicadas y muy vistosas maniobras entre enormes asteroides. Esto es una visión muy equivocada de cómo son los cinturones de asteroides.
Nuestro cinturón de Kuiper entre las órbitas de Marte y Júpiter, está compuesto por cientos de miles de asteroides. Su tamaño va desde Ceres (casi 1.000 kilómetros de diámetro) hasta los pequeños de menos de un kilómetro. Según calculan los astrónomos de la  NASA, la distancia media entre cada asteroide, va de uno a tres millones de kilómetros. Si los asteroides estuvieran muy juntos, se producirían choques, estos choques despedirían a los asteroides a la profundidad del espacio. Por eso es muy difícil que los veamos juntos (aunque hay asteroides que orbitan de forma acompasada en verdaderos valses espaciales, asteroides con pequeñas lunas-asteroides a su alrededor, etc).
Y sobretodo no, no existen los “campos de asteroides”.

Agujeros negros malvados

Se nos suelen pintar a los agujeros negros como pozos de succión infinita. Es cierto que su atracción es tal, que hasta crean distorsiones en el tejido espaciotemporal. Pero esto no significa que sean incognoscibles o malvados. Existen varios tipos de agujeros negros que emiten diferentes radiaciones y sólo lo que ocurre más allá del horizonte de sucesos es una singularidad con la que podemos especular. El agujero negro es una de las formas en que una estrella supermasiva “se muere”. Sabemos que en el núcleo de nuestra Vía Láctea hay al menos un agujero negro, pero no debemos preocuparnos.
Si quieren saber un poquito mas acerca de los agujeros negros les recomiendo que pasen por esta entrada: ¿Qué es un agujero negro?
Incluso si sustituyéramos nuestro Sol por un agujero negro con su misma masa, la Tierra seguiría orbitando exactamente igual que lo hace ahora. Los agujeros negros deben cumplir con las leyes físicas conocidas (fuera de su horizonte de sucesos), es decir, deben cumplir con Newton y Einstein. Si tu nave interestelar se encuentra con un agujero negro, tienes mucho tiempo para girar un poquito y pasar de largo. Por tanto, es difícil que te ocurra lo que a la novia del protagonista de Pórtico, que se quedó “atrapada” orbitando un agujero negro. ¿Entonces cuándo se produce la espaguetización? Cuando te acercas lo suficiente como para no poder usar tus motores y salir de su atracción. Pero eso te puede pasar exactamente igual con nuestro Sol o con la Tierra misma.

El sol es amarillo

Decimos que el Sol es amarillo porque lo solemos ver amarillo. Cuando amanece o anochece, lo vemos rojo. Bueno, esto se debe al efecto de nuestra atmósfera: la composición química de la atmósfera atrapa las longitudes de onda más cortas de la luz visible, con lo que si al blanco del sol le restamos los azules y violetas, nos queda un toque más amarillo o rojo. Si salimos de nuestra atmósfera, a unos 100 km de la superficie de esta bola azul, veríamos al sol con su color verdaderoel blanco.

El cielo de Marte es rojo

Sin duda esta es una de mis favoritas. En Crónicas Marcianas, incluso se ve a Rock Hudson en camiseta de manga corta: si Marte es árido y rojo, es que hace calor. (No, no hace calor, de hecho, hace mucho frío). Lo cierto es que a Marte le llega aproximadamente la mitad de luz solar (radiación solar) que a la Tierra. La composición de su atmósfera, fundamentalmente CO2, hace que el cielo tenga color blanco. La combinación de lo blanco, las partículas en suspensión que pueda haber por tormentas de arena, y la poca luz solar que llega, nos pintaría un Marte que no llega a estar en penumbra, pero casi, como si permanentemente hubiera un eclipse de Sol. 
¿Entonces cómo es que en las fotos de Marte que aparecen en los dominicales se vea el cielo rojo? Esas fotos están coloreadas. Suena a explicación tonta, pero es la verdad.

La re-entrada a la atmósfera terrestre

Cuando las naves espaciales entran en la atmósfera, películas como Apolo 13, nos pintan un panorama poco apetecible: muchas vibraciones y una bola de fuego tiene a los astronautas pendientes de que los tornillos no se sueltenLa culpa de esto no es de la atmósfera, sino del presupuesto de la NASA. Si se utilizaran motores para compensar la atracción gravitatoria en sentido opuesto, la re-entrada podría realizarse más lentamente.
La bola de fuego que solemos ver, resulta de la ignición del aire comprimido que está delante de la nave. Cuando la nave va a mucha velocidad, el aire se comprime produciendo calor, el calor puede ser tal, que prenda fuego al aire. Si la nave tuviera combustible para la re-entrada podría venir más despacio, sin producir llamaradas. El problema es que cada kilo de carga que subimos al espacio es muy caro, por eso hacemos naves muy resistentes al calor.
Maldito presupuesto…!! 

En Marte no llueve

 La atmósfera marciana tiene una leve traza de vapor de agua. Es muy poca cantidad, pero con la baja temperatura precisa, se puede condensar. No habrá una gran llovizna en Marte, pero sí es posible tener niebla húmeda matinal en ciertas zonas. Como la superficie siempre está más fría que el aire, esta niebla se precipita sobre las rocas en forma de helada. Una de las primeras fotos de la sonda Viking, en los 70, mostraba helada matinal sobre las rocas. Los polos marcianos tienen color blanco de hielo de CO2 y de hielo de agua.

En la cara oculta de la Luna nunca da el Sol

Esta es muy fácil, inclusive parece mas que nada una inocentada. Podemos contestar que cuando se produce un eclipse de Sol, en la cara oculta de la Luna da el Sol. El mito de que ahí nunca da el Sol viene tal vez porque desde la Tierra siempre vemos la misma cara (siempre logramos sólo ver un 59% de la superficie lunar desde la tierra)esto se debe al acoplamiento de marea.

El espacio es muy frío

El espacio está casi vacío. No hay nada que pueda absorber el calor. La transmisión de calor se debe producir entre dos cuerpos en contacto. En el espacio no hay ningún tipo de aire que absorba el calor. Es más, un error frecuente en las naves espaciales populares es que no tienen paneles de irradiación. En el mundo real, lo primero que hace el transbordador espacial al salir al espacio es abrir su bahía de carga (las compuertas funcionan como emisores de calor). Si no lo hiciera, la temperatura de la nave aumentaría de forma constante matando a los astronautas.
Si no recibes calor de una estrella cercana, la poquísima cantidad de hidrógeno que hay en el vacío espacial acabaría por robarte todo el calor, pero le hace falta bastante tiempo. Así que si sales despedido al espacio no te congelarás inmediatamente.
 

Todo lo relacionado con el Big Bang

Todo conocimiento popular relacionado con el Big Bang es impreciso o simplemente falso. En particular, aquello de que se produce un estallido con origen en un punto superdenso. Es curioso que la gente caiga continuamente en el error, ya que es una de las pocas cosas que está comprobada empíricamente (y desde hace muchas décadas). No pudo haber una explosión en un punto concreto, porque todos los objetos (de masa bariónica al menos) del universo, se alejan unos de otros. Es difícil tener una imagen mental de esto, pero el Big Bang ocurrió en todas partes al mismo tiempo.
No me eches la culpa, el corrimiento al rojo demuestra que los objetos se alejan unos de otros mutuamente. Si bien es cierto que en el espacio muy profundo, en el espacio joven, aparecen las galaxias “muy cercanas” unas a otras, esto ocurre en todas las direcciones. Así que nos podemos imaginar un espacio viejo en cualquier punto de referencia aleatorio y un espacio cada vez más joven según nos alejamos de ese punto aleatorio. Esto ocurre en cualquier lugar y momento del universo.
Como el Big Bang es una singularidad cuántica, en la que por no existir no existía ni el tiempo, simplemente somos incapaces de saber qué pasó. 

La temperatura de los Meteoritos

Cuando un meteorito cae a la Tierra, no esta al rojo vivo, como se cree; de hecho, muchos llegan al suelo completamente congelados. Esto es porque en el espacio hay -273ºC de Temperatura, mas o menos. La fricción contra la atmósfera terrestre calienta y disuelve las capas exteriores del meteoro, pero nunca llega a calentar el centro debido a que la roca no es buena conductora del calor, y a medida que se acerca a la superficie la atmósfera se hace mas densa y lo frena lo suficiente como para que vuelva a enfriar su superficie.

La estrella mas brillante del cielo nocturno

La Estrella Polar no es la mas brillante del cielo, como se cita siempre en las películas cursis, de bajo presupuesto, etc. El importante honor le corresponde a Sirius, que brilla casi el doble, pero que no tiene la gracia de estar tan cerca del Polo Norte Celestial. Y aunque lo fuera, otro echo importante se ignora: la Estrella Polar no es una estrella, son varias que se van turnando para ocupar el lugar privilegiado. Hoy le toca a Polaris, que comenzara a alejarse del polo en el año 2100 y no volverá al puesto hasta dentro de unos 25.000 años después. 

Si conocen algunos otros que no se encuentran en la entrada, escriban un comentario con la descripción del mito y lo agregare gustosamente…

No olviden comentar….!!

El agujero negro de mayor masa del universo

Se ha descubierto un agujero negro que sacude los cimientos de muchos modelos actuales de evolución galáctica. Este monstruo tiene 17.000 millones de veces la masa del Sol, y es, por tanto, bastante más pesado de lo predicho por los modelos. Y aún más importante: el objeto podría ser el agujero negro más masivo conocido hasta la fecha.

Los astrónomos creen que hay un agujero negro supermasivo en el centro de cada galaxia. La masa de los agujeros negros de esa clase va desde varios cientos de miles de masas solares hasta unos pocos miles de millones. El agujero negro mejor investigado tiene alrededor de cuatro millones de masas solares y se encuentra en el centro de nuestra galaxia, la Vía Láctea.

En los estudios sobre las masas de galaxias distantes y sus agujeros negros se ha comprobado una interesante correlación: Un agujero negro alcanza típicamente sólo una fracción muy concreta de la masa total de la galaxia. Aunque no se conoce muy bien el por qué de esta proporción, desempeña un papel importante en todos los modelos teóricos actuales sobre evolución de galaxias.

Ahora, durante una búsqueda sistemática que se inició en 2010, y en la que se ha trabajado con el telescopio Hobby-Eberly y las imágenes archivadas del telescopio espacial Hubble, el equipo dirigido por Remco van den Bosch, del Instituto Max Planck para la Astronomía en Alemania, ha localizado un agujero negro que incumple esta proporción.

Está en el centro de la galaxia NGC 1277, ubicada a 220 millones de años-luz, en la constelación de Perseo. NGC 1277 tiene tan sólo el 10 por ciento del tamaño y de la masa de nuestra Vía Láctea.

[Img #11313]

Con el fin de determinar la masa del agujero negro, van den Bosch y sus colegas produjeron un modelo dinámico de la galaxia que incluye todas las órbitas estelares posibles. Comparaciones sistemáticas de los datos del modelo con los de las observaciones mostraron qué combinaciones de órbitas y valores de masa del agujero negro proporcionan la mejor explicación para las observaciones.

El resultado es que el agujero negro del centro de NGC 1277 debe tener alrededor de 17.000 millones de masas solares. Esto significa que el agujero podría ser el más masivo conocido. Se calcula que la masa del agujero negro que ahora ostenta el récord actual debe tener entre 6.000 y 37.000 millones de masas solares. Si el valor real está en el extremo inferior de este rango, el agujero de NGC 1277 superaría este récord.

Sin embargo, la mayor sorpresa para los astrónomos es que este agujero tan masivo esté en una galaxia bastante pequeña. A juzgar por el tamaño de ésta, el agujero negro debería ser mucho menos masivo, si tenemos en cuenta la citada proporción típica entre masa de una galaxia y masa de su agujero negro central.

Es que acaso los científicos se han equivocado, o es algo que escapa de los precedentes históricos de la astronomía y la astrofisica…

MAYOR INFORMACIÓN: http://www.mpg.de/6648360/black-hole-galaxy-models?filter_order=L