Paradojas científicas que no conocias

Por norma general, ante muchas situaciones (la mayoría de ellas), acostumbramos dejarnos llevar por el sentido común y la lógica, que son las mismas que nos dictan los parámetros para pensar y decidir en base a un determinado escenario. Sin embargo, en ciertas ocasiones, las cosas terminan siendo muy diferentes a lo que pensábamos desde un principio, o directamente, desafían el sentido común y la lógica, llegando al punto de resultar imposibles.

A este concepto se le denomina paradoja.  

Debido a que las paradojas son bastante conocidas por la sociedad en general, en esta entrada he de desarrollar las ideas generales de las paradojas mas conocidas en el ámbito científico y no científico, así que sí conocen otras comenten y las agregare gustosamente.

El gato de Schrödinger

Sin duda alguna mi paradoja preferida es la del experimento teórico de El gato de Schrödinger.  Esta paradoja muy famosa pertenece al campo de la física, más concretamente al de la física cuántica.  En este mismo blog pueden encontrar una entrada dedicada exclusivamente a esta paradoja.

En el experimento de Schrödinger, tenemos una caja totalmente opaca, con 3 elementos en su interior: un gato (vivo), una botella con un gas venenoso y un aparato con una partícula radioactiva, la cual tiene una probabilidad del 50% de desintegrarse.

En el caso de desintegrarse, la botella libera el gas, matando al gato. En el caso de no desintegrarse, no ocurre absolutamente nada (y el gato vive).

La paradoja consiste en que, según nuestro sentido común, el gato estará vivo o muerto pero no podremos saberlo hasta abrir la caja. Según las leyes de la física cuántica, el gato está vivo y muerto (los dos estados a la vez) hasta que se abra la caja y se compruebe.

  

Es muy conocida por las personas en general, estén o no relacionadas con algún campo de la ciencia. En el mundo de Internet es muy conocida (quizás por el mero hecho de existir un gato en la demostración).

Existe una variación del gato de Schrödinger, denominado El suicidio cuántico, aunque también podríamos denominarlo la venganza del gato de Schrödinger, ya que se desarrolla la teoría desde el punto de vista del gato (y con un humano).

 

Más información | La mascota preferida de Schrödinger  

El Cuadrado Perdido

El problema del cuadrado perdido es una paradoja muy conocida y utilizada en el inicio del estudio de la geometría, dentro del campo de las matemáticas. 

La paradoja consiste en la reordenación de los elementos del triángulo de la imagen superior. ¿Cómo es posible que sólo reordenando las mismas piezas, nos sobre ese espacio cuadrado?

Obviamente, tiene truco y se trata sólo de una ilusión óptica. En el siguiente enlace se puede observar claramente la explicación de ese cuadrado que desaparece.


Solución visual | Solution to Missing Square 

 La cinta de Möbius

La banda o cinta de Möbius (o Moebius) es una figura simple y muy sencilla de construir que se utiliza mucho en el ámbito de las matemáticas (geometría) o en topología.  

Entre las propiedades de esta cinta, que son las que la hacen paradójica, quizás la que más destaca es que tiene una sola cara y un solo borde, lo que lo convierte en algo similar a un objeto imposible (pero obviamente, posible).

Más información | WIKIPEDIA Y GAUSSIANOS

La paradoja del Abuelo

La paradoja del abuelo es una paradoja física muy utilizada en la ciencia ficción, ya que tiene su base en los viajes en el tiempo. Es muy conocida y se ha utilizado en muchas obras, como por ejemplo Terminator, Regreso al futuro o Futurama.  

Suponiendo el caso de que una persona pudiera viajar hacia atrás en el tiempo, retrocediera varios años y matase a su abuelo antes de que tuviera descendencia (concretamente al padre del viajero del tiempo), este no habría nacido ni hubiera tenido hijos, por lo cual el viajero del tiempo tampoco nacería ni le sería posible viajar en el tiempo para matar a su abuelo.  

Es curioso como se han ideado ciertas soluciones a esta paradoja para hacer posible el suceso, como la existencia de universos paralelos, líneas temporales alternativas o tantas otras.

Mas información | WIKIPEDIA

¿El huevo o la gallina?

Probablemente, la paradoja más conocida del mundo. La hemos escuchado de nuestros hermanos, nuestros padres, los abuelitos, la mayoría de nuestros amigos, los profesores, prácticamente todo mundo la conoce (aunque algunos no saben que es una paradoja).

«¿Qué ocurrió primero, la gallina o el huevo?». En el caso de ser la gallina, se plantea que la gallina tuvo que salir de un huevo. En el caso de ser el huevo, éste lo tuvo que poner una gallina.

Este dilema, adjudicado a las ramas de la filosofía, es muy conocido en la cultura popular y se han realizado multitud de teorías sobre ella. Por ejemplo, Aristóteles afirmaba que lo primero en existir fue la gallina, mientras que Stephen Hawking asegura que lo fue el huevo.  

 Mas información | WIKIPEDIA

 La paradoja del Cumpleaños

Esta paradoja, pertenece al campo de las matemáticas, más específicamente a la estadística. 

Se dice que en un cumpleaños con 23 personas, existe una probabilidad de más del 50% de que al menos dos personas cumplan años el mismo día. De hecho, si hay 50 personas, la probabilidad es casi del 100% (97% exactamente).


Esta paradoja sorprende mucho por una especie de ilusión mental, ya que el sentido común dicta lo contrario que la demostración matemática. Aún así, si no te crees la paradoja, puedes comprobarlo en el simulador visual del enlace.

Simulador de la paradoja del cumpleaños | http://www-stat.stanford.edu/~susan/surprise/Birthday.html
Mas información | WIKIPEDIA  

Teorema de los Infinitos Monos

Otro teorema clásico y popular, que quizás no llega a ser paradoja, pero sí merece la pena añadir en este listado, es el teorema de los infinitos monos. Es tan conocido que ha sido referenciado en multitud de obras, desde el libro La guía del autoestopista galáctico, de Douglas Adams, hasta en varios capítulos de Los Simpsons, entre muchos otros.

El teorema afirma que si un número infinito de monos escribieran a máquina por un intervalo infinito de tiempo, acabarían escribiendo las obras de Shakespeare.

Aunque el teorema original versaba sobre un sólo mono y cualquier libro de la Biblioteca Nacional Francesa, la cultura popular hizo que se popularizara esta versión. Hace varios años, también se llevó a cabo un experimento (Experimento Vivaria) donde tomaron fotos y realizaron pruebas a varios monos, para ver que eran capaces de escribir y durante cuanto tiempo.

Mas Información | Informe del experimento Vivaria y también Infinite monkey theory 

La paradoja de Monty Hall

Otra paradoja perteneciente al campo de la estadística es la paradoja de Monty Hall, también llamada la paradoja de las tres puertas.  

En un concurso televisivo tenemos tres puertas cerradas. Detrás de una de ellas hay un coche, mientras que detrás de las otras dos, hay una cabra respectivamente.

Después de que el concursante haga su elección (y antes de comprobar si ha acertado), el presentador abre una de las puertas no elegidas donde sabe que hay una cabra y le pregunta al concursante «¿Está seguro de querer abrir esa puerta o quiere elegir otra?»

El sentido común dicta que no hay diferencia entre cambiar o no la elección de la puerta, sin embargo, el problema tiene trampa, ya que si nos quedamos con la puerta elegida inicialmente tenemos menos probabilidades de acierto que si cambiamos de puerta.

Monty Hall Simulatorhttp://www.grand-illusions.com/simulator/montysim.htm
Más información | La paradoja de Monty Hall 

 La paradoja de Abilene

La paradoja de Abilene es una situación estudiada en el campo de la sociología en la que un grupo de personas realizan una acción que no quieren realizar (individualmente) porque ningún miembro está dispuesto a objetar algo o negarse.  

En una calurosa tarde, un matrimonio y su suegra están jugando al dominó a la sombra. El suegro propone hacer un viaje a Abilene (un caluroso viaje de más de 80km). La mujer acepta «¡Gran idea!». El marido dice «A mi me parece bien, espero que a tu madre también». «Por supuesto», responde.

Tras realizar el viaje, con más horas de lo previsto, malhumorados y agotados, la suegra dice «Menudo viaje. Hubiera preferido quedarme en casa, pero acepté porque estaban muy ilusionados». El marido reconoce que vino sólo para satisfacer al resto ya que pensó que estarían aburridos, mientras que la mujer sostiene que aceptó para no estropear el plan de los demás.

Finalmente, quedan perplejos. Decidieron en común hacer un viaje que ninguno de ellos quería hacer.

 Mas información | WIKIPEDIA

La paradoja de los gemelos

La paradoja de los gemelos (o de los relojes) es un experimento teórico catalogado dentro de la física (relatividad).

Dos gemelos deciden realizar un experimento: Uno de ellos viajará en una nave a la velocidad de la luz a una estrella, mientras que el otro se queda en la Tierra.

De acuerdo con la dilatación del tiempo (teoría de la relatividad), cuando el gemelo viajero vuelva a la Tierra, será más joven que el que se quedó, ya que el tiempo del gemelo de la nave va más despacio que el de la Tierra.

Mas información | WIKIPEDIA

El dilema del Prisionero

El dilema del prisionero no es una paradoja en sí, pero es un problema dentro de la rama de la teoría de juegos que puede considerarse paradójico.  

La policía arresta a dos sospechosos. No hay pruebas suficientes para condenarlos, sin embargo, se les separa en dos celdas diferentes y se les ofrece el mismo trato: Si uno de ellos confiesa y su cómplice no, se condenará 10 años al cómplice y se liberará al delator. Si ambos confiesan, se condenarán a 6 años cada uno. Si ninguno confiesa, sólo podrán encerrarlos durante 6 meses por cargos menores.

El experimento muestra que dos personas no cooperarán, incluso aunque en ello vaya el interés de las dos.

Es curioso saber que, en una variación de este problema, el prisionero iterado, se repite varias veces el mismo juego, añadiendo la posibilidad de castigar al otro jugador por la no cooperación en partidas previas. El incentivo para defraudar termina siendo superado por la amenaza del castigo, por lo que conduce a una cooperación forzada.

Mas información | WIKIPEDIA 

La paradoja del Hotel Infinito

El Hotel infinito de Hilbert es una metáfora paradójica relacionada con el mundo de las matemáticas.  

Dos grandes empresarios con un hotel gigante, tienen el problema de que quieren garantizar a los clientes que siempre tendrán una habitación disponible para un nuevo cliente. Como el hotel actual, con 1.000.000 de habitaciones no era suficiente, tomaron cartas en el asunto.  

Los dos empresarios decidieron construir el primer hotel con habitaciones infinitas. Un número infinito de habitaciones garantizaba dar alojamiento a un número infinito de clientes. Pero al llegar un nuevo cliente, se vieron de nuevo con el mismo problema.

Para ello idearon una solución. Dar alojamiento a los clientes con la única condición de que si llega un nuevo cliente, tienen que abandonar su habitación e irse a la habitación siguiente (+1). Así, el nuevo cliente se hospedaría en la habitación 1, y el resto se iría rodando a la habitación directamente siguiente. Como el hotel tiene un número infinito de habitaciones, no habría última habitación.

Más información | WIKIPEDIA

 La paradoja de la Serpiente

Finalmente, para terminar, otra paradoja popular, muy similar al de el huevo o la gallina, denominada La paradoja de la serpiente, muy utilizada en campos y materias de filosofía. 

Un uróboro es una palabra griega que representa a un animal que engulle su propia cola, formando un círculo. Si dicho animal, por ejemplo, una serpiente, comienza a comerse su cola y termina tragándose todo su cuerpo… ¿Dónde estaría la serpiente?


La paradoja entra en juego cuando nos damos cuenta que la serpiente se encuentra dentro de su propio estómago, pero simultáneamente sigue comiéndose a sí misma.

Más información Uróboro http://es.wikipedia.org/wiki/Ur%C3%B3boros

La paradoja de la Fuerza Irresistible

La paradoja de la fuerza irresistible (o imparable) es una paradoja clásica que se formula así: ¿Qué pasaría si una fuerza imparable chocara contra un objeto inamovible?

Lógica: Si existe una cosa tal como una fuerza imparable, entonces no puede existir un objeto inamovible, y viceversa. Es lógicamente imposible la existencia de los objetos (una fuerza imparable y un objeto inamovible) en un mismo universo al mismo tiempo.  

Semántica: Si existe una cosa tal como una fuerza imparable, entonces hablar de un objeto inamovible es un sinsentido en ese contexto y viceversa, con lo cual el asunto vendría a ser algo así como preguntar, por ejemplo, por un triángulo de cuatro lados, ó ¿qué ocurriría si dos más dos diera como resultado cinco?.


Esta paradoja es similar a la paradoja de la omnipotencia, pero ésta se suele discutir en el contexto de la omnipotencia divina (¿Podría Dios crear una piedra tan pesada que ni él mismo pudiera levantarla?).

La paradoja debe ser entendida como un ejercicio de lógica, no como el postulado de una posible realidad. Según las creencias científicas modernas, no hay, y de hecho no puede haber, fuerzas imparables ni objetos inamovibles. Un objeto inamovible tendría que tener una inercia infinita y por lo tanto una masa infinita. Tal objeto se derrumbaría bajo su propia gravedad y crearía una singularidad. Una fuerza imparable implicaría una energía infinita, lo que según la ecuación de Albert Einstein E=mc² implicaría también una masa infinita. Obsérvese que, desde un punto de vista moderno, una bala de cañón que no puede ser absorbida y una pared que no puede ser derribada son un mismo tipo de objeto imposible, uno con inercia infinita.

Un ejemplo de esta paradoja fuera de la cultura occidental puede ser visto en el origen de la palabra china para paradoja (矛盾), literalmente “lanza escudo” la palabra proviene de una historia en la que un vendedor estaba tratando de vender una lanza y un escudo. Cuando le preguntaron cómo de buena era su lanza, éste aseguró que podía atravesar cualquier escudo y cuando le preguntaron cómo de bueno era su escudo respondió que podía detener los ataques de cualquier lanza. Entonces una persona preguntó qué pasaría si lanzaba su lanza contra su escudo. El vendedor no pudo contestar y esto condujo a la aparición en el idioma de 自相矛盾 o “auto – contradictorio”.

Otra aproximación a esta paradoja es decir simplemente que el objeto continuará existiendo, ya que por definición una fuerza imparable es un objeto inamovible.  

 Mas información WIKIPEDIA 

La paradoja de Fermi

Y para terminar, una paradoja de índole científico muy conocida por las personas en general. Básicamente la paradoja de Fermi es la contradicción entre las estimaciones que afirman que hay una alta probabilidad de existencia de civilizaciones inteligentes en el universo, y la ausencia de evidencia de dichas civilizaciones. Surgió en 1950 en medio de una conversación informal del físico Enrico Fermi con otros físicos del laboratorio pero ha tenido importantes implicaciones en los proyectos de búsquedas de señales de civilizaciones extraterrestres.

Trata de responder a la pregunta: «¿Somos los seres humanos la única civilización avanzada en el Universo?» La ecuación de Drake para estimar el número de civilizaciones extraterrestres con las que finalmente podríamos ponernos en contacto parece implicar que tal tipo de contacto no es extremadamente raro. La respuesta de Fermi a esta conclusión es que si hubiera numerosas civilizaciones avanzadas en nuestra galaxia entonces «¿Dónde están? ¿Por qué no hemos encontrado trazas de vida extraterrestre inteligente, por ejemplo, sondas, naves espaciales o transmisiones?» Aquéllos que se adhieren a las conclusiones de Fermi suelen referirse a esta premisa como el Principio de Fermi.

La paradoja puede resumirse de la manera siguiente: La creencia común de que el Universo posee numerosas civilizaciones avanzadas tecnológicamente, combinada con nuestras observaciones que sugieren todo lo contrario es paradójica sugiriendo que nuestro conocimiento o nuestras observaciones son defectuosas o incompletas.  


La formulación de la paradoja surgió en una época en la que Fermi estaba trabajando en el Proyecto Manhattan cuyo fin era el desarrollo de la bomba atómica estadounidense. La respuesta de Fermi a su paradoja es que toda civilización avanzada desarrollada en la galaxia, desarrolla con su tecnología el potencial de exterminarse tal y como percibía que estaba ocurriendo en su época. El hecho de no encontrar otras civilizaciones extraterrestres implicaba para él un trágico final para la humanidad.

Mas información | WIKIPEDIA 

Anuncios

Cosmología y el Principio Antrópico

¿El Universo fue creado para el hombre o eso es lo que nosotros queremos creer?

El principio antrópico quizás este entre los primeros lugares en el top de los temas mas polémicos de la cosmología. Prepárense para el debate y la controversia.!!!

Para empezar debemos tener un concepto general pero preciso acerca de lo que es la cosmología[1]. Desde que el hombre ha podido ver las estrellas, el Sol y la Luna se ha preguntado porque y como se origino, como ha evolucionado y como sera en un futuro, el conjunto de estudios sobre el Universo en su conjunto es lo que podemos llamar cosmología.

Por ende la cosmología conduce a cuestiones y teorías que se basan en 3 puntos de inflexión  la Ciencia, la filosofía y la religión. Para poder explicar quizás la pregunta mas importante de todas en la rama de la Cosmología, ¿Como se origino y porque nuestro Universo es como es?… se requiere de una mezcla de esas 3 disciplinas, lo que conlleva a muchos y muy acalorados debates para defender y/o descartar varias teorías.

Una de ellas engloba un principio que para muchos (realmente muchos) es un tanto confuso y fuera de toda lógica. Ese principio fue propuesto por un cosmólogo y físico teórico de origen australiano llamado Brandon Carter [2] durante una celebre conferencia ante la Unión Astronómica Internacional que se llevo a cabo en 1974.

Las ideas de este físico se pueden resumir en:

“Aunque nuestra situación [en el universo] no es necesariamente central, es necesariamente privilegiada en algún grado”. 

Según este principio, la vida en la Tierra y la aparición del hombre en ella se conectan en una relación con el origen del Universo. El principio es muchas veces confuso y casi siempre controvertido, puede expresarse de muchas formas distintas, pero su idea fundamental puede resumirse en que:

“El Universo es como es porque nosotros estamos aquí para observarlo”.

Tanto desde el punto de vista físico como cosmológico, esta afirmación otorga un papel fundamental a los seres dotados de conciencia dentro de la inmensa maquinaria universal. 

Aunque tiene varias formulaciones (débil, fuerte y final), todas recogen (con un grado ascendente de rotundidad) que las condiciones y variables que se vienen dando desde el principio del Universo parecen haber sido “afinadas” de forma que, finalmente, hayan permitido la aparición de vida consciente e inteligente en el Cosmos. Esto no tiene nada que ver con la figura de un “creador”; más bien viene a decir que, de todos los Universos posibles que pudieron crearse en el Big Bang, éste es el que tenemos porque unos seres como nosotros están aquí para poder observarlo y plantear las preguntas necesarias para comprenderlo.

Podemos decir que es un principio que tiene parecido con el conocido argumento del diseño.

Cuando nos ponemos a contemplar cualquier forma de vida en la tierra no podemos sentir nada mas que admiración. La naturaleza ha llegado a tal complejidad que lo único que podemos hacer es preguntarnos como es que ha llegado a ser tal como es. Cada ser viviente tiene estructuras orgánicas y finalidad en sus funciones, algo tan increíble y magnifico no puede ser obra de la casualidad o de la probabilidad, y es allí donde los antiguos pensadores atribuyeron todo el merito a la voluntad creadora del Gran Diseñador o Dios. El argumento del diseño ha venido siendo utilizado junto con argumentos cosmologicos como prueba irrefutable de la existencia de un Creador del Universo.

El planteamiento del principio antrópico causo un enorme revuelo, sobre todo en los medios de divulgación científica, debido a que con el principio antrópico debemos “razonar a la inversa” de como se hace con el “método científico”, dicho de otra manera, en vez de decir que la vida en la Tierra apareció porque las condiciones para ello fueron favorables, el principio manifiesta que la existencia de nosotros, seres inteligentes aquí en la Tierra puede ser usada para explicar porque el universo es como es y por qué las leyes de la naturaleza son como las conocemos.

Inclusive el celebre físico teórico Stepehn Hawking [3] sugirió un una de sus publicaciones del 2004 que nuestro Universo es mucho menos “especial” de lo que los exponentes del principio antrópico pretenden. En su Historia del tiempo [4], Stephen Hawking lo dijo escuetamente así:

“Vemos el universo de la forma que es porque si fuese diferente no estaríamos aquí para observarlo”. 

Aunque Brandon Carter presentó sus ideas en 1974 en una publicación de la Unión Astronómica Internacional [5], en 1983 declaró que, en su forma original, el principio sólo pretendía poner sobre aviso a los astrofísicos y los cosmólogos sobre los posibles errores que se derivarían de la interpretación de los datos astronómicos y cosmológicos a menos que las restricciones biológicas del observador se tomasen en cuenta.

Como naturalmente sabemos, los razonamientos de esta clase han sido y siempre serán objeto de muchos y muy intensos debates. A pesar de que ha sido muy combatido por la corriente materialista, el principio antrópico ha provocado un acercamiento del hombre al universo, hasta llegar al punto de que ya varios científicos han llegado inclusive a hablar del Universo como “un hogar para el hombre”. 

Según el principio antrópico, el universo está adaptado al hombre, como si hubiese sido expresamente diseñado para que él lo habitase. Este principio, que en su forma débil es aceptado por los cosmólogos, dada su evidencia, viene a decir:

Las cosas en la Tierra son como son, porque en el universo fueron como fueron. Y si no hubieran sido como fueron, nosotros no existiríamos.

En términos más científicos, en dicha forma débil, el principio antrópico fue enunciado así por Barrow y Tipler en 1986:

“Los valores observados de todas las cantidades cosmológicas y físicas [del universo] no son igualmente probables sino que aparecen restringidos por el requisito de que existan lugares donde pueda surgir vida basada en el carbono y por el requisito de que el universo posea bastante edad para que ello haya sido ya así”.

Ambos autores lo calificaron como “uno de los más importantes y bien fundados principios de la ciencia”.

¿Esto es Física verdadera o tan solo Filosofía?

Algunos cosmologos como John Peacock se declararon a favor del principio antrópico  rechazando la idea relativamente extendida de que este principio representa un gran paso hacia atrás frente a la física  Muchos otros hablaron del principio como de una idea mas filosófica que científica. Tal es el caso del astrofisica Lawrence Karuss quien dijo que el principio antrópico era:

“una forma de matar el tiempo cuando los físicos no tenían una mejor idea.”

En lo personal, yo estoy mas que de acuerdo con Karuss, aunque el principio en si mismo da mucho en que pensar. Podemos decir que es una modificación a la filosofía escrita en el lenguaje de la física, no podemos afirmar donde termina una y empieza la otra, pero se nota un tanto fantasiosa.

¿Y todo eso que implica?

Antes de llegar a las conclusiones imaginemos la siguiente situación para poder comprender mejor las ideas del articulo:

Haz sido reclutado para participar en un experimento, estas en una ciudad que ha sido aislada completamente del mundo exterior, solo estas tu y 999.999 personas mas, en total hay un millón de personas. El experimento solamente durara 48 horas, antes de que lleguen las 6:00 P.M. todas las personas excepto una (elegida completamente al azar) recibirán una inyección que los matara mientras estén durmiendo, mientras que a la ultima persona recibirá una inyección placebo [6] .

Luego de ello todos son enviados a sus casas y todos se van a dormir. A la mañana siguiente, solo una persona de el millón despierta en su cama (todos los demás han muerto). Y por supuesto, supongamos que tú eres la única persona que despierta y que no sabes cual es el criterio que ha determinado la elección de quien vive y quien muere, solamente que todos menos uno han muerto y tú eres el muy agradecido afortunado.

Solo imagínate, al despertar estarías muy sorprendido, ¡estas vivo! Una probabilidad de uno entre un millón, ¡y has sido tú el que se ha salvado! ¿Pero por qué? ¿Qué es lo que te hace especial, diferente?

Con una probabilidad tan pequeña de salvarte, ¿no es lógico pensar que alguien ha elegido que tú seas el que se salve?

Pero tú sabes lo que significa la selección del observador: estas realizando estas conjeturas sabiendo que tú eres el observador, y no otro. ¿Qué quiere decir esto? Supongo que no tienes ninguna duda:

Cualquiera que fuera la persona que se salve pensaría que es especial y tiene mucha suerte, porque todos los demás están muertos y no pueden preguntarse nada.

Es decir, eres “especial” no porque haya ningún designio para salvarte, sino porque eres el único que puede hacerse preguntas. Y daría lo mismo que en vez de un millón hubiera un sextillón o un billón de personas de las cuales solo una se salva, esa persona se preguntaría porque la han elegido a ella.

¿Y todo esto que implica?

Desde hace muchos años se ha venido poniendo de manifiesto la aparente “sintonización” de las constantes del Universo para producir la vida tal como la conocemos. Si se cambia casi cualquiera de las constante sin dimensiones que determinan el comportamiento relativo de las fuerzas fundamentales del Universo, no estaríamos aquí.  Y el cambio puede ser muy pequeño: por ejemplo, hacer la fuerza nuclear fuerte un 2% mas grande, haría que el hidrógeno fuera el único elemento químico estable del Universo (no habría reacciones químicas porque no habría elementos con los que realizarlas ), lo mismo ocurre con la fuerza gravitatoria, la fuerza nuclear débil, la constante de estructura fina… cambios en muchas de ellas significaría un Universo estéril, frió y sin vida.

Esto nos ha llevado a preguntarnos, desde hace mucho tiempo:

 ¿No es demasiada casualidad? De todos los posibles valores que tienen estas constantes, ¿por qué razón tienen los que, precisamente, nos han creado a nosotros?

De hecho, esta “coincidencia” en las constantes universales es un argumento relativamente común a favor de la existencia de Dios. Puesto que, si estas constantes pueden tomar muchos valores (supongamos que todos los valores tienen la misma probabilidad de ocurrir) y justo han ocurrido los que han producido la vida, ¿no es lógico pensar que no puede ser fruto del azar? La probabilidad es tan pequeña que parece que el Universo ha tenido que ser “diseñado” para la vida.

Pero este argumento es incompleto. Para simplificar el problema, supongamos que la premisa de la que parte del argumento del “Diseño Inteligente” (que todos los valores posibles de las constantes tienen la misma probabilidad de ocurrir) es cierta y que (por ejemplo) la probabilidad de que tengan los valores reales que observamos es de una entre un billón.

El defensor del argumento anterior diría: La probabilidad de que el Universo sea como es y no de otra manera es de una entre un billón. Esta probabilidad es minúscula, por lo tanto podemos afirmar que es muy probable que haya un “diseñador” que ha elegido los valores de estas constantes a priori para producir la vida inteligente en la Tierra.

En efecto, supongamos que la probabilidad de que el Universo produzca la vida como la conocemos es de una entre un billón: supongamos que hay un billón de Universos “posibles”, y en todos menos uno no existe la vida. Si yo fuera un observador externo a todos los Universos, podría afirmar que la probabilidad de elegir uno al azar y que tenga vida es de una entre un billón….pero si estoy en el Universo y me hago estas preguntas, es que necesariamente estoy justo en el que existe la vida inteligente.

De hecho, expresado así, el argumento es una tautología [7]:

Un Universo en el que existo y puedo preguntarme por qué existe la vida en él debe, necesariamente, ser un Universo cuyas condiciones son las indispensables para la vida, independientemente de lo improbables que éstas sean.

Este argumento es, dicho con mis propias palabras, la forma débil del Principio Antrópico.

¿Qué utilidad puede tener una perogrullada así? Voy a expresar el Principio con otras palabras: Puede haber muchísimos Universos en los que no exista vida inteligente, pero sólo en los que sí la haya puede haber alguien que se sorprenda de lo excepcional que es el suyo.

Es decir, que puede que no haya nada en absoluto “excepcional” en nuestro Universo. Los valores de sus constantes pueden ser totalmente aleatorios, como los de otro millón, o billón, o trillón de Universos, pero sólo en aquellos de esos Universos en los que da la casualidad de que surja la vida puede algún ser preguntarse por qué tiene la suerte de que las constantes valgan lo que valen.

Lo mismo puede aplicarse a otros argumentos del “Diseño Inteligente”. Por ejemplo:

 ¿cómo es posible que, por azar ciego, la evolución haya creado algo tan complejo como el ser humano, capaz de hacerse preguntas sobre el Universo?

Imaginemos que, de cien millones de planetas en los que la evolución empieza de cero, sólo en uno (aleatoriamente elegido) pudiera producirse vida inteligente. ¿Qué pensarían los seres de ese planeta? No voy a redundar en los mismos razonamientos – la selección del observador una vez más.

Existen otras formas del Principio Antrópico que no me parecen tan filosóficamente sólidas y, de hecho, se llama a muchas cosas “Principio Antrópico” y no está muy claro, a veces, a qué se refieren con eso. Pero espero que la idea central haya quedado clara.

Conclusión

La humanidad hizo una buena utilización del aparente diseño de la naturaleza como prueba positiva de la existencia de Dios. Pero fue gracias a la aparición de  El origen de la especies de Darwin cuando el ateo pudo sentirse intelectualmente completo, al tener en sus manos una alternativa naturalista y científica a la diversidad y a la complejidad de la vida en la Tierra. Una vez desterrado de la biología  el viejo argumento del diseño resurgió en el contexto del principio antrópico y en un nuevo escenario, la cosmología. Al igual que con el argumento clásico del diseño, el nuevo argumento del principio antrópico ha sido perfectamente desmontado desde el punto de vista lógico  Y en la misma linea de Darwin, la física y la cosmología nos presentan escenarios completamente naturalistas donde el ajuste fino aparente de la constantes de la física y de los parámetros que rigen el universo es una consecuencia trivial de los mismo.

Como se puede ver, no es cierto que exista un callejón sin salida para una explicación completamente naturalista del origen del universo, de sus leyes y características. Es más, la situación es más bien todo lo contrario; Aquellos que siguen buscando alguna evidencia de diseño divino o finalidad en la Naturaleza se encuentran en las mismas narices con un muro al final del camino. A medida que sabemos más sobre la física del universo primigenio, la imagen del Creador se diluye hasta convertirse en sólo la esperanza de algunos de poner al hombre en un lugar central que nunca le ha correspondido. Porque el primer gran pecado del argumento del diseño siempre fue su injustificado antropocentrismo. Plantear un propósito para los cielos centrado en lo humano suena a una lamentable falta de sentido del humor acerca de la condición humana.

Pero como siempre, el lector tiene la ultima palabra.

Referencias: 

Libros y Artículos de Interés relacionados:

  • Barrow, John D. and Tipler,Frank J. 1986. The Anthropic Cosmological Principle. Oxford: Oxford University Press.
  •  López, Cayetano 1999. Universo sin fin. Taurus
  • Hoyle, F 1953 Phys. Rev. 92, pp. 649 y 1095. Ver también Hoyle, F., “The Universe: Past and Present Reflections,” in Annual Reviews of Astronomy and Astrophysics, 20. (1982)
  • Carter, Brandon 1974. Large Number Coincidences and the Anthropic Principle in Cosmology, in M. S. Longair, ed. D. Reidel Publishing Co. “Confrontation of Cosmological Theory with Astronomical. Proceedings of the second Copernicus Symposium”.
  • John Brockman 1995, La tercera cultura, Tusquets editores 1996
  •  Mayr E. 1978 Scient. Am. 239, 46.
  • Smolin, Lee 1997, The Life of the Cosmos. New York, Oxford.
  • Thimothy Ferris 1998, Informe sobre el universo, Ed. Crítica, p.257.
  • On the Anthropic principle in the Multiverse: Addressing Provability and Tautology 
  • Anthropic Argument for Three Generations – Andrew Gould

Descubiertas las primeras galaxias del Universo

Recientemente se ha confeccionado el primer censo de las galaxias más primitivas y distantes. Un equipo de astrónomos dirigido por el Instituto Tecnológico de California (Caltech), en Pasadena, ha utilizado el Telescopio Espacial Hubble de la NASA para descubrir siete de las galaxias más arcaicas y distantes.

La más antigua de estas galaxias descubiertas ha sido observada tal como era cuando el universo tenía sólo 380 millones años de edad. Todas las galaxias recién descubiertas se formaron hace más de 13.000 millones de años, cuando el universo tenía sólo el 4 por ciento de su edad actual. A ese período los astrónomos lo llaman el “amanecer cósmico”, debido a que fue entonces cuando nacieron las primeras galaxias y el universo pasó a estar más iluminado. Las estrellas y galaxias comenzaron a formarse alrededor de 200 millones de años después del Big Bang. El universo tiene ahora 13.700 millones de años de edad.

Las nuevas observaciones abarcan un período de entre 350 millones y 600 millones de años después del Big Bang, y representan el primer censo fiable de galaxias en una época tan temprana de la historia cósmica. Los astrónomos han comprobado que la cantidad de galaxias aumentó constantemente con el paso del tiempo, lo que respalda la idea de que las primeras galaxias no se formaron en una proliferación masiva y acelerada, sino que poco a poco se fueron forjando con la progresiva anexión de estrellas

[Img #11725]

La nueva imagen de campo ultraprofundo del Hubble revela 7 galaxias remotas nunca antes vistas. 

Dado que a la luz le toma miles de millones de años viajar distancias tan vastas, las imágenes astronómicas muestran cómo se veía el universo durante ese período, hace miles de millones de años, cuando la luz que ahora nos llega se embarcó en su viaje. Cuanto más lejos en el espacio miran los astrónomos, más atrás en el tiempo están viendo.

En el nuevo estudio, el equipo de Richard Ellis ha explorado los confines conocidos del cosmos y, por lo tanto, un pasado igual de lejano, en este caso el más remoto que ha sido estudiado hasta ahora con el Telescopio Espacial Hubble. Las nuevas observaciones llevaron al Hubble al límite de sus capacidades técnicas, y permiten atisbar cómo serán las que se hagan con la próxima generación de telescopios espaciales infrarrojos, gracias a los cuales será posible sondear el universo aún más atrás en el tiempo.

Información Adicional: http://www.caltech.edu/content/caltech-led-astronomers-discover-galaxies-near-cosmic-dawn

Ultimo catalogo de Kepler y los Exoplanetas

El fruto del trabajo realizado últimamente con los datos reunidos por el telescopio espacial Kepler, de la NASA, ha sido presentado de forma oficial: A la lista de planetas descubiertos en otros sistemas solares habrá que agregarle 461 más, si se confirma que estos últimos son lo que parecen.

Cuatro de los potenciales nuevos planetas tienen menos del doble del tamaño de la Tierra y orbitan en la franja que se conoce como Zona Habitable, la región en un sistema planetario donde por la distancia idónea a la estrella las temperaturas podrían permitir la existencia de agua líquida en la superficie de los planetas allí ubicados.

Desde que el último catálogo del Kepler fuera publicado en febrero de 2012, el número de candidatos descubiertos a partir de los datos reunidos por ese telescopio espacial, ha aumentado en un 20 por ciento, y ahora alcanza los 2.740 planetas potenciales en órbita a 2.036 estrellas. Los aumentos más espectaculares se ven en el número de planetas de tamaño terrestre y en el de los de tamaño algo mayor (los conocidos como SuperTierras), que aumentaron en un 43 y en un 21 por ciento respectivamente.

Los candidatos requieren observaciones y análisis adicionales para ser confirmados como planetas. A principios de 2012, 33 candidatos descubiertos a partir de los datos del Kepler fueron confirmados como planetas. Hoy en día, hay 105.

El gran número de sistemas solares que parecen poseer más de un planeta, dispuestos en órbitas que siguen aproximadamente el mismo plano, implica que nuestro sistema solar no es una rareza cósmica como algunos creían, sino algo muy típico en el universo.

A juzgar por lo rápido que crece la lista de planetas descubiertos alrededor de otras estrellas, y el porcentaje bastante elevado de ellos que están en esa franja orbital conocida como la Zona Habitable, ya no parece exclusiva de la ciencia-ficción la posibilidad de hallar un planeta lo bastante parecido a la Tierra como para albergar vida comparable en lo básico a la que conocemos aquí.

Las palabras de Steve Howell, científico de la NASA y miembro del equipo de la misión del Kepler, son elocuentes: “Ya no se trata de si encontraremos un verdadero análogo de la Tierra, sino de cuándo lo encontraremos“.

La lista completa de los candidatos a planeta del proyecto Kepler está disponible en una tabla interactiva en el archivo de exoplanetas de la NASA.

Información adicional: http://www.jpl.nasa.gov/news/news.php?release=2013-005

Tabla Interactiva de Exoplanetas: http://exoplanetarchive.ipac.caltech.edu/index.html

Nueva teoría acerca de los Agujeros Negros

Los agujeros negros están rodeados de muchos misterios, pero ahora los autores de un estudio reciente están impulsando una nueva y revolucionaria teoría que podría explicar algunas de sus singulares propiedades.

A juzgar por las conclusiones a las que han llegado los especialistas del Instituto Niels Bohr en Dinamarca y de otras instituciones, los agujeros negros tienen propiedades que se asemejan a las de la dinámica de sólidos y las de la dinámica de fluidos.

Los agujeros negros son objetos extremadamente compactos en el universo. Son tan compactos que generan una fuerza gravitatoria fortísima, y todo lo que se acerca demasiado a ellos lo absorben. Ni siquiera la luz puede escapar. Cuando ésta alcanza a un agujero negro es absorbida por completo, sin reflejarse. Como resultado de ello, el objeto no se puede ver directamente (no emite luz) y por eso se le llama agujero negro. ( Pueden conocer más acerca de lo que son en esta otra entrada: ¿Que son los agujeros negros? )

En física teórica pueden existir diferentes planos que se comportan como los agujeros negros y que son llamados branas negras. Cuando éstas se pliegan en múltiples dimensiones forman un “pliegue negro”.

Según se deduce de lo investigado hasta ahora, un pliegue negro tiene una relación con la gravedad, la mecánica de fluidos y la física del estado sólido.

Los investigadores saben que los agujeros negros son muy compactos, pero ignoran cuáles son sus propiedades cuánticas.

El equipo de Niels Obers, profesor de física teórica de partículas y cosmología en el Instituto Niels Bohr de la Universidad de Copenhague, trabaja con modelos teóricos para entender mejor los enrevesados entresijos de la física de los agujeros negros. Obers explica que se puede concebir un agujero negro como una partícula. Ésta, en principio, no tiene ninguna dimensión. Es un punto, en el sentido más extremo. Si una partícula adquiere una dimensión, se convierte en una cuerda. Si ésta adquiere una dimensión adicional, se convierte en un plano. Los físicos llaman a este plano una brana.

 (Imagen: Recreación artística por Merete Rasmussen)

Según la teoría de las cuerdas, pueden existir diferentes clases de branas, incluyendo planos que se comportan como los agujeros negros, llamados branas negras. Desde la perspectiva de la física, las branas negras tienen temperatura y son objetos dinámicos; además, al plegarse en múltiples dimensiones, forman un pliegue negro.

Niels Obers, Jay Armas y Jakob Gath ahora han hecho un nuevo avance en la descripción de la física de los agujeros negros, basándose en las teorías de las branas negras y los pliegues negros.

Las branas negras son objetos hidrodinámicos, es decir, tienen las propiedades de un líquido. Ahora se ha descubierto que las branas negras también tienen propiedades que pueden ser explicadas en términos de propiedades típicas de los sólidos. Pueden comportarse como un material elástico cuando son dobladas.

Cuando las branas negras se doblan y pliegan en un pliegue negro, se crea un efecto piezoeléctrico (electricidad que se produce debido a la presión). Este nuevo efecto puede entenderse como una cuerda negra ligeramente doblada y provista con una mayor concentración de carga eléctrica en el lado interior con respecto al exterior. Esto produce dos polos cargados eléctricamente en las cuerdas negras. Los agujeros negros fueron predichos por la teoría de la gravedad de Einstein. Esto ilustra que hay una relación sorprendente entre la gravedad, la mecánica de fluidos y la física del estado sólido.

Información Adicional:  http://www.nbi.ku.dk/english/news/news12/new-knowledge-about-the-remarkable-properties-of-black-holes/

El verdadero origen de E = mc^2

Hace un par de días estaba leyendo algunas noticias de ciencia que me envían algunos amigos por correo electrónico, me encontré con la grata sorpresa de que  por primera vez había recibido una noticia muy interesante.

Un nuevo estudio revela que la contribución de un poco conocido físico austriaco, Friedrich Hasenöhrl, quien pudo haber sido el precursor de la famosa ecuación de Einstein.

Dos físicos estadounidenses describen el papel desempeñado por el físico austríaco Friedrich Hasenöhrl en el establecimiento de la proporcionalidad entre la energía (E) de una cantidad de materia con su masa (m) en una cavidad llena de radiación. En un artículo a punto de ser publicado en la European Physical H Diario , Stephen Boughn de Haverford College en Pensylvannia y Tony Rothman de la Universidad de Princeton en Nueva Jersey argumentan cómo el trabajo Hasenöhrl, por la que ahora recibe poco crédito, puede haber contribuido a la famosa ecuación E = mc 2 .

Dada la falta de reconocimiento por la contribución de Hasenöhrl, los autores examinaron la obra original del físico austriaco sobre la radiación de cuerpo negro en una cavidad con paredes perfectamente reflectantes. Este estudio trata de identificar el cuerpo negro de masa cambia cuando la cavidad se mueve respecto al observador.

El año de 1904 seguía su curso normal, Einstein aun trabajaba muy duramente en  los aspectos finales sobre su Teoría de la Relatividad Especial que seria publicada en el para muchos “año glorioso” de 1905.

Mientras tanto un físico austriaco llamado Fritz Hasenöhrl examinaba las propiedades de la radiación de un cuerpo negro en una cavidad en movimiento. Logro calcular el trabajo necesario para mantener la cavidad en movimiento constante mientras se llenaba con la radiación del cuerpo negro y llego a la conclusión de que la energía de radiación asociada con una masa aparente indicaba la siguiente ecuación:

Luego en un trabajo posterior, también en 1904, Hasenöhrl logro obtener el mismo resultado mediante el calculo de la fuerza necesaria para acelerar una cavidad que ya estaba llena de radiación.

A principios de 1905, se corrigió el ultimo resultado a:

Ese ultimo resultado, ha llevado a muchos a concluir que Hasenöhrl fue una victima mas del mismo “error” cometido por otros que se deriva en esa relación entre la masa y la energía electrostática del electrón. Algunos han atribuido el error a la negligencia de no mensurar la tensión en la cavidad del cuerpo negro.

Pero el error principal en su primer paper fue, irónicamente  que no se representaba la perdida de la masa de las tapas de los extremos del cuerpo negro a medida que irradiaban energía en la cavidad.

Sin embargo, aun teniendo en cuenta esto se concluye que la radiación de cuerpo negro tiene una masa equivalente de:

Dependiendo de si se equipara el impulso o la energía cinética de la radiación para el impulso o la energía cinética de una masa equivalente.

En su segundo y tercer paper, que tratan acerca de una cavidad acelerada, Hasenöhrl llego a la conclusión de que la masa asociada con la radiación de cuerpo negro era:

Un resultado que en el contexto limitado de experimentación de Hasenöhrl, es realmente consistente con la relatividad especial. (Si se incluyen todos los componentes del sistema, incluyendo las tensiones de la cavidad, entonces la masa total y la energía del sistema son, sin duda, una relación muy consistente  de  m = E / c2 )

Una lección importante de estos análisis es que E = 2 , aunque extremadamente útil, no es una “ley de la física” en el sentido de que no debe aplicarse indiscriminadamente a cualquier sistema ampliado y, en particular, a los subsistemas de la cual que se componen.

Journal Reference:

  1. Stephen Boughn Fritz Hasenöhrl y E = mc 2. La Revista Europea de Física H [link de la publicación]

Como se esta enfriando el Universo desde el Big Bang

Haciendo uso de la CSIRO Australia Telescope Array compacto cerca de Narrabri, Nueva Gales del Sur, un equipo internacional de Suecia, Francia, Alemania y Australia han medido cuán caliente estaba el Universo cuando tenía la mitad de su edad actual.

Esta es la medida más precisa que jamás se ha hecho de cómo el Universo se ha enfriado durante su historia de 13,77 mil millones de años.  Dado que la luz tarda en viajar, cuando miramos hacia el espacio lo que vemos es el universo como lo fue en el pasado, como lo fue cuando la luz dejó las galaxias que estamos viendo. Así que para mirar hacia atrás a mitad de camino en la historia del universo, tenemos que mirar a mitad de camino en todo el Universo.

¿Cómo podemos medir la temperatura a una distancia tan grande?

Los astrónomos estudiaron gas en una galaxia sin nombre  que se encuentra a 7200 millones de años luz de distancia [posee un corrimiento al rojo de 0,89].

Lo único que mantiene este gas caliente es la radiación cósmica de fondo, el brillo remanente del Big Bang. Por suerte, hay otra galaxia poderosa, un quásar (llamado PKS 1830-211), que está detrás de la galaxia sin nombre. Las ondas de radio de este quásar tienen que pasar a través del gas de la galaxia en primer plano. Al hacerlo, las moléculas de gas absorben algo de la energía de las ondas de radio. Esto deja un distintivo de “huella digital” en las ondas de radio.

De esta “huella digital” es de donde los astrónomos calcularon la temperatura del gas. Encontraron que era 5,08 grados Kelvin (-267,92 grados Celsius), muy frío, pero aún más caliente que el Universo actual, que está en 2,73 grados Kelvin (-270,27 grados Celsius).

De acuerdo con la teoría del Big Bang, la temperatura de la radiación cósmica de fondo cae suavemente a medida que el Universo se expande. Eso es lo que vemos en las mediciones. El Universo de unos pocos millones de años atrás era unos grados más caliente de lo que es ahora, exactamente como la teoría del Big Bang lo predice.

Journal Reference:

  1. S. Muller , A. Beelen, J. H. Black, S. J. Curran, C. Horellou, S. Aalto, F. Combes, M. Guelin, C. Henkel. A precise and accurate determination of the cosmic microwave background temperature at z=0.89Astronomy & Astrophysics, 2013 [link del paper original]

El protón es mas pequeño de lo que pensábamos

No es nada fácil medir el radio de un protón, porque los quarks que lo componen no dejan de interaccionar. Aun así, la comunidad científica ha fijado unos valores con los datos de complicados métodos de medición, pero los resultados difieren si se usan otras técnicas. Un equipo europeo ya apuntó hace unos años que el protón es más pequeño de lo establecido y ahora lo vuelve a confirmar con un nuevo estudio que publica Science.

El electrón es una partícula como un punto, cuyo tamaño se ha medido en menos de 10-20 m, pero el protón, por el contrario, es una partícula compuesta de otras más pequeñas y fundamentales: los quarks”, recuerda Aldo Antognini, del Instituto Max Planck de Óptica Cuántica (Garching, Alemania).

“Los quarks –dos up y un down por cada protón– se mueven e interactúan de forma muy dinámica entre ellos y el torbellino que forman es el que da lugar al tamaño del protón”, explica el investigador.

Antognini y otros colegas europeos y de EE UU presentan esta semana en Science un estudio que señala que el protón es más pequeño de lo que se cree. Los resultados  confirman lo que el mismo equipo ya publicó en Nature en 2010: “El protón parece ser 0,00000000000003 milímetros menor de lo que pensaban los investigadores”.

En concreto, el denominado Committee on Data for Science and Technology (CODATA) establece un radio de carga para el protón de entre 0,87 y 0,88 femtómetros (1 femtómetro son 10-15 m), mientras que los nuevos resultados lo reducen a 0,84 femtómetros. El radio de carga eléctrica es la extensión media de la ‘nube’ que generan los quarks –que están cargados– al moverse.

Las diferencias parecen insignificantes, pero puede tener repercusiones físicas “serias”, según los expertos, ya que sugieren que quizá  haya un vacío en las teorías actuales de la mecánica cuántica. Además, los protones, junto a los neutrones, forman el núcleo atómico de cada átomo que existe en el universo.

El estudio también determina por primera vez el radio magnético del protón –0,87  femtómetros–. Este otro radio es la media de la distribución magnética dentro del protón, que viene dada por los momentos magnéticos de los quarks y las corrientes que producen al moverse.

Para llevar a cabo esta investigación, el equipo ha empleado la espectroscopia láser del hidrógeno muónico. El hidrógeno es el elemento más simple que existe, con un protón y un electrón, aunque en el experimento se sustituye este último por un muón –con carga negativa como el electrón pero con una masa 200 veces superior–.

De esta forma se puede medir mejor el protón, analizando determinadas transiciones que se producen en los estados de este hidrógeno ‘exótico’. Antognini ha adelantado a SINC que su grupo tiene previsto investigar también con átomos de helio muónico.

Por su parte, los valores establecidos por CODATA se basan en otras técnicas: espectroscópica del átomo de hidrogeno –el normal, no muónico– y cálculos de electrodinámica cuántica (QED, por sus siglas en inglés) para analizar la dispersión de carga entre el protón y el electrón.

Algunos investigadores consideran que la interpretación de los resultados de cada método de medición puede estar detrás de las discrepancias. En cualquier caso, los científicos siguen debatiendo cuál de todas estas técnicas es la mejor para encajar las piezas del denominado ‘puzle del radio del protón”.

El objetivo final, descubrir el tamaño exacto de esta partícula esencial en el funcionamiento del cosmos.

Los átomos en los que un electrón está reemplazado por un muón (electrón muónico) se conocen como átomos muónicos. El muón es parecido al electrón en que tiene su misma carga negativa pero con una masa 200 veces superior.

Con un protón y un electrón se construye el átomo más ligero que existe, el hidrógeno  Si se sustituye el electrón del átomo de hidrógeno por un muón se obtiene el hidrógeno muónico. Qué importancia tiene esta sustitución?. Pues sirve para obtener las dimensiones del protón y en consecuencia las dimensiones de todo el cosmos.

El protón puede considerarse como el ladrillo fundamental de la construcción de todo el universo. Pero muchas de sus propiedades, su tamaño y su momento magnético anómalo no están muy bien comprendidas. Para determinar el tamaño del protón, se considera como si todo su carga estuviera concentrada en una esfera de radio rp. Y para medir este radio se ha utilizado la interacción del electrón con el protón. Hasta hace poco las medidas más precisas sobre el radio del protón están dadas por la compilación de las constantes físicas CODATA. Se basan en la aplicación de las medidas espectroscópicas del átomo de hidrógeno junto con los cálculos de la electrodinámica cuántica (QED) del estado fundamental del hidrógeno  El valor es 0,8768(69)·10-15 m que indicamos por 0,8768(69) fm, donde fm indica fentometros, una abreviación para 10-15 m.

En 1913 Niels Bohr presentó una teoría del átomo de hidrógeno partiendo de un principio clásico pero introduciendo la característica de que el momento cinético esta cuantificado, esto quiere decir que es igual a h/2π, donde h es la constante de Planck.

Partiendo de la mecánica Newtoniana, el electrón gira en torno del protón con una velocidad v y se encuentra sometido a la fuerza de atracción eléctrica, esto determina el tamaño del átomo de hidrógeno.

La condición cuántica sobre el momento cinético indica lo siguiente

Juntando las dos ecuaciones obtenemos el radio del átomo de hidrógeno RH

A partir de aquí Bohr fue capaz de explicar el espectro del átomo de hidrógeno. La teoría coincidía plenamente con la experiencia. La condición cuántica era extraña en la física clásica pero daba resultados. Hay que decir que esta teoría planetaria de los átomos no se debe aceptar, está muy equivocada. El hecho de que de buenos resultados en el átomo de hidrogeno es una casualidad. Esta casualidad hizo posible que Bohr se animara a continuar por este camino cuántico e impulsara a los demás a crear una teoría cuántica de los átomos.

El desarrollo de la física avanzó rápidamente a partir de estos descubrimientos hasta llegar a dos teorías matemáticas de la física cuántica: la mecánica matricial de  Werner Heisenberg en 1925 y la mecánica ondulatoria de Erwin Schrödinger en 1926. Poco más tarde el propio Schrödinger demostró que tanto la visión matricial como la ondulatoria eran una misma teoría pero vestidas con matemáticas diferentes.

Pues bien, volvamos al radio del átomo de hidrógeno  comprobaremos que es inversamente proporcional a la masa del electrón. Esta es la clave para estudiar al protón y aquí es donde entra en juego el muón (µ) que es 206 veces más masivo que el electrón. A partir de los datos de CODATA:

Si en lugar de observar el espectro del átomo de hidrógeno (protón + electrón) podemos observar el espectro del hidrógeno muónico (protón + muón), el radio del hidrógeno muónico será unas 206 veces menor y por tanto la interacción muón-protón será mucho mayor y más precisa. La longitud de onda también es inversamente proporcional a la masa y por tanto la longitud de onda del muón es 206 veces más pequeña que la del electrón.

Esto significa que la función de onda del muón se superpone con la del protón (206)3 » 10veces más que la del electrón en el átomo de hidrógeno  Así pues, el muón en el hidrógeno muónico se encuentra 206 veces más cerca del protón y además las medidas son mucho más precisas que con el electrón, por tanto se pueden obtener mejores resultados sobre el tamaño del protón. Las siguientes imágenes intentan ilustrar este parágrafo.

Átomo de hidrógeno

Hidrógeno muonico

Este experimento lo realizo un grupo de 32 científicos presididos por Randolf Pohl en el Instituto de Óptica Cuántica Max Plank. La idea es medir el salto energético entre dos niveles cuánticos, los cálculos dan:

El primer término de la ecuación es debido a la polarización del vacío, el segundo y tercer término son las contribuciones al tamaño finito del protón.

Utilizando un láser pulsante, el equipo mesuro los niveles de energía del hidrógeno muónico y los resultados experimentales dan el siguiente resultado:

Sustituyendo en los cálculos se obtiene el siguiente valor para el radio del protón rp = 0.84184 (36) fm. Así pues, parece que el protón es 0.00000000000003 milímetros más pequeño, cerca de un 4% menor que los últimos experimentos. La diferencia es infinitesimal, pero los protones son las partículas más comunes y junto a los neutrones forman el núcleo atómico de cada átomo del universo. Parece como un pequeño punto de carga positiva. Pero en sus entrañas es mucho más complejo, cada protón está formado por partículas fundamentales denominadas quarks.

Les explico a continuación como el protón puede considerarse el ladrillo fundamental de la construcción cósmica. No hay duda que la fuerza principal del Universo es la fuerza gravitatoria, podemos ponerla en relación con la otra fuerza fundamental, la electromagnética.

Para realizar la comprobación utilizamos dos protones. La fuerza de atracción gravitatoria entre dos protones es 10-36 veces menor que la fuerza eléctrica de repulsión. Por eso en física atómica se ignoran los efectos gravitatorios. Pero la fuerza de gravedad siempre tiene el mismo signo negativo, es  de atracción. En cambio la fuerza eléctrica puede ser de atracción y repulsión, dependiendo de los signos de las cargas, positiva o negativa.

En un cuerpo macroscópico las fuerzas de atracción y repulsión eléctricas pueden cancelarse y quedara solamente la fuerza de atracción gravitatoria, que puede llegar a ser muy importante para cuerpos masivos. Es el caso de los planetas, estrellas y cúmulos globulares.

La energía gravitacional de una partícula orbitando un objeto de masa M a una distancia r depende de M/r. Si tenemos N átomos juntos formando una esfera, la masa M de esta esfera hipotética será proporcional a N y por tanto la energía será proporcional a N/r. Puesto que es una esfera el radio será proporcional a N1/3, recuerden que el volumen de una esfera es proporcional al cubo de su radio y el volumen es proporcional a N.

Entonces la energía es proporcional a N/N1/3 = N2/3 . A medida que la cantidad de átomos aumenta, la fuerza de la gravedad va aumentando. Por cada 1000 átomos la energía gravitatoria aumenta un factor 100. Así pues, tenemos que la cantidad de átomos N será proporcional a la energía gravitatoria

Cuando N sea mayor que

la fuerza de la gravedad será dominante. Este simple argumento nos da una idea de porque las estrellas son tan masivas. Un objeto que contiene más de 1054 átomos de hidrógeno o protones (esto es 2·1027 kg) se comprimirá por el efecto de la fuerza de atracción gravitatoria, hasta que se enciende la fusión termonuclear en su centro y esta energía compensa el colapso gravitacional. Por ejemplo, Júpiter tiene una masa de 1,899·1027 kg, por poco no se convierte en una estrella.

Pero si la cantidad de protones es superior a 1057 no hay ninguna fuerza que pueda compensar el colapso gravitatorio y se forma un agujero negro.

Estas y otras relaciones numéricas se muestran en el siguiente diagrama. En vertical la masa de un objeto respecto la masa del protón y en horizontal el radio del objeto respecto el radio del protón en escala logarítmica.

La colaboración internacional
Este proyecto es el fruto del esfuerzo de colaboración entre científicos de 32 instituciones diferentes en los distintos países.Algunas de las contribuciones más importantes incluyen:
– El Laboratorio Kastler Brossel (ENS París / UPMC / CNRS) de Francia.
– El Instituto Max-Planck de Óptica Cuántica en Alemania.
– El Instituto Paul Scherrer (PSI), el Instituto de Física de Partículas del Instituto Federal de Tecnología de Zurich y el Departamento de Física de la Universidad de Friburgo en Suiza.
– El Departamento de Física de la Universidad de Coimbra y Aveiro en Portugal,
– El Instituto für Strahlwerkzeuge y Dausinger y Giesen GmbH en Stuttgart, Alemania.

 INFORMACIÓN ADICIONAL: http://www.nature.com/news/shrunken-proton-baffles-scientists-1.12289

Un cráter marciano posiblemente albergó un lago

La sonda espacial MRO (Mars Reconnaissance Orbiter), que está en órbita al Planeta Rojo desde 2006, ha permitido obtener nuevos indicios de la antigua existencia de agua líquida en la superficie de Marte.

Los nuevos indicios los ha obtenido el equipo de Joseph Michalski, del Instituto de Ciencia Planetaria en Tucson, Arizona. Michalski y sus colaboradores han hecho un análisis de datos espectrométricos reunidos por la MRO. Esta sonda de la NASA hizo observaciones cruciales del fondo del cráter McLaughlin. Dicho cráter mide 92 kilómetros (57 millas) de diámetro y alcanza 2,2 kilómetros (1,4 millas) de profundidad.

Todo apunta a que el cráter albergó un lago, alimentado por aguas subterráneas.

En el fondo del cráter hay rocas que contienen minerales de carbonato y de arcilla que se forman en presencia de agua. El cráter McLaughlin carece de cauces fluviales grandes que pudieran haber servido para conducir agua a su interior. Sí hay pequeños canales que nacen en el borde de la pared del cráter, pero terminan cerca del nivel que pudo haber marcado la superficie del lago.

En su conjunto, éstas y otras características sugieren que los citados minerales de carbonato y de arcilla se formaron en un lago cuyo lecho era el cráter (que constituía una cuenca cerrada) y que estaba alimentado por aguas subterráneas

[Img #11654]

Ese lago, y el medio acuático subterráneo del que se abastecía de agua, pudieron ser sitios aptos para albergar formas de vida.

El cráter McLaughlin está situado en el extremo bajo de un terreno con pendiente, el cual mide varios cientos de kilómetros de longitud y se halla en el lado oeste de la región marciana conocida como Arabia Terra. Al igual que en la Tierra, las ubicaciones marcianas más probables para lagos alimentados por aguas subterráneas son las que tienen poca elevación con respecto al terreno circundante. Por lo tanto, en ese aspecto la ubicación del cráter McLaughlin también encaja a la perfección con la teoría de que albergó un lago.

Conforme se avanza en la exploración del Planeta Rojo, más complejo se revela este mundo, y mayores resultan ser sus similitudes con la Tierra.

INFORMACIÓN ADICIONAL : http://www.jpl.nasa.gov/news/news.php?release=2013-028

¿Qué son los Diagramas de Feynman?

Me imagino que muchos de los estudiantes de Física y de otras ciencias de primer año han visto en alguna parte un diagrama como el siguiente el cual ha despertado en ellos una expectación latente por conocer la manera de entenderlos y comprenderlos. Así que si tu eres uno de esos estudiantes de ciencia o tan solo un amante de la ciencia entonces puedo decirte que haz llegado al lugar adecuado.

Esta entrada ha sido creada a petición de FranNavarro que en twitter lo pueden encontrar como @Cucfran, espero que esta entrada aclare todas sus dudas.

Richard Feynman fue uno de los más importantes físicos del siglo XX. Su trabajo en electrodinámica cuántica le valió el Premio Nobel de Física en 1965, compartido con Julian Schwinger y Sin-Ichiro Tomonaga. En este trabajo desarrolló un método para estudiar las interacciones y propiedades de las partículas subatómicas utilizando los denominados diagramas de Feynman.
Si en alguna noticia o artículo de difusión nos hemos topado alguna vez con la mención a esos diagramas y lo buscamos en el internet, terminaremos con una idea básica: diagramas de partículas. Y seguramente, el resto de la información que podamos encontrar sobre ellos nos parecerá muy extraña y difícil de entender, debido a que se encuentra plagada de términos muy técnicos que solo personas que trabajan diariamente con ellas pueden entender.

Y para los no instruidos en la materia a veces se nos complica demasiado poder entenderlos, así que aquí les va una simple y sencilla explicación.

Pensemos en las reglas de un juego en el que:

  • Podemos dibujar dos tipos de líneas: una línea recta con una flecha o una onda.

  • Las podemos dibujar en cualquier dirección. Sólo debemos conectar estas líneas si tenemos dos líneas con flechas encontrándose con una línea ondulada.

La orientación de las flechas es importante. Una flecha debe apuntar al vértice y la otra hacia el otro lado.

  • Los diagramas sólo deben contener piezas conectadas. Cada línea debe conectar con un vértice. No debe haber ninguna parte del diagrama desconectada.

  • Las líneas rectas deben ser rectas y las onduladas, eso, una onda.

Si este es el juego de los diagramas de Feynman, listo, esas son las reglas. Este juego se puede llamar QED (siglas en inglés para electrodinámica cuántica). 


Ahora podemos tratar de dibujar algún diagrama. Pero, cuidado, no podemos hacer cosas así:

Luego de hacer varios diagramas podríamos tratar de encontrar patrones:

¿Hay relación entre el número de líneas externas y el número de líneas internas y vértices?
Si sabemos el número de líneas externas con flechas apuntando hacia adentro, ¿podemos deducir el número de líneas externas con flechas que apuntan hacia afuera?
¿Es posible hacer diagramas que contengan bucles? ¿Eso cambia las respuestas anteriores?

¿Qué significa todo esto?

Cada línea recta es una partícula. Los vértices son interacciones. Las reglas antes mencionadas son una idea general de una teoría de partículas y sus interacciones. Se la llama QED, Electrodinámica cuántica. Las líneas con flechas son partículas de materia (fermiones). Las líneas onduladas es una partícula de fuerza (bosones) que, en este caso, intermedia la interacción electromagnética: es el fotón.

Los diagramas cuentan una historia acerca de cómo un conjunto de partículas interactúan. Se leen los diagramas de izquierda a derecha y esto es importante porque las partículas con flechas que apuntan de izquierda a derecha son electrones. Las que apuntan hacia la otra dirección son positrones. Se puede pensar en las flechas como apuntando en la dirección del flujo de la carga eléctrica.

Hasta aquí tenemos entonces:

e+ es un positrón, e- es un electrón y la gamma es un fotón. 
De esto podemos hacer algunos comentarios:
La interacción con el fotón mostrada arriba incluye secretamente información acerca de la conservación de la carga eléctrica: para cada flecha que apunta hacia una dirección, debe haber otra hacia el otro lado.
Pero podemos rotar la interacción y contar una historia diferente.
Aquí hay algunos ejemplos de distintas maneras de interpretar una interacción (leyendo de izquierda a derecha):

Esto se interpreta así:

(1) un electrón emite un fotón y continúa
(2) un positrón absorbe un fotón y continúa
(3) un electrón y un positrón se aniquilan en un fotón
(4) un fotón espontáneamente produce un par de electrón y positrón

En el lado izquierdo de un diagrama tenemos las “partículas entrantes”, que son las que colisionarán entre sí para producir algo. Por ejemplo, en el LHC esas “partículas entrantes” son los quarks y gluones que viven dentro de los aceleradores de protones. 
En el lado derecho de un diagrama tenemos las “partículas salientes”, que son las detectadas luego de una interesante interacción.

Para la teoría brevemente conceptuada arriba, podemos imaginar un colisionador de electrones y positrones como el viejo LEP y SLAC. En esos experimentos un electrón y un positrón colisionan y las partículas resultantes son detectadas. En nuestra simplificada teoría QED, ¿qué clase de “señales experimentales” (configuraciones de partículas salientes) podrían medirse?
Por ejemplo: ¿es posible tener una señal de un solo electrón con dos positrones? ¿Existen restricciones sobre cuántos fotones salen?

Las líneas externas corresponden a partículas que entran o que salen.
¿Y las líneas internas? Representan partículas virtuales que no son directamente observadas. Son creadas cuánticamente y desaparecen de la misma forma, sirviendo sólo a que un conjunto de interacciones ocurran para que las partículas entrantes se conviertan en partículas salientes. 
Aquí tenemos un ejemplo de un fotón virtual mediando la interacción entre un electrón y un positrón.

En el primer diagrama, el electrón y el positrón se aniquilan en un fotón que luego produce otro par electrón-positrón.
En el segundo diagrama, un electrón empuja a un fotón hacia un positrón cercano (sin siquiera tocarlo). Esto se entiende con la idea de que las partículas de fuerza son extraños objetos cuánticos que median las fuerzas. Sin embargo, nuestra teoría trata a las partículas de fuerza y materia igual. Podemos dibujar diagramas donde hay fotones en el estado externo y los electrones son virtuales:

Este es un proceso donde la luz (el fotón) y un electrón se empujan uno a otro y se llama dispersión Compton. Notar, de paso, que no me molesté en inclinar la partícula virtual vertical en el segundo diagrama. Esto es porque no importa si lo interpretamos como un electrón virtual o un positrón virtual: podemos decir que (1) el electrón emite un fotón y luego se dispersa del fotón o (2) que el fotón entrante produjo un par con la resultante aniquilación positrón-electrón para formar un fotón saliente:

Esta es la idea básica de los diagramas de Feynman. Nos permiten escribir qué interacciones son posibles. 

The Big Bang Theory y los diagramas de Feynman

Y para todos los seguidores de The Big Bang Theory seguramente recuerdan la imagen siguiente…

Corría el año 2008, era la primera temporada de TBBT, el treceavo episodio: The Bat Jar Conjecture, AA perdía 1150 puntos contra PMS con 1175, el Dr. Gablehauser hacía la última pregunta, y yo ponía una cara similar a la de Sheldon.

Estupor en los rostros de todos. Wolowitz lo resume muy bien: “Parece como algo encontrado en la nave espacial de Roswell”. Sheldon declina dar una respuesta oficial al problema, por ello pierde el Torneo de Física.

Y ahora ya saben porque la expresión de Sheldon.

Preguntas Frecuentes

¿Cuál es el significado de los ejes x e y?
Estos son realmente diagramas de espacio tiempo que conceptualizan la “trayectoria” de partículas. Al leer estos diagramas de izquierda a derecha, interpretamos el eje x como tiempo. Podemos pensar cada franja vertical como un momento en el tiempo. El eje y es la dirección del espacio.

¿Así que las partículas viajan en líneas rectas?
No, pero es fácil cree erróneamente eso si tomas a los diagramas demasiado en serio. El camino que las partículas toman a través del espacio es determinado no sólo por las interacciones (capturadas por los diagramas de Feynman), sino la cinemática (que no es captada por los diagramas). Por ejemplo, uno debería imponer cosas como momento y conservación de la energía. El punto de los diagramas es entender las interacciones a lo largo del camino de las partículas, no la real trayectoria de la partícula en el espacio.

¿Esto significa que los positrones son sólo electrones viajando hacia atrás en el tiempo?
En los tempranos días de la electrodinámica cuántica, eso parecía ser una idea que la gente gustaba decir de vez en cuando porque sonaba atractiva. Desde el punto de vista de los diagramas (y en algún sentido también en forma matemática) uno podría tomar esa interpretación, pero no ganamos nada. Entre otras razones más técnicas, ese punto de vista es más bien contraproducente porque el marco matemático de la teoría de campo cuántica está construida sobre la idea de causalidad.

¿Qué significa que un conjunto de partículas entrantes y partículas salientes pueden tener múltiples diagramas?
En los ejemplos de arriba de dispersiones dos a dos mostré dos diagramas diferentes que toman el estado de entrada y producen el requerido estado de salida. De hecho, hay infinitos de esos diagramas. Desde la mecánica cuántica uno debe sumar todas las formas para tener del estado de entrada el estado de salida.

¿Cuál es el significado de las reglas 3 y 4?
La regla 3 dice que sólo nos vamos a ocupar acerca de una cadena particular de interacciones. No nos importa acerca de partículas adicionales que no interaccionan o cadenas independientes de interacciones. La regla 4 hace que los diagramas sean fáciles de leer. Ocasionalmente deberemos dibujar líneas curvas o incluso líneas que pasan por debajo de otras.

¿De dónde vienen estas reglas?
Las reglas que dimos arriba (llamadas reglas de Feynman) son esencialmente la definición de una teoría de física de partículas. Más completamente, las reglas deben también incluir unos números asociados con los parámetros de la teoría (por ej.: las masas de las partículas).
Los estudiantes de graduado en física de partículas pasan gran parte de su primer año aprendiendo cómo extraer las reglas diagramáticas de expresiones matemáticas (y luego cómo usar los diagramas para hacer más matemática), pero el contenido físico de la teoría es más intuitivamente entendido al mirar los diagramas directamente e ignorando la matemática. Si tienes verdadera curiosidad, las expresiones de las cuales se obtienen las reglas lucen parecidas a esto [es un pdf], aunque es deliberadamente una formulación “terrorífica”.

Si tienen preguntas, las pueden hacer libremente y también cualquier sugerencia o corrección sera muy bien recibida.

Saludos.