LHC – La Enciclopedia Galáctica http://laenciclopediagalactica.info Por Torjo Sagua Wed, 07 Nov 2018 15:33:17 +0000 es-ES hourly 1 https://wordpress.org/?v=4.9.8 54705453 El Bosón de Higgs http://laenciclopediagalactica.info/2012/07/04/el-boson-de-higgs/ http://laenciclopediagalactica.info/2012/07/04/el-boson-de-higgs/#comments Wed, 04 Jul 2012 19:02:35 +0000 http://laenciclopediagalactica.info/?p=642

El día de hoy, en la conferencia ICHEP 2012 (Melbourne, Australia), científicos del CMS (Compact Muon Solenoid), uno de los experimentos que se están desarrollando en el LHC (Large Hadron Collider), realizaron la presentación de resultados preliminares sobre la búsqueda del Bosón de Higgs. Estos datos son los obtenidos hasta junio del 2012.

Pero antes de entrar en detalle sobre este comunicado es importante que entendamos ¿Qué es el bosón de Higgs y por qué esta nota ha dado la vuelta al mundo en tan pocas horas?  Bien, el Bosón de Higgs es la última partícula que falta por descubrir en el Modelo Estándar, la teoría que describe la formación básica del Universo, las otras 11 partículas ya fueron encontradas, por lo que el hallazgo de esta pieza faltante validaría el modelo. Si se encuentra algo diferente obligaría a revisar nuestra comprensión actual de la estructura del Universo. La creencia actual estima que en la primer billonésima de segundo tras el Big Bang, el Universo era una gran mezcla de partículas avanzando en diferentes direcciones a la velocidad de la luz, sin ninguna masa apreciable, y fue a través de su interacción con el campo de Higgs que ganaron masa y, posteriormente, formaron el Universo. El campo de Higgs es un campo de energía teórico que invade todo el Universo, algunas partículas (Como los fotones) no se ven afectadas por él y por lo tanto, carecen de masa. Como analogía, imaginen a un actor famoso, caminando por la calle, con un séquito de paparazzis (El Campo de Higgs) rodeándolo, y por la misma acera, camina un servidor (El fotón), y no recibo ningún tipo de atención de los fotógrafos. La partícula de Higgs es el rastro que deja el campo, comparable con una pestaña de los paparazzis . Esta partícula es teórica y su existencia fue propuesta en 1964, por un grupo de físicos, entre los que se encontraba Peter Higgs.

Ahora bien, regresando al comunicado, en sí, lo que se ha descubierto, es una partícula subatómica que podría ser el Bosón de Higgs, puesto que es consistente con la teoría, falta determinar si es una variante, si es el Bosón buscado o si es un Bosón completamente nuevo, lo cual nos llevaría a revisar la teoría sobre la estructura fundamental de la materia.

¿Por qué aún no son concluyentes? Aún cuando están realmente cerca de estarlo (Se tiene un nivel de confianza estadístico de 5 sigmas), es necesario obtener más resultados, para que el nivel de confianza sea mayor, y las dudas sean prácticamente eliminadas. Hay que recordar que, en la industria aeroespacial, electrónica, automotriz y metalmecánica, el nivel de confianza estadístico es superior a los 6 sigmas, así que, considerando las implicaciones ante un descubrimiento de este tamaño, pues la certeza a obtener debe ser lo más cercana al 100% que se pueda.

Es difícil no emocionarse con estos resultados, pero es importante mantener la paciencia y no dejarse llevar. Una vez que se tenga la confirmación por parte del equipo del CMS en el CERN, entonces sí, unámonos a los vítores y encendamos los fuegos artificiales, y entonces, nos formularemos la siguiente pregunta: “¿Y ahora, qué sigue?”.

Referencias

Observación de una Nueva Partícula con una masa de 125 GeV. Experimento CMS, CERN (Comunicado oficial en Español, CINVESTAV)

]]>
http://laenciclopediagalactica.info/2012/07/04/el-boson-de-higgs/feed/ 2 642
Introducción a los Viajes en el Tiempo http://laenciclopediagalactica.info/2012/03/24/introduccion-a-los-viajes-en-el-tiempo/ http://laenciclopediagalactica.info/2012/03/24/introduccion-a-los-viajes-en-el-tiempo/#comments Sat, 24 Mar 2012 16:49:04 +0000 http://laenciclopediagalactica.info/?p=599

Como humanos, siempre hemos ‘sentido el llamado’ por los tiempos y lugares lejanos. Desde que nos dimos cuenta acerca de qué eran las estrellas, nos hemos preguntado si seremos capaces de viajar hacia ellas. Tales pensamientos han proporcionado un campo fértil por años a los escritores de ciencia ficción buscando argumentos interesantes. Pero las vastas distancias que separan a los objetos astronómicos forzaron a los autores a inventar varios dispositivos imaginarios que les pudieran permitir a sus personajes viajar a velocidades superiores a las de la luz (La velocidad de la luz en el espacio vacío, generalmente denotada como c por los físicos, es de casi 300000 km/s). Para darnos una idea de cuan enormes son las distancias entre las estrellas, comencemos con unos cuantos datos. La estrella más cercana, Proxima Centauri (En el sistema estelar Alpha Centauri) esta a aproximadamente 4 años-luz de distancia. Un año-luz es la distancia que recorre la luz en un año (9,460728 × 1012 Km aproximadamente), por lo tanto, esta estrella esta a 3,7842912 × 1013 Km, luego entonces, a un haz de luz o un mensaje de radio viajando a c les tomaría alrededor de 4 años el llegar allí.

En una escala mayor, la longitud de nuestra Vía Láctea es de aproximadamente 100000 años luz. La galaxia más cercana, Andrómeda, está a casi 2 millones de años-luz. Con la tecnología actual, tomaría varias decenas de miles de años enviar una sonda, viajando a una velocidad mucho menor que la de c para llegar a la estrella más cercana. No es de sorprender entonces que los escritores de ciencia ficción hayan imaginado algún tipo de ‘atajo’ entre las estrellas que involucre el viajar más rápido que la luz. De otra manera es muy difícil de ver como es que se tienen las diferentes ‘federaciones’ o ‘Imperios galácticos’ tan prominentes en la ciencia ficción. Sin los ‘atajos’, el Universo es un gran lugar.

¿Y qué podemos decir acerca del tiempo, la característica más misteriosa del Universo? ¿Por qué el pasado es tan diferente al futuro? ¿Por qué podemos recordar el pasado y no el futuro? ¿Es posible que el pasado y el futuro sean ‘lugares’ que podamos visitar tal como otras regiones en el espacio? De ser así ¿Cómo podemos hacerlo?

La idea de viajar a velocidades superiores a las de la luz ha existido desde hace mucho tiempo en la imaginación popular. Lo que quizá no es tan conocido es que existen algunos físicos que estudian estos conceptos de manera muy formal no solo como un “Podría ser posible algún día” sino como un “¿Qué podemos aprender de estos estudios acerca de la física básica?”.

La ciencia ficción de la televisión y las películas, por ejemplo, como Star Trek, contienen muchos ejemplos ficticios de viajes a velocidades superiores a las de la luz. El Capitán Kirk o Picard le dan una orden al timonel del Enterprise más o menos así: “Vámonos, a Warp 2”. Nunca mencionan exactamente que es lo que significa, pero claramente entendemos que se refiere a viajar a una velocidad superior a la de la luz. Algunos fans especulan que se refiere a una velocidad 22c, esto es, cuatro veces la velocidad de la luz. Se suponen que alcanzan esta velocidad haciendo uso del “Warp Drive” del Enterprise. Este término nunca se explicó y luce como un buen ejemplo del “Tecnoparloteo” usualmente necesario en una pieza de ciencia ficción para que suene ‘científico’. Pero por casualidad (O buena idea) el “Warp Drive” puede ser la descripción adecuada de un mecanismo concebible para viajar a una velocidad superior a la de la luz (Creo que sería un buen tema para otra entrada, lo dejaré en el tintero).

Por analogía con el término “Supersónico” para la velocidad que supera a la del sonido en el aire, la velocidad que supera a la de la luz es referida comúnmente por los físicos como “Velocidad superlumínica”. Sin embargo, un viaje superlumínico incluye una violación a las leyes conocidas de la física, de hecho a la Teoría Especial de la Relatividad de Einstein. Esta teoría se fundamenta en la existencia de una ‘barrera de luz’. La terminología tiene la intención de ser reminiscente de la barrera del sonido encontrada por vehículos aéreos cuando sus velocidades alcanzan la del sonido y algunos, en ocasiones, pensar que debe prevenir el vuelo supersónico. Pero mientras que se logró superar la barrera del sonido sin violar ninguna ley física, la relatividad especial da a entender que, un ‘warp drive’ está absolutamente prohibido, sin importar cuan poderosos lleguen a ser los motores del futuro.

Los viajes en el tiempo abundan en la ciencia ficción. Por ejemplo, los personajes en una historia pueden encontrar por sí mismos la manera de regresar a su periodo de tiempo original y estar involucrados con la NASA en un lanzamiento espacial, quizás después de pasar a través de un “Portal del tiempo”. Con frecuencia en la ciencia ficción, el que suceda el viaje en el tiempo hacia el pasado no tiene nada que ver con la existencia de un ‘warp drive’, tal como lo necesitan las naves espaciales, los fenómenos del viaje superlumínico y el viaje por el tiempo lucen bastante lejanos o ajenos. De hecho, podemos ver que hay una conexión directa entre ambos.

Los escritores de ciencia ficción frecuentemente proporcionan respuestas imaginativas a cuestiones que inician con la palabra “¿Qué?” (¿Qué desarrollos tecnológicos habrá en el futuro?), pero por lo general, no proporcionan respuestas a las cuestiones del “¿Cómo?”, intentando extender nuestro conocimiento de las leyes de la naturaleza y aplicar este conocimiento creativamente en nuevas situaciones.

El hecho es que la ciencia, a su debido tiempo, frecuentemente proporciona las respuestas a algunas tecnologías avanzadas imaginadas en la ciencia ficción, que puede ser alcanzada o que se manifieste la expectativa de que se va a producir. Pero esto no es necesariamente un axioma. Las leyes físicas frecuentemente afirman que ciertos fenómenos físicos están absolutamente prohibidos. Por ejemplo, hasta donde sabemos, no importa que ocurra, la cantidad total de energía (De todos los tipos) en el Universo no cambia. Esto es, la energía se conserva, tal como lo hemos escuchado en nuestras clases básicas de ciencia (Secundaria, Bachillerato, Universidad, etc.).

Aunque los trabajos de ciencia ficción usualmente no se basan en la pregunta “¿Cómo?”, frecuentemente le sirven a la ciencia a través de sus exploraciones del “¿Qué?”. Previendo los fenómenos concebibles fuera de nuestra experiencia cotidiana, pueden ofrecer ciertas vías de experimentación. Un escritor de ciencia ficción está en la libertad de imaginar un mundo en el cual los humanos han aprendido a ‘crear’ energía en cantidades ilimitadas por medio de algún dispositivo imaginario. Sin embargo, un físico dirá que, en concordancia con las bien establecidas leyes físicas, esto no será posible, no importa cuan inteligentes o astutos sean los futuro científicos e ingenieros. En otras palabras, en ocasiones la respuesta a la pregunta “¿Cómo es que construyeron esa cosa?” sea “Probablemente, no pudieron”. Nosotros debemos estar preparados para la posibilidad de que nos encontremos en esas situaciones.

A menos que se especifique lo contrario, el término “Viaje en el tiempo” normalmente significa viaje al pasado, el cual es el que presenta problemas más interesantes. Bueno, de aquí en adelante me referiré a un dispositivo que pueda permitir este viaje como una ‘Máquina del Tiempo’ y al proceso de desarrollar la capacidad de viajar de regreso como ‘Construyendo una máquina del tiempo’. Esto implica la posibilidad de que puedas viajar hacia el pasado y conocer una versión más joven de ti mismo. En la jerga de la física, un camino circular como este se denomina ‘curva cerrada temporal; es cerrada porque tú puedes regresar a tu punto de partida en ambos, espacio y tiempo; es temporal porque el tiempo cambia de un punto a otro a través de la curva. La declaración de que una curva cerrada temporal exista es solo una forma arbitraria de decir que tienes una máquina del tiempo.

Tal parece que el viaje al pasado luce imposible fuera del mundo de la ciencia ficción simplemente basándose en el sentido común ordinario dadas las paradojas a las cuales te puede conducir. Están tipificadas por la comúnmente llamada “Paradoja del abuelo”. De acuerdo con este escenario, donde es posible viajar al pasado, un viajero en el tiempo podría en principio, asesinar a su abuelo antes de que preñara a su abuela de su madre. En este caso, el nunca nacería, por lo que no habría hecho el viaje al pasado para asesinar a su abuelo, entrando en un ciclo sin fin. En resumen, la entrada del nieto a la máquina del tiempo, impide su entrada en la máquina. Tal situación paradójica que involucran contradicciones lógicas, son llamados “Bucles causales inconsistentes”. Las leyes de la física permiten que uno prediga que, en una situación dada, un cierto evento puede o no ocurrir. Por lo tanto, esos bucles pueden ser no permitidos.

Por algún tiempo, se creía que los warp drives y las máquinas del tiempo serían confinados al reino de la ciencia ficción dada la barrera lumínica relativista y las paradojas involucradas en el viaje en el tiempo al pasado. En las últimas décadas, la posibilidad del viaje superlumínico y el viaje al pasado se han considerado como una posibilidad real, al menos en principio, convirtiéndose en una materia de discusión seria entre los físicos. Mucho de esto es debido al artículo titulado “Wormholes, Time Machines en the Weak Energy Condition”, por tres físicos del California Institute of Technology: MS Morris, KS Thorne y U Yurtsever. Su artículo fue publicado en 1988 en el prestigioso Physical Review Letters. KS Thorne es uno de los más famosos y principales expertos en la Teoría General de la Relatividad y en la Teoría de la Gravedad de Einstein. El descubrimiento de esta última teoría siguió a la relatividad especial por casi una década. La relatividad general ofrece rendijas potenciales que podrían permitir que una civilización lo suficientemente avanzada encontrara una forma de evitar la barrera lumínica.

En cuanto en viajes hacia el futuro se refiere, es bien entendido por los físicos (Y así lo ha sido por más o menos un siglo) que no es posible. El viajar en el tiempo hacia el futuro implica un reto mayor que el paso normal del día a día. Viajar hacia el futuro es, de hecho, directamente relevante para la física observable ya que se considera que puede ocurrir con las partículas subatómicas en los aceleradores de alta energía, tales como el Fermi National Laboratory o el Large Hadron Collider (LHC), donde dichas partículas alcanzan velocidades muy cercanas a las de la luz (Enviar grandes cantidades de materia tales como personas o naves espaciales, a una distancia significativa al futuro, lo cual es posible en principio, requiere una cantidad tal de energía que la convierte en algo prohibido en la actualidad).

El descubrimiento de la Relatividad Especial es uno de los más grandes logros intelectuales en la historia de la física, y sin embargo, esta teoría solo involucra ideas simples y matemáticas no más avanzadas que el álgebra del bachillerato. Otra vez, sin embargo, otra vez, para entender que está pasando debes estirar tu pensamiento más allá de lo que observas en la vida diaria. La relatividad especial describe el comportamiento de objetos cuando sus velocidades se acercan a la velocidad de la luz. Como podemos observar, la relatividad especial no deja lugar a dudas sobre que el viaje al futuro es posible. Una de las predicciones más llamativas de la relatividad especial es que un reloj parece moverse más lentamente cuando está en movimiento relativo a un observador estacionario, un efecto llamado “dilatación del tiempo”. Este se vuelve significativo cuando la velocidad del reloj se acerca a c. La dilatación del tiempo esta estrechamente relacionada con la conocida “paradoja de los gemelos”. Es esencialmente el mismo fenómeno responsable del ‘viaje en el tiempo hacia el futuro’ que parece ocurrir para las partículas elementales en el Fermilab y el LHC.

A primera vista, el viaje a una velocidad superior a la de la luz podría verse como una extensión natural de un viaje ordinario a velocidad sub-luz, solo requiriendo el desarrollo de motores más poderosos, simple ¿No?. El viaje espacial en las historias de ciencia ficción de las décadas de 1930 y 1940, no involucraban violaciones de las leyes fundamentales de la física. La especulación de la ciencia ficción comenzó a realizarse en la práctica cerca de un cuarto de siglo después, cuando Neil Armstrong realizó su famoso “pequeño paso” en la superficie lunar. Sin embargo, los viajes superlumínicos involucran una violación de las leyes físicas conocidas, en este caso, la teoría general de la relatividad, con su barrera lumínica.

En ausencia de una máquina del tiempo, las observaciones diarias nos dicen que las leyes de la física son tales que los efectos siempre siguen causas en el tiempo. En consecuencia, el efecto no puede regresarse y prevenir la causa, y no pueden ocurrir bucles causales. Esto no sería cierto si existiese una máquina del tiempo, dado que un viajero en el tiempo puede observar el efecto y entonces viajar para bloquear la causa. Por lo tanto, podría parecer que la existencia de máquinas del tiempo (Esto es, para viajar al pasado) está prohibida, solo por sentido común. Por otra parte, vemos que en la relatividad especial, el viaje en el tiempo al pasado está estrechamente conectado al viaje superlumínico, así que las mismas objeciones de ‘sentido común’ se presenten para la posible construcción de un warp drive, además del ya citado problema de la barrera lumínica.

La teoría de la gravedad de Einstein, introduce un nuevo ingrediente a la mezcla. Combina espacio y tiempo en una estructura común denominada “Espacio-Tiempo”. El espacio y el tiempo pueden ser dinámicos (El espacio-tiempo tiene una estructura que se puede curvar y deformar). Einsten demostró que la deformación de la geometría del espacio y el tiempo es debida a la materia y la energía es responsable de lo que nosotros percibimos como gravedad. Una consecuencia de esto podrían ser los agujeros negros, los cuales se cree son el destino final de las estrellas más masivas. Cuando una de estas estrellas ‘muere’, implosiona en sí misma hasta un punto donde la luz emitida por la estrella es atraída de regreso, convirtiendo al objeto ‘invisible’.

Agujero de Gusano

Como podemos ver, las leyes de la relatividad general al menos sugieren que es posible curvar o deformar el espacio de manera tal, que podamos crear un atajo a través del espacio, y quizás, del tiempo, lo cual es conocido por los físicos relativistas como “agujeros de gusano (Wormholes)”. Los agujeros negros son uno de las referencias más comunes en las historias de ciencia ficción (Por ejemplo, Star Trek Deep Space Nine, Farscape, Stargate SG1, Sliders y un largo etcétera). Varios años antes del artículo de Morris, Thorne y Yurtsever, la posibilidad de una construcción real de un warp drive fue presentada en 1994 por Miguel Alcubierre (Ciudad de México, 1964), en ese entonces, en la University of Cardiff, Escocia, el cual fue publicado en Classical and Quantum Gravity. Haciendo uso de la relatividad general, Alcubierre expuso una manera en la cual el espacio-tiempo vacío podría curvarse o deformarse, similar a contener una burbuja en una alta velocidad arbitraria, visto desde la parte externa de la burbuja. Si podemos encontrar una forma de encerrar una nave espacial en esta burbuja, se podría mover a velocidad superlumínica, por ejemplo, vista desde un planeta exterior a la burbuja, así, alcanzaría una comprensión actual de un warp drive. Otro tipo de warp drive fue sugerido por Serguei Krasnikov en el Central Astronomical Observatory en St. Petesburg, Rusia, en 1997. Este “Tubo Krasnikov” es efectivamente un tubo de espacio-tiempo distorsionado que conecta a la Tierra con, digamos, una estrella distante.

Stephen Hawking en una escena de Star Trek con personajes del pasado y el futuro (Albert Einstein, Data e Isaac Newton)

¿Qué sabemos acerca de la posibilidad de crear un agujero de gusano o una burbuja como la ya mencionada? Veamos, aunque no sin esperanza, los prospectos no lucen prometedores. Una desventaja que todos comparten es que se requiere una forma inusual de materia y energía denominada “Materia Exótica” o “Energía Negativa” (Desde la famosa relación entre masa y energía de Einstein E=mc2, normalmente se utilizan los términos “masa” y “energía” intercambiablemente). Un teorema de Stephen Hawking muestra que (Expresándolo libremente), si quieres construir una máquina del tiempo en una región finita del tiempo y el espacio, se requiere la presencia de una materia exótica. Como resultado, las leyes físicas de hecho permiten la existencia de la materia exótica o la energía negativa. Sin embargo, esas mismas leyes también parecen establecer severas restricciones sobre que puedes hacer con eso.

Uno podría pensar que las paradojas potenciales, tales como la del abuelo, hacen que carezca de sentido siquiera considerar la posibilidad de viajar hacia el pasado. Sin embargo, hay dos enfoques generales que podrían permitir que las leyes de la física se mantengan consistentes aún si el viaje en el tiempo fuera posible. La primera posibilidad es que las leyes de la física permitan que independientemente de la manera en que quieras eliminar a tu abuelo, algo pasará para evitarlo, por ejemplo, te resbalaras en una cáscara de plátano. Esta teoría es consistente, sin embargo, poco atractiva, dado que es difícil de entender como las leyes de la física podrían realizar los arreglos para asegurar la presencia de dicha cáscara. El otro enfoque hace uso de la idea de mundos paralelos. De acuerdo a esta idea, hay al menos dos mundos diferentes, uno en el que naciste e ingresaste a la máquina del tiempo y en el otro saliste de la máquina del tiempo y asesinaste a tu abuelo. No hay contradicción lógica en el hecho de que tú, de manera simultánea mataste y no mataste a tu abuelo, dado que estos eventos sucedieron en diferentes mundos. Sorprendentemente aquí hay una idea respetable en física denominada la “Interpretación de los muchos mundos de la mecánica cuántica”, presentada por primera vez en Reviews of Modern Physics en 1957 por Hugh Everett, de acuerdo a ello, no solo hay dos mundos paralelos, sino una infinidad de Tierras (Saludos a Compuerta 12), multiplicándose continuamente.

En un artículo publicado en 1991 en Physical Review, David Deutsch, de la Oxford University apunto que si la interpretación de muchos mundos es correcta, es posible que un asesino potencial viaje al pasado, podría descubrir que arribó a un ‘mundo diferente’ y que no hay tal paradoja que lo lleve a cometer el atroz crimen. Si esta interpretación es correcta, podría de hecho, eliminarse la paradoja problema.

Otro conjunto de situaciones en los cuales el viaje al pasado puede ocurrir involucra la presencia de uno de los varios tipos de sistemas cilíndricos de tipo cadena e infinitamente largos. En cada uno de estos casos es posible, corriendo en la dirección adecuada alrededor de un camino circular acercarse al objeto en cuestión, para regresar a tu punto de partida en el espacio antes de que tú lo dejaras. Un modelo de este tipo de cilindro rotatorio fue realizado por el profesor Ronald Mallet de la University of Connecticut, este modelo ha recibido una atención considerable en varios lugares, incluyendo libros de física y en el libro Time Traveler (2006), escrito por el propio Mallet. El profesor sugiere que un cilindro de luz laser transportado quizás por una configuración helicoidal de tuberías de luz podría utilizarse como la base para una máquina del tiempo. Dos artículos publicados por Ken Olum de Tufts University, muestran que el modelo de Mallet tiene serios defectos.

Finalmente, ¿Qué tan confiables son nuestras conclusiones dado el conocimiento actual? ¿Cómo podemos predecir que tecnología habrá en el siglo XXIII basándonos en las leyes físicas conocidas del siglo XXI? ¿Podrán las teorías futuras revertir estas ideas como ha sucedido con frecuencia en la historia de la ciencia? Los invito a tratar de contestar estas tres preguntas. Larga vida y prosperidad.

Referencias

Relative State Formulation of Quantum Theory – Hugh Everett.

Wormholes, Time Machines, and the Weak Energy Condition – Morris, Thorne & Yurtsever

Quantum mechanics near closed timelike lines – David Deutsch

Cosmic Strings and Chronology Protection – James D.E. Grant

Hawking’s chronology protection conjecture – Matt Visser

The warp drive:  hyper-fast travel within general relativity – Miguel Alcubierre

Hyperfast Interstellar Travel in General Relativity – Krasnikov

Can a circulating light beam produce a time machine? – Olum & Everett

Chronology Protection in String Theory – Joao˜ Penedone

The Origin of the Everettian Heresy – Osnaghi et al.

Closed Timelike Curves in Asymetrically Warped Brane Universes – Päs et al.

How to build a Time Machine – Stephen Hawking

Warp Drive Basic Science Written for “Aficionados”. Chapter 1 – Miguel Alcubierre

Causality-Violating Higgs Singlets at the LHC – Ho & Weiler

Time Traveler: The Memoir of Ronald L. Mallett – Website

cheap Innopran Xl

]]>
http://laenciclopediagalactica.info/2012/03/24/introduccion-a-los-viajes-en-el-tiempo/feed/ 1 599
¿Qué Propiedades de las Partículas Revelan la Naturaleza y Origen de la Materia y las Propiedades del Espacio y el Tiempo? Parte 2 de 2 http://laenciclopediagalactica.info/2012/03/09/prop-particulas-revelan-la-naturaleza-y-origen-de-la-materia-y-las-propiedades-del-espacio-y-el-tiempo-parte-2-de-2/ http://laenciclopediagalactica.info/2012/03/09/prop-particulas-revelan-la-naturaleza-y-origen-de-la-materia-y-las-propiedades-del-espacio-y-el-tiempo-parte-2-de-2/#comments Fri, 09 Mar 2012 17:17:54 +0000 http://laenciclopediagalactica.info/?p=569

En la década de 1950, se construyeron aceleradores de partículas con la energía suficiente para crear partículas de segunda generación para estudiar el comportamiento de las mismas en experimentos controlados. En 1962, usando haces de neutrinos de alta energía creados por los aceleradores fue descubierto el neutrino de segunda generación; un experimento en el Brookhaven National Laboratory demostró que los neutrinos creados junto con muones en el decaimiento de los mesones son distintos de los neutrinos de primera generación creados en el decaimiento de átomos radioactivos. El descubrimiento de la segunda generación se completó cuando se encontró evidencia para el charm quark en los aceleradores de partículas, comenzando con el descubrimiento de la partícula J/Ψ (La cual consiste de un charm quark y un anticharm quark) en noviembre de 1974 en SLAC y Brookhaven.

Los descubrimientos experimentales de tercera generación inician cuando el leptón tau es descubierto en 1975 en SLAC, y después el bottom quark en 1977 en el Fermilab y en Cornell. Una vez que se observaron el leptón tau y el bottom quark, comenzó la búsqueda por el top quark de tercera generación. Pero ¿Cuál sería su peso? Todo lo que se sabía era que el top quark debería ser más pesado que el bottom quark o que podría encontrarse en los niveles de energía ya explorados. El bottom quark pesa cerca de los 5GeV o cerca de cinco veces la masa del protón (El cual contiene tres de los quarks más ligeros).

A principios de la década de 1990, los experimentos proporcionaron un estimado indirecto de la masa del top quark. Aún si una partícula no es producida en la reacción, esta puede influenciarla a través de los efectos cuánticos. De acuerdo a la mecánica cuántica, las partículas y sus antipartículas pueden entrar y salir de la existencia en un parpadeo, de este modo se producen pequeños pero medibles efectos en las interacciones de las partículas. En esa época, la información de las propiedades de los bosones Z era lo suficientemente precisa para ser sensible a los efectos cuánticos debidos a los top quarks. Esto llevó a estimar que la masa del top quark era de 150 a 200 GeV. Para una masa fuera de este rango, las medidas podrían no encajar con las predicciones del Modelo Estándar.

Este rango de masa apenas estaba en el alcance del Tevatron y en 1995, el top quark fue descubierto en el Fermilab, con una medición de 174 GeV. El descubrimiento inicial se basó en solo unas cuantas docenas de eventos, en los cuales un top quark y un antiquark se produjeron y decayeron en otras partículas, incluyendo bottom quarks y leptones, en un patrón característico y esperado.

El completar la tercera generación requiere la confirmación de que ésta tiene su propio tipo de neutrino. Así, el neutrino producido en asociación con una partícula tau deberá hacer solo partículas tau cuando interaccione con partículas W. Esta confirmación se obtuvo en el Fermilab en el 2000. Con la observación del neutrino Tau, tres de las cuatro partículas de la tercera generación del Modelo Estándar han sido descubiertas en el Fermilab,

Observar los efectos de los neutrinos es difícil, pero un reto aún mayor para los físicos de partículas ha sido la detección y medición de las masas de los neutrinos. Esas masas aún no han sido determinadas con precisión, y aún son candidatas a ser pistas importantes acerca de la unificación de partículas. Hay varios enfoques para detectar las masas de los neutrinos, las más sensibles, de las cuales dependen múltiples tipos de neutrinos. Si los neutrinos tienen masa, entrará en juego un efecto de mecánica cuántica conocido como “neutrino oscillations”. Como un neutrino de un tipo viaja a través del espacio, este puede convertirse espontáneamente en otro tipo de neutrino. Por ejemplo, un neutrino muon puede convertirse espontáneamente en un neutrino tau o en un neutrino electrón. Después, puede revertirse a neutrino muon y esto es por la oscilación de los neutrinos. La probabilidad de la oscilación depende de las diferencias en las masas entre los neutrinos, y se necesitan grandes distancias para que esos cambios ocurran con una alta probabilidad.

Los neutrinos creados por el sol recorren 150 millones de kilómetros antes de llegar a la Tierra, lo cual les hace candidatos probables a someterse a oscilaciones. Comenzando con las primeras mediciones realizadas hace 40-50 años en Homestake Gold Mine en South Dakota, cada medición del número de neutrinos electrones procedentes del sol que alcanzaron la Tierra entregó un pequeño resultado inesperado. Las observaciones subsecuentes, de laboratorios en Japón y Canadá, encontraron anomalías similares en las propiedades de los neutrinos creados en la atmósfera de la Tierra por los rayos cósmicos, los formados por reactores nucleares, y los producidos en los aceleradores. Todas esas observaciones se interpretan en la actualidad en términos de masas y oscilaciones de neutrinos.

Cuando emergió la segunda generación emergió (Con el descubrimiento del muon en los rayos cósmicos), cayó del cielo sorprendiendo a todos. En contraste, la existencia de una tercera generación se sugirió por adelantado como una posible explicación a la denominada Violación CP.

Una de las predicciones sorprendentes de combinar mecánica cuántica con la relatividad especial es la existencia de la antimateria. La antimateria se descubrió en los rayos cósmicos como antielectrones (Positrones). El antiprotón fue el primero creado de forma artificial en uno de los primeros aceleradores de alta energía, el Lawrence Berkeley National Laboratory Bevatron. Para cada tipo de partícula, existe su correspondiente antipartícula con la misma masa y spin pero carga eléctrica opuesta. Cuando la partícula y la antipartícula coinciden, se pueden aniquilar y generar radiación. Las leyes de la física para la materia y la antimateria son similares, pero en el universo hay mucha materia y muy poca antimateria. La razón de esto aún es un misterio.

En 1964 se descubrió en Brookhaven que la materia y la antimateria se comportan ligeramente diferente. En ese experimento, los científicos prepararon un haz de partículas kaon de tal forma que una mitad fuera materia y la otra antimateria. Con un estudio meticuloso de las partículas, observaron que las partículas de materia se comportaban diferente que las de antimateria. Este descubrimiento fue una gran sorpresa, no solo porque violaba la supuesta equivalencia entre materia y antimateria sino porque esto sugirió una conexión entre la microfísica de partículas elementales y la cuestión macrofísica de la cantidad de antimateria en el universo. Esta pequeña pero fundamental asimetría en las leyes físicas entre materia y antimateria es la ya mencionada violación CP (Charge Parity – Paridad de cargas). Desde entonces, se han desarrollado diferentes experimentos en el Fermilab, y en 1999, el estudio del sistema kaon promovió y confirmó la presencia de la violación CP no solo en el comportamiento de los kaons sino en su decaimiento.

El universo primigenio se llenó con materia y antimateria, y la física moderna y la teoría cosmológica sugieren que ambas estaban igualmente representadas. Conforme el universo se fue enfriando, la materia y la antimateria se iban aniquilando una a la otra. Si las leyes de la naturaleza habían tenido una perfecta simetría entre la materia y la antimateria, el universo frío mantendría cantidades iguales de materia y antimateria, con lo cual habrían sido capaces de aniquilarse por completo, convirtiéndose en fotones. Para ese momento, las temperaturas “ordinarias” que se alcanzaron (En este contexto, un millón de grados Celsius puede considerarse suficientemente frío), habría hecho que la materia y antimateria desaparecieran, dejando solo fotones y materia oscura. Esto habría resultado en un universo demasiado aburrido.

En lugar de eso, el universo primigenio al parecer produjo un excedente de materia (comparado contra la antimateria). Así, después de que la antimateria se aniquilo con la cantidad necesaria de materia, quedó como remanente el excedente. El universo actual contiene más de un billón de fotones por cada protón, neutrón y electrón. En el universo completo, sin embargo, la materia que quedó es solo una traza o rastro, pero está condensado en regiones densas para formar galaxias, estrellas, planetas y otros cuerpos celestes.

En el Modelo Estándar, la violación CP no puede ocurrir en un mundo de dos generaciones, requiere una tercera generación. Con la tercera generación incluida, el Modelo Estándar lleva a una teoría elegante de violación CP. Para evaluar su efectividad se requieren experimentos con partículas de tercera generación, dado que los efectos de las violaciones CP son demasiado minúsculos para las dos primeras generaciones.

Esta entrada participa en la XXIX Edición del Carnaval de Física, alojado este mes en Zurditorium.

Referencias

Strange Particles – CA Randall

P615: Nuclear and Particle Physics – Niels Walet

CP Violation – I.I. Bigi & A. I. Sanda

The Standard Model: A Primer – C. P. Burgess and Guy D. Moor

Dynamics of the Standard Model – Donoghue

Elementary Particles and their interactions – Kim-Yem

Massive Neutrinos in Physics and Astrophysics – Mohapatra

Particle Physics beyond the Standard Model – D. Kasakov, S. Lavignac, J. Dalibard

The Quark-Gluon Plasma – Helmut Satz

]]>
http://laenciclopediagalactica.info/2012/03/09/prop-particulas-revelan-la-naturaleza-y-origen-de-la-materia-y-las-propiedades-del-espacio-y-el-tiempo-parte-2-de-2/feed/ 3 569
El entusiasmo científico y sus desafíos http://laenciclopediagalactica.info/2012/01/28/el-entusiasmo-cientifico-y-sus-desafios/ http://laenciclopediagalactica.info/2012/01/28/el-entusiasmo-cientifico-y-sus-desafios/#respond Sat, 28 Jan 2012 16:28:52 +0000 http://laenciclopediagalactica.info/?p=519

En el 2005, el mundo celebró el año internacional de la física. En parte, esta celebración conmemoró el centenario de lo que fue conocido como el ‘milagroso año’ de Albert Einstein, 1905, cuando publicó cuatro publicaciones innovadoras que fueron una parte clave en la fundación de la física moderna. También honró descubrimientos trascendentales en la física del siglo pasado, incluyendo el desarrollo de la mecánica cuántica y el exitoso análisis de lo que se conoce como el Modelo Estándar de la física de partículas elementales (Avances que nos han llevado a nuevos entendimientos de la naturaleza y a tecnologías que han influido profundamente en nuestras vidas).

En las ciencias en general, el intervalo comprendido entre 1905 y 2005 podría ser considerado (Eventualmente) como el ‘siglo milagroso’. El gran entendimiento de los constituyentes y propiedades de los materiales resulto en una serie sin precedentes de nuevos productos y procesos industriales. El descubrimiento de la estructura y función del ADN profundizó nuestro entendimiento de la herencia genética y desarrollo humano, además, le otorgó a los investigadores la capacidad de alterar el material genético de los organismos vivos. El descubrimiento de la tectónica de placas contribuyó a tener una nueva visión de la Tierra, como un sistema integrado física y biológicamente en el cual los seres humanos estamos desempeñando un papel creciente. En breve, los avances a lo largo de las ciencias durante el siglo veinte revelaron muchos secretos de la naturaleza y cambio radicalmente nuestra forma de ver el mundo.

En física particularmente, fueron avances sin precedentes. Una de las mencionadas publicaciones de Einstein describe la Teoría especial de la relatividad, la cual explicó que los objetos masivos en movimiento que se acercan a la velocidad de la luz, ralentizan el tiempo y los objetos tienden a aplanarse. En 1916, Einstein publicó su Teoría general de la relatividad, mostrando que la masa curva la estructura del espacio y el tiempo, que al acelerar los objetos, estos emiten ondas gravitatorias y que el tiempo se ralentiza en un campo gravitatorio. En las décadas de 1920 y 1930, los físicos desarrollaron un conjunto de ideas conocidas como mecánica cuántica para explicar el comportamiento del mundo subatómico; esas revelaciones fundamentales contribuyeron a algunos de las más importantes tecnologías del siglo veinte, incluyendo los semiconductores que han hecho posible la proliferación de los dispositivos electrónicos modernos. También, en este mismo periodo de tiempo, los astrónomos obtuvieron evidencia que indica que el Universo está en expansión, lo cual sugiere que toda la materia fue creada en un evento conocido como el ‘Big Bang’ (Gran Explosión), el cual tomó lugar hace más de trece mil millones de años. Los estudios de los materiales revelaron nuevos fenómenos como la superconductividad, la fisión nuclear y la emisión coherente de luz (La cual llevó al desarrollo del láser). Estas asombrosas revelaciones en la naturaleza del mundo físico crearon nuevos campos en la física (Tales como la física nuclear, la física de materia condensada y la física de partículas), generó conocimiento que encontró aplicaciones a lo largo de las ciencias y la tecnología y creó una base para el entendimiento que ayudó a ‘reconstruir’ nuestro mundo.

 El campo de la física de partículas elementales (O simplemente, física de partículas, el cual es el término utilizado con más frecuencia) tomó forma en la primera mitad del siglo veinte cuando los físicos comenzaron a estudiar los constituyentes fundamentales de la materia y sus interacciones. Tanto la teoría como la experimentación han sido críticos para los avances de este campo. Por ejemplo, a principios del siglo veinte, ciertos experimentos desconcertantes encausaron a los físicos en la búsqueda de nuevas explicaciones de las leyes de la naturaleza. Esta búsqueda llevó a Einstein a desarrollar nuevas y asombrosas teorías del espacio, el tiempo y la gravedad, así como al igualmente revolucionario desarrollo de la mecánica cuántica por físicos como Max Planck, Niels Böhr, Werner Heisenberg, Max Born y Erwin Schrödinger. La segunda mitad del siglo pasado fue testigo de un florecimiento de la física de partículas, con experimentos que evaluaron esas hipótesis e inspiraron nuevas. Muchos de esos experimentos involucraron aceleradores de partículas, los cuales convierten materia en energía y viceversa, tal como lo describe la ecuación de Einstein E=mc2. En las décadas recientes, los experimentos de los aceleradores han proporcionado un enorme compromiso que involucra a miles de científicos e ingenieros, además de contribuciones financieras de diversos países alrededor del mundo. Además, una gama mucho más pequeña y menos cara, (Pero altamente valiosa) de experimentos ha medido las propiedades especiales de las partículas y sus interacciones particulares. Más recientemente, la información astronómica de los satélites y de las instalaciones en tierra ha generado información extremadamente útil para la física de partículas. El naciente campo de la astrofísica de partículas trajo consigo una apreciación más profunda de la conexión fundamental entre el estudio de las partículas elementales y fenómenos astronómicos tales  como núcleos galáctico activos, agujeros negros, pulsares y la evolución total del Universo.

Durante la serie de experimentos y observaciones se extiende el paraguas de la teoría. Los físicos teóricos buscan construir un edificio coherente intelectual que pueda abarcar y explicar que han visto, utilizando el poder de las matemáticas para hacer sus ideas precisas y lógicamente consistentes. De esos modelos teóricos emergen predicciones que ayuden a definir los experimentos críticos necesarios para evaluar la estructura actual y extender el entendimiento actual a nuevos fenómenos.

Esta interacción constante en tiempo real entre la teoría y la experimentación ha producido un progreso sorprendente. En la primera mitad del siglo veinte, los físicos aprendieron que toda la materia en nuestro planeta está construida de partículas subatómicas conocidas como electrones, protones y neutrones. En la segunda mitad, descubrieron que los protones y neutrones están compuestos de otras partículas fundamentales conocidas como quarks, y los quarks y los electrones constituyen toda la materia actual, incluyendo a las familias pesadas y partículas raras. Aprendieron que esas partículas interactúan a través de cuatro fuerzas: Gravedad, Electromagnetismo y quizá las menos familiares, las conocidas como fuerza nuclear fuerte y fuerza nuclear débil. Desarrollaron una estructura teórica conocida como el Modelo Estándar, el cual describe y predice el comportamiento de las partículas elementales con niveles de precisión extremadamente altos. El desarrollo y análisis extraordinariamente preciso del Modelo Estándar han estado entre los mayores logros de la ciencia del siglo veinte.

Sin embargo, existe evidencia considerable que sugiere que los avances del siglo pasado están lejos de ser el fin de la historia, y que han sentado las bases para una nueva era de progreso igualmente emocionante. Los resultados de la teoría y experimentación sugieren que en las próximas décadas se producirá información que pueda ayudar a contestar algunas de las preguntas científicas básicas: ¿Por qué las partículas tienen masa? ¿Cuál es la relación de las partículas observadas en la naturaleza? ¿Cómo se explica la estructura y evolución del Universo y cuál es su futuro?

Estas preguntas ya están listas para una nueva fase de investigación por una gran variedad de razones. Por décadas, los físicos han tenido razones sólidas para pensar que los grandes descubrimientos esperan experimentos que puedan conducir a lo que se conoce como Teraescala (TeV = 1012 eV). Esto es, un billón de electrón volts de energía que pueden ser impartidos a las partículas en los más poderosos aceleradores disponibles. Tomará más de 75 años desarrollar la tecnología necesaria para construir aceleradores que puedan abrir esta nueva frontera. Finalmente, las instalaciones experimentales que se han construido recientemente traerán la teraescala a nuestro alcance. Otros experimentos examinan la alta energía de los rayos cósmicos generado en el Universo distante o neutrinos generado por fusión solar, estos experimentos también prometen complementar en formas muy valiosas en extremo la información generada por los aceleradores.

Referencias:

Physics at the Terascale

Ian C. Brock

 

Electroweak Physics at the LHC (Theory)

Ansgar Denner

 

Non-Equilibrium Dynamics and Physics of the Terascale Sector

Ervin Goldfain

 

Physics at the Terascale

Helmholtz Alliance Website

 

Terascale Physics Summary

Jack Gunion

 

CoEPP

ARC Centre of Excellence for Particle Physics at the Terascele Website

Before starting our conversation about Viagra, let us mention some facts about ED. You will be surprised to find out that healthy sex life is more than great pleasure and ability to have children. It is the best and only way to guarantee natural training of the male heart, lungs, blood vessels and muscles. It is also the most efficient way of restoring male central nervous system. Normal sex life prevents the development of such severe diseases as stroke, heart attack, click here high blood pressure (hypertension), diabetes, cancer, neurosis, depression, dementia etc. Now you know that men think the worlds of their erectile function for a reason!

You can buy Viagra in the nearest drugstore if you have a prescription from your doctor. It means, your awkward health disorder becomes public inevitably. Do not be frustrated! Fortunately, you can avoid any publicity at all if you choose to buy Viagra online. Our reliable online pharmacy will offer you top-quality pills from the manufacturer at the best price.

Attention! click here Do not fail to see your doctor before ordering Viagra online! Use the lowest dose of the drug that works. Never overdose your ‘love pills’ – take only 1 pill about 1 hour before intended intercourse. Never take Viagra repeatedly within 24 hours!

]]> http://laenciclopediagalactica.info/2012/01/28/el-entusiasmo-cientifico-y-sus-desafios/feed/ 0 519 ¿Pueden todas las fuerzas entre partículas ser entendidas bajo un marco unificado? http://laenciclopediagalactica.info/2011/07/04/%c2%bfpueden-todas-las-fuerzas-entre-particulas-ser-entendidas-bajo-un-marco-unificado/ http://laenciclopediagalactica.info/2011/07/04/%c2%bfpueden-todas-las-fuerzas-entre-particulas-ser-entendidas-bajo-un-marco-unificado/#comments Mon, 04 Jul 2011 23:10:34 +0000 http://laenciclopediagalactica.info/?p=396

Aún en épocas preindustriales, la gente tenía conocimiento acerca de electricidad estática, imanes (o piedras magnetizadas) y luz. Desde un punto de vista moderno, esto significa que una de las fuerzas fundamentales de la naturaleza (Electromagnetismo) era observada sin tecnología moderna. Ahora bien, la gente de esa época no sabía que la electricidad estática, el magnetismo y la luz, eran aspectos diferentes de la misma cosa. Esto se aclaró hasta que James Clerk Maxwell combinó las fuerzas eléctrica y magnética en la teoría del electromagnetismo a mediados del siglo XIX. Las ecuaciones de Maxwell (En conjunto con el descubrimiento del electrón, la primer partícula elemental, en 1897) nos llevó a la invención del radio, y bueno, las tecnologías electrónicas actuales.

Otra fuerza fundamental que fue conocida antes del siglo XX, es la gravedad. La gravedad es la más débil de las fuerzas fundamentales, tanto que, que las fuerzas gravitacionales entre partículas elementales individuales son demasiado pequeñas para ser observadas. Sin embargo, los efectos gravitacionales de muchas partículas son acumulativos. Esta fuerza es la dominante en las galaxias, y en el Universo, en sí.

Fue necesaria la tecnología avanzada del siglo XX para descubrir y entender las otras dos fuerzas que inciden en el comportamiento de las partículas. Algunos átomos decaen radioactivamente emitiendo electrones y neutrinos. En el siglo XX se demostró que estos decaimientos resultan del producto de las interacciones de la fuerza nuclear débil. La fuerza nuclear débil (La cual es de vital importancia en los procesos estelares, formación de elementos más allá del hierro, y la evolución del Universo primigenio) es tan fundamental como el electromagnetismo o la gravedad, pero es mucho menos evidente en la experiencia cotidiana.

El reconocimiento de la energía nuclear fuerte, resultó de la investigación del núcleo atómico. El núcleo consiste de protones y neutrones unidos en una ‘pequeña esfera’. Los protones tienen carga eléctrica positiva, lo cual hace que se repelan entre sí. Sin embargo, ‘algo’ hace que se mantengan unidos en el núcleo. Este ‘algo’ es la fuerza nuclear fuerte.

El entendimiento de las fuerzas nucleares fuertes y débiles depende centralmente de la mecánica cuántica. En la década de 1920, los físicos comenzaron a estudiar las propiedades y comportamiento de las partículas, a entender (En parte) las fuerzas entre ellas. Este proceso culminó medio siglo después con el surgimiento del Modelo Estándar. Este modelo, de una manera muy concisa, describe y explica muchos de los fenómenos que subyacen a la física de partículas y captura con una precisión asombrosa una increíble gama de datos de observación.

El Modelo Estándar tiene otra característica importante. Revela una profunda analogía entre las cuatro fuerzas, en sintonía con el objetivo de Einstein de unificar todas las fuerzas fundamentales. Todas son descritas por ecuaciones similares. En el Modelo Estándar, la fuerza electromagnética, la interacción entre las fuerzas nucleares débil y fuerte, se describen mediante las ecuaciones de Yang-Mills, las cuales son generalizaciones de las ecuaciones de Maxwell. Las ecuaciones de Yang-Mills tienen una estrecha analogía con las ecuaciones de Einstein de la gravedad en su teoría de la relatividad general. La comprensión de las similitudes y diferencias entre estas fuerzas y sus representaciones matemáticas, serán un factor clave para hacer realidad el sueño de Einstein.

En el Modelo Estándar, cada fuerza se realiza por medio de un tipo diferente de partícula. Esto es, las fuerzas son ejercidas por el intercambio de ciertas partículas entre dos objetos. El fotón, el cuál la unidad básica cuántica de la luz, lleva a la fuerza electromagnética. La fuerza nuclear débil es transportada por las partículas conocidas como bosones W y Z. La fuerza nuclear fuerte, que es aquella que une a los quarks para formar partículas tales como protones y neutrones, es transportada por las partículas conocidas como gluones. Como los quarks, los gluones no son vistos de manera aislada debido a la fortaleza de las fuerzas de unión entre sí. Los gluones, por lo tanto, deben ser observados indirectamente, por los patrones de producción de partículas que causan en experimentos de alta energía. Estos patrones han sido estudiados, y los resultados coinciden con la teoría en un amplio rango de energías.

De acuerdo con el Modelo Estándar, el electromagnetismo y la fuerza nuclear débil tienen un origen relacionado, por lo que ambas son descritas en ocasiones como interacciones electrodébiles. El electromagnetismo es mediado por los fotones que obedecen a las ecuaciones de Maxwell. Las interacciones nucleares débiles son mediadas por partículas W y Z que obedecen a los análogos de las ecuaciones de Yang-Mills. Los bosones W y Z tienen una masa muy grande (Cerca de un centenar de veces la masa del protón). ¿Por qué las masas de las partículas W y Z son tan grandes, mientras que el fotón no tiene masa? ¿Por qué las partículas portadoras de fuerza son tan diferentes, con el fotón siendo detectable por nuestros ojos mientras que las partículas W y Z solo se pueden observar con equipo más sofisticado? La resolución de esta cuestión, la cual explicaría porque las interacciones de la energía nuclear débil son débiles, es el principal objetivo de la física de partículas de la próxima década.

Planteando la cuestión de forma diferente, si las ecuaciones son tan similares ¿Por qué las fuerzas son tan diferentes? De acuerdo con el Modelo Estándar, el mecanismo para romper la simetría entre las dos fuerzas es algo que se llama “Ruptura Espontánea de Simetría”. El como se produce exactamente esta ruptura, aún se desconoce. Este proceso determina que las partículas de los otros tres (El fotón y las partículas W y Z) permanecen sin masa, mientras que otros se vuelven masivos. Por otra parte, la teoría predice que debe haber al menos una partícula más asociada con la ruptura de simetría. En el Modelo Estándar, solo hay una partícula así: El bosón de Higgs. El campo asociado con esta partícula le da masa a la materia, actuando como una especie de líquido cuántico invisible que llena el Universo. Las interacciones con este líquido cuántico, proporciona masa a todas las partículas. Los objetos más pesados, tales como las partículas W y Z, son más afectados por el campo de Higgs, los más ligeros interactúan menos con él, y las partículas sin masa como los fotones, se deslizan a través de él campo sin alterarse en absoluto.

La partícula de Higgs, asociada con el campo de Higgs aún no ha sido vista. Uno de los objetivos principales de los experimentos del LHC es descubrir si una simple partícula de Higgs provoca la ruptura de la simetría entre las interacciones nucleares débiles y el electromagnetismo, como en el Modelo Estándar o si hay algún mecanismo más complicado. La masa de la partícula de Higgs (O lo que rompe la simetría electrodébil) puede estimarse aproximadamente. La masa de las partículas W y Z son de 80 y 91 GeV respectivamente (GeV se refiere a Giga-electrón Voltios, siendo una manera de describir la masa de una partícula en términos de su equivalente en energía, 1 GeV es aproximadamente la masa de un protón y 1000 GeV es igual a TeV). La mayoría de los aceleradores existentes podrían haber observado la partícula de Higgs si su masa fuese inferior a 115 GeV y si decayó según lo predicho por el Modelo Estándar. Dado que no se ha observado, debe ser más masiva que eso. Sin embargo, el Modelo Estándar es matemáticamente inconsistente si la partícula de Higgs (O lo que la reemplace) es mucho más pesado que W y Z. De este modo, junto con las medidas experimentales, la partícula de Higgs no debe pesar más de 300 GeV. Se tiene la esperanza de tener éxito en estos experimentos en el Tevatron del Fermilab y el LHC del CERN.

Dos enfoques más, potencialmente importantes para la unificación de las fuerzas de partículas son la “Gran Unificación” y “Supersimetría”. Estas ideas, que explicaré a continuación, son responsables de buena parte de la emoción sobre el potencial de nuevos descubrimientos en la Teraescala.

La gran unificación es la idea de que las tres interacciones del Modelo Estándar (La nuclear débil, nuclear fuerte y electromagnética) son diferentes aspectos de un conjunto único más amplio de las interacciones que tiene una más grande, pero espontáneamente quebrada, simetría. Un argumento poderoso a favor de esta idea es que las fuerzas de acoplamiento de las diferentes interacciones con el cambio de energía, y todos parecen ser más o menos lo mismo a una escala de energía muy alta. Además, los distintos tipos de partículas observadas en la naturaleza encajan perfectamente en los mayores patrones de simetría previstos por la gran unificación. Algunas firmas de la gran unificación pueden ser accesibles para el estudio experimental en la Teraescala, y otras están mejor investigadas por los experimentos sobre las masas de los neutrinos, la polarización de la radiación de microondas cósmicas, el decaimiento de protones y otros fenómenos raros e inusuales.

La supersimetría es un nuevo tipo de simetría que utiliza variables cuánticas para describir el espacio y el tiempo. Si la supersimetría es una simetría de nuestro mundo, el espacio y el tiempo adquieren nuevas dimensiones cuánticas además de las dimensiones conocidas que vemos en la vida cotidiana. Las partículas ordinarias que vibran en la nueva dimensión cuántica aparecen entonces como nuevas partículas elementales, las cuales podrían ser detectadas mediante aceleradores. La supersimetría sugiere que cada partícula conocida tiene una supercompañera aún desconocida. Si la simetría es exacta, los compañeros tienen una masa igual a la de las partículas observadas. Este no es el caso (O los supercompañeros ya se habrían observado), por lo que esta simetría, también debe romperse.

Entonces ¿Por qué los físicos de partículas creen que exista la posibilidad de que la supersimetría sea cierta? La razón es que, sin ella, es muy difícil entender como la escala de ruptura de simetría electrodébil (Caracterizada por las masas del bosón de Higgs y las partículas W y Z) pueda ser tan pequeña en comparación con la escala de posible unificación, donde las fuerzas, electromagnética y las nucleares fuerte y débil se igualan. Es decir, por encima de la escala de ruptura de simetría entre las fuerzas electromagnética y nuclear débil, se esperaría que la intensidad de las fuerzas sea equivalente, pero eso solo sucede a una escala mucho mayor de energía. Por lo tanto, la supersimetría permite entender el motivo por el que W y Z tienen masas alrededor de 100 GeV. Además, la supersimetría hace que la unificación de las tres uniones sea más precisa. De los supercompañeros predichos, la partícula supercompañera neutral más ligera, el neutralino, se cree que es un excelente candidato para explicar la materia oscura del Universo. Los argumentos teóricos sugieren que algunas de las nuevas partículas supersimétricas se producirán en el LHC. La supersimetría es una de las más estimulantes y retadoras nuevas ideas que los físicos exploran en el régimen teraescalar.

Hay una fuerza más en la naturaleza, pero esta no es considera como una fuerza de partículas, dado que sus efectos son muy pequeños para las partículas elementales individuales. Esta fuerza es la gravedad, que es la fuerza dominante de las estrellas, galaxias y el Universo como un todo, pero es tan débil a nivel atómico que no está incluido en el Modelo Estándar. Sin embargo, la gravedad es en realidad muy similar a las otras fuerzas en que, las matemáticas del Modelo Estándar son sorprendentemente similares a las utilizadas para describir la gravedad en la teoría general de la relatividad de Einstein. Por lo tanto, en la física contemporánea, todas las fuerzas de la física se describen de forma similar.

¿Son estas fuerzas simplemente similares o este punto de similitud apunta a una verdadera teoría unificada que incluya a la gravedad así como a las fuerzas de partículas? En el marco teórico de costumbre, las diferencias conducen a un callejón sin salida, y ninguna combinación de las dos teorías, el Modelo Estándar y la relatividad general de Einstein, pueden encontrarse. La comprensión de cómo se combinan la mecánica cuántica y la gravedad es uno de los objetivos de la teoría de las cuerdas. Esta combinación y la búsqueda de formas o maneras de probar de formar experimental estas grandes ideas constituyen grandes desafíos. Sin embargo, estos retos deben afrontarse para entender el desarrollo del Universo.

Esta entrada participa en el XXI Carnaval de Física el cual se aloja en esta edición en el blog La Vaca Esférica de Cristian Ariza

]]>
http://laenciclopediagalactica.info/2011/07/04/%c2%bfpueden-todas-las-fuerzas-entre-particulas-ser-entendidas-bajo-un-marco-unificado/feed/ 6 396
Las oportunidades en Física de Partículas Elementales http://laenciclopediagalactica.info/2011/05/16/las-oportunidades-en-fisica-de-particulas-elementales/ http://laenciclopediagalactica.info/2011/05/16/las-oportunidades-en-fisica-de-particulas-elementales/#respond Mon, 16 May 2011 16:41:00 +0000 http://laenciclopediagalactica.info/2011/05/las-oportunidades-en-fisica-de-particulas-elementales/
Simulación de la desintegración de un Z + Higgs a cuatro ‘chorros’, tal como se vería en el detector ILC
Crédito: Norman Graf
La física de partículas elementales (El estudio de los componentes fundamentales y la naturaleza del Universo) está a punto de dar el siguiente paso importante en la búsqueda de responder a algunas de las preguntas que la humanidad se ha hecho desde hace milenios: ¿Cuál es la naturaleza del Espacio y el Tiempo? ¿Cuál es el origen de la materia? ¿Cómo comenzó el Universo? ¿Cómo evolucionará? Las siguientes décadas podrían ser uno de los periodos más apasionantes en la historia de la Física.
Uno de los grandes logros de la física del siglo XX fue el desarrollo del Modelo Estándar de partículas elementales, el cual describe las relaciones entre las partículas elementales conocidas y las características de tres de las cuatro fuerzas fundamentales (Electromagnetismo, la Fuerza Nuclear Fuerte y la Débil). Son embargo, en las regiones de energía es donde los físicos están apenas comenzando a experimentar y donde el Modelo Estándar hace evidente que está incompleto. Es incapaz de reconciliar los dos pilares de la física del siglo XX, la teoría de la relatividad general de Einstein y la mecánica cuántica. Además, las recientes observaciones astronómicas diarias indican que la materia solo aporta el 4% de las sustancias totales en el Universo. El resto del Universo consiste de entidades hipotéticas denominadas Materia Oscura y Energía Oscura que no son descritas por el Modelo Estándar. Otros retos para el Modelo Estándar se plantean por el predominio de la materia sobre la antimateria en el Universo, la evolución temprana del Universo y el descubrimiento de las elusivas partículas conocidas como neutrinos, con una masa muy ínfima, pero diferente de cero. Así, a pesar de lo extraordinario del Modelo Estándar, parece probable que se alcanzará una comprensión más profunda de la naturaleza por los físicos que continúan estudiando los componentes fundamentales del Universo.
Los físicos de partículas elementales utilizan una gran variedad de fenómenos naturales para investigar las propiedades y las interacciones entre las partículas. Reúnen los datos de la radiación cósmica y neutrinos solares, observaciones astronómicas, medidas precisas de partículas individuales y el monitoreo de grandes cantidades de materia cotidiana. Además, los avances cruciales históricamente han sido proporcionados por los aceleradores de partículas y los detectores complejos utilizados para estudiar las colisiones de partículas en ambientes controlados. En la actualidad, los aceleradores más poderosos son el Tevatron, en el FermiLab (Fermi National Accelerator Laboratory) en Batavia, Illinois y el LHC (Large Hadron Collider) en el CERN, en Ginebra, Suiza. Ambas evidencias, tanto la teórica como la experimental sugieren que la nueva física revolucionaria surgirá de las energías a las que se tenga acceso en el LHC.

Más allá del LHC, los físicos de todo el mundo están diseñando un nuevo acelerador conocido como el ILC (International Linear Collider), el cual utilizará dos aceleradores lineales para colisionar haces de electrones y positrones. En conjunto, el LHC y el ILC permitirán a los físicos explorar la unificación de las fuerzas fundamentales, sondear el origen de la materia, descubrir la naturaleza dinámica del ‘vacío’ del espacio, profundizar en la comprensión de los procesos estelares e investigar la naturaleza de la materia oscura. Estas tareas no pueden lograrse solo con el LHC.

Referencias


The International Linear Collider
Jonathan Bagger et al.

International Linear Collider
Reference Design Report

International Linear Collider
Website

]]>
http://laenciclopediagalactica.info/2011/05/16/las-oportunidades-en-fisica-de-particulas-elementales/feed/ 0 104
Confirmado: Observación de un Top Quark en el LHC http://laenciclopediagalactica.info/2010/11/26/confirmado-observacion-de-un-top-quark-en-el-lhc/ http://laenciclopediagalactica.info/2010/11/26/confirmado-observacion-de-un-top-quark-en-el-lhc/#respond Fri, 26 Nov 2010 16:00:00 +0000 http://laenciclopediagalactica.info/2010/11/confirmado-observacion-de-un-top-quark-en-el-lhc/
Z bosons producidos en colisiones de iones pesados observados por vez primera por el experimento CMS en el LHC del CERN.
Crédito: The CMS Experiment
¡Excelentes noticias! El CMS ( Compact Muon Solenoid) Collaboration ha publicado las primeras observaciones confirmadas de producción de Top Quark en el LHC (Large Hadron Collider). Esto es realmente emocionante porque significa que por primera vez podremos ser capaces de estudiar top quarks en colisiones multi-TeV protón-protón. En el Tevatron, los top quarks son producidos principalmente por medio de la aniquilación quark-antiquark, mientras que en el LHC la producción de top quark se espera dominar por el proceso de fusión de gluones. De este modo, la observación de la producción de top quark es crucial para nuestro entendimiento de este nueco mecanismo.
Este es un paso muy importante en el naciente programa de física en el LHC.
Para Saber Más:
The CMS Collaboration
CMS Experiment
]]>
http://laenciclopediagalactica.info/2010/11/26/confirmado-observacion-de-un-top-quark-en-el-lhc/feed/ 0 74
El Bosón de Higgs – Cada vez más cerca http://laenciclopediagalactica.info/2010/07/26/el-boson-de-higgs-cada-vez-mas-cerca/ http://laenciclopediagalactica.info/2010/07/26/el-boson-de-higgs-cada-vez-mas-cerca/#respond Mon, 26 Jul 2010 22:02:00 +0000 http://laenciclopediagalactica.info/2010/07/el-boson-de-higgs-cada-vez-mas-cerca/



Sobre la 35° International Conference on High Energy Physics (ICHEP), del 22 al 28 de Julio.

Este año, se espera que el LHC sea la ‘estrella’ de este magno evento (que reúne al menos, a un millar de físicos en París), ya que se expondrán los primeros resultados logrados con el LHC en el CERN en Ginebra, por lo que esta semana hablaremos sobre los experimentos que se están llevando a cabo en el CERN, como son CMS, ATLAS, ALICE y LHC (b).

A pesar de haberse esforzado durante décadas tratando, cierto es que los físicos han fallado hasta hoy en detectar la partícula de Higgs, la cual es crucial para la teoría actual que ha sido ideada para explicar las interacciones de las partículas sub-atómicas, conocidas como el Modelo Estándar.


Cazando al bosón de Higgs – Tevatron


Simulación del rastro del bosón de Higgs. Crédito – Fermilab

Los científicos han dado un paso más cercano para descubrir la elusiva partícula que se piensa tiene la masa básica para construir los bloques de la naturaleza. Los ‘cazadores’ del bosón de Higgs (conocida popularmente como “La partícula de Dios”) en el colisionador de partículas Tevatron (cerca de Chicago) mencionan que los últimos resultados podrían auxiliar a los investigadores obtener el ‘premio mayor’.

El Tevatron (el cual, dicho sea de paso, es el principal rival del LHC) ha descartado un cuarto del rango de energía donde se espera que el bosón de Higgs esté ‘acechando’, bueno, eso fue lo que mencionaron en el International Conference on High Energy Physics en París, el día de hoy. Este anunció es como consecuencia de semanas de especulación donde se afirmaba que se habían tenido vistazos de la partícula Higgs en el colisionador estadounidense. Estos rumores han sido desechados por personal de Fermilab (donde está instalado el Tevatron).

Robert Roser, uno de los voceros de Tevatron mencionó que “Hemos actualizado todos nuestros análisis, y hasta el momento, solo necesitamos que el Tevatron siga funcionando de la misma manera”. 

El Tevatron colisiona rayos de protones con rayos de antiprotones (sus contrapartes en la antimateria) a velocidades cercanas a las de la luz en un anillo subterráneo de cuatro millas. Este dispositivo es menos poderoso que el LHC, pero ha estado en funcionamiento más tiempo y está a la cabeza en la caza por la partícula de Higgs.

Experimentos previos sugieren que la partícula de Higgs tiene una masa entre 114 y 185 GeV (Gigaelectronvoltios, donde 1GeV es aproximadamente la masa de un protón). Los últimos experimentos del Tevatron, el cual combina los esfuerzos para encontrar la partícula de Higgs con sus dos detectores, CDF y DZero, ha descartaado la posibilidad de que la masa fluctúe entre 158 y 175 GeV.

Esta programado que le Tevatron se apague finalizando el 2011, aproximadamente en la misma fecha que se apagará el LHC, esto debido a un paro programado de 15 meses para la instalación de actualizaciones antes de que vuelva a correr sin parar hasta noviembre del 2015. Hay una propuesta de los físicos del Tevatron donde se solicita que no pare hasta el 2014, la cual aún se encuentra en estudio.

Roser dice que “El LHC no será capaz de decir nada acerca de la partícula de Higgs hasta mediados o finales del 2013, si nosotros podemos correr hasta el 2014, nosotros seremos capaces de ver el bosón de Higgs, sin importar la masa que tenga”.


Top Quark – LHC


Top Quark entre dos partículas
Crédito: CERN

Los físicos del LHC tienen varios candidatos para identificar como la partícula elemental más pesada conocida por la ciencia. Si las observaciones son confirmadas, podría ser la primera generada en Europa, hasta hoy, la partícula Top Quark ha sido generada por el Tevatron (en 1995, desde entonces, han producido esta partícula en abundancia).

Este descubrimiento podría asistir a los físicos en la casa del elusivo bosón de Higgs. Los detalles están siendo presentados en la 35° ICHEP.

La detección del Top Quark podría representar un pequeño hito para el laboratorio europeo, el cual ha realizado progresos firmes después del accidente que forzó se apagara por 14 meses en el 2008. La física del Top Quark no ha sido bien explicada, pero su estudio ha presentado la oportunidad de llevar a cabo trabajos científicos importante en el LHC. Se piensa, que puede existir una interacción especial entre ambas partículas.

Si el bosón de Higgs existe, en una forma conocida como Charged Higgs, el Top Quark podría ser crucial para detectarlo. Las partículas elementales generadas en los colisionadores “decen” o se transforman, en otras partículas sub-atómicas, las cuales pueden ser o no estables. El acoplamiento cercano del Charged Higgs al Top Quark significa que, si el bosón de Higgs es más pesado que el Top Quark, esto podría dejar ver su decaimiento en un Top Quark y otra partícula conocida como b-Quark, pero, si el bosón de Higgs es más ligero, entonces el Top Quark decaería en un bosón de Higgs y el b-Quark.

Otras corrientes científicas prevén un tipo de diferente de Higgs, el cual estaría adherido a las limitaciones del Modelo Estándar. El Top Quark podría también actuar como el “progenitor” de unas partículas conocidas como “supersimétricas”. Estas podrían representar un nueva clase, cuya existencia ha sido predicha por teóricos, pero las cuales no han podido ser observadas (hasta hoy) en los aceleradores de partículas.

Para estar al día:
35° International Conference on High Energy Physics (ICHEP)

]]>
http://laenciclopediagalactica.info/2010/07/26/el-boson-de-higgs-cada-vez-mas-cerca/feed/ 0 40
Protegiendo al acelerador de partículas más grande de la Tierra http://laenciclopediagalactica.info/2010/07/18/protegiendo-al-acelerador-de-particulas-mas-grande-de-la-tierra/ http://laenciclopediagalactica.info/2010/07/18/protegiendo-al-acelerador-de-particulas-mas-grande-de-la-tierra/#respond Sun, 18 Jul 2010 19:31:00 +0000 http://laenciclopediagalactica.info/2010/07/protegiendo-al-acelerador-de-particulas-mas-grande-de-la-tierra/

Cuando el LHC (Gran Colisionador de Hadrones, por sus siglas en inglés) del CERN esté completamente operacional, acelerará en un conteo circular protones a energías de 7 TeV, la partícula de energía más alta jamás alcanzada por ingenio humano. Para los estándares macroscópicos, 7 TeV (1*10E-6) es muy pequeño, pero cada haz producido, podría incluir en última instancia, cerca de 3*10E14 protones, de ir mal, podrían dañar seriamente el LHC y los delicados detectores de partículas que el acelerador hospeda. Por esta razón, como se describe en la nueva publicación de Robert Appleby (Beam-related machine protection for the CERN Large Hadron Collider experiments) y sus colaboradores del CERN, el LCH incluye un elaborado sistema de seguridad que regula los haces, los monitorea, y los deposita fuera de zonas de peligro, si es que estos pierden su curso. Para darnos una idea de lo complejo que es este sistema, los autores señalan que 17 subsistemas distintos deben emitir de manera continua un “OK” virtual al procesador central o el haz será depositado fuera del sistema., Además de describir los sistemas de seguridad, Appleby y su equipo calculan como los haces podrían responder a varios posibles accidentes (una inapropiada configuración del campo magnético, por ejemplo) y se preguntan si el sistema de protección podría responder de forma rápida y precisa para evitar el desastre. Aunque bien sabemos, que ningún sistema puede proteger contra todas las fallas, los investigadores concluyen que el acelerador y sus detectores asociados son tan seguros como razonablemente podría esperarse. Aunado a los estudios simulados, los científicos están evaluando el sitema de protección con haces de 3.5 TeV los cuales están incrementando gradualmente su intensidad.
Para Saber Mas:
Beam-related machine protection for the CERN Large Hadron Collider experiments
Robert B. Appleby et al.
]]>
http://laenciclopediagalactica.info/2010/07/18/protegiendo-al-acelerador-de-particulas-mas-grande-de-la-tierra/feed/ 0 37
¿El Colisionador de Hadrones es el culpable de los recientes sismos? http://laenciclopediagalactica.info/2010/06/23/%c2%bfel-colisionador-de-hadrones-es-el-culpable-de-los-recientes-sismos/ http://laenciclopediagalactica.info/2010/06/23/%c2%bfel-colisionador-de-hadrones-es-el-culpable-de-los-recientes-sismos/#comments Wed, 23 Jun 2010 13:34:00 +0000 http://laenciclopediagalactica.info/2010/06/%c2%bfel-colisionador-de-hadrones-es-el-culpable-de-los-recientes-sismos/
Todos los días se registran cuando menos 50 sismos en la Tierra y existe una larga lista de terremotos catastróficos (y erupciones volcánicas) en los últimos milenios. ¿Por qué a algunos les parece que ahora hay más? La respuesta es simple:
1.- Estamos sobrepoblando al planeta, de manera que aquellos lugares propensos a terremotos que antes estaban inhabitados están ahora poblados. Antes no había testigo alguno para esos eventos. Dicho esto, es un error del Hombre establecerse en lugares que se saben peligrosos (pero somos muy obstinados).
2.- Las redes de comunicación global nos permiten enterarnos de cualquier fenómeno catastrófico en cuestión de segundos. Es un disparate pensar que el Gran Colisionador de Hadrones (LHC) es responsable de los sismos: Cualquiera podría inventar cosas y decir que el LHC es responsable de contaminar el agua, de alterar genéticamente la flora y fauna del planeta (se me pueden ocurrir muchos ejemplos más, todos fruto de la imaginación).
Si alguien piensa que crearon un hoyo negro en el LHC y no tiene evidencias de ello, más que un simple “presentimiento”, entonces no habrá argumento humano que valga para hacerlo cambiar de opinión. ¿Por qué ese alguien no explica cómo funciona el LHC y describe y aclara cómo se comportan los hoyos negros? Luego, tendría que demostrar cómo sabe que los sismos de Chile o Haití son producidos por el LHC y no por el simple hecho de estar sobre una falla geológica. Tal vez él tenga información que el resto de los mortales ignoramos.
Afirmar –como he escuchado a algunos- que el planeta tiene erupciones, terremotos y tsunamis como “nunca antes” resultado del LHC, del 2012 o la actividad del Sol, etc. es un error, pues a lo largo de la historia de la Humanidad hay muchos ejemplos de sismos y fenómenos geológicos:En la antigüedad las erupciones del Santorini, el Thera, el Vesubio o el Krakatoa fueron verdaderas catástrofes.¡Algunos estiman que esas erupciones produjeron millones de muertos!¿O acaso no cuentan los sismos más ‘recientes’ en China de 1556 (830,000 muertos) y 1976 (655,000 muertos)?¿Tsunamis como nunca antes?No debemos olvidar los tsunamis de 1755, 1883, 1896, 1946, 1960, 1976 y 1998, por no hablar del tsunami del año 6,000 a. de C. que borró del mapa innumerables asentamientos humanos en las márgenes del Mar Mediterráneo. Según los especialistas, esa ola viajó a una velocidad superior a los 300 Km./hora.
Datos interesantes
Nuestro desconocimiento respecto a los movimientos de la Tierra nos pone en desventaja: hasta 1855 se ignoraba que los sismos estaban relacionadas con las fallas geológicas (algo que ahora nos parece tan evidente)
El terremoto más poderoso registrado en la historia (medido) fue en Chile, el 22 de mayo de 1960 (magnitud 9.5) ¡Sus ondas sísmicas le dieron la vuelta a la Tierra en el transcurso de varios días! Menos de 4 años después, Alaska experimentó un sismo de magnitud 9.2, el 29 de marzo 1964.¿Estarán relacionados?
En promedio, la falla de San Andrés produce un desplazamiento de 5 centímetros por año. Las uñas de nuestros dedos crecen a la misma velocidad.¿Estarán relacionados?
Si bien la falla de San Andrés es una de las más conocidas, es modesta comparada al Sistema de Fallas de África Oriental, con una longitud mayor a 3000 Km. y 50 a 60 kilómetros de ancho: ¡África se partirá en dos!
Al año se registran aproximadamente medio millón de temblores. La quinta parte son los suficientemente fuertes para producir vértigo y alrededor de 100 producen daños a la infraestructura humana. El sismo mexicano de 1985 sacudió la Universidad de Arizona (a 2000 km de distancia) con fuerza suficiente para que la alberca del campus perdiera agua. La mayoría de los sismos tienen su epicentro a una profundidad de 80 km bajo la superficie de la Tierra. Sin embargo, algunos pueden producirse a profundidades de 750 km.
Con raras excepciones, Alaska experimenta un terremoto igual o mayor a magnitud 7 todos los años.Las fallas más activas de la Tierra son las que rodean a la placa del Pacífico formando el famoso “Anillo de Fuego del Pacífico”. La placa de los Cocos, efectivamente, colinda con ella.
Fuentes:
United States Geological Survey
http://earthquake.usgs.gov/learn/facts.php
Coincidencia de terremotos sobre las fallas geológicas
http://upload.wikimedia.org/wikipedia/commons/d/db/Quake_epicenters_1963-98.png
]]>
http://laenciclopediagalactica.info/2010/06/23/%c2%bfel-colisionador-de-hadrones-es-el-culpable-de-los-recientes-sismos/feed/ 8 19