Mecánica Cuántica – La Enciclopedia Galáctica http://laenciclopediagalactica.info Por Torjo Sagua Wed, 07 Nov 2018 15:33:17 +0000 es-ES hourly 1 https://wordpress.org/?v=4.9.8 54705453 ¿Qué es la teoría de las cuerdas? http://laenciclopediagalactica.info/2013/05/08/que-es-la-teoria-de-las-cuerdas/ http://laenciclopediagalactica.info/2013/05/08/que-es-la-teoria-de-las-cuerdas/#respond Wed, 08 May 2013 22:17:04 +0000 http://laenciclopediagalactica.info/?p=918

En palabras sencillas, la teoría de las cuerdas es una teoría cuántica de objetos unidimensionales llamados cuerdas, las cuáles se encuentran en variedades abiertas y cerradas. De forma un poco más rigurosa, se puede definir como una teoría de campo cuántico en la worldsheet dimensional (1 + 1) de la cuerda:

Ecuación 01

Existen varias teorías de campo cuántico y también varias teorías de cuerdas. Además, para algunas teorías de cuerdas, las cuerdas por sí mismas surgen de objetos envueltos en dimensiones superiores y por lo tanto pueden tener alguna estructura interna.

Para abrir nuestro apetito y motivar nuestra exploración del tópico, podemos observar que:

• Todas las teorías de cuerdas cerradas contienen una partícula spin-2 sin masa. Los argumentos generales mencionan que los únicos acoplamientos consistentes de tales partículas son las de un gravitón. Las teorías de cuerdas abiertas siempre contienen cuerdas cerradas, y en consecuencia la teoría de las cuerdas es una teoría de gravedad cuántica. Aunque, si leen las referencias abajo citadas, se puede entender que de hecho, es una teoría finita de la gravedad cuántica.

• El espacio-tiempo es tratado como un espacio objetivo de los campos cuánticos. La consistencia a nivel cuántico requiere que la dimensión de espacio-tiempo sea D > 3 + 1. Las cuerdas bosónicas requieren D = 26 mientras que las supercuerdas ‘solo’ requieren D = 10. Incluso pueden encontrarse más teorías exóticas.

• Las métricas en el espacio objetivo obedece a las ecuaciones de Einstein (Esto es genial, sorprendente y asombroso ¿no lo creen?).

• Las cuerdas abiertas frecuentemente contienen campos de medición no-abelianos y fermiones quirales. Ambos son ingredientes importantes para el Modelo Estándar. La teoría de las cuerdas existe naturalmente en D > 4 y puede ser fácilmente supersimetrizado por lo que se puede esperar que la teoría de las cuerdas podría ser el la culminación UV del Modelo Estándar y sus extensiones populares.

Aunque la teoría de las cuerdas tiene su origen en los “modelos de resonancia dual” de los hadrones en la era pre-QCD (Cromodinámica Cuántica), gran parte de su atractivo es su potencial como una consistente teoría de gravedad cuántica.

Recordando, además, que la constante de Newton tiene dimensión [GN] = – 2 así que la gravedad es no-renormalizable. A altas energías, las correcciones de orden superior se vuelven importantes. La Relatividad General tiene un ‘mal comportamiento’ en el ultravioleta. Esto se puede entender de forma intuitiva. Considerar una colisión a alta energía entre dos partículas puntuales en GR (Relatividad General) + QFT (Teoría de Campos Cuánticos):

Imagen1

A alta energía, podría producirse un microscópico agujero negro. El hecho de que podamos tener un agujero negro como un estado intermedio nos dice que ese proceso puede ser no linear. Por otro lado, consideremos una dispersión de cuerdas

Imagen2

Las cuerdas de alta energía tienen más oscilaciones, así que la imagen de una colisión de alta energía luce más como la colisión de dos nidos de aves, los cuales, después del evento, producen otro nido de ave. Este amasijo resultante es mayor que el radio Schwarzchild, de manera que, la colisión es de hecho muy suave. Así que, Voilá! No hay comportamiento de UV pobre.

Así que ¿Eso es todo? ¿La teoría de las cuerdas nos da esperanza para una teoría de la Gravedad Cuántica con alguna perspectiva de construir modelos de baja energía? ¡No! La extremadamente rica estructura de la teoría de cuerdas da lugar a varias ideas importantes en una variedad de tópicos, como:

• Dualidades no perturbativas.

• Matemáticas.

• Agujeros negros.

• Holografía.

Estos tópicos se están convirtiendo en una de las razones principales del creciente atractivo de la teoría de cuerdas a un público más amplio, incluyendo pero no limitándose a matemáticos, físicos de partículas y teóricos de materia condensada.

Este es un tema muy amplio, el dejarlo todo en un post, no sería lo más recomendable, por lo que, a continuación les dejo una serie de referencias sobre este tema. Es probable que más adelante vaya escribiendo más al respecto, por lo pronto, agradezco su visita a este blog.

Referencias

Definición de Worldsheet
Wikipedia

Quantum Chromodynamics (QCD)
Michael H. Seymour

Modern Quantum Field Theory
Thomas Banks

Getting to the Schwarzschild Radius
T. Paumard

Introduction to String and Superstring Theory II
Michael E. Peskin

The Little Book of String Theory
Steven S. Gubser

Introduction to String Theory
Gerard’t Hooft

String Theory and M-Theory
Katrin Becker, Melanie Becker and John Shwarz

An introduction to String Theory
Kevin Wray

Introduction to String Theory
Prof. N. Beisert

Introduction to String Theory
Timo Weigand

Introduction to String Theory
Angel M. Uranga

]]>
http://laenciclopediagalactica.info/2013/05/08/que-es-la-teoria-de-las-cuerdas/feed/ 0 918
Intersecciones de Física Nuclear Densa con Átomos Fríos y Estrellas de Neutrones. http://laenciclopediagalactica.info/2013/05/03/intersecciones-de-fisica-nuclear-densa-con-atomos-frios-y-estrellas-de-neutrones/ http://laenciclopediagalactica.info/2013/05/03/intersecciones-de-fisica-nuclear-densa-con-atomos-frios-y-estrellas-de-neutrones/#respond Fri, 03 May 2013 15:39:48 +0000 http://laenciclopediagalactica.info/?p=906

Los sistemas nucleares (Desde el núcleo atómico de la materia en las estrellas de neutrones a la materia formada en colisiones de iones pesados ultra-relativistas) son sistemas complejos multipartículas los cuales exhiben un amplio rango de comportamientos colectivos, por ejemplo, la superfluidez. Esta faceta, compartida en común con la materia estudiada por los físicos de materia condensada, físicos atómicos, químicos cuánticos y científicos de materiales, ha abierto espléndidas oportunidades para el cruce valioso y productivo de información entre esos campos. De creciente importancia es la intersección de la física nuclear y los gases atómicos ultrafríos.

Las nubes de gases atómicos permiten a los físicos controlar las condiciones experimentales tales como las densidades de partículas y las fuerzas de interacción, un control intrínsecamente no disponible para los físicos nucleares. Este control ha inspirado a los físicos nucleares para desarrollar cuadros más unificados de material nuclear, más allá de las limitaciones de los sistemas de los laboratorios nucleares, y ver los puntos en común con los sistemas atómicos. La flexibilidad experimental de los sistemas atómicos fríos los hace ideales para explorar fases exóticas y la dinámica cuántica en estos sistemas de Fermi fuertemente vinculados.

Los plasmas de Quark-Gluón en colisiones de iones pesados ultrarelativistas son los materiales más calientes que se puedan producir en el laboratorio, con temperaturas de varios billones de grados. Por otro lado, las nubes de átomos ultrafríos atrapados son los sistemas más fríos del Universo, alcanzando temperaturas tan bajas como un mil millonésimo de grado por arriba del cero absoluto. Sin embargo, a pesar de esta diferencia de temperaturas y energías, los dos sistemas comparten conexiones físicas significativas, lo que permite la ‘fertilización cruzada’ entre la física de alta energía nuclear y la física de átomos ultrafríos. Ambos sistemas, cuando interactúan fuertemente, tienen las viscosidades más pequeñas (Comparadas con su entropía o grado de desorden) de cualquier sistema en el Universo. La transición observada en las nubes de átomos fríos fuertemente interactuando de estados superfluidos emparejados, análogos a electrones superconducidos en un metal, a estados de moléculas BEC (Condensado Bose-Einstein) consistentes de dos fermiones atómicos, capta ciertos aspectos de la transición de un plasma de Quark-Gluón a la materia hadrónica ordinaria hecha de neutrones, protones y mesones.

El emparejamiento superfluido en la interacción de baja densidad de los sistemas atómicos fermiónicos es muy similar a la vinculación en materia de neutrones de baja densidad en las estrellas de neutrones. En la imagen destacada, se observa la comparación de la energía predicha a de una nube de baja densidad de neutrones superfluidos fríos con la de fermiones atómicos fríos, ya que la densidad aumenta, y muestra como los dos sistemas se comportan en común. Aunque las escalas de energía son muy diferentes, las interacciones atractivas entre fermiones en ambos sistemas producen huecos en pares extremadamente grandes, del orden de un tercio a la mitad de la energía de Fermi, y en este sentido estos sistemas son los superfluidos de temperatura más alta conocidos. Los experimentos en átomos fríos pueden medir las energías y los huecos de emparejamiento superfluido de fermiones fríos desde el acoplamiento débil hasta el fuerte, y proporciona pruebas sensibles de las teorías utilizadas para calcular las propiedades de la materia en el exterior de las estrellas de neutrones, núcleos enriquecidos en gran proporción de neutrones, y la materia de los quarks. Estas propiedades son clave para entender los límites de la estabilidad y la vinculación de núcleos ricos en neutrones y el enfriamiento de las estrellas de neutrones.

También se pueden estudiar análogos de estados nucleares y plasma quark-gluón con átomos fríos. Ejemplos sencillos son la unión de fermiones atómicos en tres estados distintos (hiperfinos), tal como el Litio-6, de forma análoga a los quarks de tres colores de quarks, en moléculas de tres átomos, los análogos de nucleones, o la unión de bosones atómicos con fermiones atómicos en moléculas. También se pueden aprovechar las similitudes de la interacción de los tensores entre nucleones a la interacción magnética entre átomos con grandes momentos magnéticos dipolares, por ejemplo, el disprosio, para que los análogos de los estados de priones condensados propuestos en las densas estrellas de neutrones. La interacción fuerte de plasma atómico ultrafuerte también presenta oportunidades inusuales para estudiar la dinámica de la interacción fuerte de plasma quark-gluón. Otros ejemplos incluyen la formación y la interacción de los vórtices y las posibles fases superfluidas exóticas de la materia. Futuros experimentos con trampas ópticas permitirán estudiar las propiedades de la materia no homogénea que existe en la corteza de las estrellas de neutrones. Y, la interacción fuerte de las nubes de átomos con diferentes densidades de spines up y down, como puede ser diseñado en las trampas ópticas, compartir algunas características comunes con la interacción fuerte de materia quark con diferentes densidades de quarks extraños, up¸y down. En ambos contextos, los huecos de emparejamiento superfñuidos que son modulados en el espacio en un patrón periódico que lo puede desarrollar, produciendo una fase de materia superfluida y cristalina, indicios que pueden observarse en los experimentos recientes de átomos fríos.

Referencias.

The Quark-Gluon Plasma. A Short Introduction
Helmut Satz.

Physics of the quark-gluon plasma
Markus H. Thoma

Quark-Gluon Plasma. Theorical Foundations.
J. Kapusta, B. Müller, J. Rafelski

Hunting the Quark Gluon Plasma
Results from the first 3 years at RHIC

Quark-Gluon Plasma and the Early Universe
Xiangdong Ji

Superfluidity
FIRST – Quantum Information Processing Report WebSite

Argonne National Laboratory
ANL Website

TRIUMF
TRIUMF Website

Grand Accélérateur National d’Ions Lourds
GANIL Website

GSI Helmholtzzentrum für Schwerionenforschung
Website

CERN
Website

RIKEN
Website

]]>
http://laenciclopediagalactica.info/2013/05/03/intersecciones-de-fisica-nuclear-densa-con-atomos-frios-y-estrellas-de-neutrones/feed/ 0 906
Revisando los paradigmas de la estructura nuclear 4 de 4. http://laenciclopediagalactica.info/2012/10/23/revisando-los-paradigmas-de-la-estructura-nuclear-4-de-4/ http://laenciclopediagalactica.info/2012/10/23/revisando-los-paradigmas-de-la-estructura-nuclear-4-de-4/#respond Tue, 23 Oct 2012 15:34:56 +0000 http://laenciclopediagalactica.info/?p=741

En colaboración científicos estadounidenses y rusos crean el elemento químico 117.

Un equipo de físicos estadounidenses y rusos han creado un elemento químico con el número atómico Z=117, llenando un hueco en la Tabla Periódica de los Elementos. El nuevo elemento súper-pesado, ‘nació’ en un acelerador en Dubna, Rusia, y requirió los esfuerzos colaborativos coordinados entre cuatro instituciones en Estados Unidos de América y dos en Rusia y más de dos años para conseguirlo, es de destacar lo que logró la cooperación internacional. La identificación del elemento 117 entre los productos de la reacción del berkelio 249 con el calcio 48 ocurrió a finales del 2009 y los resultados fueron publicados en abril del 2010. La producción del blanco berkelio 249, con un corto periodo de vida media de T1/2=320 días, requirió una intensa irradiación de neutrones en el Reactor de Isótopos de Alto Flujo (HFIR, High Flux Isotope Reactor) del ORNL (Oak Ridge National Laboratory), la separación química en otro reactor obtuvo productos que incluyeron el californium 252, otra vez, en el ORNL, siguiendo la fabricación del blanco en Dimitrovgrad, Rusia y seis meses de bombardear el acelerador con un haz intenso de calcio 48 en Dubna, Rusia (Una carrera continua intercontinental contra el decaimiento radioactivo).

El análisis de la información experimental fue desarrollado de manera independiente en Dubna y Lawrence Livermore National Laboratory, proporcionando análisis de los datos prácticamente las 24 horas del día, debido al diferencial de tiempo entre Rusia y California (Entre 11 y 12 horas) Se observaron seis átomos del elemento 117 (Cinco de 117293 y uno de 117294) y un total de 11 nuevos nucleídos fueron descubiertos en el decaimiento de los productos de esos dos isótopos de Z=117. Se observó al medir las vidas medias de los nuevos núcleos súper-pesados que estas se incrementaban con un mayor número de neutrones.

Este trabajo representa la verificación experimental para la existencia de la isla predicha de estabilidad mejorada. Científicos y estudiantes de la Vanderbilt University y la University of Nevada también contribuyeron en este exitoso experimento.

Esta entrada participa en el XXV Carnaval de Física cuyo anfitrión en esta edición es el blog “Últimas noticias del Cosmos“, gestionado por Gerardo Blanco.

Referencias

Argonne National Laboratory

TRIUMF

Grand Accélérateur National d’Ions Lourds

GSI Helmholtzzentrum für Schwerionenforschung

CERN

RIKEN

Designer nuclei – making atoms that barely exist
K.L Jones & W. Nazarewics

Shape coexistence and triaxiality in the superheavy nuclei
S. Ćwiok, P.H. Heenen, W. Nazarewicz

The magic nature of 132Sn explored through the single-particle states of 133Sn
K.L. Jones, A.S. Adekola, D.W. Bardayan et al.

From Finite Nuclei to the Nuclear Liquid Drop: Leptodermous Expansion Based on the Self-consistent Mean-Field Theory
P.G. Reinhard, M. Bender, W. Nazarewicz, T. Vertse

Theoretical Description of Superheavy Nuclei
W. Nazarewicz, M. Bender, S. Cwiok, P.-H. Heenen, A. Kruppa, P.G. Reinhard, T. Vertse

Shell Stabilization of Super- and Hyper-Heavy Nuclei Without Magic Gaps
M. Bender, W. Nazarewicz, P.–G. Reinhard

Shell Corrections of Superheavy Nuclei: Green’s Function Hartree-Fock Method
A.T. Kruppa, M. Bender, W. Nazarewicz, P.–G. Reinhard, T. Vertse, S. Cwiok,

Have superheavy elements been produced in nature?
I. Petermann, K. Langanke, G. Martínez-Pinedo, I.V. Panov, P.-G. Reinhard, F.-K. Thielemann

Z=117
American Physical Society Sites – Division of Nuclear Physics

Exploring the island of Superheavy Elements
Sigurd Hofmann

Synthesis of a New Element with Atomic Number Z=117
Y. T. Oganessian et al.

]]>
http://laenciclopediagalactica.info/2012/10/23/revisando-los-paradigmas-de-la-estructura-nuclear-4-de-4/feed/ 0 741
Revisando los paradigmas de la estructura nuclear 3 de 4. http://laenciclopediagalactica.info/2012/10/22/revisando-los-paradigmas-de-la-estructura-nuclear-3-de-4/ http://laenciclopediagalactica.info/2012/10/22/revisando-los-paradigmas-de-la-estructura-nuclear-3-de-4/#respond Mon, 22 Oct 2012 20:56:18 +0000 http://laenciclopediagalactica.info/?p=737

Los elementos más pesados

¿Qué tan pesados son los núcleos atómicos que pueden existir? ¿Existe una isla de núcleos de larga vida en el plano N-Z? ¿Cuáles son las propiedades químicas de los átomos súper-pesados? Estas cuestiones presentan retos tanto para los físicos experimentales como los teóricos. La fuerza electrostática de repulsión entre protones se incrementa en aquellos núcleos con un número de protones grande que podrían no estar enlazados excepto por sutiles efectos cuánticos. La teoría predice que la estabilidad podrá incrementarse con la adición de neutrones en esos sistemas cuando N=184 (Ver Figura 1), pero no hay consenso acerca del lugar preciso de la proyectada isla de elementos súper-pesados de larga vida y sus periodos de existencia (Los intervalos van desde 105 hasta 107) años). is themes to the Apple legal a unlocking iphone 3g help around is all of features has craze to turning easy

Mediante el uso de blancos de actínidos y haces estables raros, tales como el calcio 48, se producen y observan elementos superiores a Z=118. El descubrimiento de un núcleo Z=117, con un blanco de berkelio 249 es un ejemplo de ello, así como de cooperación internacional en física nuclear (Se explicará en la última parte de esta serie). Con esa investigación, no solo se descubrió un nuevo elemento, sino que la nueva información obtenida de la vida media de varios núcleos en su decaimiento proporcionó el soporte experimental para la existencia de la tan largamente predicha isla de estabilidad en núcleos súper-pesados. Un progreso mayor, el acercarse a Z=118 o superarlo es posible, pero se requieren nuevos blancos de actínidos más allá del berkelio, y haces intensos de isótopos raros estables como el titanio 50. Sin embargo, existe un rango de opciones para sintetizar elementos pesados con haces exóticos. Utilizando los blancos radioactivos enriquecidos con neutrones y haces, se puede formar un sistema altamente excitado, el cual podría decaer en un estado súper-pesado vía el retiro del exceso de neutrones. Un área de relativa importancia es el estudio adicional de la espectroscopia de los núcleos súper-pesados posibles utilizando haces re-acelerados y espectrómetros ampliamente aceptados, buscando en el decaimiento alfa y la espectroscopia de rayos gamma arriba de Z=106.

]]>
http://laenciclopediagalactica.info/2012/10/22/revisando-los-paradigmas-de-la-estructura-nuclear-3-de-4/feed/ 0 737
Revisando los paradigmas de la estructura nuclear 2 de 4 http://laenciclopediagalactica.info/2012/10/20/revisando-los-paradigmas-de-la-estructura-nuclear-2-de-4/ http://laenciclopediagalactica.info/2012/10/20/revisando-los-paradigmas-de-la-estructura-nuclear-2-de-4/#respond Sat, 20 Oct 2012 14:48:58 +0000 http://laenciclopediagalactica.info/?p=679

Un reto importante es delinear las líneas de goteo (Los límites de los números de protones y neutrones en los cuales el núcleo no se mantiene unido por la fuerza nuclear fuerte y su existencia nuclear termina) tan lejos como el mapa nuclear lo permita (Ver Figura 1). Por ejemplo, los experimentos en la MSU han producido los isótopos de magnesio y aluminio más pesados accesibles a la fecha y han mostrado la posible existencia de magnesio 40, aluminio 42 y aluminio 43. Las líneas de goteo cercanas al núcleo tienen sistemas cuánticos débilmente enlazados, frecuentemente con dimensiones espaciales extremadamente grandes. En años recientes, los experimentos en ANL (Argonne National Laboratory), TRIUMF (Canada’s National Laboratory for Particle and Nuclear Physics), GANIL (Grand Accélérateur National d’Ions Lourds), GSI, CERN y RIKEN (Rikagaku Kenkyūjo) usando láseres espectroscópicos de alta precisión han determinado la carga radial del halo nuclear del helio 6, helio 8, berilio 11 y litio 11 con una precisión del 1% a través de la determinación de los cambios los niveles electrónicos atómicos de los isótopos. Con las avanzadas Instalaciones para Haces de Isótopos Raros (FRIB, siglas en inglés) puede ser posible extender esos estudios para delinear más de las líneas de goteo hasta una masa 100 utilizando los haces de alta energía disponibles y la alta eficiencia y selectividad de los separadores de fragmentos FRIB.and your and Apple app by even the and a This iphone 3g unlock one you and to specific any unlocking together iPhone 4S they even

Las líneas de goteo frecuentemente exhiben modos de decaimiento exótico. Un ejemplo es el núcleo enriquecido en protones del hiero 45 que decae por decaimiento beta o expulsando dos protones de su estado fundamental. Moviéndonos hacia las líneas de goteo, el acoplamiento entre los diferentes estados nucleares, vía un continuo de estados sin enlaces, se hará sistemáticamente más importante, eventualmente interpretará un papel dominante en una estructura determinada. Tales sistemas donde ambos estados, los que tienen enlaces como los que no, existen e interactúan son llamados sistemas cuánticos “abiertos”.

Muchos aspectos de los núcleos en los límites del ‘paisaje nuclear’ son genéricos y se están explorando actualmente en otros sistemas abiertos: moléculas en campos externos fuertes, puntos cuánticos y otros microcomponentes en estado sólido, cristales en campos láser, y cavidades en microondas. La experimentación con haces radioactivos nucleares responderá las cuestiones pertinentes a todos los sistemas cuánticos abiertos: ¿Cuáles son sus propiedades cerca de los niveles bajos de energía donde las reacciones se vuelven energéticamente permitidas (Umbrales de las reacciones)? ¿Cuál es el origen de los estados en el núcleo, los cuales se asemejan a las agrupaciones de nucleones en grupos bien definidos, especialmente aquellos de importancia astrofísica? ¿Cuáles son los pasos más importantes en el desarrollo de una teoría que trataría la estructura nuclear y las reacciones consistentemente?

]]>
http://laenciclopediagalactica.info/2012/10/20/revisando-los-paradigmas-de-la-estructura-nuclear-2-de-4/feed/ 0 679
Revisando los paradigmas de la estructura nuclear 1 de 4 http://laenciclopediagalactica.info/2012/07/16/revisando-los-paradigmas-de-la-estructura-nuclear-1-de-4/ http://laenciclopediagalactica.info/2012/07/16/revisando-los-paradigmas-de-la-estructura-nuclear-1-de-4/#comments Tue, 17 Jul 2012 00:17:07 +0000 http://laenciclopediagalactica.info/?p=656

Orbital externo: Un objetivo en movimiento.

El concepto de nucleones moviéndose en órbita en el interior del núcleo bajo la influencia de una fuerza común da lugar a ideas de una estructura externa y números ‘mágicos’. Similares al movimiento de los electrones en un átomo, las órbitas nucleónicas se agrupan en energía, de este modo forman una capa y los núcleos que han llenado sus depósitos nucleicos (‘Gases nobles’ nucleares) están excepcionalmente unidos. Los números de nucleones necesarios para llenar cada capa son conocidos como números mágicos, los tradicionales son: 2, 8, 20, 28, 52, 82 y 126 (Ver figura 2). Así, un núcleo como el de plomo 208, con 82 protones y 126 neutrones es ‘doblemente mágico’. El concepto de números mágicos a su vez, introduce el concepto de los nucleones de valencia (Aquellos más allá del número mágico). Entonces, considerando la estructura de un núcleo como el del plomo 210, uno puede, considerar solo los dos últimos neutrones de valencia en lugar de todos los demás. Cuando se propuso a finales de la década de 1940, fue un concepto revolucionario: ¿Cómo podrían los nucleones individuales, que la comprenden la mayor parte del volumen nuclear, orbitar tan libremente sin generar un absoluto caos por colisiones? Desde luego, ahora entendemos que el principio de exclusión de Pauli juega un papel clave, y el modelo resultante de las órbitas nucleónicas se ha convertido en la ‘plantilla’ utilizada por más de medio siglo para interpretar la estructura nuclear.

 

Figura 2.- Estructura de las capas en átomos y núcleos. A la izquierda, lo niveles de energía de los electrones forman la estructura de la capa atómica. En los gases nobles, las capas de valencia de los electrones se llenan por completo. A la derecha, representación de las características de la estructura de la capa nuclear de un nécleo estable o de larga duración. En el núcleo ‘mágico’ con un número de protones o neutrones 2, 8, 20, 28, 50, 82 o 126, es decir, análogos a los gases nobles, las capas se encuentran llenas por completo. La estructura de las capas en cada núcleo enriquecido de neutrones no es conocida aún. Crédito – K. Jones y W. Nazarewicz. American Association of Physics Teachers
Figura 2.- Estructura de las capas en átomos y núcleos. A la izquierda, lo niveles de energía de los electrones forman la estructura de la capa atómica. En los gases nobles, las capas de valencia de los electrones se llenan por completo. A la derecha, representación de las características de la estructura de la capa nuclear de un nécleo estable o de larga duración. En el núcleo ‘mágico’ con un número de protones o neutrones 2, 8, 20, 28, 50, 82 o 126, es decir, análogos a los gases nobles, las capas se encuentran llenas por completo. La estructura de las capas en cada núcleo enriquecido de neutrones no es conocida aún. Crédito – K. Jones y W. Nazarewicz. American Association of Physics Teachers

Un sello distintivo experimental de la estructura nuclear es el comportamiento del primer estado excitado con movimiento angular 2 y una paridad positiva en el núcleo par-par. Este estado, usualmente la más baja excitación de energía en este tipo de núcleo, es una estructura ‘mansa’. Su energía de excitación toma valores elevados en números mágicos y valores bajos conforme el número de nucleones de valencia se incrementan y emerge el comportamiento colectivo. La idea de capas nucleares nos lleva a las regularidades y patrones repetidos, ilustrados en la Figura 1 y como se ven las energías en el estado 2+ se muestran en la parte superior de la figura 3. El concepto de número mágico fue fraguado basado en los datos obtenidos de los núcleos estables o casi estables. Sin embargo, recientemente, los números mágicos tradicionales han sido objeto de una mayor revisión debido al acceso a especies previamente no disponibles. La estructura de la capa conocida de un núcleo estable ya no es considerada como una construcción inmutable sino que más bien como un objetivo en movimiento. De hecho la elucidación del cambio en la estructura de la capa es uno de los triunfos de los recientes experimentos en la estructura nuclear en instalaciones con haces exóticos alrededor del mundo. Por ejemplo, los experimentos en la Michigan State University en los Estados Unidos de América y en Gesellshaft für Schwerionenforschung han mostrado que en los isótopos de oxígeno 24 altamente enriquecidos con neutrones (Con ocho protones y el doble de nutrones -16), es de hecho, un número mágico.

Figura 3. La figura superior muestra mediciones de energía de los estados 2+ más bajos en los núcleos. La figura inferior muestra una vista cercana de la información para varios isótopos enriquecidos de neutrones. La ‘huella’ de los números mágicos se pierde en este tipo de isótopos. Créditos – Figura Superior, R. Burcu Cakirli, Max Planck Institute for Nuclear Physics; Figura Inferior, Alexandra Gade, Michigan State University.
Figura 3. La figura superior muestra mediciones de energía de los estados 2+ más bajos en los núcleos. La figura inferior muestra una vista cercana de la información para varios isótopos enriquecidos de neutrones. La ‘huella’ de los números mágicos se pierde en este tipo de isótopos. Créditos – Figura Superior, R. Burcu Cakirli, Max Planck Institute for Nuclear Physics; Figura Inferior, Alexandra Gade, Michigan State University.

Una de las regiones más interesantes que exhiben la fragilidad de los números mágicos comprende los núcleos con 12 a 20 protones y 18 a 30 neutrones. La evidencia experimental es ejemplificada en la parte inferior de la figura 3 por las energías del primer estado excitado 2+ en esta región. La figura muestra la desaparición del número de neutrones N=20 como un número mágico en Mg, mientras persiste para sus elementos vecinos. De forma similar, N=28 pierde sus características mágicas para Si, S y Ar, mientras Ca, el cuál es también mágico en protones, retiene su doble carácter mágico en N=28.

 Hay al menos tres factores que conduces a esos cambios en la estructura de la capa: Cambios en como los núcleos interactúan con otros como la asimetría protón-neutrón varía; la influencia de la dispersión y estado de decaimiento cercano a los límites isotópicos de existencia nuclear (Las ‘driplines’); y el papel creciente de los efectos corporales en los enlaces nucleares débiles donde las correlaciones determinan la existencia de los núcleos. Esta nueva perspectiva en la estructura de la capa afecta muchas facetas de la estructura nuclear, desde la existencia de los núcleos ligeros de corta vida, hasta los estables elementos superpesados.

Recientes estudios, utilizando técnicas como la excitación Coulomb y luz ionizada de un solo nucleón en reacciones de transferencia, ambas cerca de los números mágicos y a lo largo de las cadenas extendidas isotópicas, en isótopos de Ca, Ni y Sn, están comenzando a responder las cuestiones acerca de las efectivas fuerzas internucleones en la presencia de exceso de neutrones, la relevancia del modelo de capa detallado en la presencia de enlaces débiles y la naturaleza del mecanismo colectivo nuclear. Excelentes evaluaciones del modelo de capa nuclear fueron realizadas por recientes estudios de los isótopos de estaño (Sn). El núcleo de estaño tiene un número mágico de protones (50) y sus isótopos de corta vida, Sn-100 y Sn-132, tienen 50 y 82 neutrones respectivamente, se espera sean ejemplos inusuales del nuevo y doblemente mágico núcleo pesado. Los datos únicos en la región de Sn-132 (Ver figuras 4 y 5) muestran que el Sn-132 se comporta en efecto como un núcleo doblemente mágico. Otros experimentos proporcionan información con respecto al SN-100; en particular, la primera información estructural en el Sn-101 nos lleva a sorpresas teóricas. Análisis más allá de la estructura de la capa y las interacciones en los elementos más pesados son las que se detallan a continuación.

Figura 4. Todos los nucleídos conocidos son mostrados en negro (Si son estables) o amarillo (Inestables). Las líneas discontinuas indican los números mágicos tradicionales de protones y neutrones. Dos núcleos doblemente mágicos, Sn-132 y Ni-78 están adyacentes a la región proceso-r (Azul) de un aún-no-se-ve nucleído que se cree está involucrado en la creación de los elementos más pesados en una supernova. Por adición de neutrones y protones a un núcleo estable, se ingresa a un núcleo radioactivo, primero de larga vida y posteriormente de corta vida, hasta que finalmente se alcanza la ‘línea de goteo’ nuclear, donde no hay suficiente fuerza de enlace para prevenir que los últimos nucleones se retiren del núcleo. Las ‘líneas de goteo’ de los protones y neutrones forman los bordes de la existencia nuclear. Crédito.- B. Schwarzschild, Physics Today 63:16, Agosto 2010.
Figura 4. Todos los nucleídos conocidos son mostrados en negro (Si son estables) o amarillo (Inestables). Las líneas discontinuas indican los números mágicos tradicionales de protones y neutrones. Dos núcleos doblemente mágicos, Sn-132 y Ni-78 están adyacentes a la región proceso-r (Azul) de un aún-no-se-ve nucleído que se cree está involucrado en la creación de los elementos más pesados en una supernova. Por adición de neutrones y protones a un núcleo estable, se ingresa a un núcleo radioactivo, primero de larga vida y posteriormente de corta vida, hasta que finalmente se alcanza la ‘línea de goteo’ nuclear, donde no hay suficiente fuerza de enlace para prevenir que los últimos nucleones se retiren del núcleo. Las ‘líneas de goteo’ de los protones y neutrones forman los bordes de la existencia nuclear. Crédito.- B. Schwarzschild, Physics Today 63:16, Agosto 2010.
Figura 5.- Espectro experimental de una reacción de transferencia en la cual un deuterón roza un Sn-132, depositando un neutrón para hacer un Sn-133 con la detección de un protón ‘escapando’. La línea sólida muestra como encajan los cuatro picos en verde, rojo, azul y lavanda en el esquema (Esquina superior derecha). En la esquina superior izquierda despliega un dibujo de la reacción empleada. Las investigaciones revelan que los estados de baja energía en Sn-133 tienen partículas más puras aún que sus contrapartes en Pb-209, en el exterior del núcleo doblemente mágico de Pb-208. Crédito.- K.L. Jones, A.S. Adekola, D.W. Bardayan, et al. 2010. Nature 465: 454, 2010.
Figura 5.- Espectro experimental de una reacción de transferencia en la cual un deuterón roza un Sn-132, depositando un neutrón para hacer un Sn-133 con la detección de un protón ‘escapando’. La línea sólida muestra como encajan los cuatro picos en verde, rojo, azul y lavanda en el esquema (Esquina superior derecha). En la esquina superior izquierda despliega un dibujo de la reacción empleada. Las investigaciones revelan que los estados de baja energía en Sn-133 tienen partículas más puras aún que sus contrapartes en Pb-209, en el exterior del núcleo doblemente mágico de Pb-208. Crédito.- K.L. Jones, A.S. Adekola, D.W. Bardayan, et al. 2010. Nature 465: 454, 2010.

Se espera que el modelo de la capa se someta a análisis sensibles en la región de los núcleos superpesados, aquellos cuya existencia depende de una competición dinámica entre la atracción nuclear de corto largo y la repulsión Coulomb de rango amplio. Curiosamente, una interacción similar toma lugar en la materia de baja densidad enriquecida con neutrones, encontrada en la corteza de las estrellas de neutrones, donde la “frustración Coulomb” produce ricas y complejas estructuras colectivas. La figura 6 muestra el cálculo de la energía de la capa, que es, el realce cuántico en el enlace nuclear debido a la presencia de capas nucleónicas. El núcleo de la región del estaño es un excelente ejemplo del paradigma del modelo de la capa: El núcleo mágico con Z=50, N=50 y N=82 tienen las capas energéticas más grandes y las capas cerradas asociadas proporcionan estabilidad excepcional. En el núcleo superpesado, la densidad de los niveles de energía de una simple partícula es bastante grande, así que pequeños cambios de energía, tales como las regiones de la mejorada y estabilizada capa en la superpesada región cercana a N=184, generalmente se espera que sean bastante amplios; esto es, la noción de números mágicos y las brechas de energía asociadas con ellos se volverán fluidas.

Figura 6.-Controbución al enlace nuclear debido a los efectos de la capa (En MeV) para núcleos de la región del estaño (Arriba) y elementos superpesados (Abajo) calculados en la teoría funcional de densidad nuclear. Los núcleos coloreados en rojo son aquellos cuyos enlaces son mejorados por los efectos cuánticos. El núcleo que se predice es estable hasta el decaimiento beta está marcado con puntos. Crédito.- M. Bender, W. Nazarewicz, y P.G. Reinhard
Figura 6.-Controbución al enlace nuclear debido a los efectos de la capa (En MeV) para núcleos de la región del estaño (Arriba) y elementos superpesados (Abajo) calculados en la teoría funcional de densidad nuclear. Los núcleos coloreados en rojo son aquellos cuyos enlaces son mejorados por los efectos cuánticos. El núcleo que se predice es estable hasta el decaimiento beta está marcado con puntos. Crédito.- M. Bender, W. Nazarewicz, y P.G. Reinhard

Otros estudios de capas en los núcleos han sido iniciados en el Jefferson Lab y KEK en Japón, de hipernúcleos, es decir, núcleos que contienen al menos un hiperón, un extraño baryon, además de los núcleos. Agregando un hiperón, los físicos nucleares pueden explorar las regiones interiores de los núcleos que son imposibles de estudiar con protones y neutrones, los cuales deben obedecer las restricciones del Principio de Pauli. El trabajo experimental va mano a mano con los cálculos teóricos avanzados de las interacciones hiperón-núcleo e hiperón-hiperón, con el objetivo definitivo de tener un entendimiento completo de todas las interacciones baryon-baryon.

Esta entrada participa en el XXXIII Carnaval de la Física que se aloja en esta ocasión en el blog “El Mundo de las Ideas” (http://icaraideas.blogspot.com.es/ de Araceli Giménez y en la XVII Edición del Carnaval de la Química el cual se hospeda en esta ocasión en el blog “Un geólogo en apuros” (http://www.ungeologoenapuros.es/) de Nahum Chazarra.

Referencias

Se publicarán al concluir la parte 4.

get cialis online

]]> http://laenciclopediagalactica.info/2012/07/16/revisando-los-paradigmas-de-la-estructura-nuclear-1-de-4/feed/ 3 656 Introducción a los Viajes en el Tiempo http://laenciclopediagalactica.info/2012/03/24/introduccion-a-los-viajes-en-el-tiempo/ http://laenciclopediagalactica.info/2012/03/24/introduccion-a-los-viajes-en-el-tiempo/#comments Sat, 24 Mar 2012 16:49:04 +0000 http://laenciclopediagalactica.info/?p=599

Como humanos, siempre hemos ‘sentido el llamado’ por los tiempos y lugares lejanos. Desde que nos dimos cuenta acerca de qué eran las estrellas, nos hemos preguntado si seremos capaces de viajar hacia ellas. Tales pensamientos han proporcionado un campo fértil por años a los escritores de ciencia ficción buscando argumentos interesantes. Pero las vastas distancias que separan a los objetos astronómicos forzaron a los autores a inventar varios dispositivos imaginarios que les pudieran permitir a sus personajes viajar a velocidades superiores a las de la luz (La velocidad de la luz en el espacio vacío, generalmente denotada como c por los físicos, es de casi 300000 km/s). Para darnos una idea de cuan enormes son las distancias entre las estrellas, comencemos con unos cuantos datos. La estrella más cercana, Proxima Centauri (En el sistema estelar Alpha Centauri) esta a aproximadamente 4 años-luz de distancia. Un año-luz es la distancia que recorre la luz en un año (9,460728 × 1012 Km aproximadamente), por lo tanto, esta estrella esta a 3,7842912 × 1013 Km, luego entonces, a un haz de luz o un mensaje de radio viajando a c les tomaría alrededor de 4 años el llegar allí.

En una escala mayor, la longitud de nuestra Vía Láctea es de aproximadamente 100000 años luz. La galaxia más cercana, Andrómeda, está a casi 2 millones de años-luz. Con la tecnología actual, tomaría varias decenas de miles de años enviar una sonda, viajando a una velocidad mucho menor que la de c para llegar a la estrella más cercana. No es de sorprender entonces que los escritores de ciencia ficción hayan imaginado algún tipo de ‘atajo’ entre las estrellas que involucre el viajar más rápido que la luz. De otra manera es muy difícil de ver como es que se tienen las diferentes ‘federaciones’ o ‘Imperios galácticos’ tan prominentes en la ciencia ficción. Sin los ‘atajos’, el Universo es un gran lugar.

¿Y qué podemos decir acerca del tiempo, la característica más misteriosa del Universo? ¿Por qué el pasado es tan diferente al futuro? ¿Por qué podemos recordar el pasado y no el futuro? ¿Es posible que el pasado y el futuro sean ‘lugares’ que podamos visitar tal como otras regiones en el espacio? De ser así ¿Cómo podemos hacerlo?

La idea de viajar a velocidades superiores a las de la luz ha existido desde hace mucho tiempo en la imaginación popular. Lo que quizá no es tan conocido es que existen algunos físicos que estudian estos conceptos de manera muy formal no solo como un “Podría ser posible algún día” sino como un “¿Qué podemos aprender de estos estudios acerca de la física básica?”.

La ciencia ficción de la televisión y las películas, por ejemplo, como Star Trek, contienen muchos ejemplos ficticios de viajes a velocidades superiores a las de la luz. El Capitán Kirk o Picard le dan una orden al timonel del Enterprise más o menos así: “Vámonos, a Warp 2”. Nunca mencionan exactamente que es lo que significa, pero claramente entendemos que se refiere a viajar a una velocidad superior a la de la luz. Algunos fans especulan que se refiere a una velocidad 22c, esto es, cuatro veces la velocidad de la luz. Se suponen que alcanzan esta velocidad haciendo uso del “Warp Drive” del Enterprise. Este término nunca se explicó y luce como un buen ejemplo del “Tecnoparloteo” usualmente necesario en una pieza de ciencia ficción para que suene ‘científico’. Pero por casualidad (O buena idea) el “Warp Drive” puede ser la descripción adecuada de un mecanismo concebible para viajar a una velocidad superior a la de la luz (Creo que sería un buen tema para otra entrada, lo dejaré en el tintero).

Por analogía con el término “Supersónico” para la velocidad que supera a la del sonido en el aire, la velocidad que supera a la de la luz es referida comúnmente por los físicos como “Velocidad superlumínica”. Sin embargo, un viaje superlumínico incluye una violación a las leyes conocidas de la física, de hecho a la Teoría Especial de la Relatividad de Einstein. Esta teoría se fundamenta en la existencia de una ‘barrera de luz’. La terminología tiene la intención de ser reminiscente de la barrera del sonido encontrada por vehículos aéreos cuando sus velocidades alcanzan la del sonido y algunos, en ocasiones, pensar que debe prevenir el vuelo supersónico. Pero mientras que se logró superar la barrera del sonido sin violar ninguna ley física, la relatividad especial da a entender que, un ‘warp drive’ está absolutamente prohibido, sin importar cuan poderosos lleguen a ser los motores del futuro.

Los viajes en el tiempo abundan en la ciencia ficción. Por ejemplo, los personajes en una historia pueden encontrar por sí mismos la manera de regresar a su periodo de tiempo original y estar involucrados con la NASA en un lanzamiento espacial, quizás después de pasar a través de un “Portal del tiempo”. Con frecuencia en la ciencia ficción, el que suceda el viaje en el tiempo hacia el pasado no tiene nada que ver con la existencia de un ‘warp drive’, tal como lo necesitan las naves espaciales, los fenómenos del viaje superlumínico y el viaje por el tiempo lucen bastante lejanos o ajenos. De hecho, podemos ver que hay una conexión directa entre ambos.

Los escritores de ciencia ficción frecuentemente proporcionan respuestas imaginativas a cuestiones que inician con la palabra “¿Qué?” (¿Qué desarrollos tecnológicos habrá en el futuro?), pero por lo general, no proporcionan respuestas a las cuestiones del “¿Cómo?”, intentando extender nuestro conocimiento de las leyes de la naturaleza y aplicar este conocimiento creativamente en nuevas situaciones.

El hecho es que la ciencia, a su debido tiempo, frecuentemente proporciona las respuestas a algunas tecnologías avanzadas imaginadas en la ciencia ficción, que puede ser alcanzada o que se manifieste la expectativa de que se va a producir. Pero esto no es necesariamente un axioma. Las leyes físicas frecuentemente afirman que ciertos fenómenos físicos están absolutamente prohibidos. Por ejemplo, hasta donde sabemos, no importa que ocurra, la cantidad total de energía (De todos los tipos) en el Universo no cambia. Esto es, la energía se conserva, tal como lo hemos escuchado en nuestras clases básicas de ciencia (Secundaria, Bachillerato, Universidad, etc.).

Aunque los trabajos de ciencia ficción usualmente no se basan en la pregunta “¿Cómo?”, frecuentemente le sirven a la ciencia a través de sus exploraciones del “¿Qué?”. Previendo los fenómenos concebibles fuera de nuestra experiencia cotidiana, pueden ofrecer ciertas vías de experimentación. Un escritor de ciencia ficción está en la libertad de imaginar un mundo en el cual los humanos han aprendido a ‘crear’ energía en cantidades ilimitadas por medio de algún dispositivo imaginario. Sin embargo, un físico dirá que, en concordancia con las bien establecidas leyes físicas, esto no será posible, no importa cuan inteligentes o astutos sean los futuro científicos e ingenieros. En otras palabras, en ocasiones la respuesta a la pregunta “¿Cómo es que construyeron esa cosa?” sea “Probablemente, no pudieron”. Nosotros debemos estar preparados para la posibilidad de que nos encontremos en esas situaciones.

A menos que se especifique lo contrario, el término “Viaje en el tiempo” normalmente significa viaje al pasado, el cual es el que presenta problemas más interesantes. Bueno, de aquí en adelante me referiré a un dispositivo que pueda permitir este viaje como una ‘Máquina del Tiempo’ y al proceso de desarrollar la capacidad de viajar de regreso como ‘Construyendo una máquina del tiempo’. Esto implica la posibilidad de que puedas viajar hacia el pasado y conocer una versión más joven de ti mismo. En la jerga de la física, un camino circular como este se denomina ‘curva cerrada temporal; es cerrada porque tú puedes regresar a tu punto de partida en ambos, espacio y tiempo; es temporal porque el tiempo cambia de un punto a otro a través de la curva. La declaración de que una curva cerrada temporal exista es solo una forma arbitraria de decir que tienes una máquina del tiempo.

Tal parece que el viaje al pasado luce imposible fuera del mundo de la ciencia ficción simplemente basándose en el sentido común ordinario dadas las paradojas a las cuales te puede conducir. Están tipificadas por la comúnmente llamada “Paradoja del abuelo”. De acuerdo con este escenario, donde es posible viajar al pasado, un viajero en el tiempo podría en principio, asesinar a su abuelo antes de que preñara a su abuela de su madre. En este caso, el nunca nacería, por lo que no habría hecho el viaje al pasado para asesinar a su abuelo, entrando en un ciclo sin fin. En resumen, la entrada del nieto a la máquina del tiempo, impide su entrada en la máquina. Tal situación paradójica que involucran contradicciones lógicas, son llamados “Bucles causales inconsistentes”. Las leyes de la física permiten que uno prediga que, en una situación dada, un cierto evento puede o no ocurrir. Por lo tanto, esos bucles pueden ser no permitidos.

Por algún tiempo, se creía que los warp drives y las máquinas del tiempo serían confinados al reino de la ciencia ficción dada la barrera lumínica relativista y las paradojas involucradas en el viaje en el tiempo al pasado. En las últimas décadas, la posibilidad del viaje superlumínico y el viaje al pasado se han considerado como una posibilidad real, al menos en principio, convirtiéndose en una materia de discusión seria entre los físicos. Mucho de esto es debido al artículo titulado “Wormholes, Time Machines en the Weak Energy Condition”, por tres físicos del California Institute of Technology: MS Morris, KS Thorne y U Yurtsever. Su artículo fue publicado en 1988 en el prestigioso Physical Review Letters. KS Thorne es uno de los más famosos y principales expertos en la Teoría General de la Relatividad y en la Teoría de la Gravedad de Einstein. El descubrimiento de esta última teoría siguió a la relatividad especial por casi una década. La relatividad general ofrece rendijas potenciales que podrían permitir que una civilización lo suficientemente avanzada encontrara una forma de evitar la barrera lumínica.

En cuanto en viajes hacia el futuro se refiere, es bien entendido por los físicos (Y así lo ha sido por más o menos un siglo) que no es posible. El viajar en el tiempo hacia el futuro implica un reto mayor que el paso normal del día a día. Viajar hacia el futuro es, de hecho, directamente relevante para la física observable ya que se considera que puede ocurrir con las partículas subatómicas en los aceleradores de alta energía, tales como el Fermi National Laboratory o el Large Hadron Collider (LHC), donde dichas partículas alcanzan velocidades muy cercanas a las de la luz (Enviar grandes cantidades de materia tales como personas o naves espaciales, a una distancia significativa al futuro, lo cual es posible en principio, requiere una cantidad tal de energía que la convierte en algo prohibido en la actualidad).

El descubrimiento de la Relatividad Especial es uno de los más grandes logros intelectuales en la historia de la física, y sin embargo, esta teoría solo involucra ideas simples y matemáticas no más avanzadas que el álgebra del bachillerato. Otra vez, sin embargo, otra vez, para entender que está pasando debes estirar tu pensamiento más allá de lo que observas en la vida diaria. La relatividad especial describe el comportamiento de objetos cuando sus velocidades se acercan a la velocidad de la luz. Como podemos observar, la relatividad especial no deja lugar a dudas sobre que el viaje al futuro es posible. Una de las predicciones más llamativas de la relatividad especial es que un reloj parece moverse más lentamente cuando está en movimiento relativo a un observador estacionario, un efecto llamado “dilatación del tiempo”. Este se vuelve significativo cuando la velocidad del reloj se acerca a c. La dilatación del tiempo esta estrechamente relacionada con la conocida “paradoja de los gemelos”. Es esencialmente el mismo fenómeno responsable del ‘viaje en el tiempo hacia el futuro’ que parece ocurrir para las partículas elementales en el Fermilab y el LHC.

A primera vista, el viaje a una velocidad superior a la de la luz podría verse como una extensión natural de un viaje ordinario a velocidad sub-luz, solo requiriendo el desarrollo de motores más poderosos, simple ¿No?. El viaje espacial en las historias de ciencia ficción de las décadas de 1930 y 1940, no involucraban violaciones de las leyes fundamentales de la física. La especulación de la ciencia ficción comenzó a realizarse en la práctica cerca de un cuarto de siglo después, cuando Neil Armstrong realizó su famoso “pequeño paso” en la superficie lunar. Sin embargo, los viajes superlumínicos involucran una violación de las leyes físicas conocidas, en este caso, la teoría general de la relatividad, con su barrera lumínica.

En ausencia de una máquina del tiempo, las observaciones diarias nos dicen que las leyes de la física son tales que los efectos siempre siguen causas en el tiempo. En consecuencia, el efecto no puede regresarse y prevenir la causa, y no pueden ocurrir bucles causales. Esto no sería cierto si existiese una máquina del tiempo, dado que un viajero en el tiempo puede observar el efecto y entonces viajar para bloquear la causa. Por lo tanto, podría parecer que la existencia de máquinas del tiempo (Esto es, para viajar al pasado) está prohibida, solo por sentido común. Por otra parte, vemos que en la relatividad especial, el viaje en el tiempo al pasado está estrechamente conectado al viaje superlumínico, así que las mismas objeciones de ‘sentido común’ se presenten para la posible construcción de un warp drive, además del ya citado problema de la barrera lumínica.

La teoría de la gravedad de Einstein, introduce un nuevo ingrediente a la mezcla. Combina espacio y tiempo en una estructura común denominada “Espacio-Tiempo”. El espacio y el tiempo pueden ser dinámicos (El espacio-tiempo tiene una estructura que se puede curvar y deformar). Einsten demostró que la deformación de la geometría del espacio y el tiempo es debida a la materia y la energía es responsable de lo que nosotros percibimos como gravedad. Una consecuencia de esto podrían ser los agujeros negros, los cuales se cree son el destino final de las estrellas más masivas. Cuando una de estas estrellas ‘muere’, implosiona en sí misma hasta un punto donde la luz emitida por la estrella es atraída de regreso, convirtiendo al objeto ‘invisible’.

Agujero de Gusano

Como podemos ver, las leyes de la relatividad general al menos sugieren que es posible curvar o deformar el espacio de manera tal, que podamos crear un atajo a través del espacio, y quizás, del tiempo, lo cual es conocido por los físicos relativistas como “agujeros de gusano (Wormholes)”. Los agujeros negros son uno de las referencias más comunes en las historias de ciencia ficción (Por ejemplo, Star Trek Deep Space Nine, Farscape, Stargate SG1, Sliders y un largo etcétera). Varios años antes del artículo de Morris, Thorne y Yurtsever, la posibilidad de una construcción real de un warp drive fue presentada en 1994 por Miguel Alcubierre (Ciudad de México, 1964), en ese entonces, en la University of Cardiff, Escocia, el cual fue publicado en Classical and Quantum Gravity. Haciendo uso de la relatividad general, Alcubierre expuso una manera en la cual el espacio-tiempo vacío podría curvarse o deformarse, similar a contener una burbuja en una alta velocidad arbitraria, visto desde la parte externa de la burbuja. Si podemos encontrar una forma de encerrar una nave espacial en esta burbuja, se podría mover a velocidad superlumínica, por ejemplo, vista desde un planeta exterior a la burbuja, así, alcanzaría una comprensión actual de un warp drive. Otro tipo de warp drive fue sugerido por Serguei Krasnikov en el Central Astronomical Observatory en St. Petesburg, Rusia, en 1997. Este “Tubo Krasnikov” es efectivamente un tubo de espacio-tiempo distorsionado que conecta a la Tierra con, digamos, una estrella distante.

Stephen Hawking en una escena de Star Trek con personajes del pasado y el futuro (Albert Einstein, Data e Isaac Newton)

¿Qué sabemos acerca de la posibilidad de crear un agujero de gusano o una burbuja como la ya mencionada? Veamos, aunque no sin esperanza, los prospectos no lucen prometedores. Una desventaja que todos comparten es que se requiere una forma inusual de materia y energía denominada “Materia Exótica” o “Energía Negativa” (Desde la famosa relación entre masa y energía de Einstein E=mc2, normalmente se utilizan los términos “masa” y “energía” intercambiablemente). Un teorema de Stephen Hawking muestra que (Expresándolo libremente), si quieres construir una máquina del tiempo en una región finita del tiempo y el espacio, se requiere la presencia de una materia exótica. Como resultado, las leyes físicas de hecho permiten la existencia de la materia exótica o la energía negativa. Sin embargo, esas mismas leyes también parecen establecer severas restricciones sobre que puedes hacer con eso.

Uno podría pensar que las paradojas potenciales, tales como la del abuelo, hacen que carezca de sentido siquiera considerar la posibilidad de viajar hacia el pasado. Sin embargo, hay dos enfoques generales que podrían permitir que las leyes de la física se mantengan consistentes aún si el viaje en el tiempo fuera posible. La primera posibilidad es que las leyes de la física permitan que independientemente de la manera en que quieras eliminar a tu abuelo, algo pasará para evitarlo, por ejemplo, te resbalaras en una cáscara de plátano. Esta teoría es consistente, sin embargo, poco atractiva, dado que es difícil de entender como las leyes de la física podrían realizar los arreglos para asegurar la presencia de dicha cáscara. El otro enfoque hace uso de la idea de mundos paralelos. De acuerdo a esta idea, hay al menos dos mundos diferentes, uno en el que naciste e ingresaste a la máquina del tiempo y en el otro saliste de la máquina del tiempo y asesinaste a tu abuelo. No hay contradicción lógica en el hecho de que tú, de manera simultánea mataste y no mataste a tu abuelo, dado que estos eventos sucedieron en diferentes mundos. Sorprendentemente aquí hay una idea respetable en física denominada la “Interpretación de los muchos mundos de la mecánica cuántica”, presentada por primera vez en Reviews of Modern Physics en 1957 por Hugh Everett, de acuerdo a ello, no solo hay dos mundos paralelos, sino una infinidad de Tierras (Saludos a Compuerta 12), multiplicándose continuamente.

En un artículo publicado en 1991 en Physical Review, David Deutsch, de la Oxford University apunto que si la interpretación de muchos mundos es correcta, es posible que un asesino potencial viaje al pasado, podría descubrir que arribó a un ‘mundo diferente’ y que no hay tal paradoja que lo lleve a cometer el atroz crimen. Si esta interpretación es correcta, podría de hecho, eliminarse la paradoja problema.

Otro conjunto de situaciones en los cuales el viaje al pasado puede ocurrir involucra la presencia de uno de los varios tipos de sistemas cilíndricos de tipo cadena e infinitamente largos. En cada uno de estos casos es posible, corriendo en la dirección adecuada alrededor de un camino circular acercarse al objeto en cuestión, para regresar a tu punto de partida en el espacio antes de que tú lo dejaras. Un modelo de este tipo de cilindro rotatorio fue realizado por el profesor Ronald Mallet de la University of Connecticut, este modelo ha recibido una atención considerable en varios lugares, incluyendo libros de física y en el libro Time Traveler (2006), escrito por el propio Mallet. El profesor sugiere que un cilindro de luz laser transportado quizás por una configuración helicoidal de tuberías de luz podría utilizarse como la base para una máquina del tiempo. Dos artículos publicados por Ken Olum de Tufts University, muestran que el modelo de Mallet tiene serios defectos.

Finalmente, ¿Qué tan confiables son nuestras conclusiones dado el conocimiento actual? ¿Cómo podemos predecir que tecnología habrá en el siglo XXIII basándonos en las leyes físicas conocidas del siglo XXI? ¿Podrán las teorías futuras revertir estas ideas como ha sucedido con frecuencia en la historia de la ciencia? Los invito a tratar de contestar estas tres preguntas. Larga vida y prosperidad.

Referencias

Relative State Formulation of Quantum Theory – Hugh Everett.

Wormholes, Time Machines, and the Weak Energy Condition – Morris, Thorne & Yurtsever

Quantum mechanics near closed timelike lines – David Deutsch

Cosmic Strings and Chronology Protection – James D.E. Grant

Hawking’s chronology protection conjecture – Matt Visser

The warp drive:  hyper-fast travel within general relativity – Miguel Alcubierre

Hyperfast Interstellar Travel in General Relativity – Krasnikov

Can a circulating light beam produce a time machine? – Olum & Everett

Chronology Protection in String Theory – Joao˜ Penedone

The Origin of the Everettian Heresy – Osnaghi et al.

Closed Timelike Curves in Asymetrically Warped Brane Universes – Päs et al.

How to build a Time Machine – Stephen Hawking

Warp Drive Basic Science Written for “Aficionados”. Chapter 1 – Miguel Alcubierre

Causality-Violating Higgs Singlets at the LHC – Ho & Weiler

Time Traveler: The Memoir of Ronald L. Mallett – Website

cheap Innopran Xl

]]>
http://laenciclopediagalactica.info/2012/03/24/introduccion-a-los-viajes-en-el-tiempo/feed/ 1 599
¿Qué Propiedades de las Partículas Revelan la Naturaleza y Origen de la Materia y las Propiedades del Espacio y el Tiempo? Parte 2 de 2 http://laenciclopediagalactica.info/2012/03/09/prop-particulas-revelan-la-naturaleza-y-origen-de-la-materia-y-las-propiedades-del-espacio-y-el-tiempo-parte-2-de-2/ http://laenciclopediagalactica.info/2012/03/09/prop-particulas-revelan-la-naturaleza-y-origen-de-la-materia-y-las-propiedades-del-espacio-y-el-tiempo-parte-2-de-2/#comments Fri, 09 Mar 2012 17:17:54 +0000 http://laenciclopediagalactica.info/?p=569

En la década de 1950, se construyeron aceleradores de partículas con la energía suficiente para crear partículas de segunda generación para estudiar el comportamiento de las mismas en experimentos controlados. En 1962, usando haces de neutrinos de alta energía creados por los aceleradores fue descubierto el neutrino de segunda generación; un experimento en el Brookhaven National Laboratory demostró que los neutrinos creados junto con muones en el decaimiento de los mesones son distintos de los neutrinos de primera generación creados en el decaimiento de átomos radioactivos. El descubrimiento de la segunda generación se completó cuando se encontró evidencia para el charm quark en los aceleradores de partículas, comenzando con el descubrimiento de la partícula J/Ψ (La cual consiste de un charm quark y un anticharm quark) en noviembre de 1974 en SLAC y Brookhaven.

Los descubrimientos experimentales de tercera generación inician cuando el leptón tau es descubierto en 1975 en SLAC, y después el bottom quark en 1977 en el Fermilab y en Cornell. Una vez que se observaron el leptón tau y el bottom quark, comenzó la búsqueda por el top quark de tercera generación. Pero ¿Cuál sería su peso? Todo lo que se sabía era que el top quark debería ser más pesado que el bottom quark o que podría encontrarse en los niveles de energía ya explorados. El bottom quark pesa cerca de los 5GeV o cerca de cinco veces la masa del protón (El cual contiene tres de los quarks más ligeros).

A principios de la década de 1990, los experimentos proporcionaron un estimado indirecto de la masa del top quark. Aún si una partícula no es producida en la reacción, esta puede influenciarla a través de los efectos cuánticos. De acuerdo a la mecánica cuántica, las partículas y sus antipartículas pueden entrar y salir de la existencia en un parpadeo, de este modo se producen pequeños pero medibles efectos en las interacciones de las partículas. En esa época, la información de las propiedades de los bosones Z era lo suficientemente precisa para ser sensible a los efectos cuánticos debidos a los top quarks. Esto llevó a estimar que la masa del top quark era de 150 a 200 GeV. Para una masa fuera de este rango, las medidas podrían no encajar con las predicciones del Modelo Estándar.

Este rango de masa apenas estaba en el alcance del Tevatron y en 1995, el top quark fue descubierto en el Fermilab, con una medición de 174 GeV. El descubrimiento inicial se basó en solo unas cuantas docenas de eventos, en los cuales un top quark y un antiquark se produjeron y decayeron en otras partículas, incluyendo bottom quarks y leptones, en un patrón característico y esperado.

El completar la tercera generación requiere la confirmación de que ésta tiene su propio tipo de neutrino. Así, el neutrino producido en asociación con una partícula tau deberá hacer solo partículas tau cuando interaccione con partículas W. Esta confirmación se obtuvo en el Fermilab en el 2000. Con la observación del neutrino Tau, tres de las cuatro partículas de la tercera generación del Modelo Estándar han sido descubiertas en el Fermilab,

Observar los efectos de los neutrinos es difícil, pero un reto aún mayor para los físicos de partículas ha sido la detección y medición de las masas de los neutrinos. Esas masas aún no han sido determinadas con precisión, y aún son candidatas a ser pistas importantes acerca de la unificación de partículas. Hay varios enfoques para detectar las masas de los neutrinos, las más sensibles, de las cuales dependen múltiples tipos de neutrinos. Si los neutrinos tienen masa, entrará en juego un efecto de mecánica cuántica conocido como “neutrino oscillations”. Como un neutrino de un tipo viaja a través del espacio, este puede convertirse espontáneamente en otro tipo de neutrino. Por ejemplo, un neutrino muon puede convertirse espontáneamente en un neutrino tau o en un neutrino electrón. Después, puede revertirse a neutrino muon y esto es por la oscilación de los neutrinos. La probabilidad de la oscilación depende de las diferencias en las masas entre los neutrinos, y se necesitan grandes distancias para que esos cambios ocurran con una alta probabilidad.

Los neutrinos creados por el sol recorren 150 millones de kilómetros antes de llegar a la Tierra, lo cual les hace candidatos probables a someterse a oscilaciones. Comenzando con las primeras mediciones realizadas hace 40-50 años en Homestake Gold Mine en South Dakota, cada medición del número de neutrinos electrones procedentes del sol que alcanzaron la Tierra entregó un pequeño resultado inesperado. Las observaciones subsecuentes, de laboratorios en Japón y Canadá, encontraron anomalías similares en las propiedades de los neutrinos creados en la atmósfera de la Tierra por los rayos cósmicos, los formados por reactores nucleares, y los producidos en los aceleradores. Todas esas observaciones se interpretan en la actualidad en términos de masas y oscilaciones de neutrinos.

Cuando emergió la segunda generación emergió (Con el descubrimiento del muon en los rayos cósmicos), cayó del cielo sorprendiendo a todos. En contraste, la existencia de una tercera generación se sugirió por adelantado como una posible explicación a la denominada Violación CP.

Una de las predicciones sorprendentes de combinar mecánica cuántica con la relatividad especial es la existencia de la antimateria. La antimateria se descubrió en los rayos cósmicos como antielectrones (Positrones). El antiprotón fue el primero creado de forma artificial en uno de los primeros aceleradores de alta energía, el Lawrence Berkeley National Laboratory Bevatron. Para cada tipo de partícula, existe su correspondiente antipartícula con la misma masa y spin pero carga eléctrica opuesta. Cuando la partícula y la antipartícula coinciden, se pueden aniquilar y generar radiación. Las leyes de la física para la materia y la antimateria son similares, pero en el universo hay mucha materia y muy poca antimateria. La razón de esto aún es un misterio.

En 1964 se descubrió en Brookhaven que la materia y la antimateria se comportan ligeramente diferente. En ese experimento, los científicos prepararon un haz de partículas kaon de tal forma que una mitad fuera materia y la otra antimateria. Con un estudio meticuloso de las partículas, observaron que las partículas de materia se comportaban diferente que las de antimateria. Este descubrimiento fue una gran sorpresa, no solo porque violaba la supuesta equivalencia entre materia y antimateria sino porque esto sugirió una conexión entre la microfísica de partículas elementales y la cuestión macrofísica de la cantidad de antimateria en el universo. Esta pequeña pero fundamental asimetría en las leyes físicas entre materia y antimateria es la ya mencionada violación CP (Charge Parity – Paridad de cargas). Desde entonces, se han desarrollado diferentes experimentos en el Fermilab, y en 1999, el estudio del sistema kaon promovió y confirmó la presencia de la violación CP no solo en el comportamiento de los kaons sino en su decaimiento.

El universo primigenio se llenó con materia y antimateria, y la física moderna y la teoría cosmológica sugieren que ambas estaban igualmente representadas. Conforme el universo se fue enfriando, la materia y la antimateria se iban aniquilando una a la otra. Si las leyes de la naturaleza habían tenido una perfecta simetría entre la materia y la antimateria, el universo frío mantendría cantidades iguales de materia y antimateria, con lo cual habrían sido capaces de aniquilarse por completo, convirtiéndose en fotones. Para ese momento, las temperaturas “ordinarias” que se alcanzaron (En este contexto, un millón de grados Celsius puede considerarse suficientemente frío), habría hecho que la materia y antimateria desaparecieran, dejando solo fotones y materia oscura. Esto habría resultado en un universo demasiado aburrido.

En lugar de eso, el universo primigenio al parecer produjo un excedente de materia (comparado contra la antimateria). Así, después de que la antimateria se aniquilo con la cantidad necesaria de materia, quedó como remanente el excedente. El universo actual contiene más de un billón de fotones por cada protón, neutrón y electrón. En el universo completo, sin embargo, la materia que quedó es solo una traza o rastro, pero está condensado en regiones densas para formar galaxias, estrellas, planetas y otros cuerpos celestes.

En el Modelo Estándar, la violación CP no puede ocurrir en un mundo de dos generaciones, requiere una tercera generación. Con la tercera generación incluida, el Modelo Estándar lleva a una teoría elegante de violación CP. Para evaluar su efectividad se requieren experimentos con partículas de tercera generación, dado que los efectos de las violaciones CP son demasiado minúsculos para las dos primeras generaciones.

Esta entrada participa en la XXIX Edición del Carnaval de Física, alojado este mes en Zurditorium.

Referencias

Strange Particles – CA Randall

P615: Nuclear and Particle Physics – Niels Walet

CP Violation – I.I. Bigi & A. I. Sanda

The Standard Model: A Primer – C. P. Burgess and Guy D. Moor

Dynamics of the Standard Model – Donoghue

Elementary Particles and their interactions – Kim-Yem

Massive Neutrinos in Physics and Astrophysics – Mohapatra

Particle Physics beyond the Standard Model – D. Kasakov, S. Lavignac, J. Dalibard

The Quark-Gluon Plasma – Helmut Satz

]]>
http://laenciclopediagalactica.info/2012/03/09/prop-particulas-revelan-la-naturaleza-y-origen-de-la-materia-y-las-propiedades-del-espacio-y-el-tiempo-parte-2-de-2/feed/ 3 569
¿Qué Propiedades de las Partículas Revelan la Naturaleza y Origen de la Materia y las Propiedades del Espacio y el Tiempo? Parte 1 de 2 http://laenciclopediagalactica.info/2012/02/18/que-propiedades-de-las-particulas-revelan-la-naturaleza-y-origen-de-la-materia-y-las-propiedades-del-espacio-y-el-tiempo-parte-1-de-2/ http://laenciclopediagalactica.info/2012/02/18/que-propiedades-de-las-particulas-revelan-la-naturaleza-y-origen-de-la-materia-y-las-propiedades-del-espacio-y-el-tiempo-parte-1-de-2/#respond Sat, 18 Feb 2012 15:07:33 +0000 http://laenciclopediagalactica.info/?p=551

El pensamiento de que la física de partículas se enfoca en las partículas fundamentales del universo, involucra más allá que solo desarrollar una taxonomía de fenómenos ‘esotéricos’ estudiados en aceleradores de laboratorio. La búsqueda fundamental de la física de partículas ha sido entendida en cómo las propiedades de las partículas y sus interacciones han influenciado (Y viceversa, han sido influenciadas por) la evolución del cosmos. 

A principios del siglo veinte, el electrón, el cual se acababa de descubrir, era la única partícula conocida de las que hoy consideramos como elementales. Pero los fenómenos descubiertos de la radioactividad atómica les otorgo el primer acceso a los físicos a ese tipo de partículas que, con los estándares actuales, se consideran de alta energía (La energía de una partícula emitida por un átomo radioactivo es casi un millón de veces más grande que la de un electrón que viene de una batería, y es millones de veces más pequeña que la energía más alta alcanzad en los modernos aceleradores de partículas). Con haces de partículas de fuentes radioactivas naturales, los físicos lograron hacer una gran cantidad de descubrimientos. El núcleo atómico, el protón y el neutrón, fueron descubiertos de esta manera, y la existencia del neutrino fue inferida de los estudios de la radioactividad atómica.

En 1912, se descubrió una nueva fuente de partículas de origen natural: La Tierra es bombardeada constantemente con rayos cósmicos del espacio. Además de otorgarle a los físicos una nueva y fascinante ventana con la cual explorar el Universo, los rayos cósmicos hicieron posibles descubrimientos fundamentales acerca de la naturaleza, principalmente debido a que los rayos cósmicos tienen energías más altas que las partículas emitidas por los átomos radioactivos. La primera partícula de antimateria, el positrón (El cual es la antipartícula del electrón) fue descubierta en los rayos cósmicos en 1932. Otras partículas importantes, incluyendo el muón, el pión y las primeras partículas extrañas, fueron descubiertos en los rayos cósmicos en las décadas de 1940 y 1950.

Para entonces fue claro que muchas sorpresas acechaban en el mundo subatómico. A principios de la década de 1950, los aceleradores de partículas hicieron posible alcanzar la combinación de alta energía y precisión, la cual no puede ser alcanzada con las fuentes naturales de partículas. Los primeros resultados trajeron caos en esa década y en la posterior, dado que los aceleradores descubrieron cientos de nuevos tipos de partículas que experimentaron la fuerza nuclear fuerte que mantiene unido el núcleo atómico. Todas esas partículas son ‘parientes’ de los protones y neutrones, los cuales constituyen el núcleo atómico.

El Modelo Estándar, que emergió a principios de la década de 1970, trajo algo de orden a ese caos. De acuerdo al Modelo Estándar, las múltiples partículas surgen combinando en diferentes formas un número pequeño de entidades fundamentales llamadas quarks. La fuerza nuclear fuerte la cual es mediada por partículas conocidas como gluones, se une a los quarks para formar los protones, neutrones y otras partículas interactuando fuertemente. En el interior del núcleo atómico, la fuerza nuclear fuerte surge como consecuencia de los quarks y los gluones en la interacción de un protón o neutrón interactuando entre ellos. La existencia de los quarks fue confirmada en los experimentos de dispersión de electrones en el Stanford Linear Accelerator Center (SLAC) y en los experimentos de dispersión de neutrones en el CERN, a principios de la década de 1970. La partícula gluón que se une a los quarks fue descubierta en el Deutsches Elektronen-Synchrotron Laboratory (DESY) en Alemania, en 1979.

La reinterpretación de las múltiples partículas producidas en los aceleradores en términos de quarks y gluones nos da una explicación simple de cómo trabaja la naturaleza. También nos proporciona un nuevo enfoque para pensar acerca de la unificación de las fuerzas de la naturaleza. Los quarks obedecen de forma similar a las ecuaciones que obedecen los electrones, y los gluones obedecen de forma similar a las ecuaciones que obedecen los fotones o las ondas luminosas. La analogía fue mejorada cuando el CERN descubrió en 1983 las partículas W y Z, las cuales son responsables de la fuerza nuclear débil y obedecen a la misma tipo de ecuaciones que los gluones o fotones. En el DESY en la década de 1990, se midieron las propiedades de la fuerza nuclear fuerte y los números y distribución de energía de los quarks y gluones en protones de alta velocidad; estos resultados han sido importantes aportaciones a las expectativas de los físicos del LHC. Una vez más, nuevos descubrimientos en altas energías mostraron que en un nivel fundamental, las diferentes fuerzas son muy similares, dando a los físicos, nuevas bases para unificar las leyes de la naturaleza.

El Modelo Estándar además reduce la complejidad observada de partículas organizando quarks y leptones (De los cuales, el más familiar es el electrón) en tres “generaciones”. La primera generación contiene las partículas que constituyen los átomos ordinarios (Los quarks y los electrones, junto con una entidad más elusiva llamada neutrino). Los neutrinos son creados en el decaimiento radioactivo de ciertos tipos de núcleos. Los neutrinos interactúan muy débilmente con la materia, tanto que cuando se realizó la hipótesis de su existencia en la década de 1930, los físicos pensaron que serían indetectables. La invención de los reactores nucleares cambió la situación dado que volvieron disponibles fuentes intensas de electrones antineutrinos, llevando a la detección del neutrino en 1955.

Una generación de partículas sería suficiente para la creación de materia ordinaria. Extrañamente, la naturaleza se repite a sí misma con dos generaciones más de partículas. Estar partículas adicionales, las cuales son de corto periodo de vida, son usualmente producidas en colisiones de alta energía y detectadas por su decaimiento remanente. Mientras que están sujetas precisamente a las mismas fuerzas que la primera generación de partículas, estás decaen tan rápido que se hacen difíciles de estudiar. Pero en el Universo primitivo, parece que fueron tan importantes como las partículas de primera generación. Los físicos aún no entienden porque existe la generación de partículas, y mucho menos él porque hay tres de ellas, o bueno, eso es lo que se cree hasta el momento.

La mejor indicación de que son tres viene de los estudios de la partícula Z, la cual transporta la fuerza nuclear débil. Todos los tipos de neutrinos pueden producirse cuando la partícula Z decae, siempre que sean menos masivos que la mitad de Z. La pauta de la producción de Z y el decaimiento muestra que solo decae en tres tipos de neutrinos, y un cuarto tipo de neutrino podría existir solo si la partícula fuera muy pesada. La cantidad de helio producido en el Universo primitivo es también sensible al número de tipos de neutrinos, y las mediciones de esta abundancia son consistentes con la existencia de solo tres tipos de neutrinos ligeros. Dado que todos los tipos de neutrinos conocidos son muy ligeros, esto nos dice que no hay una cuarta generación de partículas que siga la misma pauta de los tres primeros con un neutrino demasiado ligero.

La primera generación de partículas está presente alrededor de nosotros en la materia ordinaria. Pero ¿Cómo es que nos enteramos de las otras dos generaciones? El descubrimiento de la segunda generación se dio en las décadas de 1930 y 1940, cuando el muón y los mesones (los cuales consisten de un quark y un antiquark) fueron descubiertos en los rayos cósmicos. Cuando esas partículas de alta energía provenientes del espacio, impactaron en la atmósfera, las colisiones fueron lo suficientemente energéticas para producir muchos mesones conteniendo la segunda generación de quarks extraños. Los mesones decayeron, muchos de ellos debido a un proceso de interacción débil que produce un muón y un neutrino.

Esta entrada participa en la edición XXVIII del Carnaval de Física, la cual se aloja en el blog Física, Arroz y Frijoles de Natalia

Referencias

Strange Particles – CA Randall

P615: Nuclear and Particle Physics – Niels Walet

CP Violation – I.I. Bigi & A. I. Sanda

The Standard Model: A Primer – C. P. Burgess and Guy D. Moor

Dynamics of the Standard Model – Donoghue

Elementary Particles and their interactions – Kim-Yem

Massive Neutrinos in Physics and Astrophysics – Mohapatra

Particle Physics beyond the Standard Model – D. Kasakov, S. Lavignac, J. Dalibard

The Quark-Gluon Plasma – Helmut Satz

]]>
http://laenciclopediagalactica.info/2012/02/18/que-propiedades-de-las-particulas-revelan-la-naturaleza-y-origen-de-la-materia-y-las-propiedades-del-espacio-y-el-tiempo-parte-1-de-2/feed/ 0 551
Retos al Modelo Estándar http://laenciclopediagalactica.info/2012/02/03/retos-al-modelo-estandar/ http://laenciclopediagalactica.info/2012/02/03/retos-al-modelo-estandar/#respond Fri, 03 Feb 2012 19:44:37 +0000 http://laenciclopediagalactica.info/?p=539

En la Terascala, dos de las principales fuerzas de la naturaleza, la fuerza nuclear débil y la electromagnética, parecen unirse para ser una entidad individual. El cómo pasa esto exactamente, es un misterio aún. Hay una propuesta dentro de la estructura del Modelo Estándar, pero nunca ha sido evaluada y plantea cuestiones teóricas desconcertantes. El entender cómo es que estas dos fuerzas están unificadas, se cree que es una parte importante para entender la unificación general de las fuerzas de las partículas, quizá incluyendo la gravedad, de acuerdo con el sueño estético de Einstein de unificar todas las leyes de la naturaleza. (Ver El Sueño de Einstein).

El cómo es que estas dos fuerzas están unificadas es una cuestión que solo puede responderse con aceleradores. Por ejemplo, no es posible realizar estas medidas utilizando rayos cósmicos, porque la energía más alta de los rayos cósmicos es también poca y no es posible estudiarlos con la precisión suficiente.

Los científicos buscan en todas partes la explicación más simple posible al fenómeno que están estudiando y que pueda sobrevivir al escrutinio científico. En la física, el desarrollo de una estructura coherente científica única que pueda explicar la naturaleza de la materia, su masa, su evolución y las fuerzas asociadas, ha inspirado el trabajo y sueños de generaciones de físicos. Además, la unificación científica de los aparentemente diversos fenómenos frecuentemente genera grandes dividendos intelectuales, como ocurrió con la unificación de la electricidad y el magnetismo en el siglo diecinueve. El siguiente paso importante en este programa de unificación requiere la investigación directa de la Teraescala.

Los experimentos y teorías pasadas nos indican que los nuevos fenómenos esperan descubrimientos en este rango de energía. Se podría observar un mundo de nuevas partículas predichas por una hipótesis conocida como supersimetría, y esas nuevas partículas podrían proporcionar información esencial acerca de las partículas ya conocidas. Las partículas que constituyen la materia oscura responsable de la formación de las galaxias podrían aparecer en esa energía. La Teraescala podría ser la entrada a nuevas entradas del espacio, más allá de esas que experimentamos directamente pero que sin embargo, pueden tener un impacto importante en nuestro mundo. Los nuevos fenómenos que aparezcan en la Teraescala podrían incluir partículas como el boson de Higgs, el cual es responsable de la masa de las partículas conocidas. O, esos nuevos fenómenos podrían tomar una forma completamente diferente, incluyendo fenómenos que son completamente inesperados e inimaginables. Todas esas posibilidades pueden ser mejor exploradas en los aceleradores.

La exploración de la física en la Teraescala es el siguiente paso esencial para direccionar lo retos científicos en la física de partículas. La física de partículas parece estar en el borde de uno de los periodos más emocionantes de su historia.

El Modelo Estándar proporciona una excelente y cuidadosamente probada descripción del mundo subatómico a los niveles de energía que actualmente pueden ser estudiados en los laboratorios. Sin embargo, en esos niveles de energía los cuales los físicos solo pueden acceder de forma experimental, el Modelo Estándar es incompleto. Esto sugiere que los nuevos descubrimientos que se vislumbren en los años por venir, especialmente por el LHC comiencen a explorar esta región de la energía. Esto también sugiere que esos inminentes descubrimientos podrían transformar nuestro entendimiento del origen de la materia y energía, y el comportamiento de la evolución del Universo.

Las limitaciones del Modelo Estándar son evidentes, por ejemplo, cuando tratamos de contar con la Fuerza de Gravedad. El Modelo Estándar incorpora las fuerzas nucleares fuerte y débil, así como el electromagnetismo, pero, cuando los físicos intentan incluir a la gravedad como una cuarta fuerza, encuentran varias inconsistencias matemáticas. En consecuencia, dos pilares de la física del siglo veinte (La gravedad, tal como la describió Einstein en su Teoría General de la Relatividad y la mecánica cuántica) requieren nuevas estructuras teóricas que las incluyan.

Los descubrimientos astronómicos poseen otros retos al Modelo Estándar. Las observaciones astronómicas muestran que los protones, neutrones, electrones y fotones (Los cuales cuentan para todo con lo que estamos familiarizados) representan menos del 4% de la masa total de la masa y energía del Universo. Aproximadamente el 20% consiste de alguna forma de materia oscura: Partículas masivas o aglomeraciones de partículas que no brillan y no dispersan o absorben luz. Los astrónomos pueden detectar materia oscura observando cómo ésta distorsiona las imágenes de galaxias distantes, un efecto conocido como lente gravitatorio, y entonces pueden trazar un mapa de la distribución de la materia oscura a lo largo del espacio. La composición de materia oscura aún no se conoce; esta podría consistir de una nube de partículas elementales con algún orden desconocido aunque hay otras posibilidades. Sin embargo, debemos nuestra existencia a la materia oscura. Sin la atracción adicional de la materia oscura, las estrellas y las galaxias, probablemente no se hubieran formado, debido a que la expansión del Universo, habría dispersado la materia ordinaria rápidamente.

Más sorprendente es el hecho de que la mayoría de la energía del Universo actual consiste de algo totalmente distinto (Una efímera materia oscura que se repele a sí misma). Un grupo de materia ordinaria o materia oscura tiene una fuerza gravitatoria de atracción que ralentiza la expansión del Universo, pero la energía oscura ‘empuja’ para separarlo y así acelerar la expansión del cosmos. Dado que la mayoría de la energía del Universo es oscura, la expansión del Universo, se está acelerando. En consecuencia, la materia oscura interpreta un papel crucial en el pasado causando la formación de galaxias, y el de la energía oscura en la continua evolución del Universo. ¿Qué son la energía y materia oscura y como es que encajan en el entendimiento completo de la materia, energía, espacio y tiempo? Esa es una de las cuestiones científicas más irresistibles de nuestro tiempo.

El predominio de la materia sobre la antimateria en el Universo también proporciona problemas al Modelo Estándar. En 1928, la incorporación de Dirac de la Teoría de la Relatividad General de Einstein en la mecánica cuántica sugiere que, por cada tipo de partícula elemental, hay una antipartícula con la misma masa y carga contraria. Cuando una partícula y su antipartícula se reúnen, ambas se aniquilan y su masa se convierte en energía radiante. Los experimentos utilizando antimateria en laboratorios de física de alta energía muestran que las fuerzas fundamentales actúan casi igual en partículas que en antipartículas excepto por pequeñas diferencias que pueden explicarse utilizando el Modelo Estándar. Sin embargo, el Modelo Estándar no puede explicar porque el Universo consiste casi por completo de materia y casi no de antimateria. Esta asimetría es buena, dado que si tuviera cantidades similares, todo se habría aniquilado en el Universo primigenio. Sin embargo, la causa de este gran desequilibrio sigue siendo un misterio. Muchos físicos creen que fue creado por procesos físicos que ocurrieron cuando el Universo se fue enfriando después del Big Bang. Podría ser posible estudiar algunos de los mismos procesos físicos por medio de la colisión de partículas elementales en altas energías en los aceleradores.

Otra cuestión sobresaliente involucra la evolución temprana del Universo. La mayoría de los cosmólogos cree que las estructuras de gran escala del Universo fueron creadas por un ‘estallido’ que derivó en una inflación, un breve periodo de hiperacelerada expansión durante los primeros 10-30 segundos después del Big Bang, quizás asociado con interacciones que involucran energía oscura. Esta inflación podría haber suavizado rápidamente la distribución de materia y energía, excepto por excepto por ‘pequeños grumos’ que posteriormente serían las semillas para la formación de galaxias. Observaciones recientes de la radiación cósmica de fondo ha proporcionado pruebas que corroboran exquisitamente precisa esta idea de la inflación, pero permanece un componente clave perdido, la explicación sobre qué fue lo que condujo esa hiper-expansión. El Modelo Estándar no proporciona una respuesta, pero las nuevas leyes físicas descubiertas utilizando los aceleradores de alta energía de última generación podrían proporcionar pistas esenciales.

Las nuevas evidencias acerca de las propiedades de los neutrinos también plantean nuevas cuestiones. Los neutrinos son numerosos en extremo pero rara vez interactúan con los constituyentes básicos de la materia (Billones de billones de neutrinos pasan inalterados a través de nosotros cada segundo, literalmente).Una serie de experimentos ha demostrado que los neutrinos, quienes largamente se consideraron sin masa, si poseen una muy pequeña (Aproximadamente 1/200,000 de la masa del electrón, quien de hecho, tiene una masa extremadamente pequeña. Por otra parte, los neutrinos producidos en la naturaleza no están aparentemente en un estado de masa concreto. Este fenómeno, el cual podría desconcertar a un físico clásico, es un efecto típico de la mecánica cuántica. Esto tiene una consecuencia peculiar: Los neutrinos pueden cambiar espontáneamente de una forma a otra, efecto conocido como “Oscilaciones de neutrinos”. Las masas de los neutrinos no se ajustan al Modelo Estándar, así que estas nuevas observaciones han necesitado la primera mayor ampliación del Modelo Estándar en tres décadas. Exactamente que extensiones se requieren es algo que no sabremos hasta que se completen los experimentos de neutrinos actualmente en operación, así como la siguiente generación de experimentos que ahora se están planeando o iniciando.

Así, prácticamente al inicio del siglo veintiuno, los experimentos de física de partículas, observaciones astronómicas, y desarrollo teóricos tanto en la física de partículas como en la cosmología, apuntan a nuevos fenómenos que están justo en el borde de ser observados La combinación de la teoría cuántica y la relatividad general, y el entendimiento de la materia y energía oscuras, requerirán nuevas ideas y nuevos experimentos. La tecnología necesaria para conducir esos experimentos está ahora disponible. Como resultado, la física de partículas está lista en la orilla de una nueva revolución científica tan profunda como la que Einstein y otros la marcaron a principios del siglo veinte. Hay muchas posibilidades de que estos descubrimientos Teraescalares tengan un impacto igualmente importante en otros campos de la ciencia.

Antibiotics

]]>
http://laenciclopediagalactica.info/2012/02/03/retos-al-modelo-estandar/feed/ 0 539