General – La Enciclopedia Galáctica http://laenciclopediagalactica.info Por Torjo Sagua Wed, 04 Aug 2021 16:53:24 +0000 es hourly 1 https://wordpress.org/?v=6.0.2 54705453 Historia de la Gestión de Inocuidad Alimentaria http://laenciclopediagalactica.info/2021/08/04/historia-de-la-gestion-de-inocuidad-alimentaria/ http://laenciclopediagalactica.info/2021/08/04/historia-de-la-gestion-de-inocuidad-alimentaria/#respond Wed, 04 Aug 2021 16:53:24 +0000 http://laenciclopediagalactica.info/?p=2054
0saves

La inocuidad alimentaria es una parte integral de la calidad y las buenas prácticas de fabricación. Por lo tanto, este blog toma la iniciativa en la integración de procesos comerciales estrechamente relacionados, pero diferentes. El viaje es arduo. El desarrollo del personal y el trabajo en equipo son ingredientes esenciales para el éxito. Es un proceso dinámico y la mejora continua se lleva a cabo cuando los empleados se apropian del sistema.

Inocuidad alimentaria

La historia de la inocuidad de los alimentos se puede considerar en términos de tres períodos:

i. Antes de la refrigeración;
ii. Refrigeración; y
iii. Análisis de peligros y puntos críticos de control (HACCP).

Antes de la Refrigeración

Desde la Edad Media, la inocuidad alimentaria ha sido una preocupación para la humanidad y se han aplicado medidas reglamentarias para evitar la venta de alimentos en mal estado, adulterados o contaminados. Los textos religiosos e históricos proporcionan evidencia de muchas reglas y recomendaciones que se utilizan para proteger a las personas de las enfermedades transmitidas por los alimentos y la contaminación de los alimentos. Augsburgo en 1276 asignó puestos especialmente designados los lunes para vender carne que no había sido recién sacrificada. Los florentinos también prohibieron la venta de carne que había estado a la venta el día anterior. Así que podemos confirmar que desde la antigüedad se han discutido las preocupaciones de la inocuidad alimentaria y por ello se detonó la necesidad de un programa de inocuidad alimentaria.

Las leyes del antiguo Israel incluían consejos sobre alimentos nocivos y métodos de preparación e higiene de los alimentos. Según el Libro de Levítico, (Se estima alrededor del 2000 antes de nuestra Era), Moisés introdujo leyes para proteger a las personas de las enfermedades transmitidas por los alimentos que resultan en el lavado de ropa y el baño después del sacrificio de animales.

Los antiguos egipcios fueron pioneros en el desarrollo de silos, un tanque de almacenamiento diseñado para contener el grano cosechado en los campos, manteniéndolo fresco y seco durante largos períodos de meses sin cosecha. Los primeros romanos reconocieron la importancia de la frescura en las frutas y otros alimentos. Los ricos a menudo recibían alimentos frescos en sus hogares, donde sus cocineros preparaban las comidas. Los romanos también practicaban el arte de la conservación de los alimentos mediante la salazón.

Un avance importante en la conservación de alimentos se puede atribuir a Napoleón Bonaparte y Nicolas Appert a principios del siglo XIX. Napoleón ofreció una recompensa a cualquiera que pudiera desarrollar un método para evitar que la comida que necesitaban sus soldados se echara a perder cuando luchaban contra su enemigo. Appert puso la comida en frascos con tapas seguras y la hirvió hasta que pensó que estaba cocida. Fue el primer intento de «enlatar», y Appert no se dio cuenta de que cocinar mataba los gérmenes.

Los científicos del siglo XVII aislaron los gérmenes como una fuente de enfermedad, aunque no se dieron cuenta de la causa real de la enfermedad. En la década de 1860, el trabajo de Louis Pasteur sobre pasteurización y fermentación tuvo un gran impacto en el campo médico y la inocuidad alimentaria. En 1888, August Gartner aisló Bacillus enteritidis, que causaba enfermedades transmitidas por los alimentos.

Robert Malthus (1766-1834), un académico británico que fue influyente en la economía política y la demografía, desafió a los economistas mundiales a abordar la disponibilidad de alimentos en todo el mundo debido a la población mundial en constante aumento. Los avances en el progreso tecnológico en el procesamiento de alimentos han creado una mayor conciencia de los problemas asociados con la conservación y preparación de alimentos. Las organizaciones internacionales y nacionales han formulado y aplicado leyes y reglamentos para lograr la calidad y seguridad en la preparación y conservación de alimentos con el fin de proteger a los consumidores de las infecciones y la toxicidad transmitidas por los alimentos.

Refrigeración

En términos básicos, cualquier medio de mantener los alimentos fríos es la refrigeración. La aplicación de tecnología científica a la refrigeración cambió significativamente el concepto de inocuidad alimentaria. Mucho antes de la invención de los refrigeradores, la gente almacenaba sus alimentos, principalmente leche y mantequilla, en sótanos, jardineras al aire libre o incluso bajo el agua en lagos, arroyos o pozos cercanos. Pero estos métodos no evitaron el deterioro de los alimentos. Antes de 1830, los alimentos se conservaban mediante salazón, condimento, ahumado, escabechado y secado, y no había necesidad de refrigeración. Entre 1830 y la Guerra Civil estadounidense, con el desarrollo de las ciudades y la mejora de la economía, hubo una demanda por parte del consumidor de alimentos frescos, principalmente productos agrícolas.

Los primeros «refrigeradores» domésticos fueron cajas aisladas llenas de hielo y conocidas como «cajas de hielo». El «hombre de hielo» entregaba hielo a diario o una vez cada dos días para mantener la caja de hielo en funcionamiento. En 1879, siguiendo el trabajo de John Gorie, dos científicos, John Standard y Thomas Elkins, mejoraron el aparato de refrigeración y lo diseñaron para hacer circular gas comprimido y absorber calor. Los vagones de trenes de refrigeración se desarrollaron en 1860 y transportaban alimentos por los Estados Unidos de América. Sin embargo, la refrigeración tenía sus problemas. Se descubrió que los refrigerantes como el dióxido de azufre y el cloruro de metilo son tóxicos. El amoníaco, si se filtraba, causaba graves problemas de salud. Para evitar el problema, en 1928 se utilizaron refrigerantes sintéticos llamados halocarbonos o clorofluorocarbonos (CFC). Los CFC se reemplazaron por un refrigerante «seguro» llamado Freón. El frigorífico doméstico es uno de los mayores inventos. La tecnología de ingeniería lo perfeccionó y lo convirtió en lo suficientemente confiable y económico para un uso generalizado a nivel nacional. Sin duda, el refrigerador ha hecho que nuestra comida sea inocúa y agradable.

HACCP

Desde principios de la década de 1970, el concepto de HACCP ha seguido evolucionando. El sistema HACCP ha contribuido al desarrollo de un sistema de gestión de inocuidad alimentaria (SGIA) completo, eficaz y eficiente. Antes de 1970, aunque los científicos estaban al tanto de las bacterias que causan enfermedades, las enfermedades transmitidas por los alimentos seguían ocurriendo en todo el mundo.

Howard E. Bauman había trabajado en la firma estadounidense Pillsbury desde 1953 como jefe del laboratorio de investigación en la sección bacteriológica. Más tarde, ayudó a la Administración Nacional de Aeronáutica y del Espacio (NASA – National Aeronautics and Space Administration), al grupo de proyectos del Laboratorio Espacial de la Fuerza Aérea de los EE. UU (US Air Force Space Laboratory). Y a los Laboratorios Natick del Ejército de los EE. UU. Para desarrollar un sistema de inocuidad alimentaria seguro para el programa de vuelos espaciales tripulados. Inicialmente, en 1959, Pillsbury desarrolló alimentos del tamaño de un cubo para las tripulaciones de vuelo. Los ingenieros de la NASA establecieron claramente sus especificaciones:

i. Los alimentos no deben desmoronarse para evitar que las partículas floten en los paneles de instrumentos y contaminen la atmósfera y
ii. Los astronautas deben poder consumirlos sin peligro durante sus vuelos. Los esfuerzos de los tecnólogos de alimentos llevaron a la creación de una barra de alimentos comprimidos con un recubrimiento comestible que no se desmoronaba durante los vuelos.

Los primeros intentos de realizar un estudio científico de los peligros que plantean los alimentos se debieron a Paul Lachance, coordinador de alimentación y nutrición de vuelo de la NASA en el centro de naves espaciales tripuladas en Houston. Reconoció los peligros potenciales causados por contaminantes físicos, químicos y microbiológicos. Investigaciones posteriores revelaron que los ingredientes comprados por la NASA estaban contaminados con patógenos virales y bacteriológicos. En ese momento, se desconocía el análisis de peligros y Bauman identificó un programa conocido como “Modelos de falla” (Actualmente conocido como AMEF), que fue adoptado y aplicado para cada alimento. El estudio reveló los problemas potenciales durante el proceso de fabricación y los ingredientes que eran potencialmente peligrosos. Luego se compiló una lista de peligros.

Natick Laboratories estableció estándares microbiológicos para los alimentos que se consumirían durante los vuelos. Los estándares eran estrictos y especificaban que el recuento aeróbico en placa no debería exceder las 10,000 UFC por gramo. Los fabricantes tenían que cumplir con los estándares de Natick Laboratories y les exigían que realizaran pruebas microbiológicas durante las fases previas y en proceso y en los productos terminados. Se pidió a los contratistas que identificaran las áreas críticas de falla y Pillsbury comenzó a determinar los puntos críticos de control (PCC) durante la fabricación. La NASA reconoció 17 estaciones de control crítico que tenían estándares de aceptación. Era un requisito obligatorio para los contratistas mantener registros que documentaran el historial del producto, la fuente de las materias primas, si se procesaron y el lugar donde se procesaron.

Los conceptos del enfoque HACCP se presentaron por primera vez en la Conferencia Nacional sobre Producción de Alimentos (National Conference on Food Production) en abril de 1971. El objetivo de la conferencia era “desarrollar un ataque integral e integrado al problema de la contaminación microbiana de los alimentos”. Aunque Bauman animó a la industria alimentaria a adoptar el concepto de HACCP, los principios no fueron adoptados.
Sin embargo, dos incidentes graves en los Estados Unidos llevaron al movimiento de consumidores a obligar a los funcionarios de la industria y el comercio a implementar un plan integral de inocuidad alimentaria. El primer incidente ocurrió en la primavera de 1971, unos días antes de la conferencia, cuando una mujer de Connecticut detectó una partícula de vidrio en el cereal blanco cremoso de su bebé elaborado por la planta de Pillsbury, lo que las obligó a retirar el producto. Robin J. Keith, el director ejecutivo, tomó medidas inmediatas e instruyó a Bauman en Pillsbury para que desarrollara e implementara un sistema de inocuidad de productos seguro para evitar que se repita. En el verano de 1971, ocurrió un segundo incidente cuando Samuel Cochran murió de intoxicación por botulismo después de consumir sopa de papa fría. Estos incidentes arrojan dudas sobre la inocuidad alimentaria en los Estados Unidos y si la Administración de Alimentos y Medicamentos (FDA – Food and Drug Administration) podría proteger a los consumidores de la intoxicación alimentaria. Se afirmó que la FDA no tenía los recursos ni la motivación para proteger a los consumidores y carecía del apoyo del Departamento de Salud, Educación y Bienestar (Department of Health, Education, and Welfare). Sin embargo, tras el reconocimiento de los problemas de la FDA, en septiembre de 1972, se capacitó a 16 inspectores de la FDA en Pillsbury, que incluyó cursos y trabajo de campo. Luego, la FDA pudo establecer regulaciones para alimentos enlatados con baja acidez. De 1973 a 1977, la inocuidad del proceso de enlatado mejoró. En 1974, Pillsbury logró su objetivo de desarrollar e implementar un programa de inocuidad de productos alimenticios eficaz y eficiente en sus instalaciones.

El concepto empleó tres principios fundamentales, que son válidos incluso hoy:

i. Realizar un análisis de peligros;
ii. Determinar los PCC; y
iii. Establecer procedimientos de seguimiento.

Ese año se presentaron 130 retiradas del mercado relacionadas con la inocuidad alimentaria de productos alimenticios y ninguno fue de Pillsbury’s.
En la década de 1980, se produjeron varias publicaciones que promovieron el HACCP como el sistema predominante de inocuidad alimentaria:

1. En 1985, el Consejo Nacional de Investigación de la Academia Nacional de Ciencias (National Research Council of the National Academy of Sciences) publicó el conocido como “Libro Verde”, Evaluación del papel de los criterios microbiológicos para alimentos e ingredientes alimentarios (An Evaluation of the Role of Microbiological Criteria for Foods and Food Ingredients). HACCP se describió como el medio más eficaz para garantizar la inocuidad alimentaria del suministro de alimentos de los EE. UU. Y recomendó su uso en la industria de procesamiento de alimentos y las agencias gubernamentales.

2. El Comité Asesor Nacional sobre Criterios Microbiológicos para Alimentos (NACMFC – National Advisory Committee on Microbiological Criteria for Food) publicó el primer documento HACCP en 1989, que incluía los siete principios de HACCP.

3. Microorganismos en los alimentos: Aplicación del sistema de análisis de peligros y puntos críticos de control para garantizar la inocuidad y la calidad microbiológicas (Microorganisms in foods: Application of the Hazard Analysis Critical Control Point System to Ensure Microbiological Safety and Quality) fue publicado en 1989 por la Comisión Internacional de Especificaciones Microbiológicas para los Alimentos (ICMSF – International Commission on Microbiological Specifications for Foods). El libro definió la aplicación de los principios de HACCP y los conceptos de CCP1 y CCP2 a toda la cadena alimentaria, desde la granja hasta la preparación de alimentos en restaurantes y hogares, para eliminar o reducir el peligro a un nivel aceptable. Por primera vez, también se definieron los Programas de Prerrequisito (PPR).

4. Durante este período, la Comisión del Codex Alimentarius participó activamente en cuestiones de inocuidad alimentaria y publicó la primera norma HACCP en 1990, proporcionando la primera definición internacional de HACCP. En el mismo año, la NACMCF revisó su norma de orientación, codificando los cinco pasos preliminares y los siete principios de HACCP. Las normas Codex y NACMCF fueron revisadas nuevamente en 1997, armonizando la definición estadounidense de HACCP con la definición del Codex.

Los desarrollos recientes incluyen:

• El desarrollo de la Certificación de Auditor de Calidad y Inocuidad alimentaria (CFSQA – Certification of Food Safety and Quality Auditor) por parte de la Sociedad Estadounidense de Calidad (ASQ – American Society of Quality) , diseñada para garantizar que los auditores comprendan claramente los principios de las normas de Inocuidad alimentaria y HACCP.

• La Iniciativa Global de Inocuidad alimentaria (GFSI – Global Food Safety Inititive) impulsada para la mejora continua de los sistemas de gestión de la inocuidad alimentaria, con el objetivo de garantizar la confianza en la entrega de alimentos inocuos a los consumidores de todo el mundo. GFSI proporciona una plataforma para la colaboración entre algunos de los principales expertos en inocuidad alimentaria del mundo de minoristas, fabricantes y empresas de servicios de alimentos, proveedores de servicios asociados con la cadena de suministro de alimentos, organizaciones internacionales, el mundo académico y el gobierno. La iniciativa se lanzó en 2000 tras una serie de crisis de inocuidad alimentaria en las que la confianza de los consumidores estaba en su punto más bajo. Desde entonces, expertos de todo el mundo han estado colaborando en numerosos Grupos de Trabajo Técnicos para abordar los problemas actuales de inocuidad alimentaria definidos por las partes interesadas de GFSI. Las actividades clave dentro de GFSI incluyen la definición de requisitos de inocuidad alimentaria para esquemas de inocuidad alimentaria a través de un proceso de evaluación comparativa. Se cree que este proceso conduce al reconocimiento de los esquemas de inocuidad alimentaria existentes y mejora la confianza, la aceptación y la implantación de la certificación de terceros a lo largo de toda la cadena de suministro de alimentos. El enfoque actual de GFSI es ampliar los requisitos para cubrir todos los ámbitos de la cadena de suministro de alimentos global «desde la granja hasta la mesa». Otras actividades importantes actuales incluyen el desarrollo de un programa de desarrollo de capacidades para empresas pequeñas y/o menos desarrolladas para facilitar su acceso a los mercados locales y un enfoque continuo en la competencia de los auditores de inocuidad alimentaria para llevar a los expertos de la industria en colaboración con las partes interesadas clave a un consenso común sobre las habilidades, conocimiento y atributos que debe poseer un auditor competente. GFSI ha reconocido una serie de esquemas de gestión de inocuidad alimentaria que cumplen con los criterios del Documento de orientación de GFSI. GFSI revisa periódicamente el Documento de orientación de GFSI para reflejar las mejoras en las mejores prácticas. GFSI no es un esquema en sí mismo y no lleva a cabo ninguna actividad de acreditación o certificación.

• La British Standards Institution desarrolló varios estándares de inocuidad alimentaria conocidos como PAS (Publicly Available Specification – Especificación disponible públicamente), entre las cuales podemos destacar la 220 (2008 PPR para Manufactureras de Alimentos), 221 (2013 PPR para Minoristas), 222 (2011 PPR alimentos en la elaboración de piensos y productos alimenticios para animales), 223 (2011 PPR para la manufactura de materiales de empaque), 96 (2017 Guía para proteger y defender los alimentos y bebidas de los ataques deliberados) y está en proceso de elaboración el PAS 320, relacionado con la cultura de inocuidad alimentaria.

• La Organización Internacional de Normalización (ISO) desarrolló su estándar para un SGIA. La primera versión de la norma ISO 22000 se publicó en 2005 y la versión actual en el 2018, que incluye la estructura de alto nivel. ISO 22000 integra los principios del sistema de Análisis de Peligros y Puntos Críticos de Control (HACCP) y los pasos de aplicación desarrollados por la Comisión del Codex Alimentarius. Mediante requisitos auditables, combina el plan HACCP con programas de prerrequisitos. ISO publicó normas adicionales relacionadas con ISO 22000. Estas normas se conocen como la familia de normas ISO 22000. ISO 22000:2018 (Sistemas de gestión de inocuidad alimentaria – Requisitos para cualquier organización en la cadena alimentaria); ISO/TS 22002-x, familia de programas de prerrequisito (2009 Parte 1: Fabricación de alimentos; 2013 Parte 2: Catering; 2011 Parte 3: Agricultura; 2013 Parte 4: Fabricación de envases para alimentos; 2019 Parte 5: Transporte y almacenamiento; 2016 Parte 6: Producción de piensos y alimentos para animales), ISO/TS 22003:2013 (Sistemas de gestión de inocuidad alimentaria para organismos que realizan auditorías de certificación de sistemas de gestión de inocuidad alimentaria), ISO/TS 22004:2014 (Orientación sobre la aplicación de ISO 22000:2005), ISO 22005:2007 (Trazabilidad en la cadena alimentaria y de piensos – Principios generales y requisitos básicos para el diseño e implantación del sistema), ISO 22006:2009 (Sistemas de gestión de la calidad –Orientación sobre la aplicación de ISO 9001:2008 para la producción de cultivos). ISO 22000 también se utiliza como base para el Esquema de Certificación de Sistemas de Inocuidad alimentaria FSSC 22000.

• En el 2020, la Comisión del Codex Alimentarius publicó la versión más reciente del CXC 1 Principios Generales de Higiene de los Alimentos. Varios aspectos de la guía cambiaron en la actualización de 2020, desde simples cambios de estructura hasta definiciones e incluso la introducción de nuevos conceptos. Los siguientes son los que considero los cambios más importantes: i) La estructura del documento. Anteriormente, el documento contenía 10 secciones que cubrían la introducción y las buenas prácticas de higiene, mientras que el HACCP y su aplicación estaban en un anexo. La última versión tiene una estructura muy mejorada que incluye HACCP y su aplicación como parte del documento; ii) Énfasis sobre el papel del Operador de Empresas Alimentarias en el suministro de alimentos inocuos, donde se declara la responsabilidad que se asume de suministrar productos inocuos, gestionar (controlar) los peligros de manera adecuada, asegurar la competencia del personal y la construcción de una cultura de inocuidad alimentaria efectiva; iii) Las Buenas Prácticas de Higiene (BPH) se describen en las secciones de Principios Generales. Las BPH se incluyen como parte de los PPR y, por lo tanto, como base para un plan HACCP eficaz. Si bien muchas empresas que operan con programas de certificación reconocidos por GFSI estarán muy familiarizados con las actualizaciones y ya las seguirán, algunas organizaciones necesitarán hacer un trabajo adicional para cumplir con las expectativas de ciertas recomendaciones. Los Principios Generales actualizados explicaron que, en algunos casos, el análisis de peligros sugiere que la implantación efectiva de BPH por sí sola es suficiente para gestionar la inocuidad de los alimentos. Sin embargo, la suficiencia de la implantación de estas BPH se basa en el análisis de peligros o en una fuente de información confiable. Si las BPH por sí solas no son suficientes para gestionar los peligros identificados, estos deben abordarse mediante un plan HACCP. La guía explica que algunas BPH requieren mayor atención porque tienen un mayor impacto en la inocuidad alimentaria. Es evidente un énfasis claro en el manejo de alergenos. El término “alergeno” se menciona 40 veces en el documento. De hecho, la aplicación de la etiqueta correcta con la información de alergenos adecuada se da como ejemplo de un límite crítico; iv) Se destaca la importancia del compromiso de la dirección con la cultura de inocuidad alimentaria; v) Las definiciones son muy importantes porque forman el lenguaje que usaremos. Estas terminologías aclaradas nos darán la capacidad de explorar ciertos temas, de forma clara y coherente. En los nuevos principios generales hay mejoras significativas en el lenguaje utilizado y la terminología en general y particularmente en lo que respecta a las definiciones; vi) HACCP y Lineamientos para su aplicación. En la sección 3 del capítulo 2, el documento describe los mismos 12 pasos (Incluyendo los 7 principios de HACCP), reformulados en algunos lugares. En general, tienen el mismo aspecto, excepto que hay pequeñas modificaciones que pueden tener un impacto en la aplicación HACCP. Para resaltar, en el paso 7 del principio 2, se ha retirado el árbol de decisiones que todos conocemos, supongo que en algún momento se desarrollará y se anexará. Los Principios Generales de Higiene de los Alimentos es un documento ineludible para las organizaciones alimentarias y los profesionales de la inocuidad alimentaria que trabajan a diario para proporcionar alimentos inocuos a los consumidores. La nueva revisión mantiene el documento actualizado con las preocupaciones actuales, como la gestión de alérgenos y la relevancia de la cultura de inocuidad alimentaria en una estructura más clara. También incluye aspectos que impulsarán las discusiones entre los profesionales de la inocuidad alimentaria como es el caso de las BPH que necesitan mayor atención (¿qué debería ser exactamente y cómo debería gestionarse?), La eliminación del árbol de decisiones y los Límites Críticos observables, pero recomiendo a los profesionales de la inocuidad alimentaria que lean el documento completo posteriormente.

El análisis de peligros es la clave para un sistema eficaz de gestión de la inocuidad de los alimentos, ya que realizar un análisis de peligros ayuda a organizar el conocimiento necesario para establecer una combinación eficaz de medidas de control. Los diferentes esquemas de gestión de inocuidad alimentaria requieren que todos los peligros que se pueda esperar razonablemente que ocurran en la cadena alimentaria, incluidos los peligros que pueden estar asociados con el tipo de proceso y las instalaciones utilizadas, se identifican y evalúan. Por lo tanto, proporciona los medios para determinar y documentar por qué ciertos peligros identificados deben ser controlados por una organización en particular y por qué otros no. Durante el análisis de peligros, la organización determina la estrategia que se utilizará para garantizar el control de peligros mediante la combinación de los programas de requisitos previos y el plan HACCP.

Declaración

La información contenida en esta entrada se basa en investigaciones realizadas en los últimos meses y en la experiencia y opinión personal del autor. No pretende representar la opinión de ninguna organización para la que trabaje o colabore. El autor no se hace responsable del uso o mal uso de la información proporcionada en la entrada.

]]>
http://laenciclopediagalactica.info/2021/08/04/historia-de-la-gestion-de-inocuidad-alimentaria/feed/ 0 2054
Microbiología e Inocuidad Alimentaria http://laenciclopediagalactica.info/2016/11/03/microbiologia-e-inocuidad-alimentaria/ http://laenciclopediagalactica.info/2016/11/03/microbiologia-e-inocuidad-alimentaria/#respond Thu, 03 Nov 2016 17:45:47 +0000 http://laenciclopediagalactica.info/?p=1364

Introducción

Los peligros microbiológicos son la principal causa de las enfermedades transmitidas por los alimentos (ETA). Son también los peligros más difíciles de evaluar dada su diversidad y naturaleza dinámica. Los nuevos y emergentes peligros microbiológicos presentan una amenaza particular a la salud pública y la industria de los alimentos debe continuamente tomar en cuenta esto en el desarrollo de sus programas de control.

La mayoría de los responsables de la inocuidad alimentaria encuentran por sí mismos en algún punto del desarrollo de los planes HACCP que requiere identifiquen y perfilen un rango de peligros incluyendo los microbiológicos. A menos que el responsable haya estudiado ese campo específico, con frecuencia les es difícil identificar y caracterizar los riesgos que poseen. Es esencial una comprensión básica de microbiología de los alimentos para el desarrollo de planes HACCP robustos y efectivos. El consultar a un microbiólogo en alimentos es una recomendación para fortalecer los planes HACCP, sin embargo, sigue siendo importante entender e interpretar correctamente la información proporcionada por dichas fuentes.

Con la intención de apoyar a los preciados lectores, clientes y amigos, se realizará la publicación de algunos artículos relacionados con la microbiología de los alimentos, considerando como se relaciona con la inocuidad de los alimentos y su gestión en el ambiente de producción de alimentos.

La publicación del día de hoy está desarrollada para proporcionar a los responsables de los sistemas de gestión de inocuidad alimentaria un conocimiento básico de microbiología de los alimentos y subrayar el aprendizaje que hayan adquirido previamente durante su formación. La intención no es que sea una representación completa de la materia, pues es vasta y en constante cambio. Tampoco se pretende reemplazar la evaluación detallada de los peligros patogénicos requeridos como parte de los estudios HACCP.

Microbiología e Inocuidad Alimentaria

La microbiología es la ciencia que estudia los organismos vivos que no podemos observar a simple vista (Si, es una definición demasiado simple, lo sé, pero es para efectos prácticos). El uso de un microscopio es la única manera en la que podemos observar los millones de pequeñas criaturas viviendo en nuestro ambiente. Mientras que muchas de ellas desempeñan un papel benéfico en la salud pública y en la producción de alimentos también hay varias que pueden causar enfermedades (Microorganismos Patógenos). Ya sea que el microorganismo sea benéfico o no, necesita condiciones favorables para su reproducción. Las condiciones pueden variar de acuerdo con el tipo de microorganismo, pero en general se requieren las siguientes:

  • Sustrato (Alimento).
  • Tiempo y Temperatura.
  • pH (Acidez versus Alcalinidad).
  • Actividad de Agua.
  • Oxígeno (Para ciertas bacterias).

Hay varias categorías de microorganismos concernientes a la inocuidad alimentaria. El día de hoy me enfocaré a tres de ellos: Bacterias, Virus y Hongos/Levaduras. Todas son potencialmente transmisibles a través de los alimentos y agua, y su tiempo de supervivencia puede variar desde horas hasta años, según sea el caso. Para muchos de los alimentos que consumimos no es posible garantizar que estén libres de microorganismos patógenos. El objetivo es asegurar que el nivel de peligro y el riesgo es conocido y reducido a un nivel aceptable. Las bacterias son usualmente clasificadas de acuerdo a su reacción a la Tinción de Gram, forma de la célula, serotipo y/o tipificación de fagos. Las categorías mencionadas podrían ser resumidas de  la siguiente manera:

Bacterias

  • Unicelulares, clasificadas por forma y estructura.
  • Pueden ser clasificadas de acuerdo a su estructura; la estructura es una forma de identificar especies exactas.
  • Algunas son:
    • Cocos: Redondos.
    • Estreptococos: Cadenas.
    • Estafilococos: En grupos o racimos.
    • Diplococos: En pares.
    • En forma de vara (Barra): Bacilos.
    • Flagelos: Cabos (‘cola’).

 Virus

  • Algunos son:
    • Espirales, o en forma de tirabuzón: Spirilla.
    • Reproducción como Bacteria por Fisión Binaria.
    • Crecen en alimentos.
    • Formadores de endosporas.
    • Productores de toxinas en los alimentos.
    • Parásitos de célula huésped.
    • Transmitidos por alimentos y agua.

Fungi (Hongos y Levaduras)

  • Brotes, Formación de Esporas, Crecimiento Micelial.
  • Crecen en alimentos.
  • Producción de toxinas (Micotoxinas) en los alimentos.
Crédito: NHS Choices.
Crédito: NHS Choices.

Procedencia

Las principales fuentes de la contaminación de alimentos por microorganismos dependen del producto, método de producción y procesamiento, y los estándares de higiene empleados en la manufactura. Algunas fuentes incluyen (Pero no se limita a):

  • Tracto intestinal de humanos y/o animales.
  • Manipuladores de alimentos.
  • Utensilios y equipos para el procesamiento de alimentos.
  • Alimento para animales.
  • Piel de animales.
  • Aire y polvo.

Curva de crecimiento microbiano

El crecimiento de los microorganismos en un alimento sigue las siguientes fases:

  • Fase de Latencia. Cuando los microorganismos se están adaptando a un nuevo ambiente y no han producido las suficientes enzimas para deteriorar el alimento. Uno de los objetivos de la preservación de alimentos es la de extender esta fase.
  • Fase Exponencial. Se observa un gran incremento en el número correspondiente a la población de microorganismos y depende del alimento y otras condiciones.
  • Fase Estacionaria. En esta fase el suministro de alimento (Para los microorganismos) comienza a decrecer o los inhibidores químicos están limitando la reproducción de los microorganismos.
  • Fase de Declive o Muerte. En esta fase se observa un declive en el número viable de microorganismos debido a escasez del alimento, inhibidores o competición con otros microorganismos.

Esta curva de crecimiento es más relevante para crecimiento a largo plazo y deterioro de productos que solo consideraciones de inocuidad alimentaria. El Tiempo de Generación (O el tiempo que la población de microorganismos necesita para duplicarse o reproducirse) es usualmente 20 minutos. La población de microorganismos es raramente distribuida uniformemente en un alimento.

Crédito: Imagen Tomada de Internet.
Crédito: Imagen Tomada de Internet.

Preservación de Alimentos

La demora o la prevención del crecimiento microbiano (Prolongando así la vida de anaquel) mientras mantengamos la salubridad de nuestros alimentos es un campo importante de la ciencia y tecnología de los alimentos. Sin embargo, sus efectos en los patógenos y en consecuencia en la inocuidad de los alimentos no es necesariamente una relación directa. Es importante considerar:

  • La eliminación de los microorganismos de deterioro no es lo mismo que la eliminación de los microorganismos patógenos.
  • Un alimento puede parecer comestible y aun así contener patógenos.
  • El daño de las células microbianas puede ser sub-letal.
Crédito: Imagen tomada de Internet.
Crédito: Imagen tomada de Internet.

Factores que afectan el Crecimiento Microbiano en los Alimentos

Hay factores que afectan el crecimiento de microorganismos en los alimentos. Estos incluyen:

  • Factores extrínsecos: Influencias ambientales externas las cuales pueden ser controladas en muchos casos.
  • Factores intrínsecos: Propiedades físicas, químicas y estructurales del alimento.

Factores Extrínsecos

  1. Temperatura durante el almacenamiento.
    • Se recomienda almacenar los productos perecederos a <5°C.
    • El rango de reacción enzimática y la permeabilidad de la membrana celular es afectada.
    • Los psicrótrofos incluyen varios patógenos alimentarios, por ejemplo, Listeria monocytogenes, Clostridium botulinum tipo E, Yersinia spp, Vibrio spp, Aeromonas spp.
    • Los psicrótrofos son tolerantes al frío. Temperatura óptima: >15°C; Temperatura máxima: >25°C; Temperatura mínima: ≥0°C.
    • Los psicrófilos se adaptan al frío. Temperatura óptima: <15°C; Temperatura máxima: 25°C; Temperatura mínima: ≤0°C.
    • El almacenamiento prolongado a baja temperatura o un decremento gradual en la temperatura de almacenamiento podría reducir la temperatura mínima para su reproducción.
  1. Humedad Relativa (HR) el medio ambiente durante el almacenamiento.
    • Generalmente, al disminuir la temperatura, se incrementa la HR (Las unidades de refrigeración usualmente tienen una HR alta).
    • La HR interactúa con el contenido de humedad en los alimentos.
    • El impacto en el material de empaque depende de su permeabilidad.
  2. Presencia y concentración de gases en el ambiente.
    • O2 – Ambientes aeróbicos / anaeróbicos.
    • CO2 – Almacenamiento en “Atmósfera Controlada”; Empacado en Atmósfera Modificada.
    • O3 – El ozono puede esterilizar, pero presenta dificultades con alimentos de altos contenido de lípidos (Agente oxidante).
    • La mayoría de los microorganismos patógenos en alimentos son aerobios facultativos.

Factores Intrínsecos

  1. Contenido de humedad en el alimento (Actividad de Agua aw).
    • La actividad de agua (aw) es la cantidad de agua disponible que pueden utilizar los microorganismos para su reproducción.
    • Es la relación de la presión de vapor de agua del alimento (P) con la del agua pura (Pa) a la misma temperatura.
    • En términos de esta relación podemos definir los rangos de aw para la reproducción de varios microorganismos.

0.91 – 0.99 Fungi y Bacterias.

0.80 – 0.91 Hongos, Halofilos, S. aureus.

0.60 – 0.80 Bacterías Halofílicas y Hongos.

<0.60 No hay reproducción.

  • La mayoría de las bacterias de deterioro no se reproducen a <0.91.
  • La mayoría de los patógenos requieren 0.95 – 0.99 (Excepto aureus, 0.86).
  • Todos los microorganismos requieren agua para su reproducción, pero no para sobrevivir. La ausencia de agua causa el cese de la reproducción, pero la supervivencia varía.
  • Se puede obtener una reducción de la aw por deshidratación, la adición de sal (NaCl) o azúcar. En algunos casos la reducción de aw puede incrementar la resistencia al calor.
  1. pH del alimento.
    • El pH de un alimento puede afectar la reproducción y supervivencia de varios microorganismos.
    • Los rangos de pH para la reproducción son los siguientes:

Hongos: 0 – 11. Óptimo 4.5 – 5.5.

Levaduras: 3 – 10. Óptimo 4.5 – 5.5.

Bacteria: 4 – 9. Óptimo 6.5 – 7.5.

  • Muchas reacciones metabólicas en los microorganismos son dependientes del pH. Si el pH es inadecuado resultará en una fase de latencia más prolongada.
  • Los alimentos se pueden clasificar de acuerdo a su pH.

Alimentos de baja acidez (>5.3) – Alimentos proteicos.

Alimentos de acidez media (4.5 – 5.3) – Queso, carnes enlatadas.

Alimentos ácidos (3.7 – 4.5) – Jitomate, Yogurt.

Alimentos de alta acidez (<3.7) – Frutas Cítricas.

  • Los alimentos ácidos son deteriorados generalmente por hongos, levaduras y ciertas bacterias como los lactobacilos.
  • Ciertos alimentos tienen un, digamos, poder para amortiguar y resistir los cambios en el pH, por ejemplo, las proteínas.
  • La pre-exposición a un pH bajo reduce la resistencia microbiana al calor en alimentos que necesitan tratamiento térmico subsecuentemente.
  1. Potencial de Oxidación – Reducción del Alimento.
    • Este factor es conocido por varios nombres tales como O/R, Eh, Potencial Redox, o Potencial de Oxígeno del alimento y es una medición de cuán sencillo es oxidar un alimento.
    • Depende de un cierto número de factores incluyendo la O/R del alimento mismo, la capacidad del alimento para resistir un cambio en la O/R, la tensión de oxígeno en la atmósfera circundante del alimento, el acceso que tenga el ambiente al alimento.
    • El oxígeno en el aire es un poderoso agente oxidante.
    • Los microorganismos pueden ser clasificados de acuerdo a sus requisitos de oxígeno:

Aerobios obligados: Requieren condiciones de oxidación; Alta Eh +400mv.

Anaerobios obligados: Requieren condiciones reducidas de oxidación; Baja Eh -200mv.

Microaerofilos: Requieren condiciones ligeramente reducidas 4 – 10 % oxígeno.

Facultativos Aerobios / Anaerobios: Se reproducen en cualquier condición.

  • Los agentes reductores pueden ser utilizados para mantener un bajo Eh tales como las proteínas y el ácido ascórbico.
  • El crecimiento microbiológico en alimentos también reduce el Eh.
  1. Contenido de nutrientes del alimento.
    • Los nutrientes son requeridos para la reproducción de los microorganismos.

Carbono: Azúcares, alcohol, aminoácidos, carbohidratos complejos, ácidos grasos.

Nitrógeno: Aminoácidos, proteínas, nitrógeno inorgánico.

Factores de Reproducción: Vitaminas del complejo B.

  • Algunos microorganismos requieren nutrientes simples, por ejemplo, las bacterias Gram – (Negativo), hongos. Otras requieren nutrientes más complejos, por ejemplo, las bacterias Gram + (Positivo).
  1. Sustancias antimicrobianas en los alimentos.
    • Están presentes de manera natural en el alimento e incluyen aceites esenciales, bacteriocinas, lisozimas, ácido benzoico y otros ácidos fuertes.
    • También pueden producirse por otros microorganismos (Ácidos y alcoholes) o durante el proceso.
    • Se pueden agregar intencionalmente como parte de la receta o maliciosamente (Aditivos o adulterantes).
  1. Estructura física y biológica del alimento.
    • Algunos alimentos tienen una capa externa protectora natural (Cáscara, piel, cascarón, revestimiento ceroso).
    • Los cambios en la estructura durante el proceso (Rebanado, porcionar, moler, cortar, etc) incrementa el área de la superficie con una gran oportunidad de contaminar, incrementando el Eh.
]]>
http://laenciclopediagalactica.info/2016/11/03/microbiologia-e-inocuidad-alimentaria/feed/ 0 1364
LII Carnaval de la Física – Resumen de Publicaciones Participantes. http://laenciclopediagalactica.info/2014/06/16/lii-carnaval-de-la-fisica-resumen-de-publicaciones-participantes/ http://laenciclopediagalactica.info/2014/06/16/lii-carnaval-de-la-fisica-resumen-de-publicaciones-participantes/#comments Mon, 16 Jun 2014 20:19:44 +0000 http://laenciclopediagalactica.info/?p=1121

Primero que nada, una disculpa por la tardanza en la publicación del resumen, tuve que resolver unos asuntos pendientes, para poder realizar la publicación. Sin más, he aquí el resumen de las mismas:

• ZTFNews de La Facultad de Ciencia y Tecnología (ZTF-FCT) de la Universidad del País Vasco nos trajo “El Erudito Thomas Young” en el cual nos ofrece un resumen sobre algunas de sus aportaciones más sobresalientes.
• ZTFNews de La Facultad de Ciencia y Tecnología (ZTF-FCT) de la Universidad del País Vasco (Quien dicho sea de paso, realizó una gran cantidad de publicaciones) nos trajo “El cianómetro mide el azul del cielo” en el que nos explican su historia y funcionamiento.
• Divulgación nos trajo “MarsLife” en el que se muestra un video para la construcción de “cohetes caseros” (No hacerlo sin la supervisión de un adulto).
• ZTFNews de La Facultad de Ciencia y Tecnología (ZTF-FCT) de la Universidad del País Vasco nos trajo “Antony Hewish cumple hoy 90 años”, en el que nos presentan un resumen de sus aportaciones.
• ZTFNews de La Facultad de Ciencia y Tecnología (ZTF-FCT) de la Universidad del País Vasco nos trajo “Edme Mariotte, físico y botánico” en el que nos presentan un resumen de sus aportaciones.
• ZTFNews de La Facultad de Ciencia y Tecnología (ZTF-FCT) de la Universidad del País Vasco nos trajo “Centenario del nacimiento de Antonia Ferrín Moreiras” en el que nos presentan un resumen de sus aportaciones y una extensa bibliografía para conocer más sobre su vida y obra.
• PiMedios La Aventura de las Matemáticas nos trajo el video “Analema” en el cual nos muestran la curva que describe la posición del sol.
• ZTFNews de La Facultad de Ciencia y Tecnología (ZTF-FCT) de la Universidad del País Vasco nos trajo “Día Internacional de los Museos: la ciencia también te espera” en el cual nos presentan un listado de referencias acerca de diversos museos a nivel mundial.
• El Tao de la Física nos trajo el video “La katana contra la pistola 9 mm” en el cual podemos observar la manera en que una katana corta prácticamente por la mitad una bala disparada desde una pistola 9 mm.
• Curiosidades de la Microbiología nos trajo “Polizones del espacio” el cual nos habla acerca de la posible ‘exportación’ de microorganismos terrestres al vecino planeta rojo.
• ZTFNews de La Facultad de Ciencia y Tecnología (ZTF-FCT) de la Universidad del País Vasco nos trajo “Día Mundial de la Metrología” el cual hace alusión a un aniversario más de la Convención del Metro, efectuada en Mayo 20, de 1875.
• ZTFNews de La Facultad de Ciencia y Tecnología (ZTF-FCT) de la Universidad del País Vasco nos trajo “William Gilbert, estudioso de imanes” en la cual nos hablan de su obra y aportaciones, además de proporcionarnos una extensa bibliografía para ampliar el breviario cultural sobre el tema.
• ZTFNews de La Facultad de Ciencia y Tecnología (ZTF-FCT) de la Universidad del País Vasco nos trajo “William Whewell, polímata” en la cual nos hablan de su obra y aportaciones, además de proporcionarnos una extensa bibliografía para ampliar el breviario cultural sobre el tema.
• ZTFNews de La Facultad de Ciencia y Tecnología (ZTF-FCT) de la Universidad del País Vasco nos trajo “Pip, pip, pip, pip, pip, piiiiiiiiiip” en la cual nos hablan sobre las aportaciones de Sir Frank Watson Dyson.
• ZTFNews de La Facultad de Ciencia y Tecnología (ZTF-FCT) de la Universidad del País Vasco nos trajo “Mary Taylor Slow (1898-1984)” en la cual nos hablan de su obra y aportaciones.
• ZTFNews de La Facultad de Ciencia y Tecnología (ZTF-FCT) de la Universidad del País Vasco nos trajo “Milutin Milanković y la teoría matemática del clima” en la cual nos hablan de su obra y aportaciones, además de proporcionarnos una extensa bibliografía para ampliar el breviario cultural sobre el tema (¿Alguien dijo Glaciaciones?).
• MasScience Blog nos trajo «La luz del Sol. Expociencia 2014» en el que nos muestra un resumen del evento, acompañado de imágenes y explicaciones de las presentaciones que tuvieron lugar en el mismo.
• ZTFNews de La Facultad de Ciencia y Tecnología (ZTF-FCT) de la Universidad del País Vasco nos trajo “Los planetas de Gustav Holst”, la suite de siete movimientos compuesta entre 1914 y 1916, excelente pieza musical.
• Cosmos – El Universo nos trajo “Europa, Luna de Océanos”, en la cual nos presenta una excelente infografía sobre este satélite natural de Júpiter, así como referencias bibliográficas para poder ampliar el conocimiento al respecto.

Ahora hay que votar la mejor entrada en la página de Facebook del Carnaval de la Física.
Larga vida y prosperidad.

]]>
http://laenciclopediagalactica.info/2014/06/16/lii-carnaval-de-la-fisica-resumen-de-publicaciones-participantes/feed/ 2 1121
Ensayos sobre la Evolución de los Patógenos. http://laenciclopediagalactica.info/2013/04/03/ensayos-sobre-la-evolucion-de-los-patogenos/ http://laenciclopediagalactica.info/2013/04/03/ensayos-sobre-la-evolucion-de-los-patogenos/#respond Wed, 03 Apr 2013 18:51:00 +0000 http://laenciclopediagalactica.info/?p=883

Tal como Lederberg observó, la relación microbio-huésped es un equilibrio dinámico. Los cambios fisiológicos o genéticos en cualquiera de las partes, podría solicitar microbios comensales para invadir los tejidos de su huésped, desencadenando una respuesta inmune que destruye a los invasores, pero también puede dañar o matar al huésped. A medida que exploran este proceso desde la perspectiva de patógeno y huésped, los ponentes en las conferencias, proponen una variedad de posibles vías de evolución de las relaciones huésped-microbio que subyacen las enfermedades infecciosas.

Stanley Falkow, de la Universidad de Stanford, considera la naturaleza de la patogenia bacteriana, ya que ha sido visto históricamente y, según lo revelado por sus investigaciones y la de sus colegas en la misma universidad. Él explica cómo los principales descubrimientos – Comenzando con el trabajo fundamental de Lederberg sobre genética bacteriana – forman el campo en desarrollo de la biología molecular y más concretamente, cerca de 50 años de investigación de Falkow sobre la base genética de la patogenicidad bacteriana.

Utilizando las herramientas de genética molecular para estudiar Salmonella, Falkow y colaboradores han observado como las bacterias manipulan las funciones de la célula huésped, como la transferencia genética horizontal forman patógenos especializados, y como las islas de patógenos heredados transforman a las bacterias comensales en patógenos. Después de haber analizado el genoma de la Salmonella para los genes que son asociados con diferentes etapas de una infección con una estrategia de selección basada en micromatrices, se han identificado muchos genes patógenos expresados en el proceso de múltiples etapas de la invasión del huésped. Utilizando un Mouse Model, también se han identificado genes del huésped y las vías de genes expresados en respuesta a la infección por Salmonella.

Falkow también considera la importancia de los microbios a los que se refiere como “Patógenos comensales” (Por ejemplo, Streptococcus pneumoniae, Neisseria meningitides, Haemophilus influenzae tipo b, Streptococcus pyogenes) que normalmente habitan en la nasofaringe humana, sin síntomas, pero en ocasiones causan enfermedades. Su existencia plantea una serie de cuestiones científicas sobre la relación entre la patogenicidad microbiana, enfermedades infecciosas, inmunológicas, cuestiones que, según sus argumentos, deben ser abordados mediante el estudio de la patogenicidad microbiana como un fenómeno biológico, y no solo desde la perspectiva de su papel en la que causa la enfermedad.

Bruce Levin considera que la respuesta del huésped a la virulencia microbiana, no se corresponde con los modelos evolutivos simples. Ellos examinan por qué las bacterias dañan a los anfitriones (Principalmente humanos) dado que los necesitan para su supervivencia, ofreciendo evidencia. Estas deficiencias inmunológicas incluyen responder con más vigor que el necesario, como ocurre en la sepsis bacteriana, responder inadecuadamente a un patógeno, como ocurre con la lepra lepromatosa, o responder a las señales erróneas, como ocurre en el síndrome de choque tóxico. Levin explora estos y otros ejemplos de la “perversidad del sistema inmune” y considera este punto de vista a la luz de las diversas hipótesis actuales sobre la evolución de la virulencia bacteriana. Ofrece también posibles explicaciones de porque la selección natural no ha atemperado la sobre-respuesta inmune a las infecciones bacterianas y discute las implicaciones de su perspectiva de la respuesta del anfitrión sobre la virulencia para el tratamiento de las infecciones bacterianas.

Les dejo la bibliografía, por si quieren ampliar su acervo con respecto a estos tópicos, lo presentado con anterioridad es un muy pequeño resumen de los textos en los que está extraída de la información.

Esta entrada participa en el Carnaval de Biología Edición Especial Micro-BioCarnaval, que se hospeda en esta ocasión en el blog Microgaia, gestionado por Raven_Neo.

Referencias

Replica Plating and Indirect Selection of Bacterial Mutants
Joshua Lederberg & Esther Lederberg

Bacteria and Viruses
Thomas Peggy

Evolution and Genetics
Britannica Illustrated Science Library

Oxford Dictionary of Biochemistry and Molecular Biology

Molecular Genetics, Recombinant DNA & Genomic Technology
Dr. Abdulla Bashein

Human Molecular Genetics
Tom Strachan and Andrew Read

Prolonged Inhibition of Bacterial Protein Synthesis Abolishes Salmonella Invasion
Kyle J. Macbeth & Catherine A. Lee

Host Restriction Phenotypes of Salmonella typhi and Salmonella gallinarum
Lisa Pascopella, Bärbel Raupach, Nafisa Ghori, Denise Monack, Stanley Falkow & PLC Small.

Recipient Ability of Salmonella Typhosa in Genetic Crosses witn Escherichia Coli.
EM Johnson, Stanley Falkow & LS Baron.

Of Mice and Men – Are mice relevant models for human disease?
Outcomes of the European Commission

Salmonella pathogenicity islands: big virulence in small packages
Sandra L. Marcus, John H. Brumell, Cheryl G. Pfeifer, B. Brett Finlay

Virulence factors and their mechanisms of action: the view from a damage-response framework
Arturo Casedevall and Liise-Anne Pirofski

Host-Pathogen Interactions: Redefining the Basic Concepts of Virulence and Pathogenicity
Arturo Casedevall and Liise-Anne Pirofski

Host-Pathogen Interactions: The Attributes of Virulence
Arturo Casedevall and Liise-Anne Pirofski

Epidemiology, Hypermutation, Whithin-host Evolution and the Virulence of Neisseria meningitides
Lauren Aneel Meyers, Bruce R. Levin, Anthony R. Richardson and Igor Stojiljkovic

]]>
http://laenciclopediagalactica.info/2013/04/03/ensayos-sobre-la-evolucion-de-los-patogenos/feed/ 0 883
El Bosón de Higgs http://laenciclopediagalactica.info/2012/07/04/el-boson-de-higgs/ http://laenciclopediagalactica.info/2012/07/04/el-boson-de-higgs/#comments Wed, 04 Jul 2012 19:02:35 +0000 http://laenciclopediagalactica.info/?p=642

El día de hoy, en la conferencia ICHEP 2012 (Melbourne, Australia), científicos del CMS (Compact Muon Solenoid), uno de los experimentos que se están desarrollando en el LHC (Large Hadron Collider), realizaron la presentación de resultados preliminares sobre la búsqueda del Bosón de Higgs. Estos datos son los obtenidos hasta junio del 2012.

Pero antes de entrar en detalle sobre este comunicado es importante que entendamos ¿Qué es el bosón de Higgs y por qué esta nota ha dado la vuelta al mundo en tan pocas horas?  Bien, el Bosón de Higgs es la última partícula que falta por descubrir en el Modelo Estándar, la teoría que describe la formación básica del Universo, las otras 11 partículas ya fueron encontradas, por lo que el hallazgo de esta pieza faltante validaría el modelo. Si se encuentra algo diferente obligaría a revisar nuestra comprensión actual de la estructura del Universo. La creencia actual estima que en la primer billonésima de segundo tras el Big Bang, el Universo era una gran mezcla de partículas avanzando en diferentes direcciones a la velocidad de la luz, sin ninguna masa apreciable, y fue a través de su interacción con el campo de Higgs que ganaron masa y, posteriormente, formaron el Universo. El campo de Higgs es un campo de energía teórico que invade todo el Universo, algunas partículas (Como los fotones) no se ven afectadas por él y por lo tanto, carecen de masa. Como analogía, imaginen a un actor famoso, caminando por la calle, con un séquito de paparazzis (El Campo de Higgs) rodeándolo, y por la misma acera, camina un servidor (El fotón), y no recibo ningún tipo de atención de los fotógrafos. La partícula de Higgs es el rastro que deja el campo, comparable con una pestaña de los paparazzis . Esta partícula es teórica y su existencia fue propuesta en 1964, por un grupo de físicos, entre los que se encontraba Peter Higgs.

Ahora bien, regresando al comunicado, en sí, lo que se ha descubierto, es una partícula subatómica que podría ser el Bosón de Higgs, puesto que es consistente con la teoría, falta determinar si es una variante, si es el Bosón buscado o si es un Bosón completamente nuevo, lo cual nos llevaría a revisar la teoría sobre la estructura fundamental de la materia.

¿Por qué aún no son concluyentes? Aún cuando están realmente cerca de estarlo (Se tiene un nivel de confianza estadístico de 5 sigmas), es necesario obtener más resultados, para que el nivel de confianza sea mayor, y las dudas sean prácticamente eliminadas. Hay que recordar que, en la industria aeroespacial, electrónica, automotriz y metalmecánica, el nivel de confianza estadístico es superior a los 6 sigmas, así que, considerando las implicaciones ante un descubrimiento de este tamaño, pues la certeza a obtener debe ser lo más cercana al 100% que se pueda.

Es difícil no emocionarse con estos resultados, pero es importante mantener la paciencia y no dejarse llevar. Una vez que se tenga la confirmación por parte del equipo del CMS en el CERN, entonces sí, unámonos a los vítores y encendamos los fuegos artificiales, y entonces, nos formularemos la siguiente pregunta: «¿Y ahora, qué sigue?».

Referencias

Observación de una Nueva Partícula con una masa de 125 GeV. Experimento CMS, CERN (Comunicado oficial en Español, CINVESTAV)

]]>
http://laenciclopediagalactica.info/2012/07/04/el-boson-de-higgs/feed/ 2 642
Biotecnología: Una colección de tecnologías http://laenciclopediagalactica.info/2012/03/21/biotecnologia-una-coleccion-de-tecnologias/ http://laenciclopediagalactica.info/2012/03/21/biotecnologia-una-coleccion-de-tecnologias/#comments Wed, 21 Mar 2012 23:55:25 +0000 http://laenciclopediagalactica.info/?p=592

¿Qué es la biotecnología?

Si la separamos en sus raíces tenemos: Bio, y tecnología, el uso de procesos biológicos para solucionar problemas o hacer productos útiles (Interpretación libre, je). El uso de procesos biológicos es difícilmente un evento notable. Comenzamos cosechando cultivos y criando animales hace 10,000 años para obtener una fuente estable de alimentos y vestuario. Hemos utilizado procesos biotecnológicos de microrganismos por más de 6000 años para producir productos útiles, tales como pan, queso, yogurt y para conservar productos lácteos. ¿Por qué entonces de repente la biotecnología recibe tanta atención?

Durante las décadas de 1960 y 1970 nuestro entendimiento de la biología alcanzó un punto donde podríamos comenzar a utilizar las partes más pequeñas de organismos (sus moléculas biológicas) además de utilizar organismos completos.

Luego entonces, una definición adecuada dándole un nuevo sentido a la palabra sería: el uso de procesos celulares y biomoleculares para solucionar problemas o hacer productos útiles. Podemos tener un mejor manejo del significado de la palabra biotecnología simplemente cambiando el pronombre singular a su forma plural, biotecnologías.

La biotecnología es una colección de tecnologías que se aprovechan de los atributos de las células, tales como sus capacidades de manufactura y colocan a las moléculas biológicas, tales como el ADN y las proteínas, a trabajar para nosotros.

Células y moléculas biológicas

Las células son los bloques básicos con los que estamos constituidos los seres vivos. Las criaturas vivas más simples, tales como las levaduras, consisten de una simple y autosuficiente célula. Las criaturas complejas, más familiares a nosotros, tales como las plantas, animales y seres humanos, estamos hechos de muchos tipos diferentes de células, cada una de las cuales desempeña una tarea específica.

A pesar de la extraordinaria diversidad de tipos de células en los seres vivos, lo que es más llamativo es su extraordinaria similitud. Esta unidad de vida a nivel celular proporciona la fundación de la biotecnología. Todas las células tienen el mismo diseño básico, están hechas con los mismos materiales de construcción y operan utilizando esencialmente los mismos procesos. El ADN (Ácido desoxirribonucleico), el material genético de casi todos los seres vivos, dirige la construcción y operación de las células, mientras las proteínas hacen todo el trabajo. Dado que el ADN contiene la información producir proteínas, este dirige los procesos celulares para determinar cuales proteínas son producidas y cuando.

Todas las células hablan el mismo lenguaje genético. El “manual de información” del ADN de una célula puede leerse e implementarse por las células de otros seres vivos. Esto se debe a que una instrucción genética para producir un cierto tipo de proteínas es entendida por muchos diferentes tipos de células, las tecnologías basadas en moléculas biológicas y células nos proporcionan gran flexibilidad utilizando la diversidad de la naturaleza. Además, las células y las moléculas biológicas son extraordinariamente específicas en sus interacciones. Como resultado, los productos biotecnológicos pueden resolver problemas específicos frecuentemente, generando pocos efectos colaterales y tienen pocas consecuencias no deseadas. Las palabras que mejor describen a la biotecnología actualmente son: Específica, precisa y predecible.

Esta publicación participa en la XI Edición del Carnaval de Biología, hospedado en esta ocasión en el blog «Ciencia y alguna otra cosa» de Gerardo (@Diplotaxis).

Keflex 250mg

]]>
http://laenciclopediagalactica.info/2012/03/21/biotecnologia-una-coleccion-de-tecnologias/feed/ 4 592
Inventario de Compuestos Orgánicos en el Medio Interestelar http://laenciclopediagalactica.info/2012/03/21/inventario-de-compuestos-organicos-en-el-medio-interestelar/ http://laenciclopediagalactica.info/2012/03/21/inventario-de-compuestos-organicos-en-el-medio-interestelar/#comments Wed, 21 Mar 2012 21:45:11 +0000 http://laenciclopediagalactica.info/?p=584

Entre el 20 y 30 por ciento de la masa de nuestra galaxia está en la forma de medio interestelar (ISM – Interstellar Medium), por ejemplo, el material entre las estrellas. El ISM consiste primariamente de gas, con hidrógeno atómico o molecular y helio, contribuyendo con aproximadamente con dos tercios y un tercio de la masa total respectivamente. Los siguientes átomos abundantes, oxígeno, carbono y nitrógeno, cuentan colectivamente con cerca del 1% de la masa del ISM. Los elementos remanentes están presentes solo como trazas. Aproximadamente el 1% de la masa del ISM está presente en forma de partículas de polvo del tamaño de un micrón. Las observaciones astronómicas, combinadas con estudios de ‘granos’ interestelares preservados en meteoritos, sugieren que el polvo podría consistir de diversas maneras de carbono amorfo, hidrocarburos aromáticos policíclicos, diamantes, carburo de silicio, y otros candidatos, todos con o sin mantos de hielo y/o compuestos orgánicos.

Los componentes importantes del ISM son nubes moleculares, las cuales son densas, objetos masivos encontrados a través de la Vía Láctea y en muchas otras galaxias. En esas nubes moleculares, la densidad del gas es de 103 a 106 partículas por cm3, el cual es muy alto para los estándares interestelares, y sus masas pueden ser tan grandes como el equivalente a varios millones de veces la masa del Sol. Son también usualmente objetos muy fríos, con temperaturas típicas en el rango de 10 a 100 K. Dadas sus grandes masas, estos objetos son también sitios para la formación de estrellas y planetas, y también donde ocurre la compleja fase-gas química.

Las observaciones astronómicas del ISM han revelado la presencia de numerosos compuestos orgánicos. Más de 125 especies químicas diferentes han sido identificadas en regiones interestelares y circunestelares, algunas conteniendo 10 o más átomos de carbono (Ver la Tabla anexa). Asumiendo que el carbono en el ISM está presente en abundancia cósmica, entonces solo el 0.04% de ese material es carbono, aunque aproximadamente el 80% de las especies observadas en el ISM son orgánicas, incluyendo casi todas las moléculas grandes, muchas de las cuales son relativamente complejas. Los compuestos orgánicos son, sin embargo, solo un pequeño constituyente del ISM y son menos del 1% de la masa total. Los compuestos inorgánicos abundan, por ejemplo, el CO, siendo casi el 20% del carbono en las densas nubes interestelares. El CO es, superado numéricamente por las especies moleculares más comunes, H2, por ejemplo, por un factor de 10,000 aproximadamente. La mayoría de las especies identificadas en el ISM han sido descubiertas utilizando técnicas espectroscópicas de alta resolución de radio (1 Parte en 106 a 108) y astronomía milimétrica. Este triunfo de la radioastronomía ha cambiado nuestra percepción del Universo como un predominantemente enrarecido ambiente atómico a uno conteniendo una gran cantidad de componentes orgánicos moleculares.

Moléculas interestelares y circunstelares conocidas. Crédito: H. Alwyn Wootten, National Radio Astronomy Observatory, Actualizaciones disponibles en http://www.cv.nrao.edu/~awootten/allmols.html (Clic para agrandar).

Esta publicación participa en la XIII Edición del Carnaval de Química, hospedada en esta ocasión en el blog Curiosidades de un Químico Soñador de Daniel Martín Yerga.

Referencias

National Radio Astronomy Observatory Website

The Physics And Chemistry Of The Interstellar Medium

A.G.G.M. TIELENS

The Chemistry in the ISM

C.Ceccarelli

A Cold Complex Chemistry Toward The Low-Mass Protostar B1-B: Evidence For Complex Molecule Production In Ice

Karin I. Oberg et al.

Complex Chemistry In Star-Forming Regions: An Expanded Gas-Grain Warm-Up Chemical Model

Garrod, Widicus Weaver & Herbst

Discovery of Interstellar Propylene (CH2CHCH3): Missing Links in Interstellar Gas–Phase Chemistry

Marcelino et al.

]]>
http://laenciclopediagalactica.info/2012/03/21/inventario-de-compuestos-organicos-en-el-medio-interestelar/feed/ 3 584
¿Qué Propiedades de las Partículas Revelan la Naturaleza y Origen de la Materia y las Propiedades del Espacio y el Tiempo? Parte 2 de 2 http://laenciclopediagalactica.info/2012/03/09/prop-particulas-revelan-la-naturaleza-y-origen-de-la-materia-y-las-propiedades-del-espacio-y-el-tiempo-parte-2-de-2/ http://laenciclopediagalactica.info/2012/03/09/prop-particulas-revelan-la-naturaleza-y-origen-de-la-materia-y-las-propiedades-del-espacio-y-el-tiempo-parte-2-de-2/#comments Fri, 09 Mar 2012 17:17:54 +0000 http://laenciclopediagalactica.info/?p=569

En la década de 1950, se construyeron aceleradores de partículas con la energía suficiente para crear partículas de segunda generación para estudiar el comportamiento de las mismas en experimentos controlados. En 1962, usando haces de neutrinos de alta energía creados por los aceleradores fue descubierto el neutrino de segunda generación; un experimento en el Brookhaven National Laboratory demostró que los neutrinos creados junto con muones en el decaimiento de los mesones son distintos de los neutrinos de primera generación creados en el decaimiento de átomos radioactivos. El descubrimiento de la segunda generación se completó cuando se encontró evidencia para el charm quark en los aceleradores de partículas, comenzando con el descubrimiento de la partícula J/Ψ (La cual consiste de un charm quark y un anticharm quark) en noviembre de 1974 en SLAC y Brookhaven.

Los descubrimientos experimentales de tercera generación inician cuando el leptón tau es descubierto en 1975 en SLAC, y después el bottom quark en 1977 en el Fermilab y en Cornell. Una vez que se observaron el leptón tau y el bottom quark, comenzó la búsqueda por el top quark de tercera generación. Pero ¿Cuál sería su peso? Todo lo que se sabía era que el top quark debería ser más pesado que el bottom quark o que podría encontrarse en los niveles de energía ya explorados. El bottom quark pesa cerca de los 5GeV o cerca de cinco veces la masa del protón (El cual contiene tres de los quarks más ligeros).

A principios de la década de 1990, los experimentos proporcionaron un estimado indirecto de la masa del top quark. Aún si una partícula no es producida en la reacción, esta puede influenciarla a través de los efectos cuánticos. De acuerdo a la mecánica cuántica, las partículas y sus antipartículas pueden entrar y salir de la existencia en un parpadeo, de este modo se producen pequeños pero medibles efectos en las interacciones de las partículas. En esa época, la información de las propiedades de los bosones Z era lo suficientemente precisa para ser sensible a los efectos cuánticos debidos a los top quarks. Esto llevó a estimar que la masa del top quark era de 150 a 200 GeV. Para una masa fuera de este rango, las medidas podrían no encajar con las predicciones del Modelo Estándar.

Este rango de masa apenas estaba en el alcance del Tevatron y en 1995, el top quark fue descubierto en el Fermilab, con una medición de 174 GeV. El descubrimiento inicial se basó en solo unas cuantas docenas de eventos, en los cuales un top quark y un antiquark se produjeron y decayeron en otras partículas, incluyendo bottom quarks y leptones, en un patrón característico y esperado.

El completar la tercera generación requiere la confirmación de que ésta tiene su propio tipo de neutrino. Así, el neutrino producido en asociación con una partícula tau deberá hacer solo partículas tau cuando interaccione con partículas W. Esta confirmación se obtuvo en el Fermilab en el 2000. Con la observación del neutrino Tau, tres de las cuatro partículas de la tercera generación del Modelo Estándar han sido descubiertas en el Fermilab,

Observar los efectos de los neutrinos es difícil, pero un reto aún mayor para los físicos de partículas ha sido la detección y medición de las masas de los neutrinos. Esas masas aún no han sido determinadas con precisión, y aún son candidatas a ser pistas importantes acerca de la unificación de partículas. Hay varios enfoques para detectar las masas de los neutrinos, las más sensibles, de las cuales dependen múltiples tipos de neutrinos. Si los neutrinos tienen masa, entrará en juego un efecto de mecánica cuántica conocido como “neutrino oscillations”. Como un neutrino de un tipo viaja a través del espacio, este puede convertirse espontáneamente en otro tipo de neutrino. Por ejemplo, un neutrino muon puede convertirse espontáneamente en un neutrino tau o en un neutrino electrón. Después, puede revertirse a neutrino muon y esto es por la oscilación de los neutrinos. La probabilidad de la oscilación depende de las diferencias en las masas entre los neutrinos, y se necesitan grandes distancias para que esos cambios ocurran con una alta probabilidad.

Los neutrinos creados por el sol recorren 150 millones de kilómetros antes de llegar a la Tierra, lo cual les hace candidatos probables a someterse a oscilaciones. Comenzando con las primeras mediciones realizadas hace 40-50 años en Homestake Gold Mine en South Dakota, cada medición del número de neutrinos electrones procedentes del sol que alcanzaron la Tierra entregó un pequeño resultado inesperado. Las observaciones subsecuentes, de laboratorios en Japón y Canadá, encontraron anomalías similares en las propiedades de los neutrinos creados en la atmósfera de la Tierra por los rayos cósmicos, los formados por reactores nucleares, y los producidos en los aceleradores. Todas esas observaciones se interpretan en la actualidad en términos de masas y oscilaciones de neutrinos.

Cuando emergió la segunda generación emergió (Con el descubrimiento del muon en los rayos cósmicos), cayó del cielo sorprendiendo a todos. En contraste, la existencia de una tercera generación se sugirió por adelantado como una posible explicación a la denominada Violación CP.

Una de las predicciones sorprendentes de combinar mecánica cuántica con la relatividad especial es la existencia de la antimateria. La antimateria se descubrió en los rayos cósmicos como antielectrones (Positrones). El antiprotón fue el primero creado de forma artificial en uno de los primeros aceleradores de alta energía, el Lawrence Berkeley National Laboratory Bevatron. Para cada tipo de partícula, existe su correspondiente antipartícula con la misma masa y spin pero carga eléctrica opuesta. Cuando la partícula y la antipartícula coinciden, se pueden aniquilar y generar radiación. Las leyes de la física para la materia y la antimateria son similares, pero en el universo hay mucha materia y muy poca antimateria. La razón de esto aún es un misterio.

En 1964 se descubrió en Brookhaven que la materia y la antimateria se comportan ligeramente diferente. En ese experimento, los científicos prepararon un haz de partículas kaon de tal forma que una mitad fuera materia y la otra antimateria. Con un estudio meticuloso de las partículas, observaron que las partículas de materia se comportaban diferente que las de antimateria. Este descubrimiento fue una gran sorpresa, no solo porque violaba la supuesta equivalencia entre materia y antimateria sino porque esto sugirió una conexión entre la microfísica de partículas elementales y la cuestión macrofísica de la cantidad de antimateria en el universo. Esta pequeña pero fundamental asimetría en las leyes físicas entre materia y antimateria es la ya mencionada violación CP (Charge Parity – Paridad de cargas). Desde entonces, se han desarrollado diferentes experimentos en el Fermilab, y en 1999, el estudio del sistema kaon promovió y confirmó la presencia de la violación CP no solo en el comportamiento de los kaons sino en su decaimiento.

El universo primigenio se llenó con materia y antimateria, y la física moderna y la teoría cosmológica sugieren que ambas estaban igualmente representadas. Conforme el universo se fue enfriando, la materia y la antimateria se iban aniquilando una a la otra. Si las leyes de la naturaleza habían tenido una perfecta simetría entre la materia y la antimateria, el universo frío mantendría cantidades iguales de materia y antimateria, con lo cual habrían sido capaces de aniquilarse por completo, convirtiéndose en fotones. Para ese momento, las temperaturas “ordinarias” que se alcanzaron (En este contexto, un millón de grados Celsius puede considerarse suficientemente frío), habría hecho que la materia y antimateria desaparecieran, dejando solo fotones y materia oscura. Esto habría resultado en un universo demasiado aburrido.

En lugar de eso, el universo primigenio al parecer produjo un excedente de materia (comparado contra la antimateria). Así, después de que la antimateria se aniquilo con la cantidad necesaria de materia, quedó como remanente el excedente. El universo actual contiene más de un billón de fotones por cada protón, neutrón y electrón. En el universo completo, sin embargo, la materia que quedó es solo una traza o rastro, pero está condensado en regiones densas para formar galaxias, estrellas, planetas y otros cuerpos celestes.

En el Modelo Estándar, la violación CP no puede ocurrir en un mundo de dos generaciones, requiere una tercera generación. Con la tercera generación incluida, el Modelo Estándar lleva a una teoría elegante de violación CP. Para evaluar su efectividad se requieren experimentos con partículas de tercera generación, dado que los efectos de las violaciones CP son demasiado minúsculos para las dos primeras generaciones.

Esta entrada participa en la XXIX Edición del Carnaval de Física, alojado este mes en Zurditorium.

Referencias

Strange Particles – CA Randall

P615: Nuclear and Particle Physics – Niels Walet

CP Violation – I.I. Bigi & A. I. Sanda

The Standard Model: A Primer – C. P. Burgess and Guy D. Moor

Dynamics of the Standard Model – Donoghue

Elementary Particles and their interactions – Kim-Yem

Massive Neutrinos in Physics and Astrophysics – Mohapatra

Particle Physics beyond the Standard Model – D. Kasakov, S. Lavignac, J. Dalibard

The Quark-Gluon Plasma – Helmut Satz

]]>
http://laenciclopediagalactica.info/2012/03/09/prop-particulas-revelan-la-naturaleza-y-origen-de-la-materia-y-las-propiedades-del-espacio-y-el-tiempo-parte-2-de-2/feed/ 3 569
¿Qué Propiedades de las Partículas Revelan la Naturaleza y Origen de la Materia y las Propiedades del Espacio y el Tiempo? Parte 1 de 2 http://laenciclopediagalactica.info/2012/02/18/que-propiedades-de-las-particulas-revelan-la-naturaleza-y-origen-de-la-materia-y-las-propiedades-del-espacio-y-el-tiempo-parte-1-de-2/ http://laenciclopediagalactica.info/2012/02/18/que-propiedades-de-las-particulas-revelan-la-naturaleza-y-origen-de-la-materia-y-las-propiedades-del-espacio-y-el-tiempo-parte-1-de-2/#respond Sat, 18 Feb 2012 15:07:33 +0000 http://laenciclopediagalactica.info/?p=551

El pensamiento de que la física de partículas se enfoca en las partículas fundamentales del universo, involucra más allá que solo desarrollar una taxonomía de fenómenos ‘esotéricos’ estudiados en aceleradores de laboratorio. La búsqueda fundamental de la física de partículas ha sido entendida en cómo las propiedades de las partículas y sus interacciones han influenciado (Y viceversa, han sido influenciadas por) la evolución del cosmos. 

A principios del siglo veinte, el electrón, el cual se acababa de descubrir, era la única partícula conocida de las que hoy consideramos como elementales. Pero los fenómenos descubiertos de la radioactividad atómica les otorgo el primer acceso a los físicos a ese tipo de partículas que, con los estándares actuales, se consideran de alta energía (La energía de una partícula emitida por un átomo radioactivo es casi un millón de veces más grande que la de un electrón que viene de una batería, y es millones de veces más pequeña que la energía más alta alcanzad en los modernos aceleradores de partículas). Con haces de partículas de fuentes radioactivas naturales, los físicos lograron hacer una gran cantidad de descubrimientos. El núcleo atómico, el protón y el neutrón, fueron descubiertos de esta manera, y la existencia del neutrino fue inferida de los estudios de la radioactividad atómica.

En 1912, se descubrió una nueva fuente de partículas de origen natural: La Tierra es bombardeada constantemente con rayos cósmicos del espacio. Además de otorgarle a los físicos una nueva y fascinante ventana con la cual explorar el Universo, los rayos cósmicos hicieron posibles descubrimientos fundamentales acerca de la naturaleza, principalmente debido a que los rayos cósmicos tienen energías más altas que las partículas emitidas por los átomos radioactivos. La primera partícula de antimateria, el positrón (El cual es la antipartícula del electrón) fue descubierta en los rayos cósmicos en 1932. Otras partículas importantes, incluyendo el muón, el pión y las primeras partículas extrañas, fueron descubiertos en los rayos cósmicos en las décadas de 1940 y 1950.

Para entonces fue claro que muchas sorpresas acechaban en el mundo subatómico. A principios de la década de 1950, los aceleradores de partículas hicieron posible alcanzar la combinación de alta energía y precisión, la cual no puede ser alcanzada con las fuentes naturales de partículas. Los primeros resultados trajeron caos en esa década y en la posterior, dado que los aceleradores descubrieron cientos de nuevos tipos de partículas que experimentaron la fuerza nuclear fuerte que mantiene unido el núcleo atómico. Todas esas partículas son ‘parientes’ de los protones y neutrones, los cuales constituyen el núcleo atómico.

El Modelo Estándar, que emergió a principios de la década de 1970, trajo algo de orden a ese caos. De acuerdo al Modelo Estándar, las múltiples partículas surgen combinando en diferentes formas un número pequeño de entidades fundamentales llamadas quarks. La fuerza nuclear fuerte la cual es mediada por partículas conocidas como gluones, se une a los quarks para formar los protones, neutrones y otras partículas interactuando fuertemente. En el interior del núcleo atómico, la fuerza nuclear fuerte surge como consecuencia de los quarks y los gluones en la interacción de un protón o neutrón interactuando entre ellos. La existencia de los quarks fue confirmada en los experimentos de dispersión de electrones en el Stanford Linear Accelerator Center (SLAC) y en los experimentos de dispersión de neutrones en el CERN, a principios de la década de 1970. La partícula gluón que se une a los quarks fue descubierta en el Deutsches Elektronen-Synchrotron Laboratory (DESY) en Alemania, en 1979.

La reinterpretación de las múltiples partículas producidas en los aceleradores en términos de quarks y gluones nos da una explicación simple de cómo trabaja la naturaleza. También nos proporciona un nuevo enfoque para pensar acerca de la unificación de las fuerzas de la naturaleza. Los quarks obedecen de forma similar a las ecuaciones que obedecen los electrones, y los gluones obedecen de forma similar a las ecuaciones que obedecen los fotones o las ondas luminosas. La analogía fue mejorada cuando el CERN descubrió en 1983 las partículas W y Z, las cuales son responsables de la fuerza nuclear débil y obedecen a la misma tipo de ecuaciones que los gluones o fotones. En el DESY en la década de 1990, se midieron las propiedades de la fuerza nuclear fuerte y los números y distribución de energía de los quarks y gluones en protones de alta velocidad; estos resultados han sido importantes aportaciones a las expectativas de los físicos del LHC. Una vez más, nuevos descubrimientos en altas energías mostraron que en un nivel fundamental, las diferentes fuerzas son muy similares, dando a los físicos, nuevas bases para unificar las leyes de la naturaleza.

El Modelo Estándar además reduce la complejidad observada de partículas organizando quarks y leptones (De los cuales, el más familiar es el electrón) en tres “generaciones”. La primera generación contiene las partículas que constituyen los átomos ordinarios (Los quarks y los electrones, junto con una entidad más elusiva llamada neutrino). Los neutrinos son creados en el decaimiento radioactivo de ciertos tipos de núcleos. Los neutrinos interactúan muy débilmente con la materia, tanto que cuando se realizó la hipótesis de su existencia en la década de 1930, los físicos pensaron que serían indetectables. La invención de los reactores nucleares cambió la situación dado que volvieron disponibles fuentes intensas de electrones antineutrinos, llevando a la detección del neutrino en 1955.

Una generación de partículas sería suficiente para la creación de materia ordinaria. Extrañamente, la naturaleza se repite a sí misma con dos generaciones más de partículas. Estar partículas adicionales, las cuales son de corto periodo de vida, son usualmente producidas en colisiones de alta energía y detectadas por su decaimiento remanente. Mientras que están sujetas precisamente a las mismas fuerzas que la primera generación de partículas, estás decaen tan rápido que se hacen difíciles de estudiar. Pero en el Universo primitivo, parece que fueron tan importantes como las partículas de primera generación. Los físicos aún no entienden porque existe la generación de partículas, y mucho menos él porque hay tres de ellas, o bueno, eso es lo que se cree hasta el momento.

La mejor indicación de que son tres viene de los estudios de la partícula Z, la cual transporta la fuerza nuclear débil. Todos los tipos de neutrinos pueden producirse cuando la partícula Z decae, siempre que sean menos masivos que la mitad de Z. La pauta de la producción de Z y el decaimiento muestra que solo decae en tres tipos de neutrinos, y un cuarto tipo de neutrino podría existir solo si la partícula fuera muy pesada. La cantidad de helio producido en el Universo primitivo es también sensible al número de tipos de neutrinos, y las mediciones de esta abundancia son consistentes con la existencia de solo tres tipos de neutrinos ligeros. Dado que todos los tipos de neutrinos conocidos son muy ligeros, esto nos dice que no hay una cuarta generación de partículas que siga la misma pauta de los tres primeros con un neutrino demasiado ligero.

La primera generación de partículas está presente alrededor de nosotros en la materia ordinaria. Pero ¿Cómo es que nos enteramos de las otras dos generaciones? El descubrimiento de la segunda generación se dio en las décadas de 1930 y 1940, cuando el muón y los mesones (los cuales consisten de un quark y un antiquark) fueron descubiertos en los rayos cósmicos. Cuando esas partículas de alta energía provenientes del espacio, impactaron en la atmósfera, las colisiones fueron lo suficientemente energéticas para producir muchos mesones conteniendo la segunda generación de quarks extraños. Los mesones decayeron, muchos de ellos debido a un proceso de interacción débil que produce un muón y un neutrino.

Esta entrada participa en la edición XXVIII del Carnaval de Física, la cual se aloja en el blog Física, Arroz y Frijoles de Natalia

Referencias

Strange Particles – CA Randall

P615: Nuclear and Particle Physics – Niels Walet

CP Violation – I.I. Bigi & A. I. Sanda

The Standard Model: A Primer – C. P. Burgess and Guy D. Moor

Dynamics of the Standard Model – Donoghue

Elementary Particles and their interactions – Kim-Yem

Massive Neutrinos in Physics and Astrophysics – Mohapatra

Particle Physics beyond the Standard Model – D. Kasakov, S. Lavignac, J. Dalibard

The Quark-Gluon Plasma – Helmut Satz

]]>
http://laenciclopediagalactica.info/2012/02/18/que-propiedades-de-las-particulas-revelan-la-naturaleza-y-origen-de-la-materia-y-las-propiedades-del-espacio-y-el-tiempo-parte-1-de-2/feed/ 0 551
Física de Partículas en la Ciencia y la Sociedad http://laenciclopediagalactica.info/2012/02/04/fisica-de-particulas-en-la-ciencia-y-la-sociedad/ http://laenciclopediagalactica.info/2012/02/04/fisica-de-particulas-en-la-ciencia-y-la-sociedad/#comments Sat, 04 Feb 2012 15:17:13 +0000 http://laenciclopediagalactica.info/?p=544

Los aceleradores más poderosos del mundo, que están entre los dispositivos experimentales más grandes y tecnológicamente sofisticados jamás construidos, son máquinas impresionantes que involucran notables hazañas de la ingeniería. También han generado olas de innovaciones tecnológicas y aplicaciones en todas las ciencias y en la sociedad.

Un ejemplo notable en los años recientes fue el desarrollo de los protocolos clave que apuntalaron la World Wide Web. Construida en la columna vertebral de la ya existente Internet, esta nueva forma de compartir información ha revolucionado la forma en la que el mundo se comunica y hace negocios. Estos protocolos fueron desarrollados inicialmente por un investigador en el CERN, buscando mejores formas para que un gran grupo de físicos de partículas pudieran compartir información y colaborar en experimentos.

Los pequeños generadores utilizados en los hospitales para generar (Valga la redundancia) rayos X para los tratamientos con radiación vienen de diseños desarrollados por la física de partículas. Estos diseños han sido mejorados y refinados por un investigador en tecnologías de aceleradores para que la ciencia continúe a la vanguardia para ser aplicada en medicina. Varios miles pacientes son tratados diariamente con radiación obtenida de aceleradores de electrones. Los aceleradores también son utilizados para producir radioisótopos para tratamientos, equipos de diagnóstico, investigación y tecnologías desarrolladas para la detección de partículas en experimentos de física de alta energía que puedan tener aplicaciones en la medicina.

Cuando las partículas de energía cargadas pasan a través de caminos curvos en un campo magnético, generan radiación. La capacidad de los aceleradores para producir haces de rayos X o fotones de diferentes energías ha generado aplicaciones a través de un amplio rango de ciencias. Cada año, más de 50,000 investigadores alrededor del mundo, de diferentes disciplinas científicas utilizan estos poderosos haces de luz para gestionar sus experimentos. Los aceleradores de rayos X proporcionan, por ejemplo, la capacidad para descifrar la estructura de las proteínas y otras macromoléculas biológicas, o para encontrar rastros de impurezas en el ambiente o en la superficie de un chip de silicio. La ciencia producida por estos experimentos ha encontrado aplicaciones tanto en la industria como en la medicina.

En general, la física de partículas contribuye a (Y depende de) los avances en otras áreas de la física (Como la física nuclear y la física de materia condensada) y muchos otros campos científicos, que incluyen, pero no se limitan a ciencias de materiales, computación, biología, química y nanociencias. La salud de la ciencia requiere soporte o apoyo de todas las partes de esta telaraña interconectada.

Los retos técnicos afrontados por los físicos de partículas (Tales como procesar millones de señales rápidamente, utilizando computadoras distribuidas para resolver problemas complejos, generar campos electromagnéticos o confinar partículas cargadas) ha generado muchas tecnologías derivadas. La física de partículas también ha contribuido en forma importante en las matemáticas, aún cuando las matemáticas se han utilizado para entender las estructuras teóricas que describen las partículas.

En la industria, los aceleradores son utilizados para investigación y desarrollo, manufactura, análisis y control de procesos. Por ejemplo, los haces de los aceleradores son utilizados para alterar la composición de los materiales y mejorar las características de los productos. El rango de uso de los aceleradores va desde el fechar muestras arqueológicas hasta la simulación de rayos cósmicos para determinar el impacto de la radiación en equipos electrónicos.

Finalmente, dado que los físicos de partículas han conducido algunas de las cuestiones más profundas que los humanos podemos preguntar, esto termina resonando fuertemente con el público en general. La estantes de las librerías, en la sección de ciencias están repletas de exposiciones populares de la actual comprensión de estos temas, y muchos jóvenes se sienten atraídos por la ciencia, porque están interesados en los temas abordados por la física de partículas.

买力士

]]> http://laenciclopediagalactica.info/2012/02/04/fisica-de-particulas-en-la-ciencia-y-la-sociedad/feed/ 4 544