La Enciclopedia Galáctica Por Torjo Sagua 2020-10-14T14:51:52Z http://laenciclopediagalactica.info/feed/atom/ WordPress Torjo Sagua http://laenciclopediagalactica.info <![CDATA[La Tierra Negra – Peridotita a Basalto]]> http://laenciclopediagalactica.info/?p=2010 2020-10-14T14:51:52Z 2020-10-14T14:51:49Z Al mirar hacia atrás en la historia más antigua de la Tierra, se puede ver cómo tanto el azar astrofísico como la necesidad geológica jugaron un papel crucial. Incluso una pequeña diferencia en la órbita de la Tierra o Theia podría haber cambiado el carácter del sistema Tierra-Luna, pero una vez que ocurrió el gran golpe, se ordenaron las historias de la Tierra y la Luna. La peridotita cristalizó inevitablemente en los océanos de magma que se enfrían en la Tierra. E, igualmente inevitable, la densa peridotita se hundió y fue parcialmente fundida para formar basalto, la roca más abundante en la Tierra.

Las primeras rocas terrestres: Peridotita

Las historias de las primeras rocas de la Tierra provienen de más de un siglo de investigación por parte de petrólogos experimentales, quienes idean técnicas novedosas y construyen laboratorios para calentar y presurizar las rocas en un esfuerzo por reproducir las condiciones del interior profundo de la Tierra. Los petrólogos experimentales se enfrentan a dos desafíos técnicos en su búsqueda por descubrir los orígenes de las rocas.

Primero, necesitan producir y controlar las temperaturas increíblemente altas de la formación rocosa, miles de grados en algunos casos. Para alcanzar temperaturas tan elevadas, los científicos tienen que fabricar un costoso alambre de platino en bobinas meticulosamente espaciadas y luego controlar las corrientes eléctricas extremadamente altas que se requieren para lograr y estabilizar tales temperaturas extremas.

En segundo lugar, lo que hace que este esfuerzo sea mucho más desafiante es que el calentamiento debe realizarse mientras las muestras se someten a presiones de aplastamiento que son decenas o cientos de miles de veces la de la atmósfera. Los investigadores recurren a enormes cilindros hidráulicos para alcanzar y soportar presiones tan inmensas.

Los petrólogos experimentales encuentran que una masa fundida rica en los seis grandes elementos, con proporciones de elementos similares a las que encontramos en rocas como el basalto de roca ígnea negra, típicamente comenzará a solidificarse formando cristales de silicato de magnesio olivino forsterita a temperaturas por debajo de 1900 grados Celsius.

En rocas del tipo que se encuentran en la Tierra, en la Luna y en muchos meteoritos de acondrita, encontramos que hermosos cristales verdes diminutos comienzan a crecer en el magma como semillas microscópicas. Estos pequeños cristales crecen cada vez más a medida que la temperatura se enfría, primero hasta el tamaño de un BB, luego un guisante y luego una uva.

Entonces, aparece un fenómeno realmente interesante que cambia el juego. El olivino es típicamente un poco más denso que el líquido en el que cristaliza, por lo que esos primeros cristales de forsterita comenzaron a hundirse y se asentaron cada vez más rápido a medida que los cristales crecían cada vez más. Finalmente, enormes y profundas masas de cristales de olivino casi puros se acumularon en el fondo de una cámara de magma para formar una impresionante roca verde llamada dunita.

Hoy en la Tierra, esta roca es relativamente poco común. Aparece en grandes cuerpos en la superficie solo cuando las rocas se enfriaron y asentaron bastante cerca de la superficie o cuando las actividades de levantamiento y erosión de construcción de montañas expusieron lo que una vez fue un horizonte profundamente enterrado de este distintivo y profundo acumulado de olivino.

Durante la eliminación continua de los cristales de olivino, los cristales de Mg2, Si y O4 en la masa fundida tienen una composición diferente a la masa fundida, por lo que su eliminación agota la masa fundida en magnesio y silicio y, por lo tanto, aumenta las proporciones de calcio, aluminio y planchar. Cuando el océano de magma comenzó a enfriarse en la Luna hace más de 4 mil millones de años, comenzó a formarse anortita.

Este segundo mineral, el silicato de calcio y aluminio miembro de la familia feldespato común de minerales estructurales, formó cristales en bloques de color pálido. Sin embargo, a diferencia del olivino, la anortita era significativamente menos densa que su líquido huésped, por lo que los cristales de anortita tendían a flotar.

Grandes volúmenes de anortita aparecieron en la superficie del océano de magma de la Luna para formar una corteza gruesa hecha casi en su totalidad de cristales flotantes de feldespato, una roca conocida como anortosita. A pesar de los cientos de millones de años de vulcanismo de basalto subsiguiente, que forman los «mares» oscuros y manchados en la superficie de la Luna, las prominentes acumulaciones de anortosita gris blanquecina todavía dominan el 65 por ciento de la cara plateada reflectante de la Luna.

La Tierra tiene una composición más húmeda que la Luna, y tiene océanos de magma más profundos y, en consecuencia, mayores temperaturas y presiones internas. Una pequeña cantidad de anortita probablemente cristalizó temprano en la historia de la Tierra en algunos ambientes cercanos a la superficie y de baja presión, pero la anortosita era un tipo de roca bastante menor en la Tierra.

En cambio, el segundo mineral de silicato que cristalizó en la Tierra fue la enstatita de piroxeno rica en magnesio, el más común de los minerales de silicato de cadena. La enstatita mezclada con olivino en una espesa capa de cristal, formó cámaras de magma a decenas de kilómetros por debajo de la superficie y se enfrió gradualmente hasta convertirse en el tipo de roca principal más antigua de la Tierra: una roca dura de color negro verdoso llamada peridotita.

Varias variedades de peridotita comenzaron a cristalizar a lo largo de los 80 kilómetros exteriores de la Tierra, diferentes variedades a diferentes profundidades. La producción de peridotita probablemente comenzó hace más de 4.500 millones de años y continuó como un proceso ígneo dominante durante muchos cientos de millones de años.

A pesar de esta prominencia al principio de la historia de la Tierra, la peridotita es relativamente rara en la superficie en la actualidad. Es probable que las balsas de peridotita se endurecieran y enfriaran para formar la primera superficie negra rígida de la Tierra, pero esa corteza era inestable y, por lo tanto, transitoria. Esa inestabilidad surge porque la peridotita en enfriamiento es significativamente más densa que el océano de magma caliente en el que intentó flotar.

En consecuencia, la delgada capa superficial de peridotita se agrietó y se combó, y grandes trozos se hundieron nuevamente en el manto. A medida que las masas de peridotita se hundieron, desplazaron más magma que se enfrió para formar más peridotita de olivino-piroxeno.

De esta forma, una especie de cinta transportadora de peridotita operó en los 80 kilómetros exteriores de la Tierra, quizás durante un lapso de cientos de millones de años. Mediante este proceso, la corteza y el manto superior se solidificaron lentamente. A lo largo de este proceso, la proporción de peridotita sólida densa a magma de silicato líquido aumentó, hasta que el manto superior fue principalmente roca sólida de olivino-piroxeno.

Un escenario similar de enfriamiento y cristalización debe haberse desarrollado más profundamente en el manto, aunque más lentamente. Los petrólogos experimentales aún no están seguros de todos los detalles, pero experimentos más difíciles a presiones y temperaturas más altas revelan que la separación de los cristales de los derretidos tanto por hundimiento como por flotación probablemente fue fundamental en dominios más profundos, al igual que lo fue en entornos superficiales más cercanos.

Mucho de lo que sabemos sobre la composición y estructura del manto superior proviene de estudios sismológicos detallados. Las mediciones exactas de las velocidades de las ondas sísmicas son consistentes con un manto superior dominado por peridotitas que se extiende hasta aproximadamente 400 kilómetros. Esa es la profundidad a la que la presión transforma el olivino en la estructura de wadsleyita más densa, que es el mineral dominante en la zona de transición.

Esta transición de olivino a wadsleyita y, por tanto, de peridotita a rocas más densas, es relativamente aguda. La profundidad exacta de la zona de transición varía entre 15 y 20 kilómetros de un lugar a otro; Por lo general, es más profundo debajo de los continentes que los océanos, por ejemplo.

Primeras rocas terrestres: Basalto

La gran historia de la evolución mineral de la Tierra está enmarcada por una sucesión predeterminada de tipos de rocas ígneas, cada tipo seguido inexorablemente del anterior. La peridotita fue el primer sólido formador de corteza terrestre. Esa fue una fase juvenil crítica pero bastante breve que surgió directamente de la cristalización de olivino y piroxeno del océano de magma primordial bien mezclado.

Esa superficie de peridotita, una vez enfriada y endurecida, era demasiado densa para permanecer en la superficie; rápidamente se hundió de nuevo en las profundidades de la Tierra. Para que una corteza sobreviviera miles de millones de años, tenía que ser resistente, pero también tenía que ser mucho menos densa que la peridotita. La roca ígnea conocida como basalto encajaba perfectamente.

El basalto domina la corteza de todos los planetas terrestres y los oscuros «mares» de la Luna, son llanuras planas y heladas que alguna vez fueron lagos basálticos negros. La Tierra no es diferente. Aproximadamente el 70 por ciento de la superficie, principalmente toda la corteza subyacente a todo el océano, es una capa de basalto de varios kilómetros de espesor.

El basalto se presenta en varias variedades importantes, pero todos los tipos de basalto están dominados por dos minerales de silicato. El primer mineral clave es un feldespato llamado plagioclasa; la anortita es el miembro terminal de calcio de la serie de la plagioclasa, pero el feldespato plagioclasa en el basalto a menudo también contiene una cantidad significativa del miembro terminal de sodio. Debido a su importancia en el basalto y otros tipos de rocas comunes, el feldespato es, con mucho, el mineral que contiene aluminio más importante en los planetas y lunas terrestres, y es el mineral de la corteza terrestre más común.

El segundo mineral de basalto esencial es el piroxeno, el mismo grupo de silicato de cadena común que se encuentra en la peridotita. El piroxeno en la peridotita era enstatita, cercano a la composición de miembro terminal simple MgSiO3. Sin embargo, la estructura de piroxeno es extremadamente adaptable y también puede acomodar muchos otros elementos.

De hecho, el piroxeno es uno de los pocos minerales comunes que comúnmente incorpora los seis grandes elementos. En el basalto, el piroxeno (o piroxenos, porque a veces hay dos tipos diferentes) muestra gran parte del complejo carácter químico del magma a partir del cual se forma.

La peridotita comienza a derretirse a aproximadamente 1100 grados Celsius, aunque la temperatura exacta es bastante sensible al contenido volátil de agua y dióxido de carbono. La composición química de las primeras gotas de fusión difiere significativamente de la de la peridotita a granel. Una diferencia clave es que el líquido de la primera fusión de la peridotita es mucho menos denso que la peridotita misma.

En consecuencia, incluso una pequeña cantidad de derretimiento parcial, tan solo el cinco por ciento, puede producir un derretimiento que se concentra a lo largo de los límites de los granos minerales, se acumula en fisuras y bolsas y se eleva con bastante facilidad hacia la superficie. Ese magma, nada más que peridotita parcialmente derretida, se convertirá en basalto. La producción de basalto mediante la fusión parcial de la peridotita se ha producido de forma continua durante la mayor parte de la historia de la Tierra, generando cientos de millones de kilómetros cúbicos de basalto en el proceso.

Referencias

The Story of Earth

Roberth M. Hazen

Principles of Igneous and Metamorphic Petrology

Anthony Philpotts, Jay Ague

The Evolution of the Igneous Rocks

Norman L. Bowen

Early Earth Systems.

Hugh R. Rollinson

Generation of Basaltic Magma.

H.S. Yoderhttps://www.nap.edu/catalog/19924/generation-of-basaltic-magma

]]>
0
Torjo Sagua http://laenciclopediagalactica.info <![CDATA[Los “Seis Grandes” Elementos de la Tierra Temprana]]> http://laenciclopediagalactica.info/?p=2007 2020-10-12T15:42:11Z 2020-10-12T15:42:06Z El período más temprano de la historia de la Tierra, el acertadamente llamado Hadean Eon, fue una época infernal de incesantes bombardeos de meteoritos y vulcanismo explosivo. La Tierra estaba cubierta de coladas de lava al rojo vivo que se endurecieron hasta convertirse en basalto negro, que es el punto de partida de las superficies de todos los planetas interiores. Como verán en esta entrada, seis elementos dominantes —el oxígeno aceptor de electrones y los donantes de electrones silicio, aluminio, magnesio, calcio y hierro— jugaron papeles fundamentales.

Los Seis Elementos Dominantes

La inevitable diferenciación química de la Tierra fue una consecuencia directa de dos procesos químicos complementarios. Primero fue la fabricación de elementos, el proceso cosmoquímico de la nucleosíntesis. Las estrellas grandes hacen que todos los elementos de la tabla periódica sean más pesados que el hidrógeno y el helio. El segundo proceso químico es la formación de rocas o petrología.

Puede estar integrado en nuestro universo que alrededor de media docena de los más de 100 elementos químicos conocidos estaban destinados a convertirse en dominantes en los planetas rocosos (Todavía tenemos mucho que aprender sobre los planetas rocosos), pero si nos enfocamos en la Tierra, son seis elementos dominantes, y sus números atómicos son (8) oxígeno, (12) magnesio, (13) aluminio, (14) silicio, (20) calcio y (26) hierro.

Si ignoramos el hidrógeno, el helio y el neón, los seis elementos dominantes en la Tierra representan aproximadamente tres de cada cuatro átomos en el sistema solar. Además, gran parte del resto es, en proporciones incluso mayores que las de la Tierra misma, carbono, nitrógeno y azufre, cada uno de los cuales es fundamental para la vida.

Si nos enfocamos solo en los planetas terrestres internos, donde se han eliminado la mayoría de los volátiles, los «seis grandes» elementos tienen un papel aún más importante: constituyen un enorme 97 por ciento de la masa de la Tierra, al igual que lo hacen para la masa de Mercurio, Venus y Marte, y la Luna.

Para la Tierra, los seis grandes clasificados por su contribución a la masa del planeta son los siguientes: hierro y oxígeno, 30 por ciento cada uno; silicio y magnesio, 15 por ciento cada uno; y un poco menos del 2 por ciento cada uno para aluminio, calcio y níquel (aunque una gran parte del níquel se encuentra en el núcleo de la Tierra).

También podemos contar por el número de átomos que aporta cada elemento. Visto en términos de número de átomos, el oxígeno es realmente el rey, ya que representa casi la mitad de los átomos de la Tierra. Le siguen magnesio, silicio y hierro con aproximadamente un 15 por ciento cada uno. El aluminio representa solo el 1,5 por ciento y el calcio es aproximadamente el 1 por ciento.

Cada uno de estos elementos ha jugado un papel clave a lo largo de la historia de la Tierra y cada uno tiene una historia química importante. Los enlaces químicos se encuentran en el corazón de estas historias. La clave del enlace químico es que debe producirse un intercambio de electrones: algunos átomos regalan electrones y otros átomos los aceptan.

Oxígeno

El oxígeno es, con mucho, el elemento más abundante en la corteza y el manto de la Tierra. En la tabla periódica, el oxígeno se encuentra en la octava posición, solo dos lugares a la izquierda del neón, gas inerte. El oxígeno quiere dos electrones más; de hecho, desempeña el papel del aceptor de electrones más voraz de la Tierra. Eso es porque cada átomo de oxígeno contiene 8 protones en su núcleo (De hecho, esa es la definición de «oxígeno»). Esos 8 protones tienen 8 cargas positivas, que generalmente están equilibradas por 8 electrones negativos, pero 10 es el “número mágico” más cercano, y eso significa que el oxígeno está constantemente en busca de 2 electrones adicionales.

Dada nuestra dependencia del oxígeno, es extraño que el octavo elemento sea uno de los gases más corrosivos y químicamente reactivos de la naturaleza. El oxígeno reacciona violentamente con muchas sustancias químicas ricas en carbono. También convierte el metal de hierro brillante en una pila de óxido y descompone rápidamente muchos minerales.

La mayoría de nosotros pensamos, naturalmente, en el papel principal del oxígeno como una parte esencial y vivificante de la atmósfera, pero el oxígeno en la atmósfera es un desarrollo relativamente reciente. Durante más de la mitad de la historia de la Tierra, la atmósfera prácticamente no tuvo oxígeno persistente, e incluso hoy, con una gran cantidad de oxígeno en la atmósfera, el 99,9999 por ciento del oxígeno de la Tierra está bloqueado en los minerales y rocas de la corteza y el manto.

Silicio

El oxígeno no podría desempeñar un papel químico tan crítico como aceptor de electrones en las capas externas de la Tierra si no fuera por varios tipos de átomos que están igualmente ansiosos por regalar o compartir sus electrones. De hecho, los otros cinco elementos de los seis grandes son todos donantes de electrones. El más entusiasta de estos donantes de electrones es el silicio, que representa aproximadamente uno de cada cuatro átomos en la corteza y el manto de la Tierra.

En la tabla periódica, el silicio está en el decimocuarto lugar, justo debajo del carbono. Eso significa que el silicio tiene 14 protones en su núcleo, que pueden equilibrarse con 14 electrones negativos. Pero 14 no es un “número mágico”; 10 o 18, igualmente distantes de 14, son “números mágicos”. Como resultado, el silicio debe formar enlaces químicos.

Los enlaces silicio-oxígeno comparten una cantidad importante de electrones. Como consecuencia, el enlace silicio-oxígeno siempre tiene un componente de covalencia además de ionicidad. Los enlaces resilientes silicio-oxígeno se encuentran en casi todas las rocas de la corteza y del manto y en la mayoría de los minerales.

Los minerales con enlaces silicio-oxígeno son los materiales más comunes de la Tierra, tanto en volumen total como en la gran cantidad de especies diferentes: más de 1300, y contando, porque se descubren más casi todos los meses. Estos minerales, conocidos colectivamente como silicatos, también son muy variados en sus arquitecturas atómicas y en sus propiedades físicas y químicas. Eso se debe a que el enlace silicio-oxígeno es tan versátil en la forma en que puede conectarse con otros átomos.

Aluminio, Magnesio, Calcio y Hierro

El aluminio se encuentra a la izquierda inmediata del silicio en la tabla periódica. En la posición 13, el aluminio tiene tres electrones más de lo ideal, por lo que cumple el papel de otro importante donante de electrones en la corteza y el manto de la Tierra.

El aluminio es mucho menos abundante que el oxígeno o el silicio; solo uno de cada 20 átomos del manto y la corteza promedio es de aluminio. A pesar de esa relativa escasez, el aluminio juega un papel estructural único en muchos de los minerales más comunes: en el grupo de silicatos de cadena de piroxeno, en los grupos de silicato de capa de mica y arcilla, y en feldespato y otros silicatos de estructura.

El magnesio, que se encuentra a la izquierda del aluminio en un espacio y es el elemento 12, representa aproximadamente uno de cada seis átomos de la corteza y el manto. Cada átomo de magnesio quiere deshacerse de dos electrones, por lo que se une fácilmente en una proporción de uno a uno con el oxígeno.

Sin embargo, resulta que el óxido de magnesio puro, MgO, es bastante raro en la naturaleza. Eso se debe a que el magnesio tiende a unirse con el silicio y otros elementos para formar muchos de los silicatos más comunes tanto en la corteza como en el manto. De hecho, se estima que los silicatos de magnesio forman aproximadamente la mitad del volumen de la Tierra, principalmente en los minerales del manto más abundantes: la olivina forsterita; la piroxeno enstatita; el piropo granate; y sus variados equivalentes densos y de alta presión en las profundidades de la Tierra.

El quinto de los seis grandes elementos es el calcio, que representa alrededor del seis por ciento de los átomos de la corteza y el manto. El calcio aparece en la posición 20 de la tabla periódica, por lo que se encuentra inmediatamente debajo del magnesio. Eso significa que el calcio es algo más grande que el magnesio, pero en otros aspectos, es el gemelo químico del magnesio.

Los elementos que se encuentran en la misma columna vertical suelen tener propiedades químicas similares. Entonces, el calcio, como el magnesio, está a dos electrones de un “número mágico”; en el caso del calcio, 18. El calcio quiere deshacerse de 2 electrones, por lo que (como el magnesio) se une al oxígeno en una proporción de uno a uno para producir CaO, la cal mineral. También como el magnesio, es raro encontrar óxido de calcio puro en la naturaleza. El calcio casi siempre se combina con silicio y otros elementos, a menudo como sustituto del magnesio en minerales como olivino, piroxeno, mica o granate.

El hierro es, con mucho, el más versátil de los seis grandes elementos. Eso se debe a que cada uno de los otros cinco elementos (oxígeno, silicio, aluminio, magnesio y calcio) desempeña un papel dominante en la química de las rocas y los minerales. Todos ellos son elementos litófilos por excelencia que adoptan enlaces iónicos y se concentran en la corteza y el manto. El oxígeno casi siempre juega el papel de un aceptor de electrones, mientras que los demás son casi siempre donantes de electrones. El hierro, por el contrario, abarca tres responsabilidades químicas muy diferentes.

A diferencia del silicio, el aluminio, el magnesio o el calcio, el hierro comúnmente se une a otros aceptores de electrones, especialmente al azufre (el oro de los tontos es solo un ejemplo). El hierro también forma fácilmente el metal denso que se hunde hasta el centro de los planetas y forma sus núcleos masivos. En resumen, el hierro es uno de los pocos elementos que comúnmente actúa como elemento litófilo, siderófilo y calcófilo.

Referencias

The Story of Earth

Roberth M. Hazen

An Introduction to the Rock-Forming Minerals.

Deer, Howie, and Zussman

Principles of Igneous and Metamorphic Petrology

Anthony Philpotts, Jay Ague

Minerals: Their Constitution and Origin

Hans-Rudolf Wenk, Andrei Bulakh

]]>
0
Torjo Sagua http://laenciclopediagalactica.info <![CDATA[Más sobre el Fraude Alimentario]]> http://laenciclopediagalactica.info/?p=2003 2020-07-10T01:34:45Z 2020-07-10T01:34:42Z En entradas previas me centrado más en los riesgos y peligros de la inocuidad alimentaria, y poco en el tema de esta entrada, el fraude alimentario. El fraude alimentario se produce cuando la integridad de los alimentos se ve comprometida deliberadamente de alguna manera. La comida puede volverse insegura pero no siempre es ese el impacto. Todavía podría ser apto para comer, pero no de la naturaleza, sustancia o calidad requerida. Las características del fraude alimentario son:

  • Es intencional.
  • Es llevado a cabo con fines económicos.
  • Es ocultado.

La naturaleza intencional del compromiso y su ocultamiento significa que los enfoques tradicionales para el control de los alimentos tienen un valor limitado. La inspección de alimentos generalmente tiene como objetivo identificar los peligros que surgen debido a una mala comprensión o contaminación accidental. La mayoría de los operadores de empresas alimentarias preferirían no vender a sus clientes alimentos contaminados y la legislación refleja ese principio. En el Reino Unido, el incumplimiento de la legislación de inocuidad alimentaria es un delito penal, pero es un delito reglamentario, diseñado para proteger al público de la contaminación involuntaria. El fraude alimentario también se considera un delito, pero la naturaleza deliberada de la acción hace que, en muchos casos, sea moralmente más inaceptable, incluso si no hay riesgo para la salud pública. En su revisión sobre la integridad y la garantía de las redes de suministro de alimentos (Elliott 2014), el profesor Elliott considera que cuando el fraude alimentario se convierte en una actividad organizada, debe definirse como «delito alimentario». Existe evidencia de que sectores de la industria alimentaria han sido blanco de bandas delictivas organizadas que están cometiendo delitos como robo, tergiversación, venta de productos ilegales y lavado de dinero (Van Uhm y Siegel 2016). Como consecuencia, es importante contar con apoyo especializado adicional para los funcionarios encargados de hacer cumplir la ley cuya capacitación, facultades y procedimientos están destinados a detectar y controlar el incumplimiento accidental de la normativa en lugar del crimen organizado. Con ese fin, la Agencia de Normas Alimentarias (FSA – Food Standards Agency) ha establecido una Unidad Nacional de Delitos contra la Alimentación (National Crime Unit) en el Reino Unido cuya primera tarea ha sido establecer una comprensión básica del alcance de la delincuencia alimentaria en Dinamarca, Italia, Alemania y los Países Bajos, que todos han establecido unidades con especialistas para hacer frente a delitos alimentarios. Sin embargo, a pesar de lo reconfortante que sea culpar a los extraños sin escrúpulos, también hay evidencia de que se está produciendo un fraude sistemático dentro de la industria, sancionado o tolerado por el negocio. A este respecto, el fraude alimentario se asemeja al delito profesional o de «cuello blanco» descrito por Dellaportas (2013) donde los contadores utilizaron su conocimiento técnico especializado y su posición privilegiada de confianza para defraudar a clientes y empleadores.

Vulnerabilidad

La industria alimentaria está abierta al fraude por dos razones. La primera es porque, en el mundo moderno, la mayoría de los consumidores adquieren alimentos como resultado de una serie de transacciones comerciales. La industria alimentaria, como se esperaría en cualquier sector manufacturero o minorista, tiene como objetivo obtener ganancias del proceso. Debido a que es una industria grande y vibrante, las sumas involucradas pueden ser importantes. Si bien la gran mayoría de la industria alimentaria está compuesta por negocios honestos y honorables, la oportunidad de ganar dinero ilegalmente también se presentará a las personas con mentalidad criminal, como en cualquier otro sector comercial. La industria alimentaria se basa en una compleja cadena de suministro global que separa a los consumidores de los productores. Este es el segundo aspecto que ofrece potencial para transacciones fraudulentas. Normalmente hay muchas etapas entre el productor primario y la venta final. En cada uno de estas, es probable que los alimentos se procesen, envasen, combinen o cambien de otra manera de tal manera que el comprador no pueda evaluar fácilmente la composición o la calidad. Esto brinda la oportunidad de fraude ya que se minimiza la posibilidad de que se identifique cualquier alteración.

Cuando dicha alteración maximice las ganancias y el estafador crea que no se producirá ninguna consecuencia de la alteración, se crea una vulnerabilidad en el suministro de alimentos. El escenario deriva del estudio de la criminología (Teoría de la actividad rutinaria) (Pustjens et al.2016) que sugiere que se producirá un delito cuando se presente a las personas motivadas un objetivo adecuado en ausencia de controles. El concepto de un triángulo de fraude es similar y utiliza la oportunidad, la motivación y la racionalización como sus tres elementos. Cuando una persona tiene la oportunidad de cometer un acto ilegal, la motivación para hacerlo y puede racionalizar la acción, se producirá un fraude. En el triángulo del fraude, la falta de controles contribuirá al elemento de «oportunidad» (Dellaportas, 2013). Ambas teorías sirven como buenos marcos para examinar las circunstancias que rodean el fraude alimentario.

Oportunidad

Conocimiento Especializado

Al igual que otras industrias manufactureras, la producción de alimentos depende en gran medida de tecnología de ingeniería y personal experto. Este conocimiento especializado puede ayudar a los operadores de empresas alimentarias a identificar oportunidades de fraude que no serían evidentes para los extraños. Con respecto a la inocuidad alimentaria, muchos de los contaminantes comunes han sido investigados y caracterizados. Esto hace posible la identificación y el control, si no siempre es completamente exitoso. Por supuesto, esto no se aplica al fraude donde la elección de contaminante, adulterante o sustituto es lo que el operador de la empresa alimentaria pueda imaginar, acceder e implementar. La combinación de conocimientos especializados con respecto al proceso y el control se demuestra en el incidente de contaminación por melamina en China (Chan et al. 2008). El productor de alimentos combinó la comprensión del proceso de análisis (Pruebas de nitrógeno como indicador de proteína) con el conocimiento de la composición química de la melamina (C3H6N6) y sus propiedades para inventar una forma de “estirar” el volumen de leche que no se detectaría a través de análisis o pruebas organolépticas Al agregar un químico barato, la leche se hizo más rentable. Otro ejemplo de conocimiento especializado (Microbiológico y químico) se demostró, nuevamente con leche, en Brasil. Aquí el objetivo parece haber sido cubrir los altos recuentos bacterianos y extender la vida útil al reducir las bacterias de descomposición. Los productores agregaron peróxido de hidrógeno (H2O2) a la leche para reducir la carga bacteriana y luego, debido a que esto causó un cambio en el pH, demostraron una mayor comprensión de la química al agregar reguladores de acidez (Hoorfar, 2012). Presumiblemente, todos estos productos químicos eran mucho más baratos que comprar los camiones cisterna refrigerados que habrían controlado legalmente el crecimiento microbiano. En su informe sobre fraude contable, Dellaportas (2013) sugirió que la oportunidad, particularmente cuando fue creada por conocimiento técnico especializado y confianza, era el más importante de los tres aspectos en el triángulo del fraude. No hay duda de que esto es relevante para el fraude alimentario. Los fraudes graves mencionados anteriormente y la contaminación de los productos de carne de res con carne de caballo (O’Mahony 2013) se basaron, para su éxito, en un conocimiento crítico del proceso y el producto, así como en la confianza entre el proveedor y el comprador.

Conexiones débiles, controles laxos

Un factor en la decisión de actuar de manera fraudulenta es la probabilidad de descubrimiento. Si el alimento puede verse comprometido de una manera que es difícil o costosa de detectar, se crea una oportunidad. Esto se exacerbará en situaciones en las que haya controles laxos (Industria o gobierno) que permitan ignorar o tolerar el incumplimiento. Las malas normas culturales en una empresa o sector proporcionan una situación propicia para el fraude. Las acciones no controladas como el acoso escolar o la victimización y las malas prácticas (proceso y gestión) crearán un entorno en el que el comportamiento ilícito puede florecer (Dellaportas 2013). Lokanan (2015) afirma que la oportunidad de fraude, y presumiblemente la probabilidad, «aumenta a medida que la estructura de control de la empresa se debilita». Esto sugiere que las empresas caóticas con procedimientos deficientes o con un cumplimiento deficiente de los procedimientos son más vulnerables al fraude. La existencia de delitos anteriores o delitos en otras áreas también se considera un indicador de alto riesgo de fraude (van Ruth et al.2017). Es probable que las empresas con un historial de incumplimiento normalicen la actitud en todas las áreas.

Las empresas alimentarias individuales pueden demostrar controles débiles que crean fraude en un sector que de otra manera cumpliría. Sin embargo, los estándares y normas más generales en un país también pueden predisponer a un sector o producto a un compromiso. Donde hay corrupción endémica, la deshonestidad y la falta de transparencia tienden a crear un entorno similar en la industria alimentaria del país, lo que aumenta el riesgo de fraude. Transparencia Internacional clasifica a 180 países anualmente según los niveles percibidos de corrupción (CPI 2020). Los países con un puntaje que indica altos niveles de corrupción, es decir, un puntaje numérico bajo (0 = extremadamente corrupto, 100 = sin corrupción en absoluto), también tienden a aparecer de manera significativa en las alertas por delitos alimentarios, por ejemplo, la contaminación de especias por el tinte de Sudán y aceite, suministro de carne de monte y miel.

Motivación

La motivación para cometer fraude es una mayor ganancia económica. La universalidad de la industria alimentaria garantiza que haya un gran potencial. Todos comen, creando así, potencialmente, siete mil quinientos millones de oportunidades cada día para que la comida cambie de manos. Solo una proporción muy pequeña de estos intercambios debe ser fraudulenta para que valga la pena desde el punto de vista del estafador, y a menudo solo se necesita una ventaja económica muy pequeña para cada transacción para generar grandes ganancias, dada la gran escala de la industria. La motivación para actuar de manera fraudulenta puede ser el resultado de incentivos o presiones.

La industria alimentaria se basa en la producción primaria. Esto a su vez se ve afectado por las condiciones naturales. El abastecimiento global, que es una característica de la industria alimentaria moderna, mejora la seguridad del suministro al extender el riesgo de abastecimiento, pero no puede eliminar toda variación en la disponibilidad de todos los productos. Los eventos naturales, el clima extremo y los factores políticos pueden reducir la oferta, temporal o permanentemente. Cuando la demanda de un producto excede su oferta, su costo aumentará. Este simple hecho puede crear la presión de adulterar, diluir o sustituir un alimento para mantener la producción en marcha o mantener la rentabilidad.

Incluso sin eventos críticos como cosechas fallidas, puede haber una presión importante dentro de la industria alimentaria que puede fomentar el fraude. Los precios competitivos y los contratos con sanciones estrictas aseguran que el público tenga acceso a una variedad y cantidad incomparable de alimentos asequibles, pero llega un punto en el que es imposible reducir aún más el costo de producir un alimento en particular. Si el comprador continúa presionando para reducir el precio, el productor cerrará o se verá obligado a modificar el producto para que sea más barato de producir (van Ruth et al.2017). Si se elige la segunda ruta, las opciones principales son utilizar ingredientes más baratos, por lo general materiales de calidad inferior, ilegales o alternativos, o «estirar» la producción diluyéndola o “voluminándola”. La tensión financiera de este tipo es un motivador reconocido para cometer fraude en otros sectores (Dellaportas 2013, Lokanan 2015).

Racionalización

El tercer punto del triángulo del fraude es la racionalización. A pesar de la naturaleza comercial de la industria y las muchas oportunidades para cometer fraude alimentario, la mayoría de las personas en el sector alimentario no parecen hacerlo. Según la teoría del triángulo del fraude, además de la oportunidad y la motivación, los estafadores también deben ser capaces de racionalizar su acción ilegal. Según Dellaportas (2013), la racionalización se puede dividir en tres rutas:

  1. Denegación de responsabilidad. Por ejemplo, fue culpa del cliente (minorista) que solo renovaría el contrato a un precio más bajo.
  2. Negación de lesiones. Por ejemplo, el adulterante no dañará a nadie.
  3. Negación de la víctima. Por ejemplo, el consumidor final es desconocido/sin rostro.

Una cadena alimentaria larga y compleja no solo proporciona más pasos, cada uno con el potencial de compromiso, sino que también sirve para desconectar a los productores y consumidores, lo que facilita mucho la negación de la víctima. Los tres aspectos del triángulo de fraude pueden no aplicarse igualmente a la decisión de cometer fraude. En una circunstancia dada, uno podría ser más importante que los otros dos, pero todos deberían estar presentes para que ocurra la actividad ilegal.

Categorías del Fraude Alimentario

Puede ser útil tratar de clasificar los tipos de fraude a los que la cadena alimentaria es vulnerable. Como se trata de categorías artificiales, existe cierta superposición. No es útil discutir si algo es adulteración o sustitución, simulación o tergiversación. El punto de categorización es ayudar a identificar algunas de las formas en que se puede cometer fraude. Si un ejemplo encaja en dos (O incluso más) categorías, eso probablemente significa que es un tema importante y necesita atención.

Adulteración

La adulteración generalmente se refiere a la adición de un ingrediente no reconocido a un alimento. Por lo general, haría que el alimento fuera más barato de producir, haría que un producto no apto pareciera apto para el consumo o haría que un producto de baja calidad pareciera más deseable para obtener un precio más alto. La literatura abunda en ejemplos de adulteración, incluidos los dos casos de leche mencionados anteriormente (Chan et al. 2008, Cardoso et al. 2012). El agua también se puede usar de manera fraudulenta. El uso de exceso de esmalte en el pescado para hacer que el producto sea más pesado o el agua agregada a las aves de corral por la misma razón podría considerarse adulteración. Regar un líquido para extender el volumen también puede necesitar agregar otros adulterantes para aprobar el análisis, como lo demostró Sanlu en el caso de fraude de melamina y leche (Chan et al. 2008). Otro ejemplo de adulteración es la adición de colorantes de Sudán (Ilegales en los alimentos) para mejorar el color del aceite de palma y las especias. Debido a la molienda y mezcla que tiene lugar durante la producción, las especias pueden ser muy vulnerables a la adulteración. Además de los tintes ilegales de Sudán para mejorar el color, el azafrán se puede adulterar con diversos materiales vegetales como la caléndula, el cártamo y la cúrcuma. Las hierbas secas también se someten a un proceso que dificulta la identificación del contenido y se ha descubierto que están adulteradas. El muestreo de orégano realizado en el Reino Unido encontró que el 24% de las muestras estaban adulteradas, más comúnmente con hojas de olivo o mirto.

Sustitución

Estrechamente relacionado con la adulteración está la sustitución. La sustitución es cuando se vende un producto inferior en lugar del artículo más caro. También puede ser una forma de adulteración cuando se usa un producto más barato o alternativo para aumentar el volumen de un alimento al reemplazar parte del ingrediente más valioso. La contaminación de los productos de carne de res del Reino Unido con carne de caballo es un ejemplo ampliamente informado. Fue en gran parte responsable de la comisión de Elliott Review y del mayor enfoque en el fraude en la industria alimentaria del Reino Unido. La miel es otro producto vulnerable. Legalmente, a la miel no se le debe agregar nada. Sin embargo, hay informes en los que se ha encontrado que la miel contiene jarabe de maíz con alto contenido de fructosa, glucosa u otros jarabes de azúcar hechos de remolacha o caña. El hecho de que muchos alimentos se vendan como productos compuestos como pasteles, guisos, pudines y salsas significa que, en el producto final, a menudo es imposible identificar los ingredientes sin un análisis científico. Es improbable que el minorista o el consumidor final detecte durante la fabricación una materia prima más barata, como la pescadilla (Merlangius merlangus), por un material más costoso como el bacalao (Gadus morhua) o el eglefino (Melanogrammus aeglefinus) mediante medios visuales u organolépticos. El diferencial de precios al por menor de aproximadamente USD$6, por kg al momento de la escritura indica el ahorro que se podría hacer al reemplazar parte del bacalao en un producto de pescado con la pescadilla más barata. Las investigaciones en Canadá revelan la sustitución de peces de menor precio por especies más caras que se producen en restaurantes y minoristas (Oceana 2018).

Falsificación y simulación

Las bebidas alcohólicas demuestran el potencial de ambas opciones en esta categoría de fraude. La falsificación es donde los estafadores hacen pasar un producto falso como una marca genuina. El producto falsificado en realidad puede estar en un embalaje genuino que ha sido robado por los delincuentes. HM Revenue and Customs (2017) informó un ejemplo. Se descubrió una fábrica de embotellado que producía vodka que pretendía ser el No 01 Imperial Vodka Blue. La fábrica tenía botellas con etiquetas falsificadas, y los agentes incautaron 1.965 litros de producto. Al fabricar ilícitamente, los estafadores evitaron pagar un estimado de £ 45,000 en impuestos sobre el producto. Dos años antes, HMRC había identificado un establecimiento similar en Cheshire, que producía el mismo vodka falsificado. La Unidad Nacional de Delitos Alimentarios considera que los espíritus son un área de gran preocupación con respecto al fraude y el delito alimentario. Los estafadores evitan pagar impuestos para poder socavar a las compañías legítimas. Además, están haciendo la bebida en condiciones incontroladas que pueden dar lugar a la producción de fluidos altamente tóxicos. Se han informado ejemplos con alto contenido de metanol o adulterados con propanol.

La simulación o «pasar» es donde un producto está hecho para copiar o parecerse a una marca conocida, pero se produce legítimamente. La simulación puede copiar el empaque o la forma, pero de hecho es un producto diferente. Un ejemplo es el Vodkat, una bebida alcohólica hecha por Intercontinental Brands, que era una mezcla de vodka y otros alcoholes, y tenía un estilo muy similar al Smirnoff Vodka. El vodkat era considerablemente más barato que el vodka Smirnoff, principalmente porque tenía un contenido de alcohol más bajo que resultaba en un impuesto más bajo. Diageo, la compañía propietaria de Smirnoff Vodka, inició un prolongado caso judicial contra las marcas intercontinentales que ahora han renombrado su producto V-Kat Schnapps.

Tergiversación

La tergiversación es una categoría grande y potencialmente lucrativa. Existen varios productos en los que el consumidor está dispuesto a pagar una prima por una característica que no puede confirmarse en el punto de venta. Los ejemplos incluyen productos orgánicos, huevos de corral, carne halal y pescado de línea. No se puede probar la autenticidad de tales productos: No existen técnicas analíticas que puedan distinguir las frambuesas orgánicas de las frambuesas que no se cultivan orgánicamente. Lo mismo se aplica al sacrificio de carne halal. La certificación halal es realizada por un organismo de certificación halal (HCB), pero no existe ninguna prueba que distinga la carne sacrificada halal de la no halal. En todos los casos, se depende de la certificación y la confianza en la cadena de suministro. La limitación inherente es que los esquemas de acreditación evalúan la gestión del proceso en lugar de la especificación del producto en sí. La certificación no puede verificar que el producto sea auténtico en ausencia de pruebas independientes. De hecho, puede crear un sector en el que el fraude es más probable ya que los compradores confían en la certificación que puede ser falsificada. La mayor demanda de carne halal en el Reino Unido ha dado lugar a una serie de casos en los que la carne no halal se vendió como halal, aunque generalmente se descubrieron como resultado de la contaminación con especies no declaradas. La investigación posterior sobre la trazabilidad estableció la falta de certificación auténtica y la adulteración.

Los productos con designación especial o protegida también pueden estar en riesgo de tergiversación. De conformidad con el Reglamento 1151/2012 del Consejo, la UE reconoce tres categorías de calidad que los productores pueden solicitar:

  • Denominación de origen protegida (DOP). Esto puede aplicarse donde todos los aspectos de la producción ocurren en la región. Los productos con estado de DOP incluyen aceite de oliva Kalamata, papas Jersey, queso Stilton, Prosciutto di Parma y Parmigiano Reggiano.
  • La Indicación Geográfica Protegida (IGP). Puede aplicarse cuando existe un fuerte vínculo geográfico con un lugar, región o área, pero no toda la producción tiene lugar allí; por ejemplo, algunos ingredientes pueden provenir de fuera de la región. Las empanadas de Cornualles tienen el estado de IGP, al igual que los pasteles de Melton Mowbray.
  • La especialidad tradicional garantizada (TSG). Es una marca que refleja los métodos de producción o composición tradicionales. El relleno tradicional de pastel de cerdo Gloucestershire Old Spots y de manzana Bramley son ejemplos de productos con el estado TSG.

Los productores pueden solicitar a la Comisión Europea la protección de su producto en función de una de estas categorías. La solicitud se evalúa y, si se otorga protección, el productor debe presentar una certificación de terceros de forma regular.

Los productos con designación especial o protegida generalmente tienen una prima de precio o ventaja competitiva sobre los productos no designados. Esto ofrece una oportunidad para que los estafadores falsifiquen productos que parecen similares al producto especial pero que no cumplen. Para algunos alimentos existen técnicas analíticas que pueden ayudar a establecer el origen, por ejemplo, la composición de elementos traza y la relación de isótopos estables pueden evaluar los orígenes de los productos lácteos, aceites, café, té, miel y otros productos, lo que significa que se pueden muestrear y analizar para verificar la autenticidad.

Los alimentos con un suministro limitado pueden correr un riesgo importante de fraude. En circunstancias donde hay una mala cosecha, pero una demanda constante, los productores pueden verse tentados a adulterar o sustituir temporalmente para cumplir con los contratos existentes. La dificultad para cumplir con las expectativas también se aplica cuando la demanda del consumidor aumenta, pero cuando la oferta es limitada o requiere una larga entrada. La miel de manuka es un ejemplo de un producto en el que se aplican ambos problemas, creando oportunidades para una variedad de tipos de fraude, incluida al menos, la adulteración, tergiversación, falsificación y simulación. La miel de Manuka es una miel monofloral producida a partir de una planta particular, el Myrtle de Nueva Zelanda (Leptospermum scoparium), que crece solo en ciertas partes de Nueva Zelanda y Australia. Esta miel tiene propiedades antibacterianas que han demostrado ser efectivas contra varias especies patógenas, incluido S. aureus resistente a la meticilina (MRSA). La miel se usa con fines medicinales en los hospitales, pero también es muy solicitada por el público después de los comentarios en la prensa popular y el respaldo de las celebridades que sugieren que puede conferir una variedad de beneficios para la salud. Producir más para satisfacer la creciente demanda no es una opción rápida o fácil. Las plántulas del Myrtle de Nueva Zelanda tardan entre 8 y 13 años desde la siembra para producir cantidades sustanciales de néctar, incluso en condiciones ideales de crecimiento y luego se debe alentar a las abejas a usarlo (Aparentemente prefieren el trébol). Es difícil establecer exactamente cuánta miel de Manuka se produce, pero según el Ministerio de Industrias Primarias (MPI), la producción total de miel de Nueva Zelanda es de solo 15,000–20,000 toneladas por año. Una pequeña parte de esto es Manuka. Según la revisión de Elliott, 1700 toneladas de miel de Manuka se producen anualmente en Nueva Zelanda, mientras que 1800 toneladas parecen venderse cada año en el Reino Unido (Elliott 2014). La conclusión inevitable es que gran parte del producto vendido en todo el mundo como miel de Manuka debe ser fraudulento. El programa de muestreo FSA 2014–2015 incluyó miel de Manuka, y el 34% de las muestras analizadas resultaron insatisfactorias. Para proteger este valioso producto, en diciembre de 2017, el MPI pudo establecer una definición y un requisito de prueba para la miel de Manuka que ahora se aplicará a todas las exportaciones de Nueva Zelanda. Este nuevo requisito debería ayudar a reducir la venta de miel de Manuka fraudulenta en el futuro.

Productos Ilegales

Los productos pueden ser ilegales por varias razones. Pueden no alcanzar los estándares regulatorios, como los subproductos animales que se venden para consumo humano. También pueden ser ilegales si se producen en un país no regulado. Por ejemplo, los productos de origen animal (POA) que deben importarse a un estado miembro de la UE deben ser originarios de un país que haya sido aprobado para exportar ese producto a la UE. Un país puede ser aprobado para exportar algunos productos de origen animal pero no otros, como Irán. Irán está aprobado para la exportación de productos pesqueros y estómagos, vejigas e intestinos tratados (secciones VIII y XIII del Reglamento CE 853/2004) pero no para cualquier otro POA. Por lo tanto, es posible importar caviar legalmente de Irán, pero no latas de kalleh paacheh (cazuela de cerebro y patas de oveja) u otros productos cárnicos. Algunos productos de alto riesgo que no son de origen animal (PNOAO) también pueden atraer controles adicionales, en ocasiones se les prohíbe la importación. Un ejemplo incluiría la prohibición de importar frijoles secos de Nigeria debido a los altos niveles de diclorvos de plaguicidas en virtud del Reglamento (UE) 2016/874 de la Comisión o la prohibición de importar miel de China en virtud de la Decisión 2002/994 / CE de la Comisión, ahora levantada. El fraude ocurre cuando los productos de un país no aprobado o prohibido se envían por un país aprobado y luego a la UE. La Unidad Nacional de Delitos Alimentarios menciona este proceso con respecto a los productos prohibidos de la India que se transitan a través de los EAU, ocultando así el verdadero origen. Este proceso a menudo se denomina «lavado». El lavado de miel es un problema bien documentado en los EE. UU. con varios tratamientos que se producen, como la filtración del polen, en un intento de ocultar el verdadero origen.

Otra posibilidad para el delito alimentario es cuando los alimentos se producen ilegalmente, por ejemplo, la producción de ahumados. El Reglamento (CE) no 853/2004, anexo III, sección I, capítulo IV (8) exige que las canales de ungulados (excepto los cerdos) destinados al consumo humano sean desolladas después del sacrificio. Los ahumados se producen dejando la piel de las ovejas sacrificadas y quemando la lana. Esto produce una apariencia amarilla en la carcasa e imparte un sabor ahumado a la carne. Es un manjar tradicional en África occidental y en ciudades del Reino Unido como Londres con residentes de origen africano. No existe un riesgo particular para la salud asociado con la producción de ahumados, pero dejar la piel puesta significa que es ilegal comercializar el producto en la UE. La FSA realizó una investigación en 2010 sobre las implicaciones para la salud y descubrió que no había ninguna razón (Aparte del hecho de que contravenía la ley de la UE) de que los ahumados no podían producirse de manera higiénica. La Agencia se dirigió a la CE con vistas a modificar el Reglamento (CE) no 853/2004, pero hasta ahora no parece haber ninguna enmienda que permita la producción de ahumados. Debido a que existe una gran demanda del producto y no hay una forma legal de satisfacer esta demanda, las bandas criminales están aprovechando la oportunidad. Puede haber múltiples problemas asociados con el sacrificio ilegal de carne. Las ovejas no inspeccionadas aún pueden tener un material de riesgo especificado (SRM) adjunto, creando un riesgo potencial para la salud de los consumidores, y es probable que hayan sido sacrificadas, “vestidas” y transportadas en condiciones antihigiénicas sin control de temperatura. También parece haber problemas de bienestar animal, problemas de eliminación de desechos (Subproductos animales) y robo de ovejas asociados con la producción no controlada.

Un producto ilegal con una dimensión internacional es la carne de monte. La carne de Bush es carne salvaje, típicamente originaria de África, y contrabandeada a la UE. Puede comprender animales que no están aprobados para el consumo humano en Europa, muchos de los cuales están en peligro y ninguno de los cuales habrá sido inspeccionado. Chaber et al. (2010) revisaron 29 vuelos (40% del total) desde países de África occidental y central que aterrizaron en París durante una sola semana y descubrieron que el 7% de los inspeccionados transportaban carne de monte. Sobre la base de esta muestra, estiman que aproximadamente 273 toneladas de carne de monte entran anualmente en la UE a través del aeropuerto Roissy-Charles de Gaulle. El comercio del 39% de las especies identificadas estaba prohibido o restringido en virtud de la Convención sobre el Comercio Internacional de Especies Amenazadas de Fauna y Flora Silvestres (CITES – Convention on International Trade in Endangered Species of Wild Fauna and Flora).

La caza furtiva también puede ser un problema para otras especies en peligro de extinción, como el esturión. Cohen (1997) informa sobre un anillo de caza furtiva estadounidense que, durante un período de cinco años, apuntó al esturión blanco, Acipenser transmontanus, en el bajo río Columbia en el estado de Washington. La hueva estaba siendo enviada a la compañía de caviar Hansen en Nueva Jersey. Hubo un doble fraude en este caso. El caviar no solo era ilegal, ya que Acipenser transmontanus es una especie protegida y no se puede cosechar legalmente, sino que algunas de las huevas se etiquetaron nuevamente como caviar beluga o osetra importado antes de venderse. En ese momento, el diferencial de precios entre el caviar estadounidense y la beluga importada se estimó en más de $ 500 por libra, lo que lo convierte en un fraude muy lucrativo. Los expertos estimaron que el anillo había suministrado más de 3,000 libras de caviar con la destrucción de aproximadamente 2,000 peces.

Alimentos en Riesgo

Identificar el fraude alimentario puede ser un desafío. Dado el tamaño y la complejidad de la industria alimentaria y las oportunidades en cada paso, es importante tratar de identificar cualquier proceso o tipo de alimentos que puedan estar en riesgo. A continuación, un resumen de algunas de las características que podrían hacer que los alimentos sean vulnerables al fraude.

1 Alimentos comunes que todos comen. Un gran volumen de ventas significa que un pequeño ahorro por artículo puede generar un aumento sustancial en las ganancias.

2 Alimentos caros o de lujo. Esto es lo opuesto a los alimentos comunes: el producto con un alto precio por unidad solo necesita un pequeño aumento en la cantidad para garantizar un aumento sustancial en las ganancias.

3 Productos con significado especial. Cuando estos son importantes para un grupo particular de consumidores, permite una focalización cuidadosa del producto fraudulento y la explotación del grupo.

4 Tendencia rápidamente emergente, fuente limitada. Los productos que de repente se ponen de moda pueden ser vulnerables cuando el suministro es limitado. Un aumento repentino en la demanda de un producto como el jugo de granada, por ejemplo, donde hay suministros limitados existentes en lugares inaccesibles y nuevos árboles requieren de 3 a 6 años para producir fruta, es probable que esté abierto al fraude. El respaldo de las celebridades al jugo fresco de col rizada, por otro lado, no representaría un desafío para la industria porque la col rizada es un vegetal anual que crece muy fácilmente en el norte de Europa y necesita solo unos pocos meses para madurar.

5 Demanda constante, oferta reducida. Cuando el suministro normal de un producto se interrumpe debido a un desastre natural, una mala cosecha o una inestabilidad política, pero la demanda sigue siendo la misma, se puede crear vulnerabilidad. En el otoño/invierno de 2017, los incendios forestales tuvieron un fuerte impacto en las regiones vitivinícolas de California (Napa Valley, el condado de Sonoma y otras áreas de producción importantes). Los informes sugieren que el daño fue limitado para la cosecha de 2017, pero la evaluación del impacto en la producción futura debe esperar hasta la poda de invierno y el crecimiento de 2018. La oferta limitada en años futuros podría crear una vulnerabilidad potencial.

Controles

El control del fraude alimentario y el delito alimentario no se puede dejar a las autoridades encargadas de hacer cumplir la ley. Debe ser una asociación de cuatro vías que involucre a las autoridades de aplicación, la industria alimentaria, las agencias nacionales y el consumidor. La industria alimentaria necesita liderar el control del fraude. Es víctima de un delito alimentario y también un perpetrador. Las empresas que sin saberlo compran alimentos comprometidos están siendo explotadas y defraudadas. Si se detecta el problema, la empresa asume el costo del retiro del mercado, los costos legales si se producen acciones de cumplimiento y daños a la reputación. Gee et al. (2014) afirman que el fraude alimentario afecta la estabilidad financiera de la industria y hace que los alimentos sean más caros. Consideran 73 empresas de alimentos y bebidas que cotizan en la Bolsa de Londres y sugieren que la eliminación del fraude alimentario podría mejorar su rentabilidad en £ 4,48 mil millones. Estiman que tres de las compañías serían rentables en lugar de generar pérdidas.

Si bien hay ejemplos de grupos delictivos organizados que se dirigen a sectores de la industria, la evaluación de la Autoridad Nacional de Fraude (2013) indicó que el 49% del fraude que ocurrió en el sector privado fue «privilegiado» Si esta proporción es aplicable a la industria alimentaria, significa que la mejor manera de avanzar es desarrollar controles desde dentro. Varios expertos destacan el papel de los altos estándares de cumplimiento, los controles de gestión sólidos, la integridad y el comportamiento ético para reducir la oportunidad de fraude dentro de una empresa. La denuncia de irregularidades también es una herramienta de detección importante para descubrir el fraude interno (van Ruth et al.2017, Elliott 2014) y debe tratarse como una fuente potencial. Algunos inspectores tienden a descartar las quejas internas como un «empleado descontento» y no hacer un seguimiento para determinar si hay alguna sustancia en el informe.

Además de las buenas prácticas generales ya mencionadas, las industrias deben ser proactivas y realizar evaluaciones de vulnerabilidades potenciales. Para ayudar a los operadores de empresas alimentarias, se han desarrollado y publicado varias herramientas de evaluación. Algunos incluyen evaluaciones para otras amenazas, como la acción terrorista. Si bien estas herramientas están destinadas a la industria alimentaria, también son útiles para los inspectores de alimentos. Muchas de las preguntas y sugerencias en las herramientas se pueden usar durante una inspección para evaluar la conciencia del operador del negocio de alimentos sobre la vulnerabilidad al fraude y qué tan bien está controlando el proceso y las materias primas. Algunas de estas herramientas se enumeran a continuación (IMPORTANTE: Varias están desarrolladas para los protocolos de defensa alimentaria, pero pueden apoyar para el desarrollo de mitigación de riesgos al fraude alimentario).

Food Safety Plan Builder: La versión 2.0 de Food Defense Plan Builder (FDPB) es una herramienta fácil de usar diseñada para ayudar a los propietarios y operadores de una instalación de alimentos en el desarrollo de un plan de defensa de alimentos que sea específico para sus instalaciones y pueda ayudarlos a cumplir con los requisitos de Estrategias de mitigación para prevenir los alimentos contra la regulación de la adulteración intencional (21 CFR Parte 121). Este software fácil de usar, aprovecha las herramientas, la orientación y los recursos existentes de la FDA para la defensa alimentaria en una sola aplicación. El uso de este software no es obligatorio por ley y no está obligado a cumplir con la regla de IA. La FDA espera que esta herramienta complemente y no reemplace otra educación, capacitación y experiencia necesaria para comprender e implementar los requisitos de la regla de IA.

SSAFE Food Fraud Tool: SSAFE es una organización sin fines de lucro con miembros de las principales compañías multinacionales de alimentos. La organización ha colaborado con la Universidad de Wageningen y Price Waterhouse Cooper (PWC) para desarrollar una herramienta de evaluación de vulnerabilidad de fraude alimentario en línea. Los operadores de empresas alimentarias que desean utilizar la herramienta se registran y luego completan cincuenta preguntas que siguen un formato de respuesta de opción múltiple. El formato lo es muy accesible. Una vez completado, se le envía al operador del negocio de alimentos un resumen en PDF de las respuestas y un diagrama de telaraña relacionado con las oportunidades, la motivación y las medidas de control. Se puede utilizar para la mayoría de los sectores, pero probablemente atraerá más a las grandes empresas que a las PYME. Según los desarrolladores, está diseñado para apoyar a las empresas que deseen participar en la Iniciativa Global de Inocuidad Alimentaria (GFSI).

TACCP: La FSA, DEFRA y BSI colaboraron para producir la Guía PAS 96:2017 para proteger y defender alimentos y bebidas de ataques deliberados. Esta guía (No es un estándar BSI) utiliza un proceso similar al HACCP para ayudar a los operadores de empresas alimentarias a evaluar las vulnerabilidades en sus negocios. Se puede utilizar para evaluar la vulnerabilidad al fraude y también para la defensa si el operador de la empresa alimentaria lo desea. La ventaja es que se basa en principios que ya son familiares para muchos operadores de empresas alimentarias, como diagramas de flujo, evaluación de prioridad (Riesgo) a través de la evaluación del impacto y la probabilidad del evento, y el desarrollo de controles apropiados según sea necesario.

Food Authenticity by Food and Drink Federation: La Food and Drink Federation (FDF) ha desarrollado y publicado un plan de cinco pasos que ayuda a las empresas a evaluar las vulnerabilidades al fraude y considerar los cambios necesarios para proteger a la empresa. Comienza con el mapeo de su cadena de suministro, luego identifica los problemas, evalúa los riesgos y planifica los controles. El quinto paso es la implantación, incluida la revisión. La guía utiliza preguntas sencillas que los operadores de empresas alimentarias podrán responder rápida y fácilmente a partir de su conocimiento del negocio. No necesita ningún equipo especializado y el lenguaje es práctico y claro. Ofrece un marco que se centra en aspectos clave que podrían crear una oportunidad para el fraude. No es específico del sector y es apropiado para las PYME.

Guidance on the Authenticity of Herbs and Spices:  Esta guía está alojada en el sitio web de FDF, pero es el resultado de la colaboración entre FDF, British Retail Consortium (BRC) y Seasoning and Spices Association (SSA). Proporciona orientación en forma de un árbol de decisión que ayuda a los operadores de empresas alimentarias en el sector de las especias y las hierbas a identificar posibles vulnerabilidades. Hay orientación sobre medidas de control, ejemplos de adulterantes comunes y métodos de prueba que se pueden utilizar para identificar o autenticar productos, nombres de especies y cuadros de cosecha, incluidos los países de origen. Es especializada pero valioso para un sector de alto riesgo.

Hay una serie de problemas que dificultan el control de los fraudes y delitos alimentarios para las autoridades alimentarias. Una cuestión muy importante es lo que podría llamarse el «aspecto salvaje». Los controles de inocuidad alimentaria están diseñados para abordar los peligros conocidos que se han caracterizado y descrito. Con el fraude alimentario y el delito alimentario, las autoridades competentes están lidiando con lo que Manning y Soon (2014) llaman «incógnitas desconocidas». Solo los estafadores saben lo que se le ha hecho a la comida y se esfuerzan mucho por ocultarla. Por lo tanto, una alteración creada a través del conocimiento especializado y diseñada para que no se detecte debe ser identificada por un extraño cuya capacitación es para tratar el incumplimiento accidental de la higiene. Este es ciertamente un desafío para los inspectores. Probablemente la forma de abordarlo es continuar haciendo lo que los inspectores hacen mejor: Hacer preguntas curiosas y continuar hasta que la respuesta tenga sentido. Presumiblemente, Sanlu tuvo que recibir entregas de melamina para mezclarla con su leche y se habría almacenado en algún lugar, medido en algo y agregado de alguna manera al producto. Aunque si una empresa llegara a los extremos expuestos por Sun Up Foods, podría ser difícil de detectar incluso para el inspector más diligente. Se descubrió que Sun Up Foods diluía sistemáticamente su jugo de naranja «sin azúcar» con un 10–20% de azúcar de remolacha. Construyeron tuberías ocultas y puertas secretas en tanques de retención, aceptaron entregas del azúcar líquido solo en medio de la noche y falsificaron las facturas para enumerar el ingrediente entregado como «concentrado de naranja» (GAO 1995).

Para abordar con éxito el fraude y la delincuencia alimentaria, las agencias nacionales, deberán apoyar a los funcionarios locales con inteligencia. Algunos provendrán del escaneo del horizonte y las redes internacionales, pero una fuente esencial de información es la industria alimentaria. El desafío es encontrar una manera de compartir los resultados del muestreo y las auditorías de una manera que proteja a las empresas que cumplen con las normas pero que deje a los estafadores expuestos. Eso ayudará a enfocar la aplicación y la entrega de controles donde sea más efectivo.

Referencias

2014 Elliott Review into the Integrity and Assurance of Food Supply Networks – Final Report

Professor Chris Elliott

2016 The illegal trade in black caviar

Daan P. van Uhm

2013 Conversations with inmate accountants: Motivation, opportunity and the fraud triangle.

Steven Dellaportas

2016 Food Fraud and Authenticity: Emerging Issues and Future Trends

Annemieke M.Pustjens, YannickWeesepoel, Saskia M.van Ruth

2008 Public-health risks of melamine in milk products

Chan et al.

2012 Case Studies in Food Safety and Authenticity: Lessons from Real-Life Situations

Jeffrey Hoorfar

2015 Challenges to the fraud triangle: Questions on its usefulness

Mark E. Lokanan

2017 Food fraud vulnerability and its key factors

Saskia M.van Ruthab, WimHuismanc, Pieternel A.Luning

Corruption Perceptions Index – Transparency International

2018 Seafood fraud and mislabelling across Canada

Oceana Website

REGLAMENTO (UE) No 1151/2012 DEL PARLAMENTO EUROPEO Y DEL CONSEJO

Diario Oficial de la Unión Europea

]]>
0
Torjo Sagua http://laenciclopediagalactica.info <![CDATA[Covid-19 e Inocuidad Alimentaria]]> http://laenciclopediagalactica.info/?p=1999 2020-07-08T00:15:52Z 2020-07-08T00:15:49Z En los países en desarrollo, un gran número de consumidores compra sus alimentos directamente en los mercados informales por muchas razones, que incluyen disponibilidad, frescura y precios bajos. Además, los mercados informales de alimentos tienen una doble función: Alimentar a las personas y proporcionar salarios dignos. Sin embargo, los mercados informales casi siempre están asociados con una mala regulación de la inocuidad alimentaria y un bajo nivel de higiene. Se cree que la pandemia de la enfermedad por coronavirus (COVID-19) comenzó en un mercado informal de alimentos, el Mercado Mayorista de Mariscos Huanan en Wuhan, China.

COVID-19 ha impactado dramáticamente cada componente de la vida diaria. A partir del 1 de julio de 2020, hay 10,507,983 casos de COVID-19, y 512,071 personas han muerto en todo el mundo. Antes de COVID-19, había más de 135 millones de personas experimentando problemas agudos de inocuidad alimentaria. Millones más caerán en la pobreza extrema y el hambre en 2020. Además, la pandemia ha costado al mundo billones de dólares. Según el Programa de Desarrollo de las Naciones Unidas, más de 40 millones de personas serán empujadas a la pobreza extrema debido a los shocks económicos derivados del crecimiento de COVID-19.

En el contexto de lograr una recuperación económica y de salud rápida y apropiada de la crisis de COVID-19, los gobiernos, las organizaciones de salud pública, las organizaciones de desarrollo, la academia, las instituciones de investigación, la sociedad civil y los profesionales individuales han desarrollado orientación técnica, políticas, regulaciones, estándares, informes y artículos científicos. Por ejemplo, se estima que se han publicado más de 25,000 artículos en COVID-19 desde enero de 2020. Las organizaciones internacionales también han realizado reuniones virtuales, seminarios, talleres, seminarios web y conferencias para educar al público.

De hecho, el brote pandémico de COVID-19 ha puesto en primer plano el aspecto de la inocuidad alimentaria, el saneamiento y las buenas prácticas de higiene. La pandemia de COVID-19 ha hecho que los consumidores estén más preocupados por la inocuidad de los alimentos en los mercados informales, lo que ha producido un aumento en el deseo de pagar voluntariamente más por alimentos más inocuos en estos mercados. También se ha registrado que los brotes transmitidos por alimentos han disminuido recientemente en algunos países debido a COVID-19. Por ejemplo, según el Instituto Finlandés de Salud y Bienestar, entre marzo y mayo, se informaron cuatro brotes sospechosos transmitidos por alimentos, en comparación con un promedio de 18 en años anteriores. La pandemia de COVID-19 también ha cambiado positivamente el comportamiento del consumidor. En una encuesta, alrededor del 78 por ciento de los encuestados indicó que su actitud con respecto a la higiene de los alimentos ha cambiado. Alrededor del 70 por ciento indicó que ahora son más cuidadosos al lavarse las manos y limpiar las superficies después de manipular y desempacar alimentos. Alrededor del 40 por ciento de las personas son más cuidadosas con respecto al lavado de frutas y verduras sin envasar que antes, y el 37 por ciento de esas personas también creen que todos deberían usar desinfectante para manos al ingresar a una tienda donde se venden alimentos.

Es importante aprovechar el cambio de comportamiento sin precedentes resultante del brote de la pandemia COVID-19 y acelerar las iniciativas de inocuidad alimentaria en todo el mundo. Afortunadamente, el tema del segundo Día Mundial de la Inocuidad Alimentaria de las Naciones Unidas, que se celebró el 7 de junio, fue el mismo que el tema del año pasado: «La inocuidad alimentaria es asunto de todos». Por lo tanto, los gobiernos deben garantizar alimentos inocuos y nutritivos para todos. La industria alimentaria debe adoptar buenas prácticas y asegurarse de que los alimentos sean inocuos; la población mundial no debería conformarse con que el acceso a la alimentación sea un derecho humano, sino que el acceso a la alimentación segura sea un derecho humano. Los consumidores deben ser más conscientes de sus elecciones alimentarias, y deben exigir alimentos seguros, saludables y nutritivos.

Todos debemos aprender del brote pandémico de COVID-19. Los países en desarrollo deben invertir más en establecer/mejorar sus sistemas nacionales de inocuidad alimentaria. Los sistemas nacionales de inocuidad alimentaria deben tener la capacidad de producir y comercializar alimentos de manera segura. Los países en desarrollo deberían concentrar sus limitados recursos y esfuerzos en mejorar y modernizar los mercados informales. Los países en desarrollo deberían utilizar un enfoque basado en el riesgo y un análisis de la causa raíz para identificar los peligros más importantes en los alimentos. Los formuladores de políticas y las autoridades reguladoras deben desarrollar la capacidad para prevenir, reducir y controlar estos peligros para mejorar la inocuidad alimentaria en los mercados informales. Los países desarrollados deberían ayudar a los países en desarrollo a fortalecer sus sistemas nacionales de inocuidad de los alimentos, especialmente los relacionados con los mercados informales de alimentos.

Implantando una Cultura Covid-19 en la “Nueva Normalidad”

La enfermedad por coronavirus (COVID-19) tomó el centro del escenario aparentemente durante la noche. Las empresas e instituciones de todo tipo se apresuraron a reaccionar ante la dinámica rápidamente cambiante del SARS-CoV-2, el virus que causa COVID-19. Agregue las órdenes ejecutivas presidenciales, las órdenes estatales de refugio en el lugar e incluso algunas ordenanzas locales, y lo mejor que podría hacer es reaccionar y responder a esta crisis en constante cambio.

Hoy, estamos pasando de la reacción a la planificación proactiva para mitigar y gestionar el riesgo en los lugares de trabajo y las comunidades. Estamos entrando en la «nueva normalidad».

Esta nueva normalidad aún es difícil de predecir. Revela paralelos a los principios de control de riesgos de inocuidad alimentaria, como lo demuestra la necesidad de identificar e implementar estrategias de control de COVID-19 y desarrollar una cultura de COVID-19.

Las agencias gubernamentales han establecido un conjunto bastante claro de estrategias que son importantes para minimizar el riesgo de transmisión de COVID-19 entre las personas en las instalaciones de procesamiento de alimentos. Los desafíos son la implantación y la documentación consistentes.

Las actividades de verificación deben identificarse en su plan y documentarse para demostrar que está haciendo lo que dijo que haría en su plan COVID-19.

Los controles preventivos descritos en la Ley de Modernización de la Inocuidad Alimentaria, junto con una copiosa guía de agencias federales, departamentos de salud estatales y locales y asociaciones específicas del sector, allanan el camino para que las compañías de alimentos desarrollen un plan de control COVID-19. Ahora que tenemos una hoja de ruta, ¿Cómo hacemos para que nuestros empleados se abrochen los cinturones de seguridad e impulsen nuestros planes?

¿Qué sería una cultura Covid-19?

La cultura organizacional, tal como se aplica a la industria alimentaria, suele ser doble. Existe la cultura corporativa: La forma en que la alta gerencia y los empleados interactúan, el uso de la tecnología y el nivel de riesgo que la empresa está dispuesta a asumir. Luego está la cultura de inocuidad de los alimentos, específica de cómo la empresa integra, apoya y recursos la inocuidad de los alimentos, y la adopción general de la inocuidad de los alimentos como responsabilidad de todos.

Una importante investigación realizada en la última década en la cultura de inocuidad alimentaria revela paralelos con la creación de una fuerte cultura COVID-19. Está claro que la cultura extrae su poder de creencias y valores tan fundamentales como hacer lo correcto cuando nadie está mirando.

También se puede usar un modelo de madurez para evaluar su estado actual (Dónde se encuentra ahora) e identificar el estado futuro deseado (Su destino deseado). Los modelos de madurez son herramientas útiles para ayudarlo a navegar los inevitables baches y desvíos en su camino hacia controles COVID-19 continuos y sistemáticos. Estos modelos suponen una progresión natural que refleja la intuición humana, comenzando con la duda o la negación completa, a la reacción, luego a un cierto nivel de búsqueda proactiva de conocimiento, a un comportamiento empoderado y predictivo, llegando finalmente a una internalización sistemática de los comportamientos y resultados deseados. Se alienta a las compañías de alimentos a crear un plan de control COVID-19 por escrito identificando los riesgos e implementando controles de mitigación, con procedimientos para el monitoreo, verificación, acciones correctivas y procedimientos que cumplan con las leyes, regulaciones y requisitos de retención de registros aplicables. Evaluar su cultura COVID-19 e implementar esfuerzos para mejorarla utilizando estrategias simples o modelos de madurez más completos son consejos útiles para ayudar a apoyar su programa de control COVID-19.

]]>
0
Torjo Sagua http://laenciclopediagalactica.info <![CDATA[Intervenciones para Inhibir o Inactivar Bacterias Patógenas en Alimentos]]> http://laenciclopediagalactica.info/?p=1989 2020-06-30T22:21:44Z 2020-06-30T22:21:42Z Las características de un producto alimenticio que lo hacen aceptable para el consumo varían entre las poblaciones del mundo. Una característica que es globalmente aceptada por todas las poblaciones es que los alimentos deben estar libres (O casi libres) de patógenos humanos. Para controlar los microorganismos patógenos, los humanos han ideado varios métodos de intervención que inhiben el crecimiento o inactivan microorganismos. La efectividad del método de intervención no solo depende del método sino también del microorganismo objetivo, el medio ambiente y las características del producto alimenticio.

Factores Microbianos

Uno de los factores que afectan la susceptibilidad de los microorganismos a los métodos de inhibición o intervención son las características de los propios microorganismos. Por ejemplo, hay cinco grupos principales de microorganismos que son preocupantes en los alimentos: Bacterias, mohos (También conocidos como hongos), levaduras, protozoos (También conocidos como parásitos) y virus. Una diferencia importante entre los grupos es que las bacterias, los mohos y las levaduras pueden reproducirse en un alimento dado si las condiciones son propicias para el crecimiento. En contraste, los protozoos y los virus generalmente no se reproducen en los alimentos. Los protozoos y los virus deben infectar a un huésped vivo, replicarse y excretarse en un ambiente donde pueden contaminar un alimento y luego re-infectar un huésped. Por lo tanto, aunque los protozoos y los virus no se replican en los alimentos, aún deben inactivarse para prevenir enfermedades.

Algunas bacterias Gram-positivas de los géneros Bacillus, Clostridium, Alicyclobacillus, Desulfotomaculum, Geobacillus y Sporolactobacillus son capaces de producir esporas. Las esporas son una etapa latente de un microorganismo y son más resistentes que las células vegetativas a los tratamientos de inactivación como el calor, los antimicrobianos y la irradiación. La superficie externa de las esporas se compone de dos capas distintas: Una capa de peptidoglucano que forma la corteza de las esporas y una capa externa que está compuesta de proteínas que ayudan a la exclusión de compuestos que pueden degradar la capa. También se ha encontrado que los perfiles de ácidos grasos difieren en estados vegetativos y de esporas, con bacilos formadores de endosporas que tienen mayores proporciones de ácidos grasos saturados de cadena ramificada en las esporas (Song et al. 2000). La espora también tiene un menor contenido de agua, lo que ayuda a la supervivencia durante los tratamientos con calor (Setlow 1995). Estas propiedades les han dado a las bacterias formadoras de esporas la capacidad de sobrevivir a muchas condiciones difíciles y germinar a un estado vegetativo cuando mejoran los nutrientes u otras condiciones ambientales.

Factores Ambientales

Las condiciones ambientales o de almacenamiento experimentadas por los microorganismos y su respuesta a esas condiciones pueden influir en la susceptibilidad de los microorganismos al proceso de intervención. Estos factores ambientales se conocen como factores extrínsecos, y los dos más importantes son la temperatura y la atmósfera.

Los microorganismos pueden clasificarse por las temperaturas óptimas a las que pueden crecer: Psicrófilos, psicrótrofos, mesófilos y termófilos. Los psicófilos son organismos que prosperan en ambientes fríos y tienen un rango de crecimiento de −5°C a 35°C. Su rango de crecimiento mínimo es de −5°C a 5°C, el óptimo de 12–15°C y el máximo de 15–20°C. Estas especies son principalmente de origen marino, y muy pocas son importantes para los alimentos, excepto posiblemente para el deterioro de los alimentos marinos. El término psicrótrofo (De «psicro» que significa «frío» y «trófico» que significa «alimento» o «alimento») se usa para describir aquellos microorganismos que crecen relativamente bien a 7°C o menos y tienen temperaturas óptimas de 20-30°C (Jay et al. 2005). Ejemplos de estos organismos son los patógenos transmitidos por los alimentos Yersinia enterocolitica y Listeria monocytogenes, las bacterias de descomposición Pseudomonas, así como las levaduras y mohos. La categoría en la que se encuentran la mayoría de los patógenos humanos y animales y la mayoría de los microorganismos de descomposición de los alimentos son los mesófilos («meso» significa «medio» y «phile» significa «amor»). Su rango de crecimiento mínimo es de 5–15°C, el óptimo de 30–45°C y el máximo de 35–47°C. Ejemplos de estos patógenos en el grupo son Escherichia coli, Salmonella, Clostridium botulinum y Staphylococcus aureus. Los termófilos (“termo” que significa “caliente” y “phile” que significa “amor”) son los microorganismos que pueden crecer a las temperaturas más altas. Su rango de crecimiento mínimo es 40–45°C, el óptimo 55–75°C y máximo 60–90 ° C. La importancia principal de los termófilos para la microbiología de los alimentos es que pueden ser una fuente de deterioro y, a menudo, son formadores de esporas. Estos organismos son de interés en la industria conservera; Algunos ejemplos incluyen Thermoanaerobacterium thermosaccharolyticum y Geobacillus stearothermophilus.

Los microorganismos pueden clasificarse según los requisitos atmosféricos para su proliferación. Los microorganismos que requieren oxígeno se llaman aerobios estrictos. Algunas bacterias (p. Ej., Pseudomonas) y la mayoría de los mohos son aerobios estrictos. Esto es importante porque eliminar el aire evitará su crecimiento. Por lo tanto, el envasado al vacío de alimentos o el uso de envases herméticamente cerrados (Por ejemplo, en latas de metal) evitarán el crecimiento de aerobios estrictos. Los anaerobios facultativos comprenden el grupo más grande de microorganismos relacionados con los alimentos. Son capaces de crecer con o sin oxígeno presente. Los anaerobios estrictos no pueden crecer en presencia de oxígeno. Estos organismos no requieren el uso de oxígeno como aceptor final de electrones en la cadena de transporte de electrones durante la respiración celular. Por lo tanto, las atmósferas anaerobias permitirán el crecimiento de anaerobios facultativos y estrictos. Algunos patógenos transmitidos por los alimentos, así como los microorganismos de descomposición, pueden sobrevivir en atmósferas anaeróbicas, como Clostridium. El dióxido de carbono como atmósfera tiene efectos variables sobre el crecimiento y la supervivencia microbianos y puede estimular, inhibir o no tener impacto en el crecimiento (Daniels et al. 1985; Taniwaki et al. 2009).

Factores Intrínsecos

Las propiedades que influyen en la susceptibilidad aportada por las propiedades de los alimentos se denominan factores intrínsecos. Los más importantes para la inhibición e inactivación del crecimiento son el pH, el potencial de oxidación-reducción, la actividad del agua y las sustancias inhibidoras.

El pH de un producto alimenticio influye tanto en el crecimiento microbiano como en la supervivencia. El pH se expresa en una escala log 10 y se define como pH = −log [H+]. El pH es la medida de la acidez o alcalinidad en un ambiente. Los rangos generales de pH para el crecimiento de varios tipos de microorganismos se muestran en la siguiente Tabla. Sin embargo, hay organismos que pueden tolerar un pH fuera de estos rangos. Por ejemplo, Lactobacillus (3.0–4.4) y Acetobacter (2.8) pueden tolerar rangos de pH más bajos. Algunas bacterias proteolíticas pueden crecer a un pH máximo más alto porque durante el crecimiento producen aminas para amortiguar el pH alto.


Tabla 1 Rangos de pH para la Proliferación de Microorganismos

El pH de un sistema alimentario a menudo determinará el tipo de microorganismo que crece en un alimento. Los alimentos con pH neutro permitirán que las bacterias se reproduzcan más rápido, mientras que los alimentos ácidos permitirán una proliferación más rápida de levaduras y mohos. El crecimiento de microorganismos está influenciado tanto por el pH inicial como por la capacidad de amortiguación de los alimentos. La capacidad de amortiguación se puede definir como la resistencia de un alimento a los cambios de pH. Cuanto mayor es la capacidad de amortiguación, más resiste el producto alimenticio a los cambios de pH con la adición de un ácido o una base. La capacidad de amortiguación en los alimentos con una alta concentración de carbohidratos es baja, mientras que, en los alimentos con altas proteínas, como la carne o la leche, la capacidad de amortiguación es alta.

La oxidación es la pérdida de electrones y la reducción es la ganancia de electrones. En general, el potencial de oxidación-reducción (Eh) es la capacidad de un sustrato para ganar o perder electrones y se mide en milivoltios (mV). Eh se puede medir con un electrodo de platino usando un medidor de pH y se calcula mediante la siguiente ecuación: Eh = E0 + RT/nFln[ox] / [rojo] (E0 = potencial de electrodo estándar, n = número de electrones en semirreacción, R = constante de gas universal, F = constante de Faraday y T=K). Los alimentos que están más altamente oxidados tendrán un potencial eléctrico positivo, y aquellos que se reduzcan tendrán un potencial eléctrico negativo. Los microorganismos aerobios requieren valores Eh positivos y los anaerobios requieren valores Eh negativos. Los rangos de Eh necesarios para el crecimiento de bacterias se pueden encontrar en la Tabla 2. El crecimiento de microorganismos también puede influir en la Eh de un producto alimenticio. Los aerobios pueden reducir el potencial de oxidación-reducción de un producto alimenticio y pueden reducir Eh a través de la siguiente reacción química:

½O2 + 2H+ + 2e → H2O


Tabla 2 Rangos del Potencial de Oxidación Reducción requeridos para la proliferación de microorganismos

Los alimentos de origen vegetal tienen valores de Eh alrededor de +400 mV. Los quesos tendrán un rango de −20 a −200 mV (Banwart 1979). La Eh de la carne cambiará durante el procesamiento: el Prerigor es de +250 mV, el postrigor de +10 a −130 mV y la carne molida de carne +300 mV (Jay et al. 2005).

La actividad del agua (aw) es una medida del agua disponible para el crecimiento microbiano. Se define como el equilibrio de humedad relativa de un producto alimenticio; la escala para la actividad del agua es de 1.0 (agua pura) a 0. El crecimiento microbiano se ve afectado por la aw, ya que, con una actividad de agua reducida, hay menos agua disponible en la célula para que el microorganismo la use en procesos bioquímicos. El aw de un producto alimenticio depende de los solutos presentes en un sistema alimentario y su interacción con el agua. Los solutos más comunes utilizados para reducir la actividad del agua son el azúcar o la sal, pero otras sustancias también pueden reducir la actividad del agua, como los polioles (Por ejemplo, el xilitol). Por lo tanto, los constituyentes de la matriz alimentaria juegan un papel importante en la aw. La actividad del agua para varios alimentos se puede encontrar en la siguiente tabla, mientras que la aw mínima para patógenos específicos transmitidos por los alimentos se puede encontrar en la tabla posterior.


Tabla 3 Actividad de Agua de Varios Alimentos.

Tabla 4 Actividad de Agua mínima para la supervivencia de algunos patógenos alimentarios.

La aw mínima para el crecimiento bacteriano es generalmente de 0,90 a 0,91, pero Staphylococcus aureus puede sobrevivir y crecer en alimentos con una aw tan baja como 0,83. En general, las levaduras deben tener una aw superior a 0,87–0,94, pero algunas especies osmotolerantes crecen en una aw tan bajo como 0,60. Los mohos pueden crecer en alimentos con la actividad de agua más baja, 0.70–0.80; Xeromyces es una especie de moho que puede crecer en una aw tan baja como 0.60. La actividad del agua puede usarse como un método efectivo para prevenir el crecimiento de microorganismos en los alimentos.

Algunos alimentos también tienen sustancias inhibidoras o antimicrobianos naturales (Davidson et al. 2005). Por ejemplo, la albúmina de huevo contiene la enzima lisozima, que altera las paredes celulares de las bacterias grampositivas hidrolizando los enlaces glucosídicos del ácido N-acetilmurámico y la N-acetilglucosamina en la capa de peptidoglucano, avidina, que une la vitamina biotina, conalbúmina, que ata el hierro y los inhibidores de la proteasa, que inhiben la degradación de las proteínas. Todos estos compuestos actúan en conjunto para inhibir el crecimiento microbiano. La leche cruda también contiene lisozima y el sistema lactoperoxidasa, que requiere la interacción de la enzima lactoperoxidasa, tiocianato y peróxido de hidrógeno para producir el hipotiocianato antimicrobiano. La lactoferrina también está presente, que secuestra el hierro necesario para el crecimiento microbiano similar a la conalbúmina que se encuentra en los huevos.

Las especias también contienen antimicrobianos, que son componentes de los aceites esenciales y a menudo son de naturaleza fenólica. Los compuestos antimicrobianos derivados de especias más activos se encuentran en la canela (aldehído cinámico), el clavo (eugenol), el orégano (carvacrol) y el tomillo (timol). Las cebollas, el ajo y el rábano picante también contienen muchos antimicrobianos que contienen azufre. Por ejemplo, el ajo contiene alicina (dialiltiosulfonato), que se genera a partir de la interacción de aliina con alinasa. Los arándanos y otras bayas también contienen muchos compuestos fenólicos antimicrobianos, como el ácido benzoico. El lúpulo se utilizó por primera vez en la producción de cerveza por sus propiedades antimicrobianas de los compuestos lupulona y humulona. Las aceitunas contienen glucósidos fenólicos, y el quitosano antimicrobiano se puede extraer de los camarones, la langosta y los hongos.

Ahora sí, las intervenciones

Cuando se discuten las intervenciones que se pueden aplicar a los sistemas alimentarios, hay dos categorías principales en las que caen los sistemas: Inactivación e inhibición. La inactivación se logra cuando ocurre la muerte microbiana, mientras que la inhibición ocurre cuando el crecimiento microbiano se ralentiza o se detiene.

Inactivación

El calor es la intervención más efectiva y una de las más utilizadas para inactivar microorganismos en los alimentos. El calor se usa para procesos comerciales diseñados para preservar alimentos y se usa en el hogar en general para preparar alimentos. Los procesos comerciales pueden clasificarse como aquellos que producen productos comercialmente estériles o aquellos que pasteurizan productos. Los productos comercialmente estériles son estables o pueden almacenarse en condiciones no refrigeradas sin estropearse. La pasteurización crea productos que generalmente necesitan una segunda condición de conservación (Por ejemplo, refrigeración) para una vida útil prolongada. El calor también se usa en la industria alimentaria para otros procesos, como el escaldado de verduras o la desinfección con vapor de los cadáveres de carne, pero estos son procesos mucho menos definidos. En el hogar, cocinar con calor usando estufas, hornos y hornos de microondas también mata los microorganismos. Al igual que con algunos procesos comerciales, los métodos domésticos de calefacción a menudo no están bien definidos o descritos.

Para determinar la efectividad de un proceso de preservación del calor, uno debe conocer la resistencia al calor del microorganismo objetivo. Se utiliza una evaluación de la resistencia microbiana al calor para determinar la cantidad de calor que se debe aplicar durante un tiempo determinado para inactivar un microorganismo específico. El tiempo de reducción decimal (valor D) es el tiempo en minutos necesario para inactivar el 90% de la población microbiana a una temperatura constante y se representa gráficamente mediante una curva de supervivencia. Estas curvas pueden establecerse exponiendo una población conocida de microorganismos a una temperatura constante, monitorizada por termopares en tubos térmicos de tiempo de muerte, latas o tubos capilares, y determinando el número de sobrevivientes durante varios períodos de tiempo. Un valor D se calcula a partir de la curva de supervivencia y es DT = -1/pendiente de la curva de supervivencia, que es la resistencia al calor de un microorganismo a una temperatura específica. Por ejemplo, D250 es el tiempo (min) necesario para reducir una población de un microorganismo específico 1 log10 (90%) a 250°C. Los valores D para un microorganismo son función no solo de la temperatura y el tiempo, sino también de las condiciones de calentamiento y recuperación utilizadas para determinar los sobrevivientes de un proceso térmico.

El efecto de la temperatura en la supervivencia se puede mostrar trazando el log10 de los valores D frente a la temperatura para crear una curva de tiempo de muerte térmica (TDT –  Thermal Death Time). La curva TDT se puede usar para calcular un valor z, que es el número de grados (Fahrenheit o Celsius) que causan un cambio del 90% en el log D. El valor D permite expresar la resistencia al calor a una sola temperatura, mientras que la curva TDT mide la resistencia a varias temperaturas.

El valor F es el número de minutos a una temperatura dada necesaria para destruir una población homogénea de microorganismos. La ecuación para el valor F es el valor D × (log10 población inicial – log10 población final). Dado que los valores z y las temperaturas variarán, se usa un valor F de referencia, denominado F0, para describir el valor de esterilización de un proceso térmico en el que el valor z es 18°F o 10°C y T = 250°F o 121.1°C.

La resistencia al calor o los valores D pueden verse afectados por muchos factores inherentes a un microorganismo, por factores ambientales antes, durante y después de la exposición al calor, por las condiciones de crecimiento (Temperatura y nutrientes) y la fase de crecimiento, e incluso por el pH y solutos o componentes alimenticios. Las condiciones para el crecimiento microbiano después del calentamiento también son importantes. La lesión microbiana que resulta en la disminución de la capacidad de los microorganismos para reparar y crecer en medios microbiológicos selectivos puede alterar en gran medida el número de sobrevivientes. Por lo tanto, se deben utilizar las mejores condiciones de recuperación al estimar la población sobreviviente. Las esporas son más resistentes al calor que las células vegetativas del mismo organismo. Las esporas de Clostridium botulinum tienen una D histórica de 250°F = 0,204 min, mientras que las células vegetativas de Staphylococcus aureus tienen una D 140°F = 7,8 min. Los hongos generalmente tienen una D 150°F de 0.5-1.0 min. En la siguiente Tabla se muestran ejemplos de la resistencia al calor de las células vegetativas de los serovares de Salmonella.


Tabla 5 Resistencia al calor de serovares de Salmonella en varios alimentos.

Algunos procesos de calor se aplican para crear productos comercialmente estériles. La definición de un alimento comercialmente estéril es la ausencia de microorganismos vivos que puedan crecer en condiciones no refrigeradas. La esterilización comercial produce productos alimenticios libres de patógenos transmitidos por los alimentos y de microorganismos en descomposición que podrían crecer durante el almacenamiento. Los alimentos que se someten a esterilización comercial pueden dividirse en tres categorías: Alimentos con bajo contenido de ácido, alto contenido de ácido y acidificados. Los alimentos con bajo contenido de ácido son alimentos que tienen un pH> 4.6, mientras que los alimentos con alto contenido de ácido y acidificado tienen un pH de 4.6. Los alimentos acidificados alcanzarán un pH de 4.6 después de la adición de un acidulante (Por ejemplo, vinagre o ácido acético) al producto. La esterilización comercial de alimentos con bajo contenido de ácido (pH> 4.6) en recipientes herméticamente cerrados se denomina enlatado, y las esporas de la bacteria Clostridium botulinum son el patógeno objetivo que se destruye en los alimentos. Los alimentos enlatados con bajo contenido de ácido (LACF, por sus siglas en inglés) deben procesarse para lograr una reducción de 12 decimales de las esporas de Clostridium botulinum más resistentes. Este procedimiento se denomina proceso 12D, que se logra calentando productos a 115–150°C (240–300 ° F) usando vapor a presión en un recipiente a presión, autoclave o “retorta”. El tiempo de procesamiento mínimo requerido es de 3 minutos a 121.1°C (250 ° F) para lograr una reducción teórica de 1012 en esporas de C. botulinum. Esto se traduciría en menos de 1 espora sobreviviente en 1,000,000,000,000 de contenedores. Un proceso 12D permitirá la inocuidad adecuada de LACF, pero a veces no garantizará la esterilidad comercial, ya que algunas esporas de las bacterias de descomposición mesofílica que forman esporas pueden ser más resistentes al calor y sobrevivir a un proceso mínimo. Por lo tanto, los procesadores a menudo usan un proceso programado que supera el tiempo y la temperatura mínimos requeridos para matar las bacterias de deterioro y así lograr la esterilidad comercial. El procesamiento térmico de alimentos con bajo contenido de ácido también se puede hacer esterilizando un alimento fuera de un recipiente y llenando un recipiente estéril en una máquina de llenado estéril; Este proceso se denomina procesamiento aséptico.

Los alimentos con alto contenido de ácido pueden tener una acidez naturalmente alta o haber sido acidificados para causar una caída en el pH. Estos productos se pueden hacer comercialmente estériles con temperaturas más bajas, lo que se puede lograr con un proceso de calentamiento atmosférico. En este momento, no existen requisitos mínimos de procesamiento de tiempo-temperatura para estos productos, pero se procesan para inactivar el microorganismo de deterioro más resistente presente. Los alimentos acidificados son naturalmente bajos en ácido, pero tienen acidulantes agregados para disminuir el pH (Por ejemplo, remolacha en escabeche). Para estos productos, el proceso de acidificación debe ser monitorizado de cerca para asegurar que se alcance el pH mínimo para inhibir el crecimiento de esporas de C. botulinum, y al igual que los alimentos que son naturalmente ricos en ácido, no se especifica un proceso de calor térmico.

Hay algunas bacterias formadoras de esporas que se han asociado con el deterioro de los alimentos ácidos procesados ​​térmicamente. Clostridium pasteurianum y C. butyricum pueden crecer en alimentos con un pH tan bajo como 4.2 y se han asociado con el deterioro de los productos de tomate enlatados. Alicyclobacillus acidoterrestris es una bacteria formadora de esporas que se descubrió por primera vez en 1997 como causa de deterioro en los alimentos acidificados. Este organismo puede sobrevivir en entornos de pH <4.0 y tan bajo como 3.0. La temperatura óptima para este organismo es de 45-50°C, y no produce gases como organismos agrios planos. Es extremadamente resistente al calor, con una temperatura de 90°C de 11-14 min en jugo de uva a 16° Brix (Splittstoesser et al. 1994). A. acidoterrestris también es resistente al sorbato y al sulfito, por lo que es un organismo de deterioro muy difícil de inactivar. Los hongos resistentes al calor también causan pérdidas económicas a los productores. Las formas filamentosas (Vegetativas) de estos organismos son inactivadas por el calor, pero son capaces de formar ascosporas muy resistentes al calor que tienen una D 90°C de varios minutos. Algunos de los hongos más comunes observados en este tipo de deterioro son Byssochlamys, Neosartorya, Talaromyces y Eupenicillium.

La pasteurización es otra forma de tratamiento térmico diseñado para destruir las células vegetativas de los patógenos y la mayoría de los microorganismos de descomposición, pero tiene poco efecto sobre las esporas. Por lo tanto, los productos alimenticios pasteurizados se combinan típicamente con otros procesos de conservación, como la refrigeración o la reducción de la actividad del agua, para inhibir el crecimiento de formadores de esporas. La leche es uno de los productos alimenticios más comúnmente asociados con la pasteurización. En la siguiente Tabla se encuentran algunos valores D objetivo para la inactivación de patógenos transmitidos por alimentos históricamente importantes en la leche. Además de la leche líquida, los huevos también pueden someterse a un proceso de pasteurización para inactivar los patógenos transmitidos por los alimentos. Algunas cepas bacterianas pueden ser resistentes a la pasteurización.


Tabla 6 Valores D para la inactivación de varios patógenos transmitidos por los alimentos en la leche líquida

Los procesos de pasteurización equivalentes para la leche se pueden lograr usando tres procesos: baja temperatura, largo tiempo (LTLT); alta temperatura, corto tiempo (HTST); y temperatura ultra alta (UHT). LTLT se realiza comúnmente en el procesamiento por lotes en un tanque donde la leche se calienta a 62.7°C (145°F) durante 30 minutos. HTST requiere una temperatura de procesamiento de 71.7°C (161°F) durante 15 segundos, y la pasteurización UHT ocurre a 140–150°C (280–300°F) durante 1–2 segundos. El Departamento de Agricultura de los Estados Unidos (USDA) sugiere un proceso de pasteurización de 60°C (140°F) durante 3.5 min para huevos enteros y 61.1°C (142°F) durante 3.5 min para yema de huevo.

El calentamiento por microondas se ha explorado para su uso en situaciones comerciales de procesamiento térmico. Las microondas son ventajosas para calentar alimentos porque provocan el calentamiento interno de los alimentos. Esto ocurre cuando el campo de microondas oscila, causando una redirección de las moléculas de agua y fricción que genera calor. Sin embargo, el calentamiento es muy inconsistente, con puntos fríos que son casi imposibles de modelar, lo que ha reducido en gran medida la aplicación de esta tecnología por la industria alimentaria porque sería muy difícil validar la inactivación de microorganismos patógenos.

La irradiación es otro proceso empleado para inactivar los patógenos transmitidos por los alimentos y los microorganismos de deterioro. La industria alimentaria emplea dos categorías de irradiación, la radiación ultravioleta (UV) (no ionizante) y la radiación ionizante. La radiación UV de onda corta que da como resultado la inactivación microbiana cae entre 240 y 280 nm, siendo 260 nm la longitud de onda microbiocida más efectiva. La radiación UV causa daño al ADN al entrecruzar dímeros de timina, deteniendo los mecanismos de reparación. La aplicación de la radiación UV es limitada porque no puede penetrar a través de los materiales y, por lo tanto, es más adecuada para la inactivación de microorganismos en las superficies.

La radiación ionizante tiene longitudes de onda inferiores a 200 nm, y las dosis de radiación ionizante son una medida de la energía absorbida. Los rayos gamma, el haz de electrones y los rayos X son los tipos más comunes de irradiación que podrían utilizarse en el procesamiento comercial de alimentos. El término Gray (Gy) es el término común utilizado para dosis de radiación ionizante. Un Gy equivale a 1 J/kg de energía absorbida. Para dosis más grandes de radiación, se emplea el término kiloGray (kGy), donde 1,000 Gy = 1 kGy. Para poner la exposición a la radiación en contexto, una sola radiografía de tórax dará como resultado una dosis de 0.001 Gy para el adulto promedio. Las dosis letales de irradiación para varios organismos se pueden encontrar en la siguiente Tabla.


Tabla 7 Dosis letales de radiación ionizante para varios organismos.

La irradiación gamma es generada por cobalto-60 (60Co) o cesio-137 (137Cs), siendo 60Co la fuente principal utilizada en la industria alimentaria. Ambas fuentes son subproductos económicos de la fisión atómica, se pueden recargar y no producen residuos radiactivos, con 60Co y 137Cs que tienen vidas medias de 5 y 30 años, respectivamente. La irradiación gamma es un proceso discontinuo en el que se utiliza una cámara para exponer los alimentos al isótopo radiactivo. Las cámaras deben estar construidas para retener todos los rayos gamma dentro y, como resultado, pueden tener paredes de concreto de 1.83 m (6 pies) de espesor. Generalmente, este proceso se lleva a cabo en una ubicación fuera del sitio, ya que requiere una infraestructura única. La dosis de irradiación al producto alimenticio está determinada por la velocidad del transportador sobre el que se mueve el producto. Una ventaja importante de este proceso es que el producto alimenticio es completamente penetrado por los rayos gamma, y ​​los microorganismos que se encuentran en el interior de los productos alimenticios serán inactivados. Una propiedad de la irradiación gamma que puede verse como un inconveniente es que la fuente siempre emite rayos gamma y no puede simplemente apagarse.

La irradiación con haz de electrones utiliza electrones de alta energía producidos por aceleradores lineales o «pistolas de electrones». La irradiación con haz de electrones no penetra tan profundamente como la radiación gamma, pero a medida que aumenta la energía, se mejora la capacidad de penetración. Por lo tanto, los electrones en unidades de 10 MeV se utilizan para exponer productos alimenticios al haz de electrones con una penetración de 1 a 3 cm. Esta propiedad hace que la irradiación con haz de electrones sea más adecuada para capas delgadas de producto que pueden exponerse relativamente rápido debido a una tasa de dosis relativamente alta (103–106 Gy/s). Los haces de electrones también se pueden encender y apagar, a diferencia de la radiación gamma, que es más propicia para el procesamiento de alimentos en el sitio o en línea.

Los procesos para la inactivación de microorganismos mediante irradiación se han clasificado según la gravedad del proceso (Jay et al. 2005). El término «radurización» se ha utilizado para los procesos de irradiación que desinfectan los alimentos. Este proceso está diseñado para mejorar la vida útil al reducir la población de microorganismos en descomposición presentes, o para matar insectos o parásitos en los alimentos. Los niveles de dosis son 0.75–2.5 kGy. La «Radicidación» es comparable a la pasteurización e inactiva patógenos bacterianos no formadores de esporas a niveles indetectables. Las dosis aplicadas para la radioterapia son de 2.5 a 10 kGy. La “Radappertización” es cuando un producto alimenticio se procesa con dosis de 30–45 kGy para volverlo estéril. Este proceso logra una reducción 12D de las esporas de Clostridium botulinum en un alimento y, junto con el envasado en recipientes herméticamente cerrados, produce un LACF.

El efecto de la irradiación sobre la calidad de los alimentos también ha sido ampliamente estudiado. Los alimentos absorben la energía de la irradiación y, como ocurre con cualquier proceso que implique el movimiento de energía, incluido el calor, se producen cambios en los componentes de los alimentos. El contenido nutricional puede ser alterado debido a la irradiación; Por ejemplo, se ha demostrado que la vitamina B tiamina se degrada por la irradiación de productos alimenticios. Los atributos de calidad de los alimentos también se han visto afectados por la irradiación. Se han observado cambios de sabor y olor en productos irradiados, pero el grado de estos efectos depende en gran medida de la dosis de irradiación. Se ha demostrado que las grasas sufren oxidación, que puede minimizarse con el envasado al vacío. También se ha demostrado que las proteínas exhiben sabores extraños debido a los cambios funcionales de los aminoácidos y la liberación de compuestos como el amoníaco. También se han observado cambios en la textura de las frutas debido a la descomposición de la pectina, lo que provoca un mayor ablandamiento de los productos irradiados.

La irradiación se considera un aditivo alimentario en lugar de un proceso alimentario por el gobierno de los EE. UU. (Anónimo 2009), y los alimentos irradiados deben etiquetarse como «tratados con radiación» o «tratados con irradiación». La Administración de Drogas y Alimentos de los Estados Unidos (FDA) y el USDA han aprobado muchos alimentos y materiales de empaque para el tratamiento con irradiación. Sin embargo, se debe otorgar la aprobación de cada producto antes de su venta en los Estados Unidos. Por ejemplo, la irradiación de lechuga iceberg y espinacas fue aprobada por la FDA en 2008 para reducir los patógenos transmitidos por los alimentos y extender la vida útil con una dosis máxima de 4.0 kGy.

La industria alimentaria también ha estudiado y utilizado varios procesos «no térmicos» para inactivar microorganismos. El procesamiento de alta presión (HPP), o pascalización, utiliza presiones en el rango de 100–800 MPa (14,500–116,000 psi). Cuando se utiliza HPP para inactivar células vegetativas, se han observado efectos variables en la eficacia. Para inactivar las esporas, el calor (70–80°C) y la presión se deben utilizar juntos. Los resultados de HPP en la lisis celular debido al calor más la aplicación de presión y la posterior despresurización. Este tipo de procesamiento se ha encontrado más adecuado para purés y líquidos, así como para mariscos como las ostras crudas. HPP es un proceso por lotes en el que los alimentos generalmente están expuestos después del envasado en películas de plástico. Los campos eléctricos pulsados (PEF) utilizan pulsos de alto voltaje, 20–80 kV/cm, para duraciones de hasta 1 segundo, pero generalmente en microsegundos. Los alimentos comúnmente procesados con PEF son líquidos o purés.

Inhibición

La depresión de la temperatura es uno de los procesos más utilizados para inhibir el crecimiento microbiano mediante la deceleración o la detención de las actividades metabólicas. Enfriar alimentos por refrigeración de -1°C a 7 ° C resulta en la reducción o detención del crecimiento de microorganismos mesofílicos y termofílicos. Además, los microorganismos psicrotróficos tendrán una mayor fase de retraso y tiempo de generación, y su crecimiento continuará a un ritmo lento. Algunos patógenos transmitidos por los alimentos son psicrotróficos y pueden crecer lentamente a temperaturas de refrigeración, por ejemplo, C. botulinum tipo E, C. botulinum no proteolítico tipo B, Yersinia enterocolitica y Listeria monocytogenes. La congelación generalmente detendrá todo el crecimiento microbiano, pero se ha informado que algunos microorganismos crecen a temperaturas inferiores a 0 ° C. La congelación de los alimentos se puede lograr de forma rápida o lenta, lo que resulta en grandes cristales de hielo que pueden alterar las membranas celulares, causando una mayor letalidad. Sin embargo, estos cristales también alteran las células en los alimentos y pueden afectar negativamente las propiedades sensoriales. Las bacterias gram positivas, con la excepción de Clostridium perfringens, son generalmente más resistentes a la inactivación por congelación, mientras que las bacterias gram negativas y los protozoos son más sensibles (Jay et al. 2005). La congelación no tiene un impacto letal en los virus, las esporas o las toxinas transmitidas por los alimentos. Al descongelar alimentos congelados, puede ocurrir un crecimiento microbiano si las temperaturas son propicias. Debido a que los alimentos congelados se descongelan desde afuera hacia adentro, descongelarlos a temperatura ambiente podría provocar un crecimiento microbiano significativo en la superficie de un producto. También se ha demostrado que los ciclos repetidos de congelación-descongelación causarán la inactivación microbiana por deshidratación, oxidación y nucleación de hielo. Sin embargo, este proceso también típicamente causará tales impactos negativos en la calidad de los alimentos que no se emplearía como un medio para inactivar patógenos y organismos de descomposición.

El pH en un sistema alimentario puede ser alterado (Generalmente reducido) para inhibir el crecimiento microbiano. En general, los ácidos orgánicos se usan para reducir el pH. Con la adición de ácidos orgánicos, habrá un aumento en los protones (H+) pero también en los ácidos no disociados. La forma no disociada de ácidos tiene el efecto inhibidor primario sobre los microorganismos y puede difundirse más fácilmente a través de la membrana celular para disociarse al entrar en el citoplasma neutro. Esto provocará una caída en el pH interno del microorganismo. Para sobrevivir, el microorganismo gastará energía bombeando el ácido disociado fuera de la membrana celular, donde se recombinará. Este proceso hará que el organismo gaste una gran cantidad de energía para mantener el pH interno e interrumpir la fuerza motriz del protón. Los ácidos minerales, como el ácido fosfórico, sirven solo como fuente de iones de hidrógeno y, por lo tanto, no son tan efectivos como los ácidos orgánicos a pH similares. En la mayoría de los casos, se agregan a bebidas y alimentos acidificados para impartir un sabor ácido.

La tecnología de envasado en atmósfera modificada (MAP, por sus siglas en inglés) implica alterar la atmósfera en un paquete de alimentos impermeable. En este proceso, se selecciona una atmósfera que frena el crecimiento microbiano y, por lo tanto, extiende la vida útil. Las películas de plástico impermeables se utilizan como material de embalaje para controlar la atmósfera de un producto alimenticio. Estas películas pueden seleccionarse para ajustarse a las necesidades del producto alimenticio, con propiedades de barrera de gas que son apropiadas para la atmósfera deseada del paquete. En MAP, la atmósfera se elimina y se reemplaza con otra mezcla de gases. Este tipo de proceso también se conoce como vacío/vaciado de gas. En MAP pasivo, se agrega un gas seleccionado al paquete, pero no se intenta mantener la atmósfera durante la vida útil de almacenamiento. La atmósfera puede cambiar debido a la respiración. El MAP pasivo se utiliza principalmente en productos frescos o mínimamente procesados. El MAP activo incorpora una mezcla de gases definida que se mantendrá continuamente mediante la adición de materiales en el empaque o en las bolsitas que producen diversas mezclas de gases. Ejemplos de compuestos utilizados en el embalaje para ayudar a mantener activamente la atmósfera son los eliminadores de oxígeno o las almohadillas generadoras de dióxido de azufre.

El almacenamiento en atmósfera modificada generalmente utiliza mezclas de dióxido de carbono, oxígeno y nitrógeno e inhibe los microorganismos aeróbicos. Los niveles altos de CO2 (15–100%) inhibirán el crecimiento microbiano aeróbico. El contenido de oxígeno puede ser inferior al 1% y tan alto como el 80%, pero generalmente está en el rango de 5 a 10%. Bajar el contenido de oxígeno protegerá los alimentos del daño oxidativo, pero algo de oxígeno puede ser beneficioso. Por ejemplo, la carne requiere oxígeno para formar oximioglobina para tener un color rojo característico. Una pequeña cantidad de oxígeno también puede prevenir el crecimiento de anaerobios estrictos. El nitrógeno es un gas de “relleno” y se encuentra en 15 a 100% de la atmósfera modificada. El almacenamiento en atmósfera modificada se puede usar en productos de panadería, productos, alimentos listos para comer, pescado, carne, aves y pasta fresca y puede aumentar la vida útil en un 50–400%. El almacenamiento en atmósfera modificada no impide el crecimiento de bacterias o levaduras anaerobias facultativas. Algunos patógenos transmitidos por los alimentos que pueden crecer en estos entornos incluyen Campylobacter, Clostridium, Salmonella y Yersinia.

El envasado al vacío es otro tipo de atmósfera modificada. Como su nombre lo indica, en este proceso el aire se elimina y no se reemplaza por ningún gas. Esto también requiere el uso de una película de barrera para mantener el vacío. El envasado al vacío reducirá el contenido de oxígeno, inhibiendo microorganismos aeróbicos de rápido crecimiento, como Pseudomonas y mohos, lo que da como resultado un cambio en la microbiota de deterioro, favoreciendo los que crecen solo en condiciones anaeróbicas. Por ejemplo, las bacterias que causan el deterioro de las carnes envasadas al vacío son especies de Lactobacillus y Brochothrix. La principal ventaja del envasado al vacío es que, si bien los microorganismos aeróbicos pueden causar el deterioro en unos pocos días de almacenamiento refrigerado, la vida útil de los productos envasados ​​al vacío es generalmente de varias semanas. Sous-vide, traducido del francés como «bajo vacío», es una preparación de alimentos en envases al vacío seguidos de tratamientos térmicos suaves y enfriamiento. Este proceso no inactivará las bacterias formadoras de esporas, y el crecimiento de C. botulinum y la producción de toxinas deben ser una preocupación para estos productos.

La deshidratación, o la reducción del aw de los alimentos, es otra forma de inhibir el crecimiento microbiano en los alimentos. La deshidratación es cuando el contenido de agua se reduce 75-92%. Esto generalmente dará como resultado un producto alimenticio muy estable. Sin embargo, el proceso de deshidratación, incluso usando calor, puede permitir que algunos patógenos sobrevivan. Por ejemplo, se ha descubierto que Salmonella sobrevive en alimentos secados por aspersión, y Cronobacter (Enterobacter) sakazakii sobrevive en fórmula infantil en polvo. Reducir la actividad del agua por debajo de 0.85 puede prevenir el crecimiento de todas las bacterias transmitidas por los alimentos y extender significativamente la vida útil de los productos alimenticios. La reducción de la actividad del agua se puede lograr mediante la adición de solutos o humectantes. Los ingredientes comúnmente utilizados para disminuir la actividad del agua incluyen sal, sacarosa, glicerol, fructosa, galactosa, hidrocoloides, jarabe de maíz alto en fructosa y polioles (Xilitol, manitol, sorbitol). Mermeladas, jaleas, pasteles de frutas, dulces, alimentos para mascotas, algunos quesos y cecina son ejemplos de alimentos que utilizan una actividad reducida del agua para mantener la estabilidad. Los microorganismos que pueden deteriorar los alimentos reducidos incluyen una levadura osmotolerante y mohos.

Los conservantes de alimentos antimicrobianos se pueden incorporar a los alimentos para retrasar el deterioro o inhibir el crecimiento de patógenos transmitidos por los alimentos (Davidson et al. 2005). Como se describió anteriormente, los ácidos orgánicos débiles se pueden usar como antimicrobianos alimentarios. Los antimicrobianos de ácidos orgánicos tradicionales aprobados por la entidades legales incluyen los ácidos acético, benzoico, láctico, propiónico y sórbico o sus sales. El ácido acético o los acetatos tienen una constante de disociación (pKa) de 4.75 y se usan comúnmente para inhibir las bacterias. La constante de disociación es el pH donde el 50% del ácido está en un estado disociado, mientras que el 50% restante no está disociado. Este es un parámetro muy importante cuando se aplican ácidos orgánicos como antimicrobianos porque la forma no disociada es la principal responsable de las propiedades antimicrobianas observadas. El ácido acético es el componente principal del vinagre e imparte su olor y sabor típicos. Se usa comúnmente en alimentos con alto contenido de ácido debido al bajo pKa. El acetato de sodio se usa en productos de panadería y el diacetato de sodio se usa en productos cárnicos al 0.25%. El ácido benzoico se produce naturalmente en las bayas y otras frutas. Este ácido tiene un pKa de 4.19. El ácido benzoico se usa comúnmente en alimentos ácidos ya que su pKa es relativamente bajo. Se utiliza principalmente para inhibir el crecimiento de hongos y levaduras. La levadura Zygosaccharomyces bailii es resistente al ácido benzoico a concentraciones de hasta 0.3% y algunas bacterias no son inhibidas por el ácido benzoico a la concentración permitida en los alimentos, 0.1%. El ácido benzoico se ha aplicado en bebidas (0.03–0.05%); jarabes (0.1%); aceitunas, encurtidos y condimentos (0.1%); mermeladas y jaleas (0.1%); y productos frutales (0.1%). El ácido láctico y los lactatos tienen un pKa de 3.79 y son producidos por bacterias del ácido láctico durante la fermentación de los alimentos. El ácido láctico es eficaz para inhibir el crecimiento bacteriano en productos alimenticios, pero también se utiliza como agente aromatizante. El lactato de sodio se ha utilizado al 1.8–4.0% en productos cárnicos para retrasar el crecimiento de patógenos transmitidos por los alimentos como Listeria monocytogenes. También se ha aplicado como un aerosol a los canales de carne para la inhibición de los patógenos transmitidos por los alimentos.

El ácido propiónico y los propionatos tienen un pKa de 4.87 y se usan en productos para inhibir el crecimiento de moho y bacterias a concentraciones alrededor del 0.4%. Los propionatos se aplican típicamente en productos horneados. Propionibacterium freudenreichii ssp. Shermani, que produce ácido propiónico, también se utiliza en la fermentación del queso suizo para darle su sabor característico y los agujeros u «ojos» a través de la producción de CO2. El ácido sórbico y los sorbatos tienen un pKa de 4.75 y se usan para inhibir el crecimiento de levaduras, mohos y bacterias. El ácido sórbico fue aislado por primera vez en 1959 por A. W. Hoffmann del aceite de sorba. El ácido sórbico se estudió como conservante de alimentos ya en 1940 cuando C. M. Gooding lo usó en envases para inhibir el crecimiento de moho en la superficie de los alimentos. El ácido sórbico y sus sales se pueden aplicar a frutas, panaderías y productos lácteos y a bebidas y alimentos fermentados en concentraciones de hasta 0.3%. Los microorganismos que son resistentes al ácido sórbico incluyen Zygosaccharomyces bailii, Saccharomyces rouxii, Penicillium y bacterias del ácido láctico.

El dióxido de azufre (SO2) y el metabisulfito (Na2S2O5) son efectivos contra levaduras y mohos y se usan comúnmente en productos de fruta y vino. Los sulfitos son más efectivos en alimentos con pH bajo. Sin embargo, se sabe que las altas concentraciones de sulfuros causan reacciones alérgicas en algunos individuos, principalmente aquellos con asma.

Los parabenos son ésteres alquílicos de ácido p-hidroxibenzoico con diferentes longitudes de cadenas de carbono (metilo 1C, propilo 3C y heptilo 7C). Los parabenos se producen sintéticamente a través de la esterificación del grupo carboxilo del ácido benzoico. Esta propiedad también permite que los parabenos permanezcan no disociados y se utilicen en alimentos con un pH de hasta 8.0. Los parabenos de metilo, propilo y heptilo están permitidos para su uso en los Estados Unidos (EEUU). Los parabenos inhiben el crecimiento de levaduras, mohos y bacterias Gram-positivas y negativas. Se usan comúnmente en concentraciones de 0.1% en productos de panadería, aderezos para ensaladas y refrescos. Sin embargo, los parabenos pueden tener un uso limitado porque pueden impartir un sabor metálico o amargo y no son fácilmente solubles en los alimentos.

El nitrito de sodio se usa para varios propósitos en carnes curadas, incluso para la formación de color, sabor, como antioxidante y como antimicrobiano contra el crecimiento de Clostridium botulinum. La eficacia del nitrito contra C. botulinum depende del pH y del contenido de sal. Un inconveniente del uso de nitritos en los alimentos es que pueden reaccionar con aminas secundarias para formar nitrosaminas, que se sabe que son cancerígenas.

La nisina es un péptido producido por Lactococcus lactis ssp. lactis que fue aprobada en 1988 en EEUU para su uso en productos alimenticios como conservante de alimentos antimicrobianos. La nisina es una bacteriocina que tiene actividad contra las bacterias gram positivas, incluidos los formadores de esporas. La nisina interactúa con la membrana celular de estos organismos para causar que la formación de poros inhiba o inactive microorganismos. La nisina normalmente no es efectiva contra la mayoría de las bacterias Gram negativas; sin embargo, la adición de nisina con el quelante EDTA expande la actividad inhibitoria a este grupo. El EDTA aparentemente desestabiliza la membrana externa de las bacterias Gram negativas, haciéndolas más susceptibles a la nisina. La nisina generalmente se reconoce como segura (GRAS) y se ha aplicado al queso procesado pasteurizado y a varios otros alimentos procesados.

La natamicina (pimaricina) es un compuesto similar a los antibióticos del organismo Streptomyces natalensis. Este antibiótico macrólido polieno es un agente antifúngico, pero no es efectivo contra las bacterias. Fue aprobado por primera vez en EEUU en 1982 como agente antifúngico en la superficie de los quesos. La natamicina a una solución de 200–300 mg/l inhibe el crecimiento de moho.

La lisozima es una enzima que está presente en los huevos de aves, lágrimas, leche de mamíferos, insectos y peces, siendo la fuente comercial la clara de huevo seco. Como se discutió anteriormente, la lisozima actúa sobre la capa de peptidoglucano de bacterias Gram-positivas, alterando la pared celular bacteriana y potencialmente causando lisis celular. Al igual que con la nisina, la actividad de la lisozima se puede aumentar agregando un quelante, como el EDTA. La lisozima es GRAS y fue aprobada en EEUU en 1998 para su uso en ciertos quesos.

La lactoferrina es una glucoproteína que se encuentra en la leche y que actúa como un quelante para secuestrar el hierro. De esta manera, se inhiben los microorganismos que requieren hierro para su crecimiento. La lactoferrina existe en la leche principalmente como un tetrámero con calcio y tiene dos sitios de unión de hierro por molécula. Para cada Fe3+ unido por lactoferrina, se requiere un bicarbonato (HCO3−). Naidu (2002) desarrolló un sistema antimicrobiano en el que la lactoferrina se inmoviliza en polisacáridos de calidad alimentaria y se disuelve en un tampón de citrato/bicarbonato con NaCl. Se informó que el producto resultante, la lactoferrina activada, era eficaz para inhibir la unión de E. coli O157: H7 en las carnes. El producto de lactoferrina está aprobado por los Servicios de Inspección de Seguridad Alimentaria (FSIS) del USDA para reducir la contaminación bacteriana por el microorganismo objetivo en los canales de carne (Naidu 2001).

Los investigadores continuarán evaluando nuevos antimicrobianos para ayudar a la industria alimentaria a inhibir el crecimiento de patógenos transmitidos por los alimentos. El arginato láurico y los bacteriófagos son ejemplos de inhibidores antimicrobianos que se han estudiado más recientemente (Hudson et al. 2005; Luchansky et al. 2005). El arginato láurico es un derivado del ácido láurico, la L-arginina y el etanol y ha sido certificado GRAS y se ha aprobado su uso en carnes listas para el consumo. Los bacteriófagos son virus que infectan bacterias y causan lisis. Esta interacción es muy específica entre el huésped (bacteria) y el fago; por lo tanto, se puede propagar un fago específico para atacar la destrucción de los patógenos transmitidos por los alimentos. Estos ejemplos de agentes antimicrobianos, así como muchos otros, continuarán siendo investigados para que la industria alimentaria pueda mejorar la inocuidad de los productos ofrecidos a los consumidores.

La fermentación es otro proceso que se ha utilizado durante siglos para inhibir el crecimiento de patógenos transmitidos por los alimentos. Los microorganismos principales involucrados en la fermentación son las bacterias del ácido láctico, como Lactococcus, Lactobacillus, Pediococcus y Streptococcus, así como las levaduras, como Saccharomyces cerevisiae. Los microorganismos también se pueden utilizar en fermentaciones para la alteración del sabor, que se usa comúnmente en la producción de queso. Algunos organismos que se utilizan de esta manera son Brevibacterium linens, Propionibacterium freudenreichii spp. Shermanii, Penicillium camemberti y Penicillium roqueforti. Se producen alteraciones químicas en los productos alimenticios durante un proceso de fermentación. Las bacterias homofermentativas de ácido láctico producirán aproximadamente 90% de ácido láctico durante el metabolismo anaeróbico. Las bacterias heterofermentativas de ácido láctico producirán ácido láctico, etanol, ácido acético y dióxido de carbono durante el metabolismo. Las levaduras, como Saccharomyces cerevisiae, también conocida como levadura de panadería, se han utilizado en la producción de pan y vino debido a su capacidad para producir etanol y dióxido de carbono.

Muchos tipos de productos alimenticios se someten a fermentación para su conservación. Los productos lácteos como el queso, el suero de leche y el yogur son productos de fermentación de la leche. Este tipo de fermentaciones son llevadas a cabo por bacterias del ácido láctico como Lactococcus y Lactobacillus. Estos productos se conservan mediante la producción de ácido láctico durante la fermentación. Los productos vegetales como el chucrut, los encurtidos y las aceitunas usan especies de Leuconostoc y Lactobacillus durante la fermentación. Estos productos también se conservan con ácido láctico y con sucesión microbiana. Las carnes que se someten a fermentación incluyen salchichas, salami y pepperoni. Pediococcus es un microorganismo que se usa comúnmente para estas fermentaciones; Conserva el producto a través de la producción de ácido láctico.

Las carnes fermentadas también se conservan mediante la adición de nitritos y especias y el proceso de ahumado. Los productos de cereales como el pan, las galletas saladas y los pretzels pueden fermentarse con Saccharomyces. Estos productos se fermentan mediante la fermentación y la producción de dióxido de carbono. Las bebidas alcohólicas como el vino, la cerveza y los licores destilados también se someten a un proceso de fermentación. Estas fermentaciones alcohólicas utilizan organismos como Saccharomyces para mejorar el sabor y la producción de etanol.

Interacciones

En esta entrada se describen muchos tipos de obstáculos que pueden usarse para inhibir o inactivar los patógenos transmitidos por los alimentos y los microorganismos de descomposición. La «tecnología de intervenciones» utiliza múltiples barreras u «obstáculos» para preservar los alimentos y se define como el uso de métodos de preservación existentes y/o novedosos para establecer una serie de factores de preservación (obstáculos o intervenciones) que ningún microorganismo debería poder superar. El concepto de obstáculo fue desarrollado en 1978 por Lothar Leistner en el Centro Federal para la Investigación de la Carne en Kulmach, Alemania, como un enfoque semisistemático para mejorar la inocuidad de los alimentos. Esto se aplicó primero a alimentos estables y luego se extendió a otros productos alimenticios. La tecnología Hurdle también se conoce como métodos combinados, procesos combinados, preservación combinada, técnicas combinadas, tecnología de barrera y tecnología de intervención. Los objetivos para la tecnología de obstáculo incluyen microorganismos patógenos, de descomposición y fermentativos. Los atributos de calidad afectados por la tecnología de obstáculos pueden mejorar los atributos sensoriales, así como el valor nutritivo de los alimentos, además de la inocuidad alimentaria. Los obstáculos pueden ser de naturaleza física, fisicoquímica o microbiana, y actualmente hay más de 60 obstáculos potenciales que pueden ser utilizados por la industria alimentaria (Leistner 2000).

En resumen

La conservación de alimentos se ha utilizado durante mucho tiempo para mantener de forma inocua los productos comestibles para el consumo. Los procesos de conservación están diseñados para retrasar el crecimiento de microorganismos o para inactivarlos. El crecimiento de microorganismos se ve afectado por factores extrínsecos (atmósfera, temperatura, humedad) e intrínsecos o relacionados con los alimentos (pH, potencial de oxidación-reducción, actividad del agua, antimicrobianos naturales y factores). Los microorganismos se pueden inactivar en los alimentos mediante calor (esterilidad comercial, pasteurización), irradiación (ultravioleta, haz de electrones, gamma) o procesamiento no térmico. La inhibición de los microorganismos se puede lograr mediante enfriamiento, congelación, acidificación, envasado en atmósfera modificada, deshidratación, actividad reducida del agua o conservantes de alimentos antimicrobianos. Se puede usar una combinación de múltiples métodos, procesos y técnicas, llamada el concepto de «obstáculo», para hacer que los alimentos sean más seguros y extender la vida útil de los productos alimenticios.

Referencias

Basic Food Microbiology

George Banwart

Modern Food Microbiology

Jay et al.

1998. Thermal tolerance of Mycobacterium paratuberculosis.

Nackmoon Sung And Michael T. Collins

2001. Heat inactivation data for Mycobacterium avium subsp paratuberculosis: Implications for interpretation.

Klijn, N., A.A.P.M. Herrewegh, and P. de Jong.

2007. Heat inactivation data for Mycobacterium avium subsp paratuberculosis in Raw Milk Contaminated with Naturally Infected Feces.

Jan L. W. Rademaker,* Marc M. M. Vissers, and Meike C. te Giffel

2000. Basic aspects of food preservation by hurdle technology.

Lothar Leistner

]]>
2
Torjo Sagua http://laenciclopediagalactica.info <![CDATA[El Estudio de las Pseudociencias]]> http://laenciclopediagalactica.info/?p=1985 2020-05-08T16:33:26Z 2020-05-08T16:33:23Z Nos encontramos viviendo cada vez más en un mundo «post-verdad», uno en el que las emociones y las opiniones cuentan para algo más que hallazgos bien establecidos cuando se trata de evaluar las afirmaciones. En gran parte de la cultura occidental contemporánea, frases como «No me confundan con los hechos», «Todos tienen derecho a mi opinión» y «Confíe en sus instintos» capturan una realidad preocupante, a saber, que muchos ciudadanos no lo hacen, y en algunos casos, aparentemente no puede distinguir adecuadamente lo que es verdadero de lo que desean que sea cierto. Esta dependencia excesiva en el «afecto heurístico», la tendencia a medir el valor de verdad de una proposición basada en nuestras reacciones emocionales, con frecuencia nos lleva a aceptar afirmaciones dudosas que calientan nuestros corazones, y a rechazar afirmaciones bien respaldadas que restregamos por el camino equivocado. Todos somos propensos a este error, pero una característica distintiva de una persona educada es la capacidad de reconocerlo y compensarlo, al menos hasta cierto punto.

También vivimos cada vez más en una época en la que la intuición es apreciada por encima del análisis lógico. Incluso algunos escritores científicos prominentes y científicos prominentes han mantenido que el «sentido común» debería tener más peso en la adjudicación de afirmaciones científicas de lo que actualmente recibe. Tales respaldos de la intuición cotidiana son sorprendentes, por no mencionar anti-históricos, dada la abrumadora evidencia de que el razonamiento de sentido común a menudo contribuye a conclusiones muy equivocadas. Como ejemplo, la historia de la medicina es un recordatorio muy necesario de que la dependencia excesiva de las corazonadas y las observaciones conductuales sin tutor pueden hacer que los académicos y los profesionales adopten intervenciones ineficaces e incluso perjudiciales. De hecho, según muchos historiadores médicos, antes de 1890, la mayor parte de las intervenciones físicas ampliamente administradas no tenían valor y, en algunos casos, eran iatrogénicas.

Estas tendencias son profundamente preocupantes en la era actual del flujo de datos prácticamente ininterrumpido a través de las redes sociales, el correo electrónico, la televisión por cable y similares. Vivimos no solo en una era de la información, sino en una era de información errónea. En 1859, el autor y predicador C. H. Spurgeon escribió que «una mentira dará la vuelta al mundo mientras la verdad se está poniendo las botas» (En una curiosa ironía, esta cita se ha atribuido ampliamente a Mark Twain). Si el dictamen de Spurgeon era cierto en 1859, es aún más cierto en el mundo actual de la transferencia instantánea de información en todo el mundo. No es sorprendente que los niveles de muchas creencias pseudocientíficas entre la población en general sean altos y bien pueden estar aumentando. Una encuesta de la Universidad Chapman realizada en 2016 (Ledbetter, 2016) reveló que el 43 por ciento de los estadounidenses cree que el gobierno está ocultando información sobre las visitas de extraterrestres a la Tierra, y que el 24 por ciento cree que el gobierno de los Estados Unidos está ocultando información sobre los alunizajes de la NASA. Esta encuesta también encontró que el 47 por ciento de los estadounidenses cree en casas embrujadas, el 19 por ciento cree en la psicoquinesis (La capacidad de mover objetos solo por medio del poder mental), el 14 por ciento cree que los psíquicos y los astrólogos pueden predecir eventos futuros, y el 14 por ciento piensa que Bigfoot (Pie Grande) es real. Claramente, aquellos de nosotros que estamos comprometidos a disipar creencias cuestionables en la población en general tenemos mucho trabajo que hacer.

No hace falta decir, entonces, que ayudar a las personas con la tarea de distinguir la ciencia de la pseudociencia es más crucial que nunca. Este blog busca ser informativo y esclarecedor es un paso crítico en esta dirección. Con las entradas se busca recordar que la pseudociencia atraviesa una miríada de dominios de la vida moderna, y que abordar el estudio de la pseudociencia desde diversas perspectivas, como la psicológica, la sociológica, la médica, la filosófica y la histórica, proporciona ideas distintivas. Los lectores encontrarán que cada entrada (Cuando el tema o la “etiqueta” trata sobre pseudociencia) trae nuevas revelaciones sobre las causas y consecuencias de la pseudociencia.

Como argumentaré más adelante, y como observan muchos de los lectores de este blog, la distinción entre ciencia y pseudociencia es casi con certeza de grado y no de tipo. Los esfuerzos concertados de Sir Karl Popper (Conjectures and Refutations, 1962) y otros filósofos de la ciencia para identificar una línea brillante de demarcación entre la ciencia y la pseudociencia, como la “falsabilidad”, han fallado constantemente. A pesar de estos fracasos, debemos ser cautelosos al concluir que la pseudociencia no puede diferenciarse significativamente de la ciencia. Hacerlo equivaldría a cometer lo que los lógicos llaman la «falacia de la barba», el error de concluir que debido a que x e y caen en un continuo, no se pueden distinguir los casos prototípicos de x de los casos prototípicos de y (The Argument of the Beard, Douglas Walton, 1996). El hecho de que no haya una distinción en blanco y negro entre una barba y una sombra de las cinco en punto no implica que no se puedan distinguir casos claros de rostros barbudos de sin pelo, y mucho menos que las barbas no existen. (Incluso muchos científicos pensativos han cometido este error lógico con respecto a la raza, el trastorno mental, la inteligencia y otros conceptos intrínsecamente confusos)

A continuación, intento resumir 10 lecciones de mensajes fáciles de usar para llevar a casa, en los que espero proporcionarles a los lectores una especie de hoja de ruta, señalando principios integradores a tener en cuenta. Al generar estas lecciones, me basé en parte en la literatura existente sobre sesgos cognitivos y pensamiento científico.

  • Todos estamos sesgados. Sí, eso nos incluye a ti y a mí. Algunos psicólogos evolucionistas sostienen que ciertos sesgos en el pensamiento son productos de la selección natural. Por ejemplo, bajo condiciones de incertidumbre, probablemente estamos predispuestos evolutivamente a ciertos errores falsos positivos. Cuando caminamos por un bosque, generalmente es mejor asumir que un objeto en forma de palo en movimiento es una serpiente peligrosa en lugar de una ramita impulsada por el viento, a pesar de que esta última posibilidad es considerablemente más probable. Más vale prevenir que lamentar. Si estos psicólogos evolutivos son correctos o no, parece probable que muchos sesgos cognitivos estén profundamente arraigados en el aparato cognitivo humano.
  • No conocemos en gran medida nuestros prejuicios. La investigación sobre el punto ciego del sesgo demuestra que la mayoría de nosotros podemos identificar fácilmente los sesgos cognitivos en casi todos, excepto en una persona, nosotros mismos. Como consecuencia de este meta-análisis, a menudo nos creemos en gran medida inmunes a los graves errores de pensamiento que afectan a otros. No somos simplemente parciales; tendemos a ser ciegos a nuestros propios prejuicios. Como consecuencia, a menudo confiamos demasiado en nuestras creencias, incluidas nuestras creencias falsas.
  • La ciencia es un conjunto sistemático de salvaguardas contra los prejuicios. A pesar de lo que la mayoría de nosotros aprendimos en la escuela secundaria, probablemente no haya un único «método científico», es decir, una receta unitaria para llevar a cabo una ciencia que atraviese todos los dominios de investigación. En cambio, lo que llamamos «ciencia» es casi seguramente un conjunto de herramientas extremadamente diversas, pero sistemáticas y finamente perfeccionadas que los humanos han desarrollado a lo largo de los siglos para compensar los prejuicios de nuestra especie. Quizás el más importante entre estos sesgos es el sesgo de confirmación, la propensión a buscar, interpretar y recordar selectivamente evidencia que respalde nuestras hipótesis, y a negar, descartar y distorsionar evidencia que no lo hace. Entonces, podemos concluir, que la ciencia es un método de control de la arrogancia; Esto es, ayuda a mantenernos honestos.
  • El pensamiento científico no es algo natural para la especie humana. Como algunos autores han señalado, el pensamiento científico no es natural. Necesita ser adquirido y practicado asiduamente. Algunos autores (por ejemplo, Gilbert, 1991) incluso han sostenido que nuestro aparato cognitivo es un motor creyente. Primero creemos, preguntamos después. En contraste, algunos psicólogos del desarrollo y educadores en ciencias han argumentado que los bebés humanos y los niños pequeños son «científicos natos» (por ejemplo, Gopnik, 2010). Es cierto que los bebés son intelectualmente curiosos, buscan patrones e incluso realizan experimentos en miniatura en el mundo. Pero no son buenos para clasificar qué patrones son reales y cuáles son ilusorios. Además, la visión de moda de que los bebés son científicos naturales es difícil de conciliar con el hecho de que la ciencia surgió relativamente tarde en la historia humana. Según algunos estudiosos, la ciencia surgió solo una vez en el curso de la especie humana, es decir, en la antigua Grecia, y no reapareció en toda su extensión hasta la iluminación europea del siglo XVIII (Wolpert, 1993). Tales realidades históricas no se cuadran fácilmente con las afirmaciones de que la ciencia es parte integrante del aparato cognitivo humano.
  • El pensamiento científico es exasperantemente específico del dominio. Los hallazgos en psicología educativa sugieren que las habilidades de pensamiento científico se generalizan lentamente, en todo caso, a través de diferentes dominios. Este punto probablemente ayuda a explicar por qué es tan difícil enseñar el pensamiento científico como una habilidad amplia que se puede aplicar a la mayoría o todos los campos. Es probable que esta verdad aleccionadora también ayude a explicar por qué incluso muchos ganadores del Premio Nobel y otros pensadores brillantes pueden caer fácilmente en el dominio seductor de la pseudociencia. Considere a Linus Pauling, el bioquímico estadounidense y dos veces ganador del Premio Nobel que se convenció de que la terapia ortomolecular, que implica la ingestión de dosis masivas de vitamina C, es un tratamiento efectivo para la esquizofrenia, el cáncer y otras enfermedades graves (Offit, 2017). Debemos recordarnos que ninguno de nosotros es inmune a las tentaciones de reclamos engañosos, particularmente cuando quedan fuera de nuestros dominios de experiencia.
  • La pseudociencia y la ciencia se encuentran en un espectro. Como señalé anteriormente, casi seguramente no hay una línea brillante que distinga la pseudociencia de la ciencia. Al igual que muchos pares de conceptos interrelacionados, como colina contra montaña y estanque contra lago, la pseudociencia y la ciencia se mezclan imperceptiblemente entre sí. El hecho de que no haya una distinción categórica entre pseudociencia y ciencia no significa que no podamos diferenciar ejemplos claros de cada concepto. Así como nadie equipararía el tamaño de un pequeño estanque en un parque local de la ciudad con el tamaño del lago de Chapala, pocos de nosotros equipararíamos el estado científico de la curación de cristales con el de la mecánica cuántica.
  • La pseudociencia se caracteriza por un conjunto de señales de advertencia falibles, pero útiles. Algunos contribuyentes a este tema parecen aceptar la opinión de que la pseudociencia es un concepto significativo, mientras que otros parecen no hacerlo. Siguiendo el ejemplo del filósofo de la ciencia Larry Laudan (1983), algunos autores sostienen que, debido a que el esfuerzo por demarcar la pseudociencia de la ciencia ha fallado, existe una escasa coherencia sustantiva al concepto de pseudociencia. Mi opinión, por lo que vale, es que la pseudociencia es un concepto de parecido familiar, que está marcado por un conjunto de señales de advertencia falibles, pero no obstante útiles. Tales signos de advertencia difieren un poco entre los autores, pero a menudo comprenden la ausencia de autocorrección, el uso excesivo de maniobras ad hoc para inmunizar las afirmaciones de refutación, el uso de un lenguaje científico pero vacío, afirmaciones extraordinarias en ausencia de evidencia convincente, dependencia excesiva en anecdóticos y afirmaciones testimoniales, evitación de la revisión por pares, y similares. A pesar de sus diferencias superficiales, todas estas señales de advertencia reflejan una falla para compensar el sesgo de confirmación, una característica general que los distingue de las ciencias maduras.
  • Las afirmaciones pseudocientíficas difieren de las afirmaciones erróneas. Intuitivamente, todos entendemos que hay una diferencia fundamental entre las noticias falsas y las nuevas. Esto último es simplemente incorrecto y, por lo general, es el resultado de que los medios están equivocados. Por el contrario, el primero es engañoso, a menudo intencionalmente. De manera similar, muchas y posiblemente la mayoría de las afirmaciones en la ciencia son seguramente erróneas, pero eso no las hace pseudocientíficas. En cambio, las afirmaciones pseudocientíficas difieren de las afirmaciones científicas incorrectas y, en muchos sentidos, son mucho más perniciosas porque son engañosas. Debido a que a primera vista parecen ser científicos, pueden engañarnos. Para la mayoría de los ojos no entrenados, parecen ser reales, pero no lo son.
  • El pensamiento científico y pseudocientífico se corta del mismo tejido psicológico básico. En muchos aspectos, esta es una de las ideas más profundas impartidas por la psicología contemporánea. Las heurísticas (Atajos mentales o reglas generales) son inmensamente valiosas en la vida cotidiana; sin ellos, estaríamos psicológicamente paralizados. Además, en la mayoría de los casos, la heurística nos lleva a respuestas aproximadamente correctas. Por ejemplo, si tres personas con máscaras y pistolas que empuñan entran en un banco y nos dicen a todos que nos caigamos al suelo, se recomienda que confiemos en la heurística de representatividad, el principio de que lo similar va con lo similar. Al hacerlo, concluiríamos que debido a que estas personas se parecen a nuestro prototipo de ladrones de bancos, probablemente sean ladrones de bancos. De hecho, la invocación de la heurística en este caso y en otros no solo es sabia, sino que generalmente es correcta. Aun así, cuando se aplica mal, la heurística puede llevar a conclusiones erróneas. Por ejemplo, muchos remedios médicos alternativos y complementarios sin fundamento se basan en la heurística de representatividad como una razón para su efectividad (Nisbett, 2015). Muchas compañías comercializan concentrado de cerebro crudo en forma de píldora para mejorar la memoria y el estado de ánimo (Gilovich, 1991). El razonamiento, aparentemente, es que debido a las dificultades psicológicas derivadas de un cerebro que funciona de manera inadecuada, «más materia cerebral» ayudará de alguna manera al cerebro a funcionar mejor.
  • El escepticismo difiere del cinismo. El escepticismo ha tenido una mala reputación en muchos sectores, en gran parte porque se confunde comúnmente con el cinismo. El término «escéptico» deriva de la palabra griega «skeptikos», que significa «considerar cuidadosamente». El escepticismo requiere que mantengamos una mente abierta a las nuevas demandas, pero que insistamos en pruebas convincentes antes de otorgarles una aceptación provisional. A este respecto, el escepticismo difiere del cinismo, lo que implica un rechazo rotundo de las afirmaciones inverosímiles antes de que hayamos tenido la oportunidad de investigarlas detenidamente. Para ser justos, algunas personas en el «movimiento escéptico» a veces han desdibujado esta distinción crucial al rechazar las afirmaciones de la mano. Los escépticos deben estar en guardia contra sus tendencias al sesgo de “desconfirmación”, una variante del sesgo de confirmación en el que rechazamos reflexivamente las afirmaciones que desafían nuestras ideas preconcebidas.

Si los lectores tienen en cuenta las diez lecciones anteriores mientras navegan por este blog, deberían estar bien equipados para navegar a través de otros sitios de divulgación estimulantes y sus implicaciones más amplias. Estas lecciones también deberían recordar a los lectores que todos somos susceptibles a reclamos cuestionables, y que la ciencia, aunque difícilmente es una panacea, es en última instancia nuestro mejor baluarte contra nuestras propias propensiones hacia la irracionalidad.

La pseudociencia, el miedo, la mala evaluación de riesgos y un malentendido general de la ciencia siempre han estado presentes en el mundo, pero la tecnología y las redes sociales les han permitido impregnar nuestra vida cotidiana. Con tantos «expertos» que tienen títulos de la Universidad de Google o de la Universidad de YouTube, ¿Cómo puede una persona promedio deshacerse de la ciencia real de la falsa? En algunos casos (Como los tratamientos médicos), estas elecciones pueden significar la vida o la muerte. En otros (Como la evaluación de riesgos), pueden hacer que las personas gasten dinero en artículos innecesarios o preocuparse por cosas absurdas mientras ignoran los peligros reales. En general impiden el crecimiento y el aprendizaje.

El primer paso es comprender exactamente qué se entiende por pseudociencia. Esto lo trataré en futuras entradas de este blog.

Referencias

What do Americans Fear Most? Chapman University’s Third Annual Survey of American Fears Released

Sheri Ledbetter

How Mental Systems Believe.

Daniel T. Gilbert

How Babies Think.

Alison Gopnik

The Unnatural Nature of Science: Why Science Does Not Make (Common) Sense.

Lewis Wolpert

Pandora’s Lab: Seven Stories of Science Gone Wrong

Paul A. Offit

1983 Physics, philosophy and psychoanalysis

R. S. Cohen and L. Laudan

Mindware: Tools for Smart Thinking.

Richard. E. Nisbett

How We Know What Isn’t So: The Fallibility of Human Reason in Everyday Life.

Thomas Gilovich

]]>
0
Torjo Sagua http://laenciclopediagalactica.info <![CDATA[El Modelo Del Gran Impacto]]> http://laenciclopediagalactica.info/?p=1981 2020-04-17T17:07:03Z 2020-04-17T17:07:02Z Ahora se cree que la Luna se formó como resultado de un impacto épico con un planeta del tamaño de Marte que competía por los mismos “bienes inmuebles” del sistema solar que la Tierra. La Tierra fue más grande y ganó, pero la Luna se formó a partir de los escombros del impacto. Justo después de su formación, la Luna estaba mucho más cerca y ejercía fuerzas mucho mayores en la Tierra. Las complejas interacciones gravitacionales han provocado que la distancia entre la Tierra y la Luna aumente, y todavía está aumentando hoy. La Luna es, por lo tanto, una parte integral de la evolución de la Tierra, y lleva un registro único de esa evolución.

Nueva Evidencia de las Rocas Lunares del Apollo

El escrutinio minucioso de las rocas y los suelos de la Luna traídos por las misiones Apolo demostró que las tres teorías anteriores a 1969 simplemente estaban equivocadas. Tres nuevas pistas de las rocas de Apolo imponen severas restricciones a las ideas sobre cómo surgió la Luna.

Primero, resulta que la Luna difiere dramáticamente de la Tierra en que no tiene un núcleo de metal de hierro grande y denso. El núcleo de la Tierra contiene casi un tercio de su masa, pero el pequeño núcleo de la Luna es menos del tres por ciento de su masa. Esta no es una diferencia trivial, ya que la densidad promedio de la Luna es solo alrededor de dos tercios de la de la Tierra.

En segundo lugar, las rocas lunares casi no contienen rastros de los elementos más volátiles, en particular nitrógeno, carbono, azufre e hidrógeno, que son tan comunes en la superficie de la Tierra. A diferencia de la Tierra, que está cubierta de agua líquida y cuyos suelos contienen abundantes minerales ricos en agua, como arcillas y micas, no se han encontrado minerales que contengan agua de ningún tipo en las rocas de traídas desde la Luna por las misiones Apollo. Algo debe haber “calentado” u “horneado” la Luna para eliminar la mayoría de esos volátiles, porque la Luna ahora es un lugar extremadamente seco.

El tercer hallazgo clave de las misiones Apollo se basa en el elemento oxígeno, o, más específicamente, en la distribución de sus isótopos. El hallazgo clave es que la composición de isótopos de oxígeno de la Luna es indistinguible de la de la Tierra. Entonces, los dos cuerpos parecen haberse formado a partir de las mismas cosas.

Esta evidencia demostró que la teoría de la fisión, la teoría de la captura y la teoría de la acrecreación estaban todas equivocadas. No pasó mucho tiempo para que surgiera una nueva idea.

El Modelo del Gran Impacto

El modelo del «Gran Impacto» surgió a mediados de la década de 1970 en respuesta a la necesidad urgente de algo nuevo. Lo que comenzó como una serie de hipótesis relacionadas, pero poco limitadas, se fusionaron con la sabiduría convencional en una conferencia crucial de 1984 en Hawai, donde los expertos en formación planetaria se reunieron para sopesar todas sus opciones. En un entorno tan embriagador, prevalece la navaja de afeitar de Ockham, que es la demanda de que la solución más simple a un problema consistente con los hechos sea la correcta. El modelo del Gran Impacto se ajustaba perfectamente.

Más de 4.500 millones de años, los planetas se acababan de formar a partir de todos esos planetesimales competidores más pequeños. A medida que la Tierra creció cerca de su diámetro actual de más de 12,700 kilómetros, se tragó casi todos los cuerpos restantes en una sucesión de enormes impactos. Esas penúltimas colisiones con objetos de muchos cientos de kilómetros de diámetro habrían sido espectaculares, pero tuvieron poco efecto en la Tierra, que era el protoplaneta mucho más masivo.

Pero no todos los impactos son iguales. En la historia de la Tierra, se destaca un solo evento. Hace unos 4.530 millones de años, cuando el sistema solar tenía quizás 30 millones de años, la Tierra no estaba sola. Dos objetos planetados, la proto-Tierra negra y un competidor un poco más pequeño del tamaño de un planeta, compitieron por el mismo anillo estrecho de “bienes inmuebles” del sistema solar. El posible planeta más pequeño, «Theia» (Llamado así por la Titán que dio a luz a la Luna), era digno de un estado planetario, probablemente más grande que Marte y aproximadamente un tercio de la masa de la Tierra.

Una regla de la astrofísica es que no hay dos planetas que puedan compartir la misma órbita. Eventualmente, colisionarán, y el planeta más grande siempre gana. Así ocurrió (Según este modelo) con la Tierra y Theia. La principal forma en que los científicos intentan comprender lo que podría haber sucedido es a través de simulaciones informáticas cada vez más vívidas. Algunos modelos son sorprendentemente exitosos y producen un sistema Tierra-Luna bastante parecido al que vemos hoy.

En una versión a menudo descrita, el impacto ocurrió como un deslizamiento lateral sólido, la gran Theia rompiendo la Tierra más grande ligeramente descentrada. Visto desde el espacio, el evento se habría desarrollado en cámara lenta. En el momento del contacto, los dos mundos parecieron al principio “besarse” suavemente. Luego, durante los siguientes cuatro o cinco minutos, Theia fue aplastada sin mucho efecto en la Tierra. Diez minutos después, Theia fue aplastada, mientras que la Tierra comenzó a deformarse. Media hora después de la colisión, Theia simplemente fue borrada, mientras que la Tierra herida ya no era una esfera simétrica. La roca supercaliente se había vaporizado, explotando en corrientes luminosas de la herida abierta y oscureciendo los mundos perturbados.

Otra solución ampliamente citada, propuesta por primera vez en la década de 1970 y refinada en las próximas dos décadas, fue desarrollada por el teórico nacido en Canadá, Alastair Cameron. En su intrigante escenario, Theia era aproximadamente el 40 por ciento de la masa de la proto-Tierra. Una vez más, teorizó que hubo un impacto descentrado, pero esta vez, Theia golpeó más o menos contra la Tierra, como una especie de “gota alargada”, y luego fue empujado hacia atrás para un segundo golpe, en el que Theia desapareció para siempre.

En cualquier caso, la catástrofe arrasó con Theia, que simplemente se vaporizó en una inmensa nube incandescente, decenas de miles de grados de temperatura, alrededor de la Tierra. Theia hizo su daño también. Una parte importante de la corteza terrestre y el manto también se vaporizaron y se expulsaron hacia afuera para mezclarse con los restos dispersos de Theia. Parte del material escapó al espacio profundo, pero la mayoría de los restos salvajes fueron retenidos en órbita por el agarre gravitacional inquebrantable de la Tierra.

De esta nube turbulenta, el metal denso de los núcleos de ambos mundos se tambaleó y se hundió para formar un nuevo núcleo más grande para la Tierra. Los materiales del manto también se mezclaron y vaporizaron, formando una nube de roca vaporizada que rodea el globo infernalmente caliente. Durante un tiempo violento de días o semanas, la Tierra experimentó una lluvia incesante de gotas de silicato de color naranja caliente, que se fusionaron con un océano de magma sin tierra y rojo brillante. Finalmente, la Tierra se apoderó de gran parte de lo que había sido Theia y, por lo tanto, emergió un planeta más masivo.

No toda Theia fue capturada. Más arriba en el espacio, la Tierra se vio rodeada por una gran acumulación de escombros de colisión rocosos, principalmente una mezcla íntima de los dos mantos planetarios. Enfriando gotas rocosas pegadas, con trozos más grandes barriendo los más pequeños. En una especie de repetición instantánea de la aglomeración gravitacional que originalmente formó los planetas, la Luna se fusionó rápidamente y pudo haber alcanzado más o menos su tamaño actual en unos pocos años.

La física de la formación de planetas dicta dónde podría haberse formado la Luna. Cada objeto masivo tiene una esfera circundante invisible, llamada límite de Roche, dentro del cual las fuerzas gravitacionales son demasiado grandes para que se forme un satélite. El límite de la Tierra para Roche es de aproximadamente 18,000 kilómetros, o aproximadamente 10,000 kilómetros desde la superficie.

En consecuencia, los modelos de formación de la Luna ubican el nuevo satélite a una distancia de aproximadamente 24,000 kilómetros de distancia, donde podría crecer de manera ordenada barriendo la mayor parte de los fragmentos dispersos del gran golpe. Entonces, hace aproximadamente 4.530 millones de años, nació la Luna. La Tierra se encontró con un compañero, formado en parte por piezas de sí mismo.

Los científicos adoptaron rápidamente la teoría del gran golpe porque explica todas las pistas principales mejor que cualquier otro modelo. La Luna carece de un núcleo de hierro porque la mayor parte del hierro de Theia terminó dentro de la Tierra. La Luna carece de volátiles porque los volátiles de Theia fueron eliminados durante el impacto. Un lado de la Luna siempre mira a la Tierra porque el momento angular de la Tierra y Theia se unieron en un sistema giratorio.

El gran golpe también ayuda a explicar la inclinación axial anómala de la Tierra de unos 23 grados, un factor que no se maneja bien en ninguno de los escenarios anteriores. El impacto inclinó a la Tierra de costado. De hecho, la constatación de que un impacto gigante tardío formó la Luna ha llevado a especular sobre otras anomalías planetarias en nuestro sistema solar.

Quizás los eventos tardíos de grandes golpes de un tipo u otro son comunes, incluso necesarios. Tal vez eso explique por qué Venus gira de manera «incorrecta» sobre su eje y por qué perdió tanta agua. Quizás un impacto gigante tardío hizo que Urano girara de lado.

La Luna Temprana

La formación de la Luna fue un evento fundamental en la historia de la Tierra, con consecuencias de gran alcance que son completamente sorprendentes y que recién ahora se están enfocando. La Luna de hace 4.500 millones de años no era el disco romántico y plateado que vemos hoy. Hace mucho tiempo, era una influencia mucho más inminente, dominante e inimaginablemente destructiva en el entorno cercano a la superficie de la Tierra.

La Luna se formó a solo 24,000 kilómetros de la superficie de la Tierra. Hoy, por el contrario, la Luna está a aproximadamente 385,000 kilómetros de distancia. A primera vista, parece completamente inverosímil que una Luna gigante pueda alejarse de la Tierra de esa manera, pero las medidas no mienten.

Hace unos 4.500 millones de años, la Luna llenó el cielo, dominando la vista del cosmos, y orbitaba la Tierra en pocos días. Además, la Tierra giraba sobre su eje mucho más rápido que hoy: Un día duraba solo 5 horas y había más de 1,500 días por año.

Las interacciones gravitacionales entre la Tierra y la Luna causaron mareas épicas tanto en tierra como en el agua. Esas mareas “tiraron” de la Luna, haciéndola orbitar más y más rápido, y, por lo tanto, cada vez más lejos, mientras que la rotación de la Tierra se ralentizó. Estas interacciones todavía están ocurriendo hoy.

La Luna sigue siendo un recordatorio luminoso de que el cosmos es un lugar de creación y destrucción entrelazadas. Nuestro vecino cósmico más cercano ofrece un testimonio mudo: Si bien el cambio suele ser gradual y benigno, puede haber días realmente malos. Nos detesta imaginarnos volver a ese tiempo violento y frenético: Océanos de magma, lluvia de silicato incandescente y mareas épicas terrestres en un mundo que carece por completo de una atmósfera que sostenga la vida o agua refrescante.

Referencias

The Story of Earth

Roberth M. Hazen

The Sciences.

James Trefil, Robert M. Hazen

1979 Origin of the Earth and Moon

Alfred E. Ringwood

2005 Origin of the Earth–Moon system

E M Galimov and A M Krivtsov

]]>
0
Torjo Sagua http://laenciclopediagalactica.info <![CDATA[¿Cómo se formó la Luna?]]> http://laenciclopediagalactica.info/?p=1977 2020-04-16T18:44:03Z 2020-04-16T18:44:00Z La Luna proporciona un ejemplo importante de cómo evoluciona la Tierra mediante ciclos repetidos de selección y concentración de elementos. La formación de la Luna es, por lo tanto, otro de los pasos críticos en la evolución de la Tierra. Los humanos han especulado sobre la formación de la Luna durante siglos. Tres teorías en competencia (La teoría de la fisión, la teoría de la captura y la teoría de la acumulación) estaban en disputa antes de 1969, pero el tesoro qulas rocas de la Luna del Apolo proporcionó la respuesta: Ninguna de las teorías anteriores a 1969 funcionó.

El Origen de la Luna

La historia de los orígenes de la Tierra parece ser clara y ordenada, excepto por un detalle sorprendente: La Luna. Durante gran parte de los últimos dos siglos, la presencia de la Luna ha demostrado ser extremadamente difícil de explicar.

Los satélites pequeños son bastante fáciles de entender. Marte tiene dos llamados Fobos y Deimos. Estos dos objetos irregulares tienen solo unos pocos kilómetros de diámetro y parecen no ser más que asteroides capturados. Ahora se cree que la mayor de los satélites que orbitan los planetas exteriores se formaron a partir de los restos no reclamados de formaciones planetarias. Por lo tanto, se formaron a partir de muchos bits más pequeños, al igual que los sistemas solares en miniatura.

La Luna de la Tierra, por el contrario, es relativamente grande en comparación con el planeta en el que orbita. Nuestra Luna tiene más de un cuarto del diámetro de la Tierra y aproximadamente 1/80 de su masa. Eso es excepcionalmente grande para un satélite en nuestro sistema solar.

Hace un siglo y medio, mucho antes de los aterrizajes históricos de la Luna del Apolo que comenzaron en 1969, mucho antes de la recuperación de las rocas vírgenes de la Luna, y mucho antes de que tuviéramos acceso a cualquier medición geofísica cuidadosa del interior de la Luna, todo lo que pudimos hacer fue observar la luna. Podríamos usar telescopios para estudiar la superficie lunar y medir la órbita de la Luna y sus variaciones a lo largo del tiempo. Eso no es mucha información.

La primera hipótesis científica ampliamente aceptada sobre los orígenes de la Luna fue la teoría de la fisión, propuesta en 1878 por George Howard Darwin, hijo de Charles Darwin, quien propuso la teoría de la evolución mediante el proceso de selección natural.

El escenario de George Darwin imagina cómo la Tierra fundida primordial debe haber girado sobre su eje tan rápidamente que se estiró y se alargó. Finalmente, un gran globo de magma salió de la superficie a la órbita (Con un poco de ayuda de la fuerza gravitacional del Sol). La Luna en este modelo es como un botón de la Tierra que se libera. También calculó cómo la Luna debe haber estado mucho más cerca de la Tierra en el pasado distante, y calculó la velocidad a la que continúan separándose.

En una variante de esta historia dramática, la cuenca del Océano Pacífico permanece como una marca reveladora, algo así como la cicatriz de nacimiento de la Madre Tierra. En la primera audiencia, esta idea parece bastante plausible. Cuando los objetos blandos y alargados como la masa de pizza o las gotas de agua giran demasiado rápido, se dividen en dos. La teoría de la fisión imagina un evento bastante violento y dramático.

Una segunda idea competitiva se llama la teoría de la captura. En este modelo razonable, se cree que la Luna se formó por separado como uno de los numerosos planetesimales más pequeños que ocupaban más o menos la misma distancia del Sol en el sistema solar emergente. En algún momento, según cuenta la historia, los dos cuerpos en órbita pasaron lo suficientemente cerca el uno del otro como para que la Tierra más grande capturara a la Luna más pequeña.

Ahora estamos bastante seguros de que tal mecanismo gravitacional funcionó lo suficientemente bien para las lunas rocosas más pequeñas de Marte, entonces, ¿Por qué no para la Luna de la Tierra? A diferencia de la teoría de la fisión de George Darwin, no parece haber habido ningún inventor de esta teoría de captura; Varios astrónomos lo aceptaron como una buena posibilidad.

La tercera hipótesis, y quizás la menos dramática, se llama teoría de la co-acreción, que sugiere que la Luna se formó más o menos en su ubicación actual y aproximadamente al mismo tiempo que la Tierra. En esta vista, los planetas se forman alrededor del Sol a partir de sus sobras, incluidos todos los meteoritos de condrita y acondrita, y luego los satélites se forman alrededor de los planetas exactamente de la misma manera desde sus sobras. Es casi seguro que las grandes lunas de Júpiter y Saturno se formaron de esta manera. Es un tema común, visto una y otra vez en el sistema solar: Los objetos más pequeños se acumulan a partir de nubes de polvo, gas y rocas alrededor de objetos más grandes.

Hay momentos en la ciencia en los que simplemente no hay suficientes datos para decidir entre las múltiples hipótesis de trabajo. Un grupo de científicos promoverá una idea favorita, y otros promoverán otra; los debates pueden ser animados, a veces incluso enojados y amargos. Pero sin más datos, no hay una posibilidad real de una resolución que satisfaga a todos.

Las Misiones Apollo

Las respuestas al misterio de los orígenes de la Luna tuvieron que esperar datos de las rocas de la Luna. Los seis aterrizajes de las misiones Apollo entre julio de 1969 y diciembre de 1972 presentaron caminatas lunares por 12 astronautas de la NASA, comenzando con Neil Armstrong y Buzz Aldrin. Estas misiones resultaron en una colección fenomenal de más de 840 libras de rocas lunares y muestras de suelo de seis sitios diferentes. También hubo muchas otras mediciones lunares clave, como lecturas de gravedad y estudios sísmicos.

Las misiones Apollo transformaron la ciencia planetaria de muchas maneras. Claro, eran un escaparate inigualable para la destreza tecnológica y la bravuconería estadounidense. Sin lugar a dudas, proporcionaron un tremendo impulso al complejo militar-industrial. Y las innumerables innovaciones inspiradas en Apollo, desde minicomputadoras hasta polímeros y el Tang, proporcionaron un motor económico que bien pudo haber pagado las misiones de 20 mil millones de dólares muchas veces. No es sorprendente que el orgullo nacional y la carrera por el «terreno elevado», no solo la ciencia lunar, fueran los principales impulsores de esas costosas y peligrosas misiones de la Luna temprana.

Aun así, sería difícil exagerar el impacto de las misiones Apollo y su tesoro de rocas lunares en los científicos de la Tierra. Durante toda la historia humana, la Luna estuvo tentadoramente cerca, a menos de 400 mil kilómetros. En una clara noche de verano, a medida que sale la luna llena, sientes que puedes extender la mano y tocarla. Pero no teníamos muestras, nada que nos dijera con certeza de qué está hecha la Luna. No teníamos forma real de saber cómo se formó la Luna.

Todo eso cambió con el primer lote de muestras lunares devueltas. Por primera vez, teníamos la verdad fundamental para las tres teorías en competencia. Podríamos, por primera vez en la historia humana, tocar la Luna. De hecho, ahora todos pueden tocar un pedazo de la Luna como visitantes del Smithsonian Institute.

Cuando surge el tema de las muestras lunares, la mayoría de la gente piensa inmediatamente en las rocas lunares, tal vez algo grueso que puede sostener en la mano. Pero una fracción significativa del material de Apollo era suelo lunar, lo que se conoce como regolito. La fracción más fina de regolito es roca pulverizada en fragmentos tan pequeños que no se pueden resolver con un microscopio. Es la consecuencia acumulativa de miles de millones de años de bombardeos por una batería de insultos cósmicos, desde poderosos asteroides hasta meteoritos y el incesante viento solar.

Puedes tener una sensación de regolito al pensar en los polvos. Este material es mucho más fino que la arena, el azúcar granular o la sal. Es incluso más fino que la harina; quizás un poco más como el polvo de talco o el tóner negro Xerox. Este polvo lunar ultrafino tiene propiedades realmente extrañas. Lo más notable es que el polvo se adhiere a sí mismo y a casi todo lo demás que toca.

La última misión Apollo fue en diciembre de 1972, con el Apollo 17 y el regreso de 275 libras de muestras del Valle Taurus-Littrow, que es una región de presuntos volcanes lunares. Nadie ha vuelto a la Luna en más de cuatro décadas.

Sin embargo, las rocas de la Luna han sido meticulosamente curadas en bóvedas estériles en la Instalación del Laboratorio de Muestra Lunar en el Centro Espacial Johnson de la NASA en Houston, Texas. Y también hay una copia de seguridad de muestras lunares representativas en White Sands, Nuevo México. Estas muestras continúan brindando una increíble riqueza de oportunidades para los investigadores.

La investigación en muestras de la Luna ha demostrado que los minerales de la Luna, aunque son muy similares en elementos principales a los de la Tierra, son bastante diferentes en detalles de lo que encontramos en la superficie de la Tierra. Tienen mucho más titanio; El cromo también es diferente.

Sorprendentemente, los resultados de las muestras de Apollo arrojan dudas sobre las tres hipótesis de formación de la Luna: la teoría de la fisión, la teoría de la captura y la teoría de la acumulación. Ninguna de las tres teorías predominantes sobre la formación de la Luna en 1969 se ajusta a los datos de las rocas lunares. Debe haber otra explicación.

Referencias

The Story of Earth

Roberth M. Hazen

The Sciences.

James Trefil, Robert M. Hazen

1979 Origin of the Earth and Moon

Alfred E. Ringwood

2019 When the Earth Had Two Moons

Erik Asphaug

]]>
2
Torjo Sagua http://laenciclopediagalactica.info <![CDATA[La Acreción y Diferenciación de la Tierra]]> http://laenciclopediagalactica.info/?p=1974 2020-04-15T23:32:22Z 2020-04-15T23:32:20Z La formación de la Tierra en la nebulosa solar tuvo lugar en dos etapas superpuestas: Acreción y diferenciación. La Tierra se ensambló a partir de planetesimales de un kilómetro a través de la acumulación desbocada, un proceso que puede haber durado unos 100.000 años. La fusión a escala planetaria condujo a la diferenciación de la Tierra en tres capas principales: Núcleo, manto y corteza, cada una de las cuales se subdivide en capas de diferente composición y densidad. Los detalles de la estructura interna de la Tierra provienen principalmente de dos tipos de mediciones geofísicas: Momento de inercia y sismología.

El Proceso de Acreción

El escenario ha sido preparado para la formación de la Tierra. La nebulosa solar había sido procesada, primero por el calor y la radiación del Sol T Tauri. Ese viento solar inicial formó las cóndrulas y las CAI y separó la mayoría de los componentes volátiles y “amantes de la atmósfera” de las regiones rocosas internas del sistema solar. Los datos de isótopos de los meteoritos más primitivos datan de esos eventos iniciales hace 4.567 millones de años. Esta primera etapa de evolución mineral vio la producción de quizás 60 minerales diferentes, muchos de los cuales ocurrieron solo en cristales microscópicos.

Las fuerzas electrostáticas hicieron que las cóndrulas y el polvo se unieran para formar grumos del tamaño de pelotas de baloncesto, y luego automóviles, y tal vez incluso casas. A medida que los grupos se hicieron más grandes durante un período prolongado de unos 10 o 20 millones de años, la gravedad se hizo cargo cada vez más, formando miles de millones de objetos irregulares de hasta un kilómetro de diámetro.

Este proceso de acreción se aceleró a medida que los planetesimales crecieron y su atracción gravitacional aumentó. La ley de gravitación de Isaac Newton explica por qué. La fuerza de gravedad es igual a una constante (G) multiplicada por la masa del primer objeto, multiplicada por la masa del segundo objeto, todo dividido por la distancia al cuadrado: F = G(m1m2)/R2. Es decir, dos objetos separados por una distancia experimentan una fuerza gravitacional.

La implicación de esta ecuación es que la masa realmente importa. En una nebulosa giratoria, los objetos se mueven y rozan constantemente entre sí, por lo que el término de distancia es prácticamente el mismo para objetos más pequeños o más grandes, al menos mientras hay muchos objetos en órbita alrededor del Sol. Sin embargo, si las masas son pequeñas, solo unas pocas onzas o unas pocas libras, la gravedad es extremadamente débil y no puede tener mucha influencia. Esa situación cambió, a medida que los planetesimales se hicieron cada vez más grandes a masas de miles o millones de toneladas. Ese es el punto cuando la gravedad se hizo cargo.

El mismo escenario se estaba desarrollando a todas las distancias del Sol, entre lo que ahora está dentro de la órbita de Mercurio y más allá del cinturón de asteroides, es decir, de unos 10 millones a 700 millones de kilómetros del Sol. Esta región había sido despojada en gran parte de su hidrógeno, helio y otros volátiles. Lo que quedó hace 4.550 millones de años fueron innumerables rocas grandes que eventualmente se convertirían en los cuatro planetas terrestres.

Las etapas finales de la formación de la Tierra deben haber sido típicas de todos los planetas rocosos internos; de hecho, los modelos de computadora muestran que durante un tiempo todos sus destinos estuvieron vinculados por eventos violentos aleatorios. Esta última etapa de la formación de planetas se llama acreción fuera de control, un intervalo que tal vez duró 100,000 años cuando la gravedad tenía el control total.

Comenzamos esa etapa con miles de millones de objetos en una variedad de tamaños, pero con una población significativa de un kilómetro de diámetro o más. Cuando dos de estos objetos se acercan, la fuerza de la gravedad los une y se fusionan: cuanto más grandes y masivos son los cuerpos, más violento es el impacto.

Los modelos de computadora revelan la progresión inevitable de tal escenario. Las estadísticas muestran que algunos objetos inevitablemente se hacen más grandes más rápido, lo que significa que tienen una atracción gravitacional mucho más fuerte y crecen aún más rápido.

Quizás miles de planetesimales crecen a tamaños de 50 a 100 kilómetros o más. Barren los pedazos más pequeños, y algunos de esos planetesimales crecen aún más rápido que otros, lo que lleva a quizás docenas de protoplanetas que alcanzan los 500 kilómetros de diámetro. Este es un sistema solar de quizás 50 a 100 protoplanetas de buen tamaño.

En este punto, cada impacto libera enormes cantidades de energía. Algunos planetesimales se hacen pedazos, de ahí provienen muchos de los asteroides y meteoritos. Más típicamente, un planetesimal más pequeño se estrellará contra uno más grande y se tragará por completo.

Los modelos de computadora muestran que las órbitas de estos protoplanetas más grandes se alteran fácilmente por las colisiones en la etapa final, por lo que, si tiene una docena de objetos realmente grandes en órbita en el rango de 10 a 700 millones de kilómetros del Sol, cualquiera de ellos podría finalmente terminar en casi cualquier órbita. Lo que no es completamente al azar es la distribución orbital final de los planetas estables. No pueden persistir dos planetas por mucho tiempo a la misma distancia orbital; el planeta más grande siempre consume al más pequeño.

El protoplaneta que se convertiría en la Tierra fue el objeto más grande para sobrevivir en nuestra sección de bienes inmuebles del sistema solar, a aproximadamente 150 millones de kilómetros del Sol. En el momento de sus etapas finales de formación, la Tierra era un mundo solitario y sin luna que casi había alcanzado su tamaño actual de 12,740 kilómetros de diámetro y su masa de 6 mil millones de kilogramos.

Su órbita entonces, como lo es ahora, era casi circular, y la duración del año estaba cerca del valor moderno de 365 días actuales, aunque la duración del día de la Tierra fue mucho más corta que el ciclo de 24 horas que experimentamos hoy.

Los astrónomos concluyen que la Tierra recientemente acrecida tenía algunas similitudes con nuestro planeta moderno, pero su apariencia era radicalmente diferente del planeta azul veteado que conocemos. No había océanos ni continentes. Ni siquiera había una atmósfera al principio. Durante los primeros días turbulentos de la Tierra, era una esfera caliente y ennegrecida de densas rocas ígneas.

La Tierra no podía permanecer sin aire por mucho tiempo. Los planetas rocosos son pobres en volátiles en comparación con los gigantes gaseosos más distantes, pero no están libres de volátiles. El magma debajo de la espesa corteza negra contenía suficiente agua, nitrógeno y carbono para reducir significativamente los puntos de fusión de la roca y disminuir su viscosidad de la de una pasta espesa al agua corriente.

Este magma, menos denso que su entorno, explotó grietas y fisuras para abrirse paso hacia la superficie. El magma explotó con una fuerza tremenda al romper la superficie, liberando grandes cantidades de vapor y otros gases, lo que eventualmente se convertiría en los océanos y la atmósfera. La Tierra, entonces, era tan extraña y hostil como cualquier mundo que podamos imaginar.

El Proceso de Diferenciación

El momento de los eventos acumulativos finales que formaron la Tierra todavía es un tema de debate científico, pero hay un par de líneas de evidencia. Las más importantes son las edades radiométricas de los meteoritos más procesados: Los hierros, los pedregosos y las acondritas pedregosas. Estas edades son relativamente consistentes y apuntan a la existencia de protoplanetas completamente diferenciados por aproximadamente 4.550 millones de años. Eso es aproximadamente 15 a 20 millones de años después de que se formaron las primeras “gotas” espaciales, esas inclusiones ricas en calcio y aluminio que se encuentran en las condritas.

Los astrónomos también tienen una idea de la cantidad de estrellas jóvenes que aún tienen discos protoplanetarios de gas y polvo. No podemos ver cómo esos discos se convierten en planetas; El proceso lleva demasiado tiempo. Pero el simple hecho de que tantas estrellas jóvenes estén rodeadas por discos de pequeños objetos indica que la formación de planetas requiere escalas de tiempo extendidas.

La mejor estimación de la duración de todo el proceso, desde la primera erupción solar hasta un sistema solar con una docena de planetas y protoplanetas, es ciertamente no menos de 10 millones de años, pero probablemente no más de 20 o 30 millones.

Sabemos por la variedad de meteoritos que ocurrían muchas cosas dentro de los protoplanetas y, por extensión, también dentro de la Tierra. En nuestro planeta, como en todos los demás objetos rocosos grandes, la gravedad había agrupado las primitivas condritas juntas mientras el calor alteraba la mezcla. Presiones aplastantes, temperaturas abrasadoras, agua químicamente reactiva e impactos violentos reelaboraron los planetesimales en crecimiento.

En el proceso, surgieron más y más minerales nuevos, en conjunto más de 250 minerales diferentes que se encuentran colectivamente en todas las variedades de meteoritos, un aumento de 4 veces sobre la etapa 1 y un aumento de 20 veces sobre la docena de minerales-ur pre-solares. Estas especies minerales ricamente variadas, los bloques de construcción de la Tierra y otros planetas rocosos, revelan el lado oculto de la acumulación: El proceso de diferenciación.

La diferenciación, que finalmente condujo a la separación de elementos en meteoritos de hierro, frente a meteoritos de hierro pedregosos, frente a los variados meteoritos de piedra acondríticos, fue impulsada por el calor de dos fuentes. Los isótopos radiactivos, particularmente los radionucleidos de vida corta como el aluminio-26 y el xenón-129, fueron una fuente principal, que representa más de la mitad de la energía calorífica total en los primeros planetesimales. A este calor radiogénico se agregó la transformación de la energía potencial gravitacional en calor a medida que los planetesimales agregaban masa y el material más denso se acumulaba en los núcleos profundos de estos objetos.

Estos mismos procesos ocurrieron en la Tierra, pero a una escala aún mayor. La diferenciación planetaria del tipo experimentado por la Tierra surge principalmente de dos mecanismos complementarios: Diferenciación química y diferenciación física. Según el pensamiento actual, tanto los procesos químicos como los físicos contribuyen al tipo de capas concéntricas que se observan en todos los planetas terrestres, así como en todas las lunas rocosas y protoplanetas más grandes.

Momento de Inercia y Sismología

La diversidad de meteoritos proporciona una fuerte evidencia de una Tierra en capas, con un núcleo de hierro y un manto de silicato. Dos técnicas geofísicas primarias revelan la distribución de masa dentro de la Tierra. La primera y más antigua técnica consiste en medir el momento de inercia de la Tierra, que se define como la resistencia de un objeto a cualquier cambio en la rotación.

Si puede medir la fuerza necesaria para ralentizar la rotación de la Tierra, entonces tiene evidencia directa de la distribución de masa en el interior. El momento de inercia de la Tierra se ha medido de varias maneras, incluidas las mediciones modernas de satélites. Los estudios sobre el efecto de las mareas en desacelerar gradualmente la rotación de la Tierra y aumentar la distancia Tierra-Luna proporcionan un método clásico importante.

El momento de inercia de la Tierra es significativamente menor que el de una esfera uniforme del mismo tamaño y masa, lo que significa que se concentra significativamente más masa en un núcleo denso en comparación con una esfera uniforme. Si supone que la Tierra tiene dos regiones dominantes, el núcleo y el manto, entonces es posible predecir con buena precisión la profundidad de 2.900 kilómetros del límite entre el núcleo y el manto.

Nuestra imagen más detallada del interior de la Tierra proviene de la rama de la geofísica llamada sismología, que es el estudio de cómo viajan las ondas de sonido a través de la Tierra. Las ondas sísmicas son el tipo de ondas generadas por los terremotos.

La clave de la sismología es que las ondas de sonido viajan a través de diferentes tipos de materiales a diferentes velocidades, generalmente varios kilómetros por segundo. Estas velocidades, o velocidades sísmicas, son generalmente más rápidas para materiales más densos y más lentas para materiales más calientes, especialmente si se funden parcialmente.

Referencias

The Story of Earth

Roberth M. Hazen

The Sciences.

James Trefil, Robert M. Hazen

Understanding Earth.

John Grotzinger, Thomas H. Jordan

]]>
0
Torjo Sagua http://laenciclopediagalactica.info <![CDATA[Acondritas y Afinidades Geológicas]]> http://laenciclopediagalactica.info/?p=1971 2020-04-14T17:16:10Z 2020-04-14T17:16:07Z Hace aproximadamente 4.560 millones de años, el Sol se había formado y encendido, mientras miles de planetesimales competían por el espacio en el joven sistema solar. Como veremos en esta entrada, tres procesos (Calentamiento que produjo metamorfismo térmico y fusión, interacciones fluido-roca que produjeron alteraciones acuosas e impactos) diversificaron la mineralogía del sistema solar. La clasificación de Victor Goldschmidt de los elementos químicos ayuda a explicar por qué algunos elementos son raros o no formaron minerales separados en esta etapa temprana.

Fuentes de Innovación Mineralógica

A medida que la gravedad agrupaba las primeras condritas, y cuando la presión aplastante, la temperatura de escaldadura, el agua corrosiva y los impactos violentos reelaboraron los planetesimales en crecimiento, surgieron más y más minerales nuevos. En total, se han encontrado más de 250 minerales diferentes en todas las variedades de meteoritos, un aumento de 20 veces sobre la docena de minerales-ur pre-solares. Estos sólidos variados se convirtieron en el punto de partida para la Tierra y todos los demás planetas.

A medida que los planetesimales atraían gravitacionalmente más y más masa y crecían más y más en el proceso, tres mecanismos primarios alteraron los aproximadamente 60 minerales condríticos: Calor, agua e impactos. Juntos, estos tres agentes de cambio marcaron el comienzo de la segunda etapa de la evolución mineral.

Tres fuentes de calor transformaron la nebulosa solar en evolución. El primero fue el Sol, con vientos solares como un alto horno que horneó las regiones más internas, eliminó gases y otros volátiles de la zona extendida dentro de la órbita de Júpiter, y proporcionó el primer episodio significativo de destilación en el sistema solar.

El Sol causó el dramático contraste entre los planetas rocosos internos y los planetas exteriores gigantes gaseosos. El Sol también fue probablemente el culpable de la producción de las extrañas condritas enstatitas pobres en oxígeno. Los aproximadamente 60 minerales de la etapa 1, todos contenidos en meteoritos primarios de condrita, surgieron como consecuencia del poder de refinación del Sol.

A medida que el Sol se estableció en una fase más estable de combustión de hidrógeno, dos fuentes adicionales de energía térmica se hicieron cargo. El primero fue la gravedad, o más específicamente, la transformación de la energía potencial gravitacional en calor a medida que los planetesimales se hicieron más grandes. Cada nueva colisión agregaba más calor; cuanto más grande es el planetesimal, más amplificado es ese efecto. Por último, la acumulación de masa también atrapó grandes cantidades de isótopos altamente radiactivos que se descompusieron y, por lo tanto, liberaron más energía térmica.

El agua representa la segunda fuente poderosa de innovación mineralógica en planetesimales. El agua no tiene paralelo como agente de cambio porque es químicamente reactivo y móvil. El agua salada del océano habla de la capacidad del agua para descomponer y disolver minerales. Cuando el agua salada se evapora, se forman pequeños cristales de mineral halita. El cloruro de sodio, la sal de mesa común, se produce por la capacidad del agua de disolverse primero y luego transportar otros químicos.

Como resultado, los meteoritos de acondrita contienen una variedad de minerales de evaporita similares. La halita forma algunos hermosos cristales morados: El color proviene de la edad extrema de los cristales que han sufrido miles de millones de años de daño por radiación. Y hay otros minerales depositados en agua, incluyendo la apariencia del importante yeso mineral de sulfato y de los carbonatos, minerales que hoy forman arrecifes de coral y conchas.

La tercera fuente poderosa de innovación mineralógica son los efectos dramáticos y formadores de minerales de los impactos. Cuando un asteroide más pequeño golpea un planetesimal en crecimiento, se produce un breve período de temperaturas y presiones extremadamente altas. Los efectos de este choque incluyen la producción de una variedad de minerales que solo se pueden producir en condiciones muy extremas, que generalmente se encuentran en el interior de los planetas.

Etapa 2 de la Evolución Mineral

La segunda etapa de la evolución mineral incluyó las primeras arcillas de grano fino, mica en forma de lámina y circón semiprecioso, todo lo cual se convirtió en bloques de construcción de planetas. Pero esa no es toda la historia de la etapa 2 de la evolución mineral. También es importante considerar qué minerales no se formaron y por qué.

Es fácil concentrarse en los aproximadamente 250 minerales que habían aparecido en el momento de las acondritas: es un aumento de aproximadamente 1 por ciento a aproximadamente 5 por ciento del inventario de minerales futuros de la Tierra. Pero quizás igualmente importantes son la miríada de minerales, casi el 95 por ciento de todas las especies conocidas, que no se habían formado hace 4.500 millones de años.

Incluso en los meteoritos de acondrita más procesados, la mayoría de los elementos (incluidos Uranio, boro, berilio y docenas de otros) no formaron sus propios minerales, o si lo hicieron, son tan raros y los cristales son tan pequeños que no encontrado aún.

Una consulta importante sin respuesta es dónde residen esos elementos raros, y hay una serie de ideas en competencia. Algunos elementos podrían distribuirse aleatoriamente como átomos extraños en otros minerales. Con una solución sólida, un elemento sustituye a otro elemento de tamaño y carácter de unión similares.

Un ejemplo común es la sustitución de hierro por magnesio en olivina. Y el elemento hafnio siempre sustituye al circonio, más comúnmente en el mineral circón. El hafnio está justo debajo del circonio en la tabla periódica. Es probable que otros elementos raros sustituyan de la misma manera los elementos más comunes del mismo grupo en la tabla periódica: Galio para aluminio, litio para sodio o selenio para azufre, por ejemplo.

Otra hipótesis es que pequeñas cantidades de elementos raros se concentran en los límites de los granos, tal vez en pequeños volúmenes que no tienen estructuras cristalinas regulares. O tal vez algunos de los elementos están presentes en las nanofases, pero todavía no los hemos encontrado.

La Clasificación Goldschmidt

Al final de la etapa 2, solo habían aparecido unos 250 minerales de los más de 4.700 conocidos hoy. Una forma de entender todos esos minerales que faltan es observar la clasificación geoquímica de los elementos, introducida por primera vez en la década de 1920 por el mineralogista y geoquímico suizo Victor Goldschmidt.

Goldschmidt hizo muchas contribuciones a la mineralogía, incluidos reveladores estudios de campo donde se dio cuenta de que se forman nuevos minerales en entornos donde los elementos clave se han concentrado por diversos medios, como el agua y el calor.

Sus observaciones condujeron a sus publicaciones más famosas e influyentes. El título de estas contribuciones duraderas puede traducirse aproximadamente del alemán original como «Las leyes geoquímicas de la distribución de los elementos». Hoy, son mejor conocidos como la clasificación Goldschmidt de los elementos químicos.

La elegante idea de Goldschmidt es que diferentes elementos químicos tienen diferentes afinidades geoquímicas, es decir, se pueden separar y concentrar en unos pocos tipos de ambientes naturales, de la misma manera que la nebulosa solar temprana separó gases como el hidrógeno y el helio de las rocas ricas en silicato.

El esquema de clasificación original se centró en los 86 elementos más comunes que se encuentran en la Tierra y dividió la tabla periódica en cuatro grupos principales: Elementos litófilos, siderófilos, calcófilos y atófilos. Los elementos dentro de cada uno de estos grupos comparten características químicas que conducen a mineralogías distintivas.

  • Los elementos litófilos (“Amantes de las rocas”) se concentran en rocas corticales.
  • Los elementos siderófilos (“Amantes del hierro”) se concentran en el núcleo metálico.
  • Los elementos calcófilos (“Amantes de los minerales”) se unen al azufre.
  • Los elementos atófilos (“Amantes de la atmósfera”) tienden a permanecer en un estado gaseoso.

La clasificación Goldschmidt tiene muchas sutilezas que enriquecen el campo de la geoquímica. Por un lado, bastantes elementos tienen un carácter mixto. Por lo tanto, el hierro, que es el elemento definitorio de siderófilo, también ocurre comúnmente con azufre, por ejemplo, en la lustrosa pirita mineral dorada o el oro de los tontos. El hierro también es uno de los elementos más comunes en la corteza en óxidos y silicatos, por ejemplo, en la importante magnetita mineral magnética, un óxido de hierro que es uno de los principales minerales de hierro.

De hecho, la mayoría de los elementos siderófilos, incluidos el manganeso, el níquel y el cobalto, pueden adquirir características litófilas si hay mucho oxígeno alrededor, mientras que muchos de los elementos litófilos pueden adherirse al azufre y convertirse en calcófilos en condiciones de bajo contenido de oxígeno. Los inusuales meteoritos de condrita enstatita incorporan sulfuros de calcio y magnesio, que normalmente son elementos litófilos.

La temperatura y la presión también juegan papeles importantes. Como han demostrado muchos experimentos de laboratorio, resulta que prácticamente todos los elementos químicos adquieren propiedades metálicas a una presión lo suficientemente alta. A medida que los átomos se fuerzan cada vez más, algunos electrones inevitablemente se vuelven demasiado confinados y se liberan para moverse libremente por la sustancia. Esa es la definición de un metal. Los experimentos a alta presión han demostrado la metalización a alta presión de todo tipo de elementos, desde yodo hasta azufre y oxígeno.

Uno de los grandes desafíos en la ciencia de los materiales experimentales es lograr la presión extremadamente alta necesaria para convertir el gas de hidrógeno en un metal. Algunos investigadores se han acercado. El hidrógeno cristaliza en un sólido incoloro a aproximadamente 50,000 atmósferas, lo cual es fácil de lograr. Los cristales consisten en filas regulares de pequeñas moléculas de H2, como pesas. A esas presiones más bajas, las pesas giran en todas direcciones.

Luego, a medida que llega a presiones más altas, a medida que el volumen disminuye y el espacio se estrecha, las pesas se bloquean en una orientación, no tienen espacio para rotar libremente. Por encima de 1 millón de atmósferas, las pequeñas moléculas de H2 comienzan a separarse: Los dos átomos de hidrógeno dentro de una molécula en realidad se separan más, mientras que los espacios entre las moléculas se acortan mucho más.

Luego, a una presión realmente alta, tal vez 5 millones de atmósferas, los átomos deberían espaciarse uniformemente y formar un metal. Ese es un gran desafío experimental, pero los cálculos teóricos hacen que sea bastante seguro que el hidrógeno metálico será la fase estable y que el estado metálico del hidrógeno debe ocurrir dentro de los planetas gigantes gaseosos.

De hecho, algunos astrofísicos sugieren que el hidrógeno metálico dentro de los grandes planetas es el mineral por volumen más común en el universo. En cualquier caso, la historia del hidrógeno revela los matices y la flexibilidad de la clasificación de elementos Goldschmidt.

Naturalmente, a medida que han pasado las décadas y el esquema de clasificación Goldschmidt ha sido adoptado por más y más especialistas, han surgido nuevas subclasificaciones. Uno de los más interesantes es la categoría de elementos pegmatófilos (“Amantes de la pegmatita”), que son rocas ígneas extremadamente ricas en agua que tienden a concentrar algunos de los elementos litófilos más raros.

La clasificación geoquímica de Goldschmidt de los elementos es solo otra forma de catalogar elementos, pero no son solo listas. El esquema de clasificación y sus elaboraciones posteriores nos ayudan a comprender las muchas formas en que los elementos pueden seleccionarse, concentrarse, transportarse y cristalizarse en el rico patrimonio mineralógico de la Tierra.

Los siderófilos son más densos y tienen más probabilidades de encontrarse hacia el núcleo; los calcófilos no son tan densos; los litófilos son incluso menos densos; y los atófilos son los menos densos de todos, comunes en la atmósfera o perdidos en el espacio.

Referencias

The Story of Earth

Roberth M. Hazen

2010 Mineralogical Evolution of Meteorites

Timothy J. McCoy

Systematics and Evolution of Meteorite Classification

Weisberg, McCoy, and Krot

1999 Encyclopedia of Geochemistry

Marshall, C.P., Fairbridge, Rhodes W

Geochemistry

WM White

2018 Encyclopedia of Geochemistry

William M. White, William H. Casey, Bernard Marty & Hisayoshi Yurimoto

]]>
0