La Enciclopedia Galáctica http://laenciclopediagalactica.info Por Torjo Sagua Tue, 10 Aug 2021 16:44:27 +0000 es hourly 1 https://wordpress.org/?v=5.8.3 54705453 Planificación Estratégica http://laenciclopediagalactica.info/2021/08/10/planificacion-estrategica/ http://laenciclopediagalactica.info/2021/08/10/planificacion-estrategica/#respond Tue, 10 Aug 2021 16:41:55 +0000 http://laenciclopediagalactica.info/?p=2070 Introducción

Las organizaciones empresariales brindan productos y servicios no solo a la comunidad en la que operan, sino también en todo el mundo a través de la tecnología de Internet. Los cambios de gobierno y los eventos globales desencadenan cambios en el entorno económico. Las empresas progresistas pueden hacer frente a los desafíos y sobrevivir en el cambiante entorno económico competitivo. La planificación estratégica es la puerta de entrada a la misión, visión, objetivos y metas de la organización. Es el proceso de

i) Identificar el entorno externo y el entorno de la organización en el que opera;
ii) Formular una misión y una visión;
iii) Desarrollar metas a alcanzar;
iv) Crear y seleccionar estrategias a seguir y
v) Asignar recursos para lograr los objetivos.

Los eventos críticos e inesperados, como terremotos o inundaciones, exigen un tipo diferente de planificación: planificación de contingencia. A medida que la organización crece y el entorno empresarial se vuelve más complejo, existe una mayor demanda de planificación estratégica. Todos los empleados de la organización deben comprender la dirección y la misión corporativa de la organización. Las organizaciones que pueden adoptar un enfoque disciplinado de la planificación estratégica evolucionan con éxito a medida que cambia el mercado.

Definición

La estrategia es un programa amplio para diseñar y lograr los objetivos de la organización y su respuesta a su entorno a lo largo del tiempo.

Objetivos de la planificación estratégica

Los siguientes son los objetivos de la planificación estratégica:

1. Establecer dirección estratégica: La dirección estratégica (a) define las metas que la empresa quiere alcanzar; (b) indica dónde deben asignarse los recursos; y (c) se centra en los objetivos estratégicos como una prioridad.
2. Priorizar la asignación de recursos: Asignación efectiva de recursos humanos, financieros y materiales.
3. Establecer estándares de excelencia: La organización es capaz de establecer valores compartidos y estándares de excelencia.
4. Afronte los desafíos del entorno externo cambiante: El plan estratégico es lo suficientemente flexible para gestionar contingencias por incertidumbre y cambio.
5. Establecer una base para el control y la evaluación: La planificación estratégica permite a la organización monitorizar los éxitos y fracasos. Las mediciones del desempeño o el seguimiento de los objetivos estratégicos y los planes de acción actúan como mecanismos de control.

Beneficios de la Planificación Estratégica

La planificación estratégica exitosa ayuda a una organización de dos maneras:

i) Crea conciencia de las prioridades de la empresa en sus empleados y
ii) Mejora el trabajo en equipo, permitiendo que los empleados logren sus metas de manera efectiva.

Mejora del enfoque

Crea una comprensión de la misión, los valores y la estrategia corporativa de la empresa entre las partes interesadas internas y externas.

• Desarrolla un plan de acción basado en información actual.
• Establece hitos para monitorizar los logros y evaluar los resultados.
• Crea información para promover los productos y servicios de la organización.

Mejora del trabajo en equipo para alcanzar los objetivos

• Crea un foro para comprender el propósito de la organización y sus valores que deben influir en las decisiones.
• Mejora la comunicación entre la dirección y el resto del personal.
• Establece un marco para comprender el cambio fomentando el pensamiento estratégico y centrándose en áreas importantes que contribuyen al éxito a largo plazo de la organización.
• Se enfoca en oportunidades que cumplen con la misión de la empresa.
• Fomenta el uso del plan estratégico para adaptarse a circunstancias cambiantes.

Evolución progresiva de la planificación estratégica

Con anterioridad (En la década de 1980) se ha examinado el desarrollo de sistemas de planificación a lo largo del tiempo en grandes empresas donde la planificación formal y la toma de decisiones están estrechamente vinculadas. Identificaron cuatro fases de la evolución de la planificación estratégica en estas empresas. La siguiente tabla muestra la evolución progresiva en términos de estas cuatro fases.

Proceso de planificación estratégica

El proceso de planificación estratégica se puede resumir en los siguientes 10 pasos, que vinculan la planificación y la implantación, lo que permite a la organización gestionar de forma continua:

1. Iniciar y decidir sobre un proceso de planificación estratégica.
2. Identificar mandatos organizacionales.
3. Establecer la misión y el valor de la organización.
4. Evaluar los entornos externos e internos.
5. Identificar los problemas estratégicos que enfrenta la organización.
6. Diseñar estrategias para manejar los problemas.
7. Revisar y adoptar las estrategias o plan estratégico.
8. Crear una visión organizacional efectiva.
9. Desarrollar un plan de implantación eficaz.
10. Monitorizar las estrategias y el proceso de planificación estratégica.

Iniciar y acordar un proceso de planificación estratégica

El propósito de este paso es realizar un análisis preliminar de las partes interesadas e identificar las partes involucradas en el esfuerzo y los tomadores de decisiones. Se introduce el concepto de planificación estratégica para que el grupo pueda comprender las aplicaciones e implicaciones del proceso y fomentar el compromiso con el mismo. En este paso inicial, se definen los roles y responsabilidades, los pasos preferidos en el proceso, el marco de tiempo, los recursos necesarios y las limitaciones.

Identificar obligaciones organizacionales

Durante este paso, se identifican las regulaciones, políticas, estatutos, artículos y contratos relevantes que tienen influencia en la organización y las restricciones impuestas sobre ella.

Aclarar la misión y los valores de la organización

La declaración de misión define el propósito de la organización. Se realiza un análisis adecuado de las partes interesadas para generar respuestas a las siguientes preguntas:

• ¿Quiénes son nuestros clientes?
• ¿Cuáles son sus necesidades?
• ¿Cómo puede la organización mejorar la satisfacción del cliente?

La declaración de misión conduce a una comprensión adecuada de los valores de la organización.

Crear una misión

La declaración de misión describe el propósito o la razón de la existencia de la organización. Su creación involucra a las personas de la organización y a los diferentes componentes que espera afectar. Sobre todo, debe inspirar compromiso, innovación y coraje. Una declaración de misión debe definir el propósito, el negocio y los valores de la organización.

La declaración de misión de la organización contiene tres declaraciones fundamentales:
1. La declaración de propósito, que se centra en la razón de la existencia de la organización y lo que espera lograr en el futuro.
2. La declaración comercial, que describe las actividades o programas de la organización que se implantarán para lograr el propósito.
3. La declaración de valor, que incluye las creencias que el personal comparte en común, y estas las orientan en el desempeño de su trabajo para la organización.

Las declaraciones de misión de la mayoría de las empresas no cumplen estas condiciones. La declaración es una descripción de sus intenciones, sin ninguna indicación sobre cómo podrían lograrse, o una descripción de sus productos y servicios. A continuación, se proporciona un ejemplo de declaración de misión que cumple las tres condiciones:

Dionysos SA de CV produce y vende vinos premium al mercado local y de exportación desde hace más de 22 años. Nos dedicamos a producir vinos premium para satisfacer todos los segmentos del mercado trabajando con nuestros viticultores para mejorar la calidad de nuestras uvas, adoptando tecnología moderna del vino, mejorando la imagen de nuestros productos, mientras nos enfocamos en los valores sociales de la comunidad y minimizando nuestro impacto ambiental.

Evaluar el entorno interno y externo

Este paso implica la evaluación del entorno interno y externo mediante el análisis FODA (Fortalezas, Debilidades, Oportunidades, Amenazas). Las fortalezas y debilidades definen la capacidad presente de la organización, y las oportunidades y amenazas reflejan el entorno externo y el potencial futuro. Es importante no olvidar, como seguimiento al FODA, la Matriz CAME (Corregir las Debilidades, Afrontar las Amenazas, Mantener las Fortalezas y Explotar las Oportunidades).

Análisis externo

El propósito del análisis externo es identificar oportunidades estratégicas y amenazas significativas en el entorno operativo de la organización que pueden influir en su impulso hacia la misión. El análisis externo implica la evaluación de tres factores ambientales interrelacionados:

i) El entorno industrial en el que opera la empresa;
ii) El país o gobierno nacional; y
iii) El entorno socioeconómico o macroeconómico más amplio.

El análisis del entorno de la industria implica tanto una evaluación de la estructura competitiva de la industria de la organización como la posición competitiva de la empresa. Debido a la proliferación de los mercados globales, la empresa debe examinar a los competidores globales para que se puedan tomar decisiones estratégicas para cambiar el mercado a otro país o expandir el mercado global actual.

Análisis interno

El análisis interno se centra en evaluar la estructura operativa interna de la organización. Se revisan las necesidades de recursos, las competencias y las capacidades. El objetivo del análisis interno es identificar y abordar las debilidades de una empresa.

Identificar los problemas estratégicos

Los problemas estratégicos son desafíos críticos que enfrenta la organización. Las cuestiones estratégicas son las cuestiones políticas fundamentales o los desafíos críticos que enfrentan los mandatos, la misión y los valores de la organización, la combinación de productos o niveles de servicio, los clientes, usuarios o pagadores, el costo, la financiación, la estructura, los procesos y la gestión. Incluyen:

i) Cuestiones de desarrollo que afectan al negocio principal;
ii) Cuestiones que no requieren ninguna acción actual pero que requieren un seguimiento cuidadoso;
iii) Cuestiones que pueden requerir alguna acción ahora, pero es probable que requieran acción en el futuro; y
iv) Cuestiones urgentes que necesitan atención inmediata.

Hay siete enfoques para identificar problemas estratégicos:

1. Enfoque directo: Los planificadores van directamente desde una revisión de los mandatos, la misión y el análisis FODA/CAME hasta la identificación de cuestiones estratégicas.
2. Enfoque indirecto: Comienza con una lluvia de ideas sobre diferentes tipos de opciones antes de identificar los problemas.
3. Enfoque de metas: Inicia una discusión de metas e identifica los problemas que deben abordarse antes de que puedan lograrse.
4. Enfoque de visión de éxito: Identifica los problemas que deben abordarse antes de que la visión se haga realidad.
5. Enfoque de mapeo ovalado: Implica la creación de diagramas de palabras y flechas que indiquen las acciones potenciales que una organización podría tomar, cómo se toman, las razones para tomar estas acciones y la interrelación entre ellas.
6. Enfoque de tensión de temas: Se basa en la premisa de que cualquier tema estratégico tiene cuatro tensiones mentales: Recursos Humanos (RR.HH.), preocupaciones por la equidad, innovación y cambio versus mantenimiento de la tradición y mejora de la productividad.
7. Enfoque de análisis de sistemas: Este enfoque implica utilizar la mejor manera de enmarcar los problemas cuando las áreas temáticas pueden considerarse como un sistema. Una cuestión estratégica contiene tres elementos:
a) La cuestión en sí se describe con precisión en un breve párrafo;
b) Factores que hacen que el problema sea significativo; y
c) Las consecuencias de no abordar el problema.

Formular estrategias

La formulación de estrategias se ocupa de la elaboración y el diseño de estrategias y la selección de las mejores para su implantación, a fin de lograr las metas y objetivos de la organización. Se identifican las áreas principales en las que una empresa necesita ayuda del entorno externo. En esta fase, se resuelven primero las cuestiones y problemas actuales de la organización.

Desarrollo de estrategias

Las estrategias pueden variar según el nivel y el período. La formulación de estrategias implica la creación de un conjunto de estrategias que vincularán eficazmente a la organización con su entorno y crearán valor público. Dos enfoques para desarrollar estrategias son el proceso de cinco partes y el proceso de mapeo.

a. Proceso de cinco partes: cada tema estratégico está sujeto a cinco preguntas básicas:
• ¿Cuáles son las alternativas prácticas, las expectativas y la visión que la organización desea perseguir para abordar el problema y alcanzar el resultado deseado?
• ¿Cuáles son las barreras para la realización de estas alternativas, expectativas y visión?
• ¿Cómo espera la organización superar estas barreras para alcanzar sus objetivos?
• ¿Cuáles son las principales acciones que la organización implantará para estas propuestas en los próximos uno o dos años?
• ¿Qué pasos específicos deben tomarse en los próximos dos o tres años para implantar la propuesta principal, y qué acciones específicas deben tomarse para implantar las propuestas dentro de los próximos 6 a 12 meses?
b. Proceso de mapeo: Este enfoque se utiliza cuando el equipo de planificación necesita o desea expresar la relación entre las diversas opciones para demostrar cómo encajan como parte de un patrón. El enfoque es:
• Generar múltiples opciones para abordar cada tema estratégico, expresado en términos de una acción.
• Vincule las distintas opciones usando flechas para indicar cómo se influyen entre sí; cada opción puede ser parte de más de una cadena.
• El resultado es un mapa de causa y efecto o medios para una relación final.
• Las opciones al final de la cadena de flechas son posibles objetivos o incluso declaraciones de misión.
Las estrategias efectivas comparten las siguientes características:
• Técnica y administrativamente factible.
• Aceptable para todas las partes interesadas.
• Orientado a resultados.
• Compatible con la filosofía y valores de la organización.
• Ético, moral y conforme a los requisitos reglamentarios.
• Abordar los problemas estratégicos que la organización pretende abordar.
• Debe crear valor y generar ganancias para la organización.

Tres aspectos de la estrategia

Los tres aspectos principales de la estrategia son (a) estrategia corporativa; (b) estrategia comercial o competitiva; y (c) estrategia de nivel funcional.

a. Estrategia corporativa: La estrategia corporativa afecta a toda la organización. Define el negocio en el que está involucrada la empresa, muestra formas de adquirir o «desinvertir» negocios, describe la asignación de recursos entre los negocios y brinda formas de expandir la base de conocimientos y la sinergia en esos negocios. Las organizaciones constan de muchas unidades de negocio vinculadas entre sí en diversos grados en términos de propiedad, objetivos, productos y actividades como finanzas, marketing y gestión, etc. La sinergia entre las unidades de negocio puede variar entre varios negocios debido al tipo de conocimiento y competencias centrales que se pueden compartir. En organizaciones donde las empresas tienen poco en común, la toma de decisiones estratégicas se produce a nivel de negocio o unidad de negocio estratégica (SBU – Strategic Business Unit). Hay cinco tipos de estrategias de crecimiento empresarial: (i) Estrategia de integración futura; (ii) Estrategia de integración retrógrada; (iii) Estrategia de integración horizontal; (iv) Estrategia de diversificación céntrica; y (v) Estrategia de diversificación de conglomerados.
i. Estrategia de integración futura: la empresa entra en un negocio que acerca a la organización a sus clientes.
ii. Estrategia de integración retrógrada: La empresa matriz suele entrar en el negocio de sus proveedores para controlar los parámetros de suministro.
iii. Estrategia de integración horizontal: La matriz adquiere uno o más de sus competidores para consolidar la participación de mercado.
iv. Estrategia de diversificación céntrica: También conocida como estrategia de diversificación relacionada, una empresa adquiere un negocio relacionado con el negocio existente en términos de tecnología, productos y mercados. Por lo general, existen algunos elementos comunes entre las dos empresas, por ejemplo, la misma base de clientes y mercados, tecnología similar, redes de distribución, habilidades gerenciales y productos y servicios.
v. Estrategia de diversificación de conglomerados: Una empresa agrega otro negocio o servicio no relacionado a su línea de negocio. Más a menudo, la empresa matriz adquiere empresas establecidas.

b. Estrategia comercial o competitiva: Esta estrategia define la forma en que la organización compite en cada uno de sus negocios. La mayoría de las decisiones estratégicas se toman a nivel empresarial o de su SBU. Sin embargo, esto dependerá de si existe sinergia, economías de escala y alcance entre los distintos negocios. Aunque ciertas competencias básicas en marketing, finanzas, abastecimiento y distribución se pueden compartir entre los distintos niveles de la corporación, cada negocio también requerirá competencias específicas, dependiendo de factores como la demografía, la competencia y las condiciones industriales.

c. Estrategia funcional: La estrategia funcional define cómo las distintas unidades funcionales de valor agregado, como diseño, compras, producción, marketing, etc., respaldan cada una de las estrategias comerciales. La estrategia funcional es importante para la implantación exitosa de la estrategia empresarial y útil para realizar cambios y una gestión.

Revisar y auditar el Plan

Cuando se han formulado las estrategias, el equipo de planificación necesita aprobación para adoptarlas y proceder con el plan de implantación. Es posible que otros órganos de formulación de políticas relevantes y otros grupos y organizaciones de implantación también tengan que aprobar al menos una parte del plan para que la implantación pueda proceder de manera efectiva. A lo largo del proceso, el equipo de planificación debe prestar atención a los objetivos, intereses y preocupaciones de las partes interesadas internas y externas.

Establecer una visión

La visión es una descripción de cómo se verá la organización cuando se logren las metas. La planificación estratégica es un proceso iterativo y, por lo tanto, es difícil tener una visión de éxito hasta que se realice el plan final. La descripción puede incluir elementos tales como la misión de la organización, sus valores y filosofía, estrategias básicas y criterios de desempeño, etc.
Martin Luther King fue uno de los grandes visionarios del mundo. Su discurso, conocido popularmente como “El discurso del sueño” pronunciado en Washington en 1963, ha sido traducido a más de 40 idiomas en todo el mundo. Su visión del mundo donde todos los seres humanos vivimos en armonía sin prejuicios ni prejuicios se refleja en su discurso (King, Jr., 1963):

“… Tengo un sueño de que un día esta nación se levantará, vivirá el verdadero significado de su credo, – Sostenemos que estas verdades son evidentes por sí mismas, que todos los hombres son creados iguales – …”

La visión de una organización forma el techo del proceso de planificación estratégica.
Esencialmente esto:
• Describe el futuro de la organización que es diferente al de hoy.
• Da esperanza a los empleados de que la visión se puede lograr.
• Inspira y motiva a los empleados a alcanzar sus objetivos.
• Está redactado correctamente, es breve, consistente, flexible y enfocado.
• Ayuda a definir metas refinadas y alcanzables.
• Guía la generación de estrategia.
• Se comunica a todos en la organización.

Una buena declaración de visión debe ser desarrollada y entendida cordialmente, tiene una clara asociación con el negocio de la organización, diferencia el negocio de otros y atrae la atención de las partes interesadas internas y externas.

Declaración de visión

La declaración de visión responde a dos preguntas básicas: (a) ¿Cuáles son los cambios anticipados en el entorno físico, económico y social en los próximos tres a cinco años debido a la presencia de la organización? y (b) ¿qué papel jugará la organización para marcar la diferencia? La declaración de la visión es una visión del futuro y debe inspirar y desafiar al personal para que crean firmemente que se puede lograr. Por ejemplo, una declaración de visión podría ser:

Dionysos SA de CV será el mayor exportador de vinos de primera calidad, manteniendo altos estándares éticos y proporcionando empleo al personal local. Generaremos un entorno en el que el personal siempre se sentirá orgulloso de ser parte integral de Dionysos SA de CV. Trabajarán en estrecha colaboración con los viticultores y la comunidad local para mantener la belleza y la vitalidad del entorno en el que opera nuestra organización.

La visión de la empresa debe estar articulada a todo el personal, y deben ser conscientes de cómo afecta a los clientes y cómo su trabajo apoya la visión. Aunque da dirección a la organización, no debe considerarse como una declaración estática. Factores externos como una caída económica, cambios en las políticas gubernamentales y oportunidades laborales pueden afectar el papel de la organización en la comunidad. A medida que cambian las circunstancias, la alta dirección debe estar preparada para revisar la visión porque la empresa existe para el bien de la comunidad en general.

Desarrollar un Plan de Implantación

La creación de un plan de acción para la implantación puede involucrar detalles tales como responsabilidades de implantación, resultados anticipados, cronogramas, un proceso de comunicación, asignación de recursos y procedimientos de revisión y rendición de cuentas. Cuatro preguntas básicas asociadas con la implantación son:

i. ¿Están nuestros productos en una posición óptima en el mercado en el que operamos?
ii. ¿Cuáles son las estrategias para convertir el plan en resultados específicos de crecimiento y productividad?
iii. ¿Contamos con las personas capacitadas para implantar el plan?
iv. ¿Cómo determinamos si contamos con programas específicos para lograr el resultado?

Los «8 grandes componentes» de la implantación son los siguientes:

1. Competencias: Identificar y proporcionar las competencias, capacidades y recursos necesarios para la implantación exitosa de la estrategia.
2. Recursos: asigne recursos suficientes para actividades críticas.
3. Políticas: Establecer políticas que apoyen las estrategias.
4. Mejores prácticas: introducir las mejores prácticas e impulsar la mejora continua.
5. Sistemas: Desarrollar sistemas operativos y de información para permitir la implantación de la estrategia por parte del personal de la empresa.
6. Recompensas: Ofrezca recompensas e incentivos a quienes logren los objetivos estratégicos de la empresa.
7. Entorno: crear un entorno de trabajo y una cultura que se ajuste a la estrategia.
8. Liderazgo: demuestre el liderazgo necesario para impulsar el proyecto.

Organización centrada en la estrategia: Cuadro de mando integral

Kaplan y Norton introdujeron el cuadro de mando integral (BSC – Balance Score Card) como una medida del desempeño financiero y no financiero de la organización. Todos los objetivos y medidas de un BSC se derivan de la visión y estrategia de la organización. A partir del BSC, las empresas desarrollaron un nuevo tipo de sistema de gestión que consta de tres dimensiones: Estrategia, enfoque y organización.

• Estrategia: El BSC permitió a las organizaciones describir y comunicar la estrategia de una manera que pudiera ser entendida e implantada.
• Enfoque: El BSC alineó todos los recursos y actividades con la estrategia de la empresa.
• Organización: El BSC creó vínculos entre las unidades de negocio, los servicios compartidos y los empleados individuales para movilizar a los empleados de diferentes formas.

El éxito del BSC depende de los siguientes cinco principios:

1. Traducir la estrategia en términos operativos: BSC integra activos tangibles e intangibles en actividades de creación de valor utilizando mapas estratégicos de vínculos de causa y efecto. Los mapas estratégicos y el BSC crean valor al reconocer la importancia de los activos intangibles y al utilizar cuantitativamente medidas no financieras como el tiempo de ciclo, la participación de mercado, la innovación, la satisfacción y las competencias.
2. Alinear la organización con la estrategia: Las organizaciones se estructuran en torno a varias unidades de negocio como producción, ventas, marketing, finanzas, ingeniería, compras, RR.HH., etc. Cada función tiene su propio cuerpo de conocimientos, idioma y cultura. El BSC rompe los silos y crea vínculos entre las unidades de negocio y los servicios y la estrategia compartidos, centrándose así en ideas estratégicas en toda la organización.
3. Hace de la estrategia el trabajo diario de todos: Los altos ejecutivos con la ayuda del BSC comunican la estrategia a todos en la organización. Una organización centrada en la estrategia requiere que todos los empleados comprendan la estrategia y desempeñen sus funciones de una manera que contribuya a su éxito.
4. Hacer de la estrategia un proceso continuo: Las organizaciones enfocadas en la estrategia consideran la estrategia como una herramienta de gestión esencial e integran la gestión de tácticas como los presupuestos financieros y las reuniones mensuales con la gestión de la estrategia. En primer lugar, el proceso de presupuestación está vinculado a la estrategia seguida mediante la realización de reuniones periódicas de revisión de la estrategia y el aprendizaje y la adopción de la estrategia.
5. Demostrar liderazgo para impulsar el cambio: La estrategia requiere cambios en todas las partes de la organización, y el trabajo en equipo es esencial para coordinar estos cambios. El equipo ejecutivo debe participar activamente, y las implantaciones de estrategias requieren atención continua para monitorizar las iniciativas de cambio y las mediciones de desempeño en comparación con los objetivos de la estrategia.

A título personal, considero que el marco BSC es la mejor forma de alinear la estrategia con la estructura de la organización. Las dos herramientas esenciales del marco BSC son el mapa estratégico y la tarjeta de puntuación. El primero facilita a los gerentes definir y comunicar las relaciones de causa y efecto que entregan la propuesta de valor del negocio, mientras que el segundo proporciona una herramienta para implantar la estrategia. El marco del BSC tiene cuatro perspectivas: Perspectiva financiera, perspectiva del cliente, perspectiva de proceso y perspectiva de aprendizaje y crecimiento.

a. Perspectiva financiera: La perspectiva financiera se ocupa de las medidas que indican si la estrategia, implantación y ejecución de la empresa están contribuyendo al crecimiento financiero de la organización. Los objetivos financieros generalmente se relacionan con los ingresos operativos, el rendimiento sobre capital invertido y valor económico agregado. Otros objetivos financieros son el crecimiento de las ventas o la generación de flujo de caja. La perspectiva financiera se ocupa de la forma en que la organización aparece ante las partes interesadas para tener éxito financiero.
b. Perspectiva del cliente: La perspectiva del cliente implica la identificación del cliente y los segmentos de mercado en los que opera la unidad de negocio y mide el desempeño de la unidad de negocio en el segmento de mercado en particular. Las medidas de resultado incluyen la satisfacción del cliente, la retención de clientes, la obtención de nuevos clientes, la rentabilidad del cliente y la participación de mercado y de cuenta en el segmento de mercado. La perspectiva del cliente describe la forma en que la organización aparece ante los clientes para lograr la visión de la organización. Por lo tanto, los factores críticos como las propuestas de valor que la empresa entregará a los clientes en el segmento de mercado objetivo (plazos de entrega cortos, entrega a tiempo y la capacidad de ofrecer productos y servicios innovadores) también se consideran desde la perspectiva del cliente.
c. Perspectiva del proceso: La perspectiva del proceso describe los procesos en los que una organización debe sobresalir para satisfacer las necesidades de los clientes y accionistas. Estos procesos permiten a la organización ofrecer la propuesta de valor que atraerá y retendrá a los clientes en el segmento de mercado objetivo y satisfará las expectativas financieras de los accionistas. Los procesos comerciales internos se centran en los procesos que son fundamentales para lograr la satisfacción del cliente y la rentabilidad financiera. Los enfoques tradicionales tienen como objetivo mejorar los procesos existentes, mientras que el enfoque BSC identifica procesos completamente nuevos que se requieren para lograr los objetivos financieros y del cliente. La incorporación de procesos innovadores a los procesos comerciales internos también es un aspecto importante de la perspectiva del cliente.
d. Perspectiva de aprendizaje y crecimiento: La perspectiva de aprendizaje y crecimiento describe cómo se puede crear valor empresarial invirtiendo en actividades de desarrollo de recursos humanos como reclutamiento, capacitación, desarrollo profesional continuo y desarrollo de liderazgo, y gestión del conocimiento para capturar, almacenar y comunicar conocimientos y mejores prácticas en las muchas unidades de negocio. Se relaciona con la capacidad de cambiar y mejorar continuamente de acuerdo con la visión de la organización.
Estas cuatro perspectivas se ilustran en la siguiente imagen.

Evaluación final

Este paso es fundamental para la continuidad del plan estratégico. Cuando las estrategias se han implantado durante un período de tiempo razonable, el equipo de planificación debe revisar cada estrategia, medir los resultados contra las expectativas (Incluido el establecimiento de metodologías para medirlas) y decidir un plan de acción adecuado para involucrar a los equipos en un nuevo ciclo de planificación estratégica. El plan estratégico debe definir los roles y responsabilidades para la implantación general del plan y para lograr las metas y objetivos.

Las preguntas clave para la evaluación son:

1. ¿Se logran las metas y los objetivos dentro del plazo? Si se han logrado las metas y los objetivos, reconozca, recompense y comunique el progreso. Si no se logran, se deben plantear las siguientes preguntas.
2. ¿Los plazos no son realistas? ¿Deberían cambiarse?
3. ¿La organización ha proporcionado los recursos adecuados?
4. ¿La organización ha priorizado correctamente las tareas? ¿Deben cambiarse las prioridades?
5. ¿Deberían cambiarse los objetivos?
6. ¿Cuáles son las experiencias de aprendizaje de las actividades de seguimiento?

Frecuencia de seguimiento y evaluación

La frecuencia del seguimiento depende del tipo de organización y del entorno en el que opera. Las organizaciones que experimentan cambios rápidos del entorno externo e interno deben monitorizar el progreso mensualmente. El CEO debe ver el estado del progreso mensualmente y la junta directiva trimestralmente.

Informes de seguimiento

El informe debe incluir al menos las respuestas a las preguntas anteriores, tendencias relacionadas con las actividades, recomendaciones sobre el estado de implantación y cualquier acción necesaria por parte de la administración.

Desviaciones del plan

A veces, las desviaciones del plan son inevitables debido a circunstancias externas y/o necesidades del cliente. En tales casos, es posible que sea necesario modificar los objetivos y considerar cambios en la disponibilidad de recursos. Sin embargo, es extremadamente importante determinar la causa de las desviaciones del plan.

Cambio de plan

La organización debería establecer un proceso para cambiar el plan. La solicitud de cambio debe incluir qué está provocando que se realicen cambios, por qué se deben realizar los cambios y los cambios relacionados con metas, objetivos, responsabilidades y plazos. Por ejemplo, se puede introducir una nueva tecnología en el mercado para fabricar un producto mejor a un costo menor. Las organizaciones que adoptan esta tecnología deben cambiar el plan estratégico y la asignación de recursos. El cambio es causado por la nueva tecnología (Qué), y es necesario producir y comercializar un mejor producto (¿Por qué?).

Falla en la implantación de la estrategia

Si bien se han reconocido las dificultades de implantar una nueva estrategia, no existe consenso sobre la verdadera tasa de falla en la implantación. Sin embargo, el enfoque ahora se ha desplazado de la reducción de costos, la reducción de personal, la reingeniería de procesos y el aumento del rendimiento operativo para generar crecimiento, expansión, estrategia y su implantación. Las siguientes son las siete trampas que las organizaciones deben evitar:

1. No vale la pena implantar la estrategia: Si la estrategia debe obtener el apoyo de la gerencia y el personal, debe ser innovadora, realista, específica y debe brindar a la organización y al personal algo que esperar.
2. Falta de claridad en la implantación: Las organizaciones a menudo ignoran la planificación de la implantación y es urgente comenzar. Sin embargo, es necesario abordar una serie de cuestiones antes de la implantación, como las prioridades, los plazos, las lecciones aprendidas de los ejercicios previos de implantación de la estrategia, el impacto en la organización y el personal, la participación activa del personal y los riesgos involucrados.
3. Las partes interesadas no comprenden la estrategia: El director ejecutivo tiende a comunicar la estrategia sobre la base de una “necesidad de saber”. Una de las funciones de la alta dirección es vender y explicar la estrategia a todos. El personal de supervisión de primera línea debe comprender la estrategia, su importancia y cómo afecta su trabajo. El plan de implantación debe incluir no solo a la alta dirección, sino también a los mandos intermedios, supervisores, clientes, proveedores y otras partes interesadas.
4. Las responsabilidades no se han aclarado: Las personas deben recibir responsabilidades específicas y claras para la implantación de la estrategia. La tarea de implantación es más fácil si la red se extiende de manera que cree propiedad, compromiso y responsabilidad para que suceda. Dar responsabilidad sin autoridad termina en un fracaso total. La gerencia debe dar instrucciones claras y monitorizar el progreso de la implantación.
5. El compromiso del CEO y los altos directivos disminuye cuando comienza la implantación: Para que la implantación sea exitosa, la alta gerencia debe verse comprometida durante toda la fase de implantación, explicando la visión y comunicando la importancia de la estrategia para el futuro. de la organización.
6. Los obstáculos no se reconocen: En el cambiante entorno externo, las organizaciones encuentran obstáculos durante la fase de implantación. Deben reconocerse como reales y abordarse rápidamente. Se debe alentar al personal a buscar soluciones innovadoras para superar los obstáculos.
7. La implantación de la estrategia se centra en la alta dirección: Las organizaciones creen que el desarrollo y la implantación de estrategias son una preocupación de la alta dirección. Mientras se implanta la estrategia, la organización tiene que administrar el negocio y cumplir los objetivos para satisfacer las necesidades del cliente. Los accionistas esperan que la estrategia se implante sin permitir que disminuya la rentabilidad y el servicio al cliente. Por lo tanto, el plan de implantación debe integrarse con las actividades diarias de la organización.
La estrategia de la empresa tiene un fuerte impacto en su ventaja competitiva. Aunque es un proceso exhaustivo y lento, genera nueva energía, nuevas ideas y trabajo en equipo. La planificación estratégica da dirección, visión y responsabilidad a la organización, al tiempo que proporciona a la organización, sus empleados y partes interesadas un sentido de dirección para lograr la visión y los objetivos compartidos que ellos mismos han definido.

Aclaración
La información contenida en esta entrada se basa en investigaciones realizadas en los últimos meses, así como en la experiencia y opinión personal del autor. No pretende representar la opinión de cualquier organización para la que trabaja o con la que colabora. El autor no se hace responsable del uso o mal uso de la información proporcionada en la entrada.

]]>
http://laenciclopediagalactica.info/2021/08/10/planificacion-estrategica/feed/ 0 2070
Impacto del SGIA en el Negocio http://laenciclopediagalactica.info/2021/08/06/impacto-del-sgia-en-el-negocio/ http://laenciclopediagalactica.info/2021/08/06/impacto-del-sgia-en-el-negocio/#respond Fri, 06 Aug 2021 17:43:43 +0000 http://laenciclopediagalactica.info/?p=2064 La calidad de los alimentos se ha convertido en un tema importante en el sector alimentario durante la última década. La demanda de los consumidores de alimentos más inocuos está aumentando a medida que viven más tiempo y se dan cuenta de la asociación entre la dieta y su salud. Los alimentos contaminados tienen un grave impacto en los consumidores, así como en los gobiernos, las autoridades de inocuidad alimentaria, los productores de alimentos y las instituciones que sirven alimentos. Según el informe anual del Jefe Científico del Reino Unido (Food Standards Agency, 2011), alrededor de un millón de personas sufren enfermedades transmitidas por los alimentos cada año, unas 20,000 personas reciben tratamiento hospitalario, unas 500 personas mueren y cuesta aproximadamente 1,500 millones de libras esterlinas al año. Cada año en los EE. UU., 31 patógenos causan 37,2 millones de enfermedades y de estos 9,4 millones se transmiten por los alimentos. Causan 228,744 hospitalizaciones de las cuales 55,961 se debieron a alimentos contaminados. Treinta y un patógenos causaron 2612 muertes y de estos 1351 fueron causados por enfermedades transmitidas por alimentos (Datos del 2011). De acuerdo con el modelo de costo básico de enfermedades (BCOI – Basic Cost of Illnesses Model) y el modelo de costo mejorado de enfermedades (ECOI – Enhanced Cost of Illnesses) en un estudio realizado en 2012, el costo agregado anual fue de US$ 77.7 mil millones y US$ 51.06 mil millones para los modelos BCOI y ECOI respectivamente. El modelo BCOI incluye estimaciones económicas de costos médicos, pérdidas de productividad y mortalidad relacionada con enfermedades, mientras que el modelo ECOI reemplaza la productividad con medidas de dolor, sufrimiento y discapacidad funcional basadas en estimaciones monetizadas de años de vida ajustadas por calidad (¿?).

Varios estudios han identificado las dificultades de estimar los costos asociados con la implantación y operación de un programa de Análisis de Peligros y Puntos Críticos de Control (HACCP). En la mayoría de los casos, las organizaciones de procesamiento de alimentos no estiman formalmente estos costos antes de la implantación. La falta de conocimiento de los principios de HACCP y de cómo funciona el plan también dificulta la identificación y separación de los costos de HACCP de los costos de producción. Aunque es importante evaluar el alcance de los costos antes de que se establezca el sistema HACCP, se estima que solo menos del 15% de las organizaciones realmente estiman estos costos en esta etapa.
El costo de implantar HACCP depende de varios factores, entre los que se encuentran (No es una lista limitativa):

• Condiciones higiénicas actuales en las instalaciones;
• Dimensiones de las instalaciones;
• Complejidad de las operaciones;
• Número y experiencia de los empleados;
• Recursos adicionales necesarios para la implantación;
• Disponibilidad de apoyo técnico y recursos financieros para mejorar los requisitos de buenas prácticas de higiene (BPH).

Sin embargo, los costos estimados se basan en supuestos que dependen de las instalaciones, la naturaleza del proceso y el país donde se encuentran las instalaciones. Por lo tanto, no tiene sentido en esta entrada presentar una estructura de costos generalizada para la implantación del programa HACCP.

Se han utilizado varias estructuras para estimar el costo total del programa HACCP. Mencionaré dos. En una se estima que el costo total se puede desglosar en tres fases: inicial, implantación y mantenimiento. En la otra se estima que los costos se dividen en cuatro fases: Desarrollo, implantación, certificación; y mantenimiento operativo.

HACCP generalmente implica altos costos fijos para establecer el plan y llevar a cabo la capacitación de personal y la compra de bienes de capital, lo que requiere una economía de escala. Los costos variables incluyen mano de obra y/o materiales y generalmente son menores. Sin embargo, a nivel de instalaciones, los costos variables podrían ser más importantes. Los costos relativos incurridos en todas las etapas de implantación del programa, el nivel tecnológico de las instalaciones y el incumplimiento de los programas de prerrequisitos esenciales (PPR) llevaran a mayores costos. en la implantación del sistema HACCP.

El número de Puntos Críticos de Control (PCC) identificados y los PPR que se encuentran en las instalaciones tiene un impacto directo en los recursos necesarios para implantar, desarrollar y mantener un programa HACCP. Una reducción en el número de PCC se asocia con una disminución correspondiente en el costo acumulado después de cuatro meses de implantación. Los PPR adecuados permiten reducir el número de PCC, lo que facilita la adopción del plan HACCP. El proceso debe analizarse cuidadosamente para determinar el número apropiado de PCC, y si se ha identificado un gran número, la gestión del proceso de implantación y el proceso de auditoría llevarán más tiempo.

Durante la etapa de desarrollo del plan, los principales costos están relacionados con los servicios de consultoría (Si se contrata uno, claro está) y el uso de personal en actividades de desarrollo, que son diferentes a su trabajo rutinario. En la etapa de implantación, los costos incluyeron el costo de mejorar los PPR, la administración y la capacitación del personal, el costo de los cambios operativos y la adquisición de equipo para cumplir con los requisitos de HACCP.

Los costos asociados con las actividades de rutina necesarias para mantener el programa HACCP, el tiempo consumido en la monitorización de los PCC y los registros requeridos por el plan HACCP se identifican como costos de mantenimiento. Los principales costos durante las fases de implantación y operación están relacionados con el tiempo del personal más que con la inversión en nuevos equipos o la mejora de la infraestructura. El tiempo necesario para monitorizar y contratar personas para monitorizar está asociado con los costos de mantenimiento.
Los beneficios de implantar un sistema HACCP resultan de la reducción del riesgo de enfermedad debido al consumo de alimentos contaminados. Muchos de los beneficios son de naturaleza intangible o difíciles de cuantificar. El principal beneficiario es el consumidor, al que se le aseguran productos de mejor calidad debido a la inocuidad de los alimentos. Un sistema de gestión de inocuidad alimentaria beneficia al consumidor, la industria, el gobierno y los organismos reguladores.

Según una encuesta de empresas procesadoras de alimentos en China realizada por la Administración de Certificación y Acreditación de la República Popular China (2003), el costo/beneficio de las pequeñas empresas que adoptan el sistema HACCP mostró un impuesto antes de ganancias (TBP – Tax Before Profit) negativo, a excepción de los alimentos tostados y la industria de procesamiento de dulces. Este TBP negativo se ha atribuido al elevado costo de las inversiones necesarias. Las empresas medianas y grandes han mostrado un TBP positivo.

Impacto del Sistema de Gestión de Inocuidad Alimentaria (SGIA)en el medio ambiente

Existe una demanda creciente de un enfoque más proactivo por parte de la industria de procesamiento de alimentos para administrar las actividades, productos y servicios de las organizaciones que tienen o podrían tener un impacto adverso en el medio ambiente. La búsqueda de desarrollos que satisfagan las necesidades actuales sin comprometer la capacidad de satisfacer las necesidades de las generaciones futuras (Sustentabilidad) requiere una revisión de los estándares tradicionales de gestión de residuos, procedimientos de producción y sistemas de gestión ambiental (EMS – Environmental Management Systems), incluido el uso eficiente de los recursos no renovables.

El concepto de “producción limpia” implica el uso de tecnologías que aseguran:

i. Consumo de menos recursos naturales (agua, energía y materias primas).
ii. Reducción de producto de desecho.
iii. Mejores prácticas operativas.
iv. Reducción de pérdidas.
v. Mejores instalaciones de almacenamiento.
vi. Eliminación eficiente de residuos.
vii. Rediseño de productos y procesos para utilizar cantidades mínimas de materias primas y energía.

Aunque el SGIA se ha concebido como un medio para garantizar la inocuidad alimentaria, existen beneficios derivados para el medio ambiente. Las estrictas medidas de control garantizan procedimientos más eficientes con una cantidad mínima de reprocesos y rechazos. La eliminación o reelaboración de productos generalmente implica la gestión de residuos, así como las pérdidas de productos y embalajes. Además, se minimiza la eliminación de productos, que de lo contrario deben someterse a un retratamiento (Consumiendo energía, agua y productos químicos). Existe una posibilidad real de contaminantes químicos en las materias primas de los productores primarios y su control eficiente a través del programa HACCP minimiza el riesgo. Por lo tanto, el SGIA, al tiempo que garantiza la inocuidad alimentaria, desarrolla un sentido de responsabilidad entre la industria de procesamiento de alimentos para proteger y mantener el medio ambiente.

Barreras para la implantación

Varias barreras obstaculizan el desarrollo del SGIA, particularmente en empresas pequeñas y menos desarrolladas. Estas barreras varían de un país a otro y de un sector a otro. Estos se deben a factores internos, como la falta de conocimiento o experiencia y recursos disponibles para una empresa y/o factores externos (Por ejemplo, falta de apoyo y orientación de gobiernos y organismos reguladores).

Solución

En La Enciclopedia Galáctica, nuestros cursos proporcionan todo lo que necesita para cumplir con los requisitos de un SGIA basado en diversas normas, obtendrá herramientas para administrar y generar tendencias en los resultados de su instalación para identificar y trabajar para mejorar cualquier debilidad dentro de su SGIA y convertirse en un líder de su equipo multidisciplinario. Este curso combina los beneficios de un entorno de aprendizaje a su propio ritmo con sesiones dirigidas por un instructor experimentado para garantizar que se lleve una comprensión integral y completa de los requisitos de inocuidad alimentaria. Pregunte por los cursos que manejamos. Pueden ser vía remota o presencial.

]]>
http://laenciclopediagalactica.info/2021/08/06/impacto-del-sgia-en-el-negocio/feed/ 0 2064
Impacto del SGC en el negocio http://laenciclopediagalactica.info/2021/08/05/impacto-del-sgc-en-el-negocio/ http://laenciclopediagalactica.info/2021/08/05/impacto-del-sgc-en-el-negocio/#comments Thu, 05 Aug 2021 12:40:30 +0000 http://laenciclopediagalactica.info/?p=2060 Introducción

Los sistemas de gestión permiten a las organizaciones planificar y alcanzar sus objetivos. Se han realizado numerosos estudios para determinar el impacto de los sistemas de gestión en el desempeño empresarial. A menudo, las normas de certificación como las normas ISO (Organización Internacional de Estandarización) se han considerado como sistemas de gestión. Las normas ISO no son sistemas de gestión, ya que son simplemente criterios con los que se mide la eficacia de los sistemas de gestión. Un sistema de gestión es tan bueno como su diseño e implantación. Es una parte esencial de la cultura de la organización y todos los elementos del sistema deben encajar. En esta entrada, se analiza el impacto de los sistemas de gestión de calidad (tanto certificados como no certificados) en el desempeño empresarial.
Impacto del SGC en el negocio

Las organizaciones desarrollan e implementan varios sistemas de gestión, como Gestión Total de la Calidad (TQM – Total Quality Management), Seis Sigma (Six Sigma), Mejora Continua de la Calidad (CQI – Continuous Quality Improvement), con diversos grados de éxito para gestionar sus operaciones. Se han realizado estudios tanto cualitativos como cuantitativos para evaluar su impacto en el desempeño empresarial.

Un estudio sobre el impacto de los sistemas de gestión de la calidad (SGC) certificados en las empresas portuguesas ha demostrado que aquellas con un rendimiento financiero más alto tienen más probabilidades de implantar y certificar sus SGC. La motivación surgió como un factor crítico de éxito para el desempeño económico. Sin embargo, algunas empresas con SGC no certificados han demostrado un mayor rendimiento financiero.

El personal de gestión de las pequeñas y medianas empresas de Malasia que se especializan en aparatos electrónicos y eléctricos participó en un estudio de 2009 para evaluar el impacto de un SGC en calidad del producto y desempeño comercial (Samad, 2009). Se utilizaron 200 cuestionarios y el SGC se midió utilizando ocho dimensiones:

1. Liderazgo.
2. Evaluación de actividades.
3. Participación de empleados.
4. Reconocimiento y recompensa.
5. Educación y entrenamiento.
6. Control y mejora de procesos.
7. Mejora del sistema de calidad.
8. Enfoque en el cliente.

El desempeño financiero se evaluó en términos de ventas anuales, crecimiento de ventas, ganancias, participación de mercado y exportación. El desempeño no financiero se evaluó utilizando elementos que miden la satisfacción de los empleados y clientes. Todas las dimensiones del SGC tuvieron un efecto positivo importante en el desempeño empresarial y el liderazgo surgió como la dimensión más importante. Las dimensiones del SGC distintas del reconocimiento y la recompensa tuvieron un efecto positivo en la calidad del producto, siendo la actividad de evaluación la dimensión más importante. El SGC ejerció un efecto más importante en el rendimiento empresarial que en la calidad del producto.

El impacto de las herramientas de mejora de la calidad en el desempeño de las empresas que utilizan diferentes SGC se ha estudiado mediante una encuesta personalizada entre 107 evaluadores de la Fundación Europea para la Gestión de la Calidad (EFQM – European Foundation for Quality Management) entre febrero y abril de 2007. Los datos sobre el grado de uso de las herramientas de mejora de la calidad y el impacto en el desempeño se recopilaron y analizaron utilizando 17 herramientas de mejora de la calidad y 12 indicadores de desempeño. Las herramientas se clasificaron en «herramientas duras» (cuantitativas) y «herramientas blandas» (cualitativas).

El impacto en el rendimiento dependía del estándar utilizado para la certificación: La Norma ISO 9000 o modelo EFQM. La encuesta reveló que las herramientas duras se han utilizado con menos frecuencia porque su aplicación requiere mayor conocimiento y experiencia. El uso de herramientas duras en empresas que adoptan el modelo EFQM demostró una mejora en el desempeño. Las empresas que emplearon la norma ISO 9000 utilizaron herramientas blandas con más frecuencia y mostraron una influencia importante en la mejora del rendimiento comercial.

En España se ha realizado un estudio del impacto de la gestión de la calidad en el desempeño de las empresas europeas utilizando el método Delphi, que es un método de estructuración de un proceso de comunicación grupal para que el proceso permita a un grupo de personas en su conjunto lidiar con un complejo problema. El método se basa en

a) El supuesto de que el conocimiento colectivo es mejor que el conocimiento individual;
b) La capacidad de contrastar conocimientos; y
c) Tener más factores que sirvan como objetos del estudio.

Sin embargo, sus desventajas son:

a) La falta de base cuantitativa;
b) Ausencia de fundamento científico; y
c) Confianza en opiniones.

Se formó un panel de expertos para llevar a cabo el proyecto de investigación para evaluar el impacto de la norma ISO 9000 y el modelo EFQM en el desempeño empresarial. El panel estuvo formado por 27 profesionales de la calidad, un especialista del País Vasco en España, directores de empresa, consultores, certificadores, evaluadores, especialistas académicos y miembros de instituciones como Euskalit y el Clúster del Conocimiento. Según la opinión del panel, la norma ISO 9000 tiene una importancia limitada porque la norma especifica requisitos mínimos. La implantación del modelo EFQM puede conducir a un grado de excelencia.

Otro investigadores en 2010 estudiaron los efectos de la implantación de un SGC que cumple con la norma ISO 9001 en empleados y empleadores en empresas de una sola instalación en California. El estudio incluyó a 916 empresas que tenían un SGC certificado según la norma ISO 9001 (Adoptantes de ISO) y 17,849 empresas no certificadas según una norma internacional (No adoptantes). Según la encuesta, las ventas y el empleo aumentaron sustancialmente más rápidamente después de la certificación de sus SGC. En comparación con los no adoptantes, la nómina y las ganancias anuales por empleado aumentaron significativamente después de la certificación de los adoptantes ISO. Algunos beneficios de la certificación ISO fueron más evidentes en empresas más pequeñas que en empresas más grandes. La adopción de la norma ISO 9001 no influyó en la reducción de los costes medios de las lesiones.

En 2011 se realizó una encuesta empírica a 353 empresas con un sistema de gestión certificado según la norma ISO 9001 y 176 empresas con sistemas de gestión certificados tanto por la norma ISO 9001 como por la ISO 14001 en la comunidad autónoma española de Cataluña para determinar los beneficios de la certificación. La encuesta estudió los posibles beneficios de la certificación en términos de resultados financieros, satisfacción del cliente, satisfacción de los empleados y resultados operativos. Las empresas con SGC certificados según múltiples estándares percibieron más beneficios en 15 de los 16 indicadores. Además, las empresas con sistemas de gestión integrados demostraron más beneficios que las que tenían sistemas de gestión estandarizados separados.

De septiembre a diciembre de 2002, se encuestó a 212 empresas eslovenas para evaluar el impacto de los SGC certificados según la norma ISO 9000 en la satisfacción del cliente. La encuesta indicó que las empresas con sistemas de gestión certificados demostraron un impacto positivo en la satisfacción del cliente. Las empresas que obtuvieron la certificación SGC antes de 1997 mostraron mejores resultados. Es posible que estas empresas hayan tenido éxito en la integración del SGC en la cultura de la organización. Sin embargo, los resultados mostraron que no existe un impacto directo del SGC en la mejora de las ventas, la rentabilidad o la captación de nuevos clientes.
De los estudios realizados se desprende que las organizaciones obtienen algunos beneficios tras la implantación de los SGC. Existe una gran variación de beneficios percibidos entre las organizaciones. Sin embargo, en ausencia de estándares claros para la medición, es difícil evaluar el impacto de los SGC en el desempeño empresarial. La investigación sugiere claramente que la ventaja competitiva se logra mediante un control eficaz del proceso, un control de calidad y una mejor conformidad con los estándares de calidad. Sin embargo, no hay evidencia suficiente para concluir que la certificación de calidad se asocia de manera consistente con ganancias en el desempeño empresarial. Un sistema es tan bueno como la forma en que ha sido diseñado e implantado. Los SGC diseñados e implantados con la única intención de lograr la certificación sin la participación del personal no pueden sostenerse a largo plazo.

Solución

En La Enciclopedia Galáctica, nuestro curso proporciona todo lo que necesita para cumplir con los requisitos de un SGC basado en ISO 9001:2015, obtendrá herramientas para administrar y generar tendencias en los resultados de su instalación para identificar y trabajar para mejorar cualquier debilidad dentro de su SGC y convertirse en un líder de su SGC. Este curso combina los beneficios de un entorno de aprendizaje a su propio ritmo con sesiones dirigidas por un instructor experimentado para garantizar que se lleve una comprensión integral y completa de los requisitos de la norma ISO 9001:2015.

]]>
http://laenciclopediagalactica.info/2021/08/05/impacto-del-sgc-en-el-negocio/feed/ 2 2060
Historia de la Gestión de Inocuidad Alimentaria http://laenciclopediagalactica.info/2021/08/04/historia-de-la-gestion-de-inocuidad-alimentaria/ http://laenciclopediagalactica.info/2021/08/04/historia-de-la-gestion-de-inocuidad-alimentaria/#respond Wed, 04 Aug 2021 16:53:24 +0000 http://laenciclopediagalactica.info/?p=2054 La inocuidad alimentaria es una parte integral de la calidad y las buenas prácticas de fabricación. Por lo tanto, este blog toma la iniciativa en la integración de procesos comerciales estrechamente relacionados, pero diferentes. El viaje es arduo. El desarrollo del personal y el trabajo en equipo son ingredientes esenciales para el éxito. Es un proceso dinámico y la mejora continua se lleva a cabo cuando los empleados se apropian del sistema.

Inocuidad alimentaria

La historia de la inocuidad de los alimentos se puede considerar en términos de tres períodos:

i. Antes de la refrigeración;
ii. Refrigeración; y
iii. Análisis de peligros y puntos críticos de control (HACCP).

Antes de la Refrigeración

Desde la Edad Media, la inocuidad alimentaria ha sido una preocupación para la humanidad y se han aplicado medidas reglamentarias para evitar la venta de alimentos en mal estado, adulterados o contaminados. Los textos religiosos e históricos proporcionan evidencia de muchas reglas y recomendaciones que se utilizan para proteger a las personas de las enfermedades transmitidas por los alimentos y la contaminación de los alimentos. Augsburgo en 1276 asignó puestos especialmente designados los lunes para vender carne que no había sido recién sacrificada. Los florentinos también prohibieron la venta de carne que había estado a la venta el día anterior. Así que podemos confirmar que desde la antigüedad se han discutido las preocupaciones de la inocuidad alimentaria y por ello se detonó la necesidad de un programa de inocuidad alimentaria.

Las leyes del antiguo Israel incluían consejos sobre alimentos nocivos y métodos de preparación e higiene de los alimentos. Según el Libro de Levítico, (Se estima alrededor del 2000 antes de nuestra Era), Moisés introdujo leyes para proteger a las personas de las enfermedades transmitidas por los alimentos que resultan en el lavado de ropa y el baño después del sacrificio de animales.

Los antiguos egipcios fueron pioneros en el desarrollo de silos, un tanque de almacenamiento diseñado para contener el grano cosechado en los campos, manteniéndolo fresco y seco durante largos períodos de meses sin cosecha. Los primeros romanos reconocieron la importancia de la frescura en las frutas y otros alimentos. Los ricos a menudo recibían alimentos frescos en sus hogares, donde sus cocineros preparaban las comidas. Los romanos también practicaban el arte de la conservación de los alimentos mediante la salazón.

Un avance importante en la conservación de alimentos se puede atribuir a Napoleón Bonaparte y Nicolas Appert a principios del siglo XIX. Napoleón ofreció una recompensa a cualquiera que pudiera desarrollar un método para evitar que la comida que necesitaban sus soldados se echara a perder cuando luchaban contra su enemigo. Appert puso la comida en frascos con tapas seguras y la hirvió hasta que pensó que estaba cocida. Fue el primer intento de «enlatar», y Appert no se dio cuenta de que cocinar mataba los gérmenes.

Los científicos del siglo XVII aislaron los gérmenes como una fuente de enfermedad, aunque no se dieron cuenta de la causa real de la enfermedad. En la década de 1860, el trabajo de Louis Pasteur sobre pasteurización y fermentación tuvo un gran impacto en el campo médico y la inocuidad alimentaria. En 1888, August Gartner aisló Bacillus enteritidis, que causaba enfermedades transmitidas por los alimentos.

Robert Malthus (1766-1834), un académico británico que fue influyente en la economía política y la demografía, desafió a los economistas mundiales a abordar la disponibilidad de alimentos en todo el mundo debido a la población mundial en constante aumento. Los avances en el progreso tecnológico en el procesamiento de alimentos han creado una mayor conciencia de los problemas asociados con la conservación y preparación de alimentos. Las organizaciones internacionales y nacionales han formulado y aplicado leyes y reglamentos para lograr la calidad y seguridad en la preparación y conservación de alimentos con el fin de proteger a los consumidores de las infecciones y la toxicidad transmitidas por los alimentos.

Refrigeración

En términos básicos, cualquier medio de mantener los alimentos fríos es la refrigeración. La aplicación de tecnología científica a la refrigeración cambió significativamente el concepto de inocuidad alimentaria. Mucho antes de la invención de los refrigeradores, la gente almacenaba sus alimentos, principalmente leche y mantequilla, en sótanos, jardineras al aire libre o incluso bajo el agua en lagos, arroyos o pozos cercanos. Pero estos métodos no evitaron el deterioro de los alimentos. Antes de 1830, los alimentos se conservaban mediante salazón, condimento, ahumado, escabechado y secado, y no había necesidad de refrigeración. Entre 1830 y la Guerra Civil estadounidense, con el desarrollo de las ciudades y la mejora de la economía, hubo una demanda por parte del consumidor de alimentos frescos, principalmente productos agrícolas.

Los primeros «refrigeradores» domésticos fueron cajas aisladas llenas de hielo y conocidas como «cajas de hielo». El «hombre de hielo» entregaba hielo a diario o una vez cada dos días para mantener la caja de hielo en funcionamiento. En 1879, siguiendo el trabajo de John Gorie, dos científicos, John Standard y Thomas Elkins, mejoraron el aparato de refrigeración y lo diseñaron para hacer circular gas comprimido y absorber calor. Los vagones de trenes de refrigeración se desarrollaron en 1860 y transportaban alimentos por los Estados Unidos de América. Sin embargo, la refrigeración tenía sus problemas. Se descubrió que los refrigerantes como el dióxido de azufre y el cloruro de metilo son tóxicos. El amoníaco, si se filtraba, causaba graves problemas de salud. Para evitar el problema, en 1928 se utilizaron refrigerantes sintéticos llamados halocarbonos o clorofluorocarbonos (CFC). Los CFC se reemplazaron por un refrigerante «seguro» llamado Freón. El frigorífico doméstico es uno de los mayores inventos. La tecnología de ingeniería lo perfeccionó y lo convirtió en lo suficientemente confiable y económico para un uso generalizado a nivel nacional. Sin duda, el refrigerador ha hecho que nuestra comida sea inocúa y agradable.

HACCP

Desde principios de la década de 1970, el concepto de HACCP ha seguido evolucionando. El sistema HACCP ha contribuido al desarrollo de un sistema de gestión de inocuidad alimentaria (SGIA) completo, eficaz y eficiente. Antes de 1970, aunque los científicos estaban al tanto de las bacterias que causan enfermedades, las enfermedades transmitidas por los alimentos seguían ocurriendo en todo el mundo.

Howard E. Bauman había trabajado en la firma estadounidense Pillsbury desde 1953 como jefe del laboratorio de investigación en la sección bacteriológica. Más tarde, ayudó a la Administración Nacional de Aeronáutica y del Espacio (NASA – National Aeronautics and Space Administration), al grupo de proyectos del Laboratorio Espacial de la Fuerza Aérea de los EE. UU (US Air Force Space Laboratory). Y a los Laboratorios Natick del Ejército de los EE. UU. Para desarrollar un sistema de inocuidad alimentaria seguro para el programa de vuelos espaciales tripulados. Inicialmente, en 1959, Pillsbury desarrolló alimentos del tamaño de un cubo para las tripulaciones de vuelo. Los ingenieros de la NASA establecieron claramente sus especificaciones:

i. Los alimentos no deben desmoronarse para evitar que las partículas floten en los paneles de instrumentos y contaminen la atmósfera y
ii. Los astronautas deben poder consumirlos sin peligro durante sus vuelos. Los esfuerzos de los tecnólogos de alimentos llevaron a la creación de una barra de alimentos comprimidos con un recubrimiento comestible que no se desmoronaba durante los vuelos.

Los primeros intentos de realizar un estudio científico de los peligros que plantean los alimentos se debieron a Paul Lachance, coordinador de alimentación y nutrición de vuelo de la NASA en el centro de naves espaciales tripuladas en Houston. Reconoció los peligros potenciales causados por contaminantes físicos, químicos y microbiológicos. Investigaciones posteriores revelaron que los ingredientes comprados por la NASA estaban contaminados con patógenos virales y bacteriológicos. En ese momento, se desconocía el análisis de peligros y Bauman identificó un programa conocido como “Modelos de falla” (Actualmente conocido como AMEF), que fue adoptado y aplicado para cada alimento. El estudio reveló los problemas potenciales durante el proceso de fabricación y los ingredientes que eran potencialmente peligrosos. Luego se compiló una lista de peligros.

Natick Laboratories estableció estándares microbiológicos para los alimentos que se consumirían durante los vuelos. Los estándares eran estrictos y especificaban que el recuento aeróbico en placa no debería exceder las 10,000 UFC por gramo. Los fabricantes tenían que cumplir con los estándares de Natick Laboratories y les exigían que realizaran pruebas microbiológicas durante las fases previas y en proceso y en los productos terminados. Se pidió a los contratistas que identificaran las áreas críticas de falla y Pillsbury comenzó a determinar los puntos críticos de control (PCC) durante la fabricación. La NASA reconoció 17 estaciones de control crítico que tenían estándares de aceptación. Era un requisito obligatorio para los contratistas mantener registros que documentaran el historial del producto, la fuente de las materias primas, si se procesaron y el lugar donde se procesaron.

Los conceptos del enfoque HACCP se presentaron por primera vez en la Conferencia Nacional sobre Producción de Alimentos (National Conference on Food Production) en abril de 1971. El objetivo de la conferencia era “desarrollar un ataque integral e integrado al problema de la contaminación microbiana de los alimentos”. Aunque Bauman animó a la industria alimentaria a adoptar el concepto de HACCP, los principios no fueron adoptados.
Sin embargo, dos incidentes graves en los Estados Unidos llevaron al movimiento de consumidores a obligar a los funcionarios de la industria y el comercio a implementar un plan integral de inocuidad alimentaria. El primer incidente ocurrió en la primavera de 1971, unos días antes de la conferencia, cuando una mujer de Connecticut detectó una partícula de vidrio en el cereal blanco cremoso de su bebé elaborado por la planta de Pillsbury, lo que las obligó a retirar el producto. Robin J. Keith, el director ejecutivo, tomó medidas inmediatas e instruyó a Bauman en Pillsbury para que desarrollara e implementara un sistema de inocuidad de productos seguro para evitar que se repita. En el verano de 1971, ocurrió un segundo incidente cuando Samuel Cochran murió de intoxicación por botulismo después de consumir sopa de papa fría. Estos incidentes arrojan dudas sobre la inocuidad alimentaria en los Estados Unidos y si la Administración de Alimentos y Medicamentos (FDA – Food and Drug Administration) podría proteger a los consumidores de la intoxicación alimentaria. Se afirmó que la FDA no tenía los recursos ni la motivación para proteger a los consumidores y carecía del apoyo del Departamento de Salud, Educación y Bienestar (Department of Health, Education, and Welfare). Sin embargo, tras el reconocimiento de los problemas de la FDA, en septiembre de 1972, se capacitó a 16 inspectores de la FDA en Pillsbury, que incluyó cursos y trabajo de campo. Luego, la FDA pudo establecer regulaciones para alimentos enlatados con baja acidez. De 1973 a 1977, la inocuidad del proceso de enlatado mejoró. En 1974, Pillsbury logró su objetivo de desarrollar e implementar un programa de inocuidad de productos alimenticios eficaz y eficiente en sus instalaciones.

El concepto empleó tres principios fundamentales, que son válidos incluso hoy:

i. Realizar un análisis de peligros;
ii. Determinar los PCC; y
iii. Establecer procedimientos de seguimiento.

Ese año se presentaron 130 retiradas del mercado relacionadas con la inocuidad alimentaria de productos alimenticios y ninguno fue de Pillsbury’s.
En la década de 1980, se produjeron varias publicaciones que promovieron el HACCP como el sistema predominante de inocuidad alimentaria:

1. En 1985, el Consejo Nacional de Investigación de la Academia Nacional de Ciencias (National Research Council of the National Academy of Sciences) publicó el conocido como “Libro Verde”, Evaluación del papel de los criterios microbiológicos para alimentos e ingredientes alimentarios (An Evaluation of the Role of Microbiological Criteria for Foods and Food Ingredients). HACCP se describió como el medio más eficaz para garantizar la inocuidad alimentaria del suministro de alimentos de los EE. UU. Y recomendó su uso en la industria de procesamiento de alimentos y las agencias gubernamentales.

2. El Comité Asesor Nacional sobre Criterios Microbiológicos para Alimentos (NACMFC – National Advisory Committee on Microbiological Criteria for Food) publicó el primer documento HACCP en 1989, que incluía los siete principios de HACCP.

3. Microorganismos en los alimentos: Aplicación del sistema de análisis de peligros y puntos críticos de control para garantizar la inocuidad y la calidad microbiológicas (Microorganisms in foods: Application of the Hazard Analysis Critical Control Point System to Ensure Microbiological Safety and Quality) fue publicado en 1989 por la Comisión Internacional de Especificaciones Microbiológicas para los Alimentos (ICMSF – International Commission on Microbiological Specifications for Foods). El libro definió la aplicación de los principios de HACCP y los conceptos de CCP1 y CCP2 a toda la cadena alimentaria, desde la granja hasta la preparación de alimentos en restaurantes y hogares, para eliminar o reducir el peligro a un nivel aceptable. Por primera vez, también se definieron los Programas de Prerrequisito (PPR).

4. Durante este período, la Comisión del Codex Alimentarius participó activamente en cuestiones de inocuidad alimentaria y publicó la primera norma HACCP en 1990, proporcionando la primera definición internacional de HACCP. En el mismo año, la NACMCF revisó su norma de orientación, codificando los cinco pasos preliminares y los siete principios de HACCP. Las normas Codex y NACMCF fueron revisadas nuevamente en 1997, armonizando la definición estadounidense de HACCP con la definición del Codex.

Los desarrollos recientes incluyen:

• El desarrollo de la Certificación de Auditor de Calidad y Inocuidad alimentaria (CFSQA – Certification of Food Safety and Quality Auditor) por parte de la Sociedad Estadounidense de Calidad (ASQ – American Society of Quality) , diseñada para garantizar que los auditores comprendan claramente los principios de las normas de Inocuidad alimentaria y HACCP.

• La Iniciativa Global de Inocuidad alimentaria (GFSI – Global Food Safety Inititive) impulsada para la mejora continua de los sistemas de gestión de la inocuidad alimentaria, con el objetivo de garantizar la confianza en la entrega de alimentos inocuos a los consumidores de todo el mundo. GFSI proporciona una plataforma para la colaboración entre algunos de los principales expertos en inocuidad alimentaria del mundo de minoristas, fabricantes y empresas de servicios de alimentos, proveedores de servicios asociados con la cadena de suministro de alimentos, organizaciones internacionales, el mundo académico y el gobierno. La iniciativa se lanzó en 2000 tras una serie de crisis de inocuidad alimentaria en las que la confianza de los consumidores estaba en su punto más bajo. Desde entonces, expertos de todo el mundo han estado colaborando en numerosos Grupos de Trabajo Técnicos para abordar los problemas actuales de inocuidad alimentaria definidos por las partes interesadas de GFSI. Las actividades clave dentro de GFSI incluyen la definición de requisitos de inocuidad alimentaria para esquemas de inocuidad alimentaria a través de un proceso de evaluación comparativa. Se cree que este proceso conduce al reconocimiento de los esquemas de inocuidad alimentaria existentes y mejora la confianza, la aceptación y la implantación de la certificación de terceros a lo largo de toda la cadena de suministro de alimentos. El enfoque actual de GFSI es ampliar los requisitos para cubrir todos los ámbitos de la cadena de suministro de alimentos global «desde la granja hasta la mesa». Otras actividades importantes actuales incluyen el desarrollo de un programa de desarrollo de capacidades para empresas pequeñas y/o menos desarrolladas para facilitar su acceso a los mercados locales y un enfoque continuo en la competencia de los auditores de inocuidad alimentaria para llevar a los expertos de la industria en colaboración con las partes interesadas clave a un consenso común sobre las habilidades, conocimiento y atributos que debe poseer un auditor competente. GFSI ha reconocido una serie de esquemas de gestión de inocuidad alimentaria que cumplen con los criterios del Documento de orientación de GFSI. GFSI revisa periódicamente el Documento de orientación de GFSI para reflejar las mejoras en las mejores prácticas. GFSI no es un esquema en sí mismo y no lleva a cabo ninguna actividad de acreditación o certificación.

• La British Standards Institution desarrolló varios estándares de inocuidad alimentaria conocidos como PAS (Publicly Available Specification – Especificación disponible públicamente), entre las cuales podemos destacar la 220 (2008 PPR para Manufactureras de Alimentos), 221 (2013 PPR para Minoristas), 222 (2011 PPR alimentos en la elaboración de piensos y productos alimenticios para animales), 223 (2011 PPR para la manufactura de materiales de empaque), 96 (2017 Guía para proteger y defender los alimentos y bebidas de los ataques deliberados) y está en proceso de elaboración el PAS 320, relacionado con la cultura de inocuidad alimentaria.

• La Organización Internacional de Normalización (ISO) desarrolló su estándar para un SGIA. La primera versión de la norma ISO 22000 se publicó en 2005 y la versión actual en el 2018, que incluye la estructura de alto nivel. ISO 22000 integra los principios del sistema de Análisis de Peligros y Puntos Críticos de Control (HACCP) y los pasos de aplicación desarrollados por la Comisión del Codex Alimentarius. Mediante requisitos auditables, combina el plan HACCP con programas de prerrequisitos. ISO publicó normas adicionales relacionadas con ISO 22000. Estas normas se conocen como la familia de normas ISO 22000. ISO 22000:2018 (Sistemas de gestión de inocuidad alimentaria – Requisitos para cualquier organización en la cadena alimentaria); ISO/TS 22002-x, familia de programas de prerrequisito (2009 Parte 1: Fabricación de alimentos; 2013 Parte 2: Catering; 2011 Parte 3: Agricultura; 2013 Parte 4: Fabricación de envases para alimentos; 2019 Parte 5: Transporte y almacenamiento; 2016 Parte 6: Producción de piensos y alimentos para animales), ISO/TS 22003:2013 (Sistemas de gestión de inocuidad alimentaria para organismos que realizan auditorías de certificación de sistemas de gestión de inocuidad alimentaria), ISO/TS 22004:2014 (Orientación sobre la aplicación de ISO 22000:2005), ISO 22005:2007 (Trazabilidad en la cadena alimentaria y de piensos – Principios generales y requisitos básicos para el diseño e implantación del sistema), ISO 22006:2009 (Sistemas de gestión de la calidad –Orientación sobre la aplicación de ISO 9001:2008 para la producción de cultivos). ISO 22000 también se utiliza como base para el Esquema de Certificación de Sistemas de Inocuidad alimentaria FSSC 22000.

• En el 2020, la Comisión del Codex Alimentarius publicó la versión más reciente del CXC 1 Principios Generales de Higiene de los Alimentos. Varios aspectos de la guía cambiaron en la actualización de 2020, desde simples cambios de estructura hasta definiciones e incluso la introducción de nuevos conceptos. Los siguientes son los que considero los cambios más importantes: i) La estructura del documento. Anteriormente, el documento contenía 10 secciones que cubrían la introducción y las buenas prácticas de higiene, mientras que el HACCP y su aplicación estaban en un anexo. La última versión tiene una estructura muy mejorada que incluye HACCP y su aplicación como parte del documento; ii) Énfasis sobre el papel del Operador de Empresas Alimentarias en el suministro de alimentos inocuos, donde se declara la responsabilidad que se asume de suministrar productos inocuos, gestionar (controlar) los peligros de manera adecuada, asegurar la competencia del personal y la construcción de una cultura de inocuidad alimentaria efectiva; iii) Las Buenas Prácticas de Higiene (BPH) se describen en las secciones de Principios Generales. Las BPH se incluyen como parte de los PPR y, por lo tanto, como base para un plan HACCP eficaz. Si bien muchas empresas que operan con programas de certificación reconocidos por GFSI estarán muy familiarizados con las actualizaciones y ya las seguirán, algunas organizaciones necesitarán hacer un trabajo adicional para cumplir con las expectativas de ciertas recomendaciones. Los Principios Generales actualizados explicaron que, en algunos casos, el análisis de peligros sugiere que la implantación efectiva de BPH por sí sola es suficiente para gestionar la inocuidad de los alimentos. Sin embargo, la suficiencia de la implantación de estas BPH se basa en el análisis de peligros o en una fuente de información confiable. Si las BPH por sí solas no son suficientes para gestionar los peligros identificados, estos deben abordarse mediante un plan HACCP. La guía explica que algunas BPH requieren mayor atención porque tienen un mayor impacto en la inocuidad alimentaria. Es evidente un énfasis claro en el manejo de alergenos. El término “alergeno” se menciona 40 veces en el documento. De hecho, la aplicación de la etiqueta correcta con la información de alergenos adecuada se da como ejemplo de un límite crítico; iv) Se destaca la importancia del compromiso de la dirección con la cultura de inocuidad alimentaria; v) Las definiciones son muy importantes porque forman el lenguaje que usaremos. Estas terminologías aclaradas nos darán la capacidad de explorar ciertos temas, de forma clara y coherente. En los nuevos principios generales hay mejoras significativas en el lenguaje utilizado y la terminología en general y particularmente en lo que respecta a las definiciones; vi) HACCP y Lineamientos para su aplicación. En la sección 3 del capítulo 2, el documento describe los mismos 12 pasos (Incluyendo los 7 principios de HACCP), reformulados en algunos lugares. En general, tienen el mismo aspecto, excepto que hay pequeñas modificaciones que pueden tener un impacto en la aplicación HACCP. Para resaltar, en el paso 7 del principio 2, se ha retirado el árbol de decisiones que todos conocemos, supongo que en algún momento se desarrollará y se anexará. Los Principios Generales de Higiene de los Alimentos es un documento ineludible para las organizaciones alimentarias y los profesionales de la inocuidad alimentaria que trabajan a diario para proporcionar alimentos inocuos a los consumidores. La nueva revisión mantiene el documento actualizado con las preocupaciones actuales, como la gestión de alérgenos y la relevancia de la cultura de inocuidad alimentaria en una estructura más clara. También incluye aspectos que impulsarán las discusiones entre los profesionales de la inocuidad alimentaria como es el caso de las BPH que necesitan mayor atención (¿qué debería ser exactamente y cómo debería gestionarse?), La eliminación del árbol de decisiones y los Límites Críticos observables, pero recomiendo a los profesionales de la inocuidad alimentaria que lean el documento completo posteriormente.

El análisis de peligros es la clave para un sistema eficaz de gestión de la inocuidad de los alimentos, ya que realizar un análisis de peligros ayuda a organizar el conocimiento necesario para establecer una combinación eficaz de medidas de control. Los diferentes esquemas de gestión de inocuidad alimentaria requieren que todos los peligros que se pueda esperar razonablemente que ocurran en la cadena alimentaria, incluidos los peligros que pueden estar asociados con el tipo de proceso y las instalaciones utilizadas, se identifican y evalúan. Por lo tanto, proporciona los medios para determinar y documentar por qué ciertos peligros identificados deben ser controlados por una organización en particular y por qué otros no. Durante el análisis de peligros, la organización determina la estrategia que se utilizará para garantizar el control de peligros mediante la combinación de los programas de requisitos previos y el plan HACCP.

Declaración

La información contenida en esta entrada se basa en investigaciones realizadas en los últimos meses y en la experiencia y opinión personal del autor. No pretende representar la opinión de ninguna organización para la que trabaje o colabore. El autor no se hace responsable del uso o mal uso de la información proporcionada en la entrada.

]]>
http://laenciclopediagalactica.info/2021/08/04/historia-de-la-gestion-de-inocuidad-alimentaria/feed/ 0 2054
Historia de la Gestión de la calidad http://laenciclopediagalactica.info/2021/08/03/historia-de-la-gestion-de-la-calidad/ http://laenciclopediagalactica.info/2021/08/03/historia-de-la-gestion-de-la-calidad/#respond Tue, 03 Aug 2021 16:30:16 +0000 http://laenciclopediagalactica.info/?p=2044 Los intentos de gestionar la calidad de los productos y servicios se remontan a la época medieval. Durante este tiempo, en la última parte del siglo XIII, los artesanos comenzaron a organizarse en sindicatos llamados gremios que formalizaban procedimientos para asegurar la calidad de los productos y servicios. La atención se centró en la inspección periódica de las mercancías y se tomó la decisión de aceptarlas o rechazarlas. Los símbolos especiales marcados en los productos significan buena calidad. La creación de funciones de inspección en los lugares de trabajo dio lugar a una serie de problemas. Por ejemplo:

• Problemas técnicos que requerían habilidades especializadas que no poseían los trabajadores.
• Asignación de inspectores no capacitados para realizar tareas.

La atención se centró en la producción y se ordenó a los inspectores que aceptaran productos defectuosos.
La promoción de trabajadores calificados a otros puestos dejaba un vacío llenado a menudo por trabajadores no calificados para realizar trabajos operativos como la manufactura. La producción en masa después de la Revolución Industrial a principios del siglo XIX requirió entornos y sistemas de fabricación donde el papel de los artesanos cambió a trabajadores de fábrica. El trabajo realizado por estos artesanos se categorizó en tareas especializadas.
Otros desarrollos tuvieron lugar a fines del siglo XIX a través del trabajo de Frederick W. Taylor (1856-1915), quien desarrolló sistemas de gestión destinados a mejorar la productividad a través de técnicas científicas. Taylor formuló cuatro principios para aumentar la eficiencia:

i. Reemplazar los métodos de regla general por aquellos basados en estudios científicos;
ii. Seleccionar, capacitar y desarrollar a cada trabajador;
iii. Cooperar con los trabajadores para asegurar que se sigan los métodos adoptados; y
iv. Dividir el trabajo en partes iguales entre la dirección y los trabajadores.

En mayo de 2001, se llevó a cabo la primera conferencia internacional sobre el Sistema de Gestión Bata en Zlin (República Checa) para discutir sus impactos en la gestión y el espíritu empresarial en el denominado tercer milenio. La conferencia tuvo como objetivo comunicar la contribución de la teoría y la práctica de la gestión desarrollada por Tomas Bata y sus asociados. Bata introdujo cambios fundamentales en la filosofía y las técnicas de gestión y sus principios se plasman en lo siguiente:

• Nuestro cliente – Nuestro Amo.
• Pensando en la gente, trabajo en las máquinas.
• La mejor calidad a los precios más bajos.
• Lo mejor del mundo es lo suficientemente bueno para nosotros.
• Todo empleado es un capitalista.

El mundo occidental adoptó los enfoques originados por Tomas Bata durante 1905-1932, que ahora se reconocen como prácticas de gestión de la calidad.
El control estadístico de calidad comenzó a aplicarse al control de calidad en la década de 1920, lo que se atribuyó ampliamente al trabajo de Walter Shewhart en la firma estadounidense Western Electric. Antes de la introducción del control estadístico de calidad, los productos terminados se inspeccionaban para eliminar los artículos defectuosos. El desarrollo real de la ciencia estadística en el muestreo de aceptación tuvo lugar después de la formación del Departamento de Ingeniería de Inspección del Laboratorio de Teléfonos de Western Electric Bell en 1924. HF Dodge, PS Romig, W. Shewhart y otros asociados aplicaron las técnicas a las operaciones de los talleres en la planta de Western Electric en Chicago. Los primeros desarrollos del grupo incluyeron lo siguiente:

• 1924 Primer gráfico de control ahora conocido popularmente como gráficos de control de procesos.
• 1925-1926 Terminología del muestreo de aceptación.
• 1927 Tablas de muestreo del límite de calidad saliente promedio (AOQL – Average Outgoing Quality Limit).
• 1928 Sistema de demérito.

En 1930, los ingenieros de la Sociedad Estadounidense de Pruebas y Materiales (ASTM – American Society for Testing and Materials) e ingenieros de otros organismos profesionales desarrollaron aún más la aplicación del muestreo de aceptación en Western Electric y en otros lugares. Estos desarrollos crearon un gran interés en Inglaterra y, a mediados de la década de 1930, Egon Pearson publicó el estándar No. 600 del British Standard Institute. Las “Tablas de inspección de muestras” de Dodge-Romig se publicaron a principios de la década de 1940. Estas tablas consistían en:

i. Tablas de tolerancia de un solo lote de muestreo;
ii. Tablas de tolerancia de lotes de doble muestreo;
iii. Tablas AOQL de muestreo único; y
iv. Tablas AOQL de doble muestreo.

Al final de la Segunda Guerra Mundial, el sector industrial de Japón quedó prácticamente destruido. La fuerza de trabajo no estaba calificada y los productos eran de mala calidad. A principios de la década de 1940, el general Douglas MacArthur, que se embarcó en la reconstrucción de la postguerra, invitó a Homer Sarasohn, un ingeniero de radio, a establecer una industria de la comunicación en Japón. Cuando llegó, toda la industria desde Tokio a Yokohama quedó destruida. No había equipo, no había empresas en funcionamiento y todos los gerentes estaban en la cárcel o muertos. Sarasohn comenzó desde cero construyendo locales, instalando equipos, obteniendo suministros y seleccionando gerentes y trabajadores. A los trabajadores se les instruyó diariamente sobre cómo realizar sus tareas. En 1948, Charles Protzman llegó a Japón para reconstruir el sistema de comunicaciones. Se realizaron seminarios de gestión en los que participaron altos directivos de empresas como Fujitsu, Furukawa, Hitachi, NEC y Toshiba.
Fue en este momento que Sarasohn invitó a Shewhart y Deming a Japón. Shewhart enseñó control estadístico de procesos y Deming presentó un curso sobre “Principios elementales del control estadístico de la calidad”. Durante su visita, tuvo una cena informal con un grupo de presidentes y altos funcionarios de las principales industrias japonesas para hablar sobre la calidad. No tenía experiencia en ingeniería, no tenía experiencia en gestión de línea y no había creado un sistema operativo. Aquellos que se inspiraron en sus 14 principios tenían antecedentes similares pero continuaron enseñando prácticas de gestión de la calidad. A esto le siguieron otras visitas de Deming durante las cuales impartió cursos para la alta dirección. En 1951, Joseph Juran publicó su Manual de control de calidad, que llamó la atención de los japoneses en 1952.
Sarasohn, Deming, Juran y otros dejaron en claro a la fuerza laboral japonesa que el control estadístico del proceso es necesario, pero no suficiente, para brindar calidad de producto y servicio a los clientes. Hicieron hincapié en que el control del proceso estadístico debe estar respaldado por una cultura y un enfoque amplios de gestión de la calidad con el compromiso total de la alta dirección.
También en esto se encontraba Genichi Taguchi, quien introdujo el diseño de parámetros, un marco para la mejora de la calidad en 1980. Era un enfoque rentable diseñado para reducir la variación en productos y procesos, e introducir el diseño y desarrollo de nuevos productos y procesos o mejorar la calidad de los existentes.
Después de este período, la calidad de los productos japoneses mejoró drásticamente. Después de la década de 1950, los propios japoneses desarrollaron herramientas de calidad como círculos de calidad, hojas de verificación, gráficos de control, histogramas, el diagrama de Ishikawa y diagramas de dispersión. Estos intentos establecieron una cultura de mejora continua de la calidad en la industria japonesa. A finales de la década de 1960 y principios de la de 1970, los productos japoneses aparecieron en los mercados de Estados Unidos y Europa debido al bajo costo y la mayor calidad de los productos en comparación con los producidos en el mundo occidental.
El siguiente desarrollo en la mejora de la calidad se produjo en 1987 con la introducción del concepto Six Sigma por Motorola. Six Sigma es un enfoque cuantitativo disciplinado para la selección de proyectos y la mejora de productos mediante la eliminación de defectos de productos, procesos y transacciones.
En el mundo occidental, el progreso fue lento y la conciencia aguda de la calidad comenzó a principios de la década de 1980 cuando las empresas introdujeron sus propias iniciativas de calidad en respuesta al éxito japonés. La Gestión Total de la Calidad (TQM – Total Quality Management) se convirtió en la palabra de moda. Sin embargo, los principios de TQM no se entendieron completamente y a menudo se malinterpretaron. Un enfoque público en la gestión de la calidad se produjo en 1980 en respuesta a un informe de noticias de la NBC, «Si Japón puede … ¿Por qué nosotros no?» que contó con destacados gurús de la calidad en ese momento: Edward W. Deming, William Convey y Lloyd Dobyns. Durante este período, los profesionales de la calidad promovieron activamente los conceptos de calidad: Juran realizó cursos, conferencias y consultorías; Deming continuó con la consultoría a título privado; Philip Crosby estaba promocionando su concepto “La calidad es gratis” a través de consultoría sin contar con control estadístico de procesos; y Armand Feigenbaum era consultor en control de calidad.
La Norma Británica (BS – British Standard) 5750 se publicó en 1979, a la que siguió una campaña nacional de calidad en 1993 debido a la disminución de la participación del comercio mundial. Tras el informe de la NBC de 1980, las empresas estadounidenses intentaron centrarse en la gestión de la calidad. Los consultores de gestión de la calidad florecieron y las empresas empezaron a definir la calidad en términos de las necesidades de los clientes por primera vez. La introducción de la primera norma ISO 9000 en 1987 jugó un papel importante al recomendar a los proveedores que mejoraran su producción y procesos, documentaran sus prácticas y mejoraran sus técnicas de medición.
El período de reconocimiento de los logros en calidad comenzó a fines de la década de 1980, con la introducción del Premio a la Calidad Malcolm Baldrige en los Estados Unidos. Los Australian Quality Awards surgieron en 1989 como resultado de iniciativas de las empresas y la industria australianas, y luego Irlanda del Norte estableció el “Precio de la calidad” siguiendo los criterios de Malcolm Baldrige.
En la década de 1990, el entorno empresarial se volvió más competitivo que nunca y las empresas reconocieron que simplemente satisfacer las necesidades de los clientes no era suficiente. El nuevo concepto de Business Excellence Awards (BEA) se centró en los resultados comerciales, que no fueron considerados en los premios de calidad. El marco BEA incluía categorías como liderazgo e innovación, estrategia y proceso de planificación, datos, información y conocimiento, personas, clientes y fuerzas del mercado, y procesos, productos y servicios.
El panorama actual no es prometedor. Los informes mensuales de la junta hacen hincapié en los estados financieros, que a menudo no van acompañados de tablas de tendencias, gráficos y otro material de apoyo que pueda indicar el riesgo empresarial y su gestión. Un buen sistema de evaluación del desempeño de una empresa debe incluir resultados críticos sólidos.
La definición habitual que escuchamos de instructores y consultores de un sistema de gestión es que es un conjunto de políticas, procesos y procedimientos utilizados por una organización para garantizar que puede cumplir con las tareas necesarias para lograr sus objetivos, cubriendo todos los aspectos clave de las operaciones de la organización. Pero esta definición no hace justicia a la importancia y complejidad de un sistema de gestión eficaz. Debería serlo, pero a menudo no es un sistema integrado y dinámico que vincule las actividades clave de la organización y proporcione orientación y motivación para el personal en todos los niveles. No es un conjunto de procedimientos y objetivos independientes y aislados, sino algo que impulsa a la organización a la mejora continua y, en última instancia, al éxito empresarial.
La integración de diferentes actividades en un sistema cohesivo e interconectado es clave para esto. Se han escrito varios libros y artículos que analizan diferentes enfoques en un intento de proporcionar una guía sobre cómo derivar sistemas de gestión integrados efectivos, a menudo basados en el cumplimiento de los requisitos de las normas ISO. Pero en este blog busco llevar el enfoque un paso más allá, partiendo de la premisa de que es más lógico integrar procesos de gestión, en lugar de sistemas de gestión, y centrarse en la satisfacción del cliente y no solo en las normas ISO.
Está dirigido principalmente a organizaciones de fabricación y consultoría donde la calidad, la inocuidad alimentaria, la gestión medioambiental, la salud y seguridad ocupacional son clave, pero también cubren toda la gama de procesos de gestión, que son parte integral de la mayoría de las empresas.
Si bien siempre trato de realizar esfuerzos razonables para incluir información precisa y actualizada para el contenido de cada publicación, no representa, garantiza ni promete (ya sea de forma expresa o implícito) que cualquier información es o sigue siendo precisa, completa y actualizada, o adecuada para cualquier propósito. Cualquier confianza que un lector ponga en la información de esta publicación es por su cuenta y riesgo (incluido el uso de formularios y procedimientos), y este blog no pretende ser un sustituto de las normas.
Como siempre apreciado lector, agradezco su visita, comentarios y difusión.

]]>
http://laenciclopediagalactica.info/2021/08/03/historia-de-la-gestion-de-la-calidad/feed/ 0 2044
Biopelículas http://laenciclopediagalactica.info/2021/01/04/biopeliculas/ http://laenciclopediagalactica.info/2021/01/04/biopeliculas/#comments Tue, 05 Jan 2021 00:56:46 +0000 http://laenciclopediagalactica.info/?p=2030 Las biopelículas son una estrategia microbiana para persistir en entornos desafiantes o cambiantes. Los registros fosilizados indican microcolonias putativas de biopelículas que tienen más de tres mil millones de años. La formación de biopelículas también se evidenció en los linajes más antiguos de arqueas y bacterias, lo que indica que la capacidad de ensamblarse en agregados multicelulares es un rasgo que evolucionó temprano como una estrategia de adhesión y persistencia. Las biopelículas se pueden encontrar en el suelo, los sedimentos y los ecosistemas acuáticos y podrían ser uno de los modos más comunes de existencia bacteriana en la naturaleza, contribuyendo significativamente a procesos ecológicos como el ciclo del carbono y el nitrógeno.

Anthony van Leeuwenhoek realizó una de las primeras observaciones de biopelículas mientras observaba raspaduras de la lengua. Describió su observación de las células microbianas como «animálculos» después de estudiar una biopelícula dental comúnmente conocida como placa. Si bien las biopelículas dentales se han asociado con caries y periodontitis, el deterioro de los alimentos y la aparición persistente de patógenos transmitidos por los alimentos como Listeria monocytogenes y Salmonella entérica en las plantas de procesamiento de alimentos también podrían resultar de la formación de biopelículas. Louis Pasteur representó biopelículas en sus bocetos mientras describía el proceso de formación del vinagre. Las biopelículas que se forman en las astillas de madera de haya utilizadas en la producción de vinagre se describieron como “la matiere visqueuse” o el material viscoso. La viscosidad de las biopelículas se atribuye a la formación de una matriz extracelular que engloba una población de especies bacterianas homogéneas o una comunidad de heterogéneas. Los estudios sobre biopelículas bacterianas en asociación con tuberías y cascos de barcos y como agentes bioincrustantes han indicado que las bacterias son capaces de adherirse a superficies abióticas como el vidrio y el acero inoxidable. Como resultado, las bacterias oportunistas y patógenas son capaces de formar biopelículas en dispositivos médicos y superficies en contacto con alimentos, lo que resulta en una fuente de infección nosocomial persistente o contaminación de alimentos, respectivamente. Las biopelículas en el tejido biológico de animales y plantas forman una característica importante de los microbiomas, lo que resulta en una relación beneficiosa con el huésped. La formación de biopelículas con patógenos oportunistas, por otro lado, conduce a infecciones o efectos perjudiciales para el huésped, dependiendo del tipo de bacteria que engloba las biopelículas. En particular, el 90% de la biomasa de una biopelícula consiste en sustancias exopoliméricas, y solo el 10% está compuesto por bacterias. La formación de la sustancia exopolimérica es la característica principal que distingue a las células sésiles y adherentes de una biopelícula.

La Arquitectura de las Biopelículas

La arquitectura de las biopelículas es compleja y varía según el polisacárido a base de azúcar, las proteínas y los lípidos producidos por la bacteria en la sustancia polimérica extracelular (EPS), sustrato de fijación, especies bacterianas competidoras, y edad de la biopelícula. Las células bacterianas que están encerradas en una matriz de biopelícula están protegidas por muchas macromoléculas. Anteriormente se pensaba que la matriz polimérica que envuelve las células bacterianas en una biopelícula consistía principalmente en polisacáridos extracelulares o exopolisacáridos (EPS). Un análisis más profundo de la matriz de la biopelícula ha revelado un consorcio más complejo de proteínas, glicoproteínas, glicolípidos y ADN extracelular. Por tanto, EPS ahora se refiere a la sustancia polimérica extracelular para abarcar todos estos componentes. El EPS forma un medio que ayuda a adherirse a las superficies, retiene el agua y permite la disolución de los nutrientes a medida que interactúa con el medio ambiente.

El papel del ADN

La matriz de EPS de ciertas bacterias podría incorporar una gran cantidad de ADN extracelular (eDNA). Los experimentos que utilizaron espectroscopia del EPS de Pseudomonas revelaron picos a 260 nm y susceptibilidad a la ADNasa Ι, una enzima que escinde específicamente fragmentos de ADN, pero no ARN. Es probable que la fuente de eDNA sean células bacterianas lisadas. La alta concentración de ADN dentro de una matriz fluida que soporta altas densidades celulares podría proporcionar un entorno ideal para la transferencia horizontal de genes entre sus microorganismos constituyentes. Se han observado altos niveles de conjugación en biopelículas bacterianas, mientras que la evidencia también apoya la idea de que la competencia celular se mejora en biopelículas, lo que permite tasas más altas de no transformación. El papel del eDNA en una biopelícula podría ser variado, sirviendo no solo como una fuente de transferencia genética horizontal de ADN, sino también para la integridad organizacional. El alto peso molecular y la viscosidad del eDNA bicatenario proporcionan un andamio y dan a la matriz hidrofobicidad en la que se pueden desarrollar microcolonias bacterianas. El tratamiento de biopelículas de 24 h de varias especies bacterianas con ADNasas tuvo marcadas reducciones dependientes de la dosis en la biomasa y el número de microcolonias después del tratamiento, con la formación de parches libres de células dentro de la biopelícula. Más evidencia de que el eDNA juega un papel en el mantenimiento de la integridad estructural de una biopelícula provino de un estudio que utilizó una biopelícula de Escherichia coli BW25113; El tratamiento con ADNasa durante 8 h redujo la biopelícula, mientras que la suplementación del sistema con ADN exógeno aumentó la biopelícula. En Neisseria meningitidis, el eDNA también podría ayudar en el establecimiento de microcolonias de bacterias al proporcionar resistencia contra la fuerza de corte y contribuir a la interacción del patógeno con el hospedador. La matriz de eDNA que forma el andamio de la matriz de biopelícula también puede contener complejos enzimáticos de células lisadas, adquiriendo así capacidades enzimáticas que son ventajosas para la población. Dichos beneficios pueden incluir la capacidad de inactivar antimicrobianos, así como la liberación de células al medio ambiente tras la detección de condiciones adecuadas.

Pseudomonas aeruginosa y E. coli han servido como modelos para una gran cantidad de investigación de biopelículas, lo que ha llevado a hallazgos importantes con respecto a las biopelículas de patógenos entéricos relevantes para la inocuidad alimentaria. Por ejemplo, el eDNA es un componente importante de las biopelículas de Listeria monocytogenes y podría desempeñar un papel importante tanto en la unión inicial a los sustratos como en la formación temprana de biopelículas. Por otro lado, extrapolar el conocimiento de los sistemas modelo a los patógenos entéricos relevantes para la investigación de la inocuidad de los alimentos no siempre es sencillo. Contrariamente a los hallazgos anteriores, un estudio sobre el papel del eDNA en la formación de biopelícula de Salmonella en superficies abióticas indicó que la presencia de DNasa Ι resultó en la formación de más biopelícula y una mejor adhesión a superficies abióticas. La adición de ADN extracelular, por otro lado, resultó en la inhibición de la formación de biopelículas. Por lo tanto, para comprender completamente el papel de las biopelículas en la adhesión y persistencia de organismos transmitidos por los alimentos en superficies abióticas, se necesitan estudios con patógenos de interés transmitidos por los alimentos.

Curli: Andamio de Proteína Pegajosa

Los curli se definen como fimbrias amiloides, fibras no ramificadas que constituyen la fracción proteica de determinadas biopelículas. En organismos como E. coli, Salmonella y Staphylococcus, los curli juegan un papel importante en la adhesión y formación de biopelículas. Las cepas de E. coli O157:H7 que expresan curli formaron asociaciones más fuertes con las superficies de lechuga y repollo en comparación con las cepas que expresan curli débiles. En E. coli, la formación de curli está controlada por los operones csgBA y csgDEFG. CsgA es la subunidad curli principal que polimeriza en fibras amiloides ricas en láminas β mediante el nucleador CsgB. CsgD es la proteína de la membrana externa de la fibra curli, mientras que CsgE y CsgF son responsables de la estabilidad de la subunidad y las proteínas nucleadoras y su transporte a la superficie celular. En Salmonella, la biogénesis de curli es similar a la de E. coli y la biogénesis de curli está mediada por la expresión del regulador CsgD del operón csgBAC. Un estudio que evaluó la formación de biopelículas entre 15 aislados de Salmonella clínicos, 31 asociados a carne y 25 asociados a productos agrícolas reveló que todos los aislados eran capaces de desarrollar biopelículas. De estos, se determinó que todos los aislados clínicos y relacionados con la carne y 20 de los aislados relacionados con productos agrícolas eran cepas productoras de curli.

La formación de curli se analiza mediante el ensayo en placa de rojo Congo, en el que el organismo se raya en un medio de baja osmolaridad que contiene el colorante. Las placas de agar rojo Congo fueron introducidas por primera vez por Freeman et al. (1989). Se sabe que la biopelícula que forma Salmonella o E. coli produce un morfotipo «rdar» que expresa fimbrias agregantes que se unen estrechamente a las células. El morfotipo «rdar» significa rojo, seco y rugoso y describe la estructura de la colonia formada en agar Rojo Congo debido a la unión del tinte hidrofóbico con la estructura de la cadena β de las subunidades curli, contribuyendo a una apariencia rugosa, junto con la celulosa producción. La deficiencia de curli provoca la formación de colonias rosadas lisas, mientras que la deficiencia de celulosa provoca colonias marrones, secas y rugosas (bdar). La deficiencia tanto de curli como de celulosa da como resultado la formación de colonias lisas y blancas (saw). Por lo tanto, este medio ha demostrado ser útil en la evaluación de mutantes utilizados para estudiar biopelículas.

Fuera del animal huésped, la presencia de curli puede resultar en una mayor aptitud a medida que el patógeno pasa a otro animal huésped. La síntesis de curli proporciona una mejor unión de las bacterias a las superficies abióticas y a las superficies de las plantas. La capacidad de producir fimbrias agregantes delgadas por Salmonella entérica y la síntesis simultánea de celulosa mejoró las capacidades de biopelícula de las cepas probadas en superficies abióticas. Esta ventaja se ha demostrado también para superficies bióticas. Las cepas mutantes de E. coli O157:H7 deficiente en curli se vieron afectadas en su capacidad para adherirse a las superficies de las hojas de espinaca. La variabilidad en la rugosidad de las hojas entre varios cultivares de espinacas también benefició la adherencia en cepas de este patógeno que expresan curli. Sin embargo, la expresión de Curli no confirió ninguna ventaja durante la internalización de E. coli O157:H7 a través de la absorción de la raíz de espinaca. Hay varios beneficios de tener andamios de biopelícula reforzados con curli. Curli refuerza la estabilidad de la matriz y aumenta la resistencia a proteasas y detergentes. La expresión de Curli está altamente estratificada incluso dentro de una sola colonia. Cuando se forma el morfotipo rdar, las bacterias de la parte rugosa de la colonia que están expuestas al oxígeno expresan curli, mientras que las células de la colonia no. Las colonias bimodales se desencadenan por el estrés oxidativo y los morfotipos rdar son resistentes a muchos desinfectantes oxidantes. Además de curli, otras proteínas fimbriales putativas, incluidas las fimbrias de tipo 1, las fimbrias de tipo 3 y las adhesinas similares a BAP, podrían desempeñar un papel importante en la adhesión de patógenos transmitidos por los alimentos a superficies como las células hospedadoras.

Polisacáridos en Biopelículas

Los polisacáridos sirven como componentes principales de una estructura de biopelícula que existe como finas hebras adheridas a las superficies celulares, formando redes complejas. La formación de polisacáridos es importante en la formación de biopelículas, y las especies bacterianas que no producen polisacáridos bacterianos a menudo existen con las que lo hacen en biopelículas de especies mixtas. Muchas bacterias producen heteropolisacáridos complejos en la matriz exopolimérica y los azúcares a menudo contienen residuos cargados o neutros.

Las biopelículas de E. coli y Salmonella entérica pueden contener celulosa, pero también polisacáridos capsulares y lipopolisacáridos. Solomon et al. (2005) identificaron la producción de celulosa en el 73%, 84% y 52% de los aislados de Salmonella clínicos, asociados a la carne y asociados a productos agrícolas probados. Los operones bcsABZC y bcsEFG son necesarios para la síntesis de celulosa en Salmonella Typhimurium y Salmonella Enteritidis. El patógeno emergente transmitido por los alimentos Cronobacter spp. también lleva el operón bcsABZC. Los genes bcsABC son necesarios para la síntesis de celulosa y se detectaron en la mayoría de los 231 aislados clínicos, alimentarios, ambientales y de otro tipo analizados. Específicamente, se encontró que bcsA y bcsB eran necesarios no solo para la producción de celulosa sino también para la formación de biopelículas y la agregación celular. Por el contrario, la formación de celulosa no pareció indispensable para la formación de biopelículas de E. coli O157:H7 cepa EDL933 en hojas de espinaca. Independientemente de si las propias bacterias pueden sintetizar carbohidratos específicos, los carbohidratos derivados de la pared celular de las plantas liberados durante el procesamiento de productos frescos pueden influir en la adhesión. La matriz formada entre las fibrillas de celulosa y la pectina en un modelo de pared celular vegetal demostró que la estructura en sí misma y no los componentes específicos ayudaron a la retención de las células de Salmonella dentro de la matriz.

Las biopelículas formadas por tinciones mucoides de Pseudomonas aeruginosa aisladas de pacientes con fibrosis quística contienen alginato, mientras que las biopelículas de E. coli también contienen un polisacárido polianiónico conocido como ácido colánico. La producción de ácido colánico en E. coli es responsable de la formación de estructuras tridimensionales complejas de biopelículas, pero no de la unión inicial. También se ha identificado en Salmonella un grupo de genes similar al de E. coli para la producción de ácido colánico.

Los polisacáridos capsulares pueden jugar un papel importante en la adherencia a las superficies, que es el primer paso necesario para la formación de biopelículas. Los polisacáridos capsulares pueden ayudar a repeler las fuerzas de Van der Waals, mejorar la adhesión y pueden sobrevivir en la matriz del biopelícula durante más de una década. Un análisis de electroforesis de carbohidratos asistida por fluoróforos (FACE) del polisacárido capsular de Salmonella Typhimurium DT104 indicó que los azúcares principales eran glucosa, manosa y galactosa. En Listeria monocytogenes, la presencia de N-acetilglucosamina junto con eDNA resultó en una mayor adhesión a superficies abióticas, y la complejidad y el tamaño de estas moléculas intracelulares podrían desempeñar un papel importante en la adhesión celular y la formación de biopelículas.

Formación de Biopelículas en Superficies en Contacto Directo con Alimentos y en Alimentos Frescos.

Las biopelículas se forman en un proceso de sucesión bacteriana iniciado por células que se adhieren a una superficie, seguido de la acumulación de la biopelícula y el reclutamiento de otras especies para continuar desarrollando una biopelícula multiespecie dictada por condiciones fisicoquímicas e interacciones tróficas intrincadas y complejas. Los pasos involucrados en la formación de la biopelícula incluyen: (1) Adhesión al sustrato y superación de las fuerzas que podrían repeler el microorganismo, (2) Desarrollo de microcolonias seguido por la formación de sustancias exopoliméricas, (3) Maduración / desarrollo de la biopelícula a través de la formación de columnas y canales, y (4) Liberación de residentes de biopelículas bacterianas al medio ambiente.

Superficies de Contacto Directo con el Alimento

Se ha demostrado que los patógenos transmitidos por los alimentos, de interés en el entorno moderno de procesamiento de alimentos, como Salmonella entérica, E. coli patógena y Listeria monocytogenes, forman biopelículas en superficies abióticas (Ver la siguiente tabla). En un estudio que evaluó la capacidad de Listeria monocytogenes para formar biopelículas en diferentes superficies en una planta de procesamiento de alimentos, el patógeno fue capaz de formar biopelículas en teflón, acero inoxidable, nailon y el sellador de pisos de poliéster. En presencia de un medio nutricionalmente débil, el patógeno no produjo biopelículas en el sellador de pisos de poliéster y a una temperatura de 10°C, mientras que produjo biopelículas más débiles en teflón y acero inoxidable. Una comparación de 122 serotipos de Salmonella entérica aislados de alimentos, animales y seres humanos por su capacidad de producción de biopelículas reveló que todos los serotipos producían biopelículas en placas de microtitulación de plástico. La Salmonella entérica produjo más biopelículas en comparación con Listeria monocytogenes. Curiosamente, la formación de biopelículas de Salmonella entérica en un medio pobre en nutrientes fue superior en comparación con Listeria monocytogenes. En las superficies que se encuentran comúnmente en las plantas de procesamiento de alimentos, como cemento, polietileno de alta densidad y acero inoxidable, se observó que Salmonella Weltevreden formaba la mayor parte de la biopelícula sobre plástico y la menor sobre acero inoxidable. También se encontró que la densidad celular del organismo se redujo en acero inoxidable.

TABLA. Formación de Biopelículas por Patógenos Transmitidos por Alimentos en Superficies de Alimentos y Equipos

El acero inoxidable es menos hidrófobo que el caucho y se sabe que las células bacterianas se adhieren mejor a superficies más hidrófobas. El acero inoxidable es, por tanto, un material comúnmente utilizado en las industrias de procesamiento de alimentos. El acabado de la superficie del acero inoxidable también podría desempeñar un papel importante en la formación de biopelículas. Cuando se evaluó la capacidad de las superficies de acero inoxidable con diferentes acabados para soportar la adhesión de Salmonella y la formación de biopelículas, se observó que la presencia de grietas o abrasiones resultó en una mejor adhesión de Salmonella entérica a las superficies. En superficies rugosas, el espesor de la biopelícula de Salmonella después de 5 días fue cuatro veces mayor que el primer día, con un aumento del 77% en la formación de la biopelícula. En comparación con Listeria monocytogenes, las biopelículas fueron comparativamente menos profundas que las biopelículas de Salmonella entérica en el primer y quinto día. La superficie electropulida fue la más suave entre los acabados de acero inoxidable probados y también tuvo el menor número de celdas adheridas. Tanto las superficies de acero inoxidable electropulidas como las lijadas a máquina tuvieron la menor cantidad de formación de biopelículas durante los 5 días de duración. La presencia de biopelículas de mayor espesor puede resultar en contaminación cruzada a otras superficies debido a la dispersión de microcolonias, así como una mayor resistencia a la desinfección.

En E. coli O157:H7, la presencia de curli jugó un papel importante en la formación de biopelículas en superficies de acero inoxidable. El tipo de superficie de contacto con los alimentos y el medio presente en el medio ambiente podrían desempeñar un papel importante en la formación de biopelículas de patógenos transmitidos por los alimentos. E. coli O157:H7 formó un aumento de biopelículas en acero inoxidable y polietileno de alta densidad cuando había carne molida. También se observó la unión de E. coli O157:H7 a las superficies a 4°C.

Formación de Biopelículas en Productos Frescos

Los diferentes tipos de alimentos proporcionan superficies ideales para la formación de biopelículas por medio de superficies irregulares y nutrientes para la adhesión y la utilización de bacterias (Volver a la tabla). Los patógenos transmitidos por los alimentos aislados de las aves de corral, la carne y productos como el repollo y las espinacas son capaces de formar biopelículas en las superficies de contacto. Los serotipos de Salmonella asociados al brote de tomate fueron capaces de producir biopelículas en partículas de polvo de cuarzo. La cantidad de EPS producida por los serotipos probados cambió con el tiempo y la mayor cantidad de EPS se midió alrededor del día 6, seguida de una reducción de EPS en los días 10 y 14. Los resultados del estudio indican que los sedimentos podrían albergar Salmonella debido a la formación de biopelículas por el patógeno y podría servir como una fuente de contaminación en cuerpos de agua como estanques de riego, acequias y canales. Se pueden seleccionar nichos ecológicos específicos para capacidades de biopelícula más fuertes. Los aislamientos de Salmonella entérica recuperados en productos se adaptaron mejor a la formación de biopelículas en superficies abióticas y superficies de hojas de espinaca en comparación con los aislamientos recuperados de aves de corral.

Se desconoce el papel de los patógenos entéricos en las biopelículas asociadas a las plantas. Los filogrupos de E. coli varían según la aptitud ecológica y su capacidad para formar biopelículas en los tejidos vegetales. Los brotes recientes asociados con E. coli O157:H7 y E. coli O104:H4 junto con la aparición inocua de E. coli no patógena a partir del producto indicaron una adaptación a la existencia epífita. Los aislamientos de E. coli de plantas produjeron más biopelículas que otros aislamientos de mamíferos y humanos.

Las biopelículas son frecuentemente de múltiples especies y la cooperación entre los componentes puede ser una ventaja de este estilo de vida. Las biopelículas naturales de múltiples especies en los brotes de varias semillas se han visualizado con microscopía electrónica de barrido, mostrando biopelículas en las estructuras de la raíz, el hipocótilo y el cotiledón. Los patógenos entéricos podrían reclutarse en biopelículas de especies múltiples en la filosfera, aunque aún queda por investigar si la naturaleza de su interacción con taxones vecinos es competitiva o cooperativa. La presencia de ciertos taxones puede favorecer el establecimiento de nuevas especies basadas en interacciones microbio-microbio positivas. Este efecto sinérgico sobre la formación de biopelículas puede ocurrir entre la microbiota nativa de las plantas y los patógenos transmitidos por los alimentos. Se observó que Burkholderia caryophylli aislado de una instalación de productos frescos cortados aumentó la supervivencia de E. coli O157:H7 en un 180% al mismo tiempo que aumentaba su propia población. De manera similar, las variantes curli-negativo de E. coli O157:H7 fueron capaces de formar una biopelícula sinérgica con la microbiota nativa presente en el agua de lavado de productos.

La formación de biopelículas por patógenos transmitidos por los alimentos podría ser una estrategia importante para persistir en los tejidos de plantas y animales, lo que a su vez puede tener importantes implicaciones para la inocuidad alimentaria. La presencia de una matriz de EPS en la superficie de las plantas puede resultar en una disminución de la eficacia del tratamiento desinfectante. Se pudieron formar biopelículas de E. coli O157:H7 en la lechuga romana y las espinacas, lo que les confirió una mayor tolerancia a los lavados con cloro e incluso a la irradiación. Sin embargo, la ubicación de la biopelícula, a diferencia de las sustancias exopoliméricas, se ha descrito como un factor importante para conferir esta protección frente a los tratamientos antimicrobianos, como se demostró para las biopelículas de E. coli O157:H7 en las superficies de las hojas de espinaca versus los bordes de las hojas de espinaca. La observación de cortezas de melón inoculadas con Salmonella con microscopía electrónica de barrido indicó la aparición de biopelículas 24 h después de la inoculación por el patógeno. Las biopelículas formadas en la superficie de las plantas también brindan protección al microorganismo contaminante contra el sistema de defensa de la planta. Se observó que Pseudomonas aeruginosa era resistente al ácido rosamarínico producido por la albahaca dulce cuando las células estaban en biopelículas pero no cuando las células estaban en estado planctónico.

La celulosa podría desempeñar un papel importante en la formación de biopelículas de Salmonella Typhimurium en la superficie del tomate, ya que los mutantes deficientes en celulosa se vieron significativamente afectados en la formación de biopelículas en comparación con el tipo salvaje. El uso de microscopía de contraste de interferencia diferencial episcópica para observar la interacción de Salmonella entérica con la microbiota nativa y la formación de biopelículas en las hojas de espinaca indicó que las hojas de las plantas pueden albergar 5 log UFC de células bacterianas por mm de superficie foliar y que el material de biopelícula está presente en las hojas. Salmonella entérica pudo adherirse a los márgenes celulares y alrededor de las estomas donde había microcolonias de biopelículas. Como se mencionó anteriormente, los carbohidratos derivados de plantas liberados durante el corte y picado de productos frescos también pueden desempeñar un papel en la construcción de una red en la que las células de Salmonella pueden alojarse.

Aparte del riesgo de patógenos, la presencia de biopelículas en los alimentos puede impartir factores sensoriales indeseables e impactar la comercialización. Las biopelículas podrían impartir una textura viscosa a la superficie de un alimento, y los consumidores pueden medir la calidad o «frescura» de los alimentos por el tacto, la coloración y el olor, que pueden verse directamente afectados por la presencia de biopelículas.

Dispersión de bacterias de biopelículas

Si bien la formación de biopelículas en las superficies de los alimentos da como resultado la contaminación y el deterioro de los alimentos, la liberación de bacterias de los biopelículas puede resultar en la contaminación de las superficies de contacto y el equipo e incluso en la dispersión del organismo a las poblaciones no contaminadas. La dispersión de células de un biopelícula consta de tres pasos: (1) Desprendimiento de células de un biopelícula, (2) Transferencia de células a una nueva ubicación y (3) Unión de células a un nuevo sustrato.

La dispersión de las células de una biopelícula se puede lograr mediante procesos tanto activos como pasivos. La dispersión activa resulta de mecanismos internos dentro de la biopelícula, mientras que la dispersión pasiva ocurre como resultado de fuerzas físicas como el cizallamiento. La dispersión de biopelículas se puede categorizar como erosión, desprendimiento y siembra, según la cantidad de células y la rapidez con la que se diseminan las células. La dispersión de las células puede facilitarse mediante la actividad enzimática, como las ADNasas, las proteasas y las glicosidasas que descomponen los componentes estructurales de la arquitectura de la biopelícula. La liberación de células de biopelículas también puede ocurrir después del tratamiento con detergentes como ramnolípidos o dispersinas que afectan la adhesión fimbrial. Las células también pueden desprenderse de la matriz del biopelícula por división celular donde la progenie no está unida por las fuerzas adhesivas del biopelícula.

La presencia de moléculas sensibles al quórum puede regular muchos procesos en el ciclo de vida de la biopelícula, desde la agregación y unión de las células hasta la formación de canales y la dispersión celular. En Xanthomonas campestris, el factor de señalización difusible (Endo-β -1,4-mananasa) puede provocar la dispersión del organismo a partir de una biopelícula. Otras biomoléculas capaces de promover la dispersión de bacterias a partir de biopelículas incluyen ácidos grasos y óxido nítrico. El ácido graso, ácido cis-2-decenoico, es un factor de señalización difusible que puede resultar en la liberación de células de Pseudomonas aeruginosa de su biopelícula. El óxido nítrico es una molécula de señalización clave involucrada en la defensa de las plantas contra los patógenos. Los donantes de óxido nítrico provocaron el desalojo de Salmonella entérica sésil nativa y E. coli O157:H7 de las superficies de plástico y acero inoxidable, lo que indica que los cambios dinámicos en el tejido vegetal después de un evento de contaminación podrían resultar en la dispersión bacteriana de las biopelículas. La formación de óxido nítrico también fue capaz de inducir la liberación de Salmonella entérica de las biopelículas a 4°C. El potencial de los ácidos grasos, el óxido nítrico y otras moléculas para provocar la eliminación de patógenos transmitidos por los alimentos de las biopelículas asociadas con los productos agrícolas requiere una mayor exploración, ya que estas moléculas son frecuentemente asociadas con superficies vegetales.

Recalcitración de biopelículas microbianas

La arquitectura de una biopelícula madura contribuye a su recalcitrancia. Las biopelículas a menudo tienen una gran población de células bacterianas apiladas en columnas mientras están encerradas en la vaina polimérica. Cuando se desafía con un antimicrobiano o un desinfectante, las barreras físicas presentadas por la biopelícula dan como resultado directamente una eficacia reducida. La salmonela en una matriz de biopelícula puede resistir tratamientos con cloro de hasta 500 mg/L, mientras que las células planctónicas son susceptibles al 10% de la misma concentración. Un estudio de tratamientos con cloro del perejil contaminado con Salmonella productora de EPS reveló que la cloración fue ineficaz para inactivar el patógeno incluso cuando se usaron altas concentraciones del desinfectante. Al evaluar la eficacia de los desinfectantes hidróxido de sodio, hipoclorito de sodio y cloruro de benzalconio, solo el primero fue capaz de erradicar por completo una biopelícula de Salmonella Agona de 2 días, y esta capacidad se perdió al tratar biopelículas más maduras. Los factores que pueden resultar en una reducción de la eficacia de los desinfectantes en las biopelículas incluyen una profundidad de penetración reducida y la inactivación del desinfectante mediante la neutralización de las enzimas. Cuando se usó peróxido de hidrógeno para tratar biopelículas formadas por Klebsiella pneumoniae, se observó la inactivación del desinfectante a base de catalasa.

Estas respuestas a menudo se superponen con las estrategias empleadas por las biopelículas bacterianas para resistir a los antibióticos. Los posibles mecanismos de resistencia a los antibióticos son numerosos y pueden incluir factores ambientales y genéticos. La transferencia horizontal de materiales genéticos como plásmidos o conjugación bacteriana puede resultar en el intercambio de genes de resistencia a antibióticos entre especies bacterianas. Los genes de resistencia a los antibióticos comunes entre la microbiota humana, la microbiota de los animales de consumo y la Salmonella entérica indican que existe un vínculo más amplio de genes de resistencia en el ciclo de la granja al alimento. Las instalaciones de procesamiento de alimentos, como las instalaciones de recolección y las instalaciones de envasado de productos, a menudo resultan en una diáspora interactiva que promueve el intercambio genético.

Las biopelículas representan un desafío de saneamiento para la industria alimentaria porque brindan protección a los patógenos transmitidos por los alimentos contra lesiones físicas, promueven la transferencia horizontal de genes y mejoran la comunicación entre las células que podrían permitir interacciones metabólicas. Estos factores podrían proporcionar una mayor protección contra los agentes antimicrobianos y ayudar en la adquisición de nuevos rasgos genéticos y la supervivencia en entornos difíciles. La Salmonella entérica es capaz de adherirse a las superficies de los equipos y persistir en los entornos de procesamiento formando biopelículas. Las biopelículas pueden desarrollarse en superficies sólidas e interfaces de agua como pisos, equipos de corte y deshuesado y equipos de procesamiento y lavado de productos. Las bacterias de una biopelícula se pueden dispersar en el medio ambiente en determinadas condiciones, como abrasiones, cambios en el medio ambiente, pH y oxidación química. Cuando se devuelven al medio ambiente como células planctónicas, estas células podrían portar genes de resistencia a los antibióticos, rasgos adquiridos durante su paso por las biopelículas. El aumento en la propagación de la resistencia a los antibióticos entre los patógenos transmitidos por los alimentos sugiere claramente esto. Un brote de Salmonella Typhimurium en 1998 en Dinamarca resultó de cepas que eran resistentes al ácido nalidíxico y mostraban una menor susceptibilidad a las fluoroquinolonas. La cepa se aisló de pacientes, muestras de cerdo, rebaños y la instalación de recolección, lo que indica varias rutas de propagación. Las células bacterianas pueden sufrir variaciones de fase y contener genes de resistencia a los antibióticos para las enzimas que descomponen los antibióticos o para las bombas de salida a través del intercambio genético y las adaptaciones en las biopelículas. Estas adaptaciones genéticas y fisiológicas de la existencia de biopelículas también podrían resultar en una protección cruzada con los desinfectantes que se usan comúnmente en el procesamiento de alimentos, lo que resulta en la supervivencia del patógeno después de la desinfección de la planta de procesamiento.

Un estudio previo sobre 26 cepas de Staphylococcus aureus aisladas de pesquerías indicó que las biopelículas formadas por los microorganismos los hacían más resistentes a los desinfectantes que sus contrapartes planctónicas. Esto indica la importancia de encontrar desinfectantes alternativos que tengan la capacidad de prevenir la formación de biopelículas y exhiban permeabilidad a través de matrices de biopelículas. Este último punto es importante, ya que los componentes individuales de las biopelículas bacterianas a menudo no conservan su resistencia a los antimicrobianos y desinfectantes durante una etapa planctónica. La penetración efectiva de un antimicrobiano, por lo tanto, puede aumentar su actividad contra las biopelículas.

Control de Biopelículas

Las biopelículas se pueden controlar mediante mecanismos físicos, químicos y biológicos. Los mecanismos físicos implican producir suficiente fuerza cortante y abrasión para alterar la estructura de la biopelícula, mientras que los tratamientos químicos pueden desestabilizar la arquitectura de la biopelícula. Los métodos biológicos implican el uso de competencia microbiana para reducir los recursos del organismo objetivo. Una de las posibles advertencias a tener en cuenta al utilizar estos métodos para controlar las biopelículas es asegurarse de que el método no dé lugar a una mayor dispersión de los organismos componentes en una biopelícula, ya que el tratamiento de control la degrada. Un ejemplo de esto se informó en un estudio que evaluó la eficacia de lavar un sistema de distribución de agua de riego en un campo de cultivo con cloro, con la intención de controlar las biopelículas en la cinta de goteo y garantizar la calidad del agua. En cambio, el agua al final de la línea después del lavado con cloro tenía cargas bacterianas más altas, lo que indica el desprendimiento de células de la biopelícula y, por lo tanto, degrada la calidad del agua entregada a los campos.

Desinfectantes Bioquímicos

Los tratamientos químicos con desinfectantes como el cloro y los antibióticos han sido notoriamente ineficaces contra las biopelículas. Recientemente, algunas estrategias han demostrado resultados más prometedores. Una combinación de vapor durante 20 s y yodóforo a una concentración de 20 ppm resultó en la reducción de los recuentos de células viables en una biopelícula de patógenos mixtos que consta de E. coli O157:H7, Salmonella Typhimurium y Listeria monocytogenes en superficies de acero inoxidable. Sin embargo, en general, el tratamiento químico por sí solo es insuficiente para controlar las biopelículas. Por esta razón, se están explorando otras estrategias que involucran compuestos activos o enzimas derivados de plantas.Los aceites esenciales tienen una potente actividad antimicrobiana ya que pueden alterar las membranas celulares de las bacterias y provocar fugas de ATP. La actividad antimicrobiana potencial del carvacrol, un aceite esencial derivado de orégano, tomillo o mejorana, se probó contra biopelículas de especies duales de Salmonella y S. aureus. El uso continuo de una emulsión 5 mM de carvacrol resultó en la ausencia de Salmonella viable y la inhibición completa de la formación de biopelículas de S. aureus. Por lo tanto, el uso de emulsiones de aceite esencial en aguas de lavado y tanques de canal durante el lavado de productos frescos podría potencialmente prevenir la formación de biopelículas por organismos patógenos en el equipo de lavado de productos. Los extractos de Punica granatum L. (Granada) y Rhus coriaria L. (Zumaque siciliano) con alto contenido de polifenoles y actividad antioxidante resultaron eficaces contra las biopelículas de especies bacterianas relevantes para la inocuidad alimentaria, Listeria monocytogenes y E. coli.

Los tratamientos con enzimas, como los que se dirigen a los componentes de la matriz de EPS, podrían resultar eficaces en la reducción de la bioincrustación de biopelículas. Las opciones para reducir las biopelículas incluyen el uso de enzimas sensibles al quórum tales como N -acil homoserina lactonasas y acilasas, proteasas, enzimas que degradan polisacáridos y fagos que pueden producir polisacáridos despolimerasas capaces de degradar el EPS. La combinación de un método de alteración física, como la sonicación y el ultrasonido, y un desinfectante químico a menudo ha demostrado ser más eficaz que un solo tratamiento.

Control Biológico

Teniendo en cuenta la problemática recalcitrante de las biopelículas a la desinfección química y la tendencia a que las biopelículas se repitan, la perspectiva de eliminar completamente las biopelículas con otros agentes biológicos es muy prometedora. El material exopolimérico liberado producido por Lactobacillus acidophilus, una bacteria del ácido láctico que juega un papel importante como probiótico y como iniciador para muchos alimentos fermentados, pudo alterar la formación de biopelículas por E. coli O157:H7 y también contribuyó a disminuir la adherencia a células intestinales por el patógeno. También se observó actividad anti-biopelícula del material exopolimérico liberado producido por Lactobacillus acidophilus contra Salmonella entérica, Yersinia enterocolitica y Listeria monocytogenes, aunque la reducción en la formación de biopelícula por E. coli O157:H7 puede deberse a la supresión de genes necesarios para la formación de curli y quimiotaxis en este patógeno. Las lectinas son moléculas de unión de azúcar no catalíticas producidas por una amplia gama de microorganismos con funciones importantes asociadas con la señalización e interacciones celulares. Se han propuesto las lectinas como agentes antimicrobianos potenciales y se exploró el potencial anti-biopelícula de Lactobacillus rhamnosus. Las moléculas de lectina, LLP2 en particular, redujeron la formación de biopelículas por Salmonella. La observación de biopelículas indicó daño a la estructura de las biopelículas. No se observaron tales efectos cuando se utilizaron lectinas derivadas de plantas. La población de E. coli O157:H7 en comunidades de biopelículas mixtas de lisados de espinaca disminuyó significativamente después de 48 h debido a la competencia con la microbiota nativa por los nutrientes. La reducción en la población de E. coli O157:H7 se apoyó mediante un análisis metagenómico que indicó un cambio en la composición genética durante la maduración de la biopelícula. Las epífitas parecían tener más éxito en asimilar los nutrientes disponibles que E. coli O157:H7 y, por lo tanto, competían con el patógeno.

Una estrategia diferente para controlar las biopelículas podría provenir de virus líticos de bacterias: los bacteriófagos y sus enzimas. Las enzimas codificadas por bacteriófagos que pueden presentar un enfoque exitoso podrían incluir enzimas que degradan el EPS, disolviendo la matriz de la biopelícula, o enzimas que descomponen las paredes celulares bacterianas, neutralizando las células directamente. Se ha evaluado el control de patógenos entéricos transmitidos por los alimentos por bacteriófagos para ciertos pares de patógenos y productos. La pulverización o la aplicación directa de fagos específicos de Listeria monocytogenes a melones recién cortados dio como resultado reducciones notables en las poblaciones de patógenos. En combinación con una bacteriocina de la bacteria del ácido láctico, la nisina, el tratamiento con fagos fue mejorado y eficaz también en rodajas de manzana. La eficacia del fago lítico específico para E. coli O157:H7 EDL933 también se evaluó en superficies de pimiento y espinaca, con reducciones logarítmicas exitosas del patógeno bacteriano durante 72 h. También se han demostrado reducciones logarítmicas de Salmonella entérica Newport en la superficie de los pepinos de una manera dependiente de la temperatura, con actividad a 10°C, pero no a 22°C. La eficacia del tratamiento con bacteriófagos líticos de biopelículas que contienen patógenos entéricos o patógenos post-cosecha requiere más investigación, pero este tratamiento es prometedor como una forma de controlar la contaminación de los productos y posiblemente extender la vida útil.

Las moléculas sensibles al quórum desempeñan un papel importante en la comunicación de célula a célula y para que las células de una biopelícula se comporten al unísono. Las moléculas sensibles al quórum pueden influir en la unión, la formación de agregados celulares, la filamentación y la motilidad, factores importantes para la formación y madurez de la biopelícula. Los mutantes de Salmonella Typhimurium que eran deficientes en moléculas sensibles al quórum eran menos capaces de formar biopelículas en los cálculos biliares. Los disruptores de moléculas sensibles al quórum se emplean para alterar las biopelículas, ya que los antibióticos a menudo son ineficaces. El aceite esencial vegetal carvacrol demostró actividad anti-biopelícula contra Salmonella, pero no contra Pseudomonas. Las concentraciones de carvacrol que eran subletales para las células planctónicas fueron efectivas contra la formación de biopelículas, pero ineficaces contra las biopelículas maduras. La eficacia del carvacrol contra las moléculas sensibles al quórum producidas por Chromobacterium violaceum indica que su modo de acción puede resultar de la interrupción de la señalización sensible al quórum. El ácido graso, ácido cis -2-decenoico, que resultó en la liberación de bacterias como E. coli y Klebsiella a partir de biopelículas, podría ser un componente de una molécula de señalización difundible producida por Pseudomonas aeruginosa. La interferencia de señalización utilizando extintores y disruptores de detección de quórum de moléculas de señalización y sus análogos tiene potencial como estrategia de control de biopelículas.

Métodos Físicos

Los métodos físicos para controlar las biopelículas incluyen el desarrollo de materiales que reducen la adherencia de los organismos patógenos y, en consecuencia, previenen el establecimiento de biopelículas. Se han incorporado polímeros hidrófilos como el polietilenglicol en las superficies, lo que reduce la adhesión bacteriana. Los materiales que contienen antimicrobianos o antimicrobianos que pueden activarse también son nuevas opciones que se están explorando. Se exploró la incorporación de nanopartículas de dióxido de titanio en superficies de vidrio y acero inoxidable por su potencial antimicrobiano contra Listeria monocytogenes debido a la generación de radicales hidroxilo libres por partículas de dióxido de titanio activado. Después de un tratamiento de 180 minutos de superficies de acero inoxidable, no se detectaron células de Listeria monocytogenes, pero aún se observó la presencia de biopelícula.

Si bien las biopelículas son recalcitrantes para muchos desinfectantes químicos, pueden verse afectadas por mecanismos físicos. La sonicación produce burbujas de cavitación que pueden provocar el desprendimiento de microorganismos. El uso combinado de ozono a una concentración de 0.5 ppm en combinación con la sonicación (20 kHz y al 100% de amplitud) resultó en una mayor disminución del patógeno en la biopelícula que cualquiera de los tratamientos solos. El uso combinado de estos tratamientos dio como resultado un exceso de 4,5 log UFC / ml de células de Listeria monocytogenes incrustadas en una matriz de biopelícula. Una de las desventajas de los tratamientos es que se requiere la inmersión completa del artículo a desinfectar.

Métodos para Detectar Biopelículas

Las biopelículas bacterianas son un entorno dinámico y, a menudo, son difíciles de analizar. El análisis químico de los componentes de la biopelícula bacteriana es a menudo un desafío. El método más simple para cuantificar la sustancia exopolimérica bacteriana es teñir y cuantificar la mancha adherida o unida. La formación de biopelículas se puede medir mediante métodos basados en cultivos en los que las células sésiles se desprenden mediante agitación con vórtice o sonicación. Se han desarrollado técnicas alternativas para la cuantificación de biopelículas como la tinción con violeta cristal (CV) y la tinción con Syto9. Las tinciones con CV se pueden utilizar para cuantificar células en biopelículas. La tinción CV fue descrita por primera vez por Christensen et al. (1985) y desde entonces se ha modificado para aumentar la precisión y permitir la cuantificación de la biomasa de biopelículas. CV se une a moléculas de superficie cargadas negativamente y polisacáridos en la matriz extracelular. La extracción de tinte fue realizada por Prouty et al. (2008) para determinar la cantidad de tinte retenido por las células bacterianas adheridas a los portaobjetos de vidrio.

El dispositivo de biopelícula de Calgary (CBD) consta de 96 clavijas suspendidas de la tapa en pocillos similares a una placa de microtitulación de 96 pocillos. La ventaja de este dispositivo es que las biopelículas formadas a partir de bacterias colocadas en los pocillos tienen el mismo grosor y arquitectura. Por lo tanto, se puede probar el efecto de diferentes químicos, antimicrobianos y agentes de control biológico. Las biopelículas se desarrollan en las clavijas, y las clavijas pueden desprenderse y estudiarse utilizando métodos de tinción como tintes de viabilidad, tinciones de ácido nucleico como naranja de acridina y tintes a base de leptina que tiñen las sustancias exopoliméricas. La ventaja del método es la coherencia y la reproducibilidad de los resultados. Las células de la biopelícula también se pueden analizar más a fondo para la enumeración de la población y la expresión génica desalojándolas mediante sonicación. Las clavijas del CBD están hechas de poliestireno y tienen una carga neutra. La punta de la clavija es redondeada y, cuando se sumerge en los pozos, también se puede estudiar la formación de película de la interfaz de la superficie del aire en la región del cuello. Este dispositivo elimina la necesidad de tubos, lo que reduce las posibilidades de contaminación cruzada. La arquitectura de biopelículas de una o varias especies se puede estudiar con este dispositivo, lo que lo convierte en una herramienta versátil.

Se han empleado métodos avanzados de obtención de imágenes tales como microscopía confocal de barrido láser, microscopía electrónica de barrido y microscopía fluorescente. La microscopía confocal se puede utilizar para estudiar la profundidad del apilamiento de células que generalmente se observa en las biopelículas. Los escáneres de mano que utilizan tomografía de coherencia óptica se pueden utilizar para detectar biopelículas en tiempo real y detectarlas en superficies. Los métodos no invasivos utilizados para estudiar biopelículas incluyen técnicas de espectroscopia como la espectroscopia Raman y la espectroscopia infrarroja por transformada de Fourier que pueden obtener el espectro infrarrojo de la biopelícula. La imagen hiperespectral es un método novedoso para detectar y estudiar biopelículas en tiempo real. Los sensores basados en impedancia que detectan diferencias en la carga superficial, resonancia o conductividad pueden ayudar en la detección temprana de biopelículas.

La arquitectura de la biopelícula es compleja y consta de canales, depósitos de enzimas y variaciones en el espesor del EPS. Si bien la microscopía de fuerza atómica, la microscopía confocal y la microscopía electrónica de barrido se han utilizado para estudiar la presencia de organismos en una matriz de biopelícula, se están explorando muchos enfoques nuevos e innovadores. Harrison et al., (2006) estudiaron la arquitectura de la biopelícula mediante el uso de microscopía de barrido láser confocal y la creación de pilas Z para desarrollar un mapa arquitectónico de las biopelículas formadas en las clavijas de un CBD. Procesaron las imágenes generadas por microscopía de escaneo láser confocal de biopelículas de Candida teñidas y utilizaron software de visualización 3D para crear imágenes y estudiar la arquitectura y la presencia de células vivas y muertas. Existe una gran cantidad de software comercial y de código abierto para estos fines.

La microscopía electrónica se utiliza a menudo para estudiar los cambios morfológicos en las células y la estructura celular, lo que proporciona la ventaja de aumento y claridad. Cuatro métodos de microscopía electrónica son la microscopía electrónica de barrido convencional (SEM – Scanning Electron Microscopy), la microscopía electrónica de barrido criogénico (CRYO-SEM – Cryo-Scanning Electron Microscopy), la microscopía electrónica de barrido ambiental (ESEM – Environmental Scanning Electron Microscopy) y la microscopía electrónica de barrido con haz de iones enfocado (FIB SEM – Focused Ion Beam Scanning Electron Microscopy). Las técnicas se compararon ya que las biopelículas consisten en matrices hidratadas que se deshidratan después de la preparación de la muestra para SEM convencional. En CRYO-SEM, las muestras se sumergieron en un granizado de nitrógeno líquido a –210°C y se fijaron al vacío, mientras que la ESEM se llevó a cabo en un ambiente humidificado con imágenes obtenidas mediante un detector gaseoso de electrones secundarios. En FIB SEM, se tomaron imágenes de los segmentos de biopelícula utilizando un SEM de alta resolución y se crearon imágenes en 3D de los segmentos para visualizar la arquitectura 3D. Si bien SEM proporcionó imágenes claras con gran aumento, la estructura se alteró debido a la deshidratación. CRYO-SEM produjo imágenes de menor resolución que el SEM convencional debido a la menor conductancia, mientras que el ESEM fue inadecuado a aumentos por encima de 10,000 X, debido al daño del haz de electrones. FIB SEM dio como resultado una imagen de alta resolución comparable a SEM, pero proporcionó la ventaja adicional de desarrollar un modelo 3D de estructura de biopelícula similar a la microscopía de escaneo láser confocal, con la ventaja adicional de mayores aumentos.

Las condiciones de crecimiento de las biopelículas juegan un papel importante en su estudio. Las biopelículas pueden contener numerosas especies de bacterias y pueden desarrollarse en entornos dinámicos donde la fuerza de corte es constante o puede cambiar con el tiempo. Estas condiciones se pueden simular en cámaras de microfluidos. El uso de técnicas económicas como la metagenómica, la metabolómica y la metatranscriptómica puede revelar una mejor comprensión de la complejidad de las interacciones de la biopelícula entre sus especies constituyentes y sus superficies bióticas.

En Conclusión

  • Si bien las biopelículas pueden provocar la persistencia de patógenos transmitidos por los alimentos y organismos de descomposición, también tienen muchos usos, como la fermentación y la competencia contra las bacterias patógenas.
  • Las biopelículas se establecen en un sustrato por adhesión, formación de microcolonias y generación de sustancias exopoliméricas. Las células bacterianas pueden liberarse de una biopelícula al entorno circundante.
  • Los componentes básicos de una biopelícula pueden variar según la especie de bacteria. Pueden incluir polisacáridos, ADN extracelular y fimbrias.
  • La transferencia genética horizontal ocurre con frecuencia en biopelículas bacterianas y los genes adquiridos también pueden incluir genes de resistencia a patógenos y antibióticos. Las células liberadas de una biopelícula también pueden crecer lentamente y tener resistencia a ciertos biocidas.
  • El entorno de la biopelícula es complejo y puede contener más de 500 especies diferentes de microorganismos. La relación entre estas especies puede variar desde la competencia hasta el sinergismo basado en la presencia de disponibilidad de nutrientes y los perfiles de asimilación de nutrientes de la microbiota residente.
  • La producción de biopelículas puede proteger a los microorganismos de condiciones hostiles como el agotamiento de la nutrición y dar como resultado una mayor supervivencia en entornos difíciles.
  • La presencia de biopelículas protege a sus habitantes bacterianos de agentes antimicrobianos como antibióticos y desinfectantes en concentraciones que son letales para las células planctónicas.
  • Los protocolos de saneamiento utilizados para tratar las biopelículas requieren una combinación de tratamientos físicos y químicos para reducir la adherencia al sustrato y facilitar el contacto con el desinfectante.
  • Cuando las bacterias se liberan de una biopelícula, generalmente pierden su resistencia a los desinfectantes.
  • Durante el tratamiento de saneamiento de las biopelículas, es imperativo no esparcir fragmentos de la biopelícula debido al cizallamiento físico, ya que esto puede resultar en la propagación de la biopelícula en el entorno de procesamiento de alimentos.

Referencias

Bacterial biofilms: From the natural environment to infectious diseases.

Hall-Stoodley, L., Costerton, J. W., and Stoodley, P.

A personal history of research on microbial biofilms and biofilm infections.

Niels Høiby

Extracellular DNA required for bacterial biofilm formation

Whitchurch, C. B., Tolker-Nielsen, T., Ragas, P. C., and Mattick, J. S.

https://www.researchgate.net/publication/11503087_Extracellular_DNA_Required_for_Bacterial_Biofilm_Formation

A characterization of DNA release in Pseudomonas aeruginosa cultures and biofilms

Allesen‐ Holm et al., 2006

https://www.academia.edu/6636591/A_characterization_of_DNA_release_in_Pseudomonas_aeruginosa_cultures_and_biofilms

High rates of conjugation in bacterial biofilms as determined by quantitative in situ analysis

Hausner, M., and Wuertz, S.

https://www.researchgate.net/publication/12872678_High_Rates_of_Conjugation_in_Bacterial_Biofilms_as_Determined_by_Quantitative_In_Situ_Analysis

Effect of DNase and Antibiotics on Biofilm Characteristics

Tetz et al., 2009

Escherichia coli toxin gene hipA affects biofilm formation and DNA release

Zhao et al., 2013

https://www.researchgate.net/publication/234161997_Escherichia_coli_toxin_gene_hipA_affects_biofilm_formation_and_DNA_release

A dual role of extracellular DNA during biofilm formation of Neisseria meningitides

Lappann et al., 2010

https://onlinelibrary.wiley.com/doi/epdf/10.1111/j.1365-2958.2010.07054.x

The EPS matrix: The “house of biofilm cells.”

Flemming et al., 2007

https://www.researchgate.net/publication/6164769_The_EPS_matrix_The_House_of_Biofilm_cells

Role of extracellular DNA during biofilm formation by Listeria monocytogenes.

Harmsen et al., 2010

https://www.researchgate.net/publication/41413832_Role_of_Extracellular_DNA_during_Biofilm_Formation_by_Listeria_monocytogenes

Extracellular DNA inhibits Salmonella enterica serovar Typhimurium and S. enterica serovar Typhi biofilm development on abiotic surfaces

Wang et al., 2014

https://www.researchgate.net/publication/257814232_Extracellular_DNA_Inhibits_Salmonella_enterica_Serovar_Typhimurium_and_S_enterica_Serovar_Typhi_Biofilm_Development_on_Abiotic_Surfaces

Effect of curli expression and hydrophobicity of Escherichia coli O157:H7 on attachment to fresh produce surfaces.

Patel et al., 2011

https://naldc.nal.usda.gov/download/50453/PDF

Congo red interactions with curli-producing Escherichia coli and native curli amyloid fibers.

Reichhardt et al., 2015

https://www.researchgate.net/publication/283050940_Congo_Red_Interactions_with_Curli-Producing_E_coli_and_Native_Curli_Amyloid_Fibers

Roles of curli, cellulose and BapA in Salmonella biofilm morphology studied by atomic force microscopy

Jonas et al., 2007

https://www.researchgate.net/publication/25677908_Roles_of_curli_cellulose_and_BapA_in_Salmonella_biofilm_morphology_studied_by_atomic_force_microscopy

Biofilm formation, cellulose production, and curli biosynthesis by Salmonella originating from produce, animal, and clinical sources

Solomon et al., 2005

https://www.researchgate.net/publication/7845256_Biofilm_Formation_Cellulose_Production_and_Curli_Biosynthesis_by_Salmonella_Originating_from_Produce_Animal_and_Clinical_Sources

New method for detecting slime production by coagulase negative staphylococci

Freeman et al., 1989

Curli fibers are highly conserved between Salmonella Typhimurium and Escherichia coli with respect to operon structure and regulation

Römling et al., 1998

Attachment and biofilm formation by various serotypes of Salmonella as influenced by cellulose production and thin aggregative fimbriae biosynthesis

Jain y Chen, 2007

Role of curli and cellulose expression in adherence of Escherichia coli O157:H7 to spinach leaves

Macarisin et al., 2012

Effect of spinach cultivar and bacterial adherence factors on survival of Escherichia coli O157:H7 on spinach leaves

Macarisin et al., 2013

Role of curli and plant cultivation conditions on Escherichia coli O157:H7 internalization into spinach grown on hydroponics and in soil

Macarisin et al., 2014

https://naldc.nal.usda.gov/download/59360/PDF

Curli biogenesis: Order out of disorder

Evans y Chapman, 2014

https://reader.elsevier.com/reader/sd/pii/S0167488913003327?token=BCE1F29D366DC45329AB64ECE628EAC96868C3B8454E86156AD9B385A0E64C482ED4A9E2E2921A07B95967EC3ACC61ED

Microbial biofilm formation: A need to act

Römling et al., 2014

https://onlinelibrary.wiley.com/doi/pdf/10.1111/joim.12242

The biofilm matrix

Flemming y Wingender, 2010

https://www.researchgate.net/publication/45440998_The_Biofilm_Matrix

Genetic analysis of Salmonella Enteritidis biofilm formation: Critical role of cellulose

Solano et al., 2002

https://onlinelibrary.wiley.com/doi/epdf/10.1046/j.1365-2958.2002.02802.x

Analysis of the cellulose synthase operon genes, bcsA, bcsB, and bcsC in Cronobacter species: Prevalence among species and their roles in biofilm formation and cell– cell aggregation

Hu et al., 2015

https://europepmc.org/backend/ptpmcrender.fcgi?accid=PMC4676712&blobtype=pdf

Pectin and xyloglucan influence the attachment of Salmonella enterica and Listeria monocytogenes to bacterial cellulose- derived plant cell wall models

Tan et al., 2016

The colanic acid gene cluster of Salmonella enterica has a complex history

Stevenson et al., 2000

Exopolysaccharide production is required for development of Escherichia coli K-12 biofilm architecture

Danese et al., 2000

Capsular polysaccharide surrounds smooth and rugose types of Salmonella enterica serovar Typhimurium DT104

De Rezende et al., 2005

Growth of Listeria monocytogenes as a biofilm on various food-processing surfaces

Blackman y Frank, 1996

Biofilm formation by Salmonella spp. and Listeria monocytogenes on plastic surface

Stepanović et al., 2004

https://sfamjournals.onlinelibrary.wiley.com/doi/epdf/10.1111/j.1472-765X.2004.01513.x

Biofilm formation by Salmonella spp. on food contact surfaces and their sensitivity to sanitizers

Joseph et al., 2001

]]>
http://laenciclopediagalactica.info/2021/01/04/biopeliculas/feed/ 2 2030
Inocuidad Alimentaria en tiempo del SARS-CoV-2 http://laenciclopediagalactica.info/2020/12/12/inocuidad-alimentaria-en-tiempo-del-sars-cov-2/ http://laenciclopediagalactica.info/2020/12/12/inocuidad-alimentaria-en-tiempo-del-sars-cov-2/#respond Sun, 13 Dec 2020 01:14:50 +0000 http://laenciclopediagalactica.info/?p=2024 La pandemia de COVID-19 ha traído consigo una consideración de nuestra comprensión de la transmisión del agente causal, SARS-CoV-2 a los seres humanos y su efecto potencial en la inocuidad alimentaria y la seguridad alimentaria. Se informa que las principales vías de transmisión son de persona a persona, por gotitas respiratorias y, en menor grado, por fómites. Se han expresado preocupaciones sobre la posibilidad de transmisión a través de alimentos y envases de alimentos y si el virus representa un riesgo para la inocuidad alimentaria. Esta entrada proporciona una exposición de literatura e informes actualizados aplicables a varios componentes de la inocuidad alimentaria y su vínculo con el SARS-CoV-2. La entrada se centra en la supervivencia del SARS-CoV-2 en los alimentos, en los materiales que entran en contacto con los alimentos y en los envases de los alimentos, y su clasificación como virus transmitido por los alimentos frente a virus respiratorio la posibilidad de transmisión fecal-oral y la probabilidad de infección a través del sistema gastrointestinal. Se plantea la supervivencia e inactivación del SARS-CoV-2 en los alimentos mediante métodos de inactivación térmica y no térmica, así como la supervivencia y la inactivación en superficies inanimadas y la desinfección eficaz de las superficies en contacto con los alimentos. En última instancia, esta entrada se esfuerza por agregar al cuerpo de conocimientos relacionados con el papel del SARS-CoV-2 en la inocuidad alimentaria y, por lo tanto, contribuir a una fraternidad ágil y sólida que esté equipada para absorber y capear los efectos continuos de la pandemia en el sector de los alimentos.

Introducción

El COVID-19 es causado por el virus SARS-CoV-2 (Síndrome respiratorio agudo severo Coronavirus 2) un miembro de la Familia Coronaviridae que generalmente comprende una estructura de ARN monocatenario envuelta. Una característica distintiva del Coronaviridae son las proyecciones superficiales en forma de palo o pétalo o «picos» que recuerdan a la corona solar, de ahí el nombre coronavirus. La partícula del virus del SARS-CoV-2 varía de 50 a 200 nm y comprende proteínas estructurales de pico (S), envoltura (E), membrana (M) y nucleocápside (N), esta última contiene el genoma (ARN).

Las proteínas S, E y M constituyen la envoltura viral. Los coronavirus infectan principalmente a anfibios, aves y mamíferos, y se ha demostrado que algunos son zoonóticos. Cuatro géneros de coronavirus (α, β, γ, y δ) han sido identificados hasta ahora, sin embargo, en las últimas 2 décadas, tres novedosos β Se han descrito coronavirus (MERS-CoV, SARS-CoV-1 y SARS-CoV-2), que ahora se sabe que causan brotes de enfermedades respiratorias en humanos, aunque cada uno ha mostrado características únicas. Aunque el SARS (síndrome respiratorio agudo severo) y el MERS (síndrome respiratorio de Oriente Medio) tienen tasas de letalidad significativamente más altas que el SARS-CoV-2, este último es notablemente más infeccioso y se propaga fácilmente entre los humanos.

La siguiente tabla proporciona una comparación de los rasgos fundamentales de los brotes de coronavirus posteriores al 2000. Los datos de diversos estudios epidemiológicos informan que el COVID-19 se transmite entre los humanos principalmente a través de gotitas respiratorias (respirar, estornudar, toser, hablar) o por la vía de contacto-oral con objetos y superficies contaminadas, aunque esta última parece ser menos significativa. Una característica de las infecciones por SARS-CoV-2 que ha desempeñado un papel fundamental en la propagación epidemiológica es su capacidad para eliminar partículas infecciosas en ausencia de síntomas. Esto se clasifica como:

  1. Después de la infección, pero antes de mostrar síntomas (presintomático);
  2. Durante la infección, pero sin mostrar ningún síntoma (asintomático); y
  3. Después de haberse recuperado, pero aun desprendiendo partículas virulentas (postsintomáticas).

Las investigaciones han indicado que la ventana de diseminación presintomática (infecciosa) de COVID-19 típicamente varía de 2 a 3 días después de la infección inicial, seguida de la fase asintomática durante aprox. 4-10/11 días y la fase postsintomática a partir de entonces (De 11 a 14 días o hasta que la prueba individual sea negativa).

Tabla 1 Comparación de indicadores clave entre los brotes de coronavirus posteriores al 2000.

Además de los síntomas mencionados en la Tabla anterior, Las complicaciones secundarias de la enfermedad COVID-19 avanzada pueden incluir dificultad para respirar, dolor o presión en el pecho, confusión, incapacidad para permanecer despierto, náuseas, vómitos, diarrea y falta de oxígeno indicada por labios o cara azulados. En última instancia, la mortalidad se manifiesta en una respuesta inmunitaria elevada que provoca una sobreproducción de citocinas y una neumonía grave. Se ha informado que una serie de comorbilidades y problemas de salud subyacentes afectan la gravedad de la enfermedad, entre los que se encuentran la edad, las personas que padecen enfermedad pulmonar crónica y asma, afecciones cardíacas, hipertensión, diabetes, obesidad y salud inmunodeprimida. En los niños, la enfermedad puede manifestarse como un síndrome inflamatorio multi-sistémico, que puede tener consecuencias graves y potencialmente mortales en niños y adolescentes previamente sanos.

Las condiciones subyacentes mencionadas aumentan notablemente en comunidades pobres y subdesarrolladas, principalmente debido a prácticas de salud comprometidas, conciencia y conocimiento limitados, falta de recursos y atención médica. Los pobres urbanos y los residentes rurales, los migrantes, los trabajadores informales, los que viven en áreas propensas a conflictos y las personas con comorbilidades han sido identificadas como particularmente en riesgo. Según Guan y Liang, los pacientes con comorbilidades de sobre-nutrición y desnutrición, hipertensión y diabetes y aquellos con malignidad arrojaron diagnósticos clínicos peores que sin ellos. La observación de que el COVID-19 es especialmente fatal para las personas que padecen hambre o desnutrición crónica o aguda constituye un riesgo particular en África, ya que la desnutrición afecta a casi el 20% de la población: la incidencia más alta a nivel mundial.

Entre los grupos vulnerables, el agua, el saneamiento y la infraestructura de vivienda deficientes han presentado una preocupación importante a la luz de la pandemia COVID-19, ya que el suministro de agua corriente limpia es un elemento fundamental de la higiene básica, especialmente si se tiene en cuenta el saneamiento como la primera línea de defensa contra la transmisión del COVID-19. Actualmente, alrededor del 40% de las personas en todo el mundo no tienen instalaciones básicas para lavarse las manos en el hogar. De manera similar, el entorno doméstico densamente poblado y la infraestructura de vivienda en problemas, eminentes en los campamentos de ocupantes ilegales y asentamientos informales donde los sitios de uno o dos dormitorios a menudo están ocupados por 6 o más personas, obviamente desafía el principio de mantener el distanciamiento social. El efecto perturbador en la prestación de servicios de salud y las consecuencias de enfermedades como la malaria, la tuberculosis (TB) y el virus de la inmunodeficiencia humana (VIH) en las sociedades pobres también ha sido una preocupación creciente. Al plantear demandas adicionales a los sistemas de salud ya extendidos, epidemias inesperadas como las causadas por MERS y SARS-CoV-1 han demostrado que socavan de manera importante los esfuerzos de control rutinarios de la tuberculosis, la malaria y el VIH-SIDA, y han llevado a un aumento considerable de, por ejemplo, la mortalidad relacionada con el paludismo en varios países en desarrollo. Además de las preocupaciones por los recursos, la interacción única entre la tuberculosis y el VIH en ese casi 60% de TB los pacientes también son seropositivos, lo que hace que el COVID-19 sea una preocupación particular para las comunidades con altas tasas de TB y VIH, particularmente donde estas enfermedades están mal controladas.

Transmisión Del SARS-CoV-2 Por Alimentos Y Envases De Alimentos

Las agencias de inocuidad alimentaria han realizado varias evaluaciones de riesgo sobre si los alimentos, los materiales en contacto con los alimentos y el empaque de los alimentos presentan un riesgo potencial para la inocuidad alimentaria relacionado con el SARS-CoV-2. Teniendo en cuenta que se desconocía mucho sobre el SARSCoV-2 y su supervivencia en los alimentos, en los materiales en contacto con los alimentos o en los envases de los alimentos cuando se produjo la pandemia, los científicos recurrieron a información publicada sobre virus similares. Estos incluyeron el primer virus del SARS (SARS-CoV-1), MERS y coronavirus que causan el resfriado común. Es posible establecer estimaciones de riesgo conservadoras, incluso cuando se presentan con importantes lagunas de datos. Para una evaluación de riesgos de esta naturaleza, se requiere un escrutinio intensivo de la literatura, seguido de un interrogatorio de esa información para desarrollar una guía provisional tanto para los responsables políticos como para el público. A medida que surge información nueva, dicha guía se actualiza en consecuencia.

Según la literatura autorizada, el consenso es que actualmente, no hay evidencia de que el SARS-CoV-2 sea un riesgo para la inocuidad alimentaria. Por lo tanto, desde una perspectiva de peligro-riesgo, el riesgo potencial general de adquirir COVID-19 a partir de alimentos o envases de alimentos contaminados parece ser muy bajo. Por lo tanto, el SARS-CoV-2 no se considera un virus transmitido por los alimentos. Sigue siendo principalmente un virus respiratorio, que también puede ingresar al torrente sanguíneo a través de las membranas mucosas de los ojos.

La Agencia Francesa para la Alimentación, el Medio Ambiente y la Salud y Seguridad Ocupacional llevó a cabo una de las primeras evaluaciones de riesgos relacionadas con la inocuidad alimentaria y el SARS-CoV-2. Se plantearon varias preguntas al panel de expertos, una de las cuales fue si existía la posibilidad de contraer COVID-19 por ingerir el virus. Zhang et al. encontraron material genético viral en hisopos anales y sangre extraída de 178 pacientes. Teniendo en cuenta que uno de los síntomas del COVID-19 es la diarrea, estos asuntos plantearon preocupaciones sobre la probabilidad de que el virus se transmita por vía fecal-oral. Sin embargo, hasta la fecha no hay informes que muestren la transmisión fecal-oral del virus. Una pregunta clave a abordar es qué tan bien sobrevive el SARS-CoV-2 durante el paso por el estómago humano. Se sabe que el SARS-CoV-2 utiliza la enzima convertidora de angiotensina 2 (ECA) como receptores, que se expresan en las células epiteliales bronquiales, mucosas y epiteliales del intestino; Pero hasta el momento de redactar y publicar esta entrada, desconocemos la concentración de SARS-CoV-2 necesaria para infectar a los seres humanos a través de la ruta gastrointestinal y si el SARS-CoV-2 puede invadir estas células y eventualmente ingresar al torrente sanguíneo y/o si la diarrea es un síntoma principal. Lamers et al. notificaron infección de enterocitos en organoides del intestino delgado humano por SARS-CoV-1 y SARS-CoV-2 durante estudios in vitro y afirmó que la replicación del SARS-CoV-2 estaba respaldada por el epitelio intestinal. Sin embargo, varios estudios han concluido que es probable que la diarrea se produzca cuando el virus se infiltra en el organismo a través de otros mecanismos, durante la etapa grave de la enfermedad y no al virus que se contrae por la ingestión de alimentos contaminados, a través del tracto gastrointestinal. Otra consideración que afecta a la probabilidad de infección a través del sistema gastrointestinal es que es probable que el virus en los alimentos se encuentre en una concentración baja y también puede estar menos disponible para las células hospedadoras cuando está contenido dentro de una matriz alimentaria en comparación con el virus que se transporta en los alimentos. gotitas respiratorias.

Las empresas procesadoras de alimentos implantan sistemas de gestión de inocuidad alimentaria (SGIA), aunque con diferentes niveles de sofisticación, según los requisitos de los diferentes países. En todos los casos, sin embargo, el desarrollo y la implementación de un SGIA exitoso requiere una base sólida de Buenas Prácticas de Higiene (BPH). Tales prácticas incluyen lavarse las manos con agua y jabón durante un mínimo de 20s en momentos específicos. En varios casos, se requiere desinfectar las manos después de lavarlas. Hay prácticas higiénicas adicionales enumeradas en todas estas normas para garantizar que los manipuladores de alimentos practiquen una higiene adecuada para evitar la transmisión de cualquier posible contaminación microbiológica a los alimentos.

Supervivencia E Inactivación Del SARS-CoV-2 En Los Alimentos

Los métodos de inactivación térmicos (p. Ej., Calor) y no térmicos (p. Ej., Radiación y ultrasonido) se pueden utilizar para inactivar o reducir patógenos, incluidos virus, en el medio ambiente y en los alimentos. Se han utilizado diferentes tratamientos térmicos para la inactivación de virus transmitidos por los alimentos (p. Ej., Norovirus humano, virus de la hepatitis A y E) en matrices o líquidos alimentarios. El calor seco (horno de aire caliente o incineración) y el calor húmedo (vapor, autoclave) son métodos muy efectivos para inactivar virus y bacterias. Después de realizar un análisis de 10 estudios diferentes, Kampf et al., informó que cinco tipos diferentes de coronavirus suspendidos en medios líquidos, incluidos el SARSCoV-1 y el MERS-CoV, podrían reducirse en al menos 4 registros utilizando tratamientos térmicos como 60°C durante 30 min, 65°C durante 15 min u 80°C durante 1 min. Chin et al. encontró que el SARSCoV-2 se redujo en aproximadamente 7 logaritmos después de un tratamiento térmico de 70°C durante 5 min. Además, ANSES consideró la cuestión del tratamiento térmico suficiente de los alimentos y concluyó que la exposición de los alimentos a 63°C durante 4 min sería suficiente para matar el virus. En una evaluación de riesgos cualitativa realizada por la Agencia de Normas Alimentarias del Reino Unido, la organización reconoció que, a pesar de varias incertidumbres, las temperaturas utilizadas para cocinar deberían ser suficientes para inactivar cualquier virus presente en los alimentos.

A temperaturas de refrigeración (4°C), Rabenau et al. no encontraron pérdida de en la titulación para el SARS-CoV-1. Chin et al. Encontraron una resistencia similar a la refrigeración cuando apenas se observó ninguna reducción del SARS-CoV-2 infeccioso en el medio de transporte mantenido a 4°C durante 14 días, que fue la duración del experimento. Por tanto, es probable que el virus sobreviva durante periodos más largos a temperaturas de refrigeración en medios específicos. Teniendo en cuenta que la congelación generalmente no se considera un método de destrucción de virus en los alimentos, sino más bien un método de conservación, es probable que el SARS-CoV-2 sobreviva a la congelación.

Al respecto, Fisher et al. encontraron que el SARS-CoV2 infeccioso no disminuyó en la titulación y pudo sobrevivir durante 3 semanas en piezas inoculadas de pollo, cerdo y salmón almacenados a 4, – 20, y – 80°C. Además, Mullis et al. demostraron que un coronavirus bovino presente en lechugas almacenadas a 4°C conservó su infectividad durante al menos 14 días. Además, el coronavirus 229E sobrevivió bien durante 2 días en lechugas almacenadas a 4°C, antes de disminuir rápidamente en número, pero no sobrevivió en la superficie de las fresas, potencialmente debido a la acidez. El SARS-CoV-2 parece ser estable a diferentes valores de pH (3–10) a temperatura ambiente, sin embargo, el pH alcalino (> 12) o el pH ácido (<3), así como el calor, la luz solar y la luz ultravioleta parecen ser capaces de inactivar el virus. Los métodos alternativos de desinfección física no térmica incluyen:

  1. Luz ultravioleta (UV);
  2. Luz pulsada;
  3. Radiación ionizante;
  4. Alta presión;
  5. Plasma frío; y
  6. Ultrasonido de alta intensidad.

Con algunos de estos tratamientos limitados a la desinfección de superficies.

El tratamiento con plasma frío es un tratamiento de desinfección relativamente nuevo que ha atraído la atención debido a que es ecológico, es decir, libre de sustancias químicas. Esta tecnología utiliza diferentes gases inertes que, sometidos a alta electricidad, generan una gran cantidad de una mezcla de electrones, átomos cargados y átomos neutros, que tienen el potencial de inactivar microorganismos. La técnica del plasma frío utiliza gases fríos para desinfectar superficies en contacto con alimentos, así como productos alimenticios líquidos y sólidos. Aunque se ha demostrado que el plasma frío puede inactivar eficazmente virus patógenos (p. Ej., Norovirus humano, adenovirus y virus de la hepatitis A) en o en varias matrices, se requieren más investigaciones para evaluar su efectividad contra el SARS-CoV-2.

Supervivencia e Inactivación del SARS-CoV-2 en Superficies Inanimadas

Está bien establecido que los virus que causan infecciones respiratorias, en particular el SARS-CoV-2, pueden transmitirse por contacto indirecto (fómites) a través del medio ambiente, particularmente cuando se toca superficies contaminadas y posteriormente se toca la boca, la nariz o los ojos, sin lavarse primero las manos. Warnes et al. mostraron que el coronavirus humano 229E (HuCoV-229E), que está estrechamente relacionado con el SARS-CoV-2, pudo persistir en la superficie de 5 materiales diferentes [Politetrafluoroetileno (Teflón), cloruro de polivinilo (PVC), cerámica (azulejos), vidrio y caucho de silicona] durante al menos 5 días. En una revisión realizada por Kampf et al. sobre la persistencia de coronavirus en superficies inanimadas, SARS-CoV-1, coronavirus MERS o el coronavirus humano endémico (HuCoV-229E), persistió en superficies inanimadas como metal, vidrio o plástico durante hasta 9 días. A los 30°C o superior, la duración de la persistencia del MERS fue más corta, mientras que la persistencia del virus de la gastroenteritis transmisible (TGEV) en las superficies aumentó a más de 28 días a 4°C. Investigaciones más recientes han demostrado que en un entorno experimental entre 21 y 23°C a 40% de humedad, el SARS-CoV-2 podría permanecer viable hasta 72 h en plástico y acero inoxidable, hasta 4 h en cobre y hasta 24 h en cartón. Pezzotti et al. demostraron que el nitruro de silicio puede inactivar el 99% del virus SARS-CoV-2 después de la exposición durante 1 minuto, lo que demostró que era tan eficaz como el cobre. Por tanto, el uso de partículas de Si3N4 colocadas en la tela del equipo de protección personal, así como en otros materiales, podrían ser una forma eficaz de reducir la propagación viral. Además, Ratnesar Shumate et al. demostraron que el SARS-CoV-2 es sensible a la luz solar artificial cuando se suspende en saliva simulada en cupones de acero inoxidable, es decir, el 90% del virus se inactivó en ∼ 7 min.

Chin et al. encontraron en un entorno experimental, que no se recuperó ningún virus infeccioso de varias superficies después de diferentes momentos a 22°C. En particular, el virus fue más estable en superficies lisas y no se detectó ningún virus infeccioso después de 4 días en vidrio y billetes y no se detectó después de 7 días en plástico y acero inoxidable. Sin embargo, es importante señalar que dichos resultados se generaron en condiciones experimentales y es posible que no reflejen el potencial de contraer el virus por contacto en un entorno más realista. Los CDC y otras agencias y organizaciones similares no consideran que contraer el SARS-CoV-2 a través de superficies contaminadas sea una ruta principal de transmisión. Un informe de McKinsey Company parece apoyar esta creencia. Este informe establece que aproximadamente el 90% de las transmisiones de SARS-CoV-2 ocurren en personas sintomáticas, presintomáticas y asintomáticas, dejando un 10% de transmisiones del medio ambiente, que incluye superficies. Por lo tanto, el mayor riesgo sigue siendo la transferencia de persona a persona en un entorno alimentario, incluida la fabricación, la venta minorista y el servicio de alimentos. Esto enfatiza la importancia de usar Equipo de Protección Personal (EPP) apropiado y practicar una adecuada higiene de manos y distanciamiento social.

Desinfección De Las Superficies En Contacto Con Los Alimentos

Las superficies en contacto con los alimentos incluyen todas las áreas que entran en contacto con los productos alimenticios durante la preparación (Tablas de cortar, mesas, utensilios, etc.), producción, procesamiento y empaque y generalmente incluyen acero inoxidable, material plástico, madera, caucho, cerámica o vidrio. Estas superficies podrían estar contaminadas con bacterias y virus patógenos, que pueden infectar los alimentos y/o las personas que manipulan los alimentos. Aunque el consenso actual es que el SARS-CoV-2 no se transmite por los alimentos o el material de envasado de alimentos, es muy importante limpiar y desinfectar adecuadamente las superficies en contacto con los alimentos, ya que uno de los modos de transmisión del SARS-CoV-2 parece ser tocar superficies contaminadas y luego tocarse la boca, la nariz o los ojos.

La guía actual de la OMS establece que “limpiar a fondo las superficies ambientales con agua y detergente y aplicar desinfectantes de uso común en hospitales (como hipoclorito de sodio) son procedimientos efectivos y suficientes”. Los desinfectantes son muy importantes en el control e inactivación de microorganismos en diversas superficies inanimadas. Pero, si no se tiene cuidado, pueden dejar residuos dañinos en las superficies en contacto con los alimentos.

El uso de luz ultravioleta es un método ampliamente conocido para inactivar virus, micoplasmas, bacterias y hongos, especialmente en superficies. En particular, la luz UV-C, la longitud de onda más corta (100–280 nm), se ha utilizado ampliamente en la industria alimentaria. Varios estudios han demostrado que la luz UV-C puede ser una herramienta eficaz para inactivar el SARS-CoV-1 después de un tratamiento de 60 min.

Si las superficies están sucias, deben limpiarse con un detergente o agua y jabón, antes de la desinfección. La industria alimentaria generalmente utiliza desinfectantes que se consideran seguros debido a su baja toxicidad y no corrosividad. Los desinfectantes que se usan en superficies que entran en contacto con alimentos deben ser diferentes de los que se usan en superficies que no tienen contacto con alimentos. Los desinfectantes de grado alimenticio pueden reducir o controlar bacterias específicas, mientras que los desinfectantes de grado alimenticio pueden matar bacterias, virus y mohos; sin embargo, es necesario enjuagar con agua para eliminar los residuos.

Aunque la biología del SARS-CoV-2 no se comprende completamente, pertenece a la familia de coronavirus de virus envueltos, lo que los hace susceptibles a los detergentes y una variedad de otros microbicidas (24), incluso más que los hongos, las bacterias vegetativas y levaduras. En superficies ambientales, los estudios han demostrado que el hipoclorito de sodio al 0,1%, el peróxido de hidrógeno al 0,5% y el etanol al 62-71% pueden reducir significativamente la presencia de coronavirus en las superficies después de 1 minuto de exposición a temperatura ambiente (ver la siguiente Tabla); Se han observado efectos similares con el SARS-CoV2. Agua limpia, a una temperatura de al menos 77°C, durante al menos 45 s también se puede utilizar. La Agencia de Protección Ambiental (EPA), Health Canada, así como el Portal de Datos Abiertos de la Unión Europea (European Union Open Data Portal) tienen una lista de desinfectantes aprobados para su uso contra COVID-19. El SARS-CoV-2, al igual que otros virus, no puede multiplicarse en los alimentos, por lo tanto, con el tiempo, se espera que el número de viriones infecciosos disminuya si el virus está presente en la superficie de un producto alimenticio. La desinfección del aire podría considerarse en entornos relacionados con los alimentos y dos métodos prácticos incluyen limpiadores de aire para habitaciones, como filtros o luz ultravioleta, así como dispositivos UV germicidas en la habitación superior.

Tabla 2 Inactivación de coronavirus por diferentes tipos de agentes desinfectantes

A Manera de Conclusión

En resumen, aunque la evidencia actual sugiere que el SARS-CoV-2 no causa enfermedades transmitidas por los alimentos, el virus ha causado importantes interrupciones en la cadena de suministro alimentario mundial. Por lo tanto, cuestiones como la seguridad alimentaria y la sostenibilidad alimentaria han pasado a primer plano en esta pandemia, así como la salud de los trabajadores de la alimentación, desde la agricultura hasta el comercio minorista y el servicio de alimentos. Los enfoques/paradigmas más nuevos, como la integración de One Health (por ejemplo, la creación de un gran equipo de especialistas de muchas disciplinas) junto con el pensamiento sistémico (es decir, una crisis de salud puede extenderse rápidamente a otros sistemas que normalmente parecerían desconectados), serán primordial para controlar las pandemias en el futuro.

Renuncia de Responsabilidad

Esta entrada contiene información general y, en algunos casos, opiniones que pueden no aplicarse a todas las empresas en todas las situaciones. Además, ciertos aspectos de la información incluida en la entrada pueden derivarse de la información recibida de terceros y un servidor confía en que son precisos. Aunque La Enciclopedia Galáctica cree que la información contenida en entrada es correcta en el momento de la publicación en línea, no asume y por la presente renuncia a cualquier responsabilidad ante cualquier parte, por cualquier pérdida, daño o interrupción causada por errores de identificación, omisiones o inexactitudes en la entrada, ya sea que dichos errores, omisiones o inexactitudes sean el resultado de negligencia, accidente o cualquier otra causa.

Referencias

Coronaviruses – a general introduction

Jeffrey K Aronson

Functional assessment of cell entry and receptor usage for SARS-CoV-2 and other lineage B betacoronaviruses

Letko  et al.

What We Know Today about Coronavirus SARS-CoV-2 and Where Do We Go from Here

Michael Oberholzer

What you need to know about the novel coronavirus

Dan Fox

https://www.nature.com/articles/d41586-020-00209-y

Origin and evolution of pathogenic coronaviruses

Jie Cui, Fang Li & Zheng-Li Shi

“When will it be over?”: An introduction to viral reproduction numbers, R0 and Re

Aronson et al.

Case Fatality Rate of Covid-19.

European Centre for Disease Prevention and Control (ECDC).

https://github.com/owid/covid-19-data/tree/master/public/data

Consensus document on the epidemiology of severe acute respiratory syndrome (‎SARS)‎

WHO

https://apps.who.int/iris/bitstream/handle/10665/70863/WHO_CDS_CSR_GAR_2003.11_eng.pdf?sequence=1&isAllowed=y

A Comprehensive Literature Review on the Clinical Presentation, and Management of the Pandemic Coronavirus Disease 2019 (COVID-19)

Kakodkar et al.

The SARS, MERS and novel coronavirus (COVID-19) epidemics, the newest and biggest global health threats: what lessons have we learned?

Peeri et al.

https://watermark.silverchair.com/dyaa033.pdf?token=AQECAHi208BE49Ooan9kkhW_Ercy7Dm3ZL_9Cf3qfKAc485ysgAAAp4wggKaBgkqhkiG9w0BBwagggKLMIIChwIBADCCAoAGCSqGSIb3DQEHATAeBglghkgBZQMEAS4wEQQM55s_FAKMG0azoLcyAgEQgIICUdeACZJOOUWhhymiL6zfMcJRe-hOH5ulcuBU46Q_1X_58ksTXch8TiZN-XR3h1x8syg5ApmXKcb3mfNMBUZT5XyAVm41F85xLyZTCemiIPN7MFfuJydcQTzvKNkaha6jGRPYFDButzuDK0Ws_4Yh-BBrDdoEjQrF7CRWJ3cpZ-DxPxrOy1Wh1lMQrl2vA6DJfeyWcVwtv7i3cuHawBHUJ9n-B5OdPE92BZc1qZ1FvZeO_HVuaZ6WCGr12IHMBFslsu6NdQDIceChRUb7EF5h8izVr6f9G8O41tH219UizhaQTJreUCRtuxjUlFW3LguA9up-_SxGBxvDHwaOUrm_XsPShXbMNFdmoVoPqHZ6diTxtHik-Wt9VHBmZit5yvTWX7jZ7hWhvZ0bPu3_kDVga55oRDbl8lUylJHlL9gvAlYkqSJlIyTg_LJvBIa9R6IbYmIfEzsL04qDYVP_4pSsiO7RmwV5KGssBo8Ne4tLnq2gekBrPsnYRubd7DP0F_GID_8Rd9ACE7sgaHBgLwoM9iwa8Z1QSr4n-uJXLYqxwKnNq5jXywSLGGdEI6e406mgi7he4FyYm0nvV99l8t2649Hj7Ul50GCgv1I4vQ1FMlx3qPXV6UGaPs0DvQ7SFav6RACXWJngVDfThhsUn3ETkQCjUnVqErwEjtsHyEYk9OKZsqWqxqZ_APUumOxxnnpTrqtXoRZHOmHc-c4NtJ5jKnWrvortKOt6FsmWk0rpbFcOXzoaonJwJ7xG5Mv5gX6rVuoY9-LZu9aVDJJeIq2-vSIQ

A familial cluster of pneumonia associated with the 2019 novel coronavirus indicating person-to-person transmission: a study of a family cluster

Woo Chan et al.

https://www.thelancet.com/action/showPdf?pii=S0140-6736%2820%2930154-9

AVIS du 09 mars 2020 complété de l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail

ANSES

Qualitative risk assessment on the risk of food or food contact materials as a transmission route for SARS-CoV-2

Food Standards Agency

https://www.food.gov.uk/research/research-projects/qualitative-risk-assessment-on-the-risk-of-food-or-food-contact-materials-as-a-transmission-route-for-sars-cov-2

Novel coronavirus – where to find information

European Food Safety Authority

https://www.efsa.europa.eu/en/news/novel-coronavirus-where-find-information

Food Safety and the Coronavirus Disease 2019 (COVID-19)

US Food and Drug Administration

https://www.fda.gov/food/food-safety-during-emergencies/food-safety-and-coronavirus-disease-2019-covid-19

COVID-19 (Coronavirus)

Food Safety Authority of Ireland

https://www.fsai.ie/faq/coronavirus.html

COVID-19 and Food Safety: Guidance for Food Businesses

WHO

https://www.who.int/publications/i/item/covid-19-and-food-safety-guidance-for-food-businesses

SARS-CoV-2 productively infects human gut enterocytes

Lamers et al.

Novel Coronavirus and Food Safety

Food Standards Australia and New Zealand

https://www.foodstandards.gov.au/consumer/safety/Pages/NOVEL-CORONAVIRUS-AND-FOOD-SAFETY.aspx

Potential fecal transmission of SARS-CoV-2: Current evidence and implications for public health

Susan Amirian

https://www.ijidonline.com/action/showPdf?pii=S1201-9712%2820%2930273-3

Disinfection 101

Glenda Dvorak

Persistence of intestinal SARS-CoV-2 infection in patients with COVID-19 leads to re-admission after pneumonia resolved

Wang et al.

https://www.ijidonline.com/action/showPdf?pii=S1201-9712%2820%2930279-4

Inactivation of coronaviruses by heat

Kampf et al.

https://www.journalofhospitalinfection.com/action/showPdf?pii=S0195-6701%2820%2930124-9

Latest news on Coronavirus Disease (COVID-19)

USDA

https://www.usda.gov/coronavirus

List N: Disinfectants for Coronavirus (COVID-19)

United States Environmental Protection Agency

https://www.epa.gov/pesticide-registration/list-n-disinfectants-coronavirus-covid-19
]]>
http://laenciclopediagalactica.info/2020/12/12/inocuidad-alimentaria-en-tiempo-del-sars-cov-2/feed/ 0 2024
Cambios en el Código SQF Ed. 9 http://laenciclopediagalactica.info/2020/12/08/cambios-en-el-codigo-sqf-ed-9/ http://laenciclopediagalactica.info/2020/12/08/cambios-en-el-codigo-sqf-ed-9/#respond Tue, 08 Dec 2020 18:13:56 +0000 http://laenciclopediagalactica.info/?p=2021 Está entrada tiene como intención guiar al lector a través de los cambios de la edición 9 del Código SQF. La pandemia de Covid-19 ha provocado una gran agitación y cambios en los procesos de producción y auditoría. Para muchas organizaciones, la situación ha creado enormes desafíos para las operaciones existentes.

Durante los desafíos comerciales ahora y en el futuro, La Enciclopedia Galáctica está aquí para respaldar sus objetivos de certificación y ayudarlo a mantener el cumplimiento para sus clientes. Al mirar hacia el futuro, nos complace ayudarlo a comenzar su viaje para revisar la actualización del Código SQF Edición 9.

Categorías De Códigos

Como uno de los principales estándares para la gestión de la inocuidad alimentaria, el Código SQF Edición 9 sigue siendo básicamente el mismo en estructura y formato, junto con las categorías individuales del sector alimentario. Aunque todas las categorías de sectores mantienen su numeración original, ahora cada categoría se divide en un libro de códigos separado. Los libros de códigos separados permiten que cada código aborde los aspectos específicos de inocuidad alimentaria que se encuentran dentro de él a través de una lista de verificación personalizada, compilada para cumplir con las disposiciones de alcance y riesgo.

Cambio En Puntuación Y Auditorías Combinadas

En esta revisión se ha producido un cambio en la puntuación entre las no conformidades mayores y menores. Las mayores se han reducido a cinco puntos, por debajo de los 10 puntos deducidos anteriormente. Los menores seguirán siendo los mismos con una puntuación de un punto. Además, las auditorías de escritorio se eliminan para los auditados por primera vez. Todavía existe una disposición para una evaluación de riesgos del sitio por parte del organismo de certificación en caso de que se solicite. Teniendo en cuenta la dinámica empresarial actual, una disposición incluye la posibilidad de una opción de auditoría remota híbrida (combinada). Para las auditorías combinadas, la revisión de documentos se puede completar a través de actividades virtuales, pero todas las demás actividades ocurren durante una auditoría in situ. Actualmente, una opción acreditada completamente virtual no está disponible.

Profesional De Respaldo SQF Y Recuperación De Productos

Todas las operaciones ahora deben tener un profesional SQF de respaldo como empleado de la empresa. Los sistemas de recuperación y retiro de productos deben probarse en una variedad de artículos, aunque no con el mismo ingrediente todos los años. Las áreas de consideración incluyen envases y materias primas.

CAMBIOS EN ELEMENTOS DEL SISTEMA

Los elementos del sistema también se han consolidado para reducir la redundancia en la auditoría y hacerla fácil de usar, mientras se minimiza el cambio en el sistema de numeración. Una de las mayores consolidaciones ocurrió con los elementos PPR, como se encuentra en la Sección 11.2. La consolidación reunió los módulos de Operaciones del sitio, que ahora incluyen Reparaciones y Mantenimiento 11.2.1, Personal de Mantenimiento y contratistas, 11.2.2, Calibración 11.2.3, Prevención de plagas 11.2.4, y limpieza y saneamiento 11.2.5.

La edición 9 permite la realización de un estándar que es más fácil de administrar con una estructura mejorada de los códigos. El contenido nuevo o actualizado de la norma incluye Cultura de inocuidad alimentaria (2.1.1.2), Buenas prácticas de laboratorio (2.4.4.2), Gestión de co-manufactureros (2.3.3.3), Requisitos para la conciliación de etiquetas (2.6.1.2), Análisis de aire ambiental (11.5.5.3) y uso de tecnología en auditorías.

Cultura De Inocuidad Alimentaria

El Compromiso de Gestión ha experimentado un ajuste general en su estructura con un cambio en la ubicación y fundamentación de la Cultura de Inocuidad alimentaria a 2.1.1.2. La revisión requiere que la alta dirección del sitio lidere y apoye la cultura de inocuidad alimentaria.

GFSI define la cultura de inocuidad alimentaria como el «conjunto compartido de valores y creencias que afectan la mentalidad y el comportamiento hacia la inocuidad alimentaria en toda la organización».

La Edición 9 de SQF establece además que la cultura de inocuidad alimentaria debe completarse mediante el establecimiento, la documentación y la comunicación adecuados entre la alta dirección y los empleados. Todas las prácticas y requisitos de inocuidad alimentaria del Sistema SQF deben adoptarse y mantenerse con los recursos adecuados disponibles para cumplir con los objetivos de inocuidad alimentaria designados.

La comunicación de la política debe impulsar la cultura de inocuidad alimentaria con los empleados. Los ejemplos incluyen comentarios de los empleados para identificar y medir comportamientos positivos o actividades de alto riesgo. La cultura también ocurre a través de la observación mientras se está en el piso y las acciones tomadas (o ignoradas) por la alta gerencia. Por ejemplo, ¿los empleados usan redecillas para el cabello, se lavan las manos y se retiran joyería? Las mediciones de desempeño deben utilizar el protocolo SMART (Específico, medible, alcanzable, establecido en el tiempo), los objetivos y luego revisar, reaccionar y determinar las tendencias de las quejas.

La cultura de inocuidad alimentaria debe considerar los recursos y el horario del personal de la organización. Como ejemplo, los equipos de saneamiento y mantenimiento necesitan suficiente tiempo y personal, para completar las actividades necesarias. Los líderes definen la cultura de inocuidad alimentaria por sus acciones para reforzar los objetivos.

Si el objetivo es completar una rotación de servicios de saneamiento en seis horas, entonces se debe proporcionar la mano de obra y los suministros (recursos) adecuados.

En resumen, la cultura no está determinada por una sola actividad, documento o persona. La cultura de inocuidad alimentaria se define por las acciones tomadas por el liderazgo de operaciones y los empleados, respaldadas por una comunicación adecuada. El objetivo es minimizar las áreas potenciales de riesgo que de otro modo pasarían desapercibidas y no identificadas.

Buenas Prácticas De Laboratorio (2.4.4.2)

En Buenas Prácticas de Laboratorio (Sección 2.4.4.2), los requisitos para los laboratorios en el sitio tuvieron una actualización menor para cumplir con el requisito establecido por la GFSI para las prácticas de laboratorio. Aunque los laboratorios externos deben estar acreditados según la norma ISO 17025, a los laboratorios internos se les solicita tener métodos y procesos equivalentes según ISO 17025. Esto no significa que los laboratorios internos deban estar acreditados según ISO 17025. Más bien, los laboratorios internos deben proporcionar la documentación relevante y la confirmación de que las prácticas de laboratorio cumplen con los requisitos del código internacional de ISO 17025.

Las Buenas prácticas de laboratorio aseguran que todas las actividades del laboratorio producen resultados precisos, competentes, y resultados repetibles para el análisis completado. Además, esta sección establece que debe haber un método documentado y definido.

El método incluye las condiciones a las que se aplican las actividades y los resultados, cómo se capacita a los empleados y la calibración y el control de calidad del equipo para garantizar la integridad de los resultados. Las Buenas Prácticas de Laboratorio incluyen la participación en una prueba de aptitud anual para confirmar y validar no solo el programa implementado, sino también que el técnico sea capaz de obtener consistentemente los resultados correctos. Los métodos de prueba deben ser reconocidos o validados a nivel nacional para que se confirme que el método es efectivo en la matriz alimentaria en la que se utiliza.

Requisitos Para La Conciliación De Etiquetas (2.6.1.2)

Los requisitos para la conciliación de etiquetas son una nueva adición que cubre los procedimientos, actividades y registros que se desarrollarán y mantendrán para garantizar que un producto tenga la etiqueta correcta. El proceso debe completarse en cada arranque, cambio de producto o cambio de empaque en una línea específica. Una persona autorizada debe completar una conciliación de la etiqueta con el producto que se está produciendo y luego mantener un registro de la verificación de la etiqueta.

La intención de esta cláusula es minimizar el riesgo de retiros por el etiquetado de alérgenos. Para cumplir con el estándar, una instalación necesitará tener un procedimiento documentado sobre cómo y cuándo ocurrirá una verificación de conciliación del producto, lo que garantiza que se haya aplicado la etiqueta correcta al producto que se está produciendo. Idealmente, esta verificación se produciría en el entorno de producción durante la producción en vivo. La conciliación de etiquetas podría incorporarse en una lista de verificación previa a la operación, así como en reportes de producción en curso. Cada cambio de producto, nuevo empaque o aplicación de una nueva etiqueta a la línea de producción debería conciliarse y debería completarse un registro de la verificación. Idealmente, el procedimiento describiría cuántas comprobaciones de productos deben completarse durante cada conciliación. Finalmente, el personal que lleve a cabo la verificación de la reconciliación deberá estar capacitado para realizar de manera apropiada esta tarea.

La intención de esta cláusula es minimizar el riesgo de retiradas del etiquetado de alérgenos. Para cumplir con el estándar, una instalación necesitará tener un procedimiento documentado sobre cómo y cuándo ocurrirá una verificación de conciliación del producto, lo que garantiza que se haya aplicado la etiqueta correcta al producto que se está produciendo.

Análisis De Aire Ambiental (11.7.1.2)

Ahora se requieren análisis de aire ambiental para áreas de alto riesgo al menos una vez al año. Anteriormente, la norma solo solicitaba análisis de aire comprimido que contactaba alimentos o superficies en contacto con alimentos. El requisito para los análisis de aire ambiental es solo para áreas de alto riesgo y no se define ninguna prueba o método dentro de la norma.

Tradicionalmente, el muestreo de aire ambiental se enfoca en levaduras y mohos. Aunque tales pruebas generalmente consideran los riesgos de calidad frente a los riesgos de inocuidad alimentaria, pueden proporcionar a una instalación una indicación del control de su riesgo de contaminación del aire y las prácticas de saneamiento en las áreas de alto riesgo. Cada área separada de alto riesgo debe ser analizada al menos una vez al año, con un registro de cada análisis. La siguiente información describe los tipos de muestreo de aire ambiental. Cualquiera de los métodos sería aceptable para cumplir con los requisitos de la norma.

Hay dos tipos de prueba para muestreo de aire ambiental:

  1. Muestreo pasivo de aire donde se coloca una placa con medios selectivos u otro dispositivo de recolección durante un período de tiempo determinado (generalmente 15 minutos), luego se cubre y se analiza para el organismo o organismos específicos.
  2. Muestreo de aire activo Consiste en un dispositivo que acumula aire físicamente y lo implosiona en medios selectivos. Luego, la muestra se envía a un laboratorio y se analiza en busca de los organismos específicos. Estos dispositivos pueden comprarse o alquilarse en laboratorios que realizan análisis de pruebas de aire ambiental.

Co-Manufactureros (2.3.3)

Un fabricante contratado (también llamado co-manufacturero o co-fabricante) es una instalación contratada por el sitio certificado por SQF para producir, procesar, empacar y/o almacenar una parte o todos los productos incluidos en el alcance de certificación SQF del sitio. La producción contratada podría incluir parte o todo el proceso de producción de un producto. El estándar SQF siempre ha requerido a la instalación certificada verificar que su fabricante contratado cumpliera con el estándar SQF. La verificación se realiza a través de una auditoría de terceros o una auditoría realizada por el sitio certificado del fabricante contratado.

La revisión de la norma ahora requiere que una instalación certificada determine el nivel de riesgo del fabricante contratado. Si el fabricante contratado se considera una instalación de alto riesgo, se debe realizar una auditoría de terceros para verificar el cumplimiento del código SQF de inocuidad alimentaria. Si el fabricante contratado es de bajo riesgo, entonces se puede utilizar una auditoría de la instalación certificada u otra auditoría de GFSI para verificar el sistema de gestión de inocuidad alimentaria del fabricante contratado. Una estrategia segura para la verificación de un fabricante contratado de alto riesgo sería exigir que tenga y mantenga su propia certificación SQF.

El código ahora también considera el almacenamiento y la distribución de terceros bajo la cláusula del fabricante del contrato del estándar. La norma requiere que exista un acuerdo contractual con todas las instalaciones de almacenamiento y distribución de terceros que son utilizadas por la instalación certificada. El acuerdo debe incluir requisitos para la determinación del riesgo de la instalación, con los mandatos de alto y bajo riesgo descritos anteriormente para los fabricantes por contrato. Para la mayoría de las instalaciones de distribución y de terceros, es probable que la determinación sea de bajo riesgo. Como se indicó anteriormente, con los fabricantes contratados de bajo riesgo, la instalación certificada debe completar una auditoría utilizando el Código de inocuidad alimentaria SQF u otra norma GFSI.

RENUNCIA DE RESPONSABILIDAD

Esta entrada contiene información general y, en algunos casos, opiniones que pueden no aplicarse a todas las empresas en todas las situaciones. Además, ciertos aspectos de la información incluida en la entrada pueden derivarse de la información recibida de terceros y un servidor confía en que son precisos. Aunque La Enciclopedia Galáctica cree que la información contenida en entrada es correcta en el momento de la publicación en línea, no asume y por la presente renuncia a cualquier responsabilidad ante cualquier parte, por cualquier pérdida, daño o interrupción causada por errores de identificación, omisiones o inexactitudes en la entrada, ya sea que dichos errores, omisiones o inexactitudes sean el resultado de negligencia, accidente o cualquier otra causa.

]]>
http://laenciclopediagalactica.info/2020/12/08/cambios-en-el-codigo-sqf-ed-9/feed/ 0 2021
Tierra Azul y el Ciclo del Agua http://laenciclopediagalactica.info/2020/10/21/tierra-azul-y-el-ciclo-del-agua/ http://laenciclopediagalactica.info/2020/10/21/tierra-azul-y-el-ciclo-del-agua/#respond Wed, 21 Oct 2020 13:39:39 +0000 http://laenciclopediagalactica.info/?p=2018 Estudios recientes de sondas planetarias y de muestras de Marte y la Luna revelan que el agua es un lugar común en nuestros mundos vecinos. En la Tierra, el agua circula rápidamente en el entorno cercano a la superficie entre varios depósitos importantes: los océanos dominan, mientras que los casquetes polares y glaciares, las aguas subterráneas, los lagos y ríos, y la atmósfera también desempeñan un papel clave en el ciclo del agua. El agua es aún más abundante en la Tierra de lo que se pensaba: estudios recientes de minerales de alta presión sugieren que los depósitos de hidrógeno profundo pueden contener el equivalente a 80 veces todos los océanos.

Agua en Marte

Uno de los descubrimientos más importantes sobre Marte (Un hallazgo al cual nos hemos enfocado desde principios del siglo XXI), es que Marte tiene mucha agua, la mayoría de la cual se produce como permafrost subterráneo y tal vez algo de agua subterránea en zonas más profundas donde hace calor. Estos repositorios ocultos son potencialmente enormes y, en su mayor parte, están aislados de la capa exterior seca.

Los primeros indicios sustanciales de la verdadera extensión del agua subterránea llegaron en 2002 de la nave espacial Mars Odyssey. En 2007, el Mars Reconnaissance Orbiter de la NASA ofreció una imagen de resolución mucho más alta del agua enterrada mediante el empleo de un radar de penetración terrestre. Estas mediciones pioneras apuntaron a vastas acumulaciones subterráneas de hielo de agua a escala glaciar en las latitudes medias del sur.

Mediciones similares más recientes del orbitador Mars Express de la Agencia Espacial Europea apuntan a la existencia de hielo profundo en gran parte del planeta. Hay lugares cerca de la capa de hielo del polo sur, por ejemplo, con zonas ricas en hielo de más de 1,500 pies de espesor. Ahora parece que Marte tiene suficiente agua congelada cercana al subsuelo para formar un océano que abarca un globo a cientos de pies de profundidad.

Las rocas y minerales distintivos de Marte también apuntan a la presencia de abundante agua en el Planeta Rojo. El módulo de aterrizaje Phoenix de la NASA, y sus dos asombrosos rovers, Spirit y Opportunity, proporcionaron a los científicos datos maravillosos durante años más allá de sus vidas proyectadas, y detectaron una variedad de tales evidencias minerales.

Luego, el rover Curiosity de la NASA comenzó a hacer lo mismo. Los minerales arcillosos ricos en agua, que sugieren la erosión de las rocas en presencia de agua, resultan ser bastante comunes en el entorno cercano a la superficie de Marte. Gran parte del material rico en hidrógeno cerca de la superficie observado por Mars Odyssey probablemente eran minerales arcillosos.

Igual de convincentes son los llamados minerales evaporíticos, que son característicos de los lagos u océanos secos. Una variedad de estos minerales, en particular depósitos planos de sulfatos distintivos, apuntan a cuerpos de agua secos. El ópalo, que es una variedad de cuarzo poco cristalizada que se forma típicamente en sedimentos húmedos, comúnmente en el fondo del océano, también se encuentra en Marte.

Hay mucha más evidencia de agua a escala local y planetaria, evidencia de que el agua alguna vez fluyó libremente a través de la superficie esculpida de Marte. Las fotografías de más alta resolución de la superficie marciana, por ejemplo, las obtenidas por cámaras telescópicas en el Mars Global Surveyor y el Mars Reconnaissance Orbiter de la NASA, revelan signos claros de ríos: antiguos valles ramificados y sistemas de barrancos llenos de rocas; islas en forma de lágrima en antiguos lechos de ríos; características de hundimiento inducidas por el agua en laderas empinadas; e incluso canales de flujo trenzados complejos. Todos estos accidentes geográficos son diagnósticos del flujo de agua.

Además, muchas de esas características atraviesan capas de sedimentos que recuerdan a los depósitos de la Tierra depositados en lagos o mares poco profundos. Incluso hay una sugerencia de una marca global de marea alta, donde tal masa de agua puede haber dejado antiguas terrazas parecidas a playas. Estos accidentes geográficos característicos rodean el hemisferio norte de Marte, que resulta ser topográficamente un poco más bajo que el hemisferio sur.

Algunos científicos planetarios concluyen que un océano continuo cubría la mayoría de las latitudes del norte, más de un tercio de la superficie marciana, a una profundidad promedio de 550 metros. Si eso es cierto, entonces es muy posible que Marte haya sido un planeta azul, cubierto de océanos y vivificante muchos millones de años antes que la Tierra.

Cualquier agua que haya dejado Marte, es mucho menos que la forma en que comenzó. La gravedad, o, mejor dicho, la falta de ella, es la culpable. Marte es demasiado pequeño para retener su hidrógeno. Las moléculas de agua se evaporan, pero son demasiado masivas para volar al espacio. El problema es que los rayos cósmicos dividen el agua en dos: una molécula de OH y un átomo de H. Ese átomo de hidrógeno aislado puede volar al espacio.

Durante miles de millones de años, Marte ha perdido mucho hidrógeno y eso se traduce directamente en una gran pérdida de agua. Solo el agua “encerrada” en las profundidades de la superficie es inmune a este tipo de pérdida.

Agua en la Luna

Marte puede tener mucha agua, y alguna vez pudo haber tenido mucha más, pero la Luna parece haber sido siempre un lugar seco. Varias líneas de evidencia apoyan esta afirmación de una Luna seca. Primero, los telescopios terrestres no encuentran una absorción infrarroja característica. Aún más convincente, las rocas lunares de la misión Apollo no tenían rastros de agua, al menos según las capacidades analíticas de la década de 1970. El hecho de que el hierro metálico persista en la superficie lunar durante 4 mil millones de años es otra señal de que no hay ni rastro de agua corrosiva.

Sin embargo, dos nuevos hallazgos brindan evidencia convincente de que la Luna no está tan seca como alguna vez pensamos. Las observaciones de la superficie de la Luna desde la nave espacial proporcionan una línea de evidencia que no es demasiado sorprendente. Sabemos que los cometas deben chocar contra la Luna de vez en cuando, y cuando lo hacen, se debe agregar un poco de agua a la superficie. Mucha de esa agua debe escapar gradualmente de regreso al espacio, pero si un cometa choca cerca de uno de los polos de la Luna, entonces algo de hielo podría concentrarse en un cráter perpetuamente oscuro, los lugares más fríos de la superficie de la Luna. Las temperaturas nunca se acercan al punto de fusión del agua, por lo que el hielo podría persistir.

Los primeros indicios de tal hielo en el suelo del cráter vinieron de un solo sobrevuelo de la misión Clementine en 1994. Las mediciones de radar fueron consistentes con los depósitos de hielo de agua, pero muchos científicos planetarios no estaban convencidos.

La sonda espacial Lunar Prospector, empleando espectroscopía de neutrones cuatro años después, detectó concentraciones significativas de átomos de hidrógeno, una señal de hielo de agua o minerales hidratados cerca de los polos. Ese resultado también planteó objeciones. Después de todo, debe haber una acumulación importante de iones de hidrógeno implantados en el suelo lunar por miles de millones de años de viento solar del Sol. Esa podría ser una fuente más probable de señal.

Una década después, algunos científicos de la NASA tuvieron la idea de impactar la etapa superior de un cohete Atlas (Un trozo de metal de 9 metros de largo y 2 toneladas de peso) en uno de esos cráteres cerca del polo y luego observar los escombros del impacto en busca de señales de agua.

La misión consiguiente, el satélite de observación y detección de cráteres lunares (LCROSS – Lunar Crater Observation and Sensing Satellite), apuntó a un cráter en la sombra del polo sur llamado Cabeus. El impacto tuvo lugar el 9 de octubre de 2009 y produjo una columna de polvo y escombros de tamaño considerable, visibles en los telescopios terrestres. Había una pequeña pero importante cantidad de agua.

Todo este interés renovado en el agua lunar llevó a otro descubrimiento, esta vez en datos antiguos. Roger Clark, del Servicio Geológico de Estados Unidos, reexaminó los datos recopilados durante un sobrevuelo lunar el 19 de agosto de 1999, por la misión Cassini-Huygens, que estaba en un viaje de cinco años para estudiar Saturno. Resulta que la cámara infrarroja de Cassini-Huygens había captado una clara evidencia de agua lunar.

Los descubrimientos de LCROSS y Cassini-Huygens fueron reforzados por otra misión: La nave espacial india Chandrayaan-1, que realizó sus propias observaciones infrarrojas de la superficie lunar.

Luego, hubo hallazgos de que las rocas lunares de la Misión Apollo contenían agua previamente no detectada, lo que sugirió que el agua total de la Luna podría ser aún mayor. La mayor parte del agua original se ha perdido: Una gran cantidad de agua ciertamente se hirvió durante el vulcanismo anterior, y mucha más agua se ha evaporado gradualmente al espacio durante miles de millones de años posteriores de historia lunar.

Basándose en el agua restante, los investigadores han calculado que el contenido de agua original del magma puede haber sido tan alto como 750 partes por millón. Esto es comparable al contenido de agua de muchas rocas volcánicas en la Tierra, y es agua más que suficiente para impulsar el vulcanismo explosivo. Además, si esa cantidad de agua provocó un vulcanismo explosivo en la Luna hace miles de millones de años, todavía hoy se debe almacenar mucha agua en algún lugar profundo de la Luna.

El Ciclo del Agua en la Tierra

Dos procesos en curso (La subducción, por la cual la vieja corteza es tragada por el manto, y el vulcanismo, por el cual el material del manto genera nueva corteza) tienen efectos tremendos en el ciclo del agua.

El ciclo del agua de la Tierra implica intercambios continuos de moléculas de agua entre varios reservorios importantes.

  • Los océanos son los reservorios de agua más grandes y contienen más del 96 por ciento del agua disponible.
  • Los casquetes polares y los glaciares contienen ahora más del 3 por ciento del agua cercana a la superficie de la Tierra; esa cantidad puede aumentar hasta un 6 por ciento durante las edades de hielo.
  • La mayor parte del agua no salada disponible para el consumo se encuentra en las aguas subterráneas.
  • Los lagos, ríos, arroyos y la atmósfera representan solo alrededor del 0.01 por ciento de toda el agua cercana a la superficie.
  • La vida contiene una fracción muy pequeña de toda el agua, pero juega un papel importante en el ciclo del agua.

Los experimentos de alta presión que emplean grandes prensas y pequeñas celdas de yunque de diamante revelan que muchos minerales comunes incorporan átomos de hidrógeno, en las condiciones del manto y el núcleo.

Referencias

The Story of Earth

Roberth M. Hazen

Hydrology: An Introduction

Wilfried Brutsaert

The Sciences.

James Trefil, Robert M. Hazen

]]>
http://laenciclopediagalactica.info/2020/10/21/tierra-azul-y-el-ciclo-del-agua/feed/ 0 2018
Origen de los Océanos http://laenciclopediagalactica.info/2020/10/18/origen-de-los-oceanos/ http://laenciclopediagalactica.info/2020/10/18/origen-de-los-oceanos/#respond Mon, 19 Oct 2020 02:21:55 +0000 http://laenciclopediagalactica.info/?p=2014 El agua es una sustancia asombrosa que ha transformado la superficie de la Tierra de muchas formas: Erosión, tormentas, transporte y, en última instancia, vida. En la Tierra, los volátiles que se encuentran en las profundidades del manto fueron llevados a la superficie a través de un intenso vulcanismo explosivo, eventos que finalmente produjeron los océanos y la atmósfera. El agua es una molécula polar, que explica muchas de sus propiedades distintivas, incluida su temperatura de fusión relativamente alta, su capacidad para formar gotas de lluvia y la acción capilar en las plantas. De hecho, la Tierra no está sola en el universo como un lugar húmedo; los estudios de otros cuerpos, desde nuestros planetas vecinos hasta galaxias distantes, revelan un universo húmedo.

Océanos Terrestres

En todas las primeras etapas de la evolución de la Tierra, el calor fue el principal agente de cambio. El calor hizo que todo el planeta se derritiera y, por lo tanto, dividiera el núcleo de hierro más denso del manto y la corteza de silicato menos densos. El vulcanismo, también impulsado por el calor, separó de las rocas los volátiles que eventualmente se convertirían en océanos y atmósfera.

La historia más temprana de la Tierra está marcada por una sucesión de separaciones de elementos impulsadas por el calor. Fue debido al calor que la Tierra pasó una breve parte de su infancia como un mundo ennegrecido y cubierto de basalto. Pero esa fase no podría durar mucho en un planeta rico en volátiles. El globo estaba a punto de ser envuelto por una nueva capa de azul brillante nacida del volcán.

Podemos deducir una imagen general del enfriamiento inicial de la Tierra y la posterior liberación de volátiles para formar la atmósfera y los océanos, pero gran parte de lo que deducimos se reduce a especulaciones fundamentadas basadas en experimentos de laboratorio y modelos informáticos. Se sabe que casi ninguna roca ha sobrevivido del Eón Hádico.

Una cosa está muy clara: Con vulcanismo activo y abundantes volátiles, la Tierra no podría permanecer negra y seca por mucho tiempo. Los estruendosos respiraderos volcánicos arrojaron nitrógeno caliente, dióxido de carbono y vapor de agua a la atmósfera cada vez más espesa a tasas de muchos millones de toneladas por día.

Los elementos y compuestos atmófilos volátiles (Los átomos y moléculas que son gases en nuestra atmósfera) eran los mismos átomos y moléculas que formaron todos los diferentes hielos de la antigua nebulosa solar. De hecho, son los mismos átomos que contribuyen a todos los tejidos de tu cuerpo. Y esos volátiles han desempeñado muchos roles a lo largo de la historia de la Tierra, incluso en la Tierra Hadeana en rápida evolución.

El agua caliente jugó varios papeles cruciales en la evolución de rocas y minerales. Agua y dióxido de carbono mezclados con magma, lo que redujo significativamente la temperatura de fusión de las rocas y convirtió la roca líquida en una sopa sobrecalentada que ascendió más rápidamente a la superficie.

Una vez que el magma saturado de agua se acercó lo suficiente a la superficie, todos los gases disueltos se transformaron rápida y violentamente de líquido a gas en expansión. Las explosiones volcánicas masivas resultantes fueron como réplicas a escala de montaña de una lata de refresco caliente agitada. Las rocas, el magma y las cenizas se esparcieron por el campo.

Los fluidos ricos en agua asociados con los magmas jugaron otro papel clave: Disolvieron y concentraron todo tipo de elementos raros que no encuentran un hogar listo en los silicatos comunes que forman las rocas. Los elementos ligeros litio, berilio y boro se concentraron en la fase de agua líquida caliente.

Muchos de los elementos que forman minerales comunes similares a la sal también ingresaron a la fase acuosa: Sodio y cloro, así como flúor, azufre y potasio. También lo hicieron los elementos de metales raros como la plata, el oro y el uranio, y muchos más que eventualmente se concentrarían en los grandes cuerpos minerales del mundo.

A medida que los cuerpos de agua se acumulaban en volúmenes cada vez mayores, el agua comenzó a dar forma a la superficie de formas que los volcanes y meteoritos nunca pudieron. Los ríos rugientes cortan valles profundos mientras las olas rompientes devoran las costas. El agua se convirtió así en el principal agente de la erosión de las rocas, que produjo las primeras playas arenosas de la Tierra junto con acumulaciones cada vez más gruesas de cuñas de sedimentos cercanas a la costa. El agua se convirtió rápidamente en el arquitecto principal de la superficie de la Tierra.

Este enfoque en el agua, en los océanos y la atmósfera, puede parecer reflejar una visión bastante antropocéntrica. Volumétricamente, el agua es una fracción trivial de todo el planeta. Todos los océanos de hoy representan solo alrededor de dos centésimas del porcentaje de la masa total de la Tierra. La atmósfera es mucho menos que eso, aproximadamente una parte en un millón de su masa. Pero los océanos y la atmósfera siempre han ejercido y continúan ejerciendo una influencia desproporcionadamente grande en nuestro planeta. El H2O, tanto como cualquier sustancia química, hace de la Tierra lo que es hoy.

Las Propiedades del Agua

Los múltiples roles del agua en la historia de la Tierra son consecuencia de las propiedades químicas y físicas distintivas del H2O, el óxido de hidrógeno. El hidrógeno es el primer elemento de la tabla periódica, mientras que el oxígeno es el octavo. Ninguno de los elementos tiene un número mágico de electrones, por lo que dos átomos de hidrógeno comparten sus electrones con un átomo de oxígeno. El resultado es la molécula de H2O en forma de “V”, con un átomo de oxígeno más grande flanqueado por dos protuberancias de hidrógeno más pequeñas, una disposición similar a las orejas de Mickey Mouse, en otras palabras.

Dada la propensión del oxígeno como aceptor de electrones, toma prestados los dos electrones de los dos átomos de hidrógeno y, por lo tanto, desarrolla una carga ligeramente negativa. Los dos átomos de hidrógeno desarrollan una carga levemente positiva correspondiente. Una consecuencia importante es que las moléculas de agua son polares, lo que significa que tienen extremos cargados eléctricamente positivos y negativos. Esa polaridad explica muchas de las propiedades y comportamientos distintivos del agua.

El agua es un excelente solvente porque los extremos positivo y negativo pueden ejercer fuertes fuerzas electrostáticas que tienden a separar otras moléculas. Es por eso que la sal de mesa, el azúcar y muchas otras sustancias químicas se disuelven tan rápidamente en agua. También es la razón por la que los océanos son salados. Las rocas pueden tardar mucho en disolverse parcialmente, pero durante millones de años acumulados, el agua del océano se ha enriquecido con prácticamente toda la tabla periódica de los elementos.

La asombrosa capacidad del agua para disolver y transportar otros compuestos químicos es lo que la convierte en un medio ideal para los orígenes y la evolución de la vida. Toda la vida conocida en la Tierra (Y algunos investigadores sostienen que toda la vida posible en el cosmos) depende del agua.

La polaridad de las moléculas de agua afecta dramáticamente las propiedades tanto del agua líquida como del hielo. Las moléculas de agua se unen fuertemente entre sí, ya que el lado positivo de una molécula de agua atrae los lados negativos de otras moléculas. Como resultado, el hielo es inusualmente fuerte para ser un sólido molecular.

El hielo también tiene una temperatura de fusión inusualmente alta para una molécula pequeña: El hielo no se derrite hasta los 0 grados Celsius (32 F), en comparación con los –77°C (–108 F) del amoníaco sólido (NH3); –78°C (–109 F) para el dióxido de carbono (CO2) sólido o hielo seco; y –183°C (–297 F) para metano (CH4).

Otra consecuencia de las fuerzas intermoleculares inusualmente fuertes del agua es su alta tensión superficial, que es una propiedad fascinante que permite a los pequeños insectos caminar sobre el agua. La tensión superficial también facilita la acción capilar, que es la capacidad del agua para elevarse contra la fuerza de la gravedad a través de los tallos de las plantas vasculares.

Otro fenómeno relacionado con la tensión superficial son las gotas de lluvia redondeadas, que adquieren sus formas mediante la fuerte atracción mutua de las moléculas de agua. Las gotas de lluvia son absolutamente vitales para mantener el ciclo del agua inusualmente rápido de la Tierra. Resulta que las moléculas apolares como el metano y el dióxido de carbono no pueden formar gotas fácilmente, por lo que simplemente flotarían en la atmósfera como una fina y penetrante niebla. La lluvia podría ser poco probable en un planeta sin una molécula atmosférica polar, por lo que el ciclo de los volátiles probablemente sería mucho más lento y ciertamente diferente en carácter.

La unión fuerte entre las moléculas de agua conduce a otra de las propiedades críticas y curiosas del agua. Resulta que el agua líquida es un 10 por ciento más densa que el hielo sólido, lo cual es extraño. En casi todos los demás compuestos químicos conocidos, el estado sólido es más denso, por lo que los cristales se hunden en su líquido. Esa situación es intuitivamente lógica, porque un empaquetamiento repetido de las mismas moléculas en un cristal contrasta con la distribución más aleatoria en un líquido.

Sin embargo, las moléculas de H2O en forma de “V” en realidad se empaquetan de manera más eficiente en su estado líquido aleatorio que en los cristales de hielo ordenados, y se siguen importantes consecuencias: El hielo flota. Si no fuera por este rasgo curioso, en lugar de formar una capa superficial relativamente delgada de hielo, muchas masas de agua se congelarían sólidamente, de abajo hacia arriba. La vida acuática se vería severamente desafiada en las regiones frías de un mundo tan helado, y el ciclo vital del agua ciertamente se detendría en seco una vez que todo fuera sólido.

Otra característica realmente interesante del agua, incluso la llamada agua pura, es que nunca es H2O pura. No importa qué tan cuidadosamente filtre o destile el agua, nunca está compuesta completamente de moléculas de H2O. Inevitablemente, una fracción muy pequeña de esas unidades de tres átomos se divide en dos unidades más pequeñas. Hay iones de hidrógeno con carga positiva, o hidrones, iones H+, que no son más que protones individuales sin electrones unidos. También hay grupos hidroxilo cargados negativamente, o moléculas –OH.

Debido a que los hidrones tienen cargas positivas, los hidrones se adhieren rápidamente al extremo de oxígeno más negativo de las moléculas de agua para producir H3O+ o iones hidronio. Entonces, el “agua pura” a temperatura y presión ambiente tiene hidroxilos negativos e hidronios positivos. Y estos componentes tienen que ocurrir en concentraciones iguales para mantener la carga eléctrica totalmente neutra, un requisito de cualquier líquido.

Resulta que la concentración de hidronio positivo y grupos hidroxilo negativos es aproximadamente una parte en 10 millones. En términos químicos, eso es 10-7 de un mol de hidroxilo e hidronio por litro de agua. Esta medida de concentración arcana se informa generalmente como una potencia de hidrógeno, o pH, de 7. La definición de pH es la siguiente: Es el logaritmo negativo de la concentración de iones de hidrógeno, expresada en moles de H+ por litro de solución.

Cuando se describe cualquier cuerpo de agua, y los océanos de la Tierra son un excelente ejemplo, un enfoque principal es la composición global, tanto el pH como el contenido de sal. Resulta que estas dos propiedades químicas están estrechamente relacionadas. El pH y la salinidad cambiantes de los océanos antiguos de la Tierra siguen siendo temas de debate.

Los estudios de muchos objetos en el espacio, desde galaxias antiguas y lejanas hasta planetas cercanos, revelan que el agua es una molécula abundante en todo el universo. Mercurio y Venus son mucho más secos que la Tierra, pero Marte tiene una cantidad importante de agua cerca de la superficie, así como su abundante presencia en los satélites naturales Europa y Encélado. Sin embargo, el estudio de la naturaleza y extensión de esos recursos en Marte tuvo que esperar hasta que una serie de sondas espaciales alcanzaran la superficie marciana, mientras que los satélites Europa y Encélado, bueno, aún no los visitamos, solo “hemos pasado” por su vecindario.

Referencias

The Story of Earth

Roberth M. Hazen

Science Matters: Achieving Scientific Literacy

Hazen et Al.

Hydrology: An Introduction

Wilfried Brutsaert

A cool early Earth?

Valley et Al.

El origen de los continentes y océanos

Alfred Wegener

]]>
http://laenciclopediagalactica.info/2020/10/18/origen-de-los-oceanos/feed/ 0 2014