Archivo bajo la Categoria ‘Archivos Varios’

Una gestión de cambios eficiente debe ser ejecutada conjuntamente con la gestión de configuración. Los elementos claves incluyen:

1. Descripción documentada y beneficios del cambio para el negocio

2. Confirmación de la disponibilidad de recursos

3. Evaluación del impacto del cambio sobre la aplicación, la infraestructura necesaria, personal (usuarios, staff de soporte de Ingeniería) y la documentación

4. Aprovechamiento de la información del análisis de riesgos del proyecto original y evaluar cualquier riesgo nuevo introducido por el cambio para definir la estrategia de mantenimiento, esto incluye la necesidad de cualquier testeo de regresión.

5. Evaluación del cambio desde finanzas, IT (o ingeniería) y la perspectiva de cumplimiento al más bajo nivel de competencia técnica antes de gestionar la aprobación

6. Establecer y mantener la distinción entre cambios a nivel del sistema de calidad farmacéutico (impacto sobre el ciclo de vida del producto medicinal) vs cambios a nivel de la gestión del servicio de IT

7. Minimizar el número de puntos de aprobación en el proceso

8- Documentar y comunicar la decisión

9. Ejecutar y verificar el cambio, usando trazabilidad para identificar testeos existentes que aplican

10. Cerrar los registros del cambio en tiempo y forma

Debilidades en los sistemas de gestión de cambio que pueden llevar a ineficiencias, incluyen:

1. Falta de escalada de los cambios, ej cambios menores o de componentes de infraestructura que cambian regularmente

2. Falla en la ejecución de las etapas de gestión del cambio en la secuencia apropiada

3. Falla en la agenda de actividades o en identificar dependencias

4. Abuso o aplicación errónea de un proceso de cambios de emergencia

5. Falta de habilidad para prevenir cambios innecesarios

6. Falla en mantener las especificaciones vigentes

7. Falla para aprovechar documentación relativa a análisis de riesgos y control, matriz de trazabilidad o protocolos

8. Falta de seguimiento del proceso para cerrar un registro de cambio

9. Procesos de cambio independientes llevan a duplicar esfuerzos para procesos, equipos y Sistemas Computarizados.

10. La aplicación inadecuada de los principios de “like for like” en gestión de cambio.

11. Inadecuada gestión de cambios conducidos por un proveedor, conducen a ciclos de vida de documentos y registros de gestión de configuración que están fuera de fecha

12. Falta de un adecuado seguimiento de los cambios de emergencia

Basado en la GAMP5 edición 2 (julio 2022)

El término CUSUM procede del inglés cumulative-sum, que significa suma acumulada. Los gráficos CUSUM se basan en la representación de la acumulación de las desviaciones de cada observación respecto a un valor de referencia.

La principal característica de este tipo de gráficos es que detectan pequeñas desviaciones del estado de control, más rápidamente que los gráficos de cartas de control “I”.

Es importante señalar que es más importante detectar los cambios grandes que los pequeños, y para la detección de los primeros, la carta tradicional “I” es mejor.

Se utilizan cuando es importante medir variaciones pequeñas del proceso

Las gráficas de CUSUM se definen por dos parámetros, h y k, que a menudo se conocen como el plan CUSUM.

Existen dos maneras de construir esta carta:

  • La carta CUSUM de dos lados: que se interpreta con un dispositivo especial llamado “máscara”
  • La carta CUSUM tabular o de un sólo lado, en la cual se consideran de manera separada las sumas acumuladas por arriba y las sumas acumuladas por abajo.

Les dejo un ejemplo: Carta de CUSUM de 2 lados.

Ingresar a Minitab y cargar 20 datos y luego seleccionar la carta CUSUM

Seleccionar las opciones de CUSUM

Seleccionar parámetros, si “s” es conocida por datos históricos, puede ser ingresada, sino Minitab los calcula a partir de los datos ingresados.

Seleccionar solapa Plan/Tipo y elegir tipo de CUSUM de 2 lados (V-mascara)

Nota

h: Es un valor mayor que 0. Para CUSUM unilaterales, h es el número de desviaciones estándar entre la línea central y los límites de control. Para CUSUM de dos lados (máscara en V), Minitab calcula la mitad del ancho de la máscara en V (H) en el punto de origen por H = h * s. (Puede seleccionar h usando una tabla ARL   J.M. Lucas (1976). “The Design and Use of V-Mask Control Schemes,” Journal of Quality Technology, 8, 1-12 o J.M. Lucas and R.B. Crosier (1982). “Fast Initial Response for CUSUM Quality-Control Schemes: Give Your CUSUM a Head Start,” Technometrics, 24, 199-205.

k: Es un valor mayor que 0. Para CUSUM unilaterales, k es la “holgura” permitida en el proceso. Para CUSUM de dos lados, k es la pendiente de los brazos de la máscara en V. Puede seleccionar k usando una tabla ARL.

Carta CUSUM donde la suma acumula tanto desviaciones positivas como negativas.

El tipo CUSUM de 2 lados, nos indica que entre el punto 8 y el 16 hay valores fuera de tendencia a investigar, son los que se encuentran fuera de la máscara.

Ahora veamos La carta de control Individual generada a partir de los mismos datos. La misma no muestra puntos fuera de control:

La carta de control Individual no muestra fuera de tendencias. El gráfico CUSUM, muestra valores fuera de control. Concluimos que CUSUM es una carta más sensible, útil para seguir pequeñas variaciones en parámetros críticos.

Luego se debe investigar los puntos fuera de control.

En los sistemas de agua farmacéuticos, el valor TOC (carbono orgánico total) generalmente se determina en línea. Dado que las bacterias también consisten en gran medida en hidrocarburos, surge la pregunta de si también se puede obtener información sobre el estado microbiano del sistema de agua mediante el control de TOC.

Desafortunadamente, esto no es posible. Existen procedimientos rápidos de análisis microbiológicos (sin placas de agar), también para sistemas de agua farmacéuticos. Sin embargo, estos suelen funcionar con otras tecnologías, a menudo mediante medición de partículas y fluorescencia. Sin embargo, no es posible convertir los valores de TOC en recuentos bacterianos. Tampoco es posible sacar conclusiones sobre un posible biofilm en el sistema.

Las bacterias en los sistemas de agua normalmente solo están presentes en una medida mínima en el medio de agua de flujo libre (acuático). Más bien se acumulan en un biofilm que crece en superficies en lugares del sistema con menos flujo (estacionario). Para activar un valor medido en el sistema TOC, los gérmenes tendrían que fluir a través del TOC. Siempre es posible que una parte de un biofilm se desprenda y se mueva a través del sistema por un corto tiempo. Pero incluso entonces es estadísticamente bastante improbable que fluya directamente y de manera reproducible a través del sistema de medición en el momento de la medición. Por lo tanto, los picos a corto plazo en el control de TOC podrían ser causados por un biofilm, pero no tienen por qué serlo. Y para acercarse al valor límite de 500 ppb de TOC, el agua tendría que estar tan contaminada que probablemente ya sería reconocible por la turbidez y el olor.

Por otro lado, un valor muy bajo de TOC en el sistema de agua es un muy buen punto de partida para prevenir la formación de biofilm, ya que la materia orgánica es el alimento de las bacterias que forman del biofilm.

Tomado de la News Letter de la ECA (12/04/2023).

Es común que cuando estamos efectuando actividades de Análisis de Riesgos de Calidad, puedan surgir problemas de subjetividad e incertidumbre.

La mayoría de las herramientas de gestión de riesgos existentes no proporcionan estrategias formales para abordar este tipo de problemas.

Las influencias de lo que se conoce como heurística humana (*) durante las actividades relacionadas con la Gestión de Riesgos de Calidad o GRC (tales como Brainstorming y la estimación de probabilidad de ocurrencia) se pueden añadir a estos problemas.

Los efectos adversos potenciales de tales heurísticas a la hora de identificar modos de falla y sus probabilidades de ocurrencia deben ser contrarrestados.

Una de las fuentes más significativas de incertidumbre y subjetividad en las actividades de GRC es el factor de probabilidad de ocurrencia que suele utilizarse para estimar los riesgos. Muchas definiciones de riesgo incluyen el factor de probabilidad de ocurrencia de la falla.

Esta probabilidad de ocurrencia puede ser estimada de dos formas distintas, algunos lo hacen de manera subjetiva o basada en la creencia que tiene la persona que la falla ocurrirá según su conocimiento actual, o sea que depende del conocimiento de la persona que asigna el valor de probabilidad.

Otros utilizan la frecuencia de ocurrencia de la falla en el pasado (historial de la falla), aquí cuanta más experiencia acumulada hay, mejor. En este punto una limitante es si cuando se está efectuando el análisis, está definida una población relevante de datos de fallas similares y también considerar la disponibilidad de dicho análisis, usualmente colocamos lo que tenemos en mente, dependiendo de nuestra memoria.

Por lo tanto, las actividades de Brainstorming bien diseñadas y basadas en la ciencia presentan oportunidades para reducir la incertidumbre que puede surgir durante la etapa donde se solicita a los expertos que brinden una opinión sobre la probabilidad de que ocurra una falla.

Algunos tipos de heurísticas a considerar son:

Heurísticas de afecto

La teoría de la heurística del afecto es que la respuesta emocional de uno a un estímulo puede afectar las decisiones de un individuo. Cuando las personas tienen poco tiempo para reflexionar y evaluar una situación con cuidado, pueden basar su decisión en sus reacciones emocionales inmediatas. En lugar de realizar un análisis de costo-beneficio, la heurística del afecto se enfoca en provocar una respuesta reaccionaria automática.

Heurística de disponibilidad

Las heurísticas de disponibilidad son juicios que las personas hacen con respecto a la probabilidad de un evento en función de la información que viene a la mente rápidamente. Cuando las personas toman decisiones, generalmente se basan en el conocimiento previo de un evento. Como resultado, tendemos a sobrestimar la probabilidad de que ocurra un evento simplemente porque se nos viene a la mente rápidamente. Tales atajos mentales nos permiten tomar decisiones rápidamente, pero también pueden ser inexactos.

Heurísticas representativas

Las heurísticas representativas ocurren cuando evaluamos la probabilidad de un evento en función de su similitud con otro evento. En general, las personas tienden a sobrestimar la probabilidad de que ocurra un evento en función de su similitud percibida con otro evento. Cuando sucede, tendemos a ignorar la probabilidad real de que ocurra un evento, independientemente de su similitud con otros eventos.

En un próximo artículo veremos algunas ideas para contrarrestar estas heurísticas.

(*) Heurísticas son comportamientos cognitivos que pueden influir en cómo los individuos toman decisiones en un contexto de incertidumbre, y pueden ser una fuente de sesgo significativo o error de juicio.

El entrenamiento es el proceso clave para asegurar que las personas que desarrollan, validan, mantienen, soportan y usan Sistemas Computarizados (SC) tienen la educación, entrenamiento y experiencia para efectuar sus tareas asignadas.

Debe haber procedimientos para entrenamientos que cubran responsabilidades, planes / programas y registros.

El Propietario del proceso de negocios es típicamente el responsable que todos los usuarios estén entrenados.

Personas en posiciones responsables deben tener un entrenamiento apropiado para la gestión y uso del SC dentro del campo de sus responsabilidades. Todos los usuarios y personal de soporte de un sistema GxP, incluyendo el personal contratado, debe ser adecuadamente entrenado, incluyendo entrenamiento GxP básico. Esto además debería tener un entrenamiento específico cubriendo aspectos regulatorios del uso del SC por ej. Aspectos de seguridad o el uso de firmas electrónicas.

Para SC las compañías reguladas deberían entonces:

  • Establecer necesidades de entrenamientos, incluyendo usuarios, proveedores, data center, departamentos de IT, ingeniería y mantenimiento
  • Proveer entrenamientos para satisfacer estas necesidades, efectuando la evaluación de la efectividad de los mismos
  • Asegurar que el personal está consciente de la relevancia e importancia de sus actividades (por ej. GxP)
  • Asegurar que el personal del proveedor está adecuadamente entrenado, por ej. como parte de la evaluación del proveedor
  • Mantener los registros de entrenamiento apropiados
  • Asegurar que el entrenamiento es mantenido actualizado, por ej. Seguimiento de cambios del sistema

Un enfoque basado en el riesgo debe ser usado para mantener el rigor del entrenamiento requerido, medición de la efectividad del mismo, su frecuencia y el enfoque para retención de los registros del entrenamiento.

Conceptos tomados de la GAMP5 ed. 2.

La nueva revisión ICH Q9 sobre gestión de riesgos de calidad entra en vigencia a partir del 23 de julio de 2023.

¿Cuáles son las novedades de Quality Risk Management (QRM)?

Los objetivos de la revisión fueron mejoras en cuatro áreas:

  • Subjetividad en las evaluaciones de riesgos y resultados de QRM.
  • Insuficiente gestión de los riesgos de suministro y disponibilidad de productos
  • Falta de comprensión de las formalidades de QRM
  • Falta de claridad sobre la toma de decisiones basada en el riesgo

¿Qué otros cambios importantes se han agregado ahora al documento final? A continuación encontrará un análisis detallado de estos cambios.

La revisión comprende ahora un total de 25 páginas; el documento original tenía 19 páginas.  Además de las formalidades sobre gestión de riesgos de calidad (5.1) y toma de decisiones basada en riesgos (5.2) ya mencionadas en el borrador, ahora se ha agregado un subcapítulo sobre gestión y minimización de la subjetividad (5.3). Sin embargo, el nuevo subcapítulo 6.1, el papel de QRM para abordar los riesgos de disponibilidad del producto debido a problemas de calidad/fabricación solo sirve para mejorar la estructura. Hay poco que sea nuevo aquí en términos de contenido. También se mantiene el nuevo punto II.9 Gestión de riesgos de calidad como parte del control/gestión de la cadena de suministro, que ya existía en el borrador.

La introducción ahora es más extensa (1,5 páginas) que en el documento original (1 página). Esto es comprensible, ya que las partes recién agregadas (subjetividad, carencias, etc.) ahora también se abordan en la introducción. El cambio en el proceso de gestión de riesgos de identificación de riesgos a identificación de peligros es nuevo y no ha cambiado desde el borrador.

También es nuevo, en comparación con el documento original una viñeta adicional sobre el tema de la subjetividad en 4.1. Responsabilidades. Sin embargo, esto ya estaba incluido en el borrador del documento. Aparte del borrador del documento y nuevo en comparación con el original, el pasaje sobre subjetividad bajo 4.1 ahora se ha convertido en un punto 5.3 separado.

Gestión de riesgos

En la descripción del proceso de gestión de riesgos, la identificación de riesgos se ha convertido en identificación de peligros en el documento final. Esto también se refleja en el capítulo 7 Definiciones, donde ahora se ha eliminado la identificación de riesgos, como en el borrador del documento. Se hizo un pequeño cambio en la aceptación del riesgo, se eliminó una oración.

En el capítulo 5, Métodos de gestión de riesgos, se agregó una nueva oración en el primer párrafo, que señala que los factores no discretos pueden desempeñar un papel en la detectabilidad. Por lo tanto, los controles de detectabilidad son importantes ya que pueden reducir la probabilidad de ocurrencia.

En el segundo párrafo, se ha eliminado la referencia a las vías informales de análisis de riesgos. La idea detrás de esto parece ser que no se trata de -informal o formal- sino que las transiciones fluidas son posibles en términos de riesgo. Esto también se vuelve a mencionar explícitamente en la introducción del Anexo I, como también podría leerse en el borrador.

También hubo cambios importantes en el Capítulo 5 Métodos de gestión de riesgos a través de la introducción de pasajes sobre la subjetividad. En el documento borrador ya había nuevos subcapítulos sobre formalidades (5.1), sobre decisiones basadas en riesgo (5.2), y ahora, bastante nuevo, en el documento final sobre gestión y minimización de subjetividades (5.3). Como se mencionó brevemente anteriormente, este es un pasaje original de 4.1 del borrador del documento. En general, la toma de decisiones (5.2.) se refiere a la gestión del conocimiento (según ICH Q10) y también a la integridad de los datos en el contexto de las decisiones. En el nuevo capítulo 5.3 se señala la dificultad de evitar la subjetividad y se recomienda considerar siempre este tema cuando se trate de suposiciones o incluso sesgos.

En comparación con el borrador, solo hubo relativamente pocos ajustes textuales en el Capítulo 6 sobre la integración de QRM en la industria y los procesos de autoridad, pero un nuevo subcapítulo, como ya se describió anteriormente. Además, se ha agregado un párrafo sobre la referencia al Anexo II.2, que también puede ser útil en relación con los riesgos para la disponibilidad del producto, en comparación con el borrador del documento y, en consecuencia, también con el documento original.

En general, las referencias (Capítulo 8), especialmente las citas de normas, se han actualizado y se han agregado nuevas referencias bibliográficas.

Cambios en los Anexos

En el Anexo I sobre Métodos y Herramientas QRM, hubo pocos cambios en general. Un error de ortografía en el Capítulo I.5 (HACCP) es digno de mención: haard(s) ciertamente significa peligro(s). En I.9 (Herramientas estadísticas de apoyo), los estándares enumerados se han actualizado con respecto a su problema.

En el Anexo II, el mayor cambio con respecto al documento original es la introducción del Capítulo II.9 (QRM como parte de la gestión/control de la cadena de suministro).

Mientras tanto, la Revisión 1 se ha publicado en el sitio web de la EMA y será válida desde el 23 de julio de 2023.

Tomado de la News Letter de la ECA 15/Feb/2023

La semana pasada durante la implementación de un programa de validación de limpieza en un laboratorio, identificamos algunos aspectos sobre los que teníamos que trabajar, y quiero compartir con Uds. uno de los temas, me refiero al uso de detergentes. Está claro que si podemos limpiar nuestros equipos solamente con agua, sin utilizar detergente, es la situación ideal, aunque generalmente esto no sucede.

Les dejo estos TIPS:

  • La selección del detergente depende del tipo de producto que debe limpiar.
  • Una vez que valide un detergente, no debería cambiarlo a menos que valide otro.
  • La validación de un detergente alternativo puede llevar tiempo, dinero y puede afectar el flujo de producción, sin embargo, es una ventaja frente a cualquier contingencia. Además puede ser llevada a cabo de forma gradual.
  • Establezca con su proveedor un acuerdo de calidad, considerando entre otros temas:
    • El proveedor debe proporcionarle un método analítico validado para determinar los residuos del detergente.
    • Comunicación directa y temprana con el fabricante de detergentes para soporte o consultas, notificación de inconvenientes en el abastecimiento del producto, etc.
    • Cambio de formulación. El proveedor debe notificarlo sobre cualquier cambio de formulación, para que Ud. puede efectuar las evaluaciones del impacto sobre su proceso.

Espero que les resulte útil para revisar su situación actual.

Adaptado del Pharmaceutical on line Newsletter/ 21-feb-2023

Generalmente se utilizan dos técnicas de muestreo en la validación de la limpieza: la prueba de enjuague y la prueba del hisopo. Las siguientes son notas sobre posibles problemas con la prueba de hisopo.

En general, es posible el uso de hisopos para la detección de residuos químicos o microbiológicos. Por lo general, la recuperación de hisopos de microbiología es menor en comparación con las placas de agar para el muestreo de superficie microbiana, en estas notas nos referimos solo al hisopo para la detección de residuos químicos (residuos de productos o detergentes).

Pasos críticos durante la prueba de hisopo:

El propio proceso de muestreo con hisopo, además del análisis, que no se discutirá aquí, tiene dos pasos críticos que deben optimizarse teniendo en cuenta los materiales de la superficie y los residuos:

  • Paso 1: Recogida de los residuos de la superficie en contacto con el producto utilizando el material del “swab head”.
  • Paso 2: Transferencia de los residuos del material del “swab head” a la solución de extracción.

Además de una técnica de hisopo reproducible, el material del hisopo en sí mismo es crucial. El uso de hisopos de algodón ya no es “de última generación”. Estos pueden liberar partículas en la superficie de contacto del producto, desintegrarse durante el proceso de hisopado según la técnica de hisopado o no liberar los residuos en la solución de extracción. Los hisopos modernos tienen un material abrasivo que, además de disolver los residuos mediante el uso de una cabeza de hisopo humedecida, también los elimina mecánicamente de la superficie. En este caso, es importante la presión correcta, que se puede comprobar si el hisopo muestra una ligera flexión. En general, son preferibles las superficies de muestreo rectangulares muestreadas en un patrón de control. Para garantizar un área de muestreo correcta, se recomienda pasar el hisopo por carriles superpuestos y muestrear al menos el área de superficie especificada. Más área de superficie hisopada significa un “peor de los casos” y asegura que se genere un resultado bajo falso debido a una superficie más pequeña hisopada. Después de pasar la torunda, debe quedar en la superficie la menor cantidad posible de solución de extracción, que se utiliza para humedecer previamente el cabezal de la torunda. En casos especiales, puede ser útil limpiar la superficie nuevamente con un segundo hisopo seco. Además, debe tenerse en cuenta que después de los procesos de limpieza con medios tibios o calientes o un paso de secado, la superficie del equipo debe enfriarse a temperatura ambiente.

Dependiendo de la técnica de hisopo, la transferencia de los residuos se lleva a cabo secuencialmente en el paso 2. Aquí, el hisopo se agita en la solución de extracción entre los pasos de hisopo individuales. Después del muestreo, el hisopo generalmente se transfiere a la solución de extracción y se deja allí hasta el análisis. Antes de esto, se puede lograr una extracción mejorada adicional utilizando un agitador vibratorio o un baño ultrasónico. La recuperación de muestras se puede mejorar optimizando la solución de extracción. Esto depende principalmente del tipo y condición del residuo. Sin embargo, la solución de extracción en sí también debe ser fácil de limpiar y, además, no interferir con el análisis.

Autor: Dipl.-Ing. (FH) Robert G. Schwarz, publicado en News Letter ECA 1/3/2023

El enfoque del ciclo de vida de los Sistemas Computarizados utilizado por la GAMP5, hace referencia a 4 fases principales:

  • Concepto
  • Proyecto
  • Operación
  • Retiro

Hoy quiero referirme a la Operación.

Para alcanzar y mantener en cumplimiento un sistema computarizado GxP a lo largo de su ciclo de vida, en primera instancia el mismo debe ser validado (Plan y Reporte de Validación) y luego deben ser aplicados una serie de controles operacionales.

Esto aplica a la mayoría de los sistemas computarizados, cuando el sistema es parte de un proceso de manufactura. Puede ocurrir que no sea requerido una validación del sistema por separado, pero si es necesario verificar la adecuación del sistema computarizado al proceso.

Cuando nos referimos a la operación del sistema computarizado, debemos considerar que no todas las actividades deben ser aplicadas a todos los sistemas. Estas deben ser seleccionadas y escaladas de acuerdo a las características del sistema en cuestión, al riesgo y complejidad del sistema, a través de la aplicación del pensamiento crítico.

Luego de liberar el sistema para su uso, es necesario mantener el estado validado, a través de la gestión de cambios, el mantenimiento del sistema, la actualización de SOPs, mantener la Integridad de datos, efectuar la revisión periódica del sistema a partir del conocimiento adquirido y de la investigación de fallas, el análisis de causa raíz y la generación de CAPAs.