Leyendo un artículo del Pharmaceutical on line, de Peter H. Calcott, D.Phil, tome unos párrafos de la misma que me parecieron sumamente importantes, por la claridad de conceptos sobre algunos temas que usualmente a todos nos generan dudas.

¿Qué escala debo usar en la Gestión de Riesgos de Calidad?
La gestión de riesgos de calidad (GRC) consiste en convertir opiniones en datos o números. Pero lidiar con esos números puede ser desalentador. ¿Qué escala debemos usar? ¿La escala de tres, cuatro, cinco o diez puntos? Tiendo a favorecer los tres o cinco, dependiendo de la situación.

Para un análisis preliminar de peligros (PHA), tiendo a favorecer una escala de tres puntos. Básicamente, es alto, medio o bajo. Es simple y fácil para tomar decisiones. En realidad, trata de no diferenciar la gravedad y la probabilidad entre sí. Simplemente puntúa el riesgo. Esto es útil para un análisis inicial o menor.

Para un análisis más detallado usando FMEA, prefiero una escala de cinco puntos. Da suficientes posibilidades sin ser demasiado complejo. A menudo, con una escala de 10 puntos, los miembros discuten entre un 7 y un 8. Eso simplemente no es importante. Incluso en la escala del 1 al 5, defina lo que cada uno representa para la gravedad y la probabilidad. No es necesario que sea demasiado elaborado, solo una descripción verbal clara. En la mayoría de los análisis FMEA, examinamos la gravedad (¿qué es lo peor que podría pasar?) y la probabilidad (¿qué probabilidad hay de que suceda?).

Estas son mis preferencias porque son simples. Puede usar una escala diferente, y eso también está bien.

La guía ICH Q9 también exige examinar la detectabilidad e incorporarla en los cálculos. Prefiero mantenerlo separado. Hago una evaluación, pero hago el análisis sin ella. Hago mi remediación basado en la severidad y la probabilidad. Si no puedo reducir el peligro lo suficiente, ahí es cuando entra en juego la detectabilidad. Luego, trabajo para que el problema sea detectable. Si no puedo resolverlo, al menos sé cuándo está ahí.

Recuerde, sus números son subjetivos
A medida que realiza los cálculos y la asignación de riesgos, recuerde que los números que asigna son subjetivos. Es la interpretación de sus opiniones, a menudo con pocos datos duros, pero a veces, tal vez solo datos blandos. Trátelos como tales y no se obsesione con los números reales. Estos números no deben tratarse como especificaciones, con asignación de suspenso y aprobación. El propósito de los números es realmente agrupar los elementos en tres cubos. Los primeros son los que deben ser subsanados. El segundo se puede dejar solo. Es decir, no se hace nada. El tercer cubo es para los elementos que se encuentran en el medio. Entonces, hay que preguntarse, ¿Lo arreglo? ¿Lo dejo? ¿O lo observo?

Mucha gente me pregunta: “¿Cómo estableces el estándar para decidir en cuál trabajarás y en cuál no?” Mi respuesta es mirar el análisis y tendrá una idea de dónde, en función de algunos de los elementos que ya sabe intuitivamente que necesitan reparación o no. La mayoría cae en los dos cubos anteriores y la decisión es clara. Es el tercer cubo con el que es más difícil lidiar. Después de hacer el análisis, revise los resultados. Haz la pregunta, ¿se siente bien? Está perfectamente bien decidir remediar algo que puntúa bajo en riesgo o descartar algo que puntúa alto. La clave es documentar sus decisiones, junto con las suposiciones y los datos que utilizó. Este informe se revisará más adelante y es posible que decida cambiar de opinión. La clave es documentar las razones para el futuro.

Al final del día, mire el resultado y pregúntese si se ve bien y tiene sentido. Si la respuesta es sí, ya está. Si no, llévelo a través de otro ciclo.
Elementos importantes a tener en cuenta
Entonces, ha completado el análisis. Eso significa que tiene las herramientas para ayudarlo a priorizar el trabajo y asignar los recursos adecuados para los problemas y las soluciones. Después de la remediación, es aconsejable volver a realizar el ejercicio para asegurarse de que las soluciones han reducido el peligro a un nivel de riesgo aceptable. Incluso entonces, no ha terminado.

Hay otras dos cosas con las que algunas personas tienen problemas. La primera es aceptar que el riesgo siempre estará ahí. Nunca llegarás al riesgo cero. O te volverás loco para llegar allí o te arruinarás. Tienes que aceptar que siempre habrá algún riesgo residual. Lo aceptamos en la vida real. ¿Por qué no aquí?

El segundo es la creencia de que los reguladores no aceptarán su decisión de no hacer nada. De hecho, este miedo se cuantificó en una encuesta que un colega y yo realizamos hace varios años en toda la industria. Un porcentaje considerable de encuestados no estaba convencido de que los representantes de las agencias aceptaran sus decisiones. Pero las agencias han dicho que utilizarán las técnicas. He desarrollado dispositivos, que incluyeron mucho análisis de riesgo en el desarrollo, y he visto a los reguladores aceptar mis análisis de riesgo durante las inspecciones.

Otro elemento, no relacionado con los puntos anteriores, estaba relacionado con una observación que se hizo en una empresa que permanecerá en el anonimato, por razones obvias. Esa empresa le presentó a un colega mío un análisis de riesgos que estaba muy bien hecho y bien documentado. Detalló un análisis de si liberarían un producto basado en un análisis de riesgo. ¡Hasta aquí todo bien! Pero el análisis de riesgo no estaba relacionado con el cumplimiento, la seguridad del paciente o la calidad del producto. Más bien, estaba relacionado con si serían atrapados durante una inspección u otra interacción regulatoria y las consecuencias. Mi colega rápidamente lo cortó de raíz, como dicen. El mensaje para llevar a casa aquí es que el análisis de riesgos nunca debe usarse para justificar algo que usted sabe intrínsecamente que no es correcto.

Espero que les resulte útil, a mi me pareció muy interesante el análisis de Peter H. Calcott, D.Phil.

A la pregunta de si es posible fabricar productos medicinales y no farmacéuticos en el mismo equipo, la FDA da una respuesta clara en una Warning Letter actual: No, esto no cumple con las cGMP.

Como consecuencia de la fabricación de productos medicinales y no farmacéuticos en el mismo equipo, la FDA solicita una evaluación de riesgos para todos los medicamentos fabricados en este equipo. Se debe evaluar la posible contaminación por compartir el equipo. Además, se requieren planes para abordar la calidad del producto y el riesgo del paciente para cada producto en distribución (incluidos los posibles retiros del mercado – Recall).

La FDA también requirió planes sobre si la compañía tiene la intención de continuar fabricando productos medicinales y no farmacéuticos. Si ambos van a seguir fabricándose, la FDA quiere ver planes que muestren que se utilizará equipo dedicado para las operaciones respectivas.

El programa de validación de limpieza debe mejorarse en términos de las condiciones del “worst case o peor de los casos”. Se debe tener en cuenta:

  • Medicamentos con toxicidades más altas
  • Medicamentos con niveles más altos de ingrediente activo
  • Medicamentos con baja solubilidad en el reactivo de limpieza
  • Medicamentos con propiedades que los hacen difíciles de purificar
  • Muestrear los lugares que son más difíciles de limpiar
  • Tiempo de espera antes de limpiar – Dirty Holding Time

Además, la FDA aún exige la especificación de los pasos necesarios que se deben tomar en el sistema de gestión de cambios antes de que se pueda introducir un nuevo equipo o producto de fabricación. También se solicita un plan CAPA basado en una revisión retrospectiva de las operaciones de limpieza con mejoras sugeridas que incluyen plazos para la implementación, así como una descripción de las mejoras en el programa de limpieza, incluidas las mejoras en la eficacia de la limpieza y la verificación continua de la limpieza.

Puede encontrar la Warning Letter completa dirigida a System Kosmetik Produktionsgesellschaft für kosmetische Gmbh en el sitio web de la FDA.

Publicado en la NL de la ECA GMP – 12/10/2022

Podría decir, sin mayor error, que muchas de las actividades que efectuamos, son requeridas por las Agencias, pero también quiero hacer foco en la importancia de las mismas, en el valor agregado que tienen, en los beneficios que aportan a nuestra operación.

La gestión de riesgos (GR), no es la excepción y es más que un simple requisito normativo con el que las empresas farmacéuticas tienen que cumplir. La GR es un proceso de mejora continua. Es una metodología mediante la cual identificamos, analizamos, evaluamos, mitigamos y monitoreamos el riesgo a lo largo del ciclo de vida y es de suma importancia que esté incorporado dentro de la cultura de la empresa.

No solo se trata de tener en la empresa dos personas especialistas en la GR, los operadores, los analistas deben entender los principios de la GR, la idea de ser más proactivos que reactivos, ya que la GR nos da el potencial de reducir la posibilidad de que ocurra un riesgo y su impacto potencial.

¿Qué es la cultura del riesgo y cómo la logramos? y en este punto, quiero dejarles dos preguntas:

¿Estamos trabajando en la identificación del riesgo? y cuando lo identificamos, ¿Nos asusta o lo ignoramos?

El comportamiento frente al riesgo cuando lo identificamos, es una parte fundamental del proceso.

Por supuesto que escondernos o no reconocer el riesgo, dejándo todo como está, no es una posición aceptable.

Una vez que el riesgo es comprendido, es esencial la exploración de mitigaciones para ese riesgo o la formación de una justificación de aceptación del riesgo.

Esos son los dos componentes principales que luego equivalen a construir una cultura de riesgo. Pero un aspecto crítico en este proceso es:

¿De qué forma la Dirección impulsa esta Cultura? ¿Existe una apertura a identificar y hablar sobre el riesgo? ¿O preferiría que siguiéramos adelante, sin pensar en los posibles problemas que podrían surgir?

Una vez que se identifican los riesgos pronosticados, la asignación de recursos donde se necesitan para mitigar esos riesgos también es un desafío.

Es usual la asignación de recursos donde ocurren problemas y debemos tomar acciones correctivas o preventivas, pero cuando se trata de un riesgo potencial, sobrecalificamos: ¿Cuánto dinero debemos invertir en esa acción sino sabemos si realmente va a suceder?

Debemos sentirnos seguros con nuestro proceso y aceptar que identificar el riesgo puede hacernos mejores. Enseñar a nuestros equipos a usar los datos y aprovechar su capacidad para minimizar el riesgo son factores para fomentar la cultura del riesgo.

La validación de limpieza es una actividad requerida dentro de la Industria Farmacéutica.

Desde las regulaciones y los estándares de la Industria, la validación de limpieza es reconocida como una actividad de suma importancia para establecer que la contaminación cruzada de un producto está controlada de manera de asegurar la calidad del producto y la seguridad del paciente.

Es una actividad continua dentro de las cGMP, la cual necesita una inversión significativa de recursos y de tiempo.

Si tomamos como una referencia la guía ISPE, Validación de limpieza para el siglo 21, uno de los objetivos que desarrolla es la aplicación del análisis de riesgo basado en la ciencia, en el proceso de validación de limpieza.

Análisis de riesgo de la limpieza

Riesgo de acuerdo a los principios de la ICHQ9 es función de la severidad del peligro y la probabilidad de ocurrencia.

Para los propósitos de la validación de limpieza, podemos definirlo como:

Riesgo = Fc (Severidad del residuo, Prob. aparición del residuo, Detectabilidad del residuo)

El nivel de esfuerzo, formalidad y documentación del proceso de QRM (Quality Risk Mangement) debe ser proporcional al nivel de riesgo del proceso de limpieza.

Análisis de Riesgo de la limpieza

El objetivo de la inspección es asegurar que las bases para todo límite están justificadas científicamente, por lo tanto los límites deberían ser determinados a partir del peligro que el residuo del proceso representa. Esto puede ser determinado desde la revisión de la toxicidad de los mismos residuos.

El ADE (límite de exposición diaria aceptable), puede ser usado como una medida de severidad del peligro de la sustancia, y a partir del mismo efectuamos el cálculo del MSC (Máxima cantidad arrastrada permitida segura).

Además debe ser considerado el peligro potencial aportado por el diseño del equipo, por ejemplo considerar que el equipo sea fácil de limpiar, inspeccionar y muestrear.

En cuanto a los agentes de limpieza, los mismos deben ser seleccionados en base a principios científicos y con conocimiento de los peligros que pueden representar. Es deseable que los mismos estén incluidos dentro de la lista GRAS (Generally Recognized As Safe), en caso que no se encuentren dentro de esta lista, puede ser usado el ADE del mismo para determinar su nivel de riesgo.

También se debe evaluar el peligro de una posible carga biológica remanente y la posibilidad de proliferación microbiológica durante o después de un proceso de limpieza y los peligros que esto representa. Por ejemplo, es necesario abordar los peligros que se presentan al mantener el equipo en estado sucio o limpio.

Exposición de la limpieza

Luego que el peligro de una sustancia ha sido identificado, a partir de su ADE se determina la MSC (máxima cantidad permitida segura), siguiendo las etapas para minimizar y evaluar los niveles posibles de exposición.

Antes de usar un SOP de limpieza, debe ser efectuado un análisis de riesgos (RA) por ejemplo utilizando FMEA. Se calcula el RPN (Risk Priority Number), a partir de la severidad del residuo, el nivel del residuo y la posibilidad de detectarlo. Cuando el RPN es alto, deben ser tomadas acciones de mitigación de forma de disminuir el riesgo.

Si el riesgo no puede ser reducido a nivel aceptable, el producto podría requerir equipos dedicados para su elaboración o el uso de elementos desechables.

Cuando el RA indica que la contaminación microbiológica es una preocupación, tales como equipamiento estéril, holding time de equipos, etc. Deben ser obtenidos y evaluados datos, para determinar el nivel de exposición. Caso contrario, los datos microbiológicos pueden no ser necesarios.

Detección de limpieza

La habilidad para detectar un residuo cuando está presente, es un factor importante en la reducción del riesgo.

Hay distintos métodos para la determinación de residuos, inspección visual, TOC, conductividad, HPLC, etc.

La inspección visual de determinados residuos, método usado para la verificación de la limpieza, apropiado para productos de bajo riesgo.

La conductividad, es otro método utilizado para la detección de presencia de productos de bajo riesgo. Es muy utilizada para la detección del punto final en los sistemas CIP (Clean In Place).

TOC, Carbono Orgánico Total, es una herramienta poderosa, simple y rápida, aunque inespecífica para la detección de residuos de limpieza.

HPLC, herramienta muy sensible, específica, para detectar residuos. Es de amplio uso para la detección de residuos de validación de limpieza. Es el método cuando los anteriores no pueden ser utilizados. usualmente se parte del método de valoración del activo y se lo adapta al nivel de trazas y luego se valida.

Debemos disponer de procedimientos de limpieza que nos aseguren procesos de limpieza de alta Capacidad y en el caso de sustancias de alta toxicidad, disponer de un monitoreo apropiado de los mismos.

La evaluación de los datos con respecto a la criticidad es esencial y, hasta cierto punto, no es una actividad trivial. Los datos deben evaluarse en particular con respecto a la seguridad del paciente y/o la calidad del producto.

El término “datos críticos” aparece en un solo lugar en las Directrices GMP de la UE:

“4.27 – Debería existir un sistema para indicar observaciones especiales y cualquier cambio en los datos críticos”.

El Anexo 11 de GMP de la UE también menciona datos críticos en un solo lugar.

“6. Chequeos de exactitud: para los datos críticos ingresados ​​manualmente, debe haber una verificación adicional sobre la precisión de los datos”.

Esto proporciona una base legal para revisar la entrada de datos críticos. Por lo tanto, una segunda persona debe verificarlo. Una alternativa sería un sistema computarizado validado.

Ejemplo:

La temperatura se mide en un tanque de agitación. Esta medición es parte del informe de lote y es relevante para la liberación. La temperatura se lee manualmente y se documenta manualmente. En este caso, se requiere una segunda persona para verificar la exactitud de los datos (principio de doble verificación).

O

La temperatura se registra electrónicamente a través de un sistema computarizado y se guarda electrónicamente. En este caso, habría que validar el sistema informático.

Volviendo a la evaluación de la criticidad de los datos: ni la sección 4.27 ni el Anexo 11 (sección 6) proporcionan mucha información sobre qué datos son críticos y cuáles no. No existe una definición legal de datos críticos en el entorno GMP. Si uno observa las diversas directrices y estándares en el área GMP, se puede encontrar una definición de datos críticos en VDI/VDE 3516 Parte 5 sobre “Validación en el entorno GxP – Tipos de datos crudos (raw data)”:

“Datos críticos:

Datos que tienen un impacto potencial en la seguridad del paciente, la calidad del producto y la integridad de los datos”.

Es decisión de la empresa (fabricante de productos medicinales) definir los datos a incluir.

La pregunta crucial es sin duda: ¿Existen datos relevantes para GMP que no sean críticos?

Esto no puede responderse unívocamente a partir del contenido de las bases legales vigentes. Sin embargo, la respuesta es “No”. Sin embargo, existen diferencias en la criticidad de los datos. La Figura 1 muestra un ejemplo correspondiente. Una clasificación de tres niveles tiene sentido:

Todos los datos son relevantes desde el punto de vista GMP, sin embargo varía la criticidad.

La criticidad es alta, media o baja.

PI 041 BUENAS PRÁCTICAS PARA LA GESTIÓN E INTEGRIDAD DE DATOS EN ENTORNOS REGULADOS GMP/GDP proporciona información sobre datos críticos, lo que también demuestra su importancia.

Ejemplo:

“5.4 Criticidad de los datos: por ejemplo: para una tableta oral, los datos del ensayo API generalmente tienen un mayor impacto en la calidad y seguridad del producto que los datos de friabilidad de la tableta”.

El documento destaca la importancia de los datos en términos de su influencia en decisiones como la liberación de lotes.

“5.4 Criticidad de los datos

5.4.1 La decisión en la que influyen los datos puede diferir en importancia y el impacto de los datos en una decisión también puede variar. Los puntos a considerar con respecto a la criticidad de los datos incluyen:

¿En qué decisión influyen los datos?

Por ejemplo: cuando se toma una decisión de liberación de un lote, los datos que determinan el cumplimiento de los atributos críticos de calidad son normalmente de mayor importancia que los registros de limpieza del almacén”.

Tomado de la News Letter de la ECA – 06.02.2019

  • Requerimientos basados en el producto / proceso (pensamiento basado en el producto / proceso)
  • Risk Assessment basado en la seguridad del paciente

Cuando pensamos en Riesgo al producto, debemos considerar la seguridad, identidad, pureza, calidad y potencia del producto.

En cuanto a riesgos del proceso, debemos considerar los parámetros críticos del proceso, como temperaturas, tiempos de operación, presiones, IPCs, etc.

  • Aumento del uso de las GEP (Buenas Prácticas de Ingeniería) – uso del FAT /SAT / Commissioning. Formas de trabajo de ingeniería.
  • Testeos / ensayos de acuerdo al riesgo
  • Reutilización de trabajos previos (ha sido hecho por otros, podemos confiar en otros) – know how, buenas prácticas

Según ISPE:

Requisitos: el URS debe basarse en el proceso y esto se confirma en el PQ (calificación de performance). Esto significa que tanto el IQ como el OQ están subordinados en importancia.

El diseño de experimentos (DOE) es un enfoque estadístico para la optimización de productos y procesos. Consiste en el estudio de distintas situaciones experimentales, que tienen sobre ciertas respuestas cuantitativas de unidades experimentales en observación.

De acuerdo a la definición de Wikipedia, el diseño experimental es una técnica estadística que permite identificar y cuantificar las causas de un efecto dentro de un estudio experimental. En un diseño experimental se manipulan deliberadamente una o más variables, vinculadas a las causas, para medir el efecto que tienen en otra variable de interés. El diseño experimental prescribe una serie de pautas relativas qué variables hay que manipular, de qué manera, cuántas veces hay que repetir el experimento y en qué orden para poder establecer con un grado de confianza predefinido la necesidad de una presunta relación de causa-efecto.

En la Industria farmacéutica actualmente es de suma importancia, constituyendo una parte sumamente importante del desarrollo de productos y la mejora continua del proceso.

¿Qué ventaja aporta el DOE en el desarrollo farmacéutico?

Nos da  la posibilidad de evaluar simultáneamente uno o varios parámetros de entrada, o “factores”, como la temperatura, la materia prima o la concentración, para determinar las condiciones en las que los atributos del producto, o “respuestas”, como el rendimiento, la selectividad o el nivel de impurezas, alcanzan un valor óptimo.

Eventos o pasos del DOE

Todo experimento involucra una serie de eventos:

1.Conjetura: hipótesis original que motiva el experimento ej. Marca de nafta vs rendimiento del coche.

2.Experimento: prueba efectuada para mostrar la conjetura.

3.Análisis: análisis estadístico de los datos obtenidos del experimento.

4.Conclusión: lo que se ha aprendido de la conjetura original con relación al experimento. A menudo conduce a una conjetura nueva.

En un próximo artículo daremos un ejemplo práctico del uso del DOE.

La capacidad del proceso (CP) es simplemente la relación entre la dispersión de los datos del proceso (su variabilidad) y el rango de las especificaciones de ese proceso. Básicamente, es una medida de qué tan bien puede encajar la dispersión de los datos dentro de su rango de especificación. Se dice que un proceso es capaz cuando la extensión de sus datos está contenida dentro de su extensión de especificación. Cuanto menor es la dispersión de los datos del proceso que la dispersión de la especificación, más capaz es un proceso.

Unos de los supuestos para estimar la capacidad del proceso, son que estos cálculos se efectúen con datos que se distribuyan normalmente y que el proceso sea estable (ausencia de tendencias significativas).

Capacidad de proceso de limpieza

Como hemos visto, la capacidad del proceso es una medida importante del desempeño del proceso que es relativamente simple de calcular, ya que solo requiere la media y la desviación estándar de los datos del proceso y los límites de especificación para ese proceso. Por lo tanto, en el caso de un proceso de limpieza, la capacidad del proceso de limpieza se puede calcular a partir de la media y la desviación estándar de los datos de hisopado o enjuague del proceso de limpieza y los límites de limpieza basados ​​en el límite de exposición basado en la salud (HBEL) para los datos de hisopo o enjuague.

Para determinar la capacidad del proceso (CpU) de un proceso de limpieza, los términos de esta ecuación se pueden sustituir con los valores estimados a partir de los datos de limpieza (hisopo o enjuague) y el límite de limpieza basado en HBEL, como se muestra en la ecuación siguiente:

CpUlimpieza = (Límite de limpieza HBEL – Media datos de limpieza) / 3 S datos limpieza

Además, dado que los valores de capacidad del proceso se derivan de la media y la desviación estándar, se pueden calcular los intervalos de confianza superior e inferior para estos índices de capacidad del proceso. En los casos en los que puede haber tamaños de muestra variados o pequeños (p. ej., donde N suele ser < 25), es prudente y se recomienda informar y utilizar el límite de confianza inferior de la CPU de estos cálculos en lugar de solo la propia CPU.

Los softwares estadísticos como por ej. Minitab proporcionan estos valores de ntervalos de confianza para los valores de capacidad del proceso y también puede informar la cantidad esperada de fallas de un millón según el análisis de capacidad del proceso.

Capacidad de proceso de datos no normales

Como dijimos antes, partimos de la suposición de que los datos del proceso tienen una distribución normal, sin embargo no todos los datos de limpieza siguen una distribución normal. Por ejemplo, mientras que los datos de hisopos para el análisis de carbono orgánico total con frecuencia se distribuyen normalmente, los datos de HPLC con frecuencia no lo hacen. Antes de realizar cualquier análisis estadístico de los datos de limpieza, es importante determinar si los datos se distribuyen normalmente o no. Si los datos de limpieza no se distribuyen normalmente, se pueden utilizar distintas opciones para normalizarlos (ver el artículo: sus datos siguen una distribución Normal?).

Conclusión

Cada vez son más las compañías farmacéuticas que trabajan y entienden la importancia de analizar la capacidad de sus procesos. Entienden que valores < 1 son poco deseables y buscar obtener valores > 1,33 (equivalente a 4 sigmas).

Cuando pensamos en valores capacidad buscamos alcanzar valores mucho más altos y alcanzables. Evaluar la capacidad del proceso,  nos permite conocerlo y además estimar cual es el riesgo para el paciente debido al arrastre de residuos y a partir del mismo alinearnos con el segundo principio de la ICH Q9, el nivel de esfuerzo debería ser proporcional al nivel de riesgo.

La industria todavía está esperando el nuevo Anexo 1 de la directriz GMP de la UE, y todavía se especula sobre el tiempo de implementación después de la publicación. La última información disponible es que una versión final probablemente esté con los organismos responsables de la Comisión Europea para su firma.

Pero eso no impide que la industria se prepare para la publicación. Ya podría leer sobre el nuevo requisito para una estrategia para las medidas de control de la contaminación definidas en el Anexo 1 revisado.

  • Una pauta,
  • Una plantilla,
  • Un ejemplo de un análisis GAP y
  • Una descripción general de documentos útiles y pautas oficiales

Y lo puso todo a disposición de todas las partes interesadas de forma gratuita.

Con base en la información actualmente disponible en el Anexo 1 y en algunas sugerencias y comentarios recibidos después de la publicación de la primera versión de la Guía de estrategia de control de la contaminación, el Anexo 3 de este documento de orientación ahora se ha revisado para que sea más claro y fácil de entender en algunos lugares.

Las actualizaciones más importantes de la Guía CCS Anexo 3

El Anexo 3 comprende la “Plantilla para el Documento de Estrategia de Control de Contaminación (ejemplo)”. Se han modificado los siguientes puntos:

  • 0.2 Nuevo: Se recomienda que el documento CCS sea aprobado, revisado y actualizado de manera continua. Si corresponde, el documento podría incluirse en el Archivo Maestro del Sitio. Para una instalación en construcción o una importante renovación o desarrollo de una instalación, se debe considerar la utilidad de incluir el CCS en la documentación del proyecto.
  • 1.1 Los Procesos: Actualización de la lista de posibles contenidos adecuados
  • 1.2 General: Actualización de la lista de posibles temas
  • 11 Validación del proceso: La nota sobre Validación de limpieza se ha movido de capítulo
  • 13 Limpieza y Desinfección – Explicación actualizada
  • 14.2.1 Medio ambiente: La explicación se ha complementado y aclarado.
  • 16 Mejora continua en base a la información derivada de lo anterior: Se actualizó y complementó la explicación.

Si se publican versiones adicionales del Anexo 1 o del documento final, por supuesto, seguirán las actualizaciones.

También se puede encontrar más información y la descarga de la guía en el sitio web de la Fundación ECA

Normalmente asumimos que nuestros datos siguen una distribución Normal, pero en realidad, no es siempre así. Obtenemos un resultado, por ejemplo, en el cálculo del Cpk, y no sospechamos que tal vez, no estén reflejando la realidad. Cuanto más se aparten nuestros datos de la Normalidad, cuando esta sea un requisito del modelo estadístico, aumentará el error de los mismos, y nos alejaremos de las buenas decisiones.
Analicemos este grupo de datos
96, 95, 97, 95, 95, 97, 102, 100, 101, 103, 105, 106, 103, 102, 100, 103, 102, 103, 104 y 105
Nota: Respetar el orden de los datos
¿Cómo verificamos si estos datos siguen una distribución normal?
a. Realizando, por ejemplo, la Prueba de normalidad de Kolmogorov – Smirnov (KS).
i. H0: La distribución es Normal (Hipótesis nula)
H1: La distribución no es Normal (Hipótesis alternativa)
ii. Si trabajamos con un intervalo de confianza de 95 %, nuestro α será 0,05.
iii. Tomaremos el p-valor como prueba estadística
iv. La regla de decisión
Si el valor p, de esta prueba, es menor que el nivel de significancia elegido (α =0,05), se rechaza H0 (se acepta H1), y se concluye que se trata de una población No Normal. Si no podemos rechazar la H0, asumiremos que la distribución es Normal
v. Tomar la decisión de aceptar o rechazar H0.
¿Cómo lo hacemos en Minitab?
a. Cargamos una columna con los datos a verificar en la planilla Minitab
b. Seleccionamos la ruta descripta en la figura siguiente

c. Aceptando en Test de Normalidad, se abre el siguiente cuadro de diálogo.

Completamos la variable seleccionada, en nuestro caso es la columna 1 (C1)
Elegimos el test seleccionado (KS),
Colocamos el título
Hacemos click el OK
Aparece el siguiente gráfico

El Valor p es menor que α (0,05), por lo tanto, rechazamos la H0, No es una distribución Normal.
Si la distribución debe ser Normal, como requisito para el modelo estadístico que vamos a utilizar, debemos intentar normalizar los datos.
Utilizaremos la transformación de Box Cox
Seleccionamos la ruta descripta en la figura siguiente

Aceptando en Test de Box Cox.
Se abre el siguiente cuadro de diálogo:

Seleccionamos la columna a analizar
Hacemos click en Opciones (abre el 2do cuadro de diálogo)

Elegimos la columna donde salvar los nuevos datos
Seleccionamos el Lamda óptimo
Hacemos click el OK en los 2 cuadros de diálogos

Nos aparece la columna 2 (C2) con los datos transformados y el gráfico de la variación de Lamda,

Volvemos a realizar el test de normalidad
Realizamos el ensayo de Normalidad, pero sobre la columna de datos transformados.

El Valor p es igual que α (0,05), por lo tanto, No rechazamos la H0, asumimos que se Normalizó la distribución.

Ahora si podemos efectuar el cálculo de la capacidad del proceso con los datos normalizados.

Espero que les haya resultado útil.