Podría decir, sin mayor error, que muchas de las actividades que efectuamos, son requeridas por las Agencias, pero también quiero hacer foco en la importancia de las mismas, en el valor agregado que tienen, en los beneficios que aportan a nuestra operación.

La gestión de riesgos (GR), no es la excepción y es más que un simple requisito normativo con el que las empresas farmacéuticas tienen que cumplir. La GR es un proceso de mejora continua. Es una metodología mediante la cual identificamos, analizamos, evaluamos, mitigamos y monitoreamos el riesgo a lo largo del ciclo de vida y es de suma importancia que incorporado dentro de la cultura de la empresa.

No solo se trata de tener en la empresa dos personas especialistas en la GR, los operadores, los analistas deben entender los principios de la GR, la idea de ser más proactivos que reactivos, ya que la GR nos da el potencial de reducir la posibilidad de que ocurra un riesgo y su impacto potencial.

¿Qué es la cultura del riesgo y cómo la logramos? y en este punto, quiero dejarles dos preguntas:

¿Estamos trabajando en la identificación del riesgo? y cuando lo identificamos, ¿Nos asusta o lo ignoramos?

El comportamiento frente al riesgo cuando lo identificamos, es una parte fundamental del proceso.

Por supuesto que escondernos o no reconocer el riesgo, dejándo todo como está, no es una posición aceptable.

Una vez que el riesgo es comprendido, es esencial la exploración de mitigaciones para ese riesgo o la formación de una justificación de aceptación del riesgo.

Esos son los dos componentes principales que luego equivalen a construir una cultura de riesgo. Pero un aspecto crítico en este proceso es:

¿De qué forma la Dirección impulsa esta Cultura? ¿Existe una apertura a identificar y hablar sobre el riesgo? ¿O preferiría que siguiéramos adelante, sin pensar en los posibles problemas que podrían surgir?

Una vez que se identifican los riesgos pronosticados, la asignación de recursos donde se necesitan para mitigar esos riesgos también es un desafío.

Es usual la asignación de recursos donde ocurren problemas y debemos tomar acciones correctivas o preventivas, pero cuando se trata de un riesgo potencial, sobrecalificamos: ¿Cuánto dinero debemos invertir en esa acción sino sabemos si realmente va a suceder?

Debemos sentirnos seguros con nuestro proceso y aceptar que identificar el riesgo puede hacernos mejores. Enseñar a nuestros equipos a usar los datos y aprovechar su capacidad para minimizar el riesgo son factores para fomentar la cultura del riesgo.

La validación de limpieza es una actividad requerida dentro de la Industria Farmacéutica.

Desde las regulaciones y los estándares de la Industria, la validación de limpieza es reconocida como una actividad de suma importancia para establecer que la contaminación cruzada de un producto está controlada de manera de asegurar la calidad del producto y la seguridad del paciente.

Es una actividad continua dentro de las cGMP, la cual necesita una inversión significativa de recursos y de tiempo.

Si tomamos como una referencia la guía ISPE, Validación de limpieza para el siglo 21, uno de los objetivos que desarrolla es la aplicación del análisis de riesgo basado en la ciencia, en el proceso de validación de limpieza.

Análisis de riesgo de la limpieza

Riesgo de acuerdo a los principios de la ICHQ9 es función de la severidad del peligro y la probabilidad de ocurrencia.

Para los propósitos de la validación de limpieza, podemos definirlo como:

Riesgo = Fc (Severidad del residuo, Prob. aparición del residuo, Detectabilidad del residuo)

El nivel de esfuerzo, formalidad y documentación del proceso de QRM (Quality Risk Mangement) debe ser proporcional al nivel de riesgo del proceso de limpieza.

Análisis de Riesgo de la limpieza

El objetivo de la inspección es asegurar que las bases para todo límite están justificadas científicamente, por lo tanto los límites deberían ser determinados a partir del peligro que el residuo del proceso representa. Esto puede ser determinado desde la revisión de la toxicidad de los mismos residuos.

El ADE (límite de exposición diaria aceptable), puede ser usado como una medida de severidad del peligro de la sustancia, y a partir del mismo efectuamos el cálculo del MSC (Máxima cantidad arrastrada permitida segura).

Además debe ser considerado el peligro potencial aportado por el diseño del equipo, por ejemplo considerar que el equipo sea fácil de limpiar, inspeccionar y muestrear.

En cuanto a los agentes de limpieza, los mismos deben ser seleccionados en base a principios científicos y con conocimiento de los peligros que pueden representar. Es deseable que los mismos estén incluidos dentro de la lista GRAS (Generally Recognized As Safe), en caso que no se encuentren dentro de esta lista, puede ser usado el ADE del mismo para determinar su nivel de riesgo.

También se debe evaluar el peligro de una posible carga biológica remanente y la posibilidad de proliferación microbiológica durante o después de un proceso de limpieza y los peligros que esto representa. Por ejemplo, es necesario abordar los peligros que se presentan al mantener el equipo en estado sucio o limpio.

Exposición de la limpieza

Luego que el peligro de una sustancia ha sido identificado, a partir de su ADE se determina la MSC (máxima cantidad permitida segura), siguiendo las etapas para minimizar y evaluar los niveles posibles de exposición.

Antes de usar un SOP de limpieza, debe ser efectuado un análisis de riesgos (RA) por ejemplo utilizando FMEA. Se calcula el RPN (Risk Priority Number), a partir de la severidad del residuo, el nivel del residuo y la posibilidad de detectarlo. Cuando el RPN es alto, deben ser tomadas acciones de mitigación de forma de disminuir el riesgo.

Si el riesgo no puede ser reducido a nivel aceptable, el producto podría requerir equipos dedicados para su elaboración o el uso de elementos desechables.

Cuando el RA indica que la contaminación microbiológica es una preocupación, tales como equipamiento estéril, holding time de equipos, etc. Deben ser obtenidos y evaluados datos, para determinar el nivel de exposición. Caso contrario, los datos microbiológicos pueden no ser necesarios.

Detección de limpieza

La habilidad para detectar un residuo cuando está presente, es un factor importante en la reducción del riesgo.

Hay distintos métodos para la determinación de residuos, inspección visual, TOC, conductividad, HPLC, etc.

La inspección visual de determinados residuos, método usado para la verificación de la limpieza, apropiado para productos de bajo riesgo.

La conductividad, es otro método utilizado para la detección de presencia de productos de bajo riesgo. Es muy utilizada para la detección del punto final en los sistemas CIP (Clean In Place).

TOC, Carbono Orgánico Total, es una herramienta poderosa, simple y rápida, aunque inespecífica para la detección de residuos de limpieza.

HPLC, herramienta muy sensible, específica, para detectar residuos. Es de amplio uso para la detección de residuos de validación de limpieza. Es el método cuando los anteriores no pueden ser utilizados. usualmente se parte del método de valoración del activo y se lo adapta al nivel de trazas y luego se valida.

Debemos disponer de procedimientos de limpieza que nos aseguren procesos de limpieza de alta Capacidad y en el caso de sustancias de alta toxicidad, disponer de un monitoreo apropiado de los mismos.

La evaluación de los datos con respecto a la criticidad es esencial y, hasta cierto punto, no es una actividad trivial. Los datos deben evaluarse en particular con respecto a la seguridad del paciente y/o la calidad del producto.

El término “datos críticos” aparece en un solo lugar en las Directrices GMP de la UE:

“4.27 – Debería existir un sistema para indicar observaciones especiales y cualquier cambio en los datos críticos”.

El Anexo 11 de GMP de la UE también menciona datos críticos en un solo lugar.

“6. Chequeos de exactitud: para los datos críticos ingresados ​​manualmente, debe haber una verificación adicional sobre la precisión de los datos”.

Esto proporciona una base legal para revisar la entrada de datos críticos. Por lo tanto, una segunda persona debe verificarlo. Una alternativa sería un sistema computarizado validado.

Ejemplo:

La temperatura se mide en un tanque de agitación. Esta medición es parte del informe de lote y es relevante para la liberación. La temperatura se lee manualmente y se documenta manualmente. En este caso, se requiere una segunda persona para verificar la exactitud de los datos (principio de doble verificación).

O

La temperatura se registra electrónicamente a través de un sistema computarizado y se guarda electrónicamente. En este caso, habría que validar el sistema informático.

Volviendo a la evaluación de la criticidad de los datos: ni la sección 4.27 ni el Anexo 11 (sección 6) proporcionan mucha información sobre qué datos son críticos y cuáles no. No existe una definición legal de datos críticos en el entorno GMP. Si uno observa las diversas directrices y estándares en el área GMP, se puede encontrar una definición de datos críticos en VDI/VDE 3516 Parte 5 sobre “Validación en el entorno GxP – Tipos de datos crudos (raw data)”:

“Datos críticos:

Datos que tienen un impacto potencial en la seguridad del paciente, la calidad del producto y la integridad de los datos”.

Es decisión de la empresa (fabricante de productos medicinales) definir los datos a incluir.

La pregunta crucial es sin duda: ¿Existen datos relevantes para GMP que no sean críticos?

Esto no puede responderse unívocamente a partir del contenido de las bases legales vigentes. Sin embargo, la respuesta es “No”. Sin embargo, existen diferencias en la criticidad de los datos. La Figura 1 muestra un ejemplo correspondiente. Una clasificación de tres niveles tiene sentido:

Todos los datos son relevantes desde el punto de vista GMP, sin embargo varía la criticidad.

La criticidad es alta, media o baja.

PI 041 BUENAS PRÁCTICAS PARA LA GESTIÓN E INTEGRIDAD DE DATOS EN ENTORNOS REGULADOS GMP/GDP proporciona información sobre datos críticos, lo que también demuestra su importancia.

Ejemplo:

“5.4 Criticidad de los datos: por ejemplo: para una tableta oral, los datos del ensayo API generalmente tienen un mayor impacto en la calidad y seguridad del producto que los datos de friabilidad de la tableta”.

El documento destaca la importancia de los datos en términos de su influencia en decisiones como la liberación de lotes.

“5.4 Criticidad de los datos

5.4.1 La decisión en la que influyen los datos puede diferir en importancia y el impacto de los datos en una decisión también puede variar. Los puntos a considerar con respecto a la criticidad de los datos incluyen:

¿En qué decisión influyen los datos?

Por ejemplo: cuando se toma una decisión de liberación de un lote, los datos que determinan el cumplimiento de los atributos críticos de calidad son normalmente de mayor importancia que los registros de limpieza del almacén”.

Tomado de la News Letter de la ECA – 06.02.2019

  • Requerimientos basados en el producto / proceso (pensamiento basado en el producto / proceso)
  • Risk Assessment basado en la seguridad del paciente

Cuando pensamos en Riesgo al producto, debemos considerar la seguridad, identidad, pureza, calidad y potencia del producto.

En cuanto a riesgos del proceso, debemos considerar los parámetros críticos del proceso, como temperaturas, tiempos de operación, presiones, IPCs, etc.

  • Aumento del uso de las GEP (Buenas Prácticas de Ingeniería) – uso del FAT /SAT / Commissioning. Formas de trabajo de ingeniería.
  • Testeos / ensayos de acuerdo al riesgo
  • Reutilización de trabajos previos (ha sido hecho por otros, podemos confiar en otros) – know how, buenas prácticas

Según ISPE:

Requisitos: el URS debe basarse en el proceso y esto se confirma en el PQ (calificación de performance). Esto significa que tanto el IQ como el OQ están subordinados en importancia.

El diseño de experimentos (DOE) es un enfoque estadístico para la optimización de productos y procesos. Consiste en el estudio de distintas situaciones experimentales, que tienen sobre ciertas respuestas cuantitativas de unidades experimentales en observación.

De acuerdo a la definición de Wikipedia, el diseño experimental es una técnica estadística que permite identificar y cuantificar las causas de un efecto dentro de un estudio experimental. En un diseño experimental se manipulan deliberadamente una o más variables, vinculadas a las causas, para medir el efecto que tienen en otra variable de interés. El diseño experimental prescribe una serie de pautas relativas qué variables hay que manipular, de qué manera, cuántas veces hay que repetir el experimento y en qué orden para poder establecer con un grado de confianza predefinido la necesidad de una presunta relación de causa-efecto.

En la Industria farmacéutica actualmente es de suma importancia, constituyendo una parte sumamente importante del desarrollo de productos y la mejora continua del proceso.

¿Qué ventaja aporta el DOE en el desarrollo farmacéutico?

Nos da  la posibilidad de evaluar simultáneamente uno o varios parámetros de entrada, o “factores”, como la temperatura, la materia prima o la concentración, para determinar las condiciones en las que los atributos del producto, o “respuestas”, como el rendimiento, la selectividad o el nivel de impurezas, alcanzan un valor óptimo.

Eventos o pasos del DOE

Todo experimento involucra una serie de eventos:

1.Conjetura: hipótesis original que motiva el experimento ej. Marca de nafta vs rendimiento del coche.

2.Experimento: prueba efectuada para mostrar la conjetura.

3.Análisis: análisis estadístico de los datos obtenidos del experimento.

4.Conclusión: lo que se ha aprendido de la conjetura original con relación al experimento. A menudo conduce a una conjetura nueva.

En un próximo artículo daremos un ejemplo práctico del uso del DOE.

La capacidad del proceso (CP) es simplemente la relación entre la dispersión de los datos del proceso (su variabilidad) y el rango de las especificaciones de ese proceso. Básicamente, es una medida de qué tan bien puede encajar la dispersión de los datos dentro de su rango de especificación. Se dice que un proceso es capaz cuando la extensión de sus datos está contenida dentro de su extensión de especificación. Cuanto menor es la dispersión de los datos del proceso que la dispersión de la especificación, más capaz es un proceso.

Unos de los supuestos para estimar la capacidad del proceso, son que estos cálculos se efectúen con datos que se distribuyan normalmente y que el proceso sea estable (ausencia de tendencias significativas).

Capacidad de proceso de limpieza

Como hemos visto, la capacidad del proceso es una medida importante del desempeño del proceso que es relativamente simple de calcular, ya que solo requiere la media y la desviación estándar de los datos del proceso y los límites de especificación para ese proceso. Por lo tanto, en el caso de un proceso de limpieza, la capacidad del proceso de limpieza se puede calcular a partir de la media y la desviación estándar de los datos de hisopado o enjuague del proceso de limpieza y los límites de limpieza basados ​​en el límite de exposición basado en la salud (HBEL) para los datos de hisopo o enjuague.

Para determinar la capacidad del proceso (CpU) de un proceso de limpieza, los términos de esta ecuación se pueden sustituir con los valores estimados a partir de los datos de limpieza (hisopo o enjuague) y el límite de limpieza basado en HBEL, como se muestra en la ecuación siguiente:

CpUlimpieza = (Límite de limpieza HBEL – Media datos de limpieza) / 3 S datos limpieza

Además, dado que los valores de capacidad del proceso se derivan de la media y la desviación estándar, se pueden calcular los intervalos de confianza superior e inferior para estos índices de capacidad del proceso. En los casos en los que puede haber tamaños de muestra variados o pequeños (p. ej., donde N suele ser < 25), es prudente y se recomienda informar y utilizar el límite de confianza inferior de la CPU de estos cálculos en lugar de solo la propia CPU.

Los softwares estadísticos como por ej. Minitab proporcionan estos valores de ntervalos de confianza para los valores de capacidad del proceso y también puede informar la cantidad esperada de fallas de un millón según el análisis de capacidad del proceso.

Capacidad de proceso de datos no normales

Como dijimos antes, partimos de la suposición de que los datos del proceso tienen una distribución normal, sin embargo no todos los datos de limpieza siguen una distribución normal. Por ejemplo, mientras que los datos de hisopos para el análisis de carbono orgánico total con frecuencia se distribuyen normalmente, los datos de HPLC con frecuencia no lo hacen. Antes de realizar cualquier análisis estadístico de los datos de limpieza, es importante determinar si los datos se distribuyen normalmente o no. Si los datos de limpieza no se distribuyen normalmente, se pueden utilizar distintas opciones para normalizarlos (ver el artículo: sus datos siguen una distribución Normal?).

Conclusión

Cada vez son más las compañías farmacéuticas que trabajan y entienden la importancia de analizar la capacidad de sus procesos. Entienden que valores < 1 son poco deseables y buscar obtener valores > 1,33 (equivalente a 4 sigmas).

Cuando pensamos en valores capacidad buscamos alcanzar valores mucho más altos y alcanzables. Evaluar la capacidad del proceso,  nos permite conocerlo y además estimar cual es el riesgo para el paciente debido al arrastre de residuos y a partir del mismo alinearnos con el segundo principio de la ICH Q9, el nivel de esfuerzo debería ser proporcional al nivel de riesgo.

La industria todavía está esperando el nuevo Anexo 1 de la directriz GMP de la UE, y todavía se especula sobre el tiempo de implementación después de la publicación. La última información disponible es que una versión final probablemente esté con los organismos responsables de la Comisión Europea para su firma.

Pero eso no impide que la industria se prepare para la publicación. Ya podría leer sobre el nuevo requisito para una estrategia para las medidas de control de la contaminación definidas en el Anexo 1 revisado.

  • Una pauta,
  • Una plantilla,
  • Un ejemplo de un análisis GAP y
  • Una descripción general de documentos útiles y pautas oficiales

Y lo puso todo a disposición de todas las partes interesadas de forma gratuita.

Con base en la información actualmente disponible en el Anexo 1 y en algunas sugerencias y comentarios recibidos después de la publicación de la primera versión de la Guía de estrategia de control de la contaminación, el Anexo 3 de este documento de orientación ahora se ha revisado para que sea más claro y fácil de entender en algunos lugares.

Las actualizaciones más importantes de la Guía CCS Anexo 3

El Anexo 3 comprende la “Plantilla para el Documento de Estrategia de Control de Contaminación (ejemplo)”. Se han modificado los siguientes puntos:

  • 0.2 Nuevo: Se recomienda que el documento CCS sea aprobado, revisado y actualizado de manera continua. Si corresponde, el documento podría incluirse en el Archivo Maestro del Sitio. Para una instalación en construcción o una importante renovación o desarrollo de una instalación, se debe considerar la utilidad de incluir el CCS en la documentación del proyecto.
  • 1.1 Los Procesos: Actualización de la lista de posibles contenidos adecuados
  • 1.2 General: Actualización de la lista de posibles temas
  • 11 Validación del proceso: La nota sobre Validación de limpieza se ha movido de capítulo
  • 13 Limpieza y Desinfección – Explicación actualizada
  • 14.2.1 Medio ambiente: La explicación se ha complementado y aclarado.
  • 16 Mejora continua en base a la información derivada de lo anterior: Se actualizó y complementó la explicación.

Si se publican versiones adicionales del Anexo 1 o del documento final, por supuesto, seguirán las actualizaciones.

También se puede encontrar más información y la descarga de la guía en el sitio web de la Fundación ECA

Normalmente asumimos que nuestros datos siguen una distribución Normal, pero en realidad, no es siempre así. Obtenemos un resultado, por ejemplo, en el cálculo del Cpk, y no sospechamos que tal vez, no estén reflejando la realidad. Cuanto más se aparten nuestros datos de la Normalidad, cuando esta sea un requisito del modelo estadístico, aumentará el error de los mismos, y nos alejaremos de las buenas decisiones.
Analicemos este grupo de datos
96, 95, 97, 95, 95, 97, 102, 100, 101, 103, 105, 106, 103, 102, 100, 103, 102, 103, 104 y 105
Nota: Respetar el orden de los datos
¿Cómo verificamos si estos datos siguen una distribución normal?
a. Realizando, por ejemplo, la Prueba de normalidad de Kolmogorov – Smirnov (KS).
i. H0: La distribución es Normal (Hipótesis nula)
H1: La distribución no es Normal (Hipótesis alternativa)
ii. Si trabajamos con un intervalo de confianza de 95 %, nuestro α será 0,05.
iii. Tomaremos el p-valor como prueba estadística
iv. La regla de decisión
Si el valor p, de esta prueba, es menor que el nivel de significancia elegido (α =0,05), se rechaza H0 (se acepta H1), y se concluye que se trata de una población No Normal. Si no podemos rechazar la H0, asumiremos que la distribución es Normal
v. Tomar la decisión de aceptar o rechazar H0.
¿Cómo lo hacemos en Minitab?
a. Cargamos una columna con los datos a verificar en la planilla Minitab
b. Seleccionamos la ruta descripta en la figura siguiente

c. Aceptando en Test de Normalidad, se abre el siguiente cuadro de diálogo.

Completamos la variable seleccionada, en nuestro caso es la columna 1 (C1)
Elegimos el test seleccionado (KS),
Colocamos el título
Hacemos click el OK
Aparece el siguiente gráfico

El Valor p es menor que α (0,05), por lo tanto, rechazamos la H0, No es una distribución Normal.
Si la distribución debe ser Normal, como requisito para el modelo estadístico que vamos a utilizar, debemos intentar normalizar los datos.
Utilizaremos la transformación de Box Cox
Seleccionamos la ruta descripta en la figura siguiente

Aceptando en Test de Box Cox.
Se abre el siguiente cuadro de diálogo:

Seleccionamos la columna a analizar
Hacemos click en Opciones (abre el 2do cuadro de diálogo)

Elegimos la columna donde salvar los nuevos datos
Seleccionamos el Lamda óptimo
Hacemos click el OK en los 2 cuadros de diálogos

Nos aparece la columna 2 (C2) con los datos transformados y el gráfico de la variación de Lamda,

Volvemos a realizar el test de normalidad
Realizamos el ensayo de Normalidad, pero sobre la columna de datos transformados.

El Valor p es igual que α (0,05), por lo tanto, No rechazamos la H0, asumimos que se Normalizó la distribución.

Ahora si podemos efectuar el cálculo de la capacidad del proceso con los datos normalizados.

Espero que les haya resultado útil.

La FDA actualiza la guía sobre la investigación de resultados de testeos fuera de especificación (OOS) para la producción farmacéutica

En mayo de 2022, la Administración de Drogas y Alimentos de los EE. UU. (FDA) publicó una nueva versión (Revisión 1) de su Guía para la industria sobre resultados fuera de especificación (OOS). La versión original del documento se publicó hace casi 16 años, en octubre de 2006.

La definición de “OOS” no ha cambiado.

Según la FDA, “a los efectos de este documento, el término resultados OOS incluye todos los resultados de los testeos que no cumplen las especificaciones o los criterios de aceptación establecidos en las especificaciones de medicamentos. El término también se aplica a todas las pruebas de laboratorio en proceso que están fuera de las especificaciones establecidas”.

En comparación con la versión 2006, se han realizado los siguientes ajustes:

Cambios editoriales menores

El término “unidad de control de calidad (QCU)” fue reemplazado por “unidad de calidad (QU)”

Adición y actualización de referencias en el cuerpo del texto y notas al pie para hacer referencia a la última versión de otras directrices relevantes, capítulos de USP, párrafos de CFR, etc.

Además, cabe mencionar los siguientes cambios:

En el apartado IV.C.2., se modifica la redacción de “Pruebas de valores atípicos” de la siguiente manera:

Versión de octubre de 2006: “Ocasionalmente, una prueba de valores atípicos puede tener algún valor para estimar la probabilidad de que el resultado OOS sea discordante de un conjunto de datos, y esta información se puede usar de manera auxiliar, junto con todos los demás datos de la investigación, para evaluar la importancia del resultado”.

Versión de mayo de 2022: “Ocasionalmente, una prueba de valores atípicos puede ser de algún valor para comprender cuán discordante es un resultado de un conjunto de datos, pero puede usarse únicamente con fines informativos en el curso de una investigación para determinar la distancia de un resultado del significado.”

En la sección V.B., dos subtítulos

1. Promediar los resultados de varias preparaciones de muestras a partir de la muestra original y

3. Resultados limítrofes que están dentro de las especificaciones) se han añadido al texto existente.

En el medio, una nueva subsección:

2. Resultados promedio de la misma preparación de muestra final

se agregó, indicando que “puede haber casos en los que el método de prueba especifique criterios de aceptación apropiados para la variabilidad y un número predefinido de réplicas de la solución de muestra diluida final para llegar a un resultado. Por ejemplo, un método de prueba de HPLC puede especificar tanto criterios de aceptación para la variabilidad y que se determine un único resultado notificable promediando la respuesta máxima de un número de inyecciones repetidas consecutivas del mismo vial de prueba. En estos casos, y dado que se cumplen los criterios de aceptación para la variabilidad, el resultado de cualquier la replicación en sí misma no debe hacer que el resultado notificable sea OOS”.

El documento de final de la Guía (Revisión 1, mayo de 2022), puede ser descargado desde la página de inicio de la FDA.

Pubicado por ECA en su News Letter – 25/5/2022.

Durante su visita a un laboratorio contratado de EE. UU., los inspectores de la FDA encontraron violaciones básicas de GMP en las siguientes áreas:

  • Manejo de resultados OOS (21 CFR 211.192).
  • Falta de verificación de los métodos de prueba (21 CFR 211.165(e))
  • Falta de integridad de los datos electrónicos (21 CFR 211.68(b))

Una mirada más cercana a las deficiencias descritas arrojará luz sobre por qué violan las reglas básicas de GMP en el laboratorio y por qué las respuestas de la empresa se consideraron inadecuadas, lo que finalmente condujo al envío de esta WL.

Manejo de resultados OOS

Después de que una prueba analítica arrojara resultados OOS, las mediciones se llevaron a cabo con una nueva preparación de muestra. De acuerdo con los procedimientos compatibles con GMP, primero se debería haber llevado a cabo una investigación de causa raíz para aclarar el motivo de los resultados OOS. Al revisar los documentos, los inspectores de la FDA también notaron que el SOP para el manejo de los resultados de OOS no contenía ninguna regulación correspondiente y obviamente le dio libertad al personal del laboratorio para proceder con tales casos, lo cual no es compatible con las reglas de GMP.

Los requisitos para manejar los resultados OOS se describen en la Guía para la investigación de resultados de pruebas fuera de especificación (OOS) de la industria para la producción farmacéutica.

La respuesta del laboratorio contratado a esta carta de deficiencia se limitó a afirmar que el SOP se había actualizado en consecuencia. Sin embargo, la FDA consideró inadecuada esta respuesta debido a que aún faltan regulaciones sobre la invalidación de los resultados de OOS. Además, no se realizó una revisión retrospectiva que pudiera haber servido como evidencia para identificar e investigar completamente todos los resultados de OOS.

Falta de verificación de los métodos de prueba

El laboratorio siempre utilizó el mismo método analítico para la determinación del contenido de la sustancia activa en productos terminados con diferentes formulaciones, sin proporcionar evidencia en cada caso de que el método también era adecuado para este propósito. De la misma manera, es decir, sin prueba de idoneidad, también se utilizaron los mismos métodos de la farmacopea para probar microorganismos en diferentes productos.

La FDA consideró que los datos obtenidos con los métodos de prueba no estaban libres de errores (precisos) y calificó como inadecuado el marco de tiempo dado en la respuesta para la realización posterior de los estudios de verificación del método.

Falta de integridad de los datos electrónicos

Los inspectores de la FDA encontraron que no se cumplían dos requisitos fundamentales de GMP relacionados con el manejo de datos electrónicos:

  • Control de acceso a los datos electrónicos
  • Audit Trail

El acceso a estos datos no estaba adecuadamente protegido, es decir, era posible eliminar registros. Además, no había rastro de auditoría en el software de procesamiento de datos de HPLC y cromatografía de gases y, por lo tanto, no había control sobre la posible manipulación de datos.

En sus comentarios a la FDA, la empresa aseguró que se había contactado a los fabricantes de los sistemas de cromatografía para actualizar el software en consecuencia. Sin embargo, dado que no se llevó a cabo una evaluación de estos sistemas con respecto a posibles eliminaciones de datos y riesgos potenciales para la calidad de los productos finales, la FDA también calificó estos comentarios como “inadecuados”.

Después de la descripción de las violaciones de GMP, la carta de advertencia contiene una breve sección sobre la opinión de la FDA sobre las responsabilidades de un laboratorio contratado. La declaración central de este pasaje es:

La FDA considera que el contratista es una extensión del sitio de producción del cliente. Las deficiencias de GMP en el contratista, por lo tanto, en principio, suponen un riesgo para la calidad de los medicamentos del cliente. De ello, la FDA deriva la obligación urgente de que el contratista informe a sus clientes de forma inmediata y completa sobre problemas con las analíticas.

Tomado del boletín de GMP de ECA – Abril 2022.