La FDA actualiza la guía sobre la investigación de resultados de testeos fuera de especificación (OOS) para la producción farmacéutica

En mayo de 2022, la Administración de Drogas y Alimentos de los EE. UU. (FDA) publicó una nueva versión (Revisión 1) de su Guía para la industria sobre resultados fuera de especificación (OOS). La versión original del documento se publicó hace casi 16 años, en octubre de 2006.

La definición de “OOS” no ha cambiado.

Según la FDA, “a los efectos de este documento, el término resultados OOS incluye todos los resultados de los testeos que no cumplen las especificaciones o los criterios de aceptación establecidos en las especificaciones de medicamentos. El término también se aplica a todas las pruebas de laboratorio en proceso que están fuera de las especificaciones establecidas”.

En comparación con la versión 2006, se han realizado los siguientes ajustes:

Cambios editoriales menores

El término “unidad de control de calidad (QCU)” fue reemplazado por “unidad de calidad (QU)”

Adición y actualización de referencias en el cuerpo del texto y notas al pie para hacer referencia a la última versión de otras directrices relevantes, capítulos de USP, párrafos de CFR, etc.

Además, cabe mencionar los siguientes cambios:

En el apartado IV.C.2., se modifica la redacción de “Pruebas de valores atípicos” de la siguiente manera:

Versión de octubre de 2006: “Ocasionalmente, una prueba de valores atípicos puede tener algún valor para estimar la probabilidad de que el resultado OOS sea discordante de un conjunto de datos, y esta información se puede usar de manera auxiliar, junto con todos los demás datos de la investigación, para evaluar la importancia del resultado”.

Versión de mayo de 2022: “Ocasionalmente, una prueba de valores atípicos puede ser de algún valor para comprender cuán discordante es un resultado de un conjunto de datos, pero puede usarse únicamente con fines informativos en el curso de una investigación para determinar la distancia de un resultado del significado.”

En la sección V.B., dos subtítulos

1. Promediar los resultados de varias preparaciones de muestras a partir de la muestra original y

3. Resultados limítrofes que están dentro de las especificaciones) se han añadido al texto existente.

En el medio, una nueva subsección:

2. Resultados promedio de la misma preparación de muestra final

se agregó, indicando que “puede haber casos en los que el método de prueba especifique criterios de aceptación apropiados para la variabilidad y un número predefinido de réplicas de la solución de muestra diluida final para llegar a un resultado. Por ejemplo, un método de prueba de HPLC puede especificar tanto criterios de aceptación para la variabilidad y que se determine un único resultado notificable promediando la respuesta máxima de un número de inyecciones repetidas consecutivas del mismo vial de prueba. En estos casos, y dado que se cumplen los criterios de aceptación para la variabilidad, el resultado de cualquier la replicación en sí misma no debe hacer que el resultado notificable sea OOS”.

El documento de final de la Guía (Revisión 1, mayo de 2022), puede ser descargado desde la página de inicio de la FDA.

Pubicado por ECA en su News Letter – 25/5/2022.

Durante su visita a un laboratorio contratado de EE. UU., los inspectores de la FDA encontraron violaciones básicas de GMP en las siguientes áreas:

  • Manejo de resultados OOS (21 CFR 211.192).
  • Falta de verificación de los métodos de prueba (21 CFR 211.165(e))
  • Falta de integridad de los datos electrónicos (21 CFR 211.68(b))

Una mirada más cercana a las deficiencias descritas arrojará luz sobre por qué violan las reglas básicas de GMP en el laboratorio y por qué las respuestas de la empresa se consideraron inadecuadas, lo que finalmente condujo al envío de esta WL.

Manejo de resultados OOS

Después de que una prueba analítica arrojara resultados OOS, las mediciones se llevaron a cabo con una nueva preparación de muestra. De acuerdo con los procedimientos compatibles con GMP, primero se debería haber llevado a cabo una investigación de causa raíz para aclarar el motivo de los resultados OOS. Al revisar los documentos, los inspectores de la FDA también notaron que el SOP para el manejo de los resultados de OOS no contenía ninguna regulación correspondiente y obviamente le dio libertad al personal del laboratorio para proceder con tales casos, lo cual no es compatible con las reglas de GMP.

Los requisitos para manejar los resultados OOS se describen en la Guía para la investigación de resultados de pruebas fuera de especificación (OOS) de la industria para la producción farmacéutica.

La respuesta del laboratorio contratado a esta carta de deficiencia se limitó a afirmar que el SOP se había actualizado en consecuencia. Sin embargo, la FDA consideró inadecuada esta respuesta debido a que aún faltan regulaciones sobre la invalidación de los resultados de OOS. Además, no se realizó una revisión retrospectiva que pudiera haber servido como evidencia para identificar e investigar completamente todos los resultados de OOS.

Falta de verificación de los métodos de prueba

El laboratorio siempre utilizó el mismo método analítico para la determinación del contenido de la sustancia activa en productos terminados con diferentes formulaciones, sin proporcionar evidencia en cada caso de que el método también era adecuado para este propósito. De la misma manera, es decir, sin prueba de idoneidad, también se utilizaron los mismos métodos de la farmacopea para probar microorganismos en diferentes productos.

La FDA consideró que los datos obtenidos con los métodos de prueba no estaban libres de errores (precisos) y calificó como inadecuado el marco de tiempo dado en la respuesta para la realización posterior de los estudios de verificación del método.

Falta de integridad de los datos electrónicos

Los inspectores de la FDA encontraron que no se cumplían dos requisitos fundamentales de GMP relacionados con el manejo de datos electrónicos:

  • Control de acceso a los datos electrónicos
  • Audit Trail

El acceso a estos datos no estaba adecuadamente protegido, es decir, era posible eliminar registros. Además, no había rastro de auditoría en el software de procesamiento de datos de HPLC y cromatografía de gases y, por lo tanto, no había control sobre la posible manipulación de datos.

En sus comentarios a la FDA, la empresa aseguró que se había contactado a los fabricantes de los sistemas de cromatografía para actualizar el software en consecuencia. Sin embargo, dado que no se llevó a cabo una evaluación de estos sistemas con respecto a posibles eliminaciones de datos y riesgos potenciales para la calidad de los productos finales, la FDA también calificó estos comentarios como “inadecuados”.

Después de la descripción de las violaciones de GMP, la carta de advertencia contiene una breve sección sobre la opinión de la FDA sobre las responsabilidades de un laboratorio contratado. La declaración central de este pasaje es:

La FDA considera que el contratista es una extensión del sitio de producción del cliente. Las deficiencias de GMP en el contratista, por lo tanto, en principio, suponen un riesgo para la calidad de los medicamentos del cliente. De ello, la FDA deriva la obligación urgente de que el contratista informe a sus clientes de forma inmediata y completa sobre problemas con las analíticas.

Tomado del boletín de GMP de ECA – Abril 2022.

Un paradigma es un conjunto de prácticas que definen una disciplina científica durante un tiempo y proporcionan modelos de problemas y soluciones para una comunidad de profesionales.

El mayor obstáculo para un cambio de paradigma es la incapacidad o la negativa a ver más allá de los actuales modelos de pensamiento. Esto se conoce como Parálisis de Paradigma.

En muchas empresas, vemos que la cultura de cumplimiento es el modelo actual de pensamiento. La cultura de cumplimiento implica aquí que la empresa está obsesionada con tener suficientes “papeles” para demostrar que los operadores siguen un SOP, y que hay X número de horas de entrenamiento, que hay dos firmas que avalan la limpieza de un reactor, etc., y esta cultura de cumplimiento, tal como se describe aquí, es una barrera para el cambio de paradigma, hacia una cultura centrada en la protección de los pacientes a través de la elaboración de medicamentos seguros y eficaces. Este nuevo paradigma tiene que convertirse en la solución para la excelencia en la fabricación de nuestros medicamentos.

Tener una cultura de calidad centrada en el paciente tiene que ver con la protección de la vida del paciente. Repetición ciega de procedimientos normalizados de trabajo sin entender por qué han de ser seguidos no beneficiará al paciente en el largo plazo. Los colaboradores deben comprender los fundamentos de sus tareas, de esa forma entenderán la importancia y el impacto de las mismas.

Entrénelos, pero no busque solo cumplir con el requisito de la norma, el valor agregado del entrenamiento es la adquisición de conocimiento, repasar conceptos, despejar dudas, un personal entrenado performa mejor que uno no entrenado.

El PIC/S (Pharmaceutical Inspection Co-operation Scheme) ya publicó una nueva versión de su Guía GMP PE016 en febrero. Esto se debe a la revisión del Reglamento de la UE nº 536/2014 sobre ensayos clínicos. El Anexo 13 del documento PIC/S ahora también se ha adaptado a esto. Esto está en línea con el acuerdo de cooperación entre PIC/S y EMA, que estipula que las guías PIC/S y EU GMP deben estar alineadas.

El Anexo 16 de la Guía PIC/S es nuevo. Describe la certificación por parte de la Persona Calificada y la liberación del lote. El Anexo 16 análogo de la Guía GMP de la UE no se incluyó en el documento PIC/S en 2016 porque el PIC/S consideró que el Anexo 16 era demasiado específico de la UE, especialmente porque la Guía PIC/S GMP se limita a la fabricación de medicamentos y no a la importación y distribución. Sin embargo, luego de una consulta con las autoridades del PIC/S en 2017, se acordó intentar implementar el Anexo 16 de la UE. El PIC/S también acordó que el elemento del Anexo 16 relacionado con los medicamentos importados es voluntario y depende de la legislación nacional.

La Guía GMP revisada (PE 009-16) con el Anexo 13 revisado y el nuevo Anexo 16 ya están vigentes y disponibles en el sitio PIC/S.

Publicado en News Letter GMP ECA 16/3/2022

En los últimos años, el tema de la integridad de los datos ha generado una mayor actividad entre las autoridades internacionales, lo que ha dado lugar a numerosas directrices emitidas por estas instituciones. Entre otros, la OMS (Organización Mundial de la Salud) publicó en la Serie de Informes Técnicos, No. 996, 2016, como Anexo 5 una “Orientación sobre buenas prácticas de gestión de datos y registros”.

En 2021, la OMS reemplazó esta guía en la Serie de Informes Técnicos, No. 1033, 2021, con la “Pauta sobre integridad de datos” con la siguiente estructura:

Introducción y antecedentes
Alcance
Glosario
Dato de governancia
Gestión de riesgos de calidad
Revisión de gestión
Subcontratación
Capacitación
Datos, transferencia de datos y procesamiento de datos
Buenas practicas de documentacion
Sistemas informatizados
Revisión y aprobación de datos
Acciones correctoras y preventivas
preferencias
Otras lecturas
Apéndice 1 – Ejemplos de gestión de integridad de datos
Con esta nueva versión de la directriz, la OMS intenta armonizar el documento con otras directrices internacionales sobre integridad de datos, incluida la “Guía y definiciones de integridad de datos MHRA GxP, revisión 1”, la “Guía de la FDA para la industria. Integridad de datos y cumplimiento de CGMP – preguntas y respuestas” y las “Buenas prácticas PIC/S para la gestión e integridad de datos en entornos GMP/GDP”.

Enfoque en el gobierno de datos
El gobierno de datos se trata de manera muy extensa. En particular, se enfatiza la responsabilidad de la alta dirección en la implementación del sistema y la normativa. Los contenidos de dicho programa de gobierno de datos se describen en detalle:

Vigilancia y compromiso de la dirección
Aplicación de la Gestión de Riesgos de Calidad
Cumplimiento de la legislación de protección de datos y mejores prácticas
Políticas y procedimientos de calificación y validación
Gestión de cambios, incidencias y desviaciones
Clasificación de datos, confidencialidad y privacidad
Seguridad, ciberseguridad, control de acceso y configuración
Creación de base de datos, recopilación de datos, revisión de datos, datos ciegos y aleatorización
Seguimiento, tendencias e informes de anomalías, lapsos o fallas en la integridad de los datos para acciones posteriores
Prevención de presiones comerciales, políticas, financieras u organizativas
Recursos y sistemas adecuados
Carga de trabajo e instalaciones para facilitar el entorno adecuado que respalde la integridad de los datos y los controles efectivos
Supervisión
Mantenimiento de registros
Capacitación
Conciencia de la importancia de la integridad de los datos, la calidad del producto y la seguridad del paciente
En definitiva, el documento es una directriz más que se suma a las diversas directrices anteriores sobre integridad de datos.

News Letter ECA – 2/3/2022.

El año pasado, dicté algunos talleres de estadística y como siempre me gusta intercambiar ideas con los participantes, siempre aprendo algo nuevo de esas discusiones.

Uno de los participantes me comentaba que utilizaba para la construcción de las cartas de control de datos individuales el software Excel, a lo cual le dije que el Excel es una de las alternativas en el caso de no disponer algún software como por ejemplo Minitab.

Cuando hablamos sobre la forma de calcular los límites de control de las cartas individuales me dijo que lo hacía de la siguiente manera:

Límite inferior de carta de control: LCI = Xmedia – 3 DS

Límite superior de carta de control: LCS = Xmedia + 3 DS

Donde Xmedia es la media estimada del conjunto de datos y DS es la desviación estándar de ese mismo conjunto de datos.

Lo anterior es un enfoque correcto para calcular los límites del gráfico de control. La media estimada es simplemente la media del conjunto de datos, formada sumando los puntos de datos en el conjunto de datos y dividiendo por la cantidad de puntos de datos en el conjunto de datos. La desviación estándar estimada se calculó utilizando la desviación estándar de la muestra. En Microsoft Excel esto se obtiene usando la función STDEV y se calcula fácilmente. Aunque este no es el enfoque correcto.

El problema con el uso de la función STDEV de la muestra es que no tiene en cuenta la secuencia temporal de los datos. No importa cómo mezcle un conjunto de datos, seguirá teniendo la misma desviación estándar de la muestra. Entonces, lo que se requiere es una estimación de la desviación estándar que tenga en cuenta la secuencia de tiempo de los datos. En la práctica, esto se hace utilizando el rango móvil de los datos. Para dos puntos de datos consecutivos, el rango móvil es la diferencia absoluta entre los dos puntos de datos. Entonces, si el conjunto de datos tenía N puntos de datos, tendrá N-1 valores de rango móvil. La desviación estándar del conjunto de datos se puede estimar como:

DS = MediaRM / 1,128

Donde MediaRM es el promedio de los N-1 rangos móviles.

Cuando los datos se volvieron a representar en gráficos de control con los límites de control adecuados, las señales de fuera de control fueron claras.

Como nota al margen, el otro problema con el enfoque del graduado de MBA es que nunca construyó el gráfico de rango móvil, que es una serie de tiempo de los valores del rango móvil con un límite de control apropiado. En general, se acepta que es valioso mirar este gráfico, porque representa los mismos datos de una manera diferente y brindará otra vista de lo que está sucediendo en el proceso. Es fácil de construir con un software como Minitab junto con la tabla de valores individuales

Les dejo un ejemplo (figura 1) donde ingresamos 50 datos individuales en Minitab y luego graficamos la carta de control I-RM (datos individuales – rango móvil).

De forma paralela ingresamos esos mismo datos en una planilla Excel y calculamos el valor promedio y la desviación estándar.

Podemos observar que los límites de control de la carta con Excel son más amplios debido a que el valor de desviación estándar calculado por Excel es mayor al calculado por Minitab de acuerdo a lo indicado anteriormente, por lo tanto los valores individuales que en la carta de control con minitab dieron fuera de control, en la carta construida con Excel están dentro de los limites.

La carta de valores individuales tiene límites de control más sensibles al cambio.

Otro tema a tener en cuenta es la construcción del gráfico de rango móvil, sumamente importante para ver las variaciones individuales a lo largo del proceso.

Figura 1

Cálculo x Excel

Promedio: 79,74

Desviación estándar: 2,5055856

LCS: 87,26

LCI: 72,22

A veces monitoreamos una medida a una frecuencia más baja de lo que es posible. Esto reduce la utilidad de la medida. La motivación para esto suele ser que ya tenemos reuniones semanales o mensuales para revisar las medidas y simplemente organizamos los datos en torno a esta frecuencia. Por lo tanto, controlamos los datos de los gráficos que se agregan a partir de un conjunto de datos más granular. Además, pensamos que las personas que miran los datos no estarán interesadas en los datos con mayor frecuencia. Sin embargo, cuando hacemos esto, podemos perder información significativa sobre el comportamiento actual y pasado de la medida que se está evaluando. Esto puede conducir a conclusiones incorrectas sobre lo que deberíamos estar haciendo con respecto a esta medida.

Como ejemplo, buscamos un conjunto de datos que representan el tiempo de proceso para un determinado producto. Los datos se promedian durante un período de tiempo mensual y se revisan en una reunión mensual. El gráfico de control de los datos durante un período de 12 meses se muestra en la figura 1.

La figura 1 sugiere que podría haber una tendencia al alza, pero los datos no son concluyentes. Los datos no rompen ninguna regla de tendencia estadística, lo que no sorprende porque solo tenemos 12 puntos de datos. Se fabrican aproximadamente de 3 a 4 lotes de productos por mes, por lo que si observáramos los datos por lote, inmediatamente obtendríamos muchos más datos. El cuadro de control lote por lote se muestra en la figura 2.

Ahora tenemos 40 puntos de datos en lugar de 12. El comportamiento del tiempo de proceso ahora es mucho más claro.

Hemos tenido básicamente tres regiones de comportamiento durante el último año. Hay los siguientes:

Región 1: del lote 1 al lote 18. Tiene dos puntos de causa especial en el lote 11 y el lote 14 (en la gráfica solo hemos considerado la regla 1 de Shewhart). El promedio de los datos fue 39,0.

Región 2: del lote 19 al lote 30. No hay señales de causa especial. El promedio de los datos del período fue 52,1.

Región 3: del lote 31 al lote 40. Parece que las últimas 3 o 4 pérdidas de estos datos tienen una tendencia alcista.

Podemos ver en la figura 2 que la tendencia que sospechamos en la figura 1 se parece más a un cambio de paso en el lote 19. Por lo tanto, deberíamos preguntarnos qué cambió en el proceso entre los lotes 18 y 19. De manera similar, deberíamos preguntarnos qué cambió entre los lotes. 30 y 31 y lo que cambia entre los lotes 37 y 38. Ninguna de estas preguntas se haría si solo miramos la figura 1.

Por lo tanto, nos estamos perdiendo una gran cantidad de comportamiento del proceso al observar solo los datos promedio mensuales.

La lección aprendida es que no debemos agrupar datos al construir un gráfico de control. Se deben utilizar los datos más granulares disponibles.

Figura 1

Figura 2

Este artículo fue adaptado del artículo de John McConnell, Brian Nummally y Bernard McGarvey publicado IVT.

Esto que les cuento, me sucedió cuando trabajando en la Industria estaba a cargo de las elaboraciones en el laboratorio.

Un día recorriendo la planta, puede ver que uno de los colaboradores (recién capacitado) estaba limpiando manualmente un reactor de elaboración y noté un gran volumen de espuma, yo diría inusual, que se derramaba desde el tanque.
Cuando le pregunté al operador: “¿Por qué tanta espuma?” , me respondió que el reactor estaba muy sucio con restos de producto, así que pensó en agregarle más detergente ayudaría con la limpieza. Cuando le recordé sobre la capacitación reciente y la necesidad de usar cantidades exactas de detergente de acuerdo a lo indicado en el procedimiento, el técnico respondió que no creía que la cantidad de detergente fuera parte de la discusión. El pensó que el agregado de detergente dependía completamente de él, y me dijo que el creía hacer lo necesario para lograr que el trabajo estuviera bien hecho.

A pesar de que la capacitación se llevó a cabo explicando la importancia de seguir las instrucciones del procedimiento de limpieza de manera exacta, el operador siguió su método habitual de limpieza: “hacer lo que sea necesario”.
Conclusión: efectué un entrenamiento con el personal para utilizar este ejemplo y reforzar el concepto de seguir las instrucciones de forma exacta, fundamentalmente porque el procedimiento está validado y cualquier cantidad adicional del detergente incorporado podría dejar restos del detergente luego de la limpieza que podrían afectar la calidad del producto siguiente y que toda necesidad de corrección (ante error) o de mejora propuesta, debe ser canalizada a través del sistema de control de cambios.

Los requisitos para la validación de la limpieza no están muy claramente definidos en las normas GMP de EE. UU. 21 CFR 210/211. Incluso una Guía de inspección de la década de 1990 sobre este tema no representa la interpretación actual de la FDA. Las cartas de advertencia actuales sobre el tema de la validación de la limpieza pueden ayudar, como la emitida a un fabricante de medicamentos coreano de productos de venta libre.

Requisitos de la FDA en términos de validación de limpieza
La FDA criticó la falta total de una validación de limpieza, a pesar de que se utilizan equipos polivalentes en los que también se fabrican productos no farmacéuticos. La FDA señala explícitamente que los residuos químicos y microbiológicos pueden generar problemas con los medicamentos fabricados en estas instalaciones. Ahora se exige un programa de validación de limpieza correspondiente para todos los productos exportados a los EE. UU., nombrando las condiciones del “peor de los casos”. Los siguientes deben ser considerados como “los peores casos:

* Medicamentos con toxicidades más altas
* Medicamentos con mayor contenido de principio activo
* Medicamentos con baja solubilidad en el reactivo de limpieza
* Medicamentos con propiedades que los hacen difíciles de limpiar
* Limpie los sitios de muestreo en los lugares que son más difíciles de limpiar
* Tiempo de espera antes de limpiar
* Descripción general de los SOP actualizados para garantizar que se implemente un programa adecuado de verificación y validación del proceso de limpieza para productos, procesos y equipos.

Además, la FDA exige que se tomen las medidas necesarias en el sistema de gestión de cambios antes de que se pueda introducir un nuevo equipo o producto de fabricación.

También se puede encontrar más información en la Warning Letter de la FDA a Cosmo Bio Co. Ltd.
Publicado en la News letter GMP de la ECA (Febrero/2022)

Las decisiones sobre la calidad y la capacidad de fabricación de los productos comerciales se basan invariablemente en los datos de Control de Calidad recopilados en el laboratorio para ese producto. Los valores obtenidos para la disolución, la valoración,  la uniformidad del contenido, etc. se utilizan para decidir si se libera un lote, se realiza un análisis de tendencia y se determina la capacidad del proceso. Se utilizan para decidir si un proceso está produciendo lotes dentro de las especificaciones o si probablemente producirá lotes que serán rechazados o retirados. Estas son decisiones comerciales importantes y costosas. Es imperativo que los datos utilizados para tomar estas decisiones sean confiables. El MSA se utiliza para conocer el nivel de variabilidad atribuible al método analítico. Si la variabilidad es alta, los esfuerzos para mejorar la capacidad del proceso deficiente deben centrarse en el método analítico, no en las investigaciones de las mejoras del proceso. MSA, también denominado Gage R & R, y es aplicable a cualquier sistema de medición que proporcione mediciones numéricas o datos de atributos. Los ejemplos de mediciones numéricas incluyen, entre otros, valoración, disolución, peso de un producto y distribución del tamaño de partícula. Los ejemplos de pruebas de atributos incluyen, entre otros, por ej. pruebas del tipo pasa o falla. MSA puede usarse para nuevos métodos en desarrollo para comprender mejor las diferentes fuentes de variabilidad en el método o puede usarse para mejorar los métodos existentes para los cuales se ha observado una variabilidad excesiva. Un MSA también puede usarse como parte de un proyecto de mejora para garantizar que el sistema de medición sea lo suficientemente capaz como para permitir la detección de los cambios buscados en el esfuerzo de mejora o como parte de una actividad de Transferencia Tecnológica de un laboratorio a otro.

La variabilidad en los resultados de una prueba analítica es causada por una combinación de la variabilidad entre las muestras que se están probando y la variabilidad causada por el método analítico. Además, todos los sistemas de medición contendrán un nivel de variabilidad que provocará que algunos resultados sean diferentes del verdadero valor de la muestra que se está midiendo. Se puede utilizar un estudio de análisis del sistema de medición para estimar y comparar la variabilidad del método con la variabilidad de lote a lote o proceso, y para determinar si el sistema de medición es adecuado para el proceso para el que se utiliza. El exceso de variabilidad de medición puede estar indicado cuando la variabilidad general en los resultados de la prueba es alta, lo que puede llevar a que algunos resultados estén cerca o fuera de los límites de especificación. El exceso de variabilidad del método también se puede observar a partir de los datos de estabilidad. El perfil de estabilidad, ya sea creciente, decreciente o plano, debe mostrar una curva suave a lo largo del tiempo. Un perfil desigual puede sugerir que la variabilidad del método es demasiado alta, por lo que no se puede observar el verdadero perfil de estabilidad. Un estudio de MSA mostrará si la alta variabilidad es causada por el proceso o el método de prueba. Cuando hay una alta variabilidad en el método de prueba, los resultados de MSA pueden resaltar las fuentes de mayor variabilidad dentro del método de prueba. Esto puede permitir el trabajo de mejora para reducir la variabilidad general en el método.