Archivo bajo la Categoria ‘Archivos Varios’

El diseño de experimentos (DOE) es un enfoque estadístico para la optimización de productos y procesos. Consiste en el estudio de distintas situaciones experimentales, que tienen sobre ciertas respuestas cuantitativas de unidades experimentales en observación.

De acuerdo a la definición de Wikipedia, el diseño experimental es una técnica estadística que permite identificar y cuantificar las causas de un efecto dentro de un estudio experimental. En un diseño experimental se manipulan deliberadamente una o más variables, vinculadas a las causas, para medir el efecto que tienen en otra variable de interés. El diseño experimental prescribe una serie de pautas relativas qué variables hay que manipular, de qué manera, cuántas veces hay que repetir el experimento y en qué orden para poder establecer con un grado de confianza predefinido la necesidad de una presunta relación de causa-efecto.

En la Industria farmacéutica actualmente es de suma importancia, constituyendo una parte sumamente importante del desarrollo de productos y la mejora continua del proceso.

¿Qué ventaja aporta el DOE en el desarrollo farmacéutico?

Nos da  la posibilidad de evaluar simultáneamente uno o varios parámetros de entrada, o “factores”, como la temperatura, la materia prima o la concentración, para determinar las condiciones en las que los atributos del producto, o “respuestas”, como el rendimiento, la selectividad o el nivel de impurezas, alcanzan un valor óptimo.

Eventos o pasos del DOE

Todo experimento involucra una serie de eventos:

1.Conjetura: hipótesis original que motiva el experimento ej. Marca de nafta vs rendimiento del coche.

2.Experimento: prueba efectuada para mostrar la conjetura.

3.Análisis: análisis estadístico de los datos obtenidos del experimento.

4.Conclusión: lo que se ha aprendido de la conjetura original con relación al experimento. A menudo conduce a una conjetura nueva.

En un próximo artículo daremos un ejemplo práctico del uso del DOE.

La capacidad del proceso (CP) es simplemente la relación entre la dispersión de los datos del proceso (su variabilidad) y el rango de las especificaciones de ese proceso. Básicamente, es una medida de qué tan bien puede encajar la dispersión de los datos dentro de su rango de especificación. Se dice que un proceso es capaz cuando la extensión de sus datos está contenida dentro de su extensión de especificación. Cuanto menor es la dispersión de los datos del proceso que la dispersión de la especificación, más capaz es un proceso.

Unos de los supuestos para estimar la capacidad del proceso, son que estos cálculos se efectúen con datos que se distribuyan normalmente y que el proceso sea estable (ausencia de tendencias significativas).

Capacidad de proceso de limpieza

Como hemos visto, la capacidad del proceso es una medida importante del desempeño del proceso que es relativamente simple de calcular, ya que solo requiere la media y la desviación estándar de los datos del proceso y los límites de especificación para ese proceso. Por lo tanto, en el caso de un proceso de limpieza, la capacidad del proceso de limpieza se puede calcular a partir de la media y la desviación estándar de los datos de hisopado o enjuague del proceso de limpieza y los límites de limpieza basados ​​en el límite de exposición basado en la salud (HBEL) para los datos de hisopo o enjuague.

Para determinar la capacidad del proceso (CpU) de un proceso de limpieza, los términos de esta ecuación se pueden sustituir con los valores estimados a partir de los datos de limpieza (hisopo o enjuague) y el límite de limpieza basado en HBEL, como se muestra en la ecuación siguiente:

CpUlimpieza = (Límite de limpieza HBEL – Media datos de limpieza) / 3 S datos limpieza

Además, dado que los valores de capacidad del proceso se derivan de la media y la desviación estándar, se pueden calcular los intervalos de confianza superior e inferior para estos índices de capacidad del proceso. En los casos en los que puede haber tamaños de muestra variados o pequeños (p. ej., donde N suele ser < 25), es prudente y se recomienda informar y utilizar el límite de confianza inferior de la CPU de estos cálculos en lugar de solo la propia CPU.

Los softwares estadísticos como por ej. Minitab proporcionan estos valores de ntervalos de confianza para los valores de capacidad del proceso y también puede informar la cantidad esperada de fallas de un millón según el análisis de capacidad del proceso.

Capacidad de proceso de datos no normales

Como dijimos antes, partimos de la suposición de que los datos del proceso tienen una distribución normal, sin embargo no todos los datos de limpieza siguen una distribución normal. Por ejemplo, mientras que los datos de hisopos para el análisis de carbono orgánico total con frecuencia se distribuyen normalmente, los datos de HPLC con frecuencia no lo hacen. Antes de realizar cualquier análisis estadístico de los datos de limpieza, es importante determinar si los datos se distribuyen normalmente o no. Si los datos de limpieza no se distribuyen normalmente, se pueden utilizar distintas opciones para normalizarlos (ver el artículo: sus datos siguen una distribución Normal?).

Conclusión

Cada vez son más las compañías farmacéuticas que trabajan y entienden la importancia de analizar la capacidad de sus procesos. Entienden que valores < 1 son poco deseables y buscar obtener valores > 1,33 (equivalente a 4 sigmas).

Cuando pensamos en valores capacidad buscamos alcanzar valores mucho más altos y alcanzables. Evaluar la capacidad del proceso,  nos permite conocerlo y además estimar cual es el riesgo para el paciente debido al arrastre de residuos y a partir del mismo alinearnos con el segundo principio de la ICH Q9, el nivel de esfuerzo debería ser proporcional al nivel de riesgo.

La industria todavía está esperando el nuevo Anexo 1 de la directriz GMP de la UE, y todavía se especula sobre el tiempo de implementación después de la publicación. La última información disponible es que una versión final probablemente esté con los organismos responsables de la Comisión Europea para su firma.

Pero eso no impide que la industria se prepare para la publicación. Ya podría leer sobre el nuevo requisito para una estrategia para las medidas de control de la contaminación definidas en el Anexo 1 revisado.

  • Una pauta,
  • Una plantilla,
  • Un ejemplo de un análisis GAP y
  • Una descripción general de documentos útiles y pautas oficiales

Y lo puso todo a disposición de todas las partes interesadas de forma gratuita.

Con base en la información actualmente disponible en el Anexo 1 y en algunas sugerencias y comentarios recibidos después de la publicación de la primera versión de la Guía de estrategia de control de la contaminación, el Anexo 3 de este documento de orientación ahora se ha revisado para que sea más claro y fácil de entender en algunos lugares.

Las actualizaciones más importantes de la Guía CCS Anexo 3

El Anexo 3 comprende la “Plantilla para el Documento de Estrategia de Control de Contaminación (ejemplo)”. Se han modificado los siguientes puntos:

  • 0.2 Nuevo: Se recomienda que el documento CCS sea aprobado, revisado y actualizado de manera continua. Si corresponde, el documento podría incluirse en el Archivo Maestro del Sitio. Para una instalación en construcción o una importante renovación o desarrollo de una instalación, se debe considerar la utilidad de incluir el CCS en la documentación del proyecto.
  • 1.1 Los Procesos: Actualización de la lista de posibles contenidos adecuados
  • 1.2 General: Actualización de la lista de posibles temas
  • 11 Validación del proceso: La nota sobre Validación de limpieza se ha movido de capítulo
  • 13 Limpieza y Desinfección – Explicación actualizada
  • 14.2.1 Medio ambiente: La explicación se ha complementado y aclarado.
  • 16 Mejora continua en base a la información derivada de lo anterior: Se actualizó y complementó la explicación.

Si se publican versiones adicionales del Anexo 1 o del documento final, por supuesto, seguirán las actualizaciones.

También se puede encontrar más información y la descarga de la guía en el sitio web de la Fundación ECA

Normalmente asumimos que nuestros datos siguen una distribución Normal, pero en realidad, no es siempre así. Obtenemos un resultado, por ejemplo, en el cálculo del Cpk, y no sospechamos que tal vez, no estén reflejando la realidad. Cuanto más se aparten nuestros datos de la Normalidad, cuando esta sea un requisito del modelo estadístico, aumentará el error de los mismos, y nos alejaremos de las buenas decisiones.
Analicemos este grupo de datos
96, 95, 97, 95, 95, 97, 102, 100, 101, 103, 105, 106, 103, 102, 100, 103, 102, 103, 104 y 105
Nota: Respetar el orden de los datos
¿Cómo verificamos si estos datos siguen una distribución normal?
a. Realizando, por ejemplo, la Prueba de normalidad de Kolmogorov – Smirnov (KS).
i. H0: La distribución es Normal (Hipótesis nula)
H1: La distribución no es Normal (Hipótesis alternativa)
ii. Si trabajamos con un intervalo de confianza de 95 %, nuestro α será 0,05.
iii. Tomaremos el p-valor como prueba estadística
iv. La regla de decisión
Si el valor p, de esta prueba, es menor que el nivel de significancia elegido (α =0,05), se rechaza H0 (se acepta H1), y se concluye que se trata de una población No Normal. Si no podemos rechazar la H0, asumiremos que la distribución es Normal
v. Tomar la decisión de aceptar o rechazar H0.
¿Cómo lo hacemos en Minitab?
a. Cargamos una columna con los datos a verificar en la planilla Minitab
b. Seleccionamos la ruta descripta en la figura siguiente

c. Aceptando en Test de Normalidad, se abre el siguiente cuadro de diálogo.

Completamos la variable seleccionada, en nuestro caso es la columna 1 (C1)
Elegimos el test seleccionado (KS),
Colocamos el título
Hacemos click el OK
Aparece el siguiente gráfico

El Valor p es menor que α (0,05), por lo tanto, rechazamos la H0, No es una distribución Normal.
Si la distribución debe ser Normal, como requisito para el modelo estadístico que vamos a utilizar, debemos intentar normalizar los datos.
Utilizaremos la transformación de Box Cox
Seleccionamos la ruta descripta en la figura siguiente

Aceptando en Test de Box Cox.
Se abre el siguiente cuadro de diálogo:

Seleccionamos la columna a analizar
Hacemos click en Opciones (abre el 2do cuadro de diálogo)

Elegimos la columna donde salvar los nuevos datos
Seleccionamos el Lamda óptimo
Hacemos click el OK en los 2 cuadros de diálogos

Nos aparece la columna 2 (C2) con los datos transformados y el gráfico de la variación de Lamda,

Volvemos a realizar el test de normalidad
Realizamos el ensayo de Normalidad, pero sobre la columna de datos transformados.

El Valor p es igual que α (0,05), por lo tanto, No rechazamos la H0, asumimos que se Normalizó la distribución.

Ahora si podemos efectuar el cálculo de la capacidad del proceso con los datos normalizados.

Espero que les haya resultado útil.

La FDA actualiza la guía sobre la investigación de resultados de testeos fuera de especificación (OOS) para la producción farmacéutica

En mayo de 2022, la Administración de Drogas y Alimentos de los EE. UU. (FDA) publicó una nueva versión (Revisión 1) de su Guía para la industria sobre resultados fuera de especificación (OOS). La versión original del documento se publicó hace casi 16 años, en octubre de 2006.

La definición de “OOS” no ha cambiado.

Según la FDA, “a los efectos de este documento, el término resultados OOS incluye todos los resultados de los testeos que no cumplen las especificaciones o los criterios de aceptación establecidos en las especificaciones de medicamentos. El término también se aplica a todas las pruebas de laboratorio en proceso que están fuera de las especificaciones establecidas”.

En comparación con la versión 2006, se han realizado los siguientes ajustes:

Cambios editoriales menores

El término “unidad de control de calidad (QCU)” fue reemplazado por “unidad de calidad (QU)”

Adición y actualización de referencias en el cuerpo del texto y notas al pie para hacer referencia a la última versión de otras directrices relevantes, capítulos de USP, párrafos de CFR, etc.

Además, cabe mencionar los siguientes cambios:

En el apartado IV.C.2., se modifica la redacción de “Pruebas de valores atípicos” de la siguiente manera:

Versión de octubre de 2006: “Ocasionalmente, una prueba de valores atípicos puede tener algún valor para estimar la probabilidad de que el resultado OOS sea discordante de un conjunto de datos, y esta información se puede usar de manera auxiliar, junto con todos los demás datos de la investigación, para evaluar la importancia del resultado”.

Versión de mayo de 2022: “Ocasionalmente, una prueba de valores atípicos puede ser de algún valor para comprender cuán discordante es un resultado de un conjunto de datos, pero puede usarse únicamente con fines informativos en el curso de una investigación para determinar la distancia de un resultado del significado.”

En la sección V.B., dos subtítulos

1. Promediar los resultados de varias preparaciones de muestras a partir de la muestra original y

3. Resultados limítrofes que están dentro de las especificaciones) se han añadido al texto existente.

En el medio, una nueva subsección:

2. Resultados promedio de la misma preparación de muestra final

se agregó, indicando que “puede haber casos en los que el método de prueba especifique criterios de aceptación apropiados para la variabilidad y un número predefinido de réplicas de la solución de muestra diluida final para llegar a un resultado. Por ejemplo, un método de prueba de HPLC puede especificar tanto criterios de aceptación para la variabilidad y que se determine un único resultado notificable promediando la respuesta máxima de un número de inyecciones repetidas consecutivas del mismo vial de prueba. En estos casos, y dado que se cumplen los criterios de aceptación para la variabilidad, el resultado de cualquier la replicación en sí misma no debe hacer que el resultado notificable sea OOS”.

El documento de final de la Guía (Revisión 1, mayo de 2022), puede ser descargado desde la página de inicio de la FDA.

Pubicado por ECA en su News Letter – 25/5/2022.

Durante su visita a un laboratorio contratado de EE. UU., los inspectores de la FDA encontraron violaciones básicas de GMP en las siguientes áreas:

  • Manejo de resultados OOS (21 CFR 211.192).
  • Falta de verificación de los métodos de prueba (21 CFR 211.165(e))
  • Falta de integridad de los datos electrónicos (21 CFR 211.68(b))

Una mirada más cercana a las deficiencias descritas arrojará luz sobre por qué violan las reglas básicas de GMP en el laboratorio y por qué las respuestas de la empresa se consideraron inadecuadas, lo que finalmente condujo al envío de esta WL.

Manejo de resultados OOS

Después de que una prueba analítica arrojara resultados OOS, las mediciones se llevaron a cabo con una nueva preparación de muestra. De acuerdo con los procedimientos compatibles con GMP, primero se debería haber llevado a cabo una investigación de causa raíz para aclarar el motivo de los resultados OOS. Al revisar los documentos, los inspectores de la FDA también notaron que el SOP para el manejo de los resultados de OOS no contenía ninguna regulación correspondiente y obviamente le dio libertad al personal del laboratorio para proceder con tales casos, lo cual no es compatible con las reglas de GMP.

Los requisitos para manejar los resultados OOS se describen en la Guía para la investigación de resultados de pruebas fuera de especificación (OOS) de la industria para la producción farmacéutica.

La respuesta del laboratorio contratado a esta carta de deficiencia se limitó a afirmar que el SOP se había actualizado en consecuencia. Sin embargo, la FDA consideró inadecuada esta respuesta debido a que aún faltan regulaciones sobre la invalidación de los resultados de OOS. Además, no se realizó una revisión retrospectiva que pudiera haber servido como evidencia para identificar e investigar completamente todos los resultados de OOS.

Falta de verificación de los métodos de prueba

El laboratorio siempre utilizó el mismo método analítico para la determinación del contenido de la sustancia activa en productos terminados con diferentes formulaciones, sin proporcionar evidencia en cada caso de que el método también era adecuado para este propósito. De la misma manera, es decir, sin prueba de idoneidad, también se utilizaron los mismos métodos de la farmacopea para probar microorganismos en diferentes productos.

La FDA consideró que los datos obtenidos con los métodos de prueba no estaban libres de errores (precisos) y calificó como inadecuado el marco de tiempo dado en la respuesta para la realización posterior de los estudios de verificación del método.

Falta de integridad de los datos electrónicos

Los inspectores de la FDA encontraron que no se cumplían dos requisitos fundamentales de GMP relacionados con el manejo de datos electrónicos:

  • Control de acceso a los datos electrónicos
  • Audit Trail

El acceso a estos datos no estaba adecuadamente protegido, es decir, era posible eliminar registros. Además, no había rastro de auditoría en el software de procesamiento de datos de HPLC y cromatografía de gases y, por lo tanto, no había control sobre la posible manipulación de datos.

En sus comentarios a la FDA, la empresa aseguró que se había contactado a los fabricantes de los sistemas de cromatografía para actualizar el software en consecuencia. Sin embargo, dado que no se llevó a cabo una evaluación de estos sistemas con respecto a posibles eliminaciones de datos y riesgos potenciales para la calidad de los productos finales, la FDA también calificó estos comentarios como “inadecuados”.

Después de la descripción de las violaciones de GMP, la carta de advertencia contiene una breve sección sobre la opinión de la FDA sobre las responsabilidades de un laboratorio contratado. La declaración central de este pasaje es:

La FDA considera que el contratista es una extensión del sitio de producción del cliente. Las deficiencias de GMP en el contratista, por lo tanto, en principio, suponen un riesgo para la calidad de los medicamentos del cliente. De ello, la FDA deriva la obligación urgente de que el contratista informe a sus clientes de forma inmediata y completa sobre problemas con las analíticas.

Tomado del boletín de GMP de ECA – Abril 2022.

Un paradigma es un conjunto de prácticas que definen una disciplina científica durante un tiempo y proporcionan modelos de problemas y soluciones para una comunidad de profesionales.

El mayor obstáculo para un cambio de paradigma es la incapacidad o la negativa a ver más allá de los actuales modelos de pensamiento. Esto se conoce como Parálisis de Paradigma.

En muchas empresas, vemos que la cultura de cumplimiento es el modelo actual de pensamiento. La cultura de cumplimiento implica aquí que la empresa está obsesionada con tener suficientes “papeles” para demostrar que los operadores siguen un SOP, y que hay X número de horas de entrenamiento, que hay dos firmas que avalan la limpieza de un reactor, etc., y esta cultura de cumplimiento, tal como se describe aquí, es una barrera para el cambio de paradigma, hacia una cultura centrada en la protección de los pacientes a través de la elaboración de medicamentos seguros y eficaces. Este nuevo paradigma tiene que convertirse en la solución para la excelencia en la fabricación de nuestros medicamentos.

Tener una cultura de calidad centrada en el paciente tiene que ver con la protección de la vida del paciente. Repetición ciega de procedimientos normalizados de trabajo sin entender por qué han de ser seguidos no beneficiará al paciente en el largo plazo. Los colaboradores deben comprender los fundamentos de sus tareas, de esa forma entenderán la importancia y el impacto de las mismas.

Entrénelos, pero no busque solo cumplir con el requisito de la norma, el valor agregado del entrenamiento es la adquisición de conocimiento, repasar conceptos, despejar dudas, un personal entrenado performa mejor que uno no entrenado.

El PIC/S (Pharmaceutical Inspection Co-operation Scheme) ya publicó una nueva versión de su Guía GMP PE016 en febrero. Esto se debe a la revisión del Reglamento de la UE nº 536/2014 sobre ensayos clínicos. El Anexo 13 del documento PIC/S ahora también se ha adaptado a esto. Esto está en línea con el acuerdo de cooperación entre PIC/S y EMA, que estipula que las guías PIC/S y EU GMP deben estar alineadas.

El Anexo 16 de la Guía PIC/S es nuevo. Describe la certificación por parte de la Persona Calificada y la liberación del lote. El Anexo 16 análogo de la Guía GMP de la UE no se incluyó en el documento PIC/S en 2016 porque el PIC/S consideró que el Anexo 16 era demasiado específico de la UE, especialmente porque la Guía PIC/S GMP se limita a la fabricación de medicamentos y no a la importación y distribución. Sin embargo, luego de una consulta con las autoridades del PIC/S en 2017, se acordó intentar implementar el Anexo 16 de la UE. El PIC/S también acordó que el elemento del Anexo 16 relacionado con los medicamentos importados es voluntario y depende de la legislación nacional.

La Guía GMP revisada (PE 009-16) con el Anexo 13 revisado y el nuevo Anexo 16 ya están vigentes y disponibles en el sitio PIC/S.

Publicado en News Letter GMP ECA 16/3/2022

En los últimos años, el tema de la integridad de los datos ha generado una mayor actividad entre las autoridades internacionales, lo que ha dado lugar a numerosas directrices emitidas por estas instituciones. Entre otros, la OMS (Organización Mundial de la Salud) publicó en la Serie de Informes Técnicos, No. 996, 2016, como Anexo 5 una “Orientación sobre buenas prácticas de gestión de datos y registros”.

En 2021, la OMS reemplazó esta guía en la Serie de Informes Técnicos, No. 1033, 2021, con la “Pauta sobre integridad de datos” con la siguiente estructura:

Introducción y antecedentes
Alcance
Glosario
Dato de governancia
Gestión de riesgos de calidad
Revisión de gestión
Subcontratación
Capacitación
Datos, transferencia de datos y procesamiento de datos
Buenas practicas de documentacion
Sistemas informatizados
Revisión y aprobación de datos
Acciones correctoras y preventivas
preferencias
Otras lecturas
Apéndice 1 – Ejemplos de gestión de integridad de datos
Con esta nueva versión de la directriz, la OMS intenta armonizar el documento con otras directrices internacionales sobre integridad de datos, incluida la “Guía y definiciones de integridad de datos MHRA GxP, revisión 1”, la “Guía de la FDA para la industria. Integridad de datos y cumplimiento de CGMP – preguntas y respuestas” y las “Buenas prácticas PIC/S para la gestión e integridad de datos en entornos GMP/GDP”.

Enfoque en el gobierno de datos
El gobierno de datos se trata de manera muy extensa. En particular, se enfatiza la responsabilidad de la alta dirección en la implementación del sistema y la normativa. Los contenidos de dicho programa de gobierno de datos se describen en detalle:

Vigilancia y compromiso de la dirección
Aplicación de la Gestión de Riesgos de Calidad
Cumplimiento de la legislación de protección de datos y mejores prácticas
Políticas y procedimientos de calificación y validación
Gestión de cambios, incidencias y desviaciones
Clasificación de datos, confidencialidad y privacidad
Seguridad, ciberseguridad, control de acceso y configuración
Creación de base de datos, recopilación de datos, revisión de datos, datos ciegos y aleatorización
Seguimiento, tendencias e informes de anomalías, lapsos o fallas en la integridad de los datos para acciones posteriores
Prevención de presiones comerciales, políticas, financieras u organizativas
Recursos y sistemas adecuados
Carga de trabajo e instalaciones para facilitar el entorno adecuado que respalde la integridad de los datos y los controles efectivos
Supervisión
Mantenimiento de registros
Capacitación
Conciencia de la importancia de la integridad de los datos, la calidad del producto y la seguridad del paciente
En definitiva, el documento es una directriz más que se suma a las diversas directrices anteriores sobre integridad de datos.

News Letter ECA – 2/3/2022.

El año pasado, dicté algunos talleres de estadística y como siempre me gusta intercambiar ideas con los participantes, siempre aprendo algo nuevo de esas discusiones.

Uno de los participantes me comentaba que utilizaba para la construcción de las cartas de control de datos individuales el software Excel, a lo cual le dije que el Excel es una de las alternativas en el caso de no disponer algún software como por ejemplo Minitab.

Cuando hablamos sobre la forma de calcular los límites de control de las cartas individuales me dijo que lo hacía de la siguiente manera:

Límite inferior de carta de control: LCI = Xmedia – 3 DS

Límite superior de carta de control: LCS = Xmedia + 3 DS

Donde Xmedia es la media estimada del conjunto de datos y DS es la desviación estándar de ese mismo conjunto de datos.

Lo anterior es un enfoque correcto para calcular los límites del gráfico de control. La media estimada es simplemente la media del conjunto de datos, formada sumando los puntos de datos en el conjunto de datos y dividiendo por la cantidad de puntos de datos en el conjunto de datos. La desviación estándar estimada se calculó utilizando la desviación estándar de la muestra. En Microsoft Excel esto se obtiene usando la función STDEV y se calcula fácilmente. Aunque este no es el enfoque correcto.

El problema con el uso de la función STDEV de la muestra es que no tiene en cuenta la secuencia temporal de los datos. No importa cómo mezcle un conjunto de datos, seguirá teniendo la misma desviación estándar de la muestra. Entonces, lo que se requiere es una estimación de la desviación estándar que tenga en cuenta la secuencia de tiempo de los datos. En la práctica, esto se hace utilizando el rango móvil de los datos. Para dos puntos de datos consecutivos, el rango móvil es la diferencia absoluta entre los dos puntos de datos. Entonces, si el conjunto de datos tenía N puntos de datos, tendrá N-1 valores de rango móvil. La desviación estándar del conjunto de datos se puede estimar como:

DS = MediaRM / 1,128

Donde MediaRM es el promedio de los N-1 rangos móviles.

Cuando los datos se volvieron a representar en gráficos de control con los límites de control adecuados, las señales de fuera de control fueron claras.

Como nota al margen, el otro problema con el enfoque del graduado de MBA es que nunca construyó el gráfico de rango móvil, que es una serie de tiempo de los valores del rango móvil con un límite de control apropiado. En general, se acepta que es valioso mirar este gráfico, porque representa los mismos datos de una manera diferente y brindará otra vista de lo que está sucediendo en el proceso. Es fácil de construir con un software como Minitab junto con la tabla de valores individuales

Les dejo un ejemplo (figura 1) donde ingresamos 50 datos individuales en Minitab y luego graficamos la carta de control I-RM (datos individuales – rango móvil).

De forma paralela ingresamos esos mismo datos en una planilla Excel y calculamos el valor promedio y la desviación estándar.

Podemos observar que los límites de control de la carta con Excel son más amplios debido a que el valor de desviación estándar calculado por Excel es mayor al calculado por Minitab de acuerdo a lo indicado anteriormente, por lo tanto los valores individuales que en la carta de control con minitab dieron fuera de control, en la carta construida con Excel están dentro de los limites.

La carta de valores individuales tiene límites de control más sensibles al cambio.

Otro tema a tener en cuenta es la construcción del gráfico de rango móvil, sumamente importante para ver las variaciones individuales a lo largo del proceso.

Figura 1

Cálculo x Excel

Promedio: 79,74

Desviación estándar: 2,5055856

LCS: 87,26

LCI: 72,22