mÓdulo 6: planificaciÓn y experimentaciÓn · tabla 2.2. se construye el gráfico de control para...
Post on 26-Jul-2020
2 Views
Preview:
TRANSCRIPT
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
1
CALIDAD Y MEJORA CONTINUA: LA GESTIÓN INNOVADORA COMO CAMINO A
LA EXCELENCIA EMPRESARIAL
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
(45 HORAS)
Unidad Didáctica 1: Control estadístico de procesos
1. ¿EN QUÉ CONSISTE EL CONTROL DE CALIDAD?
Son diversas las definiciones que los distintos autores dan del
concepto de calidad. En general, puede decirse que un artículo tiene
calidad cuando es apto para su utilización y responde a las
necesidades del consumidor. Con el Control de Calidad se intenta
asegurar la calidad de los productos fabricados (coches,
electrodomésticos, muebles, ordenadores, maquinaria...) o de los
servicios (transporte, asistencia médica, educación...). En
consecuencia, para conseguir que un producto sea de alta calidad se
ha de diseñar de modo que se recojan las necesidades del
consumidor; asimismo, es necesario diseñar el proceso que permita
fabricar dicho artículo.
El artículo se diseña según un nivel de calidad. Las variaciones en
los grados o niveles de calidad son intencionales, en el siguiente
sentido: todos los automóviles tienen la misma finalidad -
proporcionar al usuario un transporte seguro - sin embargo, difieren
en tamaño, equipo, presentación, rendimiento... Además, el resultado
final depende del proceso de fabricación, y se pretende que éste se
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
2
aproxime lo máximo posible al modelo ideado. Para determinar lo que
se acerca el artículo fabricado al modelo buscado, se miden las
denominadas características de calidad como, por ejemplo, la
longitud, el diámetro, el peso, el color, la resistencia... De este modo,
si el artículo fabricado se aleja del modelo más de lo deseado, se
rechaza. El valor a partir del cual se desecha el producto se llama
nivel de tolerancia; así, si se fabrican tornillos de 1 cm de longitud, la
característica de calidad de interés es la longitud, y si se indica que el
nivel de tolerancia es de +0.05 cm, se rechazarán todos aquellos
tornillos que midan menos de 0.95 cm y más de 1.05 cm. Por tanto,
cuanto menor sea el nivel de tolerancia, mayor será la calidad del
producto. Es claro que el interés del fabricante reside en que la
mayoría de los productos estén dentro del nivel de tolerancia, ya que
no interesa fabricar productos que tengan que ser rechazados.
En definitiva, el Control de Calidad es el conjunto de técnicas y
procedimientos mediante los cuales se miden las características de
calidad de un producto, se comparan con especificaciones y se toman
acciones correctivas apropiadas cuando hay muchos elementos que
no cumplen los requisitos.
Las técnicas básicas empleadas en el Control de Calidad se
citan a continuación:
• Diseño de Experimentos, para las etapas de diseño del artículo y
en las primeras etapas de fabricación.
• Control estadístico de procesos, para regular y vigilar el
proceso.
• Muestreo para la aceptación, cuando el objetivo de la inspección
es la aceptación o el rechazo de un producto, con base en la
conformidad respecto a un estándar.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
3
2.- ALGUNAS DEFINICIONES EN CONTROL DE CALIDAD
La producción de un artículo se sustenta en un proyecto de
fabricación que ha de ser de calidad. La calidad de proyecto de un
artículo está estrechamente relacionada con la precisión de las
especificaciones para su fabricación, de forma que cuanto menor sea
el nivel de tolerancia (esto es, mayor exigencia), tanto mejor será la
calidad de proyecto, y viceversa. No obstante, el proyecto debe ser lo
más económico y sencillo posible, cumpliendo las expectativas del
consumidor.
Una vez fabricado el artículo, el grado en el que éste concuerda
con las exigencias del proyecto original, es decir, con el Control de
Calidad tanto en los materiales utilizados como de los productos que
salen de la fábrica y se almacenan en las instalaciones de la empresa,
se denomina calidad de concordancia con el proyecto.
El funcionamiento final de un producto depende tanto de la
calidad de proyecto como de la calidad de concordancia. Aun cuando
un proyecto sea inmejorable, si el control de concordancia ha sido
inadecuado, por ejemplo, porque no se han utilizado los materiales
consignados en la planificación original, es posible que el artículo no
funcione correctamente. Por otra parte, aunque el control de
concordancia fuese excepcional, si el artículo está inicialmente mal
proyectado, no se conseguirá un funcionamiento satisfactorio.
En consecuencia, es necesario establecer un sistema que informe
sobre la calidad de todo el proceso, para así poder tomar decisiones
que optimicen la calidad del producto.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
4
3.- CAUSAS NATURALES Y ATRIBUIBLES
En un proceso de fabricación las causas de la variación de la
calidad son, esencialmente, de dos tipos:
• Causas naturales o fortuitas: Todo proceso de fabricación presenta
un cierto grado de variabilidad inherente o natural que algunos
autores denominan ruido de fondo. Esta variabilidad natural es el
efecto acumulado de muchas pequeñas causas, generalmente
incontrolables, debidas al azar; son las causas naturales.
• Causas atribuibles: Son aquellas que no forman parte de la
variabilidad natural del proceso, como pueden ser un ajuste
inapropiado de las máquinas, errores del trabajador, defectos en las
materias primas, etc. En otras palabras, son causas externas
identificables que se pueden descubrir y evitar en el futuro.
Generalmente, la variabilidad provocada por las causas atribuibles es
mayor que la provocada por las causas naturales.
Cuando el ruido de fondo de un proceso es relativamente
pequeño, suele considerarse correcto el funcionamiento del proceso.
Por tanto, un proceso cuya variabilidad en el funcionamiento sólo está
influenciada por causas naturales se considera bajo control
estadístico. Por el contrario, un proceso que funciona en presencia de
causas atribuibles se considera fuera de control.
Así pues, uno de los principales objetivos del control estadístico de
procesos es detectar rápidamente las causas atribuibles, a fin de que
se puedan analizar y corregir apropiadamente antes de que
aparezcan muchos elementos que no cumplan las especificaciones.
Para ello una herramienta básica es la construcción (le gráficos de
control que establecen el recorrido de las variaciones que no es
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
5
probable que se produzcan por azar; por lo que cualquier variación
que se produzca dentro de este recorrido se debe a una causa
externa que hay que identificar.
4.- FUNCIONAMIENTO DE UN GRÁFICO DE CONTROL
Principios Básicos
Un gráfico de control es un dibujo para determinar si el modelo de
probabilidad subyacente en el proceso es estable o cambia a lo largo
del tiempo. En él se representan las realizaciones muestrales de una
característica de calidad en función de la posición o del tiempo. El
gráfico consta de tres líneas horizontales, paralelas y, generalmente,
equidistantes:
• La línea central (LC), que representa el valor medio de la
característica de calidad, correspondiente al estado bajo control, es
decir, únicamente en presencia de causas naturales;
• La línea superior de control (LSC), situada encima de la línea
central; y
• La línea inferior de control (LIC), por debajo de la línea central.
Estos límites de control se construyen de forma que, si el
proceso está bajo control, la mayoría de los puntos muestrales se
encuentre entre ellos. En ese caso, no es necesario tomar ninguna
medida, sino que dejamos que el proceso actúe sólo. Sin embargo, si
más de mα puntos se encuentran fuera de los límites del gráfico
(siendo m el número de puntos considerados y α la probabilidad de
que uno de ellos salga fuera de los límites cuando el proceso está
bajo control), se interpreta como una evidencia de que el proceso
está fuera de control y es necesario encontrar y eliminar las causas
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
6
que producen este comportamiento. Así, la construcción general de
los límites de control propuesta por Shewart establece límites de
control equidistantes.
Los puntos muestrales representados en el gráfico de control
suelen unirse mediante segmentos permitir una visualización más
clara de la evolución del proceso a lo largo del tiempo.
Por otra parte, si todos los puntos se hallan dentro de los
límites de control, pero se comportan de forma no aleatoria, nos
indica que el proceso está fuera de control.
Esencialmente, un gráfico de control es un contraste de
hipótesis donde:
H0 : Proceso bajo control estadístico
H1 : Proceso fuera de control estadístico
Así, la regla de decisión consiste en rechazar la hipótesis nula si
un punto muestral se encuentra fuera de los límites; mientras que si
dicho punto está comprendido entre los límites no tenemos evidencia
suficiente para rechazar dicha hipótesis.
Al igual que en todo contraste de hipótesis, pueden cometerse
dos tipos de errores:
• Error de tipo 1, que consiste en concluir que el proceso está fuera
de control estadístico cuando en realidad está bajo control.
• Error de tipo II, cuando se concluye que el proceso está bajo
control
- estadístico cuando ciertamente no es así.
Recuérdese que a representa la probabilidad de cometer error
de tipo 1, mientras que β representa la probabilidad de cometer error
de tipo II. Así pues, en Control de Calidad — específicamente en
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
7
Muestreo para la Aceptación — a es la probabilidad de rechazar un
lote de calidad aceptable, mientras que β representa la probabilidad
de aceptar un lote con una proporción alta de artículos defectuosos.
Con objeto de ilustrar la construcción de los gráficos de control, se
proponen los siguientes ejemplos.
Ejemplo. Una fábrica embotelladora de agua desea que sus botellas
tengan un contenido de 11. Se selecciona al azar una muestra de 20
botellas consecutivas y se mide la cantidad de agua que contienen.
Los resultados obtenidos se recogen en la siguiente tabla.
La Figura 2.1 muestra el gráfico de control asociado a este ejemplo
concreto. Se observa que todos los valores muestrales se encuentran
dentro de las bandas de control y en torno a la línea central (xm=
0.988), en consecuencia, puesto que no se tiene ninguna razón que
obligue a actuar de otro modo, es preferible dejar que el proceso de
embotellado funcione sólo.
Ejemplo : En una cadena de producción, un operario hace agujeros
en una pieza de metal con un taladro. Las exigencias del proyecto en
cuanto a la profundidad del orificio son de 2 cm. Para controlar si la
operación de taladrado es estable a lo largo del tiempo se miden los
orificios realizados en 30 piezas, obteniéndose los resultados de la
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
8
Tabla 2.2. Se construye el gráfico de control para la característica de
calidad X: “Profundidad del orificio (en cm)” (véase Figura 2.2). En
este ejemplo, la muestra número 26 correspondiente a la profundidad
del orificio de la pieza que ocupa dicho lugar, dicho lugar, escapa de
los límites de variación natural del proceso de taladrado. Por tanto, el
proceso está fuera de control.
Nótese que los límites de control no coinciden, en general, con
los límites de especificación. Los primeros están asociados a la
variabilidad natural inherente al proceso, mientras que los segundos
no están determinados por el proceso, sino que vienen impuestos
desde fuera, por ejemplo, por la Administración o la Dirección de la
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
9
Empresa. En este caso concreto, los límites de especificación son más
restrictivos, pues están dentro de los de control.
Patrones de Comportamiento
Como se ha comentado en la sección anterior, aunque todos los
puntos muestrales estén comprendidos entre los límites superior e
inferior de control, si la disposición de estos puntos en el gráfico no
es aleatoria sino que presentan un patrón de comportamiento
sistemático, se dice que el proceso está fuera de control. En la Figura
2.3 se resumen algunos de los patrones de comportamiento no
aleatorios que pueden encontrarse en un gráfico de control.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
10
Diseño de un Gráfico de Control
Son tres los aspectos más importantes a la hora de diseñar un
gráfico de control y que se desarrollan con detalle en cada una de las
subsecciones siguientes: seleccionar los límites de control apropiados
y construir el gráfico de control, establecer el tamaño que han de
tener las muestras elegidas y determinar con qué frecuencia deben
extraerse.
a) Selección de los Límites de Control
Para especificar los límites de control se ha de tener en cuenta lo
siguiente:
• Si dichos límites se alejan de la línea central, se reduce el riesgo
de cometer error de tipo 1, puesto que será menos probable que
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
11
un punto caiga fuera de los límites cuando el proceso está bajo
control estadístico; sin embargo, el riesgo de cometer error de tipo
II se incrementa, ya que los puntos que deberían estar fuera de
los límites de control (nótese que el proceso está fuera de control)
ahora quedarán dentro, lo que conducirá a la aceptación de control
estadístico.
• Por el contrario, si estos límites se acercan a la línea central, se
reduce el riesgo de cometer error de tipo II, pero aumenta la
probabilidad de cometer error de tipo 1.
En consecuencia, hay que llegar a un equilibrio entre ambos. Análogo
al que se emplea en la construcción de los intervalos de confianza y
contrastes de hipótesis, esto es, fijar a en un valor pequeño y
minimizar 3.
El objetivo es probar si un proceso es estable o si, por el
contrario, cambia a lo largo del tiempo. Por consiguiente, si la
distribución de la característica de calidad de interés es,
aproximadamente, Normal con parámetros µ0 y σ, se desea probar la
hipótesis de que la media de dicha distribución es estable.
Si la desviación típica σ de la característica de calidad es
conocida, el estadístico de contraste asociado al test (2.1) se
construye a partir de una muestra aleatoria simple Xi,. . . , Xm y
viene dado por:
de modo que aquellos valores del estadístico experimental
comprendidos entre zα/2 y z1-α/2, es decir, entre los cuantiles de una
N(0,1) de órdenes α/2 y 1-α/2 respectivamente conducen a la
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
12
aceptación de la hipótesis nula y, por tanto, de estabilidad de la
medida (o control estadístico). En resumen, se acepta la hipótesis
nula siempre y cuando la media muestral esté contenida en el
intervalo
En cualquier caso se acepta la hipótesis nula si
procediendo a la estimación de los parámetros si alguno de
ellos es desconocido. Es claro que la constante k está estrechamente
relacionada con α, de hecho,
k = z1-α/2
Esta es la idea intuitiva de cómo se construyen los gráficos de
control. Así pues, la construcción más usual de límites de control,
debida a Shewart, es la siguiente:
Sea W un estadístico asociado a la característica de calidad X
objeto de estudio, con media µW y desviación típica σw. Entonces, los
límites de control se calculan como:
donde k es una constante que determina la distancia de las líneas de
control a la línea central. Nótese que, fijado un valor k, puede
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
13
obtenerse la probabilidad α a de cometer error de tipo 1 mediante la
relación
De esta forma, los límites de control pueden calcularse fijando k
o bien, para un α dado, obtener el valor k asociado y, a partir de él,
construir los límites del gráfico. Estos últimos se denominan límites
probabilísticos de α. En EE.UU. se suelen determinar límites de
control tomando k = 3, mientras que en algunas zonas de Europa
occidental se opta por el cálculo de límites probabilísticos para a =
0.002.
Ejemplo. Retómese la operación de taladrado del ejemplo anterior. El
objetivo es establecer un gráfico de control para determinar si dicho
proceso funciona bajo control estadístico. Para ello se toma como
estadístico asociado a la característica de calidad, la propia
característica, cuya media y varianza son desconocidas. No obstante,
es posible estimar dichos valores a partir de la muestra extraída. Para
ello se utilizan los estimadores puntuales habituales:
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
14
En consecuencia, el proceso está fuera de control si más de mα
= 30·0.0027 = 0.081≈0 muestras están fuera de los límites
obtenidos. Obsérvese que ningún valor sobrepasa dichos límites,
aunque la muestra número 26 se sitúa cerca del límite superior de
control, lo que lleva a la conclusión de que el proceso está bajo
control estadístico.
En este caso, el número máximo de muestras que, por azar, pueden
caer fuera de los límites de control es mα = 30 · 0.0455 = 1.245≈1.
En este caso, la observación número 26 se sitúa por encima del límite
superior de control x26 = 2.120, lo cual es predecible, pues al
disminuir k la amplitud de los límites de control disminuye. No
obstante, no se puede estar razonablemente seguro de que el
proceso está fuera de control, pues es posible que la causa de que
dicha muestra dé una señal sea natural y no atribuible.
Si se desea determinar límites de control probabilísticos para
α=0.002:
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
15
Ha aumentado ligeramente el valor de k, con lo que se incrementa la
amplitud de los límites de control y, por tanto, el proceso se mantiene
bajo control estadístico.
b) Tamaño Muestral y c) Frecuencia de Muestreo
El tamaño y la frecuencia de muestreo dependerán, en general,
del cambio en el proceso que se quiera detectar. Las muestras
grandes permiten detectar más fácilmente cambios pequeños,
mientras que las muestras pequeñas se emplean para la detección de
cambios grandes. No obstante, lo deseable sería extraer muestras
pequeñas — siempre y cuando éstas fuesen representativas — a
intervalos largos de tiempo, es decir, con menor frecuencia, o bien
muestras grandes con mayor asiduidad. El inconveniente es que esto
supone un elevado costo económico y temporal. Por tanto, se opta
por extraer muestras de mayor tamaño con menor frecuencia o bien,
muestras pequeñas poco espaciadas en el tiempo, distribuyendo de
esta forma el esfuerzo y el coste de muestreo. Posteriormente, se
estudia un método para el cálculo del tamaño muestral a partir de la
curva OC.
Subgrupos Racionales
El concepto de subgrupos racionales se refiere a que, si el
proceso funciona en presencia de causas atribuibles, las diferencias
que puedan existir entre las muestras y dentro de ellas, sean máxima
y mínima, respectivamente. Para establecer subgrupos racionales se
emplean, básicamente, dos enfoques:
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
16
1. Si el objetivo es detectar cambios en el proceso, se toman
muestras que consten de artículos que se produjeron
simultáneamente o con la menor diferencia posible.
2. Si se pretende tomar decisiones acerca de la aceptación de todos
los artículos que se han producido desde la última muestra, lo más
conveniente es que cada muestra sea una muestra aleatoria de todos
los artículos fabricados en el intervalo de muestreo. Estos serán
representativos de todos los producidos desde que se formó el último
subgrupo racional.
Cuando estos métodos no proporcionan los resultados deseados,
también se emplean combinaciones de ambos.
Con ello ponemos de manifiesto la importancia de establecer
muestras, pues son éstas las que permiten la extracción de
conclusiones apropiadas acerca del funcionamiento de un proceso.
Límites de Tolerancia Natural
Los límites de tolerancia natural de un proceso son los límites
determinados por la variabilidad natural medida por la desviación
típica del proceso, denominada σ, es decir
Estos límites no tienen relación con los límites de especificación del
proceso ya que estos últimos vienen dados externamente por la
Administración, el consumidor, el fabricante, etc.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
17
5. ESTABILIDAD DEL PROCESO
Para analizar la estabilidad de un proceso de fabricación y así
asegurar la calidad de los productos fabricados, se establecen,
generalmente, dos períodos: el período base o período de prueba y el
período de vigilancia. En el período base se establecen límites de
control de prueba a partir de un conjunto de observaciones. Si
durante dicho período el proceso está bajo control, es decir, es
estable, podrán emplearse con toda confianza los límites de control
anteriormente obtenidos para continuar controlando el proceso
durante el periodo de vigilancia.
La inestabilidad puede deberse, fundamentalmente, a dos causas:
• Que sea inherente al proceso (equipo en mal estado, baja calidad
de los materiales, etc.)
• Debido a la novedad del producto o del proceso (los trabajadores
encargados no están familiarizados).
¿Cómo se establecen entonces los límites de control? Son dos las
posibles opciones:
1. Si el tiempo y el costo lo permiten, se puede iniciar un nuevo
período base. Probablemente el proceso ya se habrá estabilizado.
2. Controlar si el proceso es estable al eliminar las observaciones que
se encuentran fuera de los límites de control. Para ello se siguen los
siguientes pasos:
Paso 1) Iniciar un período base de, al menos, 20 muestras
Paso 2) Calcular los límites de control del gráfico considerado a partir
de las muestras anteriores; estos límites se denominan límites de
control de prueba.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
18
Paso 3) Revisar el gráfico, de forma que si todas las observaciones
caen dentro de los límites de control, vamos al Paso 4; de lo
contrario, y bajo el supuesto de presencia de causas atribuibles,
habrá que eliminar las muestras implicadas del período base y volver
de nuevo al Paso 2.
Paso 4) Extender los límites de control al período de vigilancia. En
resumen, se tiene el diagrama de la Figura 2.3.
Nota: Es claro que no se pueden eliminar muestras de forma
indiscriminada. Si quedasen 15 o menos, se parte de un nuevo
conjunto de muestras o bien se prescinde del período de prueba.
Límites de aviso
Los límites de control de un gráfico convencional dan una señal
indican do que el proceso puede estar fuera de control. En una
distribución Normal con los límites de control para k = 3, la
probabilidad de una señal falsa es de sólo 0.0027 (error tipo I). De
esta manera, se puede estar razonablemente seguro de que el
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
19
proceso está fuera de control cuando se produzca la señal. No se
estará seguro si no se produce la señal; incluso aunque el proceso
haya pasado a estar fuera de control, es posible que la señal no se
produzca de inmediato. Para intentar evitar estos retrasos indebidos,
algunos expertos recomiendan el uso de límites de aviso o
advertencia. Estos se encuentran situados dentro de los límites
usuales de control, de modo que si los límites iniciales se construyen
para k = 3 o probabilísticos de 0.002, los límites de aviso se calculan
con k = 2 o de 0.05, respectivamente. Así, si se observa que un
punto está fuera de los límites de aviso, pero sigue situado dentro de
los de control, hay que sospechar que el proceso no funciona de
forma apropiada y, en consecuencia, se ha de vigilar el proceso con
mayor atención. Una alternativa consiste en incrementar la frecuencia
de muestreo y emplear estos nuevos datos junto con los puntos
sospechosos para investigar si el proceso está bajo control.
Si varias muestras sucesivas están dentro de los límites de aviso
no hay porqué preocuparse. La norma siempre ha de ser: Deje al
proceso sólo a no ser que haya una razón clara para intervenir.
La probabilidad de que dos muestras sucesivas estén fuera de
los límites de aviso es muy reducida. Sean x1 y x2 dos valores
observados de la muestra que están fuera de los límites de aviso de
2σ. Entonces, aplicando que ambos son independientes y suponiendo
normalidad, se tiene:
P [x1 esté fuera de los límites] = 1 — P [-2< Z < 2] = 0.0456
P [x2 esté fuera de los límites] = 0.0455
P [x1 y x2 estén fuera de los límites] = P [x1 esté fuera] · P [x2 esté
fuera] = 0.04552 = 0.00207.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
20
Esta probabilidad es incluso más pequeña que la de recibir una señal
falsa en un gráfico de Xm con límites de 3σ. Por tanto, si el proceso
da un aviso y la siguiente muestra lo repite, el proceso funciona bajo
la presencia de causas atribuibles.
Los límites de aviso permiten que el gráfico de control sea más
sensible a los cambios en los parámetros del proceso, el
inconveniente es que su interpretación no es demasiado precisa y, en
ocasiones, pueden llevar a equívocos.
6. CURVA CARACTERÍSTICA OPERATIVA
La probabilidad de aceptación de una muestra no es más que la
probabilidad de asumir que el proceso está bajo control. Esta
probabilidad depende en cada caso, de si realmente el proceso está
bajo control o no. Así pues, dado el contraste de hipótesis
H0: Proceso bajo control
H1: Proceso fuera de control
la probabilidad de aceptación viene dada por
donde α y β denotan, como es habitual, las probabilidades de
cometer error de tipo I y II, respectivamente. Esta probabilidad de
aceptación variará de acuerdo con el cambio que se produzca en el
proceso de producción, por ejemplo, si el desajuste se produce en la
media, será una función de la diferencia existente entre la verdadera
media del proceso y la media bajo H0 de modo que cuanto mayor sea
dicha diferencia, tanto menor será la probabilidad de aceptación y
viceversa.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
21
En consecuencia, la Curva Característica Operativa, también
denominada Curva Característica de Operación o Curva OC, asociada
a un gráfico de control, es una representación gráfica de la
probabilidad de cometer error de tipo II, β. Esta función dependerá,
en general, del tamaño muestral considerado y del cambio producido
en el proceso, esto es
β=f(n,α,d)
donde d representa dicha alteración.
Un fácil procedimiento para su cálculo se describe a continuación.
Sean θ1 y θ0 el valor real del parámetro de interés y bajo la hipótesis
nula, respectivamente. Entonces el cambio producido viene dado por:
d=θ1-θ0
Por tanto, los pasos a seguir son:
Paso 1) Se establecen límites superior e inferior del gráfico de control
correspondiente, dado un valor k (generalmente k = 3).
Paso 2) Se obtiene la desviación típica a partir de los límites como
Paso 3) Se selecciona la diferencia d. Usualmente los valores de d se
toman múltiplos de σW con objeto de facilitar los cálculos
Paso 4) Se calcula la probabilidad de aceptación de una muestra para
carla diferencia d.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
22
Ejemplo. Los límites de control establecidos para vigilar la estabilidad
de la longitud media de cable eléctrico fueron 25±5. Para ello, se
extrajeron varias muestras de tamaño 6 y se calculó la media
muestral para cada una de ellas. Por tanto, el estadístico a partir del
cuál se construyeron los límites de control para la media fue W =Xm
El uso del gráfico de control equivale al contraste de hipótesis
siguiente:
H0 : µ= 25; H1 : µ≠ 25
Puede prescindirse del Paso 1 puesto que el ejemplo ya proporciona
los límites de control. En el Paso 2, se obtiene la desviación típica σXm
Así pues, tas diferencias d serán, por ejemplo, 0, 5/3 , 10/3, 5, 20/3
,25/3 ,10.
Seguidamente se calcula la probabilidad de aceptación para cada
valor de d:
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
24
La figura 2.4 muestra la representación gráfica de la curva OC donde
puede apreciarse la simetría con respecto al valor µ0= µ1=25
(↔d=0)
La Curva OC y el tamaño muestral.
Obsérvese que la relación entre d y σW es crucial para estudiar el
comportamiento de la curva característica operativa, ya que:
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
25
Por otra parte, centrándose en el estudio de la media del
proceso y extrayendo muestras de tamaño n, el estadístico W será
Xm. Entonces, puesto que σXm = σ/(n)1/2 al aumentar el tamaño
muestral n, disminuye la desviación típica σXm, con lo que aumenta el
cociente d/σXm y, por tanto, disminuye la probabilidad de aceptación.
En consecuencia, al aumentar el tamaño de las muestras, la curva
OC, en este caso, resulta más pronunciada; por el contrario, si el
tamaño de las muestras se hace pequeño, la curva OC tenderá a ser
una línea horizontal. Esta relación entre la curva OC y el tamaño de la
muestra posibilita la obtención del tamaño mínimo que debe tener
una muestra, fijada la probabilidad de detección de un cierto cambio
en la media del proceso.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
26
Ejemplo. Una planta diseña un nuevo componente para máquinas
agrícolas y se dispone a su fabricación. El director de dicha planta
desea saber si los estándares de calidad son óptimos y estables. Para
ello se mide una cierta característica de calidad del componente cuya
media se espera que sea igual a 10. Si se sabe además que la
desviación típica del proceso es 0.5 ¿cuál será el tamaño muestral
mínimo necesario para detectar un cambio de 1 unidad hacia arriba
en la media, con probabilidad 0.95, justo en la primera muestra
después del cambio?
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
27
La curva OC y la longitud media de racha
Una racha es el conjunto de muestras que es necesario
inspeccionar para que se detecte una señal de que el proceso está
fuera de control en el gráfico correspondiente. Entonces, la longitud
de racha se define como el nº de muestras que componen dicha
racha. Así, por ejemplo, si en un gráfico de control se produce una
señal en la 5ª muestra observada, la racha está formada por las
muestras 1, 2, 3, 4 y 5 y la longitud de macha es 5.
Considérese entonces la variable aleatoria J que representa la
longitud de racha. Su función masa de probabilidad viene dada por:
donde Y → BN (1, θ) con θ la probabilidad de detectar un cambio en
el proceso en la primera muestra después del cambio. Obsérvese que
la variable aleatoria Y representa el “número de muestras correctas
antes de que se produzca la primera señal”.
Su función de distribución es, por tanto,
que se conoce como longitud media de racha y se nota ARL.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
28
Obsérvese que la curva OC y la longitud media de racha, ARL, están
estrechamente relacionadas entre sí: la primera representa la
probabilidad de aceptación de una muestra, esto es
P[aceptación]=1-P[detección]=1-θ
mientras que la segunda es el inverso de la probabilidad de rechazo
de la muestra (o de detección de la señal), 1/θ. En consecuencia, a
medida que la probabilidad de aceptación de una muestra disminuye,
la probabilidad de detección de una señal aumenta y, por
consiguiente, la longitud media de racha disminuye hasta un valor
mínimo igual a 1. Esto parece lógico, ya que habrá que inspeccionar
menos muestras para detectar el cambio. Si, por el contrario, la
probabilidad de aceptación de una muestra aumenta, esto implica
que el número de muestras que habrá que extraer para detectar un
cambio será mayor, con lo que la longitud media de racha
aumentará.
Existen tablas para calcular la longitud media de racha en un gráfico
para la media. En anexos se incluyen dos de ellas, cuando la
desviación típica del proceso es conocida (Tabla A3) y cuando ésta es
desconocida pero se estima a partir de los recorridos muestrales
(Tabla A4).
7.- GRÁFICOS DE CONTROL DE ATRIBUTOS
No todas las características de calidad pueden ser representadas
de manera adecuada mediante números, pues hay casos en los que
cada artículo o producto inspeccionado se debe clasificar como
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
29
conforme o disconforme respecto a las especificaciones para la
característica de calidad considerada también suele hablarse de
artículos defectuosos o no defectuosos, aunque la anterior
terminología está más extendida. Estas características de calidad se
denominan atributos. Como ejemplo de atributo se puede considerar
que un tornillo es conforme si su longitud está entre 1.9 y 2.1 cm.,
mientras que en caso contrario será disconforme.
El gráfico construido para el control de este tipo de medida de
calidad, se denomina Gráfico de Control de Atributos. Los cuatro
gráficos que se utilizan habitualmente son:
• Gráfico p, que se refiere a la fracción de artículos disconformes o
defectuosos producidos en un proceso de fabricación.
• Gráfico np, que se refiere al número de artículos disconformes o
defectuosos producidos en un proceso de fabricación.
• Gráfico c, donde se mide el número de disconformidades o defectos
observados.
• Gráfico u, que analiza el nº de defectos por unidad inspeccionada.
8.- GRÁFICO DE CONTROL PARA LA FRACCIÓN DE
DISCONFORMES: GRÁFICO P
Se considera una inspección de calidad de un artículo del siguiente
modo: se examinan de manera simultánea varias características de
calidad y si una o más de una de ellas no está de acuerdo con un
estándar predeterminado, se clasifica el artículo como disconforme.
Entonces, se define la fracción (o proporción) de artículos
disconformes, o fracción disconforme, como el cociente del número
de artículos disconformes como el cociente del nº de artículos
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
30
disconformes en una población entre el número total de artículos que
contiene dicha población. En general, la fracción de disconformes se
suele representar mediante un número decimal (en tanto por uno),
aunque a veces se representa el porcentaje de disconformes, que es
el producto por 100 de la fracción disconforme (en tanto por ciento),
aunque se suele trabajar con la fracción de artículos disconformes, se
podría analizar también la fracción de artículos conformes, con lo que
se tendría un gráfico de control para el rendimiento del proceso.
Los principios estadísticos en los que se basa el diagrama de
control de la fracción o proporción de artículos disconformes proceden
de la distribución Binomial, puesto que si el proceso de producción
funciona de manera estable, la probabilidad de que cualquier artículo
no esté conforme con las especificaciones es una constante (p), y los
artículos producidos de manera sucesiva son independientes.
Entonces, la disconformidad de cada artículo producido es una
variable aleatoria de Bernouilli, con parámetro p. Si se selecciona una
muestra aleatoria de n artículos del producto estudiado, y si X es la
variable aleatoria que representa el “número de artículos
disconformes en dicha muestra”, entonces X sigue una distribución
Binomial de parámetros n y p:
El objetivo del gráfico p es calcular y controlar la proporción o
porcentaje de artículos defectuosos es decir, p. Una estimación para
p a partir de la muestra es la fracción disconforme muestral, que se
define como el cociente del número de artículos disconformes X en la
muestra, entre el número de artículos de la muestra (n), es decir:
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
31
Se puede obtener la distribución de la variable aleatoria a partir
de la distribución Binomial de X, mediante la expresión
respectivamente. Si n es grande, la distribución Binomial puede
aproximarse por la distribución Normal, de modo que el estimador de
se distribuye según una Normal de parámetros p y
Este resultado es la base para desarrollar un gráfico de control
de la fracción de disconformes.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
32
Si se conoce el verdadero valor de la fracción disconforme p en el
proceso de fabricación o se dispone de un valor estándar para ella,
entonces, a partir del modelo general para el gráfico de control la
línea central y los límites de control del gráfico de la fracción
disconforme serán:
Si los cálculos dan lugar a un LIC negativo, se tomará igual a 0,
puesto que la fracción disconforme nunca puede tornar valores
negativos.
Para utilizar el gráfico de control, se observan m muestras
sucesivas de tamaño n del artículo inspeccionado, se calcula la
fracción disconforme en cada muestra p y se representa en el gráfico.
Mientras que los p estén dentro de los límites de control y la sucesión
de puntos no exhiba un patrón sistemático, se concluirá que el
proceso está bajo control estadístico; mientras que si hay valores
fuera de los límites de control o si se observa un patrón no aleatorio
entre los puntos, habrá que concluir que la fracción de disconformes
del proceso cambió hacia un nuevo nivel y el proceso está fuera de
control.
También puede ocurrir que las m muestras consideradas tengan
distintos tamaños ni (i = 1 . . . , m). En este caso, cada muestra tiene
sus propios límites de control relacionados con su tamaño, es decir:
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
33
Para que todas las muestras tengan los mismos límites de
control, se puede realizar el gráfico a partir de un tamaño muestral
promedio, obteniendo así unos límites de control constantes
aproximados. El tamaño muestral promedio es:
y los límites de control aproximados son:
Si hay alguna muestra con valor muy próximo a los límites de control
es conveniente calcular su límite exacto para ver si el proceso está
bajo control.
La consideración de límites aproximados solo tiene sentido cuan do
los distintos tamaños muestrales están razonablemente próximos. Se
considera que dichos tamaños muestrales están próximos si todos
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
34
ellos se encuentran en torno al 25% a cada lado del tamaño muestral
promedio.
Cuando se desconoce la fracción disconforme p de artículos del
proceso, hay que estimarla a partir de los datos observados. En este
caso, los límites de control obtenidos se pueden considerar límites de
control de prueba (en el periodo base) y estos límites permiten
comprobar si el proceso estaba bajo control cuando se obtuvieron las
m muestras iniciales. Para ello, se representa en el gráfico la fracción
muestral disconforme para cada muestra, p, y se compara con los
límites de control obtenidos. Si todos los puntos están dentro de los
límites de control y no se manifiesta un comportamiento sistemático,
entonces se concluirá que el proceso estaba bajo control en el
pasado, y que los límites de control de prueba son adecuados para
controlar la producción actual y futura.
Si se quiere controlar la producción actual o futura, hay que basarse
en datos de un proceso que está bajo control. Por el contrario, si uno
o más de los puntos i se encuentran fuera de los límites de control de
prueba, se rechaza la hipótesis de un estado de control anterior, por
lo que es necesario revisar los límites de control de prueba. Para ello,
se examina cada uno de los puntos obtenidos fuera de control y se
busca una causa atribuible a cada uno de ellos. Si se encuentra la
causa por la que la muestra estaba fuera de los límites de control, se
descarta la muestra del estudio y se vuelven a calcular los límites de
control de prueba, utilizando únicamente las muestras restantes.
Entonces, se representa el nuevo gráfico de control y se examina si
las muestras restantes están bajo control con estos nuevos límites
(los puntos que inicialmente estaban bajo control podrían salir fuera
de estos nuevos límites, ya que éstos, a veces, son más estrechos
que los anteriores). Este proceso continúa hasta que todas las
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
35
muestras estén bajo control y, a partir de este momento, se aceptan
los límites de control de prueba como límites de control para vigilar el
proceso (para el periodo de vigilancia).
Si el gráfico de control se basa en un valor conocido o estándar de la
fracción disconforme p, entonces el cálculo de límites de control de
prueba suele ser innecesario. Sin embargo, se debe tener cuidado al
trabajar con un valor estándar de p, puesto que en la práctica
raramente se conoce con exactitud el verdadero valor de p, y
normalmente se proporciona un valor estándar que representa un
valor deseado u objetivo para la fracción disconforme del proceso. Si
está fuera de control, se tendría que determinar si el proceso está
fuera de control para ese p, pero dentro de control para otro valor de
p. Por ejemplo, si se especifica un valor objetivo de p = 0.18, pero el
proceso realmente está bajo control para un valor de la fracción
disconforme p = 0.15. Utilizando el diagrama de control con base p =
0.18, muchos puntos caerán por debajo del límite inferior de control,
indicando una situación de fuera de control. Sin embargo, el proceso
sólo está fuera de control respecto al objetivo p = 0.18. Algunas
veces es posible mejorar el nivel de calidad usando valores objetivos,
o poniendo bajo control un proceso a un nivel particular de calidad.
Los valores objetivos para p pueden ser útiles en procesos en los
cuales es posible controlar la fracción disconforme mediante ajustes
sencillos.
Estas observaciones son válidas también para el resto de gráficos de
control de atributos.
Como ya se ha indicado, cuando se desconoce el valor de p es
necesario estimarlo a partir de las m muestras extraídas durante el
periodo base. Sin embargo, el número de artículos contenidos en
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
36
cada muestra puede ser variable, por lo que distinguiremos los casos
de tamaño muestral constante y variable.
Tamaño Muestral Constante
Para estimar el valor del parámetro desconocido en el periodo
base, se toman m muestras preliminares todas ellas de tamaño n.
Como regla general, m tendría que ser al menos 20. Entonces, si hay
x artículos disconformes en la muestra i se calcula la fracción
disconforme de la i-ésima muestra, pi como:
y la media de estas fracciones disconformes muestrales individuales
es:
Este estadístico estima la fracción disconforme p desconocida, por lo
que los límites de control del gráfico de control de la fracción
disconforme son los siguientes:
Ejemplo. Los resultados de muestras obtenidas para la inspección de
un cierto producto durante los primeros 25 días del mes de febrero
aparecen en la Tabla 3.1. En ella se ha calculado la proporción de
artículos disconformes para cada día.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
37
Si consideran estos 25 días de febrero como período base, la
estimación de p es:
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
38
Los límites de control están representados en la Figura 3.1 y son, por
tanto
Si se revisa la columna de la fracción defectuosa, se ve que las
muestras correspondientes a los días 4 y 9 de febrero están fuera de
los límites de control. De estos dos días, se puede llegar a establecer
la causa del mayor número de unidades defectuosas producidas el 9
de febrero. Si no parece probable que se repita, se elimina el punto
del análisis del período base. El objetivo del análisis del período base
es establecer qué estándar se puede lograr. La causa del punto fuera
de control que se produjo el 4 de febrero no se puede establecer, de
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
39
modo que se conserva en el análisis como parte de la variabilidad
natural del proceso. Una vez excluido el lote del 9 de febrero, la
estimación de p y los nuevos límites de control están representados
en la siguiente figura:
Ahora el punto correspondiente al día 4 de febrero está fuera de los
límites de control. Como es la única muestra que está fuera de
control, se ve lo que sucede si se excluye del análisis, de manera que
los nuevos límites de control están representados en la Figura 3.3 y
son:
Entonces, el punto asociado al día 17 de febrero se sale de los límites
de control, por lo que sería conveniente introducir de nuevo el
correspondiente al día 4 de febrero en el análisis y seguir
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
40
considerando su anomalía como una situación normal de causa
aleatoria.
Tamaño Muestral Variable
En algunos casos, se pueden producir diferentes cantidades de
artículos en cada período de inspección, con lo que el gráfico de
control tendría entonces un tamaño muestral variable.
Si se tienen m muestras, cada una de ellas de tamaño ni = 1,. . . , m,
donde pi es la fracción de disconformes en la muestra i-ésima, la
estimación de p en el periodo base es el promedio ponderado:
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
41
Por tanto, los límites de control para el período i-ésimo son:
es decir, para cada muestra individual se tienen los límites de control
basa dos en su tamaño muestra!, también denominados límites
específicos.
Ejemplo. Los resultados de muestras obtenidas para la inspección un
cierto producto durante los primeros 25 días del mes de febrero
aparecen en la Tabla 3.2. En ella, se han añadido los límites de
control propios de cada muestra.
El estimador de la fracción de disconformes, para las 25 muestras es:
Entonces, los límites de control para cada muestra se obtienen como:
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
42
y se recogen en la Tabla 3.2, junto con la fracción disconforme de
cada muestra. Además, están representados en la Figura 3.4 y se
puede observar que el proceso está bajo control estadístico en el
periodo base.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
43
Un método alternativo a éste, para obtener unos límites de control
iguales para todas las muestras, consiste en realizar el gráfico de
control a partir del tamaño muestral promedio, obteniendo así unos
límites de control aproximados, que se calculan como
Ejemplo. En el Ejemplo anterior, el tamaño muestral promedio es
y el intervalo de tamaños muestrales que da su 25% es (7.47,
12.45), con lo que todos los tamaños muestrales están dentro del
intervalo y se puede utilizar el tamaño muestral promedio.
Entonces, los límites de control aproximados están representados en
la Figura 3.5 y son:
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
44
Gráfico p Normalizado
Este gráfico consiste en la normalización del gráfico p, de manera que
los límites de control estén en los valores ±k y la línea central en
cero. Para ello, se representan en el gráfico los puntos:
Ejemplo. Los valores de p normalizados y los gráficos p normalizados
de los Ejemplos anteriores se encuentran en las Tablas 3.1 y 3.2 y en
las Figuras 3.6 y 3.7, respectivamente.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
46
9.- GRÁFICO NP
El gráfico np, que estudia el número de artículos disconformes, se
reduce directamente al gráfico p con todos los tamaños muestrales
iguales que se han utilizado, sin más que multiplicar por n los límites
de control obtenidos.
Entonces, si se conoce el verdadero valor del número de artículos
disconformes np (o bien de la fracción disconforme p) en el proceso
de fabricación, o se dispone de un valor estándar para él, los límites
de control para el gráfico np son:
En el caso en el que se desconoce el verdadero valor del número de
artículos disconformes np (o la fracción disconforme p), hay que
estimarla a partir de los datos observados. Para ello, se toman m
muestras preliminares, todas ellas de tamaño n, en las que hay x
artículos no conformes en la muestra i. Entonces, la media de
artículos disconformes es:
Este estadístico estima el número de artículos disconformes y
de él se puede obtener el valor de i que se va a utilizar en los límites
de control. Entonces, los límites de control del gráfico de control de
artículos disconformes son los siguientes:
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
47
Ejemplo. Se retoman los datos de un ejemplo anterior (véase Tabla
3.1) y se construye un gráfico np.
Si se consideran los artículos inspeccionados durante los primeros 5
días de febrero como período base, la estimación de los parámetros
necesarios es:
El análisis es totalmente análogo al caso del gráfico p, así si se revisa
el número de artículos disconformes en cada día, se puede ver que
los de los días 4 y 9 de febrero están fuera de los límites de control.
De estos dos días, se puede llegar a establecer la causa del mayor
número de unidades defectuosas producidas el 9 de febrero. Si no
parece probable que se repita, se elimina el punto del análisis del
período base. El objetivo del análisis del período base es establecer
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
48
qué estándar se puede lograr. La causa del punto fuera de control
que se produjo el 4 de febrero no se puede establecer, de modo que
se conserva en el análisis como parte de la variabilidad natural del
proceso. Una vez excluida la producción inspeccionada el 9 de
febrero, la estimación de p y los nuevos límites de control,
representados en la Figura 3.9, son:
Ahora el punto correspondiente al día 4 de febrero está fuera de los
límite de control. Si se excluye del análisis, los límites de control,
representados en la Figura 3.10, son:
Entonces la muestra del día 17 de febrero se sale de los límites de
control, por lo que sería conveniente introducir de nuevo la del día 4
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
49
en el análisis y seguir considerando su anomalía como una situación
normal de causa aleatoria.
Se puede observar que los gráficos p y np son idénticos salvo la
escala del eje vertical.
10.- GRÁFICOS DE CONTROL DE DISCONFORMIDADES
Cada punto concreto en el que no se satisface una especificación
es un defecto o disconformidad; por tanto, un artículo disconforme
tendrá, por lo menos, una disconformidad, aunque dependiendo de
su naturaleza y su gravedad, es posible que posea varias
disconformidades y no sea clasificado como tal, siempre que su
funcionamiento no se vea afectado seriamente. Hay muchos casos en
los que es preferible trabajar directamente con el conjunto de
disconformidades en lugar de la fracción de disconformes, por
ejemplo si se estudia el número de parches en 50 metros de tubería.
La condición para el uso de este nuevo gráfico es que la unidad de
inspección sea homogénea en todas las muestras. Las unidades de
inspección no tienen que tener el mismo número de artículos, ya que,
por ejemplo, se inspeccionan cajas de alfileres con un contenido
similar, porque revisar los alfileres uno a uno es una labor tediosa y
costosa. Así se pueden crear dos tipos de gráficos de control:
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
50
1. Gráfico del número de disconformidades en una unidad de
inspección o Grafico c, cuando la unidad de inspección permanece
razonablemente constante de un período a otro.
2. Gráfico del número de disconformidades por unidad o Gráfico u,
cuando se quiere expresar el número total de disconformidades
respecto a un número de unidades de inspección n.
Gráfico de Control del Número de Disconformidades en una
Unidad de Inspección: Gráfico c
Se estudia el número de disconformidades en una unidad de
inspección con tamaño muestral constante del artículo observado,
siendo una unidad de inspección una entidad apropiada para registrar
las disconformidades (por ejemplo, un número concreto de artículos).
Si se define la variable aleatoria C como el número de
disconformidades por unidad de inspección, ésta se distribuye según
una distribución de Poisson de parámetro (c> 0), esto es:
La media y varianza de la distribución de Poisson son iguales y
coinciden con el valor del parámetro, c. Por tanto, los límites de
control para el gráfico e con los límites de kσ son:
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
51
supuesto que se tiene un valor estándar para el parámetro
desconocido c.
Si los cálculos dan lugar a un LIC negativo, se tomará igual a 0.
Si no se tiene un valor estándar para c, se estimará mediante el
número medio de disconformidades presentes en las m muestras
tomadas en el período base:
Los límites de control serán entonces:
Ejemplo. Los resultados obtenidos al observar el número de
disconformidades en muestras de 200 cristales para ventanas se
encuentran en la Tabla 3.3.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
52
La unidad de inspección está formada por 200 artículos. El número de
disconformidades es de 410 y hay 22 muestras, así que la estimación
de c es c = 18.6364. Los límites de control 3σ para el periodo base se
representan en la Figura 3.11 y vienen dados por:
Ningún punto sale fuera de los límites de control de modo que éstos
serán los valores estándares de los límites de control para el período
de vigilancia.
Gráfico c Normalizado
Este gráfico consiste en la normalización del gráfico c, de manera
que los límites de control estén situados en los valores ±k y la línea
central en cero. Para ello, se representan en el gráfico los puntos:
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
53
Gráfico de Control del Número de Disconformidades por
Unidad: Gráfico u
Para llevar a cabo el estudio de este gráfico se distinguen dos
casos, atendiendo al tamaño muestral, que puede ser constante o
variable.
Tamaño Muestral Constante
Si hay X disconformidades en una muestra de n unidades,
donde la variable aleatoria C sigue una distribución de Poisson de
parámetro c, entonces el número de disconformidades por unidad
será:
U=C/n
Se sabe que U es una variable aleatoria de Poisson, puesto que es
una combinación lineal de variables aleatorias independientes de
Poisson, y su distribución de probabilidad está dada por:
donde [na] es el mayor entero menor o igual que na. La media y la
varianza de U son:
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
54
Por tanto, los límites de control para el gráfico u con los límites de ka
se calculan como:
si se tiene un valor estándar para el parámetro desconocido u.
Si los cálculos dan lugar a un LIC negativo, se tomará igual a 0.
Si no se dispone de un valor estándar para u, se estimará mediante
el número de disconformidades por unidad presentes en las m
muestras tomadas en el período base:
Por tanto, los límites para el gráfico de control son:
Ejemplo. Un fabricante de lavadoras desea establecer un gráfico de
control de disconformidades por unidad en la línea de montaje final.
Los resultados de 20 muestras de cinco lavadoras cada una aparecen
en la Tabla 3.4.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
55
El valor de la línea central es:
y los límites de control 3σ quedan:
y se representan en la Figura 3.13.
Estos datos no presentan una falta de control estadístico; por lo
tanto, se adoptarían estos límites para el período de vigilancia. Así,
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
56
un estándar realista para el número medio de disconformidades
en la línea de montaje final por lavadora será um 2.11.
Tamaño Muestral Variable
En muchos casos el número de unidades en una muestra no es
constante, por ejemplo, en la inspección del número de erratas en
documentos. El tamaño muestral varía, pues no todos los
documentos tienen la misma extensión. Entonces, se debe utilizar un
gráfico de control del número de disconformidades por unidad
(gráfico u) que tendrá una línea central constante pero los límites de
control variar en forma inversamente proporcional al tamaño de la
muestra.
Por tanto, los límites de control para el gráfico u en la muestra iésima
con los límites de kσ son:
dado un valor estándar para el parámetro desconocido u.
Si no se tiene un valor estándar para u, se estimará mediante el
número de disconformidades por unidad presentes en las m muestras
tomadas en el período base, o lo que es lo mismo, el valor ponderado
de cada u denotado como um y que se calcula como:
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
57
Por tanto, los límites para el gráfico de control en la muestra i-ésima
vienen dados por:
En este caso, también se puede trabajar con el tamaño
muestral promedio, en las mismas condiciones que se comentaron
para el gráfico p.
Ejemplo. En una empresa se inspeccionan libros para descubrir el
número de erratas, considerando cada capítulo como una unidad de
inspección. El valor estándar del número de erratas por capítulo es de
1.5 y se quiere saber si este valor estándar se mantiene en rigor. Los
datos para diez libros aparecen en la Tabla 3.5.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
58
Como se conoce el valor estándar de u = 1.5, se trabaja en el periodo
de vigilancia. Por consiguiente, los límites de control 3σ para el
periodo de vigilancia son:
Así, los límites de control para cada tamaño muestral se encuentran
en la Tabla 3.6.
Se puede observar el gráfico u en la Figura 3.14, donde se ve que el
proceso está bajo control estadístico en el periodo de vigilancia, pues
todas las muestras se encuentran dentro de los límites de control.
Gráfico u Normalizado
Este gráfico consiste en la normalización del gráfico u, de
manera que los límites de control estén en los valores ±k y la línea
central en cero. Para ello, se representan en el gráfico los puntos:
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
59
Ejemplo. En la Tabla 3.6 se encuentran los valores normalizados y en
la Figura 8.15 se puede ver el gráfico u normalizado del Ejemplo
11.- SISTEMA DE CALIFICACIÓN DE DEMÉRITOS
Si se estudian productos complejos como electrodomésticos,
vehículos a motor o aparatos mayores, se puede comprobar que
pueden tener muchos tipos de disconformidades o defectos y no
todos ellos de la misma importancia. Probablemente un artículo con
un defecto muy grave se clasificaría como disconforme respecto a los
requisitos, pero uno con varios defectos menores no necesariamente
tendría que ser disconforme. En estos casos es necesario un método
que permita clasificar las disconformidades o defectos de acuerdo con
su gravedad y ponderar los diversos tipos de defectos de un modo
razonable. Una clasificación de las disconformidades es:
• Clase A (defectos muy graves): El artículo es completamente
inadecuado para su utilización o fallará de manera que no se pueda
reparar con facilidad en el lugar de trabajo, o bien ocasionará
lesiones personales o daños materiales.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
60
• Clase B (defectos graves): El artículo quizás sufrirá un fallo del tipo
A, generará seguramente problemas operacionales menos graves o
reducirá su duración o incrementará los costos de mantenimiento.
• Clase C (defectos moderadamente importantes): El artículo
probablemente fallará durante su utilización, causará problemas
menos graves que los defectos anteriores, tendrá tal vez duración
reducida, producirá un aumento en los costos de mantenimiento, o
bien tendrá un defecto importante en el acabado, la presentación o la
calidad del trabajo.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
61
• Clase D (defectos poco importantes): El artículo no fallará durante
su utilización, pero presenta defectos menores en el acabado, la
presentación o la calidad del trabajo.
En el plan Dodge-Torrey los defectos se clasifican dentro de los
grupos A, B, C y D, con un peso ponderado de l00, 50, 10 y 1,
respectivamente, aunque se pueden considerar otros pesos más
adecuados dependiendo del trabajo que se esté realizando.
Sean CA, CB, Cc y CD variables aleatorias que miden el número
de defectos de cada tipo en una unidad de inspección. Así:
con cK el número medio de defectos de tipo K.
Sea D la variable aleatoria que mide el número de deméritos en una
unidad de inspección, definida como:
D = 100CA + 50CB + l0Cc + CD.
Entonces, si la muestra contiene u unidades, la variable
aleatoria U =D/n mide el nº de deméritos por unidad y sus
parámetros son:
donde uK =Ck/n es el número de defectos por unidad de tipo K = A,
B, C, D.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
62
En consecuencia, el gráfico de control para el número de
deméritos por unidad cuando se conocen los valores estándares de
uA,uB,uC y uD tiene los siguientes límites de control:
En caso contrario, se estiman dichos parámetros mediante el
número medio de defectos de cada tipo presentes en las m muestras
tomadas en el periodo base. Así, si se extraen m muestras de igual
tamaño n, el número de deméritos por unidad en la muestra i-ésima
viene dado por:
donde uKi es el número de defectos de tipo K por unidad en la
muestra i, es decir cKi/n, para K = A,B,C,D.
Por tanto, una estimación de la media y de la varianza del
número de deméritos por unidad es:
donde uK es el número medio de defectos por unidad de tipo K, es
decir:
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
63
Finalmente, los límites de control para el número de deméritos por
unidad son:
Si, por el contrario, las muestras poseen un tamaño variable n i 1,...,
m, se toma:
con uk el número medio de defectos por unidad de tipo K en las m
muestras, es decir,
y se establecen límites específicos:
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
64
También se puede emplear el tamaño muestral promedio siguiendo el
mismo criterio del gráfico p, de manera que los límites de control
aproximados son:
Ejemplo. Se desea establecer un gráfico de control de deméritos
mediante el plan Dodge–Torrey para el período base de un modelo de
batidoras. Para ello, se estudian 3 meses consecutivos, cuyos
resultados se muestran en la Tabla 3.7.
Como todos los tamaños muestrales se encuentran en el
intervalo 250 ± 0.25·250 = (187.5,312.5), se puede utilizar el
tamaño promedio n = 250.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
65
Entonces:
Por tanto, los límites de control 3a son:
Se observa que el mes de febrero se sale de los límites de
control, por lo que es conveniente investigar la causa por la que en
ese mes se produce un número de defectos fuera de los límites de
control.
Una vez conocido que la causa es el cambio de maquinaria, se puede
eliminar esa muestra del estudio para obtener los límites de control
para el periodo de vigilancia.
Entonces:
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
66
Como todos los tamaños muestrales se encuentran en el intervalo
270 ± 0.25 · 275 = (206.25,343.75), se puede utilizar el tamaño
promedio n = 275 y entonces:
El proceso ya es estable y estos límites se consideran durante el
período de vigilancia.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
67
Unidad Didáctica 2: Metrología
1.- INTRODUCCIÓN
La presente unidad responde a la necesidad de poner en manos de
quienes no son metrólogos un material, científica y técnicamente
confiable, que sea un primer acercamiento a lo esencial de la
Metrología y que, por lo tanto, les ayude a comprender su
importancia.
A través de la historia se comprueba que el progreso de los
pueblos siempre estuvo relacionado con su progreso en las
mediciones. La Metrología es la ciencia de las mediciones y éstas son
una parte permanente e integrada de nuestro diario vivir que a
menudo perdemos de vista. En la metrología se entrelazan la
tradición y el cambio; los sistemas de medición reflejan las
tradiciones de los pueblos pero al mismo tiempo estamos
permanentemente buscando nuevos patrones y formas de medir
como parte de nuestro progreso y evolución.
Es por medio de diferentes aparatos e instrumentos de medición que
se realizan pruebas y ensayos que permiten determinar la
conformidad con las normas existentes de un producto o servicio; en
cierta medida, esto permite asegurar la calidad de los productos y
servicios que se ofrecen a los consumidores.
Las mediciones correctas tienen una importancia fundamental para
los gobiernos, para las empresas y para la población en general,
ayudando a ordenar y facilitar las transacciones comerciales. A
menudo las cantidades y las características de un producto son
resultado de un contrato entre el cliente (consumidor) y el proveedor
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
68
(fabricante); las mediciones facilitan este proceso y por ende inciden
en la calidad de vida de la población, protegiendo al consumidor,
ayudando a preservar el medio ambiente y contribuyendo a usar
racionalmente los recursos naturales.
Las actividades relacionadas con la Metrología dentro de un país son
responsabilidad de una o varias instituciones autónomas o
gubernamentales y, según sus funciones, se caracteriza como
Metrología Científica, Legal ó Industrial, dependiendo de su
aplicación.
La primera está encargada de la investigación que conduce a la
elaboración de patrones sobre bases científicas y promueve su
reconocimiento y la equivalencia de éstos a nivel internacional. Las
otras dos están relacionadas con la diseminación a nivel nacional de
los patrones en el comercio y en la industria. La que se relaciona con
las transacciones comerciales se denomina Metrología Legal y busca
garantizar, a todo nivel, que el cliente que compra algo reciba la
cantidad efectivamente pactada. La otra rama se denomina
Metrología Industrial y se relaciona con la industria manufacturera;
persigue promover en la industria manufacturera y de servicios la
competitividad a través de la permanente mejora de las mediciones
que inciden en la calidad.
Actualmente, con la dinamización del comercio a nivel mundial, la
Metrología adquiere mayor importancia y se hace más énfasis en la
relación que existe entre ella y la calidad, entre las mediciones y el
control de la calidad, la calibración, la acreditación de laboratorios, la
trazabilidad y la certificación.
La Metrología es el núcleo central básico que permite el ordenamiento
de estas funciones y su operación coherente las ordena con el
objetivo final de mejorar y garantizar la calidad de productos y
servicios.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
69
A nivel de Empresa, la competitividad se mide entre otras cosas
por la capacidad de innovar. La innovación se puede dar en procesos
productivos o administrativos, en productos, en servicios, etc. Es
básica para la búsqueda permanente de la calidad a través de la
mejora continua de las actividades. El proceso de mejora continua es
un procedimiento en el cual se usan parámetros de medición que nos
permiten comparar lo que veníamos realizando con lo nuevo que se
implementó, o sea que la medición forma parte integrante del
proceso de innovación.
Desde el punto de vista de la Población, la Metrología es
fundamental para apoyar el control de los productos que se fabrican y
su impacto sobre el bienestar de la población. La población
permanentemente consume productos nacionales y extranjeros y es
la Metrología la llamada a ayudar a determinar que esos productos de
consumo respondan a normas o especificaciones sobre salud y
seguridad. Su relación con la población tiene un doble efecto: no
solamente ayuda a la creación de nuevos empleos a través de
impulsar el desarrollo de las empresas, sino también ayuda a la
protección de ésta al velar por el contenido, la calidad y la seguridad
de los productos que se consumen y su impacto en el medio
ambiente.
A nivel internacional, con la apertura comercial a nivel mundial, la
Metrología adquiere mayor importancia frente a la creciente
interdependencia entre las naciones. Cada día los países se ven más
involucrados en la firma de convenios, de tratados, bilaterales o
regionales, etc. Estos involucran diferentes sectores (industria,
comercio, salud, defensa, medio ambiente, etc.) y las empresas se
ven confrontadas con esquemas de tipo internacional para su
funcionamiento en cuanto a la manufactura, suministro de
materiales, comercialización, etc. Si a esto le sumamos que los
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
70
consumidores se guían cada vez más por patrones globales de
consumo, es esencial contar con una infraestructura técnica que
funcione como espina dorsal para la coordinación y ordenamiento a
nivel global.
La percepción inicial de metrología deriva de su etimología:
del griego metros medida y logos tratado. Actualmente podemos
decir que metrología es la ciencia de las mediciones y que medir
es comparar con algo (unidad) que se toma como base de
comparación.
Una unidad es un valor en términos del cual puede definirse la
magnitud medida que pueda servirnos para comparar. Quizás
convenga destacar que, en tanto que unidad, no debe
descomponerse en sus elementos. Se han desarrollado múltiplos y
submúltiplos para poder expresar magnitudes mayores o menores
que las expresadas por las unidades en sí. Veremos más adelante que
el Sistema Internacional de Unidades, SI, con sus múltiplos y
submúltiplos, es de tipo decimal (potencias de diez ).
Anteriormente citamos algo con que comparar; ese algo se
conoce como patrón. Originalmente, se entendía por patrón a una
representación o materialización física de la unidad. Era necesario
destacar que un patrón es una representación confiable de la unidad
solamente bajo un conjunto de condiciones claramente definidas para
asegurar que no cambien estas condiciones por motivo de
variaciones, por ejemplo, de temperatura, humedad, presión
atmosférica, etc.
Por sus características, el patrón físico no se empleaba directamente
para hacer mediciones. Era, eso sí, el punto de referencia para
construir y utilizar instrumentos de medición.
En la actualidad, y dado que los avances de la ciencia han permitido
definiciones más exactas y confiables de las unidades, basadas en
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
71
constantes físicas universales, se define como patrón a: una medida
materializada, instrumento de medir, material de referencia o sistema
de medición, destinado a definir, realizar, conservar o reproducir una
unidad o uno o varios valores conocidos de una magnitud, a fin de
transmitirlos por comparación a otros instrumentos de medir.
El procedimiento de cómo medir para obtener resultados
reproducibles también es importante y de hecho existen instrucciones
precisas sobre cómo hacer la acción, qué unidades emplear y qué
patrón utilizar.
En el mundo real la forma de medir obedece a la secuencia siguiente:
- decidimos qué mediremos,
- seleccionamos la unidad acorde a la medida,
- seleccionamos el instrumento de medición ( calibrado),
- aplicamos el procedimiento acordado.
2.- QUÉ SE MIDE Y CÓMO
Las unidades del Sistema Internacional de Unidades, SI, son
establecidas por la Conferencia General de Pesas y Medidas (CGPM)
bajo cuya autoridad funciona la Oficina Internacional de Pesas y
Medidas (BIPM - Bureau International des Poids et Mesures) con
sede en Francia. En los párrafos siguientes, las definiciones
internacionales de las unidades son las publicadas por el BIPM,
actualizadas al mes de enero del 2000.
La CGPM decidió establecer el SI, basado en siete unidades bien
definidas. Estas son las llamadas unidades de base que se listan en la
tabla 1.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
72
Originalmente, las medidas de base o fundamentales se
llamaban así por ser consideradas independientes entre sí y permitir,
a su vez, la definición de otras unidades. Los patrones
correspondientes eran medidas materializadas que se conservaban en
lugares acordados y bajo condiciones determinadas. Los avances
científicos y técnicos así como la disponibilidad de instrumentos de
mayor exactitud han dado por resultado que, con excepción del
kilogramo, las unidades de base se definan actualmente de diferente
forma, con base en experimentos físicos. En rigor, se podría
argumentar que en algunos casos las unidades básicas no son
estrictamente independientes entre sí. Por ejemplo, el metro ya no se
define contra el antiguo metro prototipo - una barra de iridio-platino -
y la definición actual involucra el concepto de segundo, otra unidad
de base.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
73
Sin embargo, se considera que el SI, entendido como el
conjunto de unidades básicas y de unidades derivadas, es un sistema
coherente por las razones siguientes:
- las unidades básicas están definidas en términos de constantes
físicas , con la única excepción del kilogramo, definido en
términos de un prototipo,
- cada magnitud se expresa en términos de una única unidad,
obtenida por multiplicación o división de las unidades de base y
de las unidades derivadas adimensionales,
- los múltiplos y submúltiplos se obtienen por medio de
multiplicación con una potencia exacta de diez,
- las unidades derivadas se pueden expresar estrictamente en
términos de las unidades básicas en sí, es decir, no conllevan
factores numéricos.
Los trabajos de definición y refinamiento de las unidades del SI
persiguen en todo momento que las unidades sean coherentes con
las ya existentes.
De estas unidades de base se deriva un gran número de
unidades; algunas de las que están consideradas como unidades
derivadas en el SI se listan en él. De las unidades derivadas quizás
resulte conveniente destacar dos, que anteriormente se conocían
como unidades “complementarias”, y que son las empleadas para
medir los ángulos planos, en el caso del radián (Rad.) y los ángulos
sólidos, en el caso del estereorradián (sr). También se les conoce
como unidades no-dimensionales o adimensionales. El neper y el bel,
cuyo uso es aceptado pero que no forman parte integral del SI, son
también adimensionales.
En el SI se establece además una serie de reglas y convenciones que
tienen que ver con el uso de unidades mixtas, la forma de
seleccionar e identificar los prefijos, el uso de múltiplos y
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
74
submúltiplos, la ortografía, el uso de mayúsculas y minúsculas, de
singular y plural, el agrupamiento de dígitos, el redondeo de valores,
etc. (16,30,37)
Adicionalmente, existen unidades que, sin ser del SI, están
aceptadas para su uso concomitante y son conocidas como unidades
adicionales (tabla 2).
Algunas de ellas se utilizan en forma temporal en tanto su uso es
substituido por las aceptadas, otras únicamente en campos
especializados, por ejemplo el quilate (ct) en joyería. Otras unidades,
cuyo uso no está aceptado con el SI(40,46), se siguen utilizando en
algunos contextos y en algunos países, por ejemplo la dina y el
stokes.
Si ahora vemos la estructura jerárquica de los patrones,
notamos que podemos describirla como una pirámide en cuyo vértice
tenemos el conjunto de patrones que corresponden a las unidades
de base del SI de las que ya hemos hablado.
La segunda posición corresponde al conjunto de patrones
nacionales.
En el siguiente nivel se localizan los patrones de referencia,
conjunto que sirve para preparar los patrones de trabajo a nivel
operativo.
El conjunto de patrones del nivel operativo (patrones de
trabajo) constituye la base de la pirámide.
La cadena de instituciones encargadas de operar el SI está
encabezada por el BIPM, le siguen los Laboratorios Nacionales de
Metrología, a continuación están los Laboratorios de Calibración y por
último los Laboratorios de Trabajo.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
75
a) Aunque esta unidad debería escribirse con minúscula, el
símbolo
alterno “L” para litro fue aceptado por la CGPM para evitar
posibles confusiones entre la letra “l” y el número “1”; no
se acepta la letra cursiva como símbolo.
b) También se consideran unidades adicionales: el electrovoltio
(eV), la unidad de masa atómica unificada (u) y la unidad
astronómica (ua).
3.- CARACTERIZACIÓN DE LA METROLOGÍA
Por conveniencia, se hace a menudo una distinción entre los
diversos campos de aplicación de la metrología; suelen distinguirse
como Metrología Científica, Metrología Legal y Metrología Industrial.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
76
Metrología científica
Es el conjunto de acciones que persiguen el desarrollo de patrones
primarios de medición para las unidades de base y derivadas del
Sistema Internacional de Unidades, SI.
Metrología industrial
La función de la metrología industrial reside en la calibración,
control y mantenimiento adecuados de todos los equipos de medición
empleados en producción, inspección y pruebas. Esto con la Qué se
mide y cómo finalidad de que pueda garantizarse que los productos
están de conformidad con normas. El equipo se controla con
frecuencias establecidas y de forma que se conozca la variabilidad de
las mediciones.
La calibración debe hacerse contra equipos certificados, con relación
válida conocida a patrones, por ejemplo los patrones nacionales de
referencia.
Metrología legal
Según la Organización Internacional de Metrología Legal (OIML) es la
totalidad de los procedimientos legislativos, administrativos y técnicos
establecidos por, o por referencia a, autoridades públicas y puestas
en vigor por su cuenta con la finalidad de especificar y asegurar, de
forma reguladora o contractual, la calidad y credibilidad apropiadas
de las mediciones relacionadas con los controles oficiales, el
comercio, la salud, la seguridad y el ambiente.
4.- APLICACIONES
Una pregunta que puede plantearse es ¿para qué se mide? Sin
entrar en detalle y sin pretender ser exhaustivos, veamos algunas
respuestas restringidas a los aspectos básicos. Como es de esperar,
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
77
en las distintas aplicaciones se realizan distintas acciones que
demandan niveles de confiabilidad que en metrología se identifican
como “variabilidad”, que no es sino el intervalo de confianza de los
resultados de las mediciones.
Longitud
A la medición de la longitud, determinación de distancia, se le
utiliza en mediciones dimensionales tales como: áreas, volúmenes,
capacidades, rapidez y velocidad, redondez. La longitud está incluso
presente en la definición de las unidades llamadas no dimensionales
(radián y estereorradián) para medir ángulos. En general podríamos
decir que es de uso en toda determinación de la forma de un objeto.
Masa
La actividad de conocer cuantitativamente la masa está presente
en todas las actividades humanas. Es por ello que el uso de patrones
e instrumentos para determinar la masa es amplio.
Normalmente todo lo que se produce, vende o intercambia se
relaciona directa o indirectamente con la masa, por lo tanto puede
considerarse que la aplicación de la metrología en su aspecto masa,
en sus distintos niveles, es omnipresente en el quehacer cotidiano.
Temperatura
La sensación de calor o frío es una de las más comunes en los
seres vivientes y el concepto de temperatura y su medición está
presente en innumerables actividades del ser humano.
Puesto que nuestro primer contacto con la medición de temperatura
de tipo científico suele ser el termómetro casero, vienen de inmediato
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
78
a la mente las aplicaciones de tipo médico y en particular la
determinación de la temperatura corporal de los enfermos con la
importancia que puede tener para la evolución de ciertas dolencias.
Pero también se requiere medir temperatura en forma adecuada para
la fabricación de medicamentos, el uso de técnicas de diagnóstico, los
análisis clínicos, la esterilización de material clínico y hospitalario. Los
alimentos, tanto en su preparación como en las técnicas de su
conservación, requieren mediciones de temperatura y, si éstas
pueden ser empíricas a nivel casero, a nivel industrial se requiere
exactitud en las mediciones. La tintorería, la fabricación de cerámica
de todo tipo, la aplicación de esmaltes y pinturas en aparatos
electrodomésticos y en vehículos, la generación de energía, el
transporte refrigerado, el aire acondicionado y tantas más actividades
humanas, requieren mediciones adecuadas de temperatura.
Tiempo
Además de las aplicaciones obvias del diario vivir, muchos
procesos industriales, muchas técnicas médicas dependen de una
medición exacta del tiempo. Aplicaciones usuales son por ejemplo los
taxímetros (basados sólo en tiempo o combinación de tiempo y
recorrido), los relojes registradores (timekeepers), los velocímetros.
La sincronización de actividades tales como las operaciones bursátiles
y las militares, los lanzamientos y acoplamientos de naves espaciales,
etc. demanda la medida exacta del tiempo.
Electricidad y magnetismo
Enumerar las aplicaciones actuales de la electricidad
adecuadamente suministrada y utilizada significaría listar todas las
actividades del hombre, para las cuales es controlada (medida) y
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
79
para ello es necesario disponer de aparatos o sistemas confiables y
de exactitud conocida.
Fotometría y radiometría
El hombre ha desarrollado muchos aparatos y artefactos que le
permiten contar con luz independientemente de las condiciones
naturales y que, aún más, permiten intensidades que difícilmente se
encuentran en la naturaleza. Todos estos aparatos demandan
técnicas confiables de medición para garantizar que efectivamente se
está logrando la intensidad o iluminación deseadas.
Acústica y vibración
Las mediciones exactas en acústica son de importancia para
aspectos tales como el diseño de auditorios y teatros, las
telecomunicaciones, la radio, la fabricación de instrumentos
musicales, la producción de aparatos de reproducción y transmisión
de sonido (incluyendo fonógrafos, micrófonos y amplificadores), la
eliminación de sonidos molestos o peligrosos (en oficinas, áreas de
producción, transporte terrestre y aéreo), el diseño de artefactos de
advertencia como las sirenas de ambulancias y bomberos y ciertos
indicadores a nivel industrial, el sonar, las exploraciones petroleras,
la fabricación y calibración de aparatos para sordera, las microondas,
la sismografía, los ecocardiogramas, el ultrasonido en química, en
medicina con fines de diagnóstico y de tratamiento, en aplicaciones
industriales tales como soldadura.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
80
Radiación ionizante
Las aplicaciones médicas de la radiación ionizante son
probablemente las más conocidas bajo la forma de los rayos X para
diagnóstico y del uso de los isótopos radioactivos en radioterapia y
como trazadores en investigación médica y bioquímica.
Entre las aplicaciones industriales se pueden mencionar la activación
de vitaminas, la síntesis (por ejemplo la de bromuro de etilo), la
polimerización (poliestireno o polietileno), la vulcanización del hule, la
polimerización de monómero de metil-metacrilato, los acabados
textiles para lograr tejidos y prendas de planchado permanente, el
procesamiento de alimentos (cocción, secado, pasteurización, etc.), la
preservación y esterilización de alimentos, el control de la
germinación y de las infestaciones por insectos en granos
almacenados, el “curado” o endurecimiento de acabados tales como
pinturas y tintas, la metalurgia, la geoquímica, la arqueología (C14),
las mediciones de grosor, la generación de energía eléctrica.
Química
En las actividades científicas y en las técnicas es importante
conocer las bases para calcular qué y cuánto de una o varias
substancias debe utilizarse. El caso obvio es el del laboratorio, clínico
o industrial, pero también son importantes los procesos industriales
de todo tipo, unos porque manejan volúmenes muy grandes y
pequeñas variaciones pueden significar toneladas perdidas y otros
porque utilizan cantidades muy pequeñas y variaciones ínfimas
pueden ser cruciales. Es decir que el uso de patrones y materiales de
referencia constituye la base del trabajo (el éxito de producción), y la
garantía de la calidad.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
81
5.- PATRONES Y MATERIALES DE REFERENCIA
INTRODUCCIÓN
Los patrones y materiales de referencia serán los elementos
tratados en más detalle en las secciones siguientes, de acuerdo con el
siguiente modelo:
Consideraciones sobre qué se mide, definición de la unidad,
patrones primarios, exactitud e variabilidad, equipos de medición.
En relación con la variabilidad, es de notar que entre los
metrólogos existen dos escuelas. Una enfoca la variabilidad como un
elemento para denotar la uniformidad del resultado en mediciones
repetidas. La otra usa el término para indicar que se miden
diferencias entre los resultados. En ambos casos recordemos que la
variabilidad no es sino el intervalo de confianza. Los dos enfoques son
válidos según el campo de aplicación, ya sea en laboratorios de
trabajo o en laboratorios nacionales.
Para los laboratorios nacionales y secundarios, se recomienda
trabajar de acuerdo a la guía ISO de 1993, “Guide to the expression
of uncertainty inmeasurement”.
En el continente europeo, con la creación y los trabajos del
Sistema Intereuropeo de Metrología, SEM, se está buscando
lograr la mayor integración y coherencia posible en aspectos de
metrología. Las autoridades del SEM llevaron a cabo, en 1999, un
ejercicio de planeación estratégica. Uno de los aspectos analizados
consistió en determinar las áreas para las acciones a nivel regional y
a nivel de laboratorios nacionales de metrología. Estas áreas
resultaron ser: longitud, masa, temperatura, tiempo y frecuencia,
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
82
electricidad y magnetismo, fotometría y radiometría, acústica y
vibración, radiación ionizante, química.
LONGITUD
Qué se mide
Intuitivamente todos conocemos lo que es longitud o largo. En la
práctica, lo que realmente medimos es la distancia o separación entre
dos puntos y considerando que la definición de patrones actualmente
se orienta al empleo de constantes universales, es importante estar
conscientes de que la longitud implica distancia.
Definición internacional de la unidad de medida de longitud
Definición
La unidad de longitud es el metro (símbolo m) que se define
como la longitud de la trayectoria recorrida por la luz en el vacío
durante un intervalo de tiempo de 1/299 792 458 de segundo.
Patrones
Para hacer prácticas las mediciones de longitud, se requiere una
transferencia de un patrón expresado en términos de la velocidad de
la luz hacia un patrón o artefacto físico.
Para medir longitudes del orden del metro se emplean métodos
interferométricos. El método consiste en comparar la longitud a ser
medida con la longitud de onda l de una radiación luminosa cuya
frecuencia f ha sido previamente determinada con gran exactitud. La
referencia utilizada es la longitud de onda de la radiación producida
por un láser, estabilizado ya sea en frecuencia o en longitud de onda.
En la actualidad, existen modelos portátiles de láser
estabilizados, los cuales le han permitido al BIPM hacer
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
83
comparaciones y calibraciones in situ en una región sin requerir que
varios laboratorios nacionales de metrología se vean obligados a
llevar sus aparatos a Paris para su calibración. Con estas
calibraciones a base de láser, los países pueden contar con sus
patrones nacionales.
De estos patrones nacionales se derivarán de acuerdo a la cadena
que ya vimos, los patrones de calibración y los patrones de ensayo y
de trabajo tales como cintas métricas, reglas y otros. Asimismo, de
éstos se originan todos los artefactos empleados en la vida diaria
para medir la longitud.
Los bloques patrón calibrados por interferometría pueden
constituir la materialización del patrón y de ellos, por comparación
mecánica, se derivan patrones secundarios.
Variabilidades
Como mencionamos anteriormente, en los patrones, utilizando
los láseres estabilizados se pueden obtener variabilidades relativas de
medición de longitud del orden de 10-9 y 10-12.
Equipos de medición
Longitud, anchura, altura, espesor, diámetro, son todas
medidas lineales y se han desarrollado numerosos instrumentos para
poder medirlas en forma simple y con la exactitud requerida en cada
caso.
Así tenemos, entre otros: reglas (de madera, metal o plástico,
rígidas o plegables), cintas métricas (de metal, plástico o tela),
calibradores (de alta precisión, para tuercas y tornillos, para
engranajes), micrómetros, nonios o verniers, bloques patrón,
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
84
medidores de ángulos, divisores (también conocidos como compases
de puntas o bigoteras), medidores de diámetro interior o exterior,
medidores de redondez o de planos, rugosímetros, etc.
MASA
Qué se mide
La 21ª Conferencia General de Pesas y Medidas, en octubre de
1999(13), acordó “recomendar que los laboratorios nacionales
continúen sus esfuerzos para refinar experimentos que vinculen la
unidad de masa a constantes fundamentales o atómicas con miras a
una futura redefinición del kilogramo.”
Definición
El kilogramo (símbolo kg) es la unidad de masa; es igual a la
masa del prototipo internacional del kilogramo.
Patrones
El prototipo internacional es un cilindro de treinta y nueve
milímetros de altura y treinta y nueve milímetros de diámetro, hecho
de una aleación con noventa por ciento de platino y diez por ciento de
iridio. Tiene una densidad aproximada de veintiún gramos y medio
por centímetro cúbico. Se considera como el único patrón primario de
masa.
Exactitud
El patrón actual del kilogramo permite medir la masa con una
exactitud de 1 en 108. La finalidad de disponer de patrones es medir
con exactitud la masa de los cuerpos; por ello es necesario disponer
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
85
de múltiplos y submúltiplos del kilogramo con los cuales se puedan
determinar exactamente las masas deseadas.
Equipos de medición
La balanza es el instrumento más antiguamente conocido que
se utiliza para medir la masa.
Mientras no se cambie la definición del kilogramo sólo podemos
comparar masa y no podremos medirla en forma directa. La técnica
contemporánea permite la construcción de innumerables tipos y
capacidades del artefacto, adecuados para los usos específicos que se
desee, ya sea en laboratorios, industrias, comercios, agencias
estatales, etc. Los requerimientos básicos de las balanzas son que
sean estables, exactas, sensibles y que puedan ser calibradas.
TEMPERATURA
Qué se mide
En el caso de las mediciones de la característica llamada
temperatura, lo que buscamos es un indicador del calor de un cuerpo
dado. Pero calor no es lo mismo que temperatura. Podríamos definir
calor como una forma de energía asociada con y proporcional al
movimiento molecular. Lo que conocemos por temperatura es
realmente el valor de la lectura de un aparato medidor como por
ejemplo un termómetro; por ello decimos que la manifestación del
calor es la temperatura.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
86
Definición
La unidad base de temperatura termodinámica es el kelvin
(símbolo K) que se define como la fracción 1/273,16 de la
temperatura termodinámica del punto triple del agua.
El llamado punto triple del agua es el punto donde es posible el
equilibrio o coexistencia de la sustancia - agua en este caso - en sus
estados sólido, líquido y gaseoso.
La escala práctica o de Celsius, antes conocida como de grados
centígrados, es la más utilizada. Su punto cero es la temperatura de
congelación del agua y al punto de ebullición del agua se le define
como 100 ºC, ambos medidos bajo determinadas condiciones. Por
debajo del cero de esta escala, las temperaturas tienen valor
negativo; por ello decimos comúnmente que en un invierno crudo, las
temperaturas pueden bajar a menos cuarenta grados (grados
Celsius).
Por su parte, la escala de temperatura termodinámica, que por
definición se expresa en kelvin, tiene su punto cero en el llamado
cero absoluto y equivale a -273,16 ºC. Esta escala no tiene por lo
tanto valores negativos y los intervalos son los mismos que los de la
escala Celsius.
Patrones
La materialización de la escala internacional de temperatura EIT-90,
constituye el patrón para la unidad de temperatura. Su propósito es
especificar procedimientos y termómetros prácticos
internacionalmente acordados, que permitan a los laboratorios
nacionales materializar la escala y determinar valores altamente
reproducibles.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
87
Los puntos fijos de definición de la escala EIT-90 son varios y a título
indicativo se dan algunos de ellos en la tabla 3.
Variabilidades
Las celdas selladas permiten calibrar instrumentos de medición
de temperatura con una variabilidad relativa del orden de 10-6.
Equipos de medición
El primer termómetro de que se tiene referencia fue el
construido por el científico italiano Galileo Galilei alrededor del año
1593. Hoy en día, se cuenta con diversos tipos de sensores para
medir temperaturas, todos los cuales infieren la temperatura por
medio de algún cambio en una característica física.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
88
Los de empleo más común son: artefactos de cambio de estado,
artefactos de expansión de fluido, termocuplas o termopares,
artefactos de resistencia y termistores, sensores ópticos e infrarrojos,
artefactos bimetálicos.
TIEMPO Y FRECUENCIA
Qué se mide
El tiempo es un concepto que ha interesado a los físicos y a los
filósofos desde la antigüedad. Aristóteles y Newton, entre muchos
otros, buscaron definir el tiempo y más recientemente Hawking
habla, en sentido matemático, tanto de tiempo real como de tiempo
imaginario.
Para fines prácticos, el tiempo es un concepto relacionado con
el orden y la duración de los eventos; si dos eventos ocurren en
forma no simultánea en un punto dado, ocurren en un orden definido
y con un lapso entre ellos. Para el hombre primitivo, el primer
indicador del transcurrir del tiempo debe haber sido el ciclo diario de
día y noche con los movimientos visibles de los astros. Podemos
razonablemente suponer que, por observaciones, se concibieron
posteriormente las duraciones mayores indicadas por las fases
lunares y por las estaciones.
Definición internacional de las unidades de medida de
tiempo [13ª Conferencia General de Pesas y
Medidas, 1967], y de frecuencia
Anteriormente, la definición se refería al segundo que
podríamos llamar astronómico, en cambio en la actualidad se trata
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
89
del segundo atómico. El segundo (símbolo s) es la duración de 9 192
631 770 períodos de la radiación correspondiente a la transición entre
los dos niveles hiperfinos del estado base del átomo de cesio 133
donde 9192631770 es la frecuencia de la energía involucrada en
dicha transición del cesio; el estado base se considera ser aquél en el
cual los electrones se encuentran en su menor nivel de energía; los
niveles hiperfinos representan el incremento energético más pequeño
que pueden experimentar en este estado.
De esta unidad, se deriva la unidad de frecuencia, el hertz. El hertz
(símbolo Hz) es la frecuencia de un fenómeno periódico, con período
de un segundo.
La hora (símbolo h) y el minuto (símbolo min), no son múltiplos
decimales del segundo y por lo tanto no son unidades del SI. Sin
embargo, su uso es tan generalizado que se consideran como
unidades aceptadas para uso con el SI (ver tabla 3). En ciertos casos,
también es necesario expresar intervalos de tiempo mayores tales
como semana, mes, y año.
Patrones
La realización de la definición de segundo se hace por medio de
un reloj atómico de cesio. Se basa en que los átomos, bajo diversas
excitaciones, emiten radiaciones monocromáticas y por lo tanto
pueden generar un período (duración de una oscilación) definido con
mucha exactitud.
Se consideran patrones secundarios aquellos que emplean otras
fuentes de frecuencia, tales como maser de hidrógeno, patrones de
rubidio, patrones comerciales de cesio, etc., que son suficientemente
exactos para la mayor parte de aplicaciones.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
90
Escalas de Tiempo
La escala TAI, Tiempo Atómico Internacional, es calculada en el
BIPM. En 1999 se basó en alrededor de doscientos relojes atómicos
en cerca de cincuenta laboratorios nacionales de metrología. Para
mantener la escala lo más cercano posible al segundo como lo define
el SI, se usan datos de aquellos laboratorios nacionales que
mantienen los mejores patrones primarios de cesio.
La difusión de la escala se hace por diversos medios y puede
requerir receptores especiales.
Puede hacerse:
- por acceso telefónico al servicio horario; con una exactitud de
hasta 50 MS, por difusión de señales horarias codificadas (por
ejemplo en onda corta, 3 MHz a 30 MHz, con exactitud de 10
ms, en 1350 KHz frecuencia modulada, etc.), con exactitudes
de milisegundos,
- con exactitud de 10 ns por recepción de señales de televisión
usando GPS (Global Positioning System/ Sistema de
Posicionamiento Global basado en satélites artificiales) como
intermediario.
Variabilidades
En la actualidad, los patrones de tiempo se trabajan con
variabilidades relativas del orden de 10-14 y hasta, en algunos casos,
de 10-15. Por su parte, se calcula que, en un millón de años de
funcionamiento, la escala de tiempo atómico, TAI, difiere de la escala
ideal en menos de un segundo.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
91
Equipos de medición
Las mediciones usuales de tiempo se llevan a cabo por medio
de diversos tipos de relojes y cronómetros, de mayor o menor
exactitud según las necesidades, calibrados en base a la escala UTC o
TAI según el caso. También se emplean contadores de intervalos de
tiempo y osciladores de cuarzo.
Por su parte, las mediciones de frecuencia requieren de las más altas
exactitudes posibles para aplicaciones tales como las transmisiones
de comunicaciones digitales y los sistemas de posicionamiento global
(GPS).
ELECTRICIDAD Y MAGNETISMO
Qué se mide
En algunos materiales conocidos como conductores, existen
cargas eléctricas libres que se pueden mover, tal el caso de los
electrones en los metales y los iones en las soluciones salinas. En
estos materiales, en presencia de un campo eléctrico, se produce un
flujo estable de carga en la dirección del campo; tal flujo constituye la
corriente eléctrica.
En electricidad, se dan tres elementos básicos, relacionados
entre sí por la ley de Ohm: E = IR donde E es la tensión eléctrica,
comúnmente llamada el voltaje, I es la corriente eléctrica y R es la
resistencia. En base a esta ley se pudo haber definido la unidad de
electricidad en términos de cualquiera de estos tres elementos. Se
decidió definirla en términos de corriente eléctrica, quedando las
unidades de tensión eléctrica y de resistencia como unidades
derivadas.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
92
La carga eléctrica es una propiedad de la materia que produce
efectos eléctricos y magnéticos. En un sistema aislado es constante y
aparece en paquetes. La carga aislada más pequeña es la que posee
el electrón. La forma simple de poner de manifiesto la carga eléctrica
es frotando con una tela de seda dos esferas, por ejemplo de ámbar,
suspendidas con un material no conductor: las esferas se repelen
manifestando la misma carga. Si las esferas que se frotan son de
materiales diferentes, por ejemplo una de ámbar y la otra de vidrio,
se atraen manifestando que poseen cargas diferentes.
Un símil que permite visualizar el comportamiento de la electricidad y
la interrelación de sus características, es el siguiente:
En una tubería que conduce agua caracterizamos el fenómeno por la
cantidad de agua que fluye, la presión con que lo hace y las
características de la tubería. En electricidad la presión equivale a la
tensión eléctrica expresada en volts (V); la cantidad de agua a la
corriente eléctrica en amperes (A) y la fricción característica de la
tubería a la resistencia eléctrica en ohms (W).
Definición internacional de las unidades de medida de
electricidad y magnetismo [9ª Conferencia
General de Pesas y Medidas, 1948]
El ampere o amperio (símbolo A) es la intensidad de una
corriente eléctrica constante que, mantenida en dos conductores -
rectilíneos, paralelos, de longitud infinita, de sección circular
despreciable, colocados a un metro de distancia entre sí en el vacío -,
produciría entre estos conductores una fuerza igual a 2 x 10-7
newtons por metro de longitud.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
93
Las unidades derivadas principales son el volt y el ohm. El volt
o voltio (símbolo V) es la tensión eléctrica existente entre las
terminales de un elemento pasivo de un circuito, que disipa una
potencia de un watt cuando es recorrido por una corriente invariable
de un ampere.
El ohm u ohmio (símbolo W) es la resistencia eléctrica de un
elemento pasivo de un circuito recorrido por una corriente invariable
de un ampere, sometido a una tensión eléctrica constante de un volt
entre sus terminales.
Patrón
Los principios y los artefactos utilizados en un patrón dependen
del desarrollo científico y las facilidades técnicas disponibles; para el
ampere antes se utilizaban las balanzas de corriente, pero su
variabilidad es considerable. Actualmente se obtienen mejores
resultados con el volt y el ohm cuantizados y utilizando la Ley de
Ohm.
Variabilidad
La variabilidad de medición de la tensión eléctrica (volt) en un
arreglo de uniones de Josephson es de unas pocas partes en 1010 y
para el patrón de la resistencia con el efecto de Hall cuantizado es de
unas pocas partes en 109 .La gran confiabilidad en el transporte de
los sistemas de Josephson y Hall cuantizado permite que los
laboratorios nacionales tengan sistemas (patrón) comparables
internacionalmente.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
94
Equipos de medición
La técnica actual permite la producción de aparatos analógicos
y digitales destinados a medir la corriente eléctrica. Como en todo
trabajo científico el uso de ordenadores facilita, acelera y da mayor
certidumbre a sus resultados. El trabajo de medición emplea
extensamente el procesamiento digital y muchos conocimientos
relacionados con la mecánica cuántica, es decir que es trabajo de alta
tecnología aunque sus resultados son de uso popular, en aparatos
tales como amperímetros, voltímetros y medidores de resistencia.
Tenemos que distinguir entre los sistemas de medición de alta
resolución/baja variabilidad - patrones y sistemas de referencia – y
los de aplicación práctica.
LUZ (FOTOMETRÍA Y RADIOMETRÍA)
Qué se mide.
Las diversas formas de energía radiante incluyen los rayos
cósmicos, los rayos gamma, los rayos X, los rayos ultravioleta, los
rayos de la luz visible al hombre, los rayos infrarrojos, las microondas
y los rayos eléctricos y de radio (hertzianos).
En el caso de la fotometría estamos primordialmente
interesados en el fenómeno conocido como la luz, una de las
manifestaciones de energía radiante, y que es energía en forma de
ondas electromagnéticas, emitida en forma de fotones, y con
determinada frecuencia y longitud de onda.
Desde el punto de vista de la porción del espectro visible para
el hombre, la luz ha sido primariamente para él la luz solar y sus
substitutos a lo largo de los siglos: el fuego, la vela, la lámpara de
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
95
aceite, la de queroseno, la de gas, la de arco, de filamento de
carbono, de filamento de tungsteno, de neón, fluorescente, de vapor
de mercurio, etc.
Definición internacional de las unidades de medida de
fotometría y radiometría [16ª Conferencia
General de Pesas y Medidas, 1979].
La candela (símbolo cd) es la intensidad luminosa, en una
dirección dada, de una fuente que emite una radiación
monocromática de frecuencia 540 x 1012 hertz y cuya intensidad
radiante en esa dirección es de 1/683 watt por estereorradián. De
esta unidad se derivan las siguientes unidades de trabajo:
El lumen (símbolo lm) es el flujo luminoso emitido por una
fuente puntual e invariable de una candela, de igual valor en todas
las direcciones, al interior de un ángulo sólido de un estereorradián.
El lux (símbolo lx) es la iluminación de una superficie plana de
un metro cuadrado de área, sobre la cual incide perpendicularmente
un flujo luminoso de un lumen, distribuido uniformemente.
La candela por metro cuadrado (símbolo cd·m-2) es la
luminancia de una fuente de un metro cuadrado de área y una
intensidad luminosa de una candela.
En fotometría se habla de: flujo luminoso (lm), de eficiencia luminosa
(lm.W-1), de intensidad luminosa (cd), de luminancia (cd·m-2), de
iluminación (lx). e flujo térmico (W·m-2).
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
96
Patrones
Actualmente el énfasis en el mantenimiento de los patrones
fotométricos y radiométricos se pone no ya en métodos fotométricos
sino en radiometría a base de detectores. El patrón primario en el
BIPM se basa en un radiómetro comercial eléctrico de substitución
criogénica, que se considera ser uno de los más exactos disponibles.
En adición al radiómetro criogénico, se tienen conjuntos de fotodiodos
de silicio que se emplean como patrones de trabajo y de transferencia
cuando no se requiere el más alto grado de exactitud. La
transferencia a patrones, nacionales y otros, se hace también por
medio de lámparas, calibradas por comparación.
Variabilidades
El patrón de la candela se realiza con una variabilidad relativa de
3·10-3 .
Equipos de medición
En el campo de fotometría y radiación se utilizan radiómetros,
fotómetros de absorción, de ennegrecimiento, de polarización,
eléctricos, fotoeléctricos; integradores, espectrofotómetros,
espectroradiómetros, colorímetros, y medidores de radiación.
También radiómetros criogénicos (detector-based radiometers) para
patrones.
ACÚSTICA Y VIBRACIÓN
Qué se mide
El sonido puede definirse como una alteración mecánica, tal como
un cambio de densidad, de desplazamiento o de velocidad de
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
97
partículas, propagado en un medio elástico (p.e. aire o agua). Por
medio elástico entendemos aquel que tiene la capacidad de recuperar
su tamaño y forma originales cuando cesa la alteración que provocó
una tensión, torsión, corte o compresión. En base a esta definición,
podemos a la vez definir un campo de sonido como un medio elástico
donde se produce y propaga una alteración mecánica, tal como un
cambio de densidad, de desplazamiento o de velocidad de partículas.
En acústica se estudian y se miden las propiedades básicas del
sonido:
- intensidad, determinada por la amplitud de onda
- tono, determinado por la frecuencia o número de las
vibraciones
- timbre, determinado por las vibraciones adicionales (sonidos
armónicos) que acompañan a la vibración fundamental
El humano normal no puede escuchar sonidos de frecuencia menor a
16 Hz (sonidos infrasónicos), ni mayor de 20 kHz (sonidos
ultrasónicos o supersónicos).
Recientemente, en 1999, la CIPM creó el Comité Consultivo
sobre Acústica, Ultrasonido y Vibración.
La Organización Internacional de Normalización, ISO, tiene
establecidas varias normas en el campo estrictamente de acústica
que incluyen aspectos tales como: frecuencia estándar para afinado,
métodos para calcular nivel de intensidad, magnitudes de referencia
para niveles acústicos, etc.; y una cantidad aún mayor de normas en
campos relacionados. Por su parte, la Comisión Internacional
Electrotécnica, IEC, se ha venido ocupando de normalizar aspectos
relacionados con micrófonos y su calibración, medidores de nivel de
sonido, determinación de niveles de potencia de sonido, simuladores
del oído humano, etc.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
98
Para fines de metrología, las mediciones más comunes en
acústica son: la magnitud de un campo de sonido y la potencia de
una fuente de sonido.
En la práctica, para medir la magnitud de un campo de sonido, la
presión de sonido es la magnitud más fácil de transformar de una
forma de energía (alteración de partículas en el medio elástico) a otra
equivalente (p.e. pascal [Pa], equivalente a newtons por metro
cuadrado, N/m2) y es la que usualmente se mide. A su vez, una
fuente de sonido se caracteriza por su potencia.
Tanto la presión de sonido como la potencia de una fuente de sonido
se miden en decibeles relativos respectivamente a 20 mPa y 1 pW.
Definición de unidades de medida de acústica y vibración
Estamos familiarizados con los watts en relación con la
iluminación, sabemos que una bombilla de 100 W nos permite leer
con comodidad mientras que una de 25 W nos da una iluminación
muy tenue.
En el caso de la luz, esta relación se percibe en forma aritmética. En
comparación, la sensibilidad a los sonidos es diferente. Los sonidos
ordinarios de una conversación están alrededor de 1 mW, que
podemos expresar como 1000 microwatts (mW) y los sonidos leves
caen a fracciones de 1 mW.
El oído detecta las diferencias de intensidad en forma logarítmica. Así,
por ejemplo, si 2000 mW “suenan” cierta cantidad mayor que 1000
mW, se requieren 4000 mW y no 3000 para percibir la misma
magnitud de incremento y, a su vez, 8000 mW para percibir ese
mismo incremento a partir de 4000 mW.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
99
Las razones 2000/1000, 4000/2000, 8000/4000, son las mismas
aunque no lo sean las diferencias de los valores; el logaritmo de las
diferencias es el mismo.
Cuando un sonido tiene 10 veces la potencia de un segundo sonido,
la razón es de 10, cuyo logaritmo es 1. En este caso se dice que la
diferencia en intensidad de sonido es un bel (llamado así en honor a
Alexander Graham Bell). Similarmente, si un sonido es 100 veces
más fuerte que otro, es 2 bels más fuerte; si es 1000 veces más
fuerte, es 3 bels más fuerte. Este tipo de unidad refleja la forma
logarítmica en que trabaja el oído. El bel resulta un valor muy grande
para las necesidades usuales de medición y por ello se emplea el
decibel. Así, un sonido será un decibel más fuerte que otro cuando
sea 1,26 veces más fuerte ya que 0,1 es prácticamente el logaritmo
en base 10 de 1,26. Esta unidad derivada adimensional “uno” se ha
venido empleando para expresar valores de magnitudes logarítmicas
tales como decremento logarítmico, nivel de campo o nivel de
potencia en áreas tales como acústica y electrotecnia. Se usa el
nombre bel (símbolo B) y su comúnmente empleado submúltiplo el
decibel (símbolo dB) cuando se emplean logaritmos de base diez;
asímismo se habla del neper (símbolo Np) cuando e emplean
logaritmos naturales o neperianos. La aceptación de estas unidades
sigue bajo estudio por la CGPM.
Patrones
La magnitud básica para todas las mediciones en acústica es la
presión de sonido. No existe una forma práctica para tener una
fuente de referencia que genere una presión de sonido de un Pascal y
se sigue trabajando con el fin de encontrar un método para generar o
medir un campo de sonido de forma que pueda emplearse como un
patrón de referencia. Por ello, hasta ahora, la exactitud de las
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
100
mediciones depende del uso de micrófonos calibrados con exactitud.
Para fines de medición, la señal acústica se convierte a una señal
eléctrica empleando un micrófono condensador o electrostático. En
este tipo de micrófono, el diafragma actúa como una de las placas del
capacitor y la vibración produce cambios en la capacitancia que a su
vez producen cambios de voltaje.
La Comisión Electrotécnica Internacional, IEC, tiene establecidas
especificaciones para micrófonos de referencia, a nivel de laboratorio
y a nivel de trabajo de campo.
Variabilidades
La diferencia mínima de presión de sonido que puede percibir el
humano es de 1 dB (un decibel). Sin embargo, para muchas
aplicaciones sobre todo relacionadas con la determinación de ruidos y
en particular en el caso de naves aéreas, los requerimientos de
certificación demandan mediciones del orden de 0,1 dB y por ello las
referencias primarias de medición deben trabajar con una variabilidad
de alrededor de 0,05 dB.
Equipos de medición
En adición a los micrófonos, se emplean otros medidores. Para
determinar la presión en sonidos continuos se usa el medidor de
promedio exponencial y los valores se expresan en decibeles como un
nivel de presión de sonido. Para sonidos puntuales se usa el medidor
de promedio integrado y el valor obtenido se expresa en decibeles
como un nivel continuo equivalente de presión de sonido.
La intensidad del sonido es una medida de la magnitud y dirección del
flujo de la energía sonora. Usualmente se mide por medio de dos
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
101
micrófonos y el nivel de intensidad sonora se expresa en decibeles
relativos a 10-12 Wm-2. La medición de la intensidad sonora permite
determinar la potencia de una fuente sin necesidad de ambientes
especializados pero el método aún no es de empleo común.
RADIACIÓN IONIZANTE
Qué se mide
Se entiende por radiaciones ionizantes aquellas radiaciones
electromagnéticas de longitud de onda extremadamente corta,
altamente penetrantes, y que tienen energía cuando menos del valor
de la de los rayos X, de forma que la radiación es suficientemente
fuerte para producir iones, quitando o agregando electrones de la
materia.
Entre ellas se pueden mencionar: las radiaciones que producen
partículas cargadas tales como las radiaciones a, las radiaciones b, y
las radiaciones protónicas; las radiaciones que producen partículas no
cargadas como las radiaciones g y los rayos X (ambos liberan
fotones) y las radiaciones neutrónicas.
Estas radiaciones pueden tener origen natural o ser producidas
artificialmente en aceleradores de partículas tales como ciclotrones,
betatrones, sincrotrones o aceleradores lineales.
Definición de las unidades de medida de radiación
ionizante
El núcleo de un radionuclídeo tiene la probabilidad de
transformarse en forma espontánea. La actividad se caracteriza por el
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
102
número promedio de transformaciones por segundo y se mide con
base en la unidad llamada becquerel.
Otra medición de importancia es la dosis absorbida, es decir la
cantidad de energía transferida a la materia por unidad de masa, y
que puede considerarse la magnitud fundamental en dosimetría. El SI
no tiene unidades básicas para la radiación ionizante pero reconoce al
becquerel y al gray como unidades derivadas. El becquerel (símbolo
Bq) es la actividad de un material radioactivo en el cual se produce
una desintegración nuclear por segundo. El gray (símbolo Gy) es la
dosis de radiación ionizante absorbida uniformemente por una
porción de materia, a razón de 1 joule por kilogramo de su masa.
Patrones
En virtud de la variedad de partículas emitidas y de las
alteraciones que sufren las fuentes radioactivas, no se ha considerado
el establecimiento de un patrón primario único para el becquerel.
Las referencias primarias están conformadas por una
combinación de instrumentos y métodos de medición, específicos
para cada tipo de nuclídeo radioactivo.
Tampoco se considera un patrón único del gray para
dosimetría. En este caso, se emplean métodos basados en
colorimetría, ionometría (con instrumentos de gran sensibilidad y
utilizables para todas las radiaciones), dosimetría de Fricke,
termoluminiscencia (adecuada para radioprotección y radioterapia),
resonancia paramagnética electrónica (para irradiación industrial).
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
103
Variabilidades
Las variabilidades de las mediciones, tanto del becquerel como del
gray, son del orden de 10-2 a 10-3.
Equipos de medición
Al igual que para el establecimiento de patrones, los equipos de
medición son detectores, contadores, dosímetros, calibradores de
rayos α y γ, cámaras de ionización, calorímetros, cámaras de
extrapolación(ionización variable), etc.
QUÍMICA
Qué se mide
Se conoce por estequiometría a la rama de la química y de la
ingeniería química que trata de las cantidades de substancias que
entran en las reacciones químicas o que son producidas por éstas.
Toda reacción química tiene sus propias proporciones características y
éstas se determinan por medio de fórmulas químicas, de ecuaciones,
de los pesos atómicos y moleculares y de la determinación de qué y
cuánto se utiliza y se produce, es decir de la cantidad de materia que
entra en juego. Toda la estequiometría se basa esencialmente en la
evaluación del número de moles de sustancia como un indicador
preciso de la magnitud de dicha sustancia. En química, y
particularmente en química analítica, la cantidad de materia en una
muestra dada es un elemento crucial de información. A su vez, es un
factor en otros aspectos tales como concentraciones de soluciones,
determinaciones de pH, etc. En la industria química, es indispensable
conocer la cantidad de materia empleada en las diversas reacciones y
en los productos obtenidos
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
104
Definición internacional de la unidad de medida en
química. [14ª Conferencia General de Pesas y
Medidas, 1971].
El mol (símbolo mol) es la cantidad de materia que contiene
tantas entidades elementales como átomos existen en 0,012
kilogramos de carbono 12.
Una unidad derivada, recientemente aceptada por la 21ª
Conferencia General de Pesas y Medidas en 1999, tiene su origen en
la recomendación para el uso de unidades SI en medicina y química
clínica, debido a la importancia de evitar que resultados de
mediciones clínicas se expresen en varias diversas unidades.
El katal (símbolo kat) es la unidad mol por segundo para uso
en medicina y bioquímica, como expresión de la actividad catalítica.
Patrones y materiales de referencia
En la actualidad, no se ha considerado la realización de un
patrón primario único para el mol aunque se viene trabajando con el
fin de contar con patrones confiables.
Como patrones de trabajo, se emplean los métodos llamados
primarios y cuerpos químicamente puros en una matriz conocida, con
un título definido, conocidos como materiales de referencia.
El Comité Consultivo de la Cantidad de Materia (CCQM) del CIPM ha
recomendado los siguientes como métodos de alto potencial a ser
establecidos como primarios:
Métodos primarios de medición directa:
Electroquímica:
- titulación coulombimétrica
- mediciones de potencial de hidrógeno (pH)
- conductividad electrolítica
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
105
Métodos clásicos de química analítica:
- gravimetría
- titulación
Métodos primarios de medición por correlación:
- dilución isotópica con espectrometría de masas
- resonancia nuclear magnética
- calorimetría diferencial
Variabilidades
Las variabilidades en los resultados varían según el elemento a
ser dosificado y su concentración. Sin embargo, se puede hablar de
niveles del orden de 10-3 hasta 10-4.
Equipos de medición
Las determinaciones involucran técnicas de análisis y los equipos
correspondientes para los métodos considerados primarios a los que
ya se hizo referencia.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
106
Unidad Didáctica 3: Diseño de experimentos
1.- INGENIERÍA DE CALIDAD
La Ingeniería de la Calidad está diseñada para generar procesos de
calidad. Esta Unidad Didáctica, como comprobará el/la lector/a está
intrínseca ligada a la siguiente, debido a que su temática, es similar.
No obstante, hemos decidido estructurarla en dos partes, a fin de
hacerla más fácilmente asimilable, debido a su complejidad.
Recomendamos por ello, la lectura continuada de ambas unidades.
Basado en los fines de la Ingeniería de la calidad, TAGUCHI
desarrolló una aproximación al diseño de experimentos con el
objetivo de reducir los costos emanados de la experimentación. Esta
aproximación es más práctica que teórica y se interesa más por la
productividad y los costos de producción que por las reglas
estadísticas.
Los conceptos de estas técnicas están basados en las relaciones de
costos y ahorros.
Existen algunos factores de ruido que afectan los procesos, y son
aquellos que causan que una característica funcional se desvíe de un
valor objetivo, estos son causantes de variabilidad y pérdida de
calidad.
De acuerdo con TAGUCHI esta pérdida de calidad constituye a largo
plazo, una pérdida de tiempo y dinero tanto para el consumidor como
para el fabricante.
Dentro de las actividades del control de la calidad, la Ingeniería de la
calidad consta de las actividades dirigidas a la reducción de la
variabilidad y de las pérdidas.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
107
2.- EXPERIMENTO FACTORIAL GENERAL
Los resultados del ANOVA para dos factores pueden ser extendidos
a un caso general en donde a son los niveles del factor A, b son los
niveles del factor B, c son los factores del nivel C, y así
sucesivamente, los cuales pueden ser arreglados en un experimento
factorial, en el cual el número de réplicas es n.
Está diseñada para generar procesos de calidad.
Los diseños factoriales son ampliamente utilizados en
experimentos en los que intervienen varios factores para estudiar el
efecto conjunto de estos sobre una respuesta. Existen varios casos
especiales del diseño factorial general que resultan importantes
porque se usan ampliamente en el trabajo de investigación, y porque
constituyen la base para otros diseños de gran valor práctico.
En los últimos años se ha observado un creciente interés por algunas
de las ideas del profesor Genechi Taguchi acerca del diseño
experimental y su aplicación al mejoramiento de la calidad
El diseño factorial fraccionario 2k-p se usa en experimentos de
escrutinio para identificar con rapidez y de manera eficiente el
subconjunto de factores que son activos, y para obtener alguna
información sobre la interacción. La propiedad de proyección de
estos diseños hace posible en muchos casos examinar los factores
activos con más detalle. La combinación secuencia de estos diseños
a través del plegamiento es una forma muy eficaz de obtener
información extra acerca de las interacciones, la cual puede
identificarse en un experimento inicial como potencialmente
importante.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
108
3.- DISEÑO FACTORIAL GENERAL 2K
Los diseños factoriales son a ampliamente utilizados en
experimentos en los que intervienen varios factores para estudiar el
efecto conjunto de estos sobre una respuesta. Existen varios casos
especiales del diseño factorial general que resultan importantes
porque se usan ampliamente en el trabajo de investigación, y porque
constituyen la base para otros diseños de gran valor práctico.
El más importante de estos casos especiales ocurre cuando se tienen
k factores, cada uno con dos niveles. Estos niveles pueden ser
cuantitativos como sería el caso de dos valores de temperatura
presión o tiempo. También pueden ser cualitativos como sería el
caso de dos máquinas, dos operadores, los niveles "superior" e
"inferior" de un factor, o quizás, la ausencia o presencia de un factor.
Una réplica completa de tal diseño requiere que se recopilen 2 x 2
x .... x 2 = 2k observaciones y se conoce como diseño general 2k.
El segundo caso especial es el de k factores con tres niveles cada
uno, conocido como diseño factorial 3k.
Se supone que:
a) los factores son fijos
b) los diseños son completamente aleatorios
c) se satisface la suposición usual de normalidad
El diseño 2k es particularmente útil en las primeras fases del
trabajo experimental, cuando es probable que haya muchos factores
por investigar.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
109
Conlleva el menor número de corridas con las cuales pueden
estudiarse k factores en un diseño factorial completo. Debido a que
sólo hay dos niveles para cada factor, debe suponerse que la
respuesta es aproximadamente lineal en el intervalo de los niveles
elegidos de los factores.
4.- DISEÑO 22
El primer diseño de la serie 2k es aquel que tiene sólo dos factores,
A y B, cada uno con dos niveles. Arbitrariamente, los niveles del
factor pueden llamarse "inferior" y "superior".
5.- DISEÑO 23
Suponga que se encuentran en estudio tres factores A, B y C, cada
uno con dos niveles. Este diseño se conoce como diseño factorial, 23
y las ocho combinaciones de tratamientos pueden representarse
gráficamente mediante un cubo.
Existen en realidad tres notaciones distintas que se usan
ampliamente para las corridas o ejecuciones en el diseño 2k:
a. La primera es la notación "+,-", llamada "geométrica".
b. La segunda consiste en el uso de letras minúsculas para
identificar las combinaciones de tratamientos.
c. En la tercera se utilizan los dígitos 1 y 0 para denotar los
niveles alto y bajo del factor, respectivamente.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
110
6.- DISEÑO FACTORIAL GENERAL 3K
Este diseño es una variación del diseño 2k y son muy útiles como
las que se emplean cuando todos los factores actúan a tres niveles.
En los últimos años se ha observado un creciente interés por algunas
de las ideas del profesor Genechi Taguchi acerca del diseño
experimental y su aplicación al mejoramiento de la calidad.
Este es un diseño que consta de k factores con tres niveles cada uno.
Los factores y las interacciones se representan mediante letras
mayúsculas. Los tres niveles de los factores pueden referirse como
nivel inferior, intermedio y superior. Estos niveles se representan
mediante los dígitos 0 (nivel inferior), 1 (intermedio) y 2 (superior).
Cada combinación de tratamientos de un diseño 3k se presenta
mediante k dígitos, donde el primero incida el nivel de A, el segundo
señale al nivel de B, ..... y el k-ésimo dígito, el nivel del factor k.
Por ejemplo, es un diseño 32 el 00 representa la combinación de
tratamientos, en la que tanto el factor A como el B están en el nivel
inferior, y el 01 representa la combinación de tratamientos que
corresponde al factor A en el nivel inferior y a B en el nivel
intermedio.
En éste, el sistema de notación que se prefiere usar es el de + - en
virtud de que facilita la interpretación geométrica del diseño y de que
es directamente aplicable al modelado por regresión, la formación de
bloques y la construcción de factoriales fraccionarios.
La adición de un tercer nivel permite modelar con una relación
cuadrática la relación entre la respuesta y cada factor.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
111
7.- DISEÑO 32
El diseño más simple es el 32 que consta de dos factores con tres
niveles cada uno.
Como hay 32 = 9 combinaciones de tratamientos, existen 8 grados
de libertad entre ellas, Los efectos principales A y B tienen dos grados
de libertad cada uno, y la interacción AB tiene cuatro grados de
libertad. Si hay n réplicas habrá un total de n32 - 1 grado de libertad,
correspondiendo para el error 32 (n-1) grados de libertad.
8.- DISEÑO 33
Si se supone que se están estudiando tres factores (A, B, C) y que
cada factor tiene tres niveles acomodados en un experimento
factorial. Este es un diseño 33. Las 27 combinaciones tienen 26
grados de libertad.
FACTOR A
Bajo Medio Alto
0 1 2
Bajo 0
Medio 1 FACTOR B
Alto 2
0 10 20
1 11 21
2 12 22
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
112
9.- DISEÑO DEL PROCESO
Diseñar un sistema de manufactura para elaborar un producto
requiere de conocimientos técnicos además de una gran experiencia
en el área a la cual pertenece el producto.
El Sr. TAGUCHI define en base a ello, la calidad de la siguiente
manera:
"LA CALIDAD DE UN PRODUCTO ES LA PERDIDA MÍNIMA IMPARTIDA
POR EL PRODUCTO A LA SOCIEDAD, DESDE EL MOMENTO EN QUE ES
TRANSMITIDO AL CLIENTE"
El fabricante es quien más resiente las pérdidas debido a la
reacción negativa del consumidor de un producto de mala calidad.
10.- EXPERIMENTOS FACTORIALES
Muchos experimentos requieren el estudio de los efectos de 2 ó
más factores. En general, los experimentos factoriales son los más
eficientes para este tipo de análisis. En un experimento factorial se
miden en cada etapa completa o replica del experimento, todas las
posibles combinaciones de los niveles de los factores.
Cuando los factores son arreglados en un experimento factorial, se
dice frecuentemente que son cruzados. El efecto de un factor se
define como el cambio en la respuesta producido por un cambio en el
nivel del factor. Esto frecuentemente se llama un efecto principal por
que se refiere a los factores primarios de interés en el experimento.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
113
a) Experimento Factorial con Interacción
Gráficamente se puede representar, tanto la interacción como su
ausencia; utilizando los datos de las tablas anteriores, se construirán
dos gráficas para analizar los conceptos analizados.
b) Diseño de experimentos factorial fraccionado
El número de factores en un diseño factorial 2k ó 3k incremento el
número de corridas requeridas para realizar todas las combinaciones
posibles de los niveles de los factores, lo cual consume rápidamente
los recursos disponibles por los investigadores para realizar los
experimentos.
Una replica completa de un diseño 26 requiere de 64 corridas para
analizar todas las combinaciones posibles de los tratamientos; en
este diseño sólo 6 de los 63 grados de libertad corresponden a los
efectos principales, sólo 15 grados de libertad corresponden a las
interacciones de dos factores. Los restantes 42 grados de libertad
están asociados con las interacciones de 3 factores ó más. En la
serie 3k la situación es peor, por ejemplo, el factorial 36 requiere 243
corridas, y sólo 12 de los 242 grados de libertad corresponden a los
efectos principales.
FACTOR B
B1 B2
A1 20 40
A2 50 12
FACTOR A
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
114
Estos diseños factoriales fraccionados son ampliamente usados en
la investigación industrial. Un uso importante del factorial
fraccionado es en los experimentos de investigación, los cuales son
generalmente realizados en las etapas iniciales de un proyecto, y la
mayoría de los factores inicialmente considerados frecuentemente
tienen poco o ningún efecto en la respuesta de la variable analizada.
Los factores que son identificados como importantes son entonces
investigados más profundamente en experimentos subsiguientes.
c) Diseño Factorial Fraccionado 2k-p
Un diseño factorial fraccionario 2k que contiene 2k-p ensayos se
conoce como fracción 1/2p del diseño factorial 2k, o simplemente
diseño factorial fraccionario 2k-p. Estos diseños requieren que se
elijan p generadores independientes.
La relación que define estos diseños consta de las p generadoras
originalmente elegidas y de sus 2P - P - 1 interacciones
generalizadas. La estructura de los alias puede determinarse
multiplicando cada efecto, módulo 2, por la relación que define al
diseño. Se debe tener cuidado al elegir las generadoras para que los
efectos de interés potencial no sean alias entre sí. Cada efecto tiene
2P-1 alias.
Por lo regular, se suponen despreciables las interacciones de orden
superior (las de tercero, cuarto o mayor orden) cuando los valores de
k son moderadamente grandes. Esto simplifica mucho la estructura
de los alias.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
115
d) Diseño Factorial Fraccionado 3k-p
A menudo se desea un fraccionamiento mayor del diseño 3k para
valores de moderados a grandes de k. En general, puede construirse
una fracción (1/3) P de un diseño 3k para p < k, donde la fracción 3k-2
es la fracción (1/9), el 3k-3 consiste en seleccionar p componentes de
interacción, y usar estos efectos para descomponer las 3 k
combinaciones de tratamientos de 3p bloques. Cada bloque
constituye ahora un diseño factorial fraccionario 3k-p.
La relación 1 define cualquier fracción, consta de los p efectos
elegidos inicialmente y de sus (3p-2p-1) / 2 interacciones
generalizadas.
11.- INGENIERÍA DE CALIDAD EN EL DISEÑO DEL
PRODUCTO
Podemos reducir el tiempo de desarrollo de un producto a un
tercio del actual.
Como reducir el tiempo de ciclo de desarrollo de productos es un
gran reto para la mayoría de las empresas de todos los sectores,
sobre todo teniendo en cuenta el hecho de que los productos se
fabrican en series cada vez más cortas, en variedad creciente y con
ciclos de vida más cortos.
¿Cómo podemos disminuir el tiempo de desarrollo y, al mismo
tiempo, proporcionar una gran variedad de productos, manteniendo
la competitividad? ¿Existen otros métodos para reducir el ciclo de
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
116
desarrollo de productos para que podamos cumplir nuestros objetivos
competitivos? ¿Qué es el desarrollo de la tecnología?
Lo que el Dr. Taguchi quiere decir por desarrollo de tecnología es
lo siguiente:
El desarrollo de tecnología es realizar una investigación, tras
completar el diseño de un sistema, para optimizar la robustez de
la función básica de una familia de productos. La investigación es
realizada en un laboratorio, a pequeña escala, antes de la
planificación del producto concreto, y su robustez puede ser
evaluada mediante el uso de la relación señal - ruido de tipo
dinámico, de forma que la información pueda ser utilizada en el
diseño de un grupo de futuros productos.
Existen varias razones por las cuales la duración del desarrollo de
tecnología es demasiado larga. Para empezar, el diseño de un
nuevo producto empieza después de recoger la información del
mercado en cuanto a los gustos o disgustos de los clientes. La
mejora de calidad empieza cuando el producto está en manos de
los consumidores. En este momento es demasiado tarde para
empezar un nuevo diseño, y se tarda demasiado tiempo en
conseguirlo. En segundo término, los esfuerzos por mejorar la
calidad se realizan cada vez que se diseña un nuevo producto. En
tercer término, el diseño de un producto se concentra inicialmente
en cómo "dar en el blanco" sin contemplar la robustez o la
reproductibilidad de la función de todos los problemas anteriores
que pueden ser minimizados
utilizando el enfoque del desarrollo de tecnología.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
117
Cuatro niveles de calidad.
Por supuesto, la calidad debe estar relacionada con las
necesidades y las expectativas del cliente.
Sin embargo, para que la investigación y el desarrollo sean
efectivos, la calidad debe ser expresada en términos
compatibles con los objetivos de ingeniería del desarrollo.
Podemos identificar cuatro niveles de calidad:
1. La calidad del cliente.
2. La calidad especificada.
3 La calidad robusta.
4. La calidad funcional.
1. La calidad del cliente y la calidad especificada
La calidad del cliente es la calidad expresada por el cliente, en
su propio lenguaje, tal como aspecto o "facilidad de conducir de
un coche”. El término “Voz del Cliente" se usa frecuentemente
para describir este nivel de calidad. Para satisfacer las
necesidades de nuestros clientes, los ingenieros intentan a
menudo convertir la Voz del Cliente en características
específicas de calidad, es decir, la calidad especificada, tales
como "piel de naranja", "espesor de la pintura", o "índice de
facilidad de conducir", dado por el experto de la prueba de
conducción. La calidad especificada se refiere a las
especificaciones de los diseños de ingeniería. Son
características de calidad, que constituyen objetivos para los
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
118
ingenieros. Estas son las características a partir de las cuales
se desarrollan los productos.
2. La calidad funcional
Todos los productos tienen una función específica. La calidad
funcional es la calidad de conseguir la función pretendida de un
producto. La función del producto existe antes que la voz del cliente.
Es imprescindible que la función del producto sea optimizada antes de
emitir los planos de ingeniería.
DESARROLLO DE LA TECNOLOGIA
Nuestro procedimiento óptimo puede ser resumido de la siguiente
forma:
· Maximizar la sensibilidad
· Maximizar la linealidad
Minimizar la variabilidad
Función de pérdida
El control de calidad ha tenido como objetivo controlar la
variación funcional y los problemas relacionados con esto.
El objetivo de la función pérdida es evaluar cuantitativamente la
pérdida de calidad debido a variaciones funcionales.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
119
El doctor Taguchi ha descubierto que la representación
cuadrática de la función de pérdida, es una forma eficiente y
efectiva para establecer la pérdida debido a la desviación de una
característica de calidad del valor meta; esto es la pérdida
debida a la mala calidad.
Es importante recordar que:
1. Conformarse con los Límites de especificación es un indicador
inadecuado de la calidad o pérdida debida a la mala calidad.
2. La pérdida de calidad es causada por la insatisfacción del
consumidor.
3. La pérdida de calidad puede relacionarse con las
características del producto.
4. La pérdida de calidad es una pérdida financiera.
5. La función de pérdida es una herramienta excelente para
evaluar la pérdida en la etapa inicial del desarrollo del producto.
El Indice CPM o indice TAGUCHI
Es de todos conocidos el índice de capacidad potencial (Cp) y el
índice de capacidad real (Cpk) para los cuales lo más importante es
reducir la variabilidad y cumplir con las especificaciones. Sin
embargo el Cpm está orientado a reducir la variabilidad alrededor del
valor nominal, no solo estar orientada a cumplir con las
especificaciones. El Cpm mide mejor que el Cpk el centrado del
proceso y la variabilidad.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
120
Cuando el índice Cpm es mayor a uno, entonces eso quiere decir que
el proceso cumple con las especificaciones, y en particular que la
media del proceso está dentro de la tercera parte media de la banda
de las especificaciones. Si el Cpm es mayor que 1.33 entonces la
media del proceso estará dentro de la quinta parte media del rango
deespecificaciones.
Si la estimación del Cpm se hace con base en una muestra aleatoria
del proceso, el Cpm encontrado podrá ser menor o mayor que el
verdadero valor.
Función de Pérdida para una Característica
La función de pérdida que el doctor Taguchi usa es una
aproximación de una expansión de la serie de Taylor alrededor de
un valor meta "m".
La función de pérdida de calidad se expresa con la ecuación
siguiente:
L(y) = K(y-m)2
En donde:
L(y)= pérdida en dinero por unidad de producto cuando las
características de calidad son igual
a 41 y 55 y = valor de la característica de calidad, esto es,
longitud, anchura, etc.,
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
121
m = valor nominal de "y"
k = constante de proporcionalidad.
La razón de señal a ruido
Los factores que causan que una característica funcional, como por
ejemplo, la eficiencia del combustible, los cambios de presión, la
maniobrabilidad, etc., se desvíe de su valor objetivo, se llaman
factores de ruido. Los factores de ruido causan variación y pérdida
de calidad. Durante su larga experiencia, el Dr. Taguchi ha
observado que ésta pérdida de calidad, en términos de tiempo y
dinero, tanto a los consumidores como a los fabricantes, y en último
término a la sociedad.
En la siguiente gráfica se muestra los diferentes tipos de ruido que
desvían la característica de su valor objetivo.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
122
Taguchi llama a los factores incontrolables factores de ruido.
Ruido es cualquier cosa que causa a una característica de la calidad
desviarse de su objetivo, el cual subsecuentemente causa una
pérdida de calidad. La temperatura, altura, y nivel de combustible,
son considerados factores externos de ruido porque ocurren fuera del
producto. Otros dos tipos de factores que existen son: los internos
(ej.: partes criticas de la maquinaria se deterioran y los factores
producto a producto cuando por ejemplo la variabilidad pieza a pieza
en los componentes fabricados del carro).
Mucha gente cree que las interacciones no son consideradas en los
Métodos Taguchi; sin embargo, esto no es cierto. De hecho, el Dr.
Taguchi considera las interacciones como uno de los puntos más
importantes de su enfoque. La proporción señal - ruido es un índice
de robustidad de calidad, y muestra la magnitud de la interacción
entre factores de control y factores de ruido. Los factores de control
y ruido deben ser asignados en diferentes grupos para el estudio de
la robustidad, el cual es significativamente diferente del enfoque
tradicional, donde no hay distinciones entre los factores de ruido y
control.
Una diferencia clave de los Métodos Taguchi es el énfasis en medir las
cosas correctas para recolección de información. En lugar de medir
síntomas causados por la variabilidad de la función, como la tasa de
defectos o fallas, medimos una respuesta relacionada con la energía.
Cualquier sistema usa energía de transformación para cumplir una
función deseada. Reducir la variabilidad de las transformaciones de
energía minimizará o eliminará los síntomas.
Cuando tenemos ruido, nos lleva a crear un producto o proceso
robusto que es aquel que es menos sensible al ruido.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
123
3) Calidad Robusta (Robustidad)
Diseño robusto es un proceso para optimizar. Una técnica para
auxiliarlo es la proporción señal/ruido, la cual proporciona una
medida de como acercar el diseño al óptimo funcionamiento de un
producto o proceso. Ha sido utilizado en la industria de
comunicaciones para comparar una señal en línea (la salida deseada)
con los ruidos de la misma (las salidas indeseadas). Este concepto
fue aplicado por el Dr. Taguchi en los 50's a otros sistemas, ya sean
mecánicos, eléctricos, electromecánicos, químicos y muchos más.
Variabilidad en un producto/proceso es enemiga de la calidad. El Dr.
Taguchi relaciona esta desviación del ideal a un concepto llamado
ruido. Ruido, visto simplemente, es variabilidad. Además, los
factores que causan variaciones se denominan como "Factores de
Ruido." Por definición, los factores de ruido no están controlados
desde un punto de vista económico o de costo.
La Función de Pérdida de Calidad es el standard por el cual los
factores relacionados con el diseño de calidad son estudiados y
medidos. Esta noción difiere del concepto convencional de calidad.
En lugar de definir la calidad como un atributo positivo de un
producto, es definida como la pérdida financiera o el costo causado a
la sociedad por la variación indeseada del precio del producto. Esto
incluye costos tales como garantía, rentabilidad y pérdida de la
confianza del cliente. La consecuencia importante de este concepto
es que trae las opciones de ingeniería dentro del campo de la
economía, algo en lo que los científicos e ingenieros frecuentemente
tienen dificultades. Otro resultado importante de la función de
pérdida de la calidad es que el diseño del producto más lejano varía
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
124
del valor objetivo, el máximo costo, el cual implica que sea una
función continua. Esto puede servir como un lenguaje muy poderoso
que permite a los expertos en equipos multidisciplinarios de
desarrollo de productos comunicarse más fácilmente. Esto se debe a
que todas las elecciones ingenieriles tienen en común el dinero. Del
índice Cpm; por lo que es riesgoso calificar al proceso con base a la
estimación puntual proporcionada por la muestra, y es mejor hacer
una estimación por el intervalo de manera similar para Cp y Cpk.
Función de Pérdida para una Característica
La función de pérdida que el doctor Taguchi usa es una
aproximación de una expansión de la serie de Taylor alrededor de un
valor meta "m".
La función de pérdida de calidad se expresa con la ecuación
siguiente:
L(y) = K(y-m)2
En donde:
L(y)= pérdida en dinero por unidad de producto cuando las
características de calidad son igual
a 41 y 55 y = valor de la característica de calidad, esto es, longitud,
anchura, etc.,
m = valor nominal de "y"
k = constante de proporcionalidad.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
125
Unidad Didáctica 4: Método de Taguchi
Los planteamientos del Dr. Taguchi, que ya avanzamos en la
anterior Unidad didáctica, son de indudable valor para el diseño de
experimentos y basan su teoría y dinámica en lo ya anteriormente
enunciado, a través del factor ruido, la robustidad y la función de
pérdida para una característica. Igualmente puntera, es la exposición
en su metodología, de la aplicación de los arreglos ortogonales, a
los que dedicamos el presente capítulo. Tal como pusimos de
manifiesto, es recomendable no desgajar ambas unidades por
separado, al estar ligada su temática y terminología intrínsecamente.
1.- ARREGLOS ORTOGONALES Esta experimentación busca encontrar cuál es el mejor
material, la mejor presión, la mejor temperatura, la mejor
formulación química, o el tiempo de ciclo más apto, etc. Todo con el
propósito de lograr la longitud, la amplitud, o la durabilidad que se
desea, tomando el costo que implica.
A) ¿QUÉ ES EL ARREGLO ORTOGONAL?
Un diseño ortogonal permite comparar, con la misma
eficiencia, los niveles de los factores bajo varias condiciones.
El arreglo ortogonal es una herramienta ingenieril que simplifica y en
algunos casos elimina gran parte de los esfuerzos de diseño
estadístico. Es una forma de examinar simultáneamente muchos
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
126
factores a bajo costo. El Dr. Taguchi recomienda el uso de arreglos
ortogonales para hacer matrices que contengan los controles y los
factores de ruido en el diseño de experimentos. Ha simplificado
el uso de este tipo de diseño al incorporar los arreglos ortogonales y
las gráficas lineales, finalmente, en contraste con los enfoques
tradicionales como equivalentes de ruido: mientras las interacciones
sean relativamente suaves, el analista de los efectos principales nos
proporcionará las condiciones óptimas y una buena reproductibilidad
en un experimento.
Los arreglos ortogonales son herramientas que permiten al ingeniero
evaluar cómo de robustos son los diseños del proceso y del producto
con respecto a los factores de ruido.
El método del Dr. Taguchi para el diseño de experimentos utiliza
técnicas que implican bajos costos y que son aplicables a los
problemas y requerimientos de la industria moderna. El propósito que
se tiene en el diseño del producto es encontrar aquella combinación
de factores que nos proporcione el desempeño más estable y
confiable al precio de manufactura más bajo.
El sistema de ingeniería de calidad del Dr. Genichi Taguchi, es
uno de los más grandes logros en ingeniería del siglo XX. El trabajo
de la filosofía del Dr. Taguchi comenzó a formarse en los inicios de la
década de los 50's cuando fue reclutado para ayudar a mejorar el
sistema telefónico japonés que había sido diseñado para la Segunda
Guerra Mundial. Taguchi empleó experimentos de diseño usando
especialmente una tabla conocida como "arreglos ortogonales" para
tratar los procesos de diseño. Los arreglos ortogonales son un
conjunto especial de cuadros en latín, construidos por Taguchi para
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
127
planear los experimentos del diseño del producto.
El análisis del arreglo ortogonal de Taguchi es usado para producir los
mejores parámetros para el diseño óptimo del proceso, con el mínimo
número de experimentos (pruebas). Los resultados obtenidos para
los arreglos ortogonales son analizados para obtener los siguientes
objetivos:
A) Estimar la contribución de los factores individuales que influyen en
la calidad en la etapa del diseño del producto.
B) Ganar la mejor condición para un proceso o un producto, así que
las características en una buena calidad puedan ser sostenidas.
La ventaja del los arreglos ortogonales es que pueden ser
aplicados al diseño experimental involucrando un gran número de
factores.
La desventaja del arreglo ortogonal es que puede ser únicamente
aplicado en la etapa inicial del diseño del sistema del producto o
proceso.
Ejemplo: EXPERIMENTOS REALIZADOS EN UNA FÁBRICA DE
AZULEJOS
En Una compañía de azulejos de regular tamaño compró un horno en
forma de túnel cuyo costo fue de 2 millones de dólares. El horno mide
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
128
80 mts. de largo; dentro de él un carro cargado de azulejos se desliza
lentamente sobre sus rieles mientras los quemadores horneaban el
producto.
PROBLEMAS:
Los azulejos tenían una variación en sus dimensiones, más del 50%
de los azulejos de la fila exterior estaba fuera de especificaciones,
mientras que las filas interiores sí cumplían con las medidas.
Los gerentes e ingenieros sabían que las causas de la variación eran
las diferencias de la temperatura del horno. El problema pudo ser
solucionado diseñado nuevamente el horno para que todos los
azulejos recibieran la misma temperatura, lo cual hubiera costado
medio millón de dólares. La compañía no tenía recursos para invertir;
por lo tanto, decidió buscar la manera de disminuir la variación. La
compañía hizo experimentos para investigar los efectos de algunos
factores que en el proceso de cocción de los azulejos pudieran afectar
su dimensión. Se seleccionaron estos factores teniendo en cuenta que
los experimentos fueran eficientes.
El análisis de varianza, como vemos, ofrece más que un método
corto para obtener la suma de cuadrados del error. Es confiable y de
gran exactitud para obtener la opción correcta y disminuir costo por
muchos experimentos.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
129
2.- LOS GRÁFICOS LINEALES
Se utilizan para facilitar la Asignación de factores e interacciones en
un arreglo ortogonal.
Cada punto representa una columna para asignar unos factores. Las
líneas que conectan los puntos representan las columnas que deben
asignarse a las interacciones entre los factores que conectan.
a) Grados de libertad de un factor
Los grados de libertad son una medida de una cantidad de
información que puede ser obtenida. Para conocer el efecto de un
factor determinado en un experimento, se compara el desempeño del
producto al poner el factor en varios niveles al realizar un
experimento; mientras más niveles tenga un factor, tendrá más
grados de libertad, y por lo tanto más información para ser obtenida.
b) Interacción entre factores
Existe una interacción cuando el efecto de un factor depende del
nivel en que se encuentre otro factor. Se graficarán los cambios de
un factor B, para determinar si hay interacción.
La interpretación de las gráficas, es la siguiente:
** Los números representan el número de la columna en el arreglo
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
130
ortogonal.
** Los puntos representan a los factores.
** Los segmentos de línea que unen dos puntos representan la
interacción entre esos dos factores.
Por otra parte:
Si las líneas trazadas son paralelas, no existe interacción
entre los factores.
Si las líneas no son paralelas, quiere decir que el efecto
de "A" no es el mismo para "B1" y "B2", existiendo
interacción.
Si las líneas se intersectan en la gráfica, se interpreta que
existe una interacción bastante fuerte.
c) Aproximación de un factor a la vez
En este método se varía el nivel de un solo factor,
manteniendo constantes los niveles de los demás factores.
Suponga que se investiga sobre efectos de temperatura y
presión. Se seleccionan dos niveles para el factor temperatura
(T1 y T2) y 2 niveles para el factor presión (P1, P2). La
temperatura se fija a T1 mientras se varían los niveles de la
presión; después se podía fijar la presión a P1 y varía los
niveles de la temperatura. Si se realizara un diseño con 7
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
131
factores en 2 niveles cada uno, se necesitaría realizar 8
experimentos.
3.- PROCEDIMIENTO DE ASIGNACIÓN DE FACTORES A UN
ARREGLO ORTOGONAL
1. Se selecciona el arreglo ortogonal apropiado; para esto se toman
en cuenta los grados de libertad necesarios debido a los factores e
interacciones.
2. Se dibuja la gráfica lineal según las interacciones deseadas.
Experimento Factores y Condiciones Resultados
Experimento
A B C D E F G
1 A1 B1 C1 D1 E1 F1 G1 Y1
2 A2 B1 C1 D1 E1 F1 G1 Y2
3 A2 B2 C1 D1 E1 F1 G1 Y3
4 A2 B2 C2 D1 E1 F1 G1 Y4
5 A2 B2 C2 D2 E1 F1 G2 Y5
6 A2 B2 C2 D2 E2 F1 G1 Y6
7 A2 B2 C2 D2 E2 F2 G1 Y7
8 A2 B2 C2 D2 E2 F2 G2 Y8
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
132
3. Se selecciona una de las gráficas lineales estándar del arreglo
elegido, de la cual se puede obtener la gráfica lineal del paso
anterior.
4. Se asignan los factores e interacciones según las columnas que les
corresponden de acuerdo a la gráfica lineal resultante.
EJEMPLO: La Ley de Movimiento de Newton F = MA. La naturaleza
conoce esta relación pero nosotros no. Como podemos obtener la
relación rápidamente sin quedar atrapados en años de investigación
teórica como lo hizo Newton? Un DDE siempre para dos entradas,
tales como masa (M) y aceleración (A), cada uno a 2 niveles, se
puede establecer como un proceso de 4 ensayos experimentales (o
intentos) en posiciones bajo y alto como se muestra en la Tabla.
Un conjunto de condiciones experimentales se usa para interrogar a
la naturaleza acerca del comportamiento de ellas. Bajo ciertas
circunstancias el conjunto específico de condiciones (o matriz de
diseño) se construye para analizar la respuesta, con el propósito de
ENSAYO M A
1 BAJO BAJO
2 BAJO ALTO
3 ALTO BAJO
4 ALTO ALTO
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
133
construir un modelo que se aproxime al modelo real encontrando en
la naturaleza (i.e., aproximadamente igual al conocimiento perfecto
por parte de la naturaleza).
El ejemplo de la tabla, en DDE se trata de un diseño factorial
completo de 2 factores a 2 niveles. Diversos tipo de diseño
experimental están disponibles para satisfacer el objetivo específico
que se tenga, I.e. modelado lineal, modelado no - lineal, selección,
etc.
Asumamos que nuestro experimento generó un conjunto promedio de
resultados para la fuerza por cada ensayo experimental, como se
muestra en la tabla.
A continuación, los puntos fijos, bajo y alto, para la mesa (5, 10) y la
aceleración (100, 200) se escogen basados en rangos de interés para
el experimentador.
Para maximizar la cantidad de conocimiento adquirido, el análisis del
modelado se conduce con valores de entrada estandarizados, donde
los valores bajos se codifican en (1 y los altos se codifican en (+ 1).
Estos valores codificados estandarizan la escala y las unidades de las
ENSAYO ENTRADAS SALIDAS PROM.
M A F
1 5 100 500
2 5 200 1000
3 10 100 1000
4 10 200 2000
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
134
variables de entrada. El resultado es una matriz con entradas
codificadas como se muestra en tabla 2.
ENSAYO M A M*A F
1 -1 -1 1 500
2 -1 1 -1 1000
3 1 -1 -1 1000
4 1 1 1 2000
Note, en la tabla, la adición de una columna M*A la cual es generada
por el producto de las columnas codificadas M y A y que era usada
para analizar el efecto interactivo o combinado de M y A. Las
columnas M, A y M*A representan los tres efectos a ser evaluados,
i.e. los efectos lineales de M y A y el efecto de la interacción de M con
A (M*A). El análisis se conduce como se
muestra en la tabla.
ENSAYO M A M*A F
1 -1 -1 1 500
2 -1 1 -1 1000
3 1 -1 -1 1000
4 1 1 1 2000
PROM(+1) 1500 1500 1250 1125
PROM(-1) 750 750 1000
PROM(+1)-
PROM(-1) 750 750 250
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
135
Para obtener los números de las secciones sombreadas, hemos de
hacer lo siguiente para cada una de las columnas M, A y M*A:
1) Encontrar el promedio de la salida F cuando los valores de la
columna son -1,
2) Encontrar el promedio de la salida F cuando los valores de las
columnas son +1, y luego
3) Encontrar la diferencia de los dos promedios (∆).
Por ejemplo, cuando las columnas del efecto M está A - 1 (Ensayos
1 y 2) la salida es 500 para el ensayo 1 y 1000 para el ensayo 2, que
en promedio DA 750.
El modelo generado por el DDE se construye usando un diseño
de regresión de cuadrados mínimos el cual puede ser simplificado
para diseños de 2 niveles como se muestra a continuación:
F Es el promedio predicho para fuerza
Mc Es la variable codificada para masa
Ac Es la variable codificada para aceleración
FEs la gran media experimental
∆M Es el tamaño del efecto lineal para M, etc.
Entonces nuestro modelo actual se convierte en:
F=1125+(750/2)*Mc+(750/2)*Ac+(250/2)*Mc*Ac
Recordemos que nuestro modelo de predicción es para valores
codificados (I. E -1, +1) de M y A, y nosotros podemos transformarlo
en un modelo con valores actuales de Ma y Aa usando la siguiente
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
136
relación:
Ma=((Ma+Mb)/2)+((Ma+Mb)/2)*Mc
Donde:
MA Valor fijo actual de masa
MC Valor fijo codificado de masa
MA Valor experimental actual fijado en alto
MB Valor experimental actual fijado en bajo
Para nuestro ejemplo:
Ma=7.5+2.5 Mc
Entonces:
Los cálculos previamente descritos son una forma simple para pasar
de valores codificados a actuales y viceversa, como se muestra en la
escala combinada de la figura 2.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
137
4.- EXPLICACIÓN EXPERIMENTAL DEL ANÁLISIS DE
EXPERIMENTOS CON FACTORES DE RUIDO
a) FACTORES DE RUIDO
Hemos visto, que los factores de ruido son aquellos que no se
pueden controlar o que resulta muy caro controlarlos. Los factores
de ruido causan variabilidad y pérdida de calidad. Por esto es
necesario diseñar un sistema el cual sea insensible a los factores de
ruido. El diseñador debe identificar la mayor cantidad posible de
factores de ruido y usar su buen juicio en base a sus conocimientos
para decidir cuáles son los más importantes a considerar en su
análisis.
b) METODO DEL DISEÑO ROBUSTO DE EL DR. TAGUCHI.
Como adelantamos en la Unidad anterior, es un eficiente sistema que
ayuda a obtener una combinación óptima de diseño de parámetros
para que el producto sea funcional y ayude a obtener un alto nivel de
desempeño y que sea robusto a los factores de ruido.
Existen 8 pasos para hacer un ciclo de diseño robusto:
· En los primeros 5 pasos se planea el experimento.
· En el paso número 6 se conduce el experimento.
· En los pasos 7 y 8 los resultados del experimento son
analizados y verificados.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
138
Ejemplo de la optimización de un diseño por costo de un
sistema intercambiador de calor.
1. Identificar la función principal. La función principal del sistema
enfriador de aire comprimido se muestra en la figura siguiente.
La función principal del sistema es enfriar la temperatura del aire de
95 ºC a 10 ºC entre dos etapas de compresión. Primero entra al
sistema el aire por el preenfriador y luego pasa a la unidad de
refrigeración. El agua pasa a través del condensador de la unidad de
refrigeración y luego al preenfriador y finalmente entra al radiador
donde se expulsa el radiador a través de él.
El flujo de el aire está dado por 1.2 kg/s y el flujo de el agua está
dado por 2.3 kg/s
Se busca diseñar el sistema para un costo mínimo total, donde el
costo es la suma de todos los costos en dólares de la unidad de
refrigeración, el preenfriador y el radiador. Las ecuaciones
paramétricas de costo (xi) para la unidad de refrigeración, el
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
139
preenfriador y el radiador en términos de temperaturas de salida (ti)
están dadas como sigue:
X1 = 1.2 a (T3 - 10)
X1 = costo ($) de la unidad de refrigeración.
a = parámetro de costo para el refrigerante.
T3= temperatura de salida de el aire de el preenfriador..
X2=1.2 B (95 - T3)/(T3-T1) para (T3 >T1)
X2 = costo ($) de el preenfriador.
B = parámetro de costo de el preenfriador.
T3 = temperatura de salida de el aire de el preenfriador.
T1 = temperatura de salida de el agua de la unidad de refrigeración.
95 = temperatura de el aire en la entrada al sistema.
X3=9.637 c (T2 - 24)
X3 = costo ($) de el radiador.
C = parámetro de costo de el radiador.
T2 = temperatura de el agua en la entrada de el radiador.
24 = temperatura de el agua después de pasar por el radiador.
A = 48 B = 50 C = 25
Parámetros de costo determinados por el diseñador.
2. Identificar los factores de ruido
Existen varios factores de ruido en un proceso de enfriamiento de
aire. Para este caso los ingenieros han determinado los 3 factores de
ruido más importantes.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
140
N1 = parámetro de costo de la unidad de refrigeración.
Se ha estimado un costo original de 48 y se considera un costo muy
alto arriba de 56.
N2 = temperatura de salida de el radiador.
Esta temperatura puede variar dependiendo de los factores
ambientales. Se ha estimado una temperatura de 24 c pero se
considera muy alta a 27°C.
N3 = temperatura de el aire a la entrada de el sistema.
Esta temperatura varia dependiendo de las condiciones de operación,
se ha estimado inicialmente de 95 c pero se considera muy alta arriba
de 100 c.
3.Identificar la característica de calidad que va a ser observada y el
objetivo.
El costo va a ser tomado como la característica de calidad y la función
objetivo será optimizar el costo total del sistema.
MIN CT= X1 + X2 + X3
El objetivo ahora es encontrar cuál diseño minimiza el costo total
considerando la incertidumbre de los factores de ruido citados.
4.Identificar los factores de control y los niveles alternativos.
Para el caso de el ejemplo, tres niveles alternativos fueron
identificados para ser estudiados para el control de el diseño de los
parámetros. El nivel dos muestra los valores iniciales de los factores
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
141
de control. Los niveles de los parámetros de prueba se refieren a
cuántos valores de prueba van a ser analizados (uno de estos niveles
debe tomar los valores de las condiciones iniciales de operación).
T1= 28 C T2= 39 C T3= 38 C
Como siguiente paso los ingenieros de diseño y los analistas de costo
desean un estudio de niveles alternativos de los parámetros de
control considerando ahora la incertidumbre debido a los factores de
ruido. En un diseño robusto, generalmente, dos o tres niveles son
considerados para cada factor.
Se ha decidido estudiar los tres factores de ruido con 2 niveles. Estos
valores se muestran en las tablas del punto siguiente. El nivel uno
representa los valores iniciales de los factores de ruido.
5.Construcción de arreglos ortogonales.
Primero se determinan según la metodología de Taguchi los
grados de libertad para determinar el número mínimo de
experimentos.
El diseñador ha calculado el factor grados de libertad igual a 7, esto
nos indica que se necesita un número mínimo de 7 experimentos
para encontrar los valores óptimos.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
142
Con esto se determina que se puede utilizar un arreglo ortogonal
estándar L9 para los factores de control y usando la misma
metodología se utiliza un arreglo ortogonal estándar L4 para los
factores de control.
1 2 3 4
N1 1 2 2
N2 2 1 2
N3 2 2 1
Control Ortogonal Array
A B C D
1 1 1 1 1
2 1 2 2 2
3 1 3 3 3
4 2 1 2 3
5 2 2 3 1
6 2 3 1 2
7 2 1 3 2
8 2 2 2 3
9 2 3 1 1
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
143
6. Conducir la matriz de experimentos.
A continuación y una vez se realiza el diseño de la matriz de
experimentos y la definición de los datos para analizar, el objetivo es
determinar los niveles óptimos de los factores de control para que el
sistema sea robusto a los factores de ruido.
Para nuestro ejemplo, la matriz de experimentos dada es conducida
usando un sistema apropiado de ecuaciones matemáticas de costo.
La propuesta es el costo total en dólares para ese caso. Ésta es
calculada para cada combinación de las matrices de experimentos de
factores de control y factores de ruido.
Ecuación matemática de costo (ejemplo):
CT = Xl + X2 + X3
CT = 1.2(48)(35-10) + 1.2(50)(95-35)1(35-25) +
9.637(25)(36 -24)=4691
CT = 1.2(48)(35-10)+1.2(50)(100-35)1(35-25)+9637(25)(36-
27)=3998
Control/Noise 1 2 3 4
N1 48 48 56 56
N2 24 27 24 27
N3 95 100 100 95
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
144
7. Análisis de datos para determinar los niveles óptimos de los
factores de control.
El método de Taguchi utiliza la relación que existe entre señal y
ruido incluyendo la variación de la respuesta. La relación que se
utilizaría en nuestro ejemplo sería que la más pequeña relación es la
mejor, dado que nuestro objetivo es minimizar el costo. Esta
relación señal /ruido está dada por la siguiente ecuación:
S/N =-10 LOG{1/4[(4691^2 +3998^2+4691^2+4208^2)]}=-73.03
Control matrix
(a) signal to noise ratio (b) response table
Los promedios de la relación señal/ruido de la tabla de respuesta nos
da los resultados óptimos. Maximizando la relación s/n es equivalente
a minimizar la característica de calidad.
Como resultado del análisis tenemos los niveles óptimos de los
parámetros de control siguientes:
Tl T2 T3 parámetros de prueba
1 2 3 niveles
25 36 38 valores óptimos de control.
Con estos valores el ct = $4551.00 con una desviación estándar de
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
145
445.5 y una señal de ruido de - 73.19 con esto se ahorra $806.00 un
15% contra los valores iniciales propuestos antes del experimento.
T1 T2 T3 parámetros de prueba
2 2 2 niveles
28 39 38 valores iniciales propuestos
Ct = $5,357.00 con una desviación estándar de 445.6 y una señal de
Ruido = -74.6
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
146
IDEAS CLAVE
Con el Control de Calidad se intenta asegurar la calidad de los
productos fabricados (coches, electrodomésticos, muebles,
ordenadores, maquinaria...) o de los servicios (transporte,
asistencia médica, educación...).
Las técnicas básicas empleadas en el Control de Calidad son:
• Diseño de Experimentos
• Control estadístico de procesos
• Muestreo para la aceptación
Un gráfico de control es un dibujo para determinar si el modelo
de probabilidad subyacente en el proceso es estable o cambia a
lo largo del tiempo.
La inestabilidad de un proceso puede deberse,
fundamentalmente, a dos causas:
• Que sea inherente al proceso
• Debido a la novedad del producto o del proceso
La probabilidad de aceptación de una muestra no es más que la
probabilidad de asumir que el proceso está bajo control.
La metrología es la ciencia de las mediciones
Las unidades del Sistema Internacional de Unidades, SI, son
establecidas por la Conferencia General de Pesas y Medidas
(CGPM)
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
147
Las actividades de la Ingeniería de la Calidad, están orientadas
a:
Reducción de variabilidad en productos y servicios
Reducción de pérdidas
Los diseños factoriales son ampliamente utilizados en
experimentos en los que intervienen varios factores para
estudiar el efecto conjunto de estos sobre una respuesta
El desarrollo de tecnología es realizar una investigación, tras
completar el diseño de un sistema, para optimizar la robustez
de la función básica de una familia de productos
En el diseño de experimentos, podemos identificar cuatro
niveles de calidad:
1. La calidad del cliente.
2. La calidad especificada.
3 La calidad robusta.
4. La calidad funcional.
Los arreglos ortogonales son herramientas que permiten al
ingeniero evaluar cómo de robustos son los diseños del proceso
y del producto con respecto a los factores de ruido.
El propósito que se tiene en el diseño del producto es encontrar
aquella combinación de factores que nos proporcione el
desempeño más estable y confiable al precio de producción más
bajo.
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
148
AUTOEVALUACIÓN
1.- En control de calidad, se toman medidas correctivas
cuando:
a) Hay muchos elementos que no cumplen los requisitos
b) Hay algunos elementos que no cumplen los requisitos
c) Las dos son correctas
2.- Para establecer subgrupos racionales se emplean
básicamente, dos enfoques:
a) Si el objetivo es detectar cambios en el proceso
b) Si se pretende tomar decisiones acerca de la aceptación de
todos los artículos que se han producido desde la última
muestra
c) Las dos son correctas
3.- Para analizar la estabilidad de un proceso de fabricación y
así asegurar la calidad de los productos fabricados, se
establecen, generalmente:
a) El período base, el período de prueba y el período de
vigilancia
b) El período de prueba y el período de vigilancia
c) Las dos son correctas
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
149
4.- Definimos trazabilidad:
a) Conjunto de operaciones que establece, bajo condiciones
específicas, la relación entre los valores indicados por un
instrumento de medición, valores representados por una
medida materializada o un material de referencia y los valores
correspondientes a las magnitudes establecidas por los
patrones.
b) Propiedad de una medición o del valor de un patrón, de estar
relacionado a referencias establecidas, generalmente patrones
nacionales o internacionales, por medio de una cadena continua
de comparaciones, todas ellas con variabilidades
c) Ambas respuestas son correctas
5.- Magnitud derivada es:
a) Atributo de un fenómeno, de un cuerpo o de una
sustancia, que es susceptible de distinguirse
cualitativamente y de determinarse cuantitativamente
b) Una de las magnitudes que, en un sistema de magnitudes,
se admiten por convención como funcionalmente
independientes unas de otras
c) Una magnitud definida, dentro de un sistema de magnitudes,
en función de las magnitudes de base de dicho sistema
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
150
6.- El BIPM:
a) Conserva los prototipos internacionales
b)Establece los patrones fundamentales y las escalas de las
principales magnitudes físicas
c)Ambas respuestas son correctas
7.- En el diseño del sistema:
a) Se determinan los valores específicos para los parámetros
del sistema
b) El ingeniero utiliza principios científicos y de ingeniería para
determinar la configuración básica
c) Ambas respuestas son incorrectas
8.- La ingeniería de la calidad en línea:
a) Se encarga del control y la corrección de procesos así como
del mantenimiento preventivo
b) Se encarga de la optimización del diseño de productos y de
procesos
c) Ambas respuestas son incorrectas
MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN
151
9.- Los arreglos ortogonales son herramientas que permiten
evaluar:
a) Definir prioridades de medidas
b) La robustez de los diseños del proceso y del producto con
respecto a los factores de ruido
c) Ambas respuestas son correctas
10.- Los factores de ruido son:
a) Aquellos que no se pueden controlar o que resulta muy caro
controlarlos
b) Aquellos que aún resultando caros de controlar son
indispensables
c) Ambas respuestas son incorrectas
SUPUESTO PRÁCTICO
Defina “Arreglo ortogonal” haciendo hincapié en el
desarrollo de sus principales características y ventajas.
top related