mÓdulo 6: planificaciÓn y experimentaciÓn · tabla 2.2. se construye el gráfico de control para...

152

Upload: others

Post on 26-Jul-2020

2 views

Category:

Documents


0 download

TRANSCRIPT

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

1

CALIDAD Y MEJORA CONTINUA: LA GESTIÓN INNOVADORA COMO CAMINO A

LA EXCELENCIA EMPRESARIAL

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

(45 HORAS)

Unidad Didáctica 1: Control estadístico de procesos

1. ¿EN QUÉ CONSISTE EL CONTROL DE CALIDAD?

Son diversas las definiciones que los distintos autores dan del

concepto de calidad. En general, puede decirse que un artículo tiene

calidad cuando es apto para su utilización y responde a las

necesidades del consumidor. Con el Control de Calidad se intenta

asegurar la calidad de los productos fabricados (coches,

electrodomésticos, muebles, ordenadores, maquinaria...) o de los

servicios (transporte, asistencia médica, educación...). En

consecuencia, para conseguir que un producto sea de alta calidad se

ha de diseñar de modo que se recojan las necesidades del

consumidor; asimismo, es necesario diseñar el proceso que permita

fabricar dicho artículo.

El artículo se diseña según un nivel de calidad. Las variaciones en

los grados o niveles de calidad son intencionales, en el siguiente

sentido: todos los automóviles tienen la misma finalidad -

proporcionar al usuario un transporte seguro - sin embargo, difieren

en tamaño, equipo, presentación, rendimiento... Además, el resultado

final depende del proceso de fabricación, y se pretende que éste se

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

2

aproxime lo máximo posible al modelo ideado. Para determinar lo que

se acerca el artículo fabricado al modelo buscado, se miden las

denominadas características de calidad como, por ejemplo, la

longitud, el diámetro, el peso, el color, la resistencia... De este modo,

si el artículo fabricado se aleja del modelo más de lo deseado, se

rechaza. El valor a partir del cual se desecha el producto se llama

nivel de tolerancia; así, si se fabrican tornillos de 1 cm de longitud, la

característica de calidad de interés es la longitud, y si se indica que el

nivel de tolerancia es de +0.05 cm, se rechazarán todos aquellos

tornillos que midan menos de 0.95 cm y más de 1.05 cm. Por tanto,

cuanto menor sea el nivel de tolerancia, mayor será la calidad del

producto. Es claro que el interés del fabricante reside en que la

mayoría de los productos estén dentro del nivel de tolerancia, ya que

no interesa fabricar productos que tengan que ser rechazados.

En definitiva, el Control de Calidad es el conjunto de técnicas y

procedimientos mediante los cuales se miden las características de

calidad de un producto, se comparan con especificaciones y se toman

acciones correctivas apropiadas cuando hay muchos elementos que

no cumplen los requisitos.

Las técnicas básicas empleadas en el Control de Calidad se

citan a continuación:

• Diseño de Experimentos, para las etapas de diseño del artículo y

en las primeras etapas de fabricación.

• Control estadístico de procesos, para regular y vigilar el

proceso.

• Muestreo para la aceptación, cuando el objetivo de la inspección

es la aceptación o el rechazo de un producto, con base en la

conformidad respecto a un estándar.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

3

2.- ALGUNAS DEFINICIONES EN CONTROL DE CALIDAD

La producción de un artículo se sustenta en un proyecto de

fabricación que ha de ser de calidad. La calidad de proyecto de un

artículo está estrechamente relacionada con la precisión de las

especificaciones para su fabricación, de forma que cuanto menor sea

el nivel de tolerancia (esto es, mayor exigencia), tanto mejor será la

calidad de proyecto, y viceversa. No obstante, el proyecto debe ser lo

más económico y sencillo posible, cumpliendo las expectativas del

consumidor.

Una vez fabricado el artículo, el grado en el que éste concuerda

con las exigencias del proyecto original, es decir, con el Control de

Calidad tanto en los materiales utilizados como de los productos que

salen de la fábrica y se almacenan en las instalaciones de la empresa,

se denomina calidad de concordancia con el proyecto.

El funcionamiento final de un producto depende tanto de la

calidad de proyecto como de la calidad de concordancia. Aun cuando

un proyecto sea inmejorable, si el control de concordancia ha sido

inadecuado, por ejemplo, porque no se han utilizado los materiales

consignados en la planificación original, es posible que el artículo no

funcione correctamente. Por otra parte, aunque el control de

concordancia fuese excepcional, si el artículo está inicialmente mal

proyectado, no se conseguirá un funcionamiento satisfactorio.

En consecuencia, es necesario establecer un sistema que informe

sobre la calidad de todo el proceso, para así poder tomar decisiones

que optimicen la calidad del producto.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

4

3.- CAUSAS NATURALES Y ATRIBUIBLES

En un proceso de fabricación las causas de la variación de la

calidad son, esencialmente, de dos tipos:

• Causas naturales o fortuitas: Todo proceso de fabricación presenta

un cierto grado de variabilidad inherente o natural que algunos

autores denominan ruido de fondo. Esta variabilidad natural es el

efecto acumulado de muchas pequeñas causas, generalmente

incontrolables, debidas al azar; son las causas naturales.

• Causas atribuibles: Son aquellas que no forman parte de la

variabilidad natural del proceso, como pueden ser un ajuste

inapropiado de las máquinas, errores del trabajador, defectos en las

materias primas, etc. En otras palabras, son causas externas

identificables que se pueden descubrir y evitar en el futuro.

Generalmente, la variabilidad provocada por las causas atribuibles es

mayor que la provocada por las causas naturales.

Cuando el ruido de fondo de un proceso es relativamente

pequeño, suele considerarse correcto el funcionamiento del proceso.

Por tanto, un proceso cuya variabilidad en el funcionamiento sólo está

influenciada por causas naturales se considera bajo control

estadístico. Por el contrario, un proceso que funciona en presencia de

causas atribuibles se considera fuera de control.

Así pues, uno de los principales objetivos del control estadístico de

procesos es detectar rápidamente las causas atribuibles, a fin de que

se puedan analizar y corregir apropiadamente antes de que

aparezcan muchos elementos que no cumplan las especificaciones.

Para ello una herramienta básica es la construcción (le gráficos de

control que establecen el recorrido de las variaciones que no es

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

5

probable que se produzcan por azar; por lo que cualquier variación

que se produzca dentro de este recorrido se debe a una causa

externa que hay que identificar.

4.- FUNCIONAMIENTO DE UN GRÁFICO DE CONTROL

Principios Básicos

Un gráfico de control es un dibujo para determinar si el modelo de

probabilidad subyacente en el proceso es estable o cambia a lo largo

del tiempo. En él se representan las realizaciones muestrales de una

característica de calidad en función de la posición o del tiempo. El

gráfico consta de tres líneas horizontales, paralelas y, generalmente,

equidistantes:

• La línea central (LC), que representa el valor medio de la

característica de calidad, correspondiente al estado bajo control, es

decir, únicamente en presencia de causas naturales;

• La línea superior de control (LSC), situada encima de la línea

central; y

• La línea inferior de control (LIC), por debajo de la línea central.

Estos límites de control se construyen de forma que, si el

proceso está bajo control, la mayoría de los puntos muestrales se

encuentre entre ellos. En ese caso, no es necesario tomar ninguna

medida, sino que dejamos que el proceso actúe sólo. Sin embargo, si

más de mα puntos se encuentran fuera de los límites del gráfico

(siendo m el número de puntos considerados y α la probabilidad de

que uno de ellos salga fuera de los límites cuando el proceso está

bajo control), se interpreta como una evidencia de que el proceso

está fuera de control y es necesario encontrar y eliminar las causas

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

6

que producen este comportamiento. Así, la construcción general de

los límites de control propuesta por Shewart establece límites de

control equidistantes.

Los puntos muestrales representados en el gráfico de control

suelen unirse mediante segmentos permitir una visualización más

clara de la evolución del proceso a lo largo del tiempo.

Por otra parte, si todos los puntos se hallan dentro de los

límites de control, pero se comportan de forma no aleatoria, nos

indica que el proceso está fuera de control.

Esencialmente, un gráfico de control es un contraste de

hipótesis donde:

H0 : Proceso bajo control estadístico

H1 : Proceso fuera de control estadístico

Así, la regla de decisión consiste en rechazar la hipótesis nula si

un punto muestral se encuentra fuera de los límites; mientras que si

dicho punto está comprendido entre los límites no tenemos evidencia

suficiente para rechazar dicha hipótesis.

Al igual que en todo contraste de hipótesis, pueden cometerse

dos tipos de errores:

• Error de tipo 1, que consiste en concluir que el proceso está fuera

de control estadístico cuando en realidad está bajo control.

• Error de tipo II, cuando se concluye que el proceso está bajo

control

- estadístico cuando ciertamente no es así.

Recuérdese que a representa la probabilidad de cometer error

de tipo 1, mientras que β representa la probabilidad de cometer error

de tipo II. Así pues, en Control de Calidad — específicamente en

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

7

Muestreo para la Aceptación — a es la probabilidad de rechazar un

lote de calidad aceptable, mientras que β representa la probabilidad

de aceptar un lote con una proporción alta de artículos defectuosos.

Con objeto de ilustrar la construcción de los gráficos de control, se

proponen los siguientes ejemplos.

Ejemplo. Una fábrica embotelladora de agua desea que sus botellas

tengan un contenido de 11. Se selecciona al azar una muestra de 20

botellas consecutivas y se mide la cantidad de agua que contienen.

Los resultados obtenidos se recogen en la siguiente tabla.

La Figura 2.1 muestra el gráfico de control asociado a este ejemplo

concreto. Se observa que todos los valores muestrales se encuentran

dentro de las bandas de control y en torno a la línea central (xm=

0.988), en consecuencia, puesto que no se tiene ninguna razón que

obligue a actuar de otro modo, es preferible dejar que el proceso de

embotellado funcione sólo.

Ejemplo : En una cadena de producción, un operario hace agujeros

en una pieza de metal con un taladro. Las exigencias del proyecto en

cuanto a la profundidad del orificio son de 2 cm. Para controlar si la

operación de taladrado es estable a lo largo del tiempo se miden los

orificios realizados en 30 piezas, obteniéndose los resultados de la

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

8

Tabla 2.2. Se construye el gráfico de control para la característica de

calidad X: “Profundidad del orificio (en cm)” (véase Figura 2.2). En

este ejemplo, la muestra número 26 correspondiente a la profundidad

del orificio de la pieza que ocupa dicho lugar, dicho lugar, escapa de

los límites de variación natural del proceso de taladrado. Por tanto, el

proceso está fuera de control.

Nótese que los límites de control no coinciden, en general, con

los límites de especificación. Los primeros están asociados a la

variabilidad natural inherente al proceso, mientras que los segundos

no están determinados por el proceso, sino que vienen impuestos

desde fuera, por ejemplo, por la Administración o la Dirección de la

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

9

Empresa. En este caso concreto, los límites de especificación son más

restrictivos, pues están dentro de los de control.

Patrones de Comportamiento

Como se ha comentado en la sección anterior, aunque todos los

puntos muestrales estén comprendidos entre los límites superior e

inferior de control, si la disposición de estos puntos en el gráfico no

es aleatoria sino que presentan un patrón de comportamiento

sistemático, se dice que el proceso está fuera de control. En la Figura

2.3 se resumen algunos de los patrones de comportamiento no

aleatorios que pueden encontrarse en un gráfico de control.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

10

Diseño de un Gráfico de Control

Son tres los aspectos más importantes a la hora de diseñar un

gráfico de control y que se desarrollan con detalle en cada una de las

subsecciones siguientes: seleccionar los límites de control apropiados

y construir el gráfico de control, establecer el tamaño que han de

tener las muestras elegidas y determinar con qué frecuencia deben

extraerse.

a) Selección de los Límites de Control

Para especificar los límites de control se ha de tener en cuenta lo

siguiente:

• Si dichos límites se alejan de la línea central, se reduce el riesgo

de cometer error de tipo 1, puesto que será menos probable que

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

11

un punto caiga fuera de los límites cuando el proceso está bajo

control estadístico; sin embargo, el riesgo de cometer error de tipo

II se incrementa, ya que los puntos que deberían estar fuera de

los límites de control (nótese que el proceso está fuera de control)

ahora quedarán dentro, lo que conducirá a la aceptación de control

estadístico.

• Por el contrario, si estos límites se acercan a la línea central, se

reduce el riesgo de cometer error de tipo II, pero aumenta la

probabilidad de cometer error de tipo 1.

En consecuencia, hay que llegar a un equilibrio entre ambos. Análogo

al que se emplea en la construcción de los intervalos de confianza y

contrastes de hipótesis, esto es, fijar a en un valor pequeño y

minimizar 3.

El objetivo es probar si un proceso es estable o si, por el

contrario, cambia a lo largo del tiempo. Por consiguiente, si la

distribución de la característica de calidad de interés es,

aproximadamente, Normal con parámetros µ0 y σ, se desea probar la

hipótesis de que la media de dicha distribución es estable.

Si la desviación típica σ de la característica de calidad es

conocida, el estadístico de contraste asociado al test (2.1) se

construye a partir de una muestra aleatoria simple Xi,. . . , Xm y

viene dado por:

de modo que aquellos valores del estadístico experimental

comprendidos entre zα/2 y z1-α/2, es decir, entre los cuantiles de una

N(0,1) de órdenes α/2 y 1-α/2 respectivamente conducen a la

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

12

aceptación de la hipótesis nula y, por tanto, de estabilidad de la

medida (o control estadístico). En resumen, se acepta la hipótesis

nula siempre y cuando la media muestral esté contenida en el

intervalo

En cualquier caso se acepta la hipótesis nula si

procediendo a la estimación de los parámetros si alguno de

ellos es desconocido. Es claro que la constante k está estrechamente

relacionada con α, de hecho,

k = z1-α/2

Esta es la idea intuitiva de cómo se construyen los gráficos de

control. Así pues, la construcción más usual de límites de control,

debida a Shewart, es la siguiente:

Sea W un estadístico asociado a la característica de calidad X

objeto de estudio, con media µW y desviación típica σw. Entonces, los

límites de control se calculan como:

donde k es una constante que determina la distancia de las líneas de

control a la línea central. Nótese que, fijado un valor k, puede

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

13

obtenerse la probabilidad α a de cometer error de tipo 1 mediante la

relación

De esta forma, los límites de control pueden calcularse fijando k

o bien, para un α dado, obtener el valor k asociado y, a partir de él,

construir los límites del gráfico. Estos últimos se denominan límites

probabilísticos de α. En EE.UU. se suelen determinar límites de

control tomando k = 3, mientras que en algunas zonas de Europa

occidental se opta por el cálculo de límites probabilísticos para a =

0.002.

Ejemplo. Retómese la operación de taladrado del ejemplo anterior. El

objetivo es establecer un gráfico de control para determinar si dicho

proceso funciona bajo control estadístico. Para ello se toma como

estadístico asociado a la característica de calidad, la propia

característica, cuya media y varianza son desconocidas. No obstante,

es posible estimar dichos valores a partir de la muestra extraída. Para

ello se utilizan los estimadores puntuales habituales:

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

14

En consecuencia, el proceso está fuera de control si más de mα

= 30·0.0027 = 0.081≈0 muestras están fuera de los límites

obtenidos. Obsérvese que ningún valor sobrepasa dichos límites,

aunque la muestra número 26 se sitúa cerca del límite superior de

control, lo que lleva a la conclusión de que el proceso está bajo

control estadístico.

En este caso, el número máximo de muestras que, por azar, pueden

caer fuera de los límites de control es mα = 30 · 0.0455 = 1.245≈1.

En este caso, la observación número 26 se sitúa por encima del límite

superior de control x26 = 2.120, lo cual es predecible, pues al

disminuir k la amplitud de los límites de control disminuye. No

obstante, no se puede estar razonablemente seguro de que el

proceso está fuera de control, pues es posible que la causa de que

dicha muestra dé una señal sea natural y no atribuible.

Si se desea determinar límites de control probabilísticos para

α=0.002:

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

15

Ha aumentado ligeramente el valor de k, con lo que se incrementa la

amplitud de los límites de control y, por tanto, el proceso se mantiene

bajo control estadístico.

b) Tamaño Muestral y c) Frecuencia de Muestreo

El tamaño y la frecuencia de muestreo dependerán, en general,

del cambio en el proceso que se quiera detectar. Las muestras

grandes permiten detectar más fácilmente cambios pequeños,

mientras que las muestras pequeñas se emplean para la detección de

cambios grandes. No obstante, lo deseable sería extraer muestras

pequeñas — siempre y cuando éstas fuesen representativas — a

intervalos largos de tiempo, es decir, con menor frecuencia, o bien

muestras grandes con mayor asiduidad. El inconveniente es que esto

supone un elevado costo económico y temporal. Por tanto, se opta

por extraer muestras de mayor tamaño con menor frecuencia o bien,

muestras pequeñas poco espaciadas en el tiempo, distribuyendo de

esta forma el esfuerzo y el coste de muestreo. Posteriormente, se

estudia un método para el cálculo del tamaño muestral a partir de la

curva OC.

Subgrupos Racionales

El concepto de subgrupos racionales se refiere a que, si el

proceso funciona en presencia de causas atribuibles, las diferencias

que puedan existir entre las muestras y dentro de ellas, sean máxima

y mínima, respectivamente. Para establecer subgrupos racionales se

emplean, básicamente, dos enfoques:

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

16

1. Si el objetivo es detectar cambios en el proceso, se toman

muestras que consten de artículos que se produjeron

simultáneamente o con la menor diferencia posible.

2. Si se pretende tomar decisiones acerca de la aceptación de todos

los artículos que se han producido desde la última muestra, lo más

conveniente es que cada muestra sea una muestra aleatoria de todos

los artículos fabricados en el intervalo de muestreo. Estos serán

representativos de todos los producidos desde que se formó el último

subgrupo racional.

Cuando estos métodos no proporcionan los resultados deseados,

también se emplean combinaciones de ambos.

Con ello ponemos de manifiesto la importancia de establecer

muestras, pues son éstas las que permiten la extracción de

conclusiones apropiadas acerca del funcionamiento de un proceso.

Límites de Tolerancia Natural

Los límites de tolerancia natural de un proceso son los límites

determinados por la variabilidad natural medida por la desviación

típica del proceso, denominada σ, es decir

Estos límites no tienen relación con los límites de especificación del

proceso ya que estos últimos vienen dados externamente por la

Administración, el consumidor, el fabricante, etc.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

17

5. ESTABILIDAD DEL PROCESO

Para analizar la estabilidad de un proceso de fabricación y así

asegurar la calidad de los productos fabricados, se establecen,

generalmente, dos períodos: el período base o período de prueba y el

período de vigilancia. En el período base se establecen límites de

control de prueba a partir de un conjunto de observaciones. Si

durante dicho período el proceso está bajo control, es decir, es

estable, podrán emplearse con toda confianza los límites de control

anteriormente obtenidos para continuar controlando el proceso

durante el periodo de vigilancia.

La inestabilidad puede deberse, fundamentalmente, a dos causas:

• Que sea inherente al proceso (equipo en mal estado, baja calidad

de los materiales, etc.)

• Debido a la novedad del producto o del proceso (los trabajadores

encargados no están familiarizados).

¿Cómo se establecen entonces los límites de control? Son dos las

posibles opciones:

1. Si el tiempo y el costo lo permiten, se puede iniciar un nuevo

período base. Probablemente el proceso ya se habrá estabilizado.

2. Controlar si el proceso es estable al eliminar las observaciones que

se encuentran fuera de los límites de control. Para ello se siguen los

siguientes pasos:

Paso 1) Iniciar un período base de, al menos, 20 muestras

Paso 2) Calcular los límites de control del gráfico considerado a partir

de las muestras anteriores; estos límites se denominan límites de

control de prueba.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

18

Paso 3) Revisar el gráfico, de forma que si todas las observaciones

caen dentro de los límites de control, vamos al Paso 4; de lo

contrario, y bajo el supuesto de presencia de causas atribuibles,

habrá que eliminar las muestras implicadas del período base y volver

de nuevo al Paso 2.

Paso 4) Extender los límites de control al período de vigilancia. En

resumen, se tiene el diagrama de la Figura 2.3.

Nota: Es claro que no se pueden eliminar muestras de forma

indiscriminada. Si quedasen 15 o menos, se parte de un nuevo

conjunto de muestras o bien se prescinde del período de prueba.

Límites de aviso

Los límites de control de un gráfico convencional dan una señal

indican do que el proceso puede estar fuera de control. En una

distribución Normal con los límites de control para k = 3, la

probabilidad de una señal falsa es de sólo 0.0027 (error tipo I). De

esta manera, se puede estar razonablemente seguro de que el

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

19

proceso está fuera de control cuando se produzca la señal. No se

estará seguro si no se produce la señal; incluso aunque el proceso

haya pasado a estar fuera de control, es posible que la señal no se

produzca de inmediato. Para intentar evitar estos retrasos indebidos,

algunos expertos recomiendan el uso de límites de aviso o

advertencia. Estos se encuentran situados dentro de los límites

usuales de control, de modo que si los límites iniciales se construyen

para k = 3 o probabilísticos de 0.002, los límites de aviso se calculan

con k = 2 o de 0.05, respectivamente. Así, si se observa que un

punto está fuera de los límites de aviso, pero sigue situado dentro de

los de control, hay que sospechar que el proceso no funciona de

forma apropiada y, en consecuencia, se ha de vigilar el proceso con

mayor atención. Una alternativa consiste en incrementar la frecuencia

de muestreo y emplear estos nuevos datos junto con los puntos

sospechosos para investigar si el proceso está bajo control.

Si varias muestras sucesivas están dentro de los límites de aviso

no hay porqué preocuparse. La norma siempre ha de ser: Deje al

proceso sólo a no ser que haya una razón clara para intervenir.

La probabilidad de que dos muestras sucesivas estén fuera de

los límites de aviso es muy reducida. Sean x1 y x2 dos valores

observados de la muestra que están fuera de los límites de aviso de

2σ. Entonces, aplicando que ambos son independientes y suponiendo

normalidad, se tiene:

P [x1 esté fuera de los límites] = 1 — P [-2< Z < 2] = 0.0456

P [x2 esté fuera de los límites] = 0.0455

P [x1 y x2 estén fuera de los límites] = P [x1 esté fuera] · P [x2 esté

fuera] = 0.04552 = 0.00207.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

20

Esta probabilidad es incluso más pequeña que la de recibir una señal

falsa en un gráfico de Xm con límites de 3σ. Por tanto, si el proceso

da un aviso y la siguiente muestra lo repite, el proceso funciona bajo

la presencia de causas atribuibles.

Los límites de aviso permiten que el gráfico de control sea más

sensible a los cambios en los parámetros del proceso, el

inconveniente es que su interpretación no es demasiado precisa y, en

ocasiones, pueden llevar a equívocos.

6. CURVA CARACTERÍSTICA OPERATIVA

La probabilidad de aceptación de una muestra no es más que la

probabilidad de asumir que el proceso está bajo control. Esta

probabilidad depende en cada caso, de si realmente el proceso está

bajo control o no. Así pues, dado el contraste de hipótesis

H0: Proceso bajo control

H1: Proceso fuera de control

la probabilidad de aceptación viene dada por

donde α y β denotan, como es habitual, las probabilidades de

cometer error de tipo I y II, respectivamente. Esta probabilidad de

aceptación variará de acuerdo con el cambio que se produzca en el

proceso de producción, por ejemplo, si el desajuste se produce en la

media, será una función de la diferencia existente entre la verdadera

media del proceso y la media bajo H0 de modo que cuanto mayor sea

dicha diferencia, tanto menor será la probabilidad de aceptación y

viceversa.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

21

En consecuencia, la Curva Característica Operativa, también

denominada Curva Característica de Operación o Curva OC, asociada

a un gráfico de control, es una representación gráfica de la

probabilidad de cometer error de tipo II, β. Esta función dependerá,

en general, del tamaño muestral considerado y del cambio producido

en el proceso, esto es

β=f(n,α,d)

donde d representa dicha alteración.

Un fácil procedimiento para su cálculo se describe a continuación.

Sean θ1 y θ0 el valor real del parámetro de interés y bajo la hipótesis

nula, respectivamente. Entonces el cambio producido viene dado por:

d=θ1-θ0

Por tanto, los pasos a seguir son:

Paso 1) Se establecen límites superior e inferior del gráfico de control

correspondiente, dado un valor k (generalmente k = 3).

Paso 2) Se obtiene la desviación típica a partir de los límites como

Paso 3) Se selecciona la diferencia d. Usualmente los valores de d se

toman múltiplos de σW con objeto de facilitar los cálculos

Paso 4) Se calcula la probabilidad de aceptación de una muestra para

carla diferencia d.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

22

Ejemplo. Los límites de control establecidos para vigilar la estabilidad

de la longitud media de cable eléctrico fueron 25±5. Para ello, se

extrajeron varias muestras de tamaño 6 y se calculó la media

muestral para cada una de ellas. Por tanto, el estadístico a partir del

cuál se construyeron los límites de control para la media fue W =Xm

El uso del gráfico de control equivale al contraste de hipótesis

siguiente:

H0 : µ= 25; H1 : µ≠ 25

Puede prescindirse del Paso 1 puesto que el ejemplo ya proporciona

los límites de control. En el Paso 2, se obtiene la desviación típica σXm

Así pues, tas diferencias d serán, por ejemplo, 0, 5/3 , 10/3, 5, 20/3

,25/3 ,10.

Seguidamente se calcula la probabilidad de aceptación para cada

valor de d:

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

23

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

24

La figura 2.4 muestra la representación gráfica de la curva OC donde

puede apreciarse la simetría con respecto al valor µ0= µ1=25

(↔d=0)

La Curva OC y el tamaño muestral.

Obsérvese que la relación entre d y σW es crucial para estudiar el

comportamiento de la curva característica operativa, ya que:

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

25

Por otra parte, centrándose en el estudio de la media del

proceso y extrayendo muestras de tamaño n, el estadístico W será

Xm. Entonces, puesto que σXm = σ/(n)1/2 al aumentar el tamaño

muestral n, disminuye la desviación típica σXm, con lo que aumenta el

cociente d/σXm y, por tanto, disminuye la probabilidad de aceptación.

En consecuencia, al aumentar el tamaño de las muestras, la curva

OC, en este caso, resulta más pronunciada; por el contrario, si el

tamaño de las muestras se hace pequeño, la curva OC tenderá a ser

una línea horizontal. Esta relación entre la curva OC y el tamaño de la

muestra posibilita la obtención del tamaño mínimo que debe tener

una muestra, fijada la probabilidad de detección de un cierto cambio

en la media del proceso.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

26

Ejemplo. Una planta diseña un nuevo componente para máquinas

agrícolas y se dispone a su fabricación. El director de dicha planta

desea saber si los estándares de calidad son óptimos y estables. Para

ello se mide una cierta característica de calidad del componente cuya

media se espera que sea igual a 10. Si se sabe además que la

desviación típica del proceso es 0.5 ¿cuál será el tamaño muestral

mínimo necesario para detectar un cambio de 1 unidad hacia arriba

en la media, con probabilidad 0.95, justo en la primera muestra

después del cambio?

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

27

La curva OC y la longitud media de racha

Una racha es el conjunto de muestras que es necesario

inspeccionar para que se detecte una señal de que el proceso está

fuera de control en el gráfico correspondiente. Entonces, la longitud

de racha se define como el nº de muestras que componen dicha

racha. Así, por ejemplo, si en un gráfico de control se produce una

señal en la 5ª muestra observada, la racha está formada por las

muestras 1, 2, 3, 4 y 5 y la longitud de macha es 5.

Considérese entonces la variable aleatoria J que representa la

longitud de racha. Su función masa de probabilidad viene dada por:

donde Y → BN (1, θ) con θ la probabilidad de detectar un cambio en

el proceso en la primera muestra después del cambio. Obsérvese que

la variable aleatoria Y representa el “número de muestras correctas

antes de que se produzca la primera señal”.

Su función de distribución es, por tanto,

que se conoce como longitud media de racha y se nota ARL.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

28

Obsérvese que la curva OC y la longitud media de racha, ARL, están

estrechamente relacionadas entre sí: la primera representa la

probabilidad de aceptación de una muestra, esto es

P[aceptación]=1-P[detección]=1-θ

mientras que la segunda es el inverso de la probabilidad de rechazo

de la muestra (o de detección de la señal), 1/θ. En consecuencia, a

medida que la probabilidad de aceptación de una muestra disminuye,

la probabilidad de detección de una señal aumenta y, por

consiguiente, la longitud media de racha disminuye hasta un valor

mínimo igual a 1. Esto parece lógico, ya que habrá que inspeccionar

menos muestras para detectar el cambio. Si, por el contrario, la

probabilidad de aceptación de una muestra aumenta, esto implica

que el número de muestras que habrá que extraer para detectar un

cambio será mayor, con lo que la longitud media de racha

aumentará.

Existen tablas para calcular la longitud media de racha en un gráfico

para la media. En anexos se incluyen dos de ellas, cuando la

desviación típica del proceso es conocida (Tabla A3) y cuando ésta es

desconocida pero se estima a partir de los recorridos muestrales

(Tabla A4).

7.- GRÁFICOS DE CONTROL DE ATRIBUTOS

No todas las características de calidad pueden ser representadas

de manera adecuada mediante números, pues hay casos en los que

cada artículo o producto inspeccionado se debe clasificar como

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

29

conforme o disconforme respecto a las especificaciones para la

característica de calidad considerada también suele hablarse de

artículos defectuosos o no defectuosos, aunque la anterior

terminología está más extendida. Estas características de calidad se

denominan atributos. Como ejemplo de atributo se puede considerar

que un tornillo es conforme si su longitud está entre 1.9 y 2.1 cm.,

mientras que en caso contrario será disconforme.

El gráfico construido para el control de este tipo de medida de

calidad, se denomina Gráfico de Control de Atributos. Los cuatro

gráficos que se utilizan habitualmente son:

• Gráfico p, que se refiere a la fracción de artículos disconformes o

defectuosos producidos en un proceso de fabricación.

• Gráfico np, que se refiere al número de artículos disconformes o

defectuosos producidos en un proceso de fabricación.

• Gráfico c, donde se mide el número de disconformidades o defectos

observados.

• Gráfico u, que analiza el nº de defectos por unidad inspeccionada.

8.- GRÁFICO DE CONTROL PARA LA FRACCIÓN DE

DISCONFORMES: GRÁFICO P

Se considera una inspección de calidad de un artículo del siguiente

modo: se examinan de manera simultánea varias características de

calidad y si una o más de una de ellas no está de acuerdo con un

estándar predeterminado, se clasifica el artículo como disconforme.

Entonces, se define la fracción (o proporción) de artículos

disconformes, o fracción disconforme, como el cociente del número

de artículos disconformes como el cociente del nº de artículos

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

30

disconformes en una población entre el número total de artículos que

contiene dicha población. En general, la fracción de disconformes se

suele representar mediante un número decimal (en tanto por uno),

aunque a veces se representa el porcentaje de disconformes, que es

el producto por 100 de la fracción disconforme (en tanto por ciento),

aunque se suele trabajar con la fracción de artículos disconformes, se

podría analizar también la fracción de artículos conformes, con lo que

se tendría un gráfico de control para el rendimiento del proceso.

Los principios estadísticos en los que se basa el diagrama de

control de la fracción o proporción de artículos disconformes proceden

de la distribución Binomial, puesto que si el proceso de producción

funciona de manera estable, la probabilidad de que cualquier artículo

no esté conforme con las especificaciones es una constante (p), y los

artículos producidos de manera sucesiva son independientes.

Entonces, la disconformidad de cada artículo producido es una

variable aleatoria de Bernouilli, con parámetro p. Si se selecciona una

muestra aleatoria de n artículos del producto estudiado, y si X es la

variable aleatoria que representa el “número de artículos

disconformes en dicha muestra”, entonces X sigue una distribución

Binomial de parámetros n y p:

El objetivo del gráfico p es calcular y controlar la proporción o

porcentaje de artículos defectuosos es decir, p. Una estimación para

p a partir de la muestra es la fracción disconforme muestral, que se

define como el cociente del número de artículos disconformes X en la

muestra, entre el número de artículos de la muestra (n), es decir:

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

31

Se puede obtener la distribución de la variable aleatoria a partir

de la distribución Binomial de X, mediante la expresión

respectivamente. Si n es grande, la distribución Binomial puede

aproximarse por la distribución Normal, de modo que el estimador de

se distribuye según una Normal de parámetros p y

Este resultado es la base para desarrollar un gráfico de control

de la fracción de disconformes.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

32

Si se conoce el verdadero valor de la fracción disconforme p en el

proceso de fabricación o se dispone de un valor estándar para ella,

entonces, a partir del modelo general para el gráfico de control la

línea central y los límites de control del gráfico de la fracción

disconforme serán:

Si los cálculos dan lugar a un LIC negativo, se tomará igual a 0,

puesto que la fracción disconforme nunca puede tornar valores

negativos.

Para utilizar el gráfico de control, se observan m muestras

sucesivas de tamaño n del artículo inspeccionado, se calcula la

fracción disconforme en cada muestra p y se representa en el gráfico.

Mientras que los p estén dentro de los límites de control y la sucesión

de puntos no exhiba un patrón sistemático, se concluirá que el

proceso está bajo control estadístico; mientras que si hay valores

fuera de los límites de control o si se observa un patrón no aleatorio

entre los puntos, habrá que concluir que la fracción de disconformes

del proceso cambió hacia un nuevo nivel y el proceso está fuera de

control.

También puede ocurrir que las m muestras consideradas tengan

distintos tamaños ni (i = 1 . . . , m). En este caso, cada muestra tiene

sus propios límites de control relacionados con su tamaño, es decir:

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

33

Para que todas las muestras tengan los mismos límites de

control, se puede realizar el gráfico a partir de un tamaño muestral

promedio, obteniendo así unos límites de control constantes

aproximados. El tamaño muestral promedio es:

y los límites de control aproximados son:

Si hay alguna muestra con valor muy próximo a los límites de control

es conveniente calcular su límite exacto para ver si el proceso está

bajo control.

La consideración de límites aproximados solo tiene sentido cuan do

los distintos tamaños muestrales están razonablemente próximos. Se

considera que dichos tamaños muestrales están próximos si todos

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

34

ellos se encuentran en torno al 25% a cada lado del tamaño muestral

promedio.

Cuando se desconoce la fracción disconforme p de artículos del

proceso, hay que estimarla a partir de los datos observados. En este

caso, los límites de control obtenidos se pueden considerar límites de

control de prueba (en el periodo base) y estos límites permiten

comprobar si el proceso estaba bajo control cuando se obtuvieron las

m muestras iniciales. Para ello, se representa en el gráfico la fracción

muestral disconforme para cada muestra, p, y se compara con los

límites de control obtenidos. Si todos los puntos están dentro de los

límites de control y no se manifiesta un comportamiento sistemático,

entonces se concluirá que el proceso estaba bajo control en el

pasado, y que los límites de control de prueba son adecuados para

controlar la producción actual y futura.

Si se quiere controlar la producción actual o futura, hay que basarse

en datos de un proceso que está bajo control. Por el contrario, si uno

o más de los puntos i se encuentran fuera de los límites de control de

prueba, se rechaza la hipótesis de un estado de control anterior, por

lo que es necesario revisar los límites de control de prueba. Para ello,

se examina cada uno de los puntos obtenidos fuera de control y se

busca una causa atribuible a cada uno de ellos. Si se encuentra la

causa por la que la muestra estaba fuera de los límites de control, se

descarta la muestra del estudio y se vuelven a calcular los límites de

control de prueba, utilizando únicamente las muestras restantes.

Entonces, se representa el nuevo gráfico de control y se examina si

las muestras restantes están bajo control con estos nuevos límites

(los puntos que inicialmente estaban bajo control podrían salir fuera

de estos nuevos límites, ya que éstos, a veces, son más estrechos

que los anteriores). Este proceso continúa hasta que todas las

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

35

muestras estén bajo control y, a partir de este momento, se aceptan

los límites de control de prueba como límites de control para vigilar el

proceso (para el periodo de vigilancia).

Si el gráfico de control se basa en un valor conocido o estándar de la

fracción disconforme p, entonces el cálculo de límites de control de

prueba suele ser innecesario. Sin embargo, se debe tener cuidado al

trabajar con un valor estándar de p, puesto que en la práctica

raramente se conoce con exactitud el verdadero valor de p, y

normalmente se proporciona un valor estándar que representa un

valor deseado u objetivo para la fracción disconforme del proceso. Si

está fuera de control, se tendría que determinar si el proceso está

fuera de control para ese p, pero dentro de control para otro valor de

p. Por ejemplo, si se especifica un valor objetivo de p = 0.18, pero el

proceso realmente está bajo control para un valor de la fracción

disconforme p = 0.15. Utilizando el diagrama de control con base p =

0.18, muchos puntos caerán por debajo del límite inferior de control,

indicando una situación de fuera de control. Sin embargo, el proceso

sólo está fuera de control respecto al objetivo p = 0.18. Algunas

veces es posible mejorar el nivel de calidad usando valores objetivos,

o poniendo bajo control un proceso a un nivel particular de calidad.

Los valores objetivos para p pueden ser útiles en procesos en los

cuales es posible controlar la fracción disconforme mediante ajustes

sencillos.

Estas observaciones son válidas también para el resto de gráficos de

control de atributos.

Como ya se ha indicado, cuando se desconoce el valor de p es

necesario estimarlo a partir de las m muestras extraídas durante el

periodo base. Sin embargo, el número de artículos contenidos en

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

36

cada muestra puede ser variable, por lo que distinguiremos los casos

de tamaño muestral constante y variable.

Tamaño Muestral Constante

Para estimar el valor del parámetro desconocido en el periodo

base, se toman m muestras preliminares todas ellas de tamaño n.

Como regla general, m tendría que ser al menos 20. Entonces, si hay

x artículos disconformes en la muestra i se calcula la fracción

disconforme de la i-ésima muestra, pi como:

y la media de estas fracciones disconformes muestrales individuales

es:

Este estadístico estima la fracción disconforme p desconocida, por lo

que los límites de control del gráfico de control de la fracción

disconforme son los siguientes:

Ejemplo. Los resultados de muestras obtenidas para la inspección de

un cierto producto durante los primeros 25 días del mes de febrero

aparecen en la Tabla 3.1. En ella se ha calculado la proporción de

artículos disconformes para cada día.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

37

Si consideran estos 25 días de febrero como período base, la

estimación de p es:

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

38

Los límites de control están representados en la Figura 3.1 y son, por

tanto

Si se revisa la columna de la fracción defectuosa, se ve que las

muestras correspondientes a los días 4 y 9 de febrero están fuera de

los límites de control. De estos dos días, se puede llegar a establecer

la causa del mayor número de unidades defectuosas producidas el 9

de febrero. Si no parece probable que se repita, se elimina el punto

del análisis del período base. El objetivo del análisis del período base

es establecer qué estándar se puede lograr. La causa del punto fuera

de control que se produjo el 4 de febrero no se puede establecer, de

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

39

modo que se conserva en el análisis como parte de la variabilidad

natural del proceso. Una vez excluido el lote del 9 de febrero, la

estimación de p y los nuevos límites de control están representados

en la siguiente figura:

Ahora el punto correspondiente al día 4 de febrero está fuera de los

límites de control. Como es la única muestra que está fuera de

control, se ve lo que sucede si se excluye del análisis, de manera que

los nuevos límites de control están representados en la Figura 3.3 y

son:

Entonces, el punto asociado al día 17 de febrero se sale de los límites

de control, por lo que sería conveniente introducir de nuevo el

correspondiente al día 4 de febrero en el análisis y seguir

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

40

considerando su anomalía como una situación normal de causa

aleatoria.

Tamaño Muestral Variable

En algunos casos, se pueden producir diferentes cantidades de

artículos en cada período de inspección, con lo que el gráfico de

control tendría entonces un tamaño muestral variable.

Si se tienen m muestras, cada una de ellas de tamaño ni = 1,. . . , m,

donde pi es la fracción de disconformes en la muestra i-ésima, la

estimación de p en el periodo base es el promedio ponderado:

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

41

Por tanto, los límites de control para el período i-ésimo son:

es decir, para cada muestra individual se tienen los límites de control

basa dos en su tamaño muestra!, también denominados límites

específicos.

Ejemplo. Los resultados de muestras obtenidas para la inspección un

cierto producto durante los primeros 25 días del mes de febrero

aparecen en la Tabla 3.2. En ella, se han añadido los límites de

control propios de cada muestra.

El estimador de la fracción de disconformes, para las 25 muestras es:

Entonces, los límites de control para cada muestra se obtienen como:

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

42

y se recogen en la Tabla 3.2, junto con la fracción disconforme de

cada muestra. Además, están representados en la Figura 3.4 y se

puede observar que el proceso está bajo control estadístico en el

periodo base.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

43

Un método alternativo a éste, para obtener unos límites de control

iguales para todas las muestras, consiste en realizar el gráfico de

control a partir del tamaño muestral promedio, obteniendo así unos

límites de control aproximados, que se calculan como

Ejemplo. En el Ejemplo anterior, el tamaño muestral promedio es

y el intervalo de tamaños muestrales que da su 25% es (7.47,

12.45), con lo que todos los tamaños muestrales están dentro del

intervalo y se puede utilizar el tamaño muestral promedio.

Entonces, los límites de control aproximados están representados en

la Figura 3.5 y son:

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

44

Gráfico p Normalizado

Este gráfico consiste en la normalización del gráfico p, de manera que

los límites de control estén en los valores ±k y la línea central en

cero. Para ello, se representan en el gráfico los puntos:

Ejemplo. Los valores de p normalizados y los gráficos p normalizados

de los Ejemplos anteriores se encuentran en las Tablas 3.1 y 3.2 y en

las Figuras 3.6 y 3.7, respectivamente.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

45

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

46

9.- GRÁFICO NP

El gráfico np, que estudia el número de artículos disconformes, se

reduce directamente al gráfico p con todos los tamaños muestrales

iguales que se han utilizado, sin más que multiplicar por n los límites

de control obtenidos.

Entonces, si se conoce el verdadero valor del número de artículos

disconformes np (o bien de la fracción disconforme p) en el proceso

de fabricación, o se dispone de un valor estándar para él, los límites

de control para el gráfico np son:

En el caso en el que se desconoce el verdadero valor del número de

artículos disconformes np (o la fracción disconforme p), hay que

estimarla a partir de los datos observados. Para ello, se toman m

muestras preliminares, todas ellas de tamaño n, en las que hay x

artículos no conformes en la muestra i. Entonces, la media de

artículos disconformes es:

Este estadístico estima el número de artículos disconformes y

de él se puede obtener el valor de i que se va a utilizar en los límites

de control. Entonces, los límites de control del gráfico de control de

artículos disconformes son los siguientes:

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

47

Ejemplo. Se retoman los datos de un ejemplo anterior (véase Tabla

3.1) y se construye un gráfico np.

Si se consideran los artículos inspeccionados durante los primeros 5

días de febrero como período base, la estimación de los parámetros

necesarios es:

El análisis es totalmente análogo al caso del gráfico p, así si se revisa

el número de artículos disconformes en cada día, se puede ver que

los de los días 4 y 9 de febrero están fuera de los límites de control.

De estos dos días, se puede llegar a establecer la causa del mayor

número de unidades defectuosas producidas el 9 de febrero. Si no

parece probable que se repita, se elimina el punto del análisis del

período base. El objetivo del análisis del período base es establecer

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

48

qué estándar se puede lograr. La causa del punto fuera de control

que se produjo el 4 de febrero no se puede establecer, de modo que

se conserva en el análisis como parte de la variabilidad natural del

proceso. Una vez excluida la producción inspeccionada el 9 de

febrero, la estimación de p y los nuevos límites de control,

representados en la Figura 3.9, son:

Ahora el punto correspondiente al día 4 de febrero está fuera de los

límite de control. Si se excluye del análisis, los límites de control,

representados en la Figura 3.10, son:

Entonces la muestra del día 17 de febrero se sale de los límites de

control, por lo que sería conveniente introducir de nuevo la del día 4

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

49

en el análisis y seguir considerando su anomalía como una situación

normal de causa aleatoria.

Se puede observar que los gráficos p y np son idénticos salvo la

escala del eje vertical.

10.- GRÁFICOS DE CONTROL DE DISCONFORMIDADES

Cada punto concreto en el que no se satisface una especificación

es un defecto o disconformidad; por tanto, un artículo disconforme

tendrá, por lo menos, una disconformidad, aunque dependiendo de

su naturaleza y su gravedad, es posible que posea varias

disconformidades y no sea clasificado como tal, siempre que su

funcionamiento no se vea afectado seriamente. Hay muchos casos en

los que es preferible trabajar directamente con el conjunto de

disconformidades en lugar de la fracción de disconformes, por

ejemplo si se estudia el número de parches en 50 metros de tubería.

La condición para el uso de este nuevo gráfico es que la unidad de

inspección sea homogénea en todas las muestras. Las unidades de

inspección no tienen que tener el mismo número de artículos, ya que,

por ejemplo, se inspeccionan cajas de alfileres con un contenido

similar, porque revisar los alfileres uno a uno es una labor tediosa y

costosa. Así se pueden crear dos tipos de gráficos de control:

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

50

1. Gráfico del número de disconformidades en una unidad de

inspección o Grafico c, cuando la unidad de inspección permanece

razonablemente constante de un período a otro.

2. Gráfico del número de disconformidades por unidad o Gráfico u,

cuando se quiere expresar el número total de disconformidades

respecto a un número de unidades de inspección n.

Gráfico de Control del Número de Disconformidades en una

Unidad de Inspección: Gráfico c

Se estudia el número de disconformidades en una unidad de

inspección con tamaño muestral constante del artículo observado,

siendo una unidad de inspección una entidad apropiada para registrar

las disconformidades (por ejemplo, un número concreto de artículos).

Si se define la variable aleatoria C como el número de

disconformidades por unidad de inspección, ésta se distribuye según

una distribución de Poisson de parámetro (c> 0), esto es:

La media y varianza de la distribución de Poisson son iguales y

coinciden con el valor del parámetro, c. Por tanto, los límites de

control para el gráfico e con los límites de kσ son:

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

51

supuesto que se tiene un valor estándar para el parámetro

desconocido c.

Si los cálculos dan lugar a un LIC negativo, se tomará igual a 0.

Si no se tiene un valor estándar para c, se estimará mediante el

número medio de disconformidades presentes en las m muestras

tomadas en el período base:

Los límites de control serán entonces:

Ejemplo. Los resultados obtenidos al observar el número de

disconformidades en muestras de 200 cristales para ventanas se

encuentran en la Tabla 3.3.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

52

La unidad de inspección está formada por 200 artículos. El número de

disconformidades es de 410 y hay 22 muestras, así que la estimación

de c es c = 18.6364. Los límites de control 3σ para el periodo base se

representan en la Figura 3.11 y vienen dados por:

Ningún punto sale fuera de los límites de control de modo que éstos

serán los valores estándares de los límites de control para el período

de vigilancia.

Gráfico c Normalizado

Este gráfico consiste en la normalización del gráfico c, de manera

que los límites de control estén situados en los valores ±k y la línea

central en cero. Para ello, se representan en el gráfico los puntos:

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

53

Gráfico de Control del Número de Disconformidades por

Unidad: Gráfico u

Para llevar a cabo el estudio de este gráfico se distinguen dos

casos, atendiendo al tamaño muestral, que puede ser constante o

variable.

Tamaño Muestral Constante

Si hay X disconformidades en una muestra de n unidades,

donde la variable aleatoria C sigue una distribución de Poisson de

parámetro c, entonces el número de disconformidades por unidad

será:

U=C/n

Se sabe que U es una variable aleatoria de Poisson, puesto que es

una combinación lineal de variables aleatorias independientes de

Poisson, y su distribución de probabilidad está dada por:

donde [na] es el mayor entero menor o igual que na. La media y la

varianza de U son:

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

54

Por tanto, los límites de control para el gráfico u con los límites de ka

se calculan como:

si se tiene un valor estándar para el parámetro desconocido u.

Si los cálculos dan lugar a un LIC negativo, se tomará igual a 0.

Si no se dispone de un valor estándar para u, se estimará mediante

el número de disconformidades por unidad presentes en las m

muestras tomadas en el período base:

Por tanto, los límites para el gráfico de control son:

Ejemplo. Un fabricante de lavadoras desea establecer un gráfico de

control de disconformidades por unidad en la línea de montaje final.

Los resultados de 20 muestras de cinco lavadoras cada una aparecen

en la Tabla 3.4.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

55

El valor de la línea central es:

y los límites de control 3σ quedan:

y se representan en la Figura 3.13.

Estos datos no presentan una falta de control estadístico; por lo

tanto, se adoptarían estos límites para el período de vigilancia. Así,

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

56

un estándar realista para el número medio de disconformidades

en la línea de montaje final por lavadora será um 2.11.

Tamaño Muestral Variable

En muchos casos el número de unidades en una muestra no es

constante, por ejemplo, en la inspección del número de erratas en

documentos. El tamaño muestral varía, pues no todos los

documentos tienen la misma extensión. Entonces, se debe utilizar un

gráfico de control del número de disconformidades por unidad

(gráfico u) que tendrá una línea central constante pero los límites de

control variar en forma inversamente proporcional al tamaño de la

muestra.

Por tanto, los límites de control para el gráfico u en la muestra iésima

con los límites de kσ son:

dado un valor estándar para el parámetro desconocido u.

Si no se tiene un valor estándar para u, se estimará mediante el

número de disconformidades por unidad presentes en las m muestras

tomadas en el período base, o lo que es lo mismo, el valor ponderado

de cada u denotado como um y que se calcula como:

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

57

Por tanto, los límites para el gráfico de control en la muestra i-ésima

vienen dados por:

En este caso, también se puede trabajar con el tamaño

muestral promedio, en las mismas condiciones que se comentaron

para el gráfico p.

Ejemplo. En una empresa se inspeccionan libros para descubrir el

número de erratas, considerando cada capítulo como una unidad de

inspección. El valor estándar del número de erratas por capítulo es de

1.5 y se quiere saber si este valor estándar se mantiene en rigor. Los

datos para diez libros aparecen en la Tabla 3.5.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

58

Como se conoce el valor estándar de u = 1.5, se trabaja en el periodo

de vigilancia. Por consiguiente, los límites de control 3σ para el

periodo de vigilancia son:

Así, los límites de control para cada tamaño muestral se encuentran

en la Tabla 3.6.

Se puede observar el gráfico u en la Figura 3.14, donde se ve que el

proceso está bajo control estadístico en el periodo de vigilancia, pues

todas las muestras se encuentran dentro de los límites de control.

Gráfico u Normalizado

Este gráfico consiste en la normalización del gráfico u, de

manera que los límites de control estén en los valores ±k y la línea

central en cero. Para ello, se representan en el gráfico los puntos:

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

59

Ejemplo. En la Tabla 3.6 se encuentran los valores normalizados y en

la Figura 8.15 se puede ver el gráfico u normalizado del Ejemplo

11.- SISTEMA DE CALIFICACIÓN DE DEMÉRITOS

Si se estudian productos complejos como electrodomésticos,

vehículos a motor o aparatos mayores, se puede comprobar que

pueden tener muchos tipos de disconformidades o defectos y no

todos ellos de la misma importancia. Probablemente un artículo con

un defecto muy grave se clasificaría como disconforme respecto a los

requisitos, pero uno con varios defectos menores no necesariamente

tendría que ser disconforme. En estos casos es necesario un método

que permita clasificar las disconformidades o defectos de acuerdo con

su gravedad y ponderar los diversos tipos de defectos de un modo

razonable. Una clasificación de las disconformidades es:

• Clase A (defectos muy graves): El artículo es completamente

inadecuado para su utilización o fallará de manera que no se pueda

reparar con facilidad en el lugar de trabajo, o bien ocasionará

lesiones personales o daños materiales.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

60

• Clase B (defectos graves): El artículo quizás sufrirá un fallo del tipo

A, generará seguramente problemas operacionales menos graves o

reducirá su duración o incrementará los costos de mantenimiento.

• Clase C (defectos moderadamente importantes): El artículo

probablemente fallará durante su utilización, causará problemas

menos graves que los defectos anteriores, tendrá tal vez duración

reducida, producirá un aumento en los costos de mantenimiento, o

bien tendrá un defecto importante en el acabado, la presentación o la

calidad del trabajo.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

61

• Clase D (defectos poco importantes): El artículo no fallará durante

su utilización, pero presenta defectos menores en el acabado, la

presentación o la calidad del trabajo.

En el plan Dodge-Torrey los defectos se clasifican dentro de los

grupos A, B, C y D, con un peso ponderado de l00, 50, 10 y 1,

respectivamente, aunque se pueden considerar otros pesos más

adecuados dependiendo del trabajo que se esté realizando.

Sean CA, CB, Cc y CD variables aleatorias que miden el número

de defectos de cada tipo en una unidad de inspección. Así:

con cK el número medio de defectos de tipo K.

Sea D la variable aleatoria que mide el número de deméritos en una

unidad de inspección, definida como:

D = 100CA + 50CB + l0Cc + CD.

Entonces, si la muestra contiene u unidades, la variable

aleatoria U =D/n mide el nº de deméritos por unidad y sus

parámetros son:

donde uK =Ck/n es el número de defectos por unidad de tipo K = A,

B, C, D.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

62

En consecuencia, el gráfico de control para el número de

deméritos por unidad cuando se conocen los valores estándares de

uA,uB,uC y uD tiene los siguientes límites de control:

En caso contrario, se estiman dichos parámetros mediante el

número medio de defectos de cada tipo presentes en las m muestras

tomadas en el periodo base. Así, si se extraen m muestras de igual

tamaño n, el número de deméritos por unidad en la muestra i-ésima

viene dado por:

donde uKi es el número de defectos de tipo K por unidad en la

muestra i, es decir cKi/n, para K = A,B,C,D.

Por tanto, una estimación de la media y de la varianza del

número de deméritos por unidad es:

donde uK es el número medio de defectos por unidad de tipo K, es

decir:

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

63

Finalmente, los límites de control para el número de deméritos por

unidad son:

Si, por el contrario, las muestras poseen un tamaño variable n i 1,...,

m, se toma:

con uk el número medio de defectos por unidad de tipo K en las m

muestras, es decir,

y se establecen límites específicos:

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

64

También se puede emplear el tamaño muestral promedio siguiendo el

mismo criterio del gráfico p, de manera que los límites de control

aproximados son:

Ejemplo. Se desea establecer un gráfico de control de deméritos

mediante el plan Dodge–Torrey para el período base de un modelo de

batidoras. Para ello, se estudian 3 meses consecutivos, cuyos

resultados se muestran en la Tabla 3.7.

Como todos los tamaños muestrales se encuentran en el

intervalo 250 ± 0.25·250 = (187.5,312.5), se puede utilizar el

tamaño promedio n = 250.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

65

Entonces:

Por tanto, los límites de control 3a son:

Se observa que el mes de febrero se sale de los límites de

control, por lo que es conveniente investigar la causa por la que en

ese mes se produce un número de defectos fuera de los límites de

control.

Una vez conocido que la causa es el cambio de maquinaria, se puede

eliminar esa muestra del estudio para obtener los límites de control

para el periodo de vigilancia.

Entonces:

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

66

Como todos los tamaños muestrales se encuentran en el intervalo

270 ± 0.25 · 275 = (206.25,343.75), se puede utilizar el tamaño

promedio n = 275 y entonces:

El proceso ya es estable y estos límites se consideran durante el

período de vigilancia.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

67

Unidad Didáctica 2: Metrología

1.- INTRODUCCIÓN

La presente unidad responde a la necesidad de poner en manos de

quienes no son metrólogos un material, científica y técnicamente

confiable, que sea un primer acercamiento a lo esencial de la

Metrología y que, por lo tanto, les ayude a comprender su

importancia.

A través de la historia se comprueba que el progreso de los

pueblos siempre estuvo relacionado con su progreso en las

mediciones. La Metrología es la ciencia de las mediciones y éstas son

una parte permanente e integrada de nuestro diario vivir que a

menudo perdemos de vista. En la metrología se entrelazan la

tradición y el cambio; los sistemas de medición reflejan las

tradiciones de los pueblos pero al mismo tiempo estamos

permanentemente buscando nuevos patrones y formas de medir

como parte de nuestro progreso y evolución.

Es por medio de diferentes aparatos e instrumentos de medición que

se realizan pruebas y ensayos que permiten determinar la

conformidad con las normas existentes de un producto o servicio; en

cierta medida, esto permite asegurar la calidad de los productos y

servicios que se ofrecen a los consumidores.

Las mediciones correctas tienen una importancia fundamental para

los gobiernos, para las empresas y para la población en general,

ayudando a ordenar y facilitar las transacciones comerciales. A

menudo las cantidades y las características de un producto son

resultado de un contrato entre el cliente (consumidor) y el proveedor

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

68

(fabricante); las mediciones facilitan este proceso y por ende inciden

en la calidad de vida de la población, protegiendo al consumidor,

ayudando a preservar el medio ambiente y contribuyendo a usar

racionalmente los recursos naturales.

Las actividades relacionadas con la Metrología dentro de un país son

responsabilidad de una o varias instituciones autónomas o

gubernamentales y, según sus funciones, se caracteriza como

Metrología Científica, Legal ó Industrial, dependiendo de su

aplicación.

La primera está encargada de la investigación que conduce a la

elaboración de patrones sobre bases científicas y promueve su

reconocimiento y la equivalencia de éstos a nivel internacional. Las

otras dos están relacionadas con la diseminación a nivel nacional de

los patrones en el comercio y en la industria. La que se relaciona con

las transacciones comerciales se denomina Metrología Legal y busca

garantizar, a todo nivel, que el cliente que compra algo reciba la

cantidad efectivamente pactada. La otra rama se denomina

Metrología Industrial y se relaciona con la industria manufacturera;

persigue promover en la industria manufacturera y de servicios la

competitividad a través de la permanente mejora de las mediciones

que inciden en la calidad.

Actualmente, con la dinamización del comercio a nivel mundial, la

Metrología adquiere mayor importancia y se hace más énfasis en la

relación que existe entre ella y la calidad, entre las mediciones y el

control de la calidad, la calibración, la acreditación de laboratorios, la

trazabilidad y la certificación.

La Metrología es el núcleo central básico que permite el ordenamiento

de estas funciones y su operación coherente las ordena con el

objetivo final de mejorar y garantizar la calidad de productos y

servicios.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

69

A nivel de Empresa, la competitividad se mide entre otras cosas

por la capacidad de innovar. La innovación se puede dar en procesos

productivos o administrativos, en productos, en servicios, etc. Es

básica para la búsqueda permanente de la calidad a través de la

mejora continua de las actividades. El proceso de mejora continua es

un procedimiento en el cual se usan parámetros de medición que nos

permiten comparar lo que veníamos realizando con lo nuevo que se

implementó, o sea que la medición forma parte integrante del

proceso de innovación.

Desde el punto de vista de la Población, la Metrología es

fundamental para apoyar el control de los productos que se fabrican y

su impacto sobre el bienestar de la población. La población

permanentemente consume productos nacionales y extranjeros y es

la Metrología la llamada a ayudar a determinar que esos productos de

consumo respondan a normas o especificaciones sobre salud y

seguridad. Su relación con la población tiene un doble efecto: no

solamente ayuda a la creación de nuevos empleos a través de

impulsar el desarrollo de las empresas, sino también ayuda a la

protección de ésta al velar por el contenido, la calidad y la seguridad

de los productos que se consumen y su impacto en el medio

ambiente.

A nivel internacional, con la apertura comercial a nivel mundial, la

Metrología adquiere mayor importancia frente a la creciente

interdependencia entre las naciones. Cada día los países se ven más

involucrados en la firma de convenios, de tratados, bilaterales o

regionales, etc. Estos involucran diferentes sectores (industria,

comercio, salud, defensa, medio ambiente, etc.) y las empresas se

ven confrontadas con esquemas de tipo internacional para su

funcionamiento en cuanto a la manufactura, suministro de

materiales, comercialización, etc. Si a esto le sumamos que los

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

70

consumidores se guían cada vez más por patrones globales de

consumo, es esencial contar con una infraestructura técnica que

funcione como espina dorsal para la coordinación y ordenamiento a

nivel global.

La percepción inicial de metrología deriva de su etimología:

del griego metros medida y logos tratado. Actualmente podemos

decir que metrología es la ciencia de las mediciones y que medir

es comparar con algo (unidad) que se toma como base de

comparación.

Una unidad es un valor en términos del cual puede definirse la

magnitud medida que pueda servirnos para comparar. Quizás

convenga destacar que, en tanto que unidad, no debe

descomponerse en sus elementos. Se han desarrollado múltiplos y

submúltiplos para poder expresar magnitudes mayores o menores

que las expresadas por las unidades en sí. Veremos más adelante que

el Sistema Internacional de Unidades, SI, con sus múltiplos y

submúltiplos, es de tipo decimal (potencias de diez ).

Anteriormente citamos algo con que comparar; ese algo se

conoce como patrón. Originalmente, se entendía por patrón a una

representación o materialización física de la unidad. Era necesario

destacar que un patrón es una representación confiable de la unidad

solamente bajo un conjunto de condiciones claramente definidas para

asegurar que no cambien estas condiciones por motivo de

variaciones, por ejemplo, de temperatura, humedad, presión

atmosférica, etc.

Por sus características, el patrón físico no se empleaba directamente

para hacer mediciones. Era, eso sí, el punto de referencia para

construir y utilizar instrumentos de medición.

En la actualidad, y dado que los avances de la ciencia han permitido

definiciones más exactas y confiables de las unidades, basadas en

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

71

constantes físicas universales, se define como patrón a: una medida

materializada, instrumento de medir, material de referencia o sistema

de medición, destinado a definir, realizar, conservar o reproducir una

unidad o uno o varios valores conocidos de una magnitud, a fin de

transmitirlos por comparación a otros instrumentos de medir.

El procedimiento de cómo medir para obtener resultados

reproducibles también es importante y de hecho existen instrucciones

precisas sobre cómo hacer la acción, qué unidades emplear y qué

patrón utilizar.

En el mundo real la forma de medir obedece a la secuencia siguiente:

- decidimos qué mediremos,

- seleccionamos la unidad acorde a la medida,

- seleccionamos el instrumento de medición ( calibrado),

- aplicamos el procedimiento acordado.

2.- QUÉ SE MIDE Y CÓMO

Las unidades del Sistema Internacional de Unidades, SI, son

establecidas por la Conferencia General de Pesas y Medidas (CGPM)

bajo cuya autoridad funciona la Oficina Internacional de Pesas y

Medidas (BIPM - Bureau International des Poids et Mesures) con

sede en Francia. En los párrafos siguientes, las definiciones

internacionales de las unidades son las publicadas por el BIPM,

actualizadas al mes de enero del 2000.

La CGPM decidió establecer el SI, basado en siete unidades bien

definidas. Estas son las llamadas unidades de base que se listan en la

tabla 1.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

72

Originalmente, las medidas de base o fundamentales se

llamaban así por ser consideradas independientes entre sí y permitir,

a su vez, la definición de otras unidades. Los patrones

correspondientes eran medidas materializadas que se conservaban en

lugares acordados y bajo condiciones determinadas. Los avances

científicos y técnicos así como la disponibilidad de instrumentos de

mayor exactitud han dado por resultado que, con excepción del

kilogramo, las unidades de base se definan actualmente de diferente

forma, con base en experimentos físicos. En rigor, se podría

argumentar que en algunos casos las unidades básicas no son

estrictamente independientes entre sí. Por ejemplo, el metro ya no se

define contra el antiguo metro prototipo - una barra de iridio-platino -

y la definición actual involucra el concepto de segundo, otra unidad

de base.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

73

Sin embargo, se considera que el SI, entendido como el

conjunto de unidades básicas y de unidades derivadas, es un sistema

coherente por las razones siguientes:

- las unidades básicas están definidas en términos de constantes

físicas , con la única excepción del kilogramo, definido en

términos de un prototipo,

- cada magnitud se expresa en términos de una única unidad,

obtenida por multiplicación o división de las unidades de base y

de las unidades derivadas adimensionales,

- los múltiplos y submúltiplos se obtienen por medio de

multiplicación con una potencia exacta de diez,

- las unidades derivadas se pueden expresar estrictamente en

términos de las unidades básicas en sí, es decir, no conllevan

factores numéricos.

Los trabajos de definición y refinamiento de las unidades del SI

persiguen en todo momento que las unidades sean coherentes con

las ya existentes.

De estas unidades de base se deriva un gran número de

unidades; algunas de las que están consideradas como unidades

derivadas en el SI se listan en él. De las unidades derivadas quizás

resulte conveniente destacar dos, que anteriormente se conocían

como unidades “complementarias”, y que son las empleadas para

medir los ángulos planos, en el caso del radián (Rad.) y los ángulos

sólidos, en el caso del estereorradián (sr). También se les conoce

como unidades no-dimensionales o adimensionales. El neper y el bel,

cuyo uso es aceptado pero que no forman parte integral del SI, son

también adimensionales.

En el SI se establece además una serie de reglas y convenciones que

tienen que ver con el uso de unidades mixtas, la forma de

seleccionar e identificar los prefijos, el uso de múltiplos y

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

74

submúltiplos, la ortografía, el uso de mayúsculas y minúsculas, de

singular y plural, el agrupamiento de dígitos, el redondeo de valores,

etc. (16,30,37)

Adicionalmente, existen unidades que, sin ser del SI, están

aceptadas para su uso concomitante y son conocidas como unidades

adicionales (tabla 2).

Algunas de ellas se utilizan en forma temporal en tanto su uso es

substituido por las aceptadas, otras únicamente en campos

especializados, por ejemplo el quilate (ct) en joyería. Otras unidades,

cuyo uso no está aceptado con el SI(40,46), se siguen utilizando en

algunos contextos y en algunos países, por ejemplo la dina y el

stokes.

Si ahora vemos la estructura jerárquica de los patrones,

notamos que podemos describirla como una pirámide en cuyo vértice

tenemos el conjunto de patrones que corresponden a las unidades

de base del SI de las que ya hemos hablado.

La segunda posición corresponde al conjunto de patrones

nacionales.

En el siguiente nivel se localizan los patrones de referencia,

conjunto que sirve para preparar los patrones de trabajo a nivel

operativo.

El conjunto de patrones del nivel operativo (patrones de

trabajo) constituye la base de la pirámide.

La cadena de instituciones encargadas de operar el SI está

encabezada por el BIPM, le siguen los Laboratorios Nacionales de

Metrología, a continuación están los Laboratorios de Calibración y por

último los Laboratorios de Trabajo.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

75

a) Aunque esta unidad debería escribirse con minúscula, el

símbolo

alterno “L” para litro fue aceptado por la CGPM para evitar

posibles confusiones entre la letra “l” y el número “1”; no

se acepta la letra cursiva como símbolo.

b) También se consideran unidades adicionales: el electrovoltio

(eV), la unidad de masa atómica unificada (u) y la unidad

astronómica (ua).

3.- CARACTERIZACIÓN DE LA METROLOGÍA

Por conveniencia, se hace a menudo una distinción entre los

diversos campos de aplicación de la metrología; suelen distinguirse

como Metrología Científica, Metrología Legal y Metrología Industrial.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

76

Metrología científica

Es el conjunto de acciones que persiguen el desarrollo de patrones

primarios de medición para las unidades de base y derivadas del

Sistema Internacional de Unidades, SI.

Metrología industrial

La función de la metrología industrial reside en la calibración,

control y mantenimiento adecuados de todos los equipos de medición

empleados en producción, inspección y pruebas. Esto con la Qué se

mide y cómo finalidad de que pueda garantizarse que los productos

están de conformidad con normas. El equipo se controla con

frecuencias establecidas y de forma que se conozca la variabilidad de

las mediciones.

La calibración debe hacerse contra equipos certificados, con relación

válida conocida a patrones, por ejemplo los patrones nacionales de

referencia.

Metrología legal

Según la Organización Internacional de Metrología Legal (OIML) es la

totalidad de los procedimientos legislativos, administrativos y técnicos

establecidos por, o por referencia a, autoridades públicas y puestas

en vigor por su cuenta con la finalidad de especificar y asegurar, de

forma reguladora o contractual, la calidad y credibilidad apropiadas

de las mediciones relacionadas con los controles oficiales, el

comercio, la salud, la seguridad y el ambiente.

4.- APLICACIONES

Una pregunta que puede plantearse es ¿para qué se mide? Sin

entrar en detalle y sin pretender ser exhaustivos, veamos algunas

respuestas restringidas a los aspectos básicos. Como es de esperar,

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

77

en las distintas aplicaciones se realizan distintas acciones que

demandan niveles de confiabilidad que en metrología se identifican

como “variabilidad”, que no es sino el intervalo de confianza de los

resultados de las mediciones.

Longitud

A la medición de la longitud, determinación de distancia, se le

utiliza en mediciones dimensionales tales como: áreas, volúmenes,

capacidades, rapidez y velocidad, redondez. La longitud está incluso

presente en la definición de las unidades llamadas no dimensionales

(radián y estereorradián) para medir ángulos. En general podríamos

decir que es de uso en toda determinación de la forma de un objeto.

Masa

La actividad de conocer cuantitativamente la masa está presente

en todas las actividades humanas. Es por ello que el uso de patrones

e instrumentos para determinar la masa es amplio.

Normalmente todo lo que se produce, vende o intercambia se

relaciona directa o indirectamente con la masa, por lo tanto puede

considerarse que la aplicación de la metrología en su aspecto masa,

en sus distintos niveles, es omnipresente en el quehacer cotidiano.

Temperatura

La sensación de calor o frío es una de las más comunes en los

seres vivientes y el concepto de temperatura y su medición está

presente en innumerables actividades del ser humano.

Puesto que nuestro primer contacto con la medición de temperatura

de tipo científico suele ser el termómetro casero, vienen de inmediato

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

78

a la mente las aplicaciones de tipo médico y en particular la

determinación de la temperatura corporal de los enfermos con la

importancia que puede tener para la evolución de ciertas dolencias.

Pero también se requiere medir temperatura en forma adecuada para

la fabricación de medicamentos, el uso de técnicas de diagnóstico, los

análisis clínicos, la esterilización de material clínico y hospitalario. Los

alimentos, tanto en su preparación como en las técnicas de su

conservación, requieren mediciones de temperatura y, si éstas

pueden ser empíricas a nivel casero, a nivel industrial se requiere

exactitud en las mediciones. La tintorería, la fabricación de cerámica

de todo tipo, la aplicación de esmaltes y pinturas en aparatos

electrodomésticos y en vehículos, la generación de energía, el

transporte refrigerado, el aire acondicionado y tantas más actividades

humanas, requieren mediciones adecuadas de temperatura.

Tiempo

Además de las aplicaciones obvias del diario vivir, muchos

procesos industriales, muchas técnicas médicas dependen de una

medición exacta del tiempo. Aplicaciones usuales son por ejemplo los

taxímetros (basados sólo en tiempo o combinación de tiempo y

recorrido), los relojes registradores (timekeepers), los velocímetros.

La sincronización de actividades tales como las operaciones bursátiles

y las militares, los lanzamientos y acoplamientos de naves espaciales,

etc. demanda la medida exacta del tiempo.

Electricidad y magnetismo

Enumerar las aplicaciones actuales de la electricidad

adecuadamente suministrada y utilizada significaría listar todas las

actividades del hombre, para las cuales es controlada (medida) y

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

79

para ello es necesario disponer de aparatos o sistemas confiables y

de exactitud conocida.

Fotometría y radiometría

El hombre ha desarrollado muchos aparatos y artefactos que le

permiten contar con luz independientemente de las condiciones

naturales y que, aún más, permiten intensidades que difícilmente se

encuentran en la naturaleza. Todos estos aparatos demandan

técnicas confiables de medición para garantizar que efectivamente se

está logrando la intensidad o iluminación deseadas.

Acústica y vibración

Las mediciones exactas en acústica son de importancia para

aspectos tales como el diseño de auditorios y teatros, las

telecomunicaciones, la radio, la fabricación de instrumentos

musicales, la producción de aparatos de reproducción y transmisión

de sonido (incluyendo fonógrafos, micrófonos y amplificadores), la

eliminación de sonidos molestos o peligrosos (en oficinas, áreas de

producción, transporte terrestre y aéreo), el diseño de artefactos de

advertencia como las sirenas de ambulancias y bomberos y ciertos

indicadores a nivel industrial, el sonar, las exploraciones petroleras,

la fabricación y calibración de aparatos para sordera, las microondas,

la sismografía, los ecocardiogramas, el ultrasonido en química, en

medicina con fines de diagnóstico y de tratamiento, en aplicaciones

industriales tales como soldadura.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

80

Radiación ionizante

Las aplicaciones médicas de la radiación ionizante son

probablemente las más conocidas bajo la forma de los rayos X para

diagnóstico y del uso de los isótopos radioactivos en radioterapia y

como trazadores en investigación médica y bioquímica.

Entre las aplicaciones industriales se pueden mencionar la activación

de vitaminas, la síntesis (por ejemplo la de bromuro de etilo), la

polimerización (poliestireno o polietileno), la vulcanización del hule, la

polimerización de monómero de metil-metacrilato, los acabados

textiles para lograr tejidos y prendas de planchado permanente, el

procesamiento de alimentos (cocción, secado, pasteurización, etc.), la

preservación y esterilización de alimentos, el control de la

germinación y de las infestaciones por insectos en granos

almacenados, el “curado” o endurecimiento de acabados tales como

pinturas y tintas, la metalurgia, la geoquímica, la arqueología (C14),

las mediciones de grosor, la generación de energía eléctrica.

Química

En las actividades científicas y en las técnicas es importante

conocer las bases para calcular qué y cuánto de una o varias

substancias debe utilizarse. El caso obvio es el del laboratorio, clínico

o industrial, pero también son importantes los procesos industriales

de todo tipo, unos porque manejan volúmenes muy grandes y

pequeñas variaciones pueden significar toneladas perdidas y otros

porque utilizan cantidades muy pequeñas y variaciones ínfimas

pueden ser cruciales. Es decir que el uso de patrones y materiales de

referencia constituye la base del trabajo (el éxito de producción), y la

garantía de la calidad.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

81

5.- PATRONES Y MATERIALES DE REFERENCIA

INTRODUCCIÓN

Los patrones y materiales de referencia serán los elementos

tratados en más detalle en las secciones siguientes, de acuerdo con el

siguiente modelo:

Consideraciones sobre qué se mide, definición de la unidad,

patrones primarios, exactitud e variabilidad, equipos de medición.

En relación con la variabilidad, es de notar que entre los

metrólogos existen dos escuelas. Una enfoca la variabilidad como un

elemento para denotar la uniformidad del resultado en mediciones

repetidas. La otra usa el término para indicar que se miden

diferencias entre los resultados. En ambos casos recordemos que la

variabilidad no es sino el intervalo de confianza. Los dos enfoques son

válidos según el campo de aplicación, ya sea en laboratorios de

trabajo o en laboratorios nacionales.

Para los laboratorios nacionales y secundarios, se recomienda

trabajar de acuerdo a la guía ISO de 1993, “Guide to the expression

of uncertainty inmeasurement”.

En el continente europeo, con la creación y los trabajos del

Sistema Intereuropeo de Metrología, SEM, se está buscando

lograr la mayor integración y coherencia posible en aspectos de

metrología. Las autoridades del SEM llevaron a cabo, en 1999, un

ejercicio de planeación estratégica. Uno de los aspectos analizados

consistió en determinar las áreas para las acciones a nivel regional y

a nivel de laboratorios nacionales de metrología. Estas áreas

resultaron ser: longitud, masa, temperatura, tiempo y frecuencia,

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

82

electricidad y magnetismo, fotometría y radiometría, acústica y

vibración, radiación ionizante, química.

LONGITUD

Qué se mide

Intuitivamente todos conocemos lo que es longitud o largo. En la

práctica, lo que realmente medimos es la distancia o separación entre

dos puntos y considerando que la definición de patrones actualmente

se orienta al empleo de constantes universales, es importante estar

conscientes de que la longitud implica distancia.

Definición internacional de la unidad de medida de longitud

Definición

La unidad de longitud es el metro (símbolo m) que se define

como la longitud de la trayectoria recorrida por la luz en el vacío

durante un intervalo de tiempo de 1/299 792 458 de segundo.

Patrones

Para hacer prácticas las mediciones de longitud, se requiere una

transferencia de un patrón expresado en términos de la velocidad de

la luz hacia un patrón o artefacto físico.

Para medir longitudes del orden del metro se emplean métodos

interferométricos. El método consiste en comparar la longitud a ser

medida con la longitud de onda l de una radiación luminosa cuya

frecuencia f ha sido previamente determinada con gran exactitud. La

referencia utilizada es la longitud de onda de la radiación producida

por un láser, estabilizado ya sea en frecuencia o en longitud de onda.

En la actualidad, existen modelos portátiles de láser

estabilizados, los cuales le han permitido al BIPM hacer

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

83

comparaciones y calibraciones in situ en una región sin requerir que

varios laboratorios nacionales de metrología se vean obligados a

llevar sus aparatos a Paris para su calibración. Con estas

calibraciones a base de láser, los países pueden contar con sus

patrones nacionales.

De estos patrones nacionales se derivarán de acuerdo a la cadena

que ya vimos, los patrones de calibración y los patrones de ensayo y

de trabajo tales como cintas métricas, reglas y otros. Asimismo, de

éstos se originan todos los artefactos empleados en la vida diaria

para medir la longitud.

Los bloques patrón calibrados por interferometría pueden

constituir la materialización del patrón y de ellos, por comparación

mecánica, se derivan patrones secundarios.

Variabilidades

Como mencionamos anteriormente, en los patrones, utilizando

los láseres estabilizados se pueden obtener variabilidades relativas de

medición de longitud del orden de 10-9 y 10-12.

Equipos de medición

Longitud, anchura, altura, espesor, diámetro, son todas

medidas lineales y se han desarrollado numerosos instrumentos para

poder medirlas en forma simple y con la exactitud requerida en cada

caso.

Así tenemos, entre otros: reglas (de madera, metal o plástico,

rígidas o plegables), cintas métricas (de metal, plástico o tela),

calibradores (de alta precisión, para tuercas y tornillos, para

engranajes), micrómetros, nonios o verniers, bloques patrón,

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

84

medidores de ángulos, divisores (también conocidos como compases

de puntas o bigoteras), medidores de diámetro interior o exterior,

medidores de redondez o de planos, rugosímetros, etc.

MASA

Qué se mide

La 21ª Conferencia General de Pesas y Medidas, en octubre de

1999(13), acordó “recomendar que los laboratorios nacionales

continúen sus esfuerzos para refinar experimentos que vinculen la

unidad de masa a constantes fundamentales o atómicas con miras a

una futura redefinición del kilogramo.”

Definición

El kilogramo (símbolo kg) es la unidad de masa; es igual a la

masa del prototipo internacional del kilogramo.

Patrones

El prototipo internacional es un cilindro de treinta y nueve

milímetros de altura y treinta y nueve milímetros de diámetro, hecho

de una aleación con noventa por ciento de platino y diez por ciento de

iridio. Tiene una densidad aproximada de veintiún gramos y medio

por centímetro cúbico. Se considera como el único patrón primario de

masa.

Exactitud

El patrón actual del kilogramo permite medir la masa con una

exactitud de 1 en 108. La finalidad de disponer de patrones es medir

con exactitud la masa de los cuerpos; por ello es necesario disponer

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

85

de múltiplos y submúltiplos del kilogramo con los cuales se puedan

determinar exactamente las masas deseadas.

Equipos de medición

La balanza es el instrumento más antiguamente conocido que

se utiliza para medir la masa.

Mientras no se cambie la definición del kilogramo sólo podemos

comparar masa y no podremos medirla en forma directa. La técnica

contemporánea permite la construcción de innumerables tipos y

capacidades del artefacto, adecuados para los usos específicos que se

desee, ya sea en laboratorios, industrias, comercios, agencias

estatales, etc. Los requerimientos básicos de las balanzas son que

sean estables, exactas, sensibles y que puedan ser calibradas.

TEMPERATURA

Qué se mide

En el caso de las mediciones de la característica llamada

temperatura, lo que buscamos es un indicador del calor de un cuerpo

dado. Pero calor no es lo mismo que temperatura. Podríamos definir

calor como una forma de energía asociada con y proporcional al

movimiento molecular. Lo que conocemos por temperatura es

realmente el valor de la lectura de un aparato medidor como por

ejemplo un termómetro; por ello decimos que la manifestación del

calor es la temperatura.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

86

Definición

La unidad base de temperatura termodinámica es el kelvin

(símbolo K) que se define como la fracción 1/273,16 de la

temperatura termodinámica del punto triple del agua.

El llamado punto triple del agua es el punto donde es posible el

equilibrio o coexistencia de la sustancia - agua en este caso - en sus

estados sólido, líquido y gaseoso.

La escala práctica o de Celsius, antes conocida como de grados

centígrados, es la más utilizada. Su punto cero es la temperatura de

congelación del agua y al punto de ebullición del agua se le define

como 100 ºC, ambos medidos bajo determinadas condiciones. Por

debajo del cero de esta escala, las temperaturas tienen valor

negativo; por ello decimos comúnmente que en un invierno crudo, las

temperaturas pueden bajar a menos cuarenta grados (grados

Celsius).

Por su parte, la escala de temperatura termodinámica, que por

definición se expresa en kelvin, tiene su punto cero en el llamado

cero absoluto y equivale a -273,16 ºC. Esta escala no tiene por lo

tanto valores negativos y los intervalos son los mismos que los de la

escala Celsius.

Patrones

La materialización de la escala internacional de temperatura EIT-90,

constituye el patrón para la unidad de temperatura. Su propósito es

especificar procedimientos y termómetros prácticos

internacionalmente acordados, que permitan a los laboratorios

nacionales materializar la escala y determinar valores altamente

reproducibles.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

87

Los puntos fijos de definición de la escala EIT-90 son varios y a título

indicativo se dan algunos de ellos en la tabla 3.

Variabilidades

Las celdas selladas permiten calibrar instrumentos de medición

de temperatura con una variabilidad relativa del orden de 10-6.

Equipos de medición

El primer termómetro de que se tiene referencia fue el

construido por el científico italiano Galileo Galilei alrededor del año

1593. Hoy en día, se cuenta con diversos tipos de sensores para

medir temperaturas, todos los cuales infieren la temperatura por

medio de algún cambio en una característica física.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

88

Los de empleo más común son: artefactos de cambio de estado,

artefactos de expansión de fluido, termocuplas o termopares,

artefactos de resistencia y termistores, sensores ópticos e infrarrojos,

artefactos bimetálicos.

TIEMPO Y FRECUENCIA

Qué se mide

El tiempo es un concepto que ha interesado a los físicos y a los

filósofos desde la antigüedad. Aristóteles y Newton, entre muchos

otros, buscaron definir el tiempo y más recientemente Hawking

habla, en sentido matemático, tanto de tiempo real como de tiempo

imaginario.

Para fines prácticos, el tiempo es un concepto relacionado con

el orden y la duración de los eventos; si dos eventos ocurren en

forma no simultánea en un punto dado, ocurren en un orden definido

y con un lapso entre ellos. Para el hombre primitivo, el primer

indicador del transcurrir del tiempo debe haber sido el ciclo diario de

día y noche con los movimientos visibles de los astros. Podemos

razonablemente suponer que, por observaciones, se concibieron

posteriormente las duraciones mayores indicadas por las fases

lunares y por las estaciones.

Definición internacional de las unidades de medida de

tiempo [13ª Conferencia General de Pesas y

Medidas, 1967], y de frecuencia

Anteriormente, la definición se refería al segundo que

podríamos llamar astronómico, en cambio en la actualidad se trata

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

89

del segundo atómico. El segundo (símbolo s) es la duración de 9 192

631 770 períodos de la radiación correspondiente a la transición entre

los dos niveles hiperfinos del estado base del átomo de cesio 133

donde 9192631770 es la frecuencia de la energía involucrada en

dicha transición del cesio; el estado base se considera ser aquél en el

cual los electrones se encuentran en su menor nivel de energía; los

niveles hiperfinos representan el incremento energético más pequeño

que pueden experimentar en este estado.

De esta unidad, se deriva la unidad de frecuencia, el hertz. El hertz

(símbolo Hz) es la frecuencia de un fenómeno periódico, con período

de un segundo.

La hora (símbolo h) y el minuto (símbolo min), no son múltiplos

decimales del segundo y por lo tanto no son unidades del SI. Sin

embargo, su uso es tan generalizado que se consideran como

unidades aceptadas para uso con el SI (ver tabla 3). En ciertos casos,

también es necesario expresar intervalos de tiempo mayores tales

como semana, mes, y año.

Patrones

La realización de la definición de segundo se hace por medio de

un reloj atómico de cesio. Se basa en que los átomos, bajo diversas

excitaciones, emiten radiaciones monocromáticas y por lo tanto

pueden generar un período (duración de una oscilación) definido con

mucha exactitud.

Se consideran patrones secundarios aquellos que emplean otras

fuentes de frecuencia, tales como maser de hidrógeno, patrones de

rubidio, patrones comerciales de cesio, etc., que son suficientemente

exactos para la mayor parte de aplicaciones.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

90

Escalas de Tiempo

La escala TAI, Tiempo Atómico Internacional, es calculada en el

BIPM. En 1999 se basó en alrededor de doscientos relojes atómicos

en cerca de cincuenta laboratorios nacionales de metrología. Para

mantener la escala lo más cercano posible al segundo como lo define

el SI, se usan datos de aquellos laboratorios nacionales que

mantienen los mejores patrones primarios de cesio.

La difusión de la escala se hace por diversos medios y puede

requerir receptores especiales.

Puede hacerse:

- por acceso telefónico al servicio horario; con una exactitud de

hasta 50 MS, por difusión de señales horarias codificadas (por

ejemplo en onda corta, 3 MHz a 30 MHz, con exactitud de 10

ms, en 1350 KHz frecuencia modulada, etc.), con exactitudes

de milisegundos,

- con exactitud de 10 ns por recepción de señales de televisión

usando GPS (Global Positioning System/ Sistema de

Posicionamiento Global basado en satélites artificiales) como

intermediario.

Variabilidades

En la actualidad, los patrones de tiempo se trabajan con

variabilidades relativas del orden de 10-14 y hasta, en algunos casos,

de 10-15. Por su parte, se calcula que, en un millón de años de

funcionamiento, la escala de tiempo atómico, TAI, difiere de la escala

ideal en menos de un segundo.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

91

Equipos de medición

Las mediciones usuales de tiempo se llevan a cabo por medio

de diversos tipos de relojes y cronómetros, de mayor o menor

exactitud según las necesidades, calibrados en base a la escala UTC o

TAI según el caso. También se emplean contadores de intervalos de

tiempo y osciladores de cuarzo.

Por su parte, las mediciones de frecuencia requieren de las más altas

exactitudes posibles para aplicaciones tales como las transmisiones

de comunicaciones digitales y los sistemas de posicionamiento global

(GPS).

ELECTRICIDAD Y MAGNETISMO

Qué se mide

En algunos materiales conocidos como conductores, existen

cargas eléctricas libres que se pueden mover, tal el caso de los

electrones en los metales y los iones en las soluciones salinas. En

estos materiales, en presencia de un campo eléctrico, se produce un

flujo estable de carga en la dirección del campo; tal flujo constituye la

corriente eléctrica.

En electricidad, se dan tres elementos básicos, relacionados

entre sí por la ley de Ohm: E = IR donde E es la tensión eléctrica,

comúnmente llamada el voltaje, I es la corriente eléctrica y R es la

resistencia. En base a esta ley se pudo haber definido la unidad de

electricidad en términos de cualquiera de estos tres elementos. Se

decidió definirla en términos de corriente eléctrica, quedando las

unidades de tensión eléctrica y de resistencia como unidades

derivadas.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

92

La carga eléctrica es una propiedad de la materia que produce

efectos eléctricos y magnéticos. En un sistema aislado es constante y

aparece en paquetes. La carga aislada más pequeña es la que posee

el electrón. La forma simple de poner de manifiesto la carga eléctrica

es frotando con una tela de seda dos esferas, por ejemplo de ámbar,

suspendidas con un material no conductor: las esferas se repelen

manifestando la misma carga. Si las esferas que se frotan son de

materiales diferentes, por ejemplo una de ámbar y la otra de vidrio,

se atraen manifestando que poseen cargas diferentes.

Un símil que permite visualizar el comportamiento de la electricidad y

la interrelación de sus características, es el siguiente:

En una tubería que conduce agua caracterizamos el fenómeno por la

cantidad de agua que fluye, la presión con que lo hace y las

características de la tubería. En electricidad la presión equivale a la

tensión eléctrica expresada en volts (V); la cantidad de agua a la

corriente eléctrica en amperes (A) y la fricción característica de la

tubería a la resistencia eléctrica en ohms (W).

Definición internacional de las unidades de medida de

electricidad y magnetismo [9ª Conferencia

General de Pesas y Medidas, 1948]

El ampere o amperio (símbolo A) es la intensidad de una

corriente eléctrica constante que, mantenida en dos conductores -

rectilíneos, paralelos, de longitud infinita, de sección circular

despreciable, colocados a un metro de distancia entre sí en el vacío -,

produciría entre estos conductores una fuerza igual a 2 x 10-7

newtons por metro de longitud.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

93

Las unidades derivadas principales son el volt y el ohm. El volt

o voltio (símbolo V) es la tensión eléctrica existente entre las

terminales de un elemento pasivo de un circuito, que disipa una

potencia de un watt cuando es recorrido por una corriente invariable

de un ampere.

El ohm u ohmio (símbolo W) es la resistencia eléctrica de un

elemento pasivo de un circuito recorrido por una corriente invariable

de un ampere, sometido a una tensión eléctrica constante de un volt

entre sus terminales.

Patrón

Los principios y los artefactos utilizados en un patrón dependen

del desarrollo científico y las facilidades técnicas disponibles; para el

ampere antes se utilizaban las balanzas de corriente, pero su

variabilidad es considerable. Actualmente se obtienen mejores

resultados con el volt y el ohm cuantizados y utilizando la Ley de

Ohm.

Variabilidad

La variabilidad de medición de la tensión eléctrica (volt) en un

arreglo de uniones de Josephson es de unas pocas partes en 1010 y

para el patrón de la resistencia con el efecto de Hall cuantizado es de

unas pocas partes en 109 .La gran confiabilidad en el transporte de

los sistemas de Josephson y Hall cuantizado permite que los

laboratorios nacionales tengan sistemas (patrón) comparables

internacionalmente.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

94

Equipos de medición

La técnica actual permite la producción de aparatos analógicos

y digitales destinados a medir la corriente eléctrica. Como en todo

trabajo científico el uso de ordenadores facilita, acelera y da mayor

certidumbre a sus resultados. El trabajo de medición emplea

extensamente el procesamiento digital y muchos conocimientos

relacionados con la mecánica cuántica, es decir que es trabajo de alta

tecnología aunque sus resultados son de uso popular, en aparatos

tales como amperímetros, voltímetros y medidores de resistencia.

Tenemos que distinguir entre los sistemas de medición de alta

resolución/baja variabilidad - patrones y sistemas de referencia – y

los de aplicación práctica.

LUZ (FOTOMETRÍA Y RADIOMETRÍA)

Qué se mide.

Las diversas formas de energía radiante incluyen los rayos

cósmicos, los rayos gamma, los rayos X, los rayos ultravioleta, los

rayos de la luz visible al hombre, los rayos infrarrojos, las microondas

y los rayos eléctricos y de radio (hertzianos).

En el caso de la fotometría estamos primordialmente

interesados en el fenómeno conocido como la luz, una de las

manifestaciones de energía radiante, y que es energía en forma de

ondas electromagnéticas, emitida en forma de fotones, y con

determinada frecuencia y longitud de onda.

Desde el punto de vista de la porción del espectro visible para

el hombre, la luz ha sido primariamente para él la luz solar y sus

substitutos a lo largo de los siglos: el fuego, la vela, la lámpara de

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

95

aceite, la de queroseno, la de gas, la de arco, de filamento de

carbono, de filamento de tungsteno, de neón, fluorescente, de vapor

de mercurio, etc.

Definición internacional de las unidades de medida de

fotometría y radiometría [16ª Conferencia

General de Pesas y Medidas, 1979].

La candela (símbolo cd) es la intensidad luminosa, en una

dirección dada, de una fuente que emite una radiación

monocromática de frecuencia 540 x 1012 hertz y cuya intensidad

radiante en esa dirección es de 1/683 watt por estereorradián. De

esta unidad se derivan las siguientes unidades de trabajo:

El lumen (símbolo lm) es el flujo luminoso emitido por una

fuente puntual e invariable de una candela, de igual valor en todas

las direcciones, al interior de un ángulo sólido de un estereorradián.

El lux (símbolo lx) es la iluminación de una superficie plana de

un metro cuadrado de área, sobre la cual incide perpendicularmente

un flujo luminoso de un lumen, distribuido uniformemente.

La candela por metro cuadrado (símbolo cd·m-2) es la

luminancia de una fuente de un metro cuadrado de área y una

intensidad luminosa de una candela.

En fotometría se habla de: flujo luminoso (lm), de eficiencia luminosa

(lm.W-1), de intensidad luminosa (cd), de luminancia (cd·m-2), de

iluminación (lx). e flujo térmico (W·m-2).

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

96

Patrones

Actualmente el énfasis en el mantenimiento de los patrones

fotométricos y radiométricos se pone no ya en métodos fotométricos

sino en radiometría a base de detectores. El patrón primario en el

BIPM se basa en un radiómetro comercial eléctrico de substitución

criogénica, que se considera ser uno de los más exactos disponibles.

En adición al radiómetro criogénico, se tienen conjuntos de fotodiodos

de silicio que se emplean como patrones de trabajo y de transferencia

cuando no se requiere el más alto grado de exactitud. La

transferencia a patrones, nacionales y otros, se hace también por

medio de lámparas, calibradas por comparación.

Variabilidades

El patrón de la candela se realiza con una variabilidad relativa de

3·10-3 .

Equipos de medición

En el campo de fotometría y radiación se utilizan radiómetros,

fotómetros de absorción, de ennegrecimiento, de polarización,

eléctricos, fotoeléctricos; integradores, espectrofotómetros,

espectroradiómetros, colorímetros, y medidores de radiación.

También radiómetros criogénicos (detector-based radiometers) para

patrones.

ACÚSTICA Y VIBRACIÓN

Qué se mide

El sonido puede definirse como una alteración mecánica, tal como

un cambio de densidad, de desplazamiento o de velocidad de

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

97

partículas, propagado en un medio elástico (p.e. aire o agua). Por

medio elástico entendemos aquel que tiene la capacidad de recuperar

su tamaño y forma originales cuando cesa la alteración que provocó

una tensión, torsión, corte o compresión. En base a esta definición,

podemos a la vez definir un campo de sonido como un medio elástico

donde se produce y propaga una alteración mecánica, tal como un

cambio de densidad, de desplazamiento o de velocidad de partículas.

En acústica se estudian y se miden las propiedades básicas del

sonido:

- intensidad, determinada por la amplitud de onda

- tono, determinado por la frecuencia o número de las

vibraciones

- timbre, determinado por las vibraciones adicionales (sonidos

armónicos) que acompañan a la vibración fundamental

El humano normal no puede escuchar sonidos de frecuencia menor a

16 Hz (sonidos infrasónicos), ni mayor de 20 kHz (sonidos

ultrasónicos o supersónicos).

Recientemente, en 1999, la CIPM creó el Comité Consultivo

sobre Acústica, Ultrasonido y Vibración.

La Organización Internacional de Normalización, ISO, tiene

establecidas varias normas en el campo estrictamente de acústica

que incluyen aspectos tales como: frecuencia estándar para afinado,

métodos para calcular nivel de intensidad, magnitudes de referencia

para niveles acústicos, etc.; y una cantidad aún mayor de normas en

campos relacionados. Por su parte, la Comisión Internacional

Electrotécnica, IEC, se ha venido ocupando de normalizar aspectos

relacionados con micrófonos y su calibración, medidores de nivel de

sonido, determinación de niveles de potencia de sonido, simuladores

del oído humano, etc.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

98

Para fines de metrología, las mediciones más comunes en

acústica son: la magnitud de un campo de sonido y la potencia de

una fuente de sonido.

En la práctica, para medir la magnitud de un campo de sonido, la

presión de sonido es la magnitud más fácil de transformar de una

forma de energía (alteración de partículas en el medio elástico) a otra

equivalente (p.e. pascal [Pa], equivalente a newtons por metro

cuadrado, N/m2) y es la que usualmente se mide. A su vez, una

fuente de sonido se caracteriza por su potencia.

Tanto la presión de sonido como la potencia de una fuente de sonido

se miden en decibeles relativos respectivamente a 20 mPa y 1 pW.

Definición de unidades de medida de acústica y vibración

Estamos familiarizados con los watts en relación con la

iluminación, sabemos que una bombilla de 100 W nos permite leer

con comodidad mientras que una de 25 W nos da una iluminación

muy tenue.

En el caso de la luz, esta relación se percibe en forma aritmética. En

comparación, la sensibilidad a los sonidos es diferente. Los sonidos

ordinarios de una conversación están alrededor de 1 mW, que

podemos expresar como 1000 microwatts (mW) y los sonidos leves

caen a fracciones de 1 mW.

El oído detecta las diferencias de intensidad en forma logarítmica. Así,

por ejemplo, si 2000 mW “suenan” cierta cantidad mayor que 1000

mW, se requieren 4000 mW y no 3000 para percibir la misma

magnitud de incremento y, a su vez, 8000 mW para percibir ese

mismo incremento a partir de 4000 mW.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

99

Las razones 2000/1000, 4000/2000, 8000/4000, son las mismas

aunque no lo sean las diferencias de los valores; el logaritmo de las

diferencias es el mismo.

Cuando un sonido tiene 10 veces la potencia de un segundo sonido,

la razón es de 10, cuyo logaritmo es 1. En este caso se dice que la

diferencia en intensidad de sonido es un bel (llamado así en honor a

Alexander Graham Bell). Similarmente, si un sonido es 100 veces

más fuerte que otro, es 2 bels más fuerte; si es 1000 veces más

fuerte, es 3 bels más fuerte. Este tipo de unidad refleja la forma

logarítmica en que trabaja el oído. El bel resulta un valor muy grande

para las necesidades usuales de medición y por ello se emplea el

decibel. Así, un sonido será un decibel más fuerte que otro cuando

sea 1,26 veces más fuerte ya que 0,1 es prácticamente el logaritmo

en base 10 de 1,26. Esta unidad derivada adimensional “uno” se ha

venido empleando para expresar valores de magnitudes logarítmicas

tales como decremento logarítmico, nivel de campo o nivel de

potencia en áreas tales como acústica y electrotecnia. Se usa el

nombre bel (símbolo B) y su comúnmente empleado submúltiplo el

decibel (símbolo dB) cuando se emplean logaritmos de base diez;

asímismo se habla del neper (símbolo Np) cuando e emplean

logaritmos naturales o neperianos. La aceptación de estas unidades

sigue bajo estudio por la CGPM.

Patrones

La magnitud básica para todas las mediciones en acústica es la

presión de sonido. No existe una forma práctica para tener una

fuente de referencia que genere una presión de sonido de un Pascal y

se sigue trabajando con el fin de encontrar un método para generar o

medir un campo de sonido de forma que pueda emplearse como un

patrón de referencia. Por ello, hasta ahora, la exactitud de las

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

100

mediciones depende del uso de micrófonos calibrados con exactitud.

Para fines de medición, la señal acústica se convierte a una señal

eléctrica empleando un micrófono condensador o electrostático. En

este tipo de micrófono, el diafragma actúa como una de las placas del

capacitor y la vibración produce cambios en la capacitancia que a su

vez producen cambios de voltaje.

La Comisión Electrotécnica Internacional, IEC, tiene establecidas

especificaciones para micrófonos de referencia, a nivel de laboratorio

y a nivel de trabajo de campo.

Variabilidades

La diferencia mínima de presión de sonido que puede percibir el

humano es de 1 dB (un decibel). Sin embargo, para muchas

aplicaciones sobre todo relacionadas con la determinación de ruidos y

en particular en el caso de naves aéreas, los requerimientos de

certificación demandan mediciones del orden de 0,1 dB y por ello las

referencias primarias de medición deben trabajar con una variabilidad

de alrededor de 0,05 dB.

Equipos de medición

En adición a los micrófonos, se emplean otros medidores. Para

determinar la presión en sonidos continuos se usa el medidor de

promedio exponencial y los valores se expresan en decibeles como un

nivel de presión de sonido. Para sonidos puntuales se usa el medidor

de promedio integrado y el valor obtenido se expresa en decibeles

como un nivel continuo equivalente de presión de sonido.

La intensidad del sonido es una medida de la magnitud y dirección del

flujo de la energía sonora. Usualmente se mide por medio de dos

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

101

micrófonos y el nivel de intensidad sonora se expresa en decibeles

relativos a 10-12 Wm-2. La medición de la intensidad sonora permite

determinar la potencia de una fuente sin necesidad de ambientes

especializados pero el método aún no es de empleo común.

RADIACIÓN IONIZANTE

Qué se mide

Se entiende por radiaciones ionizantes aquellas radiaciones

electromagnéticas de longitud de onda extremadamente corta,

altamente penetrantes, y que tienen energía cuando menos del valor

de la de los rayos X, de forma que la radiación es suficientemente

fuerte para producir iones, quitando o agregando electrones de la

materia.

Entre ellas se pueden mencionar: las radiaciones que producen

partículas cargadas tales como las radiaciones a, las radiaciones b, y

las radiaciones protónicas; las radiaciones que producen partículas no

cargadas como las radiaciones g y los rayos X (ambos liberan

fotones) y las radiaciones neutrónicas.

Estas radiaciones pueden tener origen natural o ser producidas

artificialmente en aceleradores de partículas tales como ciclotrones,

betatrones, sincrotrones o aceleradores lineales.

Definición de las unidades de medida de radiación

ionizante

El núcleo de un radionuclídeo tiene la probabilidad de

transformarse en forma espontánea. La actividad se caracteriza por el

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

102

número promedio de transformaciones por segundo y se mide con

base en la unidad llamada becquerel.

Otra medición de importancia es la dosis absorbida, es decir la

cantidad de energía transferida a la materia por unidad de masa, y

que puede considerarse la magnitud fundamental en dosimetría. El SI

no tiene unidades básicas para la radiación ionizante pero reconoce al

becquerel y al gray como unidades derivadas. El becquerel (símbolo

Bq) es la actividad de un material radioactivo en el cual se produce

una desintegración nuclear por segundo. El gray (símbolo Gy) es la

dosis de radiación ionizante absorbida uniformemente por una

porción de materia, a razón de 1 joule por kilogramo de su masa.

Patrones

En virtud de la variedad de partículas emitidas y de las

alteraciones que sufren las fuentes radioactivas, no se ha considerado

el establecimiento de un patrón primario único para el becquerel.

Las referencias primarias están conformadas por una

combinación de instrumentos y métodos de medición, específicos

para cada tipo de nuclídeo radioactivo.

Tampoco se considera un patrón único del gray para

dosimetría. En este caso, se emplean métodos basados en

colorimetría, ionometría (con instrumentos de gran sensibilidad y

utilizables para todas las radiaciones), dosimetría de Fricke,

termoluminiscencia (adecuada para radioprotección y radioterapia),

resonancia paramagnética electrónica (para irradiación industrial).

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

103

Variabilidades

Las variabilidades de las mediciones, tanto del becquerel como del

gray, son del orden de 10-2 a 10-3.

Equipos de medición

Al igual que para el establecimiento de patrones, los equipos de

medición son detectores, contadores, dosímetros, calibradores de

rayos α y γ, cámaras de ionización, calorímetros, cámaras de

extrapolación(ionización variable), etc.

QUÍMICA

Qué se mide

Se conoce por estequiometría a la rama de la química y de la

ingeniería química que trata de las cantidades de substancias que

entran en las reacciones químicas o que son producidas por éstas.

Toda reacción química tiene sus propias proporciones características y

éstas se determinan por medio de fórmulas químicas, de ecuaciones,

de los pesos atómicos y moleculares y de la determinación de qué y

cuánto se utiliza y se produce, es decir de la cantidad de materia que

entra en juego. Toda la estequiometría se basa esencialmente en la

evaluación del número de moles de sustancia como un indicador

preciso de la magnitud de dicha sustancia. En química, y

particularmente en química analítica, la cantidad de materia en una

muestra dada es un elemento crucial de información. A su vez, es un

factor en otros aspectos tales como concentraciones de soluciones,

determinaciones de pH, etc. En la industria química, es indispensable

conocer la cantidad de materia empleada en las diversas reacciones y

en los productos obtenidos

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

104

Definición internacional de la unidad de medida en

química. [14ª Conferencia General de Pesas y

Medidas, 1971].

El mol (símbolo mol) es la cantidad de materia que contiene

tantas entidades elementales como átomos existen en 0,012

kilogramos de carbono 12.

Una unidad derivada, recientemente aceptada por la 21ª

Conferencia General de Pesas y Medidas en 1999, tiene su origen en

la recomendación para el uso de unidades SI en medicina y química

clínica, debido a la importancia de evitar que resultados de

mediciones clínicas se expresen en varias diversas unidades.

El katal (símbolo kat) es la unidad mol por segundo para uso

en medicina y bioquímica, como expresión de la actividad catalítica.

Patrones y materiales de referencia

En la actualidad, no se ha considerado la realización de un

patrón primario único para el mol aunque se viene trabajando con el

fin de contar con patrones confiables.

Como patrones de trabajo, se emplean los métodos llamados

primarios y cuerpos químicamente puros en una matriz conocida, con

un título definido, conocidos como materiales de referencia.

El Comité Consultivo de la Cantidad de Materia (CCQM) del CIPM ha

recomendado los siguientes como métodos de alto potencial a ser

establecidos como primarios:

Métodos primarios de medición directa:

Electroquímica:

- titulación coulombimétrica

- mediciones de potencial de hidrógeno (pH)

- conductividad electrolítica

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

105

Métodos clásicos de química analítica:

- gravimetría

- titulación

Métodos primarios de medición por correlación:

- dilución isotópica con espectrometría de masas

- resonancia nuclear magnética

- calorimetría diferencial

Variabilidades

Las variabilidades en los resultados varían según el elemento a

ser dosificado y su concentración. Sin embargo, se puede hablar de

niveles del orden de 10-3 hasta 10-4.

Equipos de medición

Las determinaciones involucran técnicas de análisis y los equipos

correspondientes para los métodos considerados primarios a los que

ya se hizo referencia.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

106

Unidad Didáctica 3: Diseño de experimentos

1.- INGENIERÍA DE CALIDAD

La Ingeniería de la Calidad está diseñada para generar procesos de

calidad. Esta Unidad Didáctica, como comprobará el/la lector/a está

intrínseca ligada a la siguiente, debido a que su temática, es similar.

No obstante, hemos decidido estructurarla en dos partes, a fin de

hacerla más fácilmente asimilable, debido a su complejidad.

Recomendamos por ello, la lectura continuada de ambas unidades.

Basado en los fines de la Ingeniería de la calidad, TAGUCHI

desarrolló una aproximación al diseño de experimentos con el

objetivo de reducir los costos emanados de la experimentación. Esta

aproximación es más práctica que teórica y se interesa más por la

productividad y los costos de producción que por las reglas

estadísticas.

Los conceptos de estas técnicas están basados en las relaciones de

costos y ahorros.

Existen algunos factores de ruido que afectan los procesos, y son

aquellos que causan que una característica funcional se desvíe de un

valor objetivo, estos son causantes de variabilidad y pérdida de

calidad.

De acuerdo con TAGUCHI esta pérdida de calidad constituye a largo

plazo, una pérdida de tiempo y dinero tanto para el consumidor como

para el fabricante.

Dentro de las actividades del control de la calidad, la Ingeniería de la

calidad consta de las actividades dirigidas a la reducción de la

variabilidad y de las pérdidas.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

107

2.- EXPERIMENTO FACTORIAL GENERAL

Los resultados del ANOVA para dos factores pueden ser extendidos

a un caso general en donde a son los niveles del factor A, b son los

niveles del factor B, c son los factores del nivel C, y así

sucesivamente, los cuales pueden ser arreglados en un experimento

factorial, en el cual el número de réplicas es n.

Está diseñada para generar procesos de calidad.

Los diseños factoriales son ampliamente utilizados en

experimentos en los que intervienen varios factores para estudiar el

efecto conjunto de estos sobre una respuesta. Existen varios casos

especiales del diseño factorial general que resultan importantes

porque se usan ampliamente en el trabajo de investigación, y porque

constituyen la base para otros diseños de gran valor práctico.

En los últimos años se ha observado un creciente interés por algunas

de las ideas del profesor Genechi Taguchi acerca del diseño

experimental y su aplicación al mejoramiento de la calidad

El diseño factorial fraccionario 2k-p se usa en experimentos de

escrutinio para identificar con rapidez y de manera eficiente el

subconjunto de factores que son activos, y para obtener alguna

información sobre la interacción. La propiedad de proyección de

estos diseños hace posible en muchos casos examinar los factores

activos con más detalle. La combinación secuencia de estos diseños

a través del plegamiento es una forma muy eficaz de obtener

información extra acerca de las interacciones, la cual puede

identificarse en un experimento inicial como potencialmente

importante.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

108

3.- DISEÑO FACTORIAL GENERAL 2K

Los diseños factoriales son a ampliamente utilizados en

experimentos en los que intervienen varios factores para estudiar el

efecto conjunto de estos sobre una respuesta. Existen varios casos

especiales del diseño factorial general que resultan importantes

porque se usan ampliamente en el trabajo de investigación, y porque

constituyen la base para otros diseños de gran valor práctico.

El más importante de estos casos especiales ocurre cuando se tienen

k factores, cada uno con dos niveles. Estos niveles pueden ser

cuantitativos como sería el caso de dos valores de temperatura

presión o tiempo. También pueden ser cualitativos como sería el

caso de dos máquinas, dos operadores, los niveles "superior" e

"inferior" de un factor, o quizás, la ausencia o presencia de un factor.

Una réplica completa de tal diseño requiere que se recopilen 2 x 2

x .... x 2 = 2k observaciones y se conoce como diseño general 2k.

El segundo caso especial es el de k factores con tres niveles cada

uno, conocido como diseño factorial 3k.

Se supone que:

a) los factores son fijos

b) los diseños son completamente aleatorios

c) se satisface la suposición usual de normalidad

El diseño 2k es particularmente útil en las primeras fases del

trabajo experimental, cuando es probable que haya muchos factores

por investigar.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

109

Conlleva el menor número de corridas con las cuales pueden

estudiarse k factores en un diseño factorial completo. Debido a que

sólo hay dos niveles para cada factor, debe suponerse que la

respuesta es aproximadamente lineal en el intervalo de los niveles

elegidos de los factores.

4.- DISEÑO 22

El primer diseño de la serie 2k es aquel que tiene sólo dos factores,

A y B, cada uno con dos niveles. Arbitrariamente, los niveles del

factor pueden llamarse "inferior" y "superior".

5.- DISEÑO 23

Suponga que se encuentran en estudio tres factores A, B y C, cada

uno con dos niveles. Este diseño se conoce como diseño factorial, 23

y las ocho combinaciones de tratamientos pueden representarse

gráficamente mediante un cubo.

Existen en realidad tres notaciones distintas que se usan

ampliamente para las corridas o ejecuciones en el diseño 2k:

a. La primera es la notación "+,-", llamada "geométrica".

b. La segunda consiste en el uso de letras minúsculas para

identificar las combinaciones de tratamientos.

c. En la tercera se utilizan los dígitos 1 y 0 para denotar los

niveles alto y bajo del factor, respectivamente.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

110

6.- DISEÑO FACTORIAL GENERAL 3K

Este diseño es una variación del diseño 2k y son muy útiles como

las que se emplean cuando todos los factores actúan a tres niveles.

En los últimos años se ha observado un creciente interés por algunas

de las ideas del profesor Genechi Taguchi acerca del diseño

experimental y su aplicación al mejoramiento de la calidad.

Este es un diseño que consta de k factores con tres niveles cada uno.

Los factores y las interacciones se representan mediante letras

mayúsculas. Los tres niveles de los factores pueden referirse como

nivel inferior, intermedio y superior. Estos niveles se representan

mediante los dígitos 0 (nivel inferior), 1 (intermedio) y 2 (superior).

Cada combinación de tratamientos de un diseño 3k se presenta

mediante k dígitos, donde el primero incida el nivel de A, el segundo

señale al nivel de B, ..... y el k-ésimo dígito, el nivel del factor k.

Por ejemplo, es un diseño 32 el 00 representa la combinación de

tratamientos, en la que tanto el factor A como el B están en el nivel

inferior, y el 01 representa la combinación de tratamientos que

corresponde al factor A en el nivel inferior y a B en el nivel

intermedio.

En éste, el sistema de notación que se prefiere usar es el de + - en

virtud de que facilita la interpretación geométrica del diseño y de que

es directamente aplicable al modelado por regresión, la formación de

bloques y la construcción de factoriales fraccionarios.

La adición de un tercer nivel permite modelar con una relación

cuadrática la relación entre la respuesta y cada factor.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

111

7.- DISEÑO 32

El diseño más simple es el 32 que consta de dos factores con tres

niveles cada uno.

Como hay 32 = 9 combinaciones de tratamientos, existen 8 grados

de libertad entre ellas, Los efectos principales A y B tienen dos grados

de libertad cada uno, y la interacción AB tiene cuatro grados de

libertad. Si hay n réplicas habrá un total de n32 - 1 grado de libertad,

correspondiendo para el error 32 (n-1) grados de libertad.

8.- DISEÑO 33

Si se supone que se están estudiando tres factores (A, B, C) y que

cada factor tiene tres niveles acomodados en un experimento

factorial. Este es un diseño 33. Las 27 combinaciones tienen 26

grados de libertad.

FACTOR A

Bajo Medio Alto

0 1 2

Bajo 0

Medio 1 FACTOR B

Alto 2

0 10 20

1 11 21

2 12 22

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

112

9.- DISEÑO DEL PROCESO

Diseñar un sistema de manufactura para elaborar un producto

requiere de conocimientos técnicos además de una gran experiencia

en el área a la cual pertenece el producto.

El Sr. TAGUCHI define en base a ello, la calidad de la siguiente

manera:

"LA CALIDAD DE UN PRODUCTO ES LA PERDIDA MÍNIMA IMPARTIDA

POR EL PRODUCTO A LA SOCIEDAD, DESDE EL MOMENTO EN QUE ES

TRANSMITIDO AL CLIENTE"

El fabricante es quien más resiente las pérdidas debido a la

reacción negativa del consumidor de un producto de mala calidad.

10.- EXPERIMENTOS FACTORIALES

Muchos experimentos requieren el estudio de los efectos de 2 ó

más factores. En general, los experimentos factoriales son los más

eficientes para este tipo de análisis. En un experimento factorial se

miden en cada etapa completa o replica del experimento, todas las

posibles combinaciones de los niveles de los factores.

Cuando los factores son arreglados en un experimento factorial, se

dice frecuentemente que son cruzados. El efecto de un factor se

define como el cambio en la respuesta producido por un cambio en el

nivel del factor. Esto frecuentemente se llama un efecto principal por

que se refiere a los factores primarios de interés en el experimento.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

113

a) Experimento Factorial con Interacción

Gráficamente se puede representar, tanto la interacción como su

ausencia; utilizando los datos de las tablas anteriores, se construirán

dos gráficas para analizar los conceptos analizados.

b) Diseño de experimentos factorial fraccionado

El número de factores en un diseño factorial 2k ó 3k incremento el

número de corridas requeridas para realizar todas las combinaciones

posibles de los niveles de los factores, lo cual consume rápidamente

los recursos disponibles por los investigadores para realizar los

experimentos.

Una replica completa de un diseño 26 requiere de 64 corridas para

analizar todas las combinaciones posibles de los tratamientos; en

este diseño sólo 6 de los 63 grados de libertad corresponden a los

efectos principales, sólo 15 grados de libertad corresponden a las

interacciones de dos factores. Los restantes 42 grados de libertad

están asociados con las interacciones de 3 factores ó más. En la

serie 3k la situación es peor, por ejemplo, el factorial 36 requiere 243

corridas, y sólo 12 de los 242 grados de libertad corresponden a los

efectos principales.

FACTOR B

B1 B2

A1 20 40

A2 50 12

FACTOR A

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

114

Estos diseños factoriales fraccionados son ampliamente usados en

la investigación industrial. Un uso importante del factorial

fraccionado es en los experimentos de investigación, los cuales son

generalmente realizados en las etapas iniciales de un proyecto, y la

mayoría de los factores inicialmente considerados frecuentemente

tienen poco o ningún efecto en la respuesta de la variable analizada.

Los factores que son identificados como importantes son entonces

investigados más profundamente en experimentos subsiguientes.

c) Diseño Factorial Fraccionado 2k-p

Un diseño factorial fraccionario 2k que contiene 2k-p ensayos se

conoce como fracción 1/2p del diseño factorial 2k, o simplemente

diseño factorial fraccionario 2k-p. Estos diseños requieren que se

elijan p generadores independientes.

La relación que define estos diseños consta de las p generadoras

originalmente elegidas y de sus 2P - P - 1 interacciones

generalizadas. La estructura de los alias puede determinarse

multiplicando cada efecto, módulo 2, por la relación que define al

diseño. Se debe tener cuidado al elegir las generadoras para que los

efectos de interés potencial no sean alias entre sí. Cada efecto tiene

2P-1 alias.

Por lo regular, se suponen despreciables las interacciones de orden

superior (las de tercero, cuarto o mayor orden) cuando los valores de

k son moderadamente grandes. Esto simplifica mucho la estructura

de los alias.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

115

d) Diseño Factorial Fraccionado 3k-p

A menudo se desea un fraccionamiento mayor del diseño 3k para

valores de moderados a grandes de k. En general, puede construirse

una fracción (1/3) P de un diseño 3k para p < k, donde la fracción 3k-2

es la fracción (1/9), el 3k-3 consiste en seleccionar p componentes de

interacción, y usar estos efectos para descomponer las 3 k

combinaciones de tratamientos de 3p bloques. Cada bloque

constituye ahora un diseño factorial fraccionario 3k-p.

La relación 1 define cualquier fracción, consta de los p efectos

elegidos inicialmente y de sus (3p-2p-1) / 2 interacciones

generalizadas.

11.- INGENIERÍA DE CALIDAD EN EL DISEÑO DEL

PRODUCTO

Podemos reducir el tiempo de desarrollo de un producto a un

tercio del actual.

Como reducir el tiempo de ciclo de desarrollo de productos es un

gran reto para la mayoría de las empresas de todos los sectores,

sobre todo teniendo en cuenta el hecho de que los productos se

fabrican en series cada vez más cortas, en variedad creciente y con

ciclos de vida más cortos.

¿Cómo podemos disminuir el tiempo de desarrollo y, al mismo

tiempo, proporcionar una gran variedad de productos, manteniendo

la competitividad? ¿Existen otros métodos para reducir el ciclo de

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

116

desarrollo de productos para que podamos cumplir nuestros objetivos

competitivos? ¿Qué es el desarrollo de la tecnología?

Lo que el Dr. Taguchi quiere decir por desarrollo de tecnología es

lo siguiente:

El desarrollo de tecnología es realizar una investigación, tras

completar el diseño de un sistema, para optimizar la robustez de

la función básica de una familia de productos. La investigación es

realizada en un laboratorio, a pequeña escala, antes de la

planificación del producto concreto, y su robustez puede ser

evaluada mediante el uso de la relación señal - ruido de tipo

dinámico, de forma que la información pueda ser utilizada en el

diseño de un grupo de futuros productos.

Existen varias razones por las cuales la duración del desarrollo de

tecnología es demasiado larga. Para empezar, el diseño de un

nuevo producto empieza después de recoger la información del

mercado en cuanto a los gustos o disgustos de los clientes. La

mejora de calidad empieza cuando el producto está en manos de

los consumidores. En este momento es demasiado tarde para

empezar un nuevo diseño, y se tarda demasiado tiempo en

conseguirlo. En segundo término, los esfuerzos por mejorar la

calidad se realizan cada vez que se diseña un nuevo producto. En

tercer término, el diseño de un producto se concentra inicialmente

en cómo "dar en el blanco" sin contemplar la robustez o la

reproductibilidad de la función de todos los problemas anteriores

que pueden ser minimizados

utilizando el enfoque del desarrollo de tecnología.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

117

Cuatro niveles de calidad.

Por supuesto, la calidad debe estar relacionada con las

necesidades y las expectativas del cliente.

Sin embargo, para que la investigación y el desarrollo sean

efectivos, la calidad debe ser expresada en términos

compatibles con los objetivos de ingeniería del desarrollo.

Podemos identificar cuatro niveles de calidad:

1. La calidad del cliente.

2. La calidad especificada.

3 La calidad robusta.

4. La calidad funcional.

1. La calidad del cliente y la calidad especificada

La calidad del cliente es la calidad expresada por el cliente, en

su propio lenguaje, tal como aspecto o "facilidad de conducir de

un coche”. El término “Voz del Cliente" se usa frecuentemente

para describir este nivel de calidad. Para satisfacer las

necesidades de nuestros clientes, los ingenieros intentan a

menudo convertir la Voz del Cliente en características

específicas de calidad, es decir, la calidad especificada, tales

como "piel de naranja", "espesor de la pintura", o "índice de

facilidad de conducir", dado por el experto de la prueba de

conducción. La calidad especificada se refiere a las

especificaciones de los diseños de ingeniería. Son

características de calidad, que constituyen objetivos para los

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

118

ingenieros. Estas son las características a partir de las cuales

se desarrollan los productos.

2. La calidad funcional

Todos los productos tienen una función específica. La calidad

funcional es la calidad de conseguir la función pretendida de un

producto. La función del producto existe antes que la voz del cliente.

Es imprescindible que la función del producto sea optimizada antes de

emitir los planos de ingeniería.

DESARROLLO DE LA TECNOLOGIA

Nuestro procedimiento óptimo puede ser resumido de la siguiente

forma:

· Maximizar la sensibilidad

· Maximizar la linealidad

Minimizar la variabilidad

Función de pérdida

El control de calidad ha tenido como objetivo controlar la

variación funcional y los problemas relacionados con esto.

El objetivo de la función pérdida es evaluar cuantitativamente la

pérdida de calidad debido a variaciones funcionales.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

119

El doctor Taguchi ha descubierto que la representación

cuadrática de la función de pérdida, es una forma eficiente y

efectiva para establecer la pérdida debido a la desviación de una

característica de calidad del valor meta; esto es la pérdida

debida a la mala calidad.

Es importante recordar que:

1. Conformarse con los Límites de especificación es un indicador

inadecuado de la calidad o pérdida debida a la mala calidad.

2. La pérdida de calidad es causada por la insatisfacción del

consumidor.

3. La pérdida de calidad puede relacionarse con las

características del producto.

4. La pérdida de calidad es una pérdida financiera.

5. La función de pérdida es una herramienta excelente para

evaluar la pérdida en la etapa inicial del desarrollo del producto.

El Indice CPM o indice TAGUCHI

Es de todos conocidos el índice de capacidad potencial (Cp) y el

índice de capacidad real (Cpk) para los cuales lo más importante es

reducir la variabilidad y cumplir con las especificaciones. Sin

embargo el Cpm está orientado a reducir la variabilidad alrededor del

valor nominal, no solo estar orientada a cumplir con las

especificaciones. El Cpm mide mejor que el Cpk el centrado del

proceso y la variabilidad.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

120

Cuando el índice Cpm es mayor a uno, entonces eso quiere decir que

el proceso cumple con las especificaciones, y en particular que la

media del proceso está dentro de la tercera parte media de la banda

de las especificaciones. Si el Cpm es mayor que 1.33 entonces la

media del proceso estará dentro de la quinta parte media del rango

deespecificaciones.

Si la estimación del Cpm se hace con base en una muestra aleatoria

del proceso, el Cpm encontrado podrá ser menor o mayor que el

verdadero valor.

Función de Pérdida para una Característica

La función de pérdida que el doctor Taguchi usa es una

aproximación de una expansión de la serie de Taylor alrededor de

un valor meta "m".

La función de pérdida de calidad se expresa con la ecuación

siguiente:

L(y) = K(y-m)2

En donde:

L(y)= pérdida en dinero por unidad de producto cuando las

características de calidad son igual

a 41 y 55 y = valor de la característica de calidad, esto es,

longitud, anchura, etc.,

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

121

m = valor nominal de "y"

k = constante de proporcionalidad.

La razón de señal a ruido

Los factores que causan que una característica funcional, como por

ejemplo, la eficiencia del combustible, los cambios de presión, la

maniobrabilidad, etc., se desvíe de su valor objetivo, se llaman

factores de ruido. Los factores de ruido causan variación y pérdida

de calidad. Durante su larga experiencia, el Dr. Taguchi ha

observado que ésta pérdida de calidad, en términos de tiempo y

dinero, tanto a los consumidores como a los fabricantes, y en último

término a la sociedad.

En la siguiente gráfica se muestra los diferentes tipos de ruido que

desvían la característica de su valor objetivo.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

122

Taguchi llama a los factores incontrolables factores de ruido.

Ruido es cualquier cosa que causa a una característica de la calidad

desviarse de su objetivo, el cual subsecuentemente causa una

pérdida de calidad. La temperatura, altura, y nivel de combustible,

son considerados factores externos de ruido porque ocurren fuera del

producto. Otros dos tipos de factores que existen son: los internos

(ej.: partes criticas de la maquinaria se deterioran y los factores

producto a producto cuando por ejemplo la variabilidad pieza a pieza

en los componentes fabricados del carro).

Mucha gente cree que las interacciones no son consideradas en los

Métodos Taguchi; sin embargo, esto no es cierto. De hecho, el Dr.

Taguchi considera las interacciones como uno de los puntos más

importantes de su enfoque. La proporción señal - ruido es un índice

de robustidad de calidad, y muestra la magnitud de la interacción

entre factores de control y factores de ruido. Los factores de control

y ruido deben ser asignados en diferentes grupos para el estudio de

la robustidad, el cual es significativamente diferente del enfoque

tradicional, donde no hay distinciones entre los factores de ruido y

control.

Una diferencia clave de los Métodos Taguchi es el énfasis en medir las

cosas correctas para recolección de información. En lugar de medir

síntomas causados por la variabilidad de la función, como la tasa de

defectos o fallas, medimos una respuesta relacionada con la energía.

Cualquier sistema usa energía de transformación para cumplir una

función deseada. Reducir la variabilidad de las transformaciones de

energía minimizará o eliminará los síntomas.

Cuando tenemos ruido, nos lleva a crear un producto o proceso

robusto que es aquel que es menos sensible al ruido.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

123

3) Calidad Robusta (Robustidad)

Diseño robusto es un proceso para optimizar. Una técnica para

auxiliarlo es la proporción señal/ruido, la cual proporciona una

medida de como acercar el diseño al óptimo funcionamiento de un

producto o proceso. Ha sido utilizado en la industria de

comunicaciones para comparar una señal en línea (la salida deseada)

con los ruidos de la misma (las salidas indeseadas). Este concepto

fue aplicado por el Dr. Taguchi en los 50's a otros sistemas, ya sean

mecánicos, eléctricos, electromecánicos, químicos y muchos más.

Variabilidad en un producto/proceso es enemiga de la calidad. El Dr.

Taguchi relaciona esta desviación del ideal a un concepto llamado

ruido. Ruido, visto simplemente, es variabilidad. Además, los

factores que causan variaciones se denominan como "Factores de

Ruido." Por definición, los factores de ruido no están controlados

desde un punto de vista económico o de costo.

La Función de Pérdida de Calidad es el standard por el cual los

factores relacionados con el diseño de calidad son estudiados y

medidos. Esta noción difiere del concepto convencional de calidad.

En lugar de definir la calidad como un atributo positivo de un

producto, es definida como la pérdida financiera o el costo causado a

la sociedad por la variación indeseada del precio del producto. Esto

incluye costos tales como garantía, rentabilidad y pérdida de la

confianza del cliente. La consecuencia importante de este concepto

es que trae las opciones de ingeniería dentro del campo de la

economía, algo en lo que los científicos e ingenieros frecuentemente

tienen dificultades. Otro resultado importante de la función de

pérdida de la calidad es que el diseño del producto más lejano varía

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

124

del valor objetivo, el máximo costo, el cual implica que sea una

función continua. Esto puede servir como un lenguaje muy poderoso

que permite a los expertos en equipos multidisciplinarios de

desarrollo de productos comunicarse más fácilmente. Esto se debe a

que todas las elecciones ingenieriles tienen en común el dinero. Del

índice Cpm; por lo que es riesgoso calificar al proceso con base a la

estimación puntual proporcionada por la muestra, y es mejor hacer

una estimación por el intervalo de manera similar para Cp y Cpk.

Función de Pérdida para una Característica

La función de pérdida que el doctor Taguchi usa es una

aproximación de una expansión de la serie de Taylor alrededor de un

valor meta "m".

La función de pérdida de calidad se expresa con la ecuación

siguiente:

L(y) = K(y-m)2

En donde:

L(y)= pérdida en dinero por unidad de producto cuando las

características de calidad son igual

a 41 y 55 y = valor de la característica de calidad, esto es, longitud,

anchura, etc.,

m = valor nominal de "y"

k = constante de proporcionalidad.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

125

Unidad Didáctica 4: Método de Taguchi

Los planteamientos del Dr. Taguchi, que ya avanzamos en la

anterior Unidad didáctica, son de indudable valor para el diseño de

experimentos y basan su teoría y dinámica en lo ya anteriormente

enunciado, a través del factor ruido, la robustidad y la función de

pérdida para una característica. Igualmente puntera, es la exposición

en su metodología, de la aplicación de los arreglos ortogonales, a

los que dedicamos el presente capítulo. Tal como pusimos de

manifiesto, es recomendable no desgajar ambas unidades por

separado, al estar ligada su temática y terminología intrínsecamente.

1.- ARREGLOS ORTOGONALES Esta experimentación busca encontrar cuál es el mejor

material, la mejor presión, la mejor temperatura, la mejor

formulación química, o el tiempo de ciclo más apto, etc. Todo con el

propósito de lograr la longitud, la amplitud, o la durabilidad que se

desea, tomando el costo que implica.

A) ¿QUÉ ES EL ARREGLO ORTOGONAL?

Un diseño ortogonal permite comparar, con la misma

eficiencia, los niveles de los factores bajo varias condiciones.

El arreglo ortogonal es una herramienta ingenieril que simplifica y en

algunos casos elimina gran parte de los esfuerzos de diseño

estadístico. Es una forma de examinar simultáneamente muchos

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

126

factores a bajo costo. El Dr. Taguchi recomienda el uso de arreglos

ortogonales para hacer matrices que contengan los controles y los

factores de ruido en el diseño de experimentos. Ha simplificado

el uso de este tipo de diseño al incorporar los arreglos ortogonales y

las gráficas lineales, finalmente, en contraste con los enfoques

tradicionales como equivalentes de ruido: mientras las interacciones

sean relativamente suaves, el analista de los efectos principales nos

proporcionará las condiciones óptimas y una buena reproductibilidad

en un experimento.

Los arreglos ortogonales son herramientas que permiten al ingeniero

evaluar cómo de robustos son los diseños del proceso y del producto

con respecto a los factores de ruido.

El método del Dr. Taguchi para el diseño de experimentos utiliza

técnicas que implican bajos costos y que son aplicables a los

problemas y requerimientos de la industria moderna. El propósito que

se tiene en el diseño del producto es encontrar aquella combinación

de factores que nos proporcione el desempeño más estable y

confiable al precio de manufactura más bajo.

El sistema de ingeniería de calidad del Dr. Genichi Taguchi, es

uno de los más grandes logros en ingeniería del siglo XX. El trabajo

de la filosofía del Dr. Taguchi comenzó a formarse en los inicios de la

década de los 50's cuando fue reclutado para ayudar a mejorar el

sistema telefónico japonés que había sido diseñado para la Segunda

Guerra Mundial. Taguchi empleó experimentos de diseño usando

especialmente una tabla conocida como "arreglos ortogonales" para

tratar los procesos de diseño. Los arreglos ortogonales son un

conjunto especial de cuadros en latín, construidos por Taguchi para

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

127

planear los experimentos del diseño del producto.

El análisis del arreglo ortogonal de Taguchi es usado para producir los

mejores parámetros para el diseño óptimo del proceso, con el mínimo

número de experimentos (pruebas). Los resultados obtenidos para

los arreglos ortogonales son analizados para obtener los siguientes

objetivos:

A) Estimar la contribución de los factores individuales que influyen en

la calidad en la etapa del diseño del producto.

B) Ganar la mejor condición para un proceso o un producto, así que

las características en una buena calidad puedan ser sostenidas.

La ventaja del los arreglos ortogonales es que pueden ser

aplicados al diseño experimental involucrando un gran número de

factores.

La desventaja del arreglo ortogonal es que puede ser únicamente

aplicado en la etapa inicial del diseño del sistema del producto o

proceso.

Ejemplo: EXPERIMENTOS REALIZADOS EN UNA FÁBRICA DE

AZULEJOS

En Una compañía de azulejos de regular tamaño compró un horno en

forma de túnel cuyo costo fue de 2 millones de dólares. El horno mide

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

128

80 mts. de largo; dentro de él un carro cargado de azulejos se desliza

lentamente sobre sus rieles mientras los quemadores horneaban el

producto.

PROBLEMAS:

Los azulejos tenían una variación en sus dimensiones, más del 50%

de los azulejos de la fila exterior estaba fuera de especificaciones,

mientras que las filas interiores sí cumplían con las medidas.

Los gerentes e ingenieros sabían que las causas de la variación eran

las diferencias de la temperatura del horno. El problema pudo ser

solucionado diseñado nuevamente el horno para que todos los

azulejos recibieran la misma temperatura, lo cual hubiera costado

medio millón de dólares. La compañía no tenía recursos para invertir;

por lo tanto, decidió buscar la manera de disminuir la variación. La

compañía hizo experimentos para investigar los efectos de algunos

factores que en el proceso de cocción de los azulejos pudieran afectar

su dimensión. Se seleccionaron estos factores teniendo en cuenta que

los experimentos fueran eficientes.

El análisis de varianza, como vemos, ofrece más que un método

corto para obtener la suma de cuadrados del error. Es confiable y de

gran exactitud para obtener la opción correcta y disminuir costo por

muchos experimentos.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

129

2.- LOS GRÁFICOS LINEALES

Se utilizan para facilitar la Asignación de factores e interacciones en

un arreglo ortogonal.

Cada punto representa una columna para asignar unos factores. Las

líneas que conectan los puntos representan las columnas que deben

asignarse a las interacciones entre los factores que conectan.

a) Grados de libertad de un factor

Los grados de libertad son una medida de una cantidad de

información que puede ser obtenida. Para conocer el efecto de un

factor determinado en un experimento, se compara el desempeño del

producto al poner el factor en varios niveles al realizar un

experimento; mientras más niveles tenga un factor, tendrá más

grados de libertad, y por lo tanto más información para ser obtenida.

b) Interacción entre factores

Existe una interacción cuando el efecto de un factor depende del

nivel en que se encuentre otro factor. Se graficarán los cambios de

un factor B, para determinar si hay interacción.

La interpretación de las gráficas, es la siguiente:

** Los números representan el número de la columna en el arreglo

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

130

ortogonal.

** Los puntos representan a los factores.

** Los segmentos de línea que unen dos puntos representan la

interacción entre esos dos factores.

Por otra parte:

Si las líneas trazadas son paralelas, no existe interacción

entre los factores.

Si las líneas no son paralelas, quiere decir que el efecto

de "A" no es el mismo para "B1" y "B2", existiendo

interacción.

Si las líneas se intersectan en la gráfica, se interpreta que

existe una interacción bastante fuerte.

c) Aproximación de un factor a la vez

En este método se varía el nivel de un solo factor,

manteniendo constantes los niveles de los demás factores.

Suponga que se investiga sobre efectos de temperatura y

presión. Se seleccionan dos niveles para el factor temperatura

(T1 y T2) y 2 niveles para el factor presión (P1, P2). La

temperatura se fija a T1 mientras se varían los niveles de la

presión; después se podía fijar la presión a P1 y varía los

niveles de la temperatura. Si se realizara un diseño con 7

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

131

factores en 2 niveles cada uno, se necesitaría realizar 8

experimentos.

3.- PROCEDIMIENTO DE ASIGNACIÓN DE FACTORES A UN

ARREGLO ORTOGONAL

1. Se selecciona el arreglo ortogonal apropiado; para esto se toman

en cuenta los grados de libertad necesarios debido a los factores e

interacciones.

2. Se dibuja la gráfica lineal según las interacciones deseadas.

Experimento Factores y Condiciones Resultados

Experimento

A B C D E F G

1 A1 B1 C1 D1 E1 F1 G1 Y1

2 A2 B1 C1 D1 E1 F1 G1 Y2

3 A2 B2 C1 D1 E1 F1 G1 Y3

4 A2 B2 C2 D1 E1 F1 G1 Y4

5 A2 B2 C2 D2 E1 F1 G2 Y5

6 A2 B2 C2 D2 E2 F1 G1 Y6

7 A2 B2 C2 D2 E2 F2 G1 Y7

8 A2 B2 C2 D2 E2 F2 G2 Y8

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

132

3. Se selecciona una de las gráficas lineales estándar del arreglo

elegido, de la cual se puede obtener la gráfica lineal del paso

anterior.

4. Se asignan los factores e interacciones según las columnas que les

corresponden de acuerdo a la gráfica lineal resultante.

EJEMPLO: La Ley de Movimiento de Newton F = MA. La naturaleza

conoce esta relación pero nosotros no. Como podemos obtener la

relación rápidamente sin quedar atrapados en años de investigación

teórica como lo hizo Newton? Un DDE siempre para dos entradas,

tales como masa (M) y aceleración (A), cada uno a 2 niveles, se

puede establecer como un proceso de 4 ensayos experimentales (o

intentos) en posiciones bajo y alto como se muestra en la Tabla.

Un conjunto de condiciones experimentales se usa para interrogar a

la naturaleza acerca del comportamiento de ellas. Bajo ciertas

circunstancias el conjunto específico de condiciones (o matriz de

diseño) se construye para analizar la respuesta, con el propósito de

ENSAYO M A

1 BAJO BAJO

2 BAJO ALTO

3 ALTO BAJO

4 ALTO ALTO

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

133

construir un modelo que se aproxime al modelo real encontrando en

la naturaleza (i.e., aproximadamente igual al conocimiento perfecto

por parte de la naturaleza).

El ejemplo de la tabla, en DDE se trata de un diseño factorial

completo de 2 factores a 2 niveles. Diversos tipo de diseño

experimental están disponibles para satisfacer el objetivo específico

que se tenga, I.e. modelado lineal, modelado no - lineal, selección,

etc.

Asumamos que nuestro experimento generó un conjunto promedio de

resultados para la fuerza por cada ensayo experimental, como se

muestra en la tabla.

A continuación, los puntos fijos, bajo y alto, para la mesa (5, 10) y la

aceleración (100, 200) se escogen basados en rangos de interés para

el experimentador.

Para maximizar la cantidad de conocimiento adquirido, el análisis del

modelado se conduce con valores de entrada estandarizados, donde

los valores bajos se codifican en (1 y los altos se codifican en (+ 1).

Estos valores codificados estandarizan la escala y las unidades de las

ENSAYO ENTRADAS SALIDAS PROM.

M A F

1 5 100 500

2 5 200 1000

3 10 100 1000

4 10 200 2000

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

134

variables de entrada. El resultado es una matriz con entradas

codificadas como se muestra en tabla 2.

ENSAYO M A M*A F

1 -1 -1 1 500

2 -1 1 -1 1000

3 1 -1 -1 1000

4 1 1 1 2000

Note, en la tabla, la adición de una columna M*A la cual es generada

por el producto de las columnas codificadas M y A y que era usada

para analizar el efecto interactivo o combinado de M y A. Las

columnas M, A y M*A representan los tres efectos a ser evaluados,

i.e. los efectos lineales de M y A y el efecto de la interacción de M con

A (M*A). El análisis se conduce como se

muestra en la tabla.

ENSAYO M A M*A F

1 -1 -1 1 500

2 -1 1 -1 1000

3 1 -1 -1 1000

4 1 1 1 2000

PROM(+1) 1500 1500 1250 1125

PROM(-1) 750 750 1000

PROM(+1)-

PROM(-1) 750 750 250

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

135

Para obtener los números de las secciones sombreadas, hemos de

hacer lo siguiente para cada una de las columnas M, A y M*A:

1) Encontrar el promedio de la salida F cuando los valores de la

columna son -1,

2) Encontrar el promedio de la salida F cuando los valores de las

columnas son +1, y luego

3) Encontrar la diferencia de los dos promedios (&#8710;).

Por ejemplo, cuando las columnas del efecto M está A - 1 (Ensayos

1 y 2) la salida es 500 para el ensayo 1 y 1000 para el ensayo 2, que

en promedio DA 750.

El modelo generado por el DDE se construye usando un diseño

de regresión de cuadrados mínimos el cual puede ser simplificado

para diseños de 2 niveles como se muestra a continuación:

F Es el promedio predicho para fuerza

Mc Es la variable codificada para masa

Ac Es la variable codificada para aceleración

FEs la gran media experimental

&#8710;M Es el tamaño del efecto lineal para M, etc.

Entonces nuestro modelo actual se convierte en:

F=1125+(750/2)*Mc+(750/2)*Ac+(250/2)*Mc*Ac

Recordemos que nuestro modelo de predicción es para valores

codificados (I. E -1, +1) de M y A, y nosotros podemos transformarlo

en un modelo con valores actuales de Ma y Aa usando la siguiente

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

136

relación:

Ma=((Ma+Mb)/2)+((Ma+Mb)/2)*Mc

Donde:

MA Valor fijo actual de masa

MC Valor fijo codificado de masa

MA Valor experimental actual fijado en alto

MB Valor experimental actual fijado en bajo

Para nuestro ejemplo:

Ma=7.5+2.5 Mc

Entonces:

Los cálculos previamente descritos son una forma simple para pasar

de valores codificados a actuales y viceversa, como se muestra en la

escala combinada de la figura 2.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

137

4.- EXPLICACIÓN EXPERIMENTAL DEL ANÁLISIS DE

EXPERIMENTOS CON FACTORES DE RUIDO

a) FACTORES DE RUIDO

Hemos visto, que los factores de ruido son aquellos que no se

pueden controlar o que resulta muy caro controlarlos. Los factores

de ruido causan variabilidad y pérdida de calidad. Por esto es

necesario diseñar un sistema el cual sea insensible a los factores de

ruido. El diseñador debe identificar la mayor cantidad posible de

factores de ruido y usar su buen juicio en base a sus conocimientos

para decidir cuáles son los más importantes a considerar en su

análisis.

b) METODO DEL DISEÑO ROBUSTO DE EL DR. TAGUCHI.

Como adelantamos en la Unidad anterior, es un eficiente sistema que

ayuda a obtener una combinación óptima de diseño de parámetros

para que el producto sea funcional y ayude a obtener un alto nivel de

desempeño y que sea robusto a los factores de ruido.

Existen 8 pasos para hacer un ciclo de diseño robusto:

· En los primeros 5 pasos se planea el experimento.

· En el paso número 6 se conduce el experimento.

· En los pasos 7 y 8 los resultados del experimento son

analizados y verificados.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

138

Ejemplo de la optimización de un diseño por costo de un

sistema intercambiador de calor.

1. Identificar la función principal. La función principal del sistema

enfriador de aire comprimido se muestra en la figura siguiente.

La función principal del sistema es enfriar la temperatura del aire de

95 ºC a 10 ºC entre dos etapas de compresión. Primero entra al

sistema el aire por el preenfriador y luego pasa a la unidad de

refrigeración. El agua pasa a través del condensador de la unidad de

refrigeración y luego al preenfriador y finalmente entra al radiador

donde se expulsa el radiador a través de él.

El flujo de el aire está dado por 1.2 kg/s y el flujo de el agua está

dado por 2.3 kg/s

Se busca diseñar el sistema para un costo mínimo total, donde el

costo es la suma de todos los costos en dólares de la unidad de

refrigeración, el preenfriador y el radiador. Las ecuaciones

paramétricas de costo (xi) para la unidad de refrigeración, el

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

139

preenfriador y el radiador en términos de temperaturas de salida (ti)

están dadas como sigue:

X1 = 1.2 a (T3 - 10)

X1 = costo ($) de la unidad de refrigeración.

a = parámetro de costo para el refrigerante.

T3= temperatura de salida de el aire de el preenfriador..

X2=1.2 B (95 - T3)/(T3-T1) para (T3 >T1)

X2 = costo ($) de el preenfriador.

B = parámetro de costo de el preenfriador.

T3 = temperatura de salida de el aire de el preenfriador.

T1 = temperatura de salida de el agua de la unidad de refrigeración.

95 = temperatura de el aire en la entrada al sistema.

X3=9.637 c (T2 - 24)

X3 = costo ($) de el radiador.

C = parámetro de costo de el radiador.

T2 = temperatura de el agua en la entrada de el radiador.

24 = temperatura de el agua después de pasar por el radiador.

A = 48 B = 50 C = 25

Parámetros de costo determinados por el diseñador.

2. Identificar los factores de ruido

Existen varios factores de ruido en un proceso de enfriamiento de

aire. Para este caso los ingenieros han determinado los 3 factores de

ruido más importantes.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

140

N1 = parámetro de costo de la unidad de refrigeración.

Se ha estimado un costo original de 48 y se considera un costo muy

alto arriba de 56.

N2 = temperatura de salida de el radiador.

Esta temperatura puede variar dependiendo de los factores

ambientales. Se ha estimado una temperatura de 24 c pero se

considera muy alta a 27°C.

N3 = temperatura de el aire a la entrada de el sistema.

Esta temperatura varia dependiendo de las condiciones de operación,

se ha estimado inicialmente de 95 c pero se considera muy alta arriba

de 100 c.

3.Identificar la característica de calidad que va a ser observada y el

objetivo.

El costo va a ser tomado como la característica de calidad y la función

objetivo será optimizar el costo total del sistema.

MIN CT= X1 + X2 + X3

El objetivo ahora es encontrar cuál diseño minimiza el costo total

considerando la incertidumbre de los factores de ruido citados.

4.Identificar los factores de control y los niveles alternativos.

Para el caso de el ejemplo, tres niveles alternativos fueron

identificados para ser estudiados para el control de el diseño de los

parámetros. El nivel dos muestra los valores iniciales de los factores

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

141

de control. Los niveles de los parámetros de prueba se refieren a

cuántos valores de prueba van a ser analizados (uno de estos niveles

debe tomar los valores de las condiciones iniciales de operación).

T1= 28 C T2= 39 C T3= 38 C

Como siguiente paso los ingenieros de diseño y los analistas de costo

desean un estudio de niveles alternativos de los parámetros de

control considerando ahora la incertidumbre debido a los factores de

ruido. En un diseño robusto, generalmente, dos o tres niveles son

considerados para cada factor.

Se ha decidido estudiar los tres factores de ruido con 2 niveles. Estos

valores se muestran en las tablas del punto siguiente. El nivel uno

representa los valores iniciales de los factores de ruido.

5.Construcción de arreglos ortogonales.

Primero se determinan según la metodología de Taguchi los

grados de libertad para determinar el número mínimo de

experimentos.

El diseñador ha calculado el factor grados de libertad igual a 7, esto

nos indica que se necesita un número mínimo de 7 experimentos

para encontrar los valores óptimos.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

142

Con esto se determina que se puede utilizar un arreglo ortogonal

estándar L9 para los factores de control y usando la misma

metodología se utiliza un arreglo ortogonal estándar L4 para los

factores de control.

1 2 3 4

N1 1 2 2

N2 2 1 2

N3 2 2 1

Control Ortogonal Array

A B C D

1 1 1 1 1

2 1 2 2 2

3 1 3 3 3

4 2 1 2 3

5 2 2 3 1

6 2 3 1 2

7 2 1 3 2

8 2 2 2 3

9 2 3 1 1

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

143

6. Conducir la matriz de experimentos.

A continuación y una vez se realiza el diseño de la matriz de

experimentos y la definición de los datos para analizar, el objetivo es

determinar los niveles óptimos de los factores de control para que el

sistema sea robusto a los factores de ruido.

Para nuestro ejemplo, la matriz de experimentos dada es conducida

usando un sistema apropiado de ecuaciones matemáticas de costo.

La propuesta es el costo total en dólares para ese caso. Ésta es

calculada para cada combinación de las matrices de experimentos de

factores de control y factores de ruido.

Ecuación matemática de costo (ejemplo):

CT = Xl + X2 + X3

CT = 1.2(48)(35-10) + 1.2(50)(95-35)1(35-25) +

9.637(25)(36 -24)=4691

CT = 1.2(48)(35-10)+1.2(50)(100-35)1(35-25)+9637(25)(36-

27)=3998

Control/Noise 1 2 3 4

N1 48 48 56 56

N2 24 27 24 27

N3 95 100 100 95

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

144

7. Análisis de datos para determinar los niveles óptimos de los

factores de control.

El método de Taguchi utiliza la relación que existe entre señal y

ruido incluyendo la variación de la respuesta. La relación que se

utilizaría en nuestro ejemplo sería que la más pequeña relación es la

mejor, dado que nuestro objetivo es minimizar el costo. Esta

relación señal /ruido está dada por la siguiente ecuación:

S/N =-10 LOG{1/4[(4691^2 +3998^2+4691^2+4208^2)]}=-73.03

Control matrix

(a) signal to noise ratio (b) response table

Los promedios de la relación señal/ruido de la tabla de respuesta nos

da los resultados óptimos. Maximizando la relación s/n es equivalente

a minimizar la característica de calidad.

Como resultado del análisis tenemos los niveles óptimos de los

parámetros de control siguientes:

Tl T2 T3 parámetros de prueba

1 2 3 niveles

25 36 38 valores óptimos de control.

Con estos valores el ct = $4551.00 con una desviación estándar de

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

145

445.5 y una señal de ruido de - 73.19 con esto se ahorra $806.00 un

15% contra los valores iniciales propuestos antes del experimento.

T1 T2 T3 parámetros de prueba

2 2 2 niveles

28 39 38 valores iniciales propuestos

Ct = $5,357.00 con una desviación estándar de 445.6 y una señal de

Ruido = -74.6

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

146

IDEAS CLAVE

Con el Control de Calidad se intenta asegurar la calidad de los

productos fabricados (coches, electrodomésticos, muebles,

ordenadores, maquinaria...) o de los servicios (transporte,

asistencia médica, educación...).

Las técnicas básicas empleadas en el Control de Calidad son:

• Diseño de Experimentos

• Control estadístico de procesos

• Muestreo para la aceptación

Un gráfico de control es un dibujo para determinar si el modelo

de probabilidad subyacente en el proceso es estable o cambia a

lo largo del tiempo.

La inestabilidad de un proceso puede deberse,

fundamentalmente, a dos causas:

• Que sea inherente al proceso

• Debido a la novedad del producto o del proceso

La probabilidad de aceptación de una muestra no es más que la

probabilidad de asumir que el proceso está bajo control.

La metrología es la ciencia de las mediciones

Las unidades del Sistema Internacional de Unidades, SI, son

establecidas por la Conferencia General de Pesas y Medidas

(CGPM)

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

147

Las actividades de la Ingeniería de la Calidad, están orientadas

a:

Reducción de variabilidad en productos y servicios

Reducción de pérdidas

Los diseños factoriales son ampliamente utilizados en

experimentos en los que intervienen varios factores para

estudiar el efecto conjunto de estos sobre una respuesta

El desarrollo de tecnología es realizar una investigación, tras

completar el diseño de un sistema, para optimizar la robustez

de la función básica de una familia de productos

En el diseño de experimentos, podemos identificar cuatro

niveles de calidad:

1. La calidad del cliente.

2. La calidad especificada.

3 La calidad robusta.

4. La calidad funcional.

Los arreglos ortogonales son herramientas que permiten al

ingeniero evaluar cómo de robustos son los diseños del proceso

y del producto con respecto a los factores de ruido.

El propósito que se tiene en el diseño del producto es encontrar

aquella combinación de factores que nos proporcione el

desempeño más estable y confiable al precio de producción más

bajo.

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

148

AUTOEVALUACIÓN

1.- En control de calidad, se toman medidas correctivas

cuando:

a) Hay muchos elementos que no cumplen los requisitos

b) Hay algunos elementos que no cumplen los requisitos

c) Las dos son correctas

2.- Para establecer subgrupos racionales se emplean

básicamente, dos enfoques:

a) Si el objetivo es detectar cambios en el proceso

b) Si se pretende tomar decisiones acerca de la aceptación de

todos los artículos que se han producido desde la última

muestra

c) Las dos son correctas

3.- Para analizar la estabilidad de un proceso de fabricación y

así asegurar la calidad de los productos fabricados, se

establecen, generalmente:

a) El período base, el período de prueba y el período de

vigilancia

b) El período de prueba y el período de vigilancia

c) Las dos son correctas

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

149

4.- Definimos trazabilidad:

a) Conjunto de operaciones que establece, bajo condiciones

específicas, la relación entre los valores indicados por un

instrumento de medición, valores representados por una

medida materializada o un material de referencia y los valores

correspondientes a las magnitudes establecidas por los

patrones.

b) Propiedad de una medición o del valor de un patrón, de estar

relacionado a referencias establecidas, generalmente patrones

nacionales o internacionales, por medio de una cadena continua

de comparaciones, todas ellas con variabilidades

c) Ambas respuestas son correctas

5.- Magnitud derivada es:

a) Atributo de un fenómeno, de un cuerpo o de una

sustancia, que es susceptible de distinguirse

cualitativamente y de determinarse cuantitativamente

b) Una de las magnitudes que, en un sistema de magnitudes,

se admiten por convención como funcionalmente

independientes unas de otras

c) Una magnitud definida, dentro de un sistema de magnitudes,

en función de las magnitudes de base de dicho sistema

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

150

6.- El BIPM:

a) Conserva los prototipos internacionales

b)Establece los patrones fundamentales y las escalas de las

principales magnitudes físicas

c)Ambas respuestas son correctas

7.- En el diseño del sistema:

a) Se determinan los valores específicos para los parámetros

del sistema

b) El ingeniero utiliza principios científicos y de ingeniería para

determinar la configuración básica

c) Ambas respuestas son incorrectas

8.- La ingeniería de la calidad en línea:

a) Se encarga del control y la corrección de procesos así como

del mantenimiento preventivo

b) Se encarga de la optimización del diseño de productos y de

procesos

c) Ambas respuestas son incorrectas

MÓDULO 6: PLANIFICACIÓN Y EXPERIMENTACIÓN

151

9.- Los arreglos ortogonales son herramientas que permiten

evaluar:

a) Definir prioridades de medidas

b) La robustez de los diseños del proceso y del producto con

respecto a los factores de ruido

c) Ambas respuestas son correctas

10.- Los factores de ruido son:

a) Aquellos que no se pueden controlar o que resulta muy caro

controlarlos

b) Aquellos que aún resultando caros de controlar son

indispensables

c) Ambas respuestas son incorrectas

SUPUESTO PRÁCTICO

Defina “Arreglo ortogonal” haciendo hincapié en el

desarrollo de sus principales características y ventajas.