trabajo calidad 2º trimestre
Post on 29-Dec-2015
55 Views
Preview:
TRANSCRIPT
Tabla de contenido5. Técnicas estadísticas de control de la calidad......................................................................2
5.1 Fundamentos de la estadística y probabilidad.................................................................5
5.1.1 Distribución de frecuencias..........................................................................................6
5.1.2 Otras distribuciones probabilísticas..............................................................................7
5.2 Control por variables y atributos. Gráficos de control por variables y atributos..............8
5.3 Manejo de paquetes informáticos de control estadístico de proceso............................14
5.4 Capacidad de proceso y de máquinas............................................................................24
5.4.1 Construcción e interpretación en la recta de probabilidad........................................25
5.4.2 Cálculo de índices de capacidad para máquinas y procesos.......................................26
5.5 Planes de muestreo........................................................................................................26
5.5.1 Curvas características y tipos de muestreo (UNE 66.020)..........................................29
5.5.2 Control secuencial y control continuo........................................................................29
5.5.3 Utilización de tablas de muestreo..............................................................................29
5.6 Análisis de regresión: Correlación y de la varianza (ANOVA)..........................................30
5.7 Aplicación de la informática al control del proceso........................................................31
6 Herramientas de la calidad aplicadas a la mejora de la calidad..........................................33
6.1 Toma de datos, recopilación, ponderación, presentación numérica y gráfica de datos. Histogramas...............................................................................................................................35
6.2 Diagramas de evolución o gestión, de Pareto, de afinidad, causa-efecto, correlación, dispersión o distribución, etc.....................................................................................................37
6.3 Matrices de prioridades, de criterio, de análisis, etc......................................................41
6.4 Análisis de modos de fallos y efectos (AMFE).................................................................43
7 Documentación de la calidad.............................................................................................47
7.1 Estructura y contenidos que deben cumplir las pautas de control.................................48
7.2 Informes y partes de control. Normas a considerar en su elaboración y presentación..48
7.3 Organización, gestión y actualización de la documentación generada...........................50
1
5. Técnicas estadísticas de control de la calidad.
Definimos el “Control Estadístico de la Calidad” como la aplicación de diferentes
técnicas estadísticas a procesos industriales (mano de obra, materias primas medidas,
máquinas y medio ambiente), procesos administrativos y/o servicios con objeto de
verificar si todas y cada una de las partes del proceso y servicio cumplen con unas
ciertas exigencias de calidad y ayudar a cumplirlas, entendiendo por calidad “la aptitud
del producto y/o servicio para su uso.
La aplicación de técnicas estadísticas al control está basada en el estudio y
evaluación de la variabilidad existente en cualquier tipo de proceso que es
principalmente el objeto de la Estadística.
Las fuentes que producen la variabilidad objeto de estudio en la Estadística, se
clasifica en “variabilidad controlada” o “corregible” que no entra dentro de nuestro
campo pero si es posible detectarla por causar una variabilidad muy grande (ajuste
incorrecto de la máquina, errores humanos, siendo posible eliminar la causa o causas
que la han producido, y la “variabilidad debida al azar”, también denominada
“variabilidad no controlable que no puede ser asignada a una causa única sino al
efecto combinado de otras muchas.
Supongamos un esquema de un proceso de fabricación determinado que
produce cierta pieza donde la característica de calidad sea Y (medible u observable). Se
observa que la magnitud de la característica varía de unidad a unidad de producto;
esto es, se dice que el producto posee variabilidad, objetivo primario o base de la
Estadística
Las herramientas de Control Estadístico de la Calidad han evolucionado con las
distintas revoluciones industriales. El nivel tecnológico de muchas empresas del sector
es muy elevado pero en cambio el uso de técnicas Estadísticas es muy reducido,
considerándose a menudo de gran dificultad, innecesarias y cuyos costos son elevados.
La tesis que se presenta se plantea como objetivo romper con esta forma de pensar y
2
demostrar algunas de las ventajas que puede aportar el uso de la Estadística para
tomar decisiones y mejorar la calidad de productos y procesos.
Para alcanzar este objetivo, se hace un breve repaso al grado de
utilización de la ciencia en el sector.
Esta indagación proporciona las claves necesarias para encaminar la
investigación hacia dos tipos de productos diferentes, por un lado, los de hogar que
son los que tradicionalmente se producen en la zona, y por otro, los técnicos que
representan una oportunidad de innovación.
La primera propuesta se realiza con la intención de dotar de mayor valor
añadido a los productos tradicionales, mediante la incorporación de un sistema de
Control de la Calidad de sus características sensoriales. Utilizando algunas técnicas de
Análisis Sensorial se quiere controlar la calidad del artículo en el proceso de
producción, así como definir las características sensoriales que lo caractericen y lo
puedan distinguir de sus competidores.
3
En el desarrollo práctico de la asignatura tendremos en cuenta siempre su
aplicación a procesos industriales que permiten la disponibilidad de gran variedad de
datos donde la o las características de calidad podrán ser medibles y se conocen como
variables o podrán ser observadas a las que se refiere como atributos, utilizando
distintas técnicas según el tipo de ellas.
En todo proceso industrial cabe distinguir la calidad de diseño que no es
objetivo de la asignatura y la calidad de fabricación, sobre la que nos centraremos
especialmente, aplicando los métodos estadísticos al:
Control del proceso o en curso de fabricación que proporciona no solo
detectar fallos en curso de fabricación sino también permite aprender cuáles
son las causas que provocan variabilidad, aportando datos para mejorar el
proceso.
El objetivo del Control Estadístico de la Calidad es:
1. Detectar rápidamente la ocurrencia de variabilidad debida a causas asignables.
2. Investigar la(s) causa(s) que la han producido y eliminarla(s).
3. Informar de ella para la toma de decisión oportuna, pues de lo contrario se
producirían gran cantidad de unidades de calidad no aceptable, originando una
disminución de la capacidad productiva e incremento de costos del producto
terminado (supervisor).
4. Eliminar, si es posible, o al menos reducir al máximo la variabilidad del proceso
(dirección).
4
5.1 Fundamentos de la estadística y probabilidad.
El Control Estadístico de la Calidad es la disciplina científico-técnica que utiliza
técnicas estadísticas dentro del contexto más general del Control de la Calidad.
Permite medir y mejorar la Calidad de los productos y servicios. Básicamente
son tres las etapas donde se engloban dichas técnicas: la Inspección, el Control
Estadístico de Procesos y el Diseño Estadístico de Experimentos. La Inspección y
el Diseño de Experimentos son técnicas de control fuera de línea (Control off-
line), en cambio el Control Estadístico de Procesos es una técnica de control
durante la fabricación (Control off-line), (Navarrete, 1998).
El control estadístico de la calidad es la parte del control de la calidad
donde se utilizan técnicas estadísticas. Pueden distinguirse diversos tipos de
control estadístico de la calidad como:
Control de procesos durante la fabricación.
Control de recepción o inspección por muestreo.
Cabe destacar que antes del control estadístico de la calidad, se realiza una
etapa de Diseño del proceso y del producto. El control durante la fabricación o
de procesos se realiza de forma continuada a intervalos de tiempo fijos y tiene
por objeto vigilar el 8funcionamiento de los sistemas para que se mantenga en
las mejores condiciones posibles.
El control de recepción se realiza sobre partidas o lotes de unidades
recibidas ya sean materias primas, semielaboradas o acabadas y con el
propósito de inspeccionar si se verifican las especificaciones establecidas
(Navarrete, 1998).
Las herramientas estadísticas que se utilizan en el control estadístico de
la calidad son las siguientes:
Estadística descriptiva: histogramas y diagramas de probabilidad que se
utilizan en el estudio de la capacidad del proceso.
Variables estadísticas: medidas de posición y dispersión.
5
Distribuciones: binomial, chi-cuadrado, t- Student y F Snedecor.
Test de hipótesis.
Análisis de la varianza
Estudio de la desviación típica muestral en poblaciones normales
Estudio de la distribución del rango muestral dentro del contexto de los
estadísticos ordenados.
5.1.1 Distribución de frecuencias.
Estudiemos el caso de control por variables, es decir estamos
midiendo con un instrumento cuya resolución nos permite medir
las variaciones que produce nuestro proceso.
Una vez que el inspector recibe la muestra tomada
estadísticamente de la población a valorar, procede a las
correspondientes mediciones de cada una de las muestras.
Téngase presente que lo más probable es que en cada unidad se
hagan varias mediciones por variables y por atributos.
Como resultado de esta acción tendremos una tabla de
valores desordenados e incomprensibles. Lo primero que
deberemos hacer es clasificarlas de menor a mayor, luego
agruparlas en clases siguiendo algún criterio que nos permita
acumular los datos dentro de clases, esto es dentro de valores
que contengan varios de estos datos.
Supongamos que tenemos la siguiente tabla de valores
experimentales:
6
38 47 54 61 26 35 28 48 53 44
32 52 46 42 63 35 50 38 35 57
49 68 47 45 65 45 25 19 56 58
44 73 50 40 46 76 40 64 36 42
Total, n: 40 datos
Valor mínimo: 19, valor máximo: 76
Rango, 76-19= 57
5.1.2 Otras distribuciones probabilísticas.
Distribución Continua, o Distribución Gaussiana, o Distribución
Normal
Un histograma se construye a partir de un cierto número
de datos. Pero ¿que le pasaría al histograma si continuamos
aumentando el número de datos? Si el intervalo de clase se
reduce poco a poco a medida que aumenta el número de datos,
se obtiene una distribución de frecuencias continua, como límite
de una distribución de frecuencia relativa. En realidad es una
expresión de la población misma, puesto que se obtiene de un
número infinito de datos.
Existen muchas clases de distribución, y una de las más
frecuentes es la Distribución Normal. En muchos casos, cuando la
variación de una característica de calidad es causada por la suma
de un gran número de errores infinitesimales independientes
debidos a diferentes factores, la distribución de la característica
7
de calidad se aproxima a una distribución normal. La forma de la
Distribución Normal puede describirse como la de una campana.
La siguiente figura muestra la forma de esta distribución:
5.2 Control por variables y atributos. Gráficos de control por variables y
atributos.
Es una herramienta estadística que detecta la variabilidad, consistencia, control y
mejora de un proceso.
La gráfica de control se usa como una forma de observar, detectar y prevenir el
comportamiento del proceso a través de sus pasos vitales.
Así mismo nos muestra datos en una forma estática, tienen por supuesto sus
aplicaciones, y es necesario saber sobre los cambios en los procesos de producción, la
naturaleza de estos cambios en determinado período de tiempo y en forma dinámica,
es por esto que las gráficas de control son ampliamente probadas en la práctica.
Características Generales de las Gráficas de Control
8
El termino consistencia se refiere a la uniformidad en la salida del proceso; es
preferible tener un producto de un proceso consistente, que tener uno con calidad
superior, pero de un proceso intermitente.
Una gráfica de control se inicia con las mediciones considerando, sin embargo
que las mediciones dependen tanto de los instrumentos, como de las personas que
miden y de las circunstancias del medio ambiente, es conveniente anotar en las
gráficas de control observaciones tales como cambio de turno, temperatura ambiente.
Tipos de Gráfica y Características Principales
Para construir una gráfica de control, es importante distinguir el tipo de datos a
graficar pueden ser. Datos continuos, datos discretos, dicha gráfica dependerá del tipo
de datos.
Para la utilización de las gráficas se requiere un procedimiento específico:
Decidir la gráfica de control a emplear
Construir gráficas de control para el control estadístico del proceso
Controlar el proceso, si aparece una anormalidad sobre la gráfica de
control, investigar inmediatamente las causas y tomar acciones
apropiadas.
GRÁFICAS DE VARIABLES
Una gráfica de control X-R, en realidad son dos gráficas en una, una representa los
promedios de las muestras de la (gráfica X) y la otra representa los rangos (gráfica R),
deben construirse juntas, ya que la gráfica X, nos muestra cualquier cambio en la
media del proceso y la gráfica R nos muestra cualquier cambio en la dispersión del
proceso, para determinar las X y R de las muestras, se basan en los mismos datos.
El uso particular de la gráfica X-R es que nos muestra los cambios en el valor
medio y en la dispersión del proceso al mismo tiempo, además es una herramienta
efectiva para verificar anormalidades en un proceso dinámicamente.
9
Algunos puntos importantes a considerar previo a la elaboración de esta
gráfica son:
Propósito de la gráfica
Variable a considerar
Tamaño de la muestra
Tener un criterio para decidir si conviene investigar causas de variación del
proceso de producción.
Familiarizar a l personal con el uso de esta gráfica.
El proceso que se debe seguir para construir una gráfica es:
La construcción de una gráfica de rangos y promedio resulta de formar una
unidad, tanto de la gráfica de promedios como de la de rangos.
Consta de dos secciones, parte superior se dedica a los promedios, y la parte
inferior a los rangos.
En el eje vertical se establece la escala, a lo largo del eje horizontal se numeran
las muestras.
En la gráfica se relacionan estos promedios con los intervalos durante los
cuales se tomaron las muestras. En el eje vertical se indican los valores
correspondientes a los valores de muestras. En el eje horizontal se señalan los
periodos de tiempo en los que se toman las muestras a semejanza que la de
promedios.
La interpretación de esta grafica de promedio y rango seria que a partir de los datos de
la gráfica de promedios y rangos, podemos determinar el valor central del proceso y su
aplicación.
Mediante este proceso está bajo control cuando no muestra ninguna
tendencia y además ningún punto sale de los límites.
Se describen los distintos tipos de tendencia, que son patrones de
comportamiento anormal de los puntos (inestabilidad o proceso fuera de control
estadístico)
10
GRAFICA DE MEDIAS Y DESVIACIONES ESTÁNDAR
Esta gráfica es el instrumento estadístico que sirve para estudiar el comportamiento de
un proceso de manufactura, considerando como indicador la desviación estándar.
La estructura general, está constituida por dos porciones, una se destina al
registro de los promedios de la característica de calidad en consideración y otra para
controlar la variabilidad del proceso.
La ventaja de usar esta gráfica es que para estos valores de n la desviación
estándar es más sensible a cambios pequeños que el rango.
Dentro del procedimiento de construcción para dicha grafica incluye cálculos
de límites de control para las dos partes que constituyen la gráfica y la graficación de
los promedios y desviaciones estándar obtenidos en cada subgrupo.
Es importante la variabilidad del proceso de control, al iniciar la construcción
de la gráfica, si el proceso no muestra estabilidad estadística, entonces la parte
correspondiente a los promedios no será confiable dado que los límites de control de X
dependen del valor medio de s.
GRAFICAS DE MEDIANAS Y RANGOS
Es la herramienta estadística que permite evaluar el comportamiento del proceso a
partir de la mediana y del rango. La estructura es la común a todas las gráficas de
control para variables.
La parte superior registra el valor medio de las características de calidad en
estudio, y la parte inferior indica la variabilidad de la misma.
El cálculo de la mediana, es muy sencillo, de modo que utilizar esta gráfica par
monitorear el proceso es atractivo para el usuario.
El uso de esta gráfica en procesos que actualmente muestren estabilidad
estadística. Como toda gráfica de control, el usuario obtendrá, de una manera
continua, información rápida y eficiente del proceso en estudio; para verificar que el
proceso continua en control o bien para reconocer la aparición de causas especiales de
variación.
11
Para el procedimiento de construcción de esta gráfica es muy similar al de la
gráfica de medias y rangos; estos es calculando los límites de control, luego se grafican
los puntos y se integran los límites de control y líneas centrales, por último se efectúa
la lectura de la gráfica, a fin de ver si el proceso continua estable o bien percibir alguna
situación de anormalidad.
GRAFICA DE CON TROL POR ATRIBUTOS
Las características de calidad que no pueden ser medidas con una escala numérica, se
juzga a través de un criterio más o menos subjetivo.
Los datos se presentan con periodicidad a la gerencia y con ellos se integran números
índices, que son muy importantes en el desarrollo de una empresa, estos pueden
referirse al producto, desperdicio rechazo de materiales.
Dentro de la clasificación de las características calidad por atributos se requiere:
De un criterio
De una prueba
De una decisión
El criterio se establece de acuerdo con las especificaciones.
La prueba consiste en la operación que se realiza para averiguar la existencia o no del
criterio establecido.
La decisión determina que título debe darse a los productos, es decir si pasó o no pasa.
TIPOS DE GRAFICA DE CONTROL POR ATRIBUTOS
P Porcentaje de Fracción Defectiva
np Número de Unidades Defectivas por muestra constante.
U Proporción de Defectos
C Número de Defectos por unidad
GRAFICAS P PORCENTAJE DE FRACCIÓN DEFECTIVA
El porcentaje de artículos defectivos se expresa como fracción decimal para el cálculo
de los límites de control.
La fracción sin embargo, se convierte generalmente en porcentaje cuando se
transcribe en la gráfica y se usa en la presentación general de los resultados.
12
Las muestras que se utilizan para elaborar esta gráfica son de tamaño variable.
Las muestras de tamaño grande permiten evaluaciones más estables del desarrollo del
proceso y son más sensibles a cambios pequeños.
Se utiliza cuando no podemos tener el tamaño de muestra (n) constante, en la
práctica es muy común.
El defectivo son aquellas piezas que no cumplen con especificaciones y es
causa de rechazo.
Los principales objetivos de la gráfica P son:
Poner a la atención de la dirección cualquier cambio en el nivel medio de
calidad.
Descubrir los puntos fuera de control que indican modelos de inspección
relajados.
Proporcionar un criterio para poder juzgar si lotes sucesivo pueden considerarse
como representativos de un proceso.
Esto puede influir convenientemente en la severidad del criterio de aceptación.
GRÁFICA np NUMERO DE UNIDADES DEFECTIVAS POR MUESTRA
Esta gráfica es el instrumento estadístico que se utiliza cuando se desea graficar
precisamente las unidades disconformes, y no el porcentaje que éstas representan,
siendo constante el tamaño de la muestra.
Es necesario establecer la frecuencia para la toma de datos, teniendo en cuenta que
los intervalos cortos permiten una rápida retroalimentación del proceso.
Los principales objetivos de la gráfica np son:
Conocer las causas que contribuyen al proceso
Obtener el registro histórico de una o varias características de una operación
con el proceso productivo.
GRAFICA C NUMERO DE DEFECTOS POR UNIDAD
La gráfica c estudia el comportamiento de un proceso considerando el número de
defectos encontrados al inspeccionar una unidad de producto.
13
La gráfica hace uso del hecho de que artículo es aceptable aunque presente cierto
número de defectos.
Los objetivos de la gráfica c son:
Reducir el costo relativo al proceso
Informar a los supervisores de producción y a la administración acerca del nivel de
calidad.
Determinar qué tipo de defectos no son permisibles en un producto informar de la
probabilidad de ocurrencia de los defectos en una unidad.
Estas graficas deben utilizarse solo cuando el área de oportunidad de encontrar
defectos permanece constante.
GRAFICA u PROPORCIÓN DE DEFECTOS
La gráfica u puede ser usada bajo cada una de las siguientes suposiciones:
Como substituto de la gráfica c cuando el tamaño muestra.
Cuando el tamaño muestra varía, de qué modo la gráfica c no puede usarse.
5.3 Manejo de paquetes informáticos de control estadístico de proceso
Conceptualmente, un paquete estadístico es un conjunto de programas informáticos
específicamente diseñados para el análisis estadístico de datos con el objetivo de
resolver problemas de estadística descriptiva, inferencial o ambos
Es un conjunto de programas y subprogramas conectados de manera que
funcionan de manera conjunta; es decir, para pasar de uno a otro no se necesita salir
del programa y volver a él. Un paquete estadístico permite aplicar a un mismo fichero
de datos un conjunto ilimitado de procedimientos estadísticos de manera
sincronizada, sin salir del programa. De esta forma, la utilidad del conjunto integrado
es mayor que la suma de las partes. En cierto modo, un paquete estadístico es similar a
un paquete ofimático (por ejemplo, Office 97 de Microsoft).
14
Hay paquetes que fueron escritos originalmente para ordenadores tipo
mainframe: SPSS , BMDP , SAS , Minitab , Genstat y GLIM. Los tres primeros se
volvieron muy populares en ese entorno. Actualmente pueden usarse en PC todos
ellos. Otros paquetes se han desarrollado específicamente para PC, sin haber pasado
por la etapa de los mainframes.
Algunas de las variables que es necesario tener en cuenta para comparar
adecuadamente unos paquetes estadísticos de otros son, esencialmente, las seis que
se mencionan a continuación:
1.- Coste: Este es uno de los puntos más importantes que hay que tocar al
momento de elegir un Paquete Estadístico, desafortunadamente, el coste de sus
licencias está fuera del alcance de la mayor parte de los usuarios y la obtención de
copias subrepticias no es posible para muchos ni fácil en absoluto para ninguno.
2.- Nivel de sofisticación del usuario: Idealmente, éste debería ser un
entendido en estadística y tener ciertos conocimientos de programación. En la medida
que carezca de los segundos, tendrá que renunciar a realizar por su cuenta cierto tipo
de análisis que vayan más allá de los más comunes; y en tanto que carezca de los
primeros, será más dependiente de aquellos paquetes con un interfaz más
informativo.
3.- Tamaño del conjunto de datos: En la mayor parte de los problemas -al
menos, en lo que respecta a su número, no a su dificultad ni importancia- esta variable
no supone ninguna restricción significativa. De hecho, la mayotia de los paquetes
pueden manejar sin mayores problemas conjuntos de datos no excesivamente
grandes. Sólo cuando se rebasa cierto umbral es preciso considerar paquetes
específicamente diseñados para hacer frente a este tipo de condicionantes. Los
distribuidores de muchos paquetes estadísticos comerciales suelen hacer hincapié en
la probada capacidad de sus productos para manipular grandes conjuntos de datos.
Desafortunadamente para ellos, el rango de problemas en que estas virtudes son
críticas se estrecha aceleradamente: por una parte, las ampliaciones de memoria son
cada vez más económicas, elevando hasta niveles muy cómodos el umbral a partir del
cual serían necesarios productos más sofisticados; por la otra, para los problemas en
que los conjuntos de datos son verdaderamente grandes -bases de datos de
corporaciones, información censal, etc.- pueden emplearse herramientas específicas
15
como, por ejemplo, programas escritos en C que interactúen con el gestor de la base
de datos.
4.- Grado de intensidad computacional: El incremento en la potencia
computacional de los ordenadores permite hoy en día aplicar ciertas técnicas
estadísticas impensables hace unos años y ampliar su campo de aplicación a ámbitos
inasequibles para las tradicionales. Las técnicas de remuestreo o de validación cruzada,
ciertos tests exactos y gran parte de las técnicas bayesianas exigen una enorme
capacidad de cálculo. No todos los paquetes estadísticos están igualmente adaptados
para este tipo de problemas. Con muchos de ellos -por ejemplo, Minitab, Stata y gran
parte de los paquetes gratuitos- resulta simplemente imposible porque fueron
diseñados únicamente para implementar técnicas tradicionales y carecen de un
verdadero lenguaje de programación asociado que resulte eficiente.
5.- Ergonomía: Curiosamente, el aspecto que tal vez más encarezca
determinados paquetes estadísticos es el ergonómico: la posibilidad de contar con
ayudas interactivas o tutoriales, de representar gráficamente datos con un golpe de
ratón, de exportar automáticamente los resultados a formato .html o .pdf, etc. Bajo
cierto punto de vista, el coste de las licencias es, de hecho, el coste de la impericia o la
pereza. A la primera, en mercadotecnia, se la suele denominar productivity; a la
segunda, learning curve. Es más productivo y exige menor esfuerzo mental un paquete
estadístico en que para imprimir no haya sino que pulsar el icono de la impresora, en
que para visualizar unos datos baste con visitar el menú Gráficos o el Importar para
leer datos de un fichero con el formato de cierta hoja de cálculo. Este tipo de
habilidades son realmente reduntantes si se cuenta con un mínimo de habilidad y no
se pretende escatimar un adarme de esfuerzo: utilizando ficheros de texto como
intermediarios, se pueden intercambiar datos con cualquier hoja de cálculo o con otros
programas que permiten manipular datos o gráficos, gran parte de los cuales son de
distribución gratuita.
6.- Facilidad de programación: Si bien contar con lenguajes de programación
complejos no es lo deseable, si lo es disponer de la capacidad de generar programas
sencillos tipo "batch files" que permitan realizar tareas de transformación, cálculo de
datos, realización de pruebas estadísticas, generación de nuevos archivos y
documentos conteniendo resultados sin necesidad de estar digitando cada vez los
comandos correspondientes, con el consiguiente ahorro de tiempo y esfuerzo.
16
VENTAJAS Y DESVENTAJAS DE LOS PAQUETES ESTADÍSTICOS.
Debido a las diferencias existentes entre los paquetes estadisticos, mencionaremos
individualmente las ventajas y desventajas de algunos de ellos, desarrollando
mayormente los Paquetes mas conocidos como son SAS y SPSS y de muchos otros solo
se mencionara su existencia.
- SAS, Statistical Analysis System (SAS Institute Inc., Cary , NC)
http://www.sas.com
* Comprende amplias posibilidades de procedimientos estadísticos
(métodos multivariados, regresión múltiple con posibilidades
diagnósticas , análisis de supervivencia con riesgos proporcionales y
regresión logística) y permite cálculos exactos para tablas r x c y
contiene potentes posibilidades gráficas.
* Todos los procedimientos pueden emplearse de una sola ejecución.
* Los resultados pueden guardarse como archivos y usarse como
entradas para futuras ejecuciones.
* Es particularmente útil en la gestión de datos y en la redacción de
informes.
* Algunos procedimientos tienen varias opciones por lo cual debe
examinarse cuidadosamente el manual antes de seleccionar la opción
deseada.
* SAS ofrece la mayor flexibilidad para personalizar el manejo y análisis
de datos, sin embargo su principal inconveniente es que no resulta fácil
aprender a usarlo.
- SPSS, Statistical Package for the Social Sciencies (SPSS Inc. , Chicago)
17
* Dispone de un amplio conjunto de métodos estadísticos
(multivariados, series temporales, regresión logística y análisis de
supervivencia).Todos los procedimientos pueden emplearse de una
sola ejecución.
* Algunos procedimientos tienen varias opciones por lo cual debe
examinarse cuidadosamente el manual antes de seleccionar la opción
deseada. SPSS es el más fácil de aprender para los investigadores
principiantes y tiene un manual que explica la filosofía y los
mecanismos de las técnicas estadísticas.
* Puede creerse que SPSS es un producto caro y ligado a compras
costosas. Esto no es totalmente cierto. Si bien no es un producto
barato, sí es rentable. De hecho, el éxito de SPSS se debe a:
Vinculación de los objetivos a las necesidades de la empresa.
Perfecto Acoplamiento a un Plan de Investigación bien
formulado.
Servicio de Calidad para los usuarios.
Eficaz Evaluación de los Resultados hallados.
Facilidad del Manejo y de la Programación.
ALGUNAS DIFERENCIAS ENTRES LOS DOS GRANDES (SAS y SPSS)
Precio
El precio de SPSS es mucho menor que el del programa SAS, en torno a la mitad del
precio.
Rentabilidad
Recomendable para PYMES (hasta 500 trabajadores), SPSS es la mejor solución. Para
grandes empresas (más de 500 empleados) o aquellas que puedan permitirse un
fuerte desembolso sin necesidad de retorno a corto plazo, SAS es más rentable que
SPSS, ya que permite ejecutar mayor número de procedimientos estadísticos y
operativos.
18
Facilidad
El manejo de SPSS es mucho más sencillo que el de SAS. El interfaz estilo hoja de
cálculo de SPSS y su posibilidad de abrir ventanas muy comprensivas le convierten en
un feo adversario para SAS. No obstante, SAS, una vez conocido el manejo de su
lenguaje de programación, es más divertido que SPSS.
Formación
La dependencia absoluta del lenguaje de programación por parte de SAS le hace muy
vulnerable ante necesidades repentinas, ya que obliga a la Empresa a costear caros
programas de formación, con el fin de permitir que su personal le saque el máximo
provecho. SPSS, sin embargo, al ser mucho más fácil, no encadena al usuario a largos
procesos formativos, sino que, en un tiempo mucho más corto que SAS, puede realizar
complejos procedimientos de análisis sin esfuerzo.
Robustez
La dependencia absoluta de Windows por parte de SPSS le hace muy vulnerable ante
"caídas" del sistema, normalmente provocadas por acciones ilícitas del usuario. El
programa SAS, por su parte, al tener su propio sistema operativo, toma la iniciativa del
sistema, una vez arrancado, no permitiendo que una acción no autorizada por parte
del usuario paralice el trabajo del operario
- BMDP http://www.spssscience.com/Bmdp/
Es el más antiguo de los paquetes. El primer manual para BMD
Biomedical Computers Programs se publicó en 1961.En 1975 pasó a
denominarse BMDP. Cubre un amplio abanico de métodos estadísticos
pero su capacidad para manejar datos es limitada.
Desventajas: sus programas se ejecutan por separado: solo puede
accederse a uno de ellos en cada ejecución.
Los resultados de cada programa se pueden guardar en un archivo de
BMDP y utilizarse como entrada en otros programas.
- Epi Info (Center for Diseases Control/WHO, Dean et al).
http://www.cdc.gov/epiinfo
19
Posee un excelente manejo de cuestionarios y entrada de datos. Posee escasos pero
muy potentes comandos para el análisis estadístico y funciona prácticamente en
cualquier computadora y sus utilitarios más importantes requieren escasos recursos
informáticos. Es ideal para epidemiología de campo.
No posee métodos multivariados ni estadísticas de supervivencia. No tiene costo. Las
versiones actuales "corren" en DOS. Se está implementando una versión para
Windows.
- Minitab Statistical Software (State College , Pa) http://www.minitab.com
Permite uso interactivo y es popular entre estudiantes y usuarios no especializados
aunque no contempla tantos métodos estadísticos como SPSS, SAS o BMDP, incluye
regresión múltiple. No es adecuado para conjuntos de datos pequeños
- Stata Statistical Package (Stata Corporation ,Computing Resource Center,
College Station , Texas) http://www.stata.com
Tiene muy amplias capacidades estadísticas aplicables a áreas biológicas, del
comportamiento y económicas.
- Stat View Software (Abacus Concepts INC, Berkeley)
http://www.statview.com
Fácil de aprender y operar y dispone de tests básicos y capacidades gráficas, pero no es
capaz de manejar grandes conjuntos de datos ni dispone de estadísticas de análisis de
sobre-vida ni regresión logística.
- StatXact 3 (V3 Cytel Software Corporation , Cambridge , Massachussetts)
http://www.cytel.com
Por primera vez pone a disposición en forma práctica cálculos exactos para datos
discretos, como por ejemplo el test exacto para una tabla r x c, test de tendencia
exacta para tabla r x 2 y el test exacto para la combinación de tablas 2 x 2 cuando falla
el test de Mantel-Haenszel.
También permite el cálculo para niveles de significación semi-p , uso recomendado por
Armitage para datos discretos.
- Genstat, General Statistic Program
20
Se le considera uno de los paquetes más difíciles de aprender. Es al mismo tiempo un
lenguaje y un paquete de modo que el tipo de operaciones algebraicas usadas
habitualmente en estadística pueden programarse facilmente lo que permite la
ejecución de métodos nuevos. Por ello es popular entre los estadísticos que se
encuentran desarrollando nuevos métodos o variantes de métodos existentes. Tiene
buenos recursos para analizar experimentos diseñados.
- GLIM, Generalized Linear Interactive Modelling
http://www.nag.com/stats/GDGE.html
Fue escrito para ajustar modelos lineales en forma interactiva lo que permite al
investigador avanzar mediante la prueba y ajuste de diferentes modelos, con lo que
puede agregar o descartar variables y apreciar el efecto de estos cambios antes de
decidir el siguiente paso. Es más útil en tamaños pequeños a medianos de datos
- Prophet (National Center for Research Resources , National Institutes of
Health. BBN Systems and Technologies , 1997) http://www-prophet.bbn.com
Es un paquete aún en etapa de prueba. Es bastante semejante en sus disponibilidades
a SPSS, pero pensamos que es superior en la presentación de los resultados. Tiene un
excelente y didáctico manual en línea por medio de Internet.
- Arcus Quickset Biomedical (Research Solutions, Cambridge, England)
http://www.researchsolutions.com/arcus_quickstat/index.html
- Cricket Graph III (Islandia , NY)
http://www.cjs.cadmus.com/da/instructions/cricket_mac.html
- CSS Statistical Software (Statsoft Inc)
- EGRET . Epidemiologycal Graphics and Testing Package (Statistic and Research
Corporation , Washington,1988) http://www.cytel.com/products/egret
- Epicure Peanuts (Hirosoft International Corporation , Seattle,
Washington,1993) http://www.hirosoft.com/index.html
- GRAPHROC.Maximatti Oy , Xerttulink , Finland
http://www.saunalahti.fi/~maxim
- Graphpad Instat software http://www.graphpad.com
21
- HLM V4.0 (Scientific Software International , Chicago , Illinois)
http://www.ssicentral.com/hlm/hlm.htm
- JMP Software V3.01, V3.15, V3.2 (SAS Institute,Cary,NC)
http://www.jmpdiscovery.com/
- LISREL V8. Scientific Software International , Chicago , 1993
http://www.ssicentral/com/lisrel/mainlix/htm
- Lotus (Lotus Development Corporation) http://www.lotus.com
- Microsoft Excel http://www.microsoft.com/office/excel/default.htm
- MLn. Multilevel Statistical Models , London
- MLWIN (Multilevel Modeling for Windows).Institute of Education , London ,
1998 http://ioc.ac.uk/mlwin
- NUD*IST V4.0 . Qualitative Solution and Research , Victoria , Australia
http://www.qsr.com.au
- Report V6.0.08 (IDV , Munich , Germany)
- Review Manager. RevMan.The Cochran Collaboration , Oxford) Versiones 3.1,
4.0 http://hiru.mcmaster.ca/cochrane/cochrane/revman.htm
- ROC Analyzer V09B (Centrosoft , Birmingham , Alabama)
- Sigmastat V2.0 (Jandel Scientific) http://www.spssscience.com/sigmastat
- Simstat V3.5 http://www.kovcomp.co.uk
- S-Plus Statistical Package (Stat Sci , Seattle and Europe)
- Statigraphics (Manigistics)
- Statistica (Statsoft, Tulsa Ok)
- Statprobe (Ann Arbor, Mich) http://www.statprobetechnologies.com
- Stat Soft (Tulsa, Okl) http://www.statsoftinc.com
- SUDAAN. Analysis with Complex Samples , Lavange LM
http://www.rti.org./patents/sudaan/sudaan.html
22
- SYSTAT Software (Wilkinson, 1990, SYSTAT Inc)
http://www.spssscience.com/systat
- Testimate V5.2ª (IDV, Munich, Germany)
- True Epistat (Epistat Services) http://www.true_epistat.com
- Clinfo Systems (Southern California School of Medicine)
- Egret (Statistics and Epidemiology Research Corporation)
- GBSTAT http://www.gbstat.com/index1.htm
- LogXact http://www.cytel.com/new.pages/LX.2.html
- NCSS V6.0 (J.L. Hintze , Kaysville , Utah) http://www.ncss.com
- SIP - Sistema Informático Perinatal http://www.clap.hc.edu.uy
- SPIDA (Gebski et al, 1992)
- Statistix (NH Analytical Software) http://www.statistix.com
INTRODUCCIÓN
Un Paquete Estadístico es un conjunto de programas y subprogramas conectados de
manera que funcionan de manera conjunta; es decir, para pasar de uno a otro no se
necesita salir del programa y volver a él. Un paquete estadístico permite aplicar a un
mismo fichero de datos un conjunto ilimitado de procedimientos estadísticos de
manera sincronizada, sin salir del programa. De esta forma, la utilidad del conjunto
integrado es mayor que la suma de las partes. En cierto modo, un paquete estadístico
es similar a un paquete ofimática Este, entre otros temas como las ventajas y
desventajas de cada uno de los paquetes estadísticos por nosotros conocidos, serán
tocados y ampliados en este trabajo.
CONCLUSIÓN
A la vista de lo investigado, podemos decir que los Paquetes Estadísticos son muy
útiles al momento de hacer cálculos estadísticos pero, los usuarios que sólo se
aproximan circunstancialmente a problemas de tipo estadístico y que sólo buscan
soluciones poco sofisticadas y puntuales deben reexaminar las rutinas estadísticas de
cualquier hoja de cálculo, incluyendo, tal vez, algunos de los macros de libre
23
distribución que pueden encontrar en Internet, usar algún programa gratuito con un
interfaz simple como los que pueden encontrarse e Internet o tal vez, buscar en
Internet alguna de las cada vez más numerosas páginas en las que es posible realizar
interactivamente y en línea determinadas manipulaciones estadísticas.
Por otra parte, a aquellos usuarios que tengan que realizar análisis estadísticos
más complejos y de una forma más regular podrían tomar como primera opción R,
programa gratuito que pueden descargarse en internet. Usado en combinación con
otro tipo de programas que extienden su capacidad gráfica -hojas de cálculo,
procesadores de texto, programas específicos para la representación de datos,
JavaScript, etc.- puede realizar con un coste nulo análisis sumamente sofisticado que,
incluyen, tal vez, el 99% de los que precisan el 95% de los usuarios. Sólo un número
pequeño de ellos echaría en falta alguna de las herramientas adicionales que incluye
su versión comercial, S-Plus, o tal vez alguna de las de SAS o SPSS u otros.
5.4 Capacidad de proceso y de máquinas.
La capacidad del proceso es la forma en que se compara la variabilidad inherente de
un proceso con las especificaciones o requerimientos del producto. Las técnicas
estadísticas pueden ser útiles en el ciclo de un producto, incluyendo las actividades de
desarrollo previas a la manufacturas, para cuantificar la variabilidad del proceso, para
analizar esta variabilidad respecto de los requerimientos o especificaciones del
producto y para ayudar al personal de desarrollo y manufactura a eliminar o reducir en
gran medida esta variabilidad. A esta actividad general se le llama análisis de capacidad
del proceso. Evidentemente, la variabilidad del proceso es una medida de la
uniformidad de la salida. Hay dos formas de conceptuar esta variabilidad:
La variabilidad natural o inherente en un tiempo especificad; la
variabilidad“instantánea”.
La variabilidad con el tiempo. El análisis de capacidad del proceso se define
como el estudio de ingeniería para estimar la capacidad del proceso. La estimación de
la capacidad del proceso puede estar en la condición de una distribución de
probabilidad que tenga una forma, centro (media)y dispersión (desviación estándar)
especificados. De manera alternativa, la capacidad del proceso puede expresarse como
24
un porcentaje fuera de las a especificaciones. Sin embargo, las especificaciones son
necesarias para realizar el análisis de capacidad del proceso. El análisis de capacidad
del proceso es una parte vital de un programa integral de mejoramiento de calidad.
Entre los usos principales de los datos de un análisis de capacidad del proceso se
encuentran los siguientes:-
Predecir el grado de variabilidad que exhibirán los procesos. Esta información
de capacidad proporcionará la información importante para establecer límites de
especificación realistas.-
Seleccionar, entre procesos que compiten, el proceso más adecuado para que
las tolerancias se cumplan. Planear la interrelación entre procesos secuenciales. La
cuantificación delas capacidades respectivas del proceso con frecuencia señala el
camino para encontrar una solución. Proporcionar una base cuantitativa para
establecer un programa de verificación de control periódico del proceso reajustes.
Asignar máquinas a los tipos de trabajos para los cuales son más adecuadas.
Probar las teorías de las causas de defectos durante los programas de
mejoramiento de calidad.
Servir como base para la especificación de los requerimientos de calidad para
las máquinas compradas. Por tanto, el análisis de capacidad de un proceso es una
técnica que tiene aplicación en muchos segmentos del ciclo del producto, incluyendo
el diseño de producto y procesos, la fuente de proveedores, la planeación de la
producción o la manufactura, y la propia manufactura. La fórmula para la capacidad
del proceso que más se usa es: Capacidad del proceso.
5.4.1 Construcción e interpretación en la recta de probabilidad.
En el estudio de variables bidimensionales tiene mucho interés buscar posibles
relaciones entre las variables. La más sencilla de estas relaciones es la
dependencia lineal donde se supone que la relación entre dos variables X e Y
viene dada por la ecuación Y = a + bX. Sin embargo, este modelo supone que
una vez determinados los valores de los parámetros a y b es posible predecir
exactamente la respuesta Y dado cualquier valor de la variable de entrada X.
25
En la práctica tal precisión casi nunca es alcanzable, de modo que lo máximo
que se puede esperar es que la ecuación anterior sea válida sujeta a un error
aleatorio, es decir, la relación entre la variable dependiente (Y ) y la variable
regresora (X) se articula mediante una recta de regresión que llamaremos
recta de regresión de Y sobre X para resaltar que se ha obtenido suponiendo
que Y es la variable respuesta y que X es la variable explicativa.
Intercambiando los papeles de X e Y obtendremos una recta de
regresión llamada recta de regresión de X sobre Y que representada en el
mismo eje de coordenadas será en general distinta de la anterior. Solamente
coincidirán en el caso de que la relación entre X e Y sea exacta.
5.4.2 Cálculo de índices de capacidad para máquinas y procesos.
Se dice que un proceso está bajo control estadístico cuando sólo se
producen variaciones debidas a causas comunes. En otras palabras el objetivo
y razón de ser control Estadístico de Procesos es ayudar a identificar las causas
especiales que producen variaciones en el proceso y suministrar información
para tomar decisiones.
La capacidad de un proceso está referida a su habilidad para producir
unidades cuyos valores de la características a medir, se distribuyan a lo largo
de una banda lo suficientemente estrecha como para un centrado del proceso
conlleve a que todos los productos caigan dentro de las especificaciones del
cliente. Luego la capacidad de un proceso está determinada por su variación
total, debida a causas comunes (mínima variación que queda después de
eliminar las causas especiales).
5.5 Planes de muestreo.
26
En los últimos años ha ido disminuyendo el interés del muestreo de aceptación, en
tanto el control estadístico de procesos ha venido adquiriendo un papel cada vez más
prominente en las actividades del control de calidad.
No obstante, el muestreo de aceptación aún mantiene el interés dentro del
cuerpo general de conocimiento que es la ciencia de la calidad.
El muestreo de aceptación se lleva en diversas situaciones en donde existe una
relación ente consumidor y productor, ya sea en el interior de una empresa o entre
diferentes empresas, y se puede ver como una medida defensiva para protegerse
contra la amenaza del posible deterioro en la calidad. Es posible que Productor y
Consumidor sean cada uno de diferente compañía o en dos departamentos diferentes
dentro de una misma planta, sea como fuere, existe siempre el problema de decidir si
se acepta o se rechaza el producto.
En particular si las características de calidad son variables de atributos,
entonces un plan simple de muestro de aceptación está definido por:
N ------- Tamaño de lote
n ------ tamaño de la muestra
c ------ número de aceptación
Se debe tener claro que el muestreo de aceptación, al ser una forma particular de
inspección, simplemente acepta y rechaza lotes, pero no mejora la calidad. Es decir el
muestreo de aceptación no es una estrategia de mejora de la calidad, es mas bien una
forma de garantizar que se cumplan ciertas especificaciones de calidad que han sido
definidas, tampoco este tipo de muestreo proporciona buenas estimaciones de la
calidad del lote
Donde aplicarlo:
En elementos (componentes) terminados.
Componentes y materias primas.
Operaciones.
Materiales en proceso.
Materiales en almacenamiento.
Operaciones en almacenamiento.
27
Datos o Registros.
Procedimientos administrativos.
Cuando aplicarlo:
Cuando la aplicación de una prueba implica la destrucción del producto (ej.
Prueba de un fusible eléctrico).
Cuando el costo es alto para hacer una inspección del 100% es muy elevado,
comparado con el costo que implica pasar una unidad no conforme.
Cuando son muchos y similares las unidades que se van a inspeccionar, el
muestreo produce una mejor opción que el inspeccionar al 100%.
Cuando no se dispone de información sobre la calidad de producto, ejemplo, la gráfica
X, R, p, o c.
Cuando el lote lo forman una gran cantidad de artículos que habria que inspeccionar y
la probabilidad de error en la inspección es suficientemente alta, de tal manera que la
inspección al 100% podría dejar pasar más unidades defectuosas que un plan de
muestro.
Cundo no se dispone de una inspección automatizada.
Cuando es necesario asegurar la confiabilidad del producto, aunque la capacidad del
proceso fabricante del lote sea satisfactoria.
En situaciones donde históricamente el vendedor ha tenido excelentes niveles de
calidad y se desea una reducción de la cantidad de inspección, pero la capacidad del
proceso no es suficientemente buena como para no inspeccionar.
Ventajas:
La responsabilidad por la calidad se asigna a quien verdaderamente
corresponde, ¡No a la inspección!, esto favorece una rápida mejora del
producto.
Es más económico, puesto que se tienen que hacer menos inspecciones, y se
producen menos daños por manipulación durante la inspección.
Permite mejorar la tarea de inspección, pero en vez de tomar decisiones de
pieza con pieza, las decisiones se toman de lote a lote.
Útil en el caso de pruebas que implican destrucción.
28
Se orienta más al rechazo de lotes enteros más que a la devolución de
unidades no conformes.
Desventajas:
Existe cierto riesgo de que se rechacen lotes conformes y/o acepten lotes no
conformes.
Se tiene que dedicar más tiempo a la planeación y a la documentación.
Se proporciona menos información sobre el producto aunque generalmente
ésta es suficiente.
No hay ninguna seguridad dado que la totalidad del lote cumpla con las
especificaciones.
5.5.1 Curvas características y tipos de muestreo (UNE 66.020).
5.5.2 Control secuencial y control continuo.
Sistema de control secuencial
En los procesos, se evidencia a veces la presencia de variables caracterizadas
por tomar valores de sólo dos posiciones por ejemplo, abierto o cerrado, alto o
bajo, lleno o vacío, etc., y el accionamiento de la variable manipulada solo
tiene lugar cuando se ha detectado alguna de esas posiciones antagónicas
dando lugar a la aplicación del denominado control secuencial, o sea la
automatización de procesos según secuencias lógicas
Sistemas de control en procesos Continuos y Discontinuos Los procesos
pueden ser continuos desde que la mayor parte del tiempo se realizan en
régimen permanente o estacionario, como en las plantas de producción y
distribución de gas y petróleo, agua potable, petroquímica, destilerías, plantas
de energía, etc. Otros tipos de procesos, discontinuos, se caracterizan por la
producción en lotes, en cantidades limitadas, tales como en las industrias
farmacéuticas, alimenticias, especialidades medicinales, microelectrónica, etc.
29
5.5.3 Utilización de tablas de muestreo.
El gran volumen de las operaciones o elementos a verificar en una auditoría,
hace que esta sea muy costosa y requiera de gran cantidad de tiempo para su
ejecución, por lo cual es necesario que los auditores dominen las principales
técnicas de muestreo y el uso de tablas y fórmulas matemáticas aplicables a
dichas técnicas.
La determinación del tamaño de muestra en la realización de un
estudio estadístico es una de las etapas más importantes, por lo que debe
afrontarse con estricto apego a las consideraciones de carácter técnico de la
teoría estadística, así como a los objetivos de la investigación y a los usos
futuros de la información.
La revolución informática ha penetrado en todas las facetas de la vida
del ser humano, y el campo de la auditoría no puede estar ajeno a tales
desafíos. Si los objetivos y los principios básicos de la auditoría no han
cambiado sustancialmente, sus técnicas de trabajo, métodos y herramientas,
han experimentado una modificación radical. El auditor contemporáneo debe
dominar las nuevas herramientas que la informática pone a su alcance, para
poder enfrentar con éxito los retos de la automatización de la gestión
económica, contable y financiera de empresas y entidades.
El auditor debe dirigir sus esfuerzos al empleo de programas y sistemas
informáticos para la determinación de la muestra y la selección de los
elementos a investigar, lo que actualmente resulta una necesidad para su
rapidez, confiabilidad y el uso extendido de las técnicas de computación
aplicadas a la contabilidad y al control.
La utilización de un programa de computación adecuado y confiable,
conduce a la obtención de mejores resultados y mayor calidad de estos. El
tiempo es otra ganancia de esta moderna práctica, al reducir el período de
exámenes y procedimientos, así como sus costos. Pero hay más: mejora la
información, garantiza un mínimo de interrupciones al centro supervisado, y
brinda absoluta independencia de trabajo al especialista.
30
5.6 Análisis de regresión: Correlación y de la varianza (ANOVA).
En estadística, el análisis de la varianza (ANOVA, ANalysis Of VAriance, según
terminología inglesa) es una colección de modelos estadísticos y sus procedimientos
asociados, en el cual la varianza está particionada en ciertos componentes debidos a
diferentes variables explicativas.
Las técnicas iniciales del análisis de varianza fueron desarrolladas por el
estadístico y genetista R. A. Fisher en los años 1920 y 1930 y es algunas veces conocido
como "Anova de Fisher" o "análisis de varianza de Fisher", debido al uso de la
distribución F de Fisher como parte del contraste de hipótesis.
5.7 Aplicación de la informática al control del proceso.
La gestión de calidad se ha convertido actualmente en un factor clave de
competitividad, siendo vital para organizaciones de todo tipo la certificación según
normas que les permitan acreditar el cumplimiento de niveles de calidad elevados.
Visual Factory 7 es un conjunto de aplicaciones informáticas para la gestión de
calidad destinadas tanto a simplificar la implantación de un sistema de calidad
conforme a las normas ISO 9000 y ISO TS 16949, como a asegurar la aplicación
sistemática del mismo.
Agilidad. El software para el control y gestión de calidad Visual Factory es ágil
ya que es fácil de instalar y de utilizar. El usuario se familiariza inmediatamente con su
interface de usuario que es tremendamente intuitivo y sigue los estándares utilizado
por el software ofimático que está acostumbrado a utilizar.
Flexibilidad. Es una de las características más importantes de todas las
aplicaciones Visual Factory. Sabemos que no todas las empresas son iguales ni tienen
las mismas necesidades, por ello las aplicaciones se han diseñado para que puedan
configurarse y adaptarse a los requerimientos de cada uno de nuestros clientes:
Fácil configuración de vistas que permite presentar la información como la
precisamos.
31
Fácil e intuitivo diseñador de informes incorporado.
Posibilidad de enlace con datos generados por otras aplicaciones, por ejemplo
ERP.
Integración con Crystal Report, que permite realizar informes sofisticados
aglutinado datos de diferentes fuentes.
ELECSOFT diseña y desarrolla íntegramente todas las aplicaciones Visual
Factory. Por ello nos es posible realizar ampliaciones o diseñar nuevos módulos
complementarios en caso necesario, con el fin de implantar una solución que se ajuste
al 100% a las necesidades y especificaciones de cada cliente.
Para aquellas aplicaciones que permiten la entrada de datos desde dispositivos
de medida existen interfaces de comunicación de datos con múltiples instrumentos de
medida. En caso de que el cliente desee conectar instrumentos de medida para los que
aún no exista interface, se suministra una aplicación para que el cliente pueda
desarrollar sus propios interfaces, o alternativamente estos pueden ser desarrollados
por Elecsoft a partir de la información suministrada por el fabricante del instrumento.
Las bases de datos de las aplicaciones utilizan un formato de datos abierto y
documentado para que el cliente pueda explotar esta información mediante
herramientas de consulta estándar (Access, Excel) o aplicaciones propias.
Escalabilidad. Las aplicaciones de la familia Visual Factory poseen diferentes
versiones para cubrir todas las necesidades. Desde versiones monousuario utilizando
Microsoft Access hasta versiones multiusuario utilizando Microsoft SQL Server. Esto
permite que puedan ser utilizadas tanto por clientes que generan unos pocos cientos
de registros al año como por clientes que generan cientos de miles de registros al año.
Seguridad. Todos estos programas para la gestión de calidad disponen de un
potente gestor de usuarios, grupos de usuarios y permisos. Esto permite definir
diferentes niveles de acceso, adaptandose el interface de usuario de la aplicación para
cada nivel, de forma que cada usuario vea la aplicación personalizada según sus
propias necesidades.
I+D+I. ELECSOFT reinvierte gran parte de sus beneficios en investigación,
desarrollo e innovación. Esto nos permite actualizando constantemente las
32
aplicaciones a las nuevas tecnologías y normativas, al tiempo que ampliamos la familia
de soluciones con nuevos productos.
Aplicaciones estándar. El diseño de Visual Factory se basa en los referenciales
más actuales en cuanto a normativa de calidad. En este sentido, podemos afirmar que
Visual Factory 7 cumple con los requisitos de ISO 9000 e ISO TS 16949. Por otro lado, al
ser aplicación ampliamente utilizadas por empresas líderes en sus respectivos sectores
de la industria (más de 1.000 licencias vendidas) obtenemos una importante
realimentación por parte de nuestros clientes, lo que nos permite detectar
rápidamente las nuevas necesidades del mercado e incorporarlas a las nuevas
versiones de las aplicaciones.
Globalidad. En la coyuntura actual es importante utilizar aplicaciones
informáticas que permitan funcionar en entornos multiidioma. Las aplicaciones Visual
Factory permiten mostrar el interface de usuario en diferentes idomas, pudiendo
conmutar fácilmente entre ellos.
Confianza. Nuestros consultores le aportarán soluciones completas,
estudiando y analizando a fondo sus necesidades para ofrecerles la mejor solución, con
total confianza y con unos tiempos de implantación realmente cortos. Todo ello
respaldado por la eficacia de nuestro soporte técnico, para que pueda aprovechar
todas las características que le ofrece Visual Factory.
Rentabilidad. El entorno de desarrollo propio diseñado por ELECSOFT (Elecsoft
Application Framework) nos permite trabajar con la última tecnología informática con
unos tiempos de desarrollo reducidos que repercuten directamente en el precio del
producto. Además la facilidad de uso permite reducir drásticamente los costes de
formación e implantación. Por todo ello podemos ofrecer soluciones muy completas a
unos precios muy competitivos.
Ámbito. Las aplicaciones de Visual Factory 7 son aptas para todo tipo de
empresas e industrias de manufactura. Estas aplicaciones de gestión de calidad han
sido implantadas en numerosas fábricas del sector del automóvil, químico,
farmacéutico, metalúrgico, siderúrgico, del plástico, etc.
33
6 Herramientas de la calidad aplicadas a la mejora de la calidad.
En 1968 Kaoru Ishikawa propone siete herramientas de la calidad, un conjunto de técnicas
estadísticas sencillas que no requieren de un conocimiento experto, para ser aplicadas en los
procesos de equipo, por los círculos de calidad. Según Ishikawa, con ellas es posible resolver el
95% de los problemas que presenta una organización, sobre todo en el área de producción
(Ishikawa, 1986).
Estas herramientas, que posteriormente fueron denominadas “las siete herramientas
básicas de la calidad”, pueden ser descritas genéricamente como métodos para la mejora
continua y la solución de problemas.
Las siete herramientas de la calidad son:
Diagrama Causa – Efecto (Diagrama de Ishikawa)
Hoja de Comprobación (Hojas de Verificación).
Gráficos de Control.
Histograma.
Diagrama de Pareto.
Diagrama de Dispersión.
Estratificación.
El éxito de estas técnicas radica en la capacidad que han demostrado para ser aplicadas en un
amplio rango de problemas, desde el control de calidad hasta las áreas de producción,
marketing y administración. Las organizaciones de servicios también son susceptibles de
aplicarlas, aunque su uso comenzara en el ámbito industrial.
Estas técnicas pueden ser manejadas por personas con una formación media, lo que ha
hecho que sean la base de las estrategias de resolución de problemas en los círculos de calidad
y, en general, en los equipos de trabajo conformados para acometer mejoras en actividades y
procesos.
En el año 1972, un comité de la JUSE (Union of Japanese Scientists and Engineers)
comenzó a trabajar sobre otras herramientas de la calidad para ser utilizadas por directivos y
especialistas, y susceptibles de ser aplicadas por el personal de base. Con ello se pretendió ir
más allá de un punto de vista centrado en el análisis de datos cuantitativos, adoptando para su
uso un enfoque de diseño para la solución de problemas.
34
En enero de 1977 el comité anunció los resultados de su investigación, seleccionando
un conjunto de siete herramientas denominadas las “siete nuevas herramientas del control de
calidad”.
Estas son herramientas gráficas muy útiles para la dirección (media y alta) que facilitan
la planificación, el establecimiento de metas y la resolución de problemas. De hecho se
conocen también como “las siete herramientas de gestión”.
Unas, ayudan al equipo a analizar y organizar la relación entre datos cualitativos. Otras
permiten clarificar interrelaciones, establecer prioridades y planificar tareas complejas para
alcanzar una meta. Son útiles para mejorar procesos, productos y sistemas. De naturaleza
cualitativa, ayudan a la resolución de problemas y a la gestión de ideas innovadoras.
Estas otras herramientas de la calidad, son:
Diagrama de Afinidad.
Diagrama de Relaciones.
Diagrama de Árbol o Diagrama Sistemático.
Diagrama de Matriz.
Matriz de Priorización.
Diagrama de Proceso de Decisión.
Diagrama de Flechas.
Existen además otras herramientas de la calidad y otros métodos de análisis, planificación y
acción (Diagrama de Flujo, Tormenta de Ideas, Técnica de Grupo Nominal,…) que facilitan el
trabajo de los equipos de mejora o de un equipo de proyecto en general.
6.1 Toma de datos, recopilación, ponderación, presentación numérica y
gráfica de datos. Histogramas.
Los valores observados se suelen registrar en una lista. Si el número de observaciones
no excede 20 o 30, por ejemplo, es posible darse una idea aproximada de la
distribución, simplemente mediante la ordenación de los valores observados,
escribiéndolos en una tabla, en orden creciente de magnitud. Con estos datos
podemos hacer representaciones gráficas y calcular determinadas características
numéricas.
35
Si el conjunto de datos es muy grande, resulta laborioso trabajar directamente
con los valores individuales observados y entonces se lleva a cabo algún tipo de
agrupación, como paso preliminar, antes de iniciar un nuevo tratamiento de los datos.
El procedimiento de agrupación es diferente según la variable aleatoria sea
discreta o continua.
La presentación de los datos en forma agrupada implica alguna pérdida de
información, pero permite apreciar mejor sus características.
Este agrupamiento se hace mediante las llamadas tablas de frecuencias.
En las tablas de frecuencias, en lugar de mostrar individualmente todos los
datos, se informa solamente cuántos de ellos están comprendidos entre determinados
valores, llamados límites de clase. Las clases son intervalos cuyos extremos son los
límites de clase. Generalmente las clases se escogen de igual longitud.
Una regla empírica que se suele aplicar consiste en escoger los intervalos de
clase de tal forma que no haya menos de 10 ni más de 20 clases diferentes.
Veamos cómo se lleva a cabo la agrupación en cada uno de los casos:
Caso Discreto:
En este caso resulta conveniente hacer una tabla cuya primera columna contenga
todos los valores observados y la segunda contenga la frecuencia con que han
aparecido dichos valores o frecuencias absolutas.
También se suele añadir una tercera columna que contiene la frecuencia
relativa de los datos observados, a saber, la razón entre la frecuencia absoluta y el
número total de observaciones.
Este tipo de agrupación se utiliza cuando el número total de valores
observados no es muy grande, en caso contrario, en lugar de asignar una clase a cada
valor observado, podemos considerar clases que contengan varias observaciones.
Ejemplo: se cuenta el número de glóbulos rojos en cada uno de los 169
compartimientos de un hemocitómetro. Cada uno de los compartimientos representa
una observación y el número de glóbulos rojos en cada una de ellos es el valor
36
observado correspondiente. De dicha observación se obtiene la siguiente tabla de
frecuencias:
Con esta información podemos hacer un gráfico por medio del llamado
Histograma, que en este caso se elabora levantando una línea o barra sobre
cada clase, de altura proporcional a la frecuencia correspondiente o a la frecuencia
relativa.
Caso Continuo:
En el caso en que la variable aleatoria investigada es continua, la agrupación es algo
más complicada, sin embargo, en general, se procede de la siguiente manera: se toma
un intervalo adecuado de la recta real que contenga los N valores observados y se
divide dicho intervalo en un cierto número de intervalos de clase.
Todas las observaciones que caen en una misma clase se agrupan y se cuentan,
el número resultante es la frecuencia de clase correspondiente a dicho intervalo y
después se procede a tabular. Para proceder a la elección de los límites de clase
debemos conocer la “exactitud” de los datos originales. Cuando la tabla de frecuencia
ya ha sido elaborada debe ir acompañada de la exactitud de los datos.
37
6.2 Diagramas de evolución o gestión, de Pareto, de afinidad, causa-efecto,
correlación, dispersión o distribución, etc.
El control de calidad, término tan usado hoy en día en todos los círculos académicos,
fue un planteamiento de Ishikawa, más de 50 años atrás, en el Japón de la post guerra.
El control de la calidad en pocas palabras fue definido por él como "Desarrollar,
Diseñar, Manufacturar y Mantener un producto de calidad". Es posible que la
contribución más importante de Ishikawa haya sido su rol en el desarrollo de una
estrategia de calidad japonesa. Él no quería que los directivos de las compañías se
enfocaran solamente en la calidad del producto, sino en la calidad de toda la
compañía, incluso después de la compra. También predicaba que la calidad debía ser
llevada más allá del mismo trabajo, a la vida diaria.
Fue fundador de la Unión de Científicos e Ingenieros Japoneses (Union of
Japanese Scientists and Engineers, UJSE ), entidad que se preocupaba de promover la
calidad dentro de Japón durante la época de la post-guerra.
Ishikawa hizo muchas aportaciones, entre las cuales se destacan:
Creación del diagrama causa-efecto, o espina de pescado de Hishikawa, o en
inglés "Fishbone Diagram"
Demostró la importancia de las 7 herramientas de calidad.
Trabajó en los círculos de calidad.
Su concepción conceptual al concebir su Diagrama Causa-Efecto (Espina de
Pescado de Ishikawa) se puede resumir en que cuando se realiza el análisis de un
problema de cualquier índole y no solamente referido a la salud, estos siempre tienen
diversas causas de distinta importancia, trascendencia o proporción. Algunas causas
pueden tener relación con la presentación u origen del problema y otras, con los
efectos que este produce.
El diagrama de Ishikawa ayuda a graficar las causas del problema que se
estudia y analizarlas. Es llamado “Espina de Pescado” por la forma en que se van
colocando cada una de las causas o razones que a entender originan un problema.
Tiene la ventaja que permite visualizar de una manera muy rápida y clara, la relación
que tiene cada una de las causas con las demás razones que inciden en el origen del
38
problema. En algunas oportunidades son causas independientes y en otras, existe una
íntima relación entre ellas, las que pueden estar actuando en cadena.
La mejor manera de identificar problemas es a través de la participación de
todos los miembros del equipo de trabajo en que se trabaja y lograr que todos los
participantes vayan enunciando sus sugerencias. Los conceptos que expresen las
personas, se irán colocando en diversos lugares. El resultado obtenido será un
Diagrama en forma de Espina de Ishikawa.
Ideado en 1953 se incluye en él los siguientes elementos:
El problema principal que se desea analizar, el cual se coloca en el extremo
derecho del diagrama. Se aconseja encerrarlo en un rectángulo para visualizarlo con
facilidad.
Las causas principales que a nuestro entender han originado el problema.
Gráficamente está constituida por un eje central horizontal que es conocida
como “línea principal o espina central”. Posee varias flechas inclinadas que se
extienden hasta el eje central, al cual llegan desde su parte inferior y superior, según el
lugar adonde se haya colocado el problema que se estuviera analizando o
descomponiendo en sus propias causas o razones. Cada una de ellas representa un
grupo de causas que inciden en la existencia del problema. Cada una de estas flechas a
su vez son tocadas por flechas de menor tamaño que representan las “causas
secundarias” de cada “causa” o “grupo de causas del problema”.
El Diagrama que se efectúe debe tener muy claramente escrito el nombre del
problema analizado, la fecha de ejecución, el área de la empresa a la cual pertenece el
problema y se puede inclusive colocar información complementaria como puede ser el
nombre de quienes lo hayan ejecutado, etc.
Elementos claves del pensamiento de Ishikawa:
La calidad empieza con la educación y termina con la educación.
El primer paso a la calidad es conocer lo que el cliente requiere.
El estado ideal de la calidad es cuando la inspección no es necesaria.
Hay que remover la raíz del problema, no los síntomas.
El control de la calidad es responsabilidad de todos los trabajadores.
No hay que confundir los medios con los objetivos.
39
Primero poner la calidad y después poner las ganancias a largo plazo.
El comercio es la entrada y salida de la calidad.
Los altos ejecutivos de las empresas no deben de tener envidia cuando un
obrero da una opinión valiosa.
Los problemas pueden ser resueltos con simples herramientas para el análisis.
Información sin información de dispersión es información falsa.
La teoría de Ishikawa era manufacturar todo a bajo costo. Postuló que algunos
efectos dentro de empresas que se logran implementando el control de calidad son la
reducción de precios, bajar los costos, establecer y mejorar la técnica, entre otros.
No es en vano que a Ishikawa se le deba mucha gratitud por sus ideas que
revolucionaron el mundo de la industria, la administración, el comercio y los servicios.
De su capacidad y sus teorías se nutrió el Japón y llegó a ser lo que todos vemos hoy
día.
¿Cómo interpretar un diagrama de causa-efecto?
El diagrama Causa-Efecto es un vehículo para ordenar, de forma muy
concentrada, todas las causas que supuestamente pueden contribuir a un
determinado efecto.
Permite, por tanto, lograr un conocimiento común de un problema complejo,
sin ser nunca sustitutivo de los datos. Es importante ser conscientes de que los
diagramas de causa-efecto presentan y organizan teorías. Sólo cuando estas teorías
son contrastadas con datos podemos probar las causas de los fenómenos observables.
Errores comunes son construir el diagrama antes de analizar globalmente los
síntomas, limitar las teorías propuestas enmascarando involuntariamente la causa raíz,
o cometer errores tanto en la relación causal como en el orden de las teorías,
suponiendo un gasto de tiempo importante.
A continuación veremos como el valor de una característica de calidad
depende de una combinación de variables y factores que condicionan el proceso
productivo (entre otros procesos).
El ejemplo se basa en el proceso de fabricación de mayonesa, para así explicar
los Diagramas de Causa-Efecto:
40
La variabilidad de las características de calidad es un efecto observado que tiene
múltiples causas. Cuando ocurre algún problema con la calidad del producto, se debe
investigar a fin de identificar las causas del mismo. Para hacer un Diagrama de Causa-
Efecto se siguen los siguientes pasos:
Se decide cuál va a ser la característica de calidad que se va a analizar. Por
ejemplo, en el caso de la mayonesa podría ser el peso del frasco lleno, la densidad del
producto, el porcentaje de aceite, etc.
Se traza una flecha gruesa que representa el proceso y a la derecha se escribe
la característica de calidad:
Se indican los factores causales más importantes y generales que puedan generar la
fluctuación de la característica de calidad, trazando flechas secundarias hacia la
principal. Por ejemplo: Materias Primas, Equipos, Operarios, Método de Medición,
etc.:
41
6.3 Matrices de prioridades, de criterio, de análisis, etc.
La matriz de priorización es una herramienta que permite la selección de opciones
sobre la base de la ponderación y aplicación de criterios.
Hace posible, determinar alternativas y los criterios a considerar para adoptar
una decisión, priorizar y clarificar problemas, oportunidades de mejora y proyectos y,
en general, establecer prioridades entre un conjunto de elementos para facilitar la
toma de decisiones.
La aplicación de la matriz de priorización conlleva un paso previo de
determinación de las opciones sobre las que decidir, así como de identificación de
criterios y de valoración del peso o ponderación que cada uno de ellos tendrá en la
toma de decisiones.
La matriz de priorización consiste en la especificación del valor de cada criterio
seleccionado para, posteriormente, analizar mediante el despliegue de distintas
matrices tipo-L, el grado en que cada opción cumple con los criterios establecidos.
Elaboración de la Matriz de Priorización
1. Definir el objetivo.
El planteamiento del objetivo ha de ser claro y explícito.
2. Identificar las opciones.
42
Es posible que las opciones estén ya presentes, es decir, se hayan definido
previamente. En caso contrario el equipo deberá generar las alternativas posibles para
alcanzar el objetivo.
3. Elaborar los criterios de decisión.
Si los criterios no están determinados, el equipo elabora una lista consensuada. Los
criterios deben definirse nítidamente para que su significado no ofrezca duda a los
miembros del equipo.
4. Ponderar los criterios.
Mediante una matriz tipo-L se ponderan los distintos criterios, confrontándolos con los
demás. Para ello, y partiendo del eje vertical, se compara el primer criterio con los
restantes, asignando el valor más apropiado según la tabla de valores existente al
efecto.
5. Comparar las opciones
Se comparan todas las opciones entre sí en función de cada uno de los criterios. Se
crean para ello tantas matrices tipo-L como criterios se han definido, estableciendo las
comparaciones de las opciones a analizar en cada uno de los criterios.
43
6.4 Análisis de modos de fallos y efectos (AMFE).
Un análisis modal de fallos y efectos (AMFE) es un procedimiento de análisis de fallos
potenciales en un sistema de clasificación determinado por la gravedad o por el efecto
de los fallos en el sistema.
Es utilizado habitualmente por empresas manufactureras en varias fases del
ciclo de vida del producto, y recientemente se está utilizando también en la industria
de servicios. Las causas de los fallos pueden ser cualquier error o defecto en los
procesos o diseño, especialmente aquellos que afectan a los consumidores, y pueden
ser potenciales o reales. El término análisis de efectos hace referencia al estudio de las
consecuencias de esos fallos.
AMFE puede ofrecer un enfoque analítico al gestionar los modos de fallos
potenciales y sus causas asociadas. Al tener en cuenta posibles fallos en el diseño de
seguridad, coste, rendimiento, calidad o resistencia, un ingeniero puede obtener una
gran cantidad de información sobre como alterar los procesos de fabricación para
evitar estos fallos.
AMFE otorga una herramienta sencilla para determinar que riesgo es el más
importante, y por lo tanto que acción es necesaria para prevenir el problema antes de
que ocurra. El desarrollo de estas especificaciones asegura que el producto cumplirá
los requisitos definidos.
44
El proceso para conducir un AMFE es lineal. Se desarrolla en tres fases
principales en las cuales las acciones adecuadas deben ser definidas. Pero antes de
comenzar con un AMFE es importante completar un trabajo previo que asegure qué
información sobre la resistencia y la historia del producto son incluidas en el análisis.
Un análisis de resistencia puede obtenerse mediante una interfaz de matrices,
diagramas de límites y diagramas de parámetros. Mucho de los fallos se deben a la
interacción con otros sistemas y partes, ya que los ingenieros suelen centrarse solo en
lo que controlan directamente.
Para comenzar, es necesario describir el sistema y su función, ya que un buen
entendimiento del mismo simplifica su análisis. De esta forma un ingeniero puede
comprobar que usos del sistema son adecuados y cuáles no. Es importante considerar
los usos tanto intencionados como no intencionados. Los usos no intencionados son un
tipo de entorno hostil.
A continuación debe crearse un diagrama de bloques del sistema. Este
diagrama ofrece una visión general de los principales componentes o pasos en el
proceso, y como estos están relacionados entre sí. Esto recibe el nombre de relaciones
lógicas, alrededor de las cuales puede desarrollarse un AMFE. La creación de un
sistema de codificación para identficar las diferentes partes o procesos es muy
recomendable y útil. El diagrama de bloques debe ser incluido siempre con el AMFE.
Antes de comenzar el AMFE debe crearse una hoja de trabajo con las
necesidades y que contenga la información importante sobre el sistema como fecha de
revisión o nombre de los componentes. En esta hoja de trabajo todos los ítems o
funciones o el título deben ser listados de una forma lógica, basada en diagramas de
bloques.
45
Paso 1: Severidad
Determinar todos los modos de fallos basados en los requerimientos funcionales y sus
efectos Ejemplos de modos de fallos son: cortocircuitos eléctricos, corrosiones o
deformaciones.
Es importante apuntar que un fallo en un componente puede llevar a un fallo
en otro como modo de fallos debe ser listado en términos técnicos y por función. Así,
el efecto final de cada modo de fallo debe tenerse en cuenta. Un efecto de fallo se
define como el resultado de un modo de fallo en la función del sistema percibida por el
usuario. Por lo tanto es necesario dejar constancia por escrito de estos efectos tal
como los verá o experimentará el usuario. Ejemplos de efectos de fallos son:
rendimiento bajo, ruido y daños a un usuario. Cada efecto recibe un número de
severidad (S) que van desde el 1 (sin peligro) a 10 (crítico). Estos números ayudarán a
los ingenieros a priorizar los modos de fallo y sus efectos. Si la severidad de un efecto
tiene un grado 9 o 10, se debe considerar cambiar el diseño eliminando el modo de
fallo o protegiendo al usuario de su efecto. Un grado 9 o 10 está reservado para
aquellos efectos que causarían daño al usuario.
Paso 2: Incidencia
En este paso es necesario observar la causa del fallo y determinar con qué frecuencia
ocurre. Esto puede lograrse mediante la observación de productos o procesos
similares y la documentación de sus fallos. La causa de un fallo está vista como un
punto débil del diseño. Todas las causas potenciales de modo de fallos deben ser
identificadas y documentadas utilizando terminología técnica. Ejemplos de causas son:
algoritmos erróneos, voltaje excesivo o condiciones de funcionamiento inadecuadas.
Un modo de fallos recibe un número de probabilidad (O) que puede ir del 1 al
10. Las acciones deben de desarrollarse si la incidencia es alta (>4 para fallos no
relacionados con la seguridad y >1 cuando el número de severidad del paso 1 es de 9 o
10). Este paso se conoce como el desarrollo detallado del proceso del AMFE. La
incidencia puede ser definida también como un porcentaje. Si un problema no
46
relacionado con la seguridad tiene una incidencia de menos del 1% se le puede dar una
cifra de 1; dependiendo del producto y las especificaciones de usuario.
Paso 3: Detección
Cuando las acciones adecuadas se han determinado, es necesario comprobar su
eficiencia y realizar una verificación del diseño. Debe seleccionarse el método de
inspección adecuado. En primer lugar un ingeniero debe observar los controles
actuales del sistema que impidan los modos de fallos o bien que lo detecten antes de
que alcance al consumidor.
Posteriormente deben identificarse técnicas de testeo, análisis y
monitorización que hayan sido utilizadas en sistemas similares para detectar fallos. De
estos controles, un ingeniero puede conocer qué posibilidad hay de que ocurran fallos
y como detectarlos. Cada combinación de los dos pasos anteriores recibe un número
de detección (D). Este número representa la capacidad de los tests planificados y las
inspecciones de eliminar los defectos y detectar modos de fallos.
Tras estos tres pasos básicos se calculan los números de prioridad del riesgo
conocido como (RPN).
Números de prioridad del riesgo
Los números de prioridad del riesgo no son una parte importante de los criterios de
selección de un plan de acción contra los modos de fallo. Es más bien un parámetro de
ayuda en la evaluación de estas acciones. Después de evaluar la severidad, incidencia y
defectibilidad los números de prioridad del riesgo se pueden calcular multiplicando
estos tres números: RPN = S x O x D Esto debe realizarse para todo el proceso o diseño.
Una vez está calculado, es fácil determinar las áreas que deben ser de mayor
preocupación. Los modos de fallo que tengan un mayor número de prioridad del riesgo
deben ser los que reciban la mayor prioridad para desarrollar acciones correctivas.
Esto significa que no son siempre los modos de fallo con los números de severidad más
altos los que deben ser solucionados primero. Pueden existir fallos menos graves, pero
que ocurran más a menudo y sean menos detectables. Tras asignar estos valores se
recomiendan una serie de acciones con un objetivo, se reparten responsabilidades y se
definen las fechas de implementación. Estas acciones pueden incluir inspecciones
específicas, testeo, pruebas de calidad, rediseño, etc. Tras implementar las acciones en
el diseño o proceso, debe comprobarse de nuevo el número de prioridad del riesgo
47
para confirmar las mejoras. Estas pruebas se representan normalmente de forma
gráfica para una fácil visualización. Siempre que se realicen cambios en un proceso o
diseño, debe actualizarse el AMFE Deben tenerse en cuenta algunos puntos obvios
pero importantes:
Intentar eliminar el modo de fallos (algunos fallos son más evitables
que otros)
Reducir la incidencia del modo de fallos
Mejorar la detección
Nota: No se puede "Minimizar la severidad del fallo" dado que la severidad mide la
gravedad del efecto (un hecho). Por ejemplo, si el efecto de un fallo es "posible muerte
de un usuario", la severidad es "10" - se minimice o no la frecuencia del fallo.
7 Documentación de la calidad.
La base de un Sistema de Calidad se compone de dos documentos, denominados Manuales de
Aseguramiento de la Calidad, que definen por un lado el conjunto de la estructura,
responsabilidades, actividades, recursos y procedimientos genéricos que una organización
establece para llevar a cabo la gestión de la calidad (Manual de Calidad), y por otro lado, la
definición específica de todos los procedimientos que aseguren la calidad del producto final
(Manual de Procedimientos). El Manual de Calidad nos dice ¿Qué? y ¿Quién?, y el Manual de
Procedimientos, ¿Cómo? y ¿Cuándo?. Dentro de la infraestructura del Sistema existe un tercer
pilar que es el de los Documentos Operativos, conjunto de documentos que reflejan la
actuación diaria de la empresa.
7.1 Estructura y contenidos que deben cumplir las pautas de control.
Especifica la política de calidad de la empresa y la organización necesaria para
conseguir los objetivos de aseguramiento de la calidad de una forma similar en toda la
empresa. En él se describen la política de calidad de la empresa, la estructura
48
organizacional, la misión de todo elemento involucrado en el logro de la Calidad, etc. El
fin del mismo se puede resumir en varios puntos:
Única referencia oficial.
Unifica comportamientos decisionales y operativos.
Clasifica la estructura de responsabilidades.
Independiza el resultado de las actividades de la habilidad.
Es un instrumento para la Formación y la Planificación de la Calidad.
Es la base de referencia para auditar el Sistema de Calidad.
7.2 Informes y partes de control. Normas a considerar en su elaboración y
presentación.
Objetivo: elaborar, revisar y aprobar todos los documentos a cada nivel.
Tareas:
1. En esta tarea se llevará a cabo la capacitación planificada en la etapa anterior.
2. Capacitar al personal implicado.
Para elaborar los procedimientos generales se sugiere utilizar la siguiente estructura:
Partes Carácter Contenido
Objetivo Obligatorio Definirá el objetivo del procedimiento
Alcance ObligatorioEspecificará el alcance de la aplicación del
procedimiento
Responsabilidades ObligatorioDesignará a los responsables de ejecutar y
supervisar el cumplimiento del procedimiento
Términos y definiciones Opcional
Aclarará de ser necesario el uso de términos o
definiciones no comunes aplicables
al procedimiento.
Procedimiento Obligatorio
Describirá en orden cronológico el conjunto
de operaciones necesarias para ejecutar el
procedimiento.
49
Requisitos de
documentaciónObligatorio
Relacionará todos los registros que deben ser
completados durante la ejecución del
procedimiento.
Referencias Obligatorio
Referirá todos aquellos documentos que hayan
sido consultados o se mencionen en el
procedimiento
Anexos Opcional
Incluirá el formato de los registros, planos,
tablas o algún otro material que facilite la
comprensión del procedimiento.
3. Elaborar los procedimientos generales.
El grupo seleccionado elaborará el Manual de acuerdo con el formato
establecido en la etapa de diseño teniendo en cuenta la necesaria
participación de todas las áreas involucradas.
4. Elaborar el Manual de Calidad.
Los otros documentos se elaborarán de acuerdo con el plan y siguiendo las
instrucciones confeccionadas para cada tipo de documento que deben haber
sido aprendidas durante la capacitación.
5. Elaborar otros documentos de acuerdo con el plan trazado en la etapa
anterior.
6. Revisar y aprobar todos los documentos por parte del personal competente
autorizado.
La revisión y aprobación de la documentación se realizará a medida que ésta
se vaya elaborando.
La revisión y aprobación de la documentación se realizará a medida que ésta se vaya
elaborando.
1. Al elaborar la guía se deben tener en cuenta las necesidades de
documentación determinadas en la etapa anterior así como los requisitos que
debe cumplir la documentación.
50
En este caso se elaboró un cuestionario organizado por requisito de la norma
ISO 9001:2000, teniendo en cuenta además los requisitos de la documentación
de calidad encontrados en la bibliografía consultada.
2. Elaborar la guía para el diagnóstico
3. Para la ejecución del diagnóstico se debe utilizar la guía y aplicar técnicas como
la observación, la entrevista y la revisión de documentos. Se debe determinar
la existencia o no de los documentos, en qué medida cumplen con los
requisitos establecidos para la documentación y si están siendo utilizados
adecuadamente.
4. Ejecutar el diagnóstico.
5. Elaborar y presentar el informe de diagnóstico.
7.3 Organización, gestión y actualización de la documentación generada.
Los Sistemas de gestión están sustentados generalmente en una importante base
documental, donde se recoge toda la información necesaria y generada por los mismos
que sirva para asegurar que se cumplen las especificaciones establecidas de cara a una
certificación por terceros. Los registros sirven para realizar esta función, pero a
menudo esta documentación se hace muy extensa, densa, de difícil manejo y
utilización, y acaba oprimiendo al Sistema y a la organización, y entorpeciendo su
normal funcionamiento. ¿Quién no se ha encontrado con que después de unos años
de funcionamiento de su Sistema de gestión necesitaría construir un súper archivo en
su organización porque ya no sabe dónde demonios meter la infinidad de carpetas que
se van generando con documentación?, documentación que en algunos casos solo
vuelve a ver la luz cuando es exigida por un auditor.
La documentación es necesaria, sí, y hay que conservarla, también, pero nadie
dice, ni siquiera la norma ISO 9001, que dicha documentación deba ser soportada en
papel. La manera de generar, utilizar, archivar y conservar la documentación generada
por un Sistema de gestión es decisión de la propia organización y debe ajustarse a las
características de la misma: a su tamaño, a su complejidad y al personal que la utiliza,
con la única condición de que cumpla los requisitos que la norma establece al
respecto, es decir, debe estar actualizada, perfectamente identificada y almacenada,
51
protegida, accesible a cualquier persona que la necesite, debe ser legible y recuperable
en el periodo de archivo establecido.
Las nuevas tecnologías nos facilitan mucho esta labor de gestión de la
documentación. Las enormes carpetas con papel en estanterías abarrotadas a punto
de suicidarse dan paso a archivos digitales. Hoy en día con la invasiva utilización de
ordenadores en la práctica totalidad de las organizaciones, hasta la más modesta
puede tener todo un archivo completo en un simple ordenador.
Un archivo del tipo pdf tiene la misma validez que su formato en papel. En vez
de registros en papel ocupando carpetas dispersas por departamentos y de difícil
localización para su posterior uso se pasa a registros digitales ocupando el espacio de
un disco de almacenamiento en un único puesto de trabajo y que generalmente son de
fácil manejo y consulta. Las ventajas van más allá. Si dicho puesto de trabajo está
conectado a la red, la documentación está al alcance de todo el personal, tanto para su
archivo como para su consulta, en la pantalla del ordenador o en su salida por
impresora, es decir, el Jefe de Producción puede estar consultando en su puesto de
trabajo una determinada Orden de Fabricación lanzada por la Oficina Técnica, o la
Dirección puede consultar una determinada No Conformidad aparecida en Producción.
Para llegar hasta este punto se necesita la colaboración de todas las personas
implicadas en el archivo de la documentación y siempre teniendo en cuenta las
sugerencias que pueden aportar las personas que utilizan esa información en su
trabajo diario. Así cualquiera puede pasar de archivar papeles en carpetas con el
tedioso trabajo de ordenar hojas, grapar o hacer agujeros a los mismos, a escanearlos
o generarlos directamente de programas informáticos en soporte digital.
Al igual que un archivo físico, y para cumplir las especificaciones de la norma
ISO 9001 debe estar actualizado, identificado, accesible, protegido y recuperable. Una
buena forma de llevar a cabo esta tarea es mediante la utilización de las carpetas de
Windows que permiten organizar la documentación. Un ejemplo puede ser organizarla
por clientes, donde en cada carpeta de cada cliente se vaya almacenando todo tipo de
registros relacionados con él, como puede ser los pedidos, las Ordenes de Fabricación,
los albaranes, las facturas, las reclamaciones y las No Conformidades si las hubiera, las
hojas de Revisión final en fábrica o cualquier otro tipo de registro que de otra manera
sería complicado reunir en un mismo archivo. Otras opciones pueden ser organizar la
52
documentación por fechas, o por Departamentos, o cualquier otra que sirva para cada
organización en concreto.
En resumen, no se trata de que la burocracia que genera la gestión de la
documentación nos dificulte el trabajo diario, sino que podemos buscar otras
alternativas con la misma validez para nuestra organización concreta de cara a una
futura certificación por terceros, pero para ello es importante y necesario la
colaboración de todo el personal implicado, no solo la del Responsable del Sistema de
gestión. Y que debemos ayudarnos de los avances tecnológicos para facilitarnos el
trabajo diario, pero también puede darse el caso de que cierta documentación deba
seguir manteniéndose en formato papel porque así lo prefieren las personas que
trabajan con ella.
53
top related