Está en la página 1de 7

INSTITUTO TECNOLÓGICO DE MORELIA

CONTROL ESTADÍSTICO DE LA
CALIDAD

INGENIERÍA INDUSTRIAL

GIOVANNI REYNOSO ARÉVALO

CAPÍTULO 8: ESTADÍSTICA DESCRIPTIVA:


LA CALIDAD Y LA VARIABILIDAD
Obtención de datos
Antes de obtener información sobre un problema o una situación, lo que se debe tener
muy claro y delimitado es el objetivo que se persigue y el tiempo y los recursos de que se
dispone para abordar dicho problema. No hacer lo anterior conduce, con frecuencia, a
que la información que se obtiene no ayude a responder las interrogantes que se tienen y,
en última instancia, a tomar decisiones erróneas.
Una vez localizado el problema, definidos los objetivos e identificado el tipo de
información que se necesita, surgen, entre otros, las siguientes interrogantes: cómo
obtener tal información, en qué cantidad y cómo analizarla.
A continuación, se muestra el papel o función de la estadística en la toma de decisiones:

De esta manera, se inicia con la


identificación de un problema o del objeto de estudio y se termina evaluando si las
acciones dieron resultado de acuerdo con los objetivos planteados, lo que sirve para
replantear objetivos y aplicar de nuevo el ciclo.

La variabilidad y el pensamiento estadístico


La variación es parte de nuestra vida diaria. Esta variación que ocurre en nuestras vidas,
también ocurre en los resultados de los procesos, ya que son generados por la interacción
de materiales, máquinas, mano o mente de obra, mediciones, medio ambiente y métodos.
Estos seis elementos, las 6M, determinan de manera global todo proceso, y cada uno
aporta parte de la variabilidad (y de la calidad) de los resultados de un proceso.
A través del tiempo, ocurren cambios en las 6M, como la llegada de un lote de material no
adecuado o con características especiales, descuidos u olvidos, desajustes y desgastes de
máquinas y herramientas, etc. Por la constante posibilidad de que ocurran estos tipos de
cambios y desajustes es necesario monitorear con regularidad los signos vitales de un
proceso o, en general, de un negocio. no todos los cambios en las 6 M se reflejan en una
variación significativa en los resultados, ya que habrá algunos inherentes al
funcionamiento del proceso mismo (causas comunes) y habrá otros cambios que se deban
a una situación particular y atribuible (causas especiales). Por ello, es necesario que el
monitoreo se realice apoyándose en las herramientas básicas.
La estadística es vital en el control y monitoreo de procesos, y en la mejora e innovación
de la calidad, ya que está conformada de un conjunto de técnicas y conceptos orientados
a la recolección y el análisis de datos tomando en cuenta su variación.

Pensamiento Estadístico
Es una filosofía de aprendizaje y acción basada en los siguientes principios:

 Todo el trabajo ocurre en un sistema de procesos interconectados.


 La variación existe en todos los procesos.
 Entender y reducir la variación son claves para el éxito.

En la siguiente representación se muestra la forma en la que el pensamiento estadístico


puede ayudar en los diferentes niveles de una organización:

Tipos de variables
Variables cualitativas o de atributos: Son aquellas cuyos valores representan categorías o
atributos que no tienen de base una escala numérica.
Variables cuantitativas: Sus valores proceden de mediciones o conteos referidas a escalas
numéricas.
Variables discretas: Variables cuantitativas que, con frecuencia, proceden de conteos y
que solo pueden tomar valores dentro de un conjunto numerable.
Variables continuas: Variables cuantitativas que pueden tomar cualquier valor en un
intervalo de números reales.
Variables de entrada: Son variables que reflejan las condiciones de operación de un
proceso o de sus insumos (las X).
Variables de salida: Son aquellas que reflejan los resultados de un proceso (las Y).
Existen tres tipos de variables de salida o características de calidad, de acuerdo con el tipo
de especificaciones que deben cumplir:

 Cuanto más pequeño mejor. Son variables o características de calidad cuya única
exigencia es que no excedan un cierto valor máximo tolerado o una especificación
superior, y cuanto más pequeño sea su valor, mejor.
 Cuanto más grande mejor. Son variables o características de calidad a las que se les
exige que sean mayores que un valor mínimo o que una cierta especificación
inferior, y cuanto más grande sea el valor de la variable, será mejor.
 El valor nominal es el mejor. Variables que deben tener un valor específico y que,
por lo tanto, no deben ser menores que una especificación inferior, pero tampoco
mayores que una superior.

Medidas de tendencia central


Tendencia central: Valor en torno al cual los datos o mediciones de una variable tienden a
agruparse o concentrarse.
Media o promedio muestral: Medida de tendencia central que es igual al promedio
aritmético de un conjunto de datos que se obtiene al sumarlos y el resultado se divide
entre el número de datos.
Mediana: Medida de tendencia central que es igual al valor central que divide los datos a
la mitad cuando son ordenados de menor a mayor.
Moda: Medida de tendencia central de un conjunto de datos que es igual al dato que se
repite más veces.
Para describir la tendencia central de los datos, es importante apoyarse tanto en la media
como en la mediana. Y en caso de que la media sea mucho más grande que la mediana, es
señal de que existen datos más grandes que el resto, los que hacen que la media esté
“inflada”. Por el contrario, si la media es significativamente menor que la mediana,
entonces eso indica la presencia de datos mucho más pequeños que el resto, los cuales
hacen que la media esté “subestimada”. Tomar en cuenta lo anterior es de importancia
primordial en la toma de decisiones, ya que no siempre la media refleja la verdadera
tendencia central.

Medidas de dispersión o variabilidad


Variabilidad o dispersión: Se refiere a las diferencias que se hallan entre los datos de un
conjunto.
Desviación estándar muestral: Medida de la variabilidad que indica qué tan esparcidos
están los datos de la muestra con respecto a su media.
Desviación estándar poblacional o del proceso: Medida de la variabilidad de un proceso.
Para su cálculo se debe utilizar un número grande de datos que hayan sido obtenidos en el
transcurso de un lapso de tiempo amplio. Se denota con la letra griega sigma.
Varianza muestral: Medida de variación que es igual al cuadrado de la desviación
estándar.
Rango o recorrido: Medición de la variabilidad de un conjunto de datos que es resultado
de la diferencia entre el dato mayor y el dato menor de tal conjunto.
Coeficiente de variación (CV): Medida relativa de variabilidad que se obtiene al dividir la
desviación estándar entre la media. Es útil para contrastar la variación de dos o más
variables que están medidas en diferentes escalas o unidades.
Relación entre x́ y S
Desigualdad de Chebyshev: Resultado teórico que relaciona x́– y S, y establece el
porcentaje mínimo de datos que caen en el intervalo x́ – 2 kS, X + 1 kS), con k > 1.
Regla empírica: Resultado práctico que relaciona x́ y S, y establece el porcentaje de datos
de la muestra que caen dentro del intervalo (x́ – kS, x́ – kS) con k = 1, 2, 3.
con base en la relación entre la media y la desviación estándar expresada por el teorema
de Chebyshev y la regla empírica, es posible determinar si la variabilidad es mucha. Se
debe tener cuidado en la aplicación de la regla empírica cuando se tienen muestras
pequeñas y/o poco representativas, ya que las conclusiones serán poco confiables
respecto a toda la población.
Límites reales o naturales
límites naturales o reales: Se obtienen con µ − 3σ y µ + 3σ, e indican de dónde a dónde
varía la salida de un proceso.

Histograma y tabla de frecuencia


El histograma y la tabla de frecuencias permiten visualizar estos dos aspectos de un
conjunto de datos, y además muestran la forma en la que los datos se distribuyen en el
intervalo en el que varían.
Histograma: Representación gráfica de la distribución de un conjunto de datos o de una
variable, donde los datos se clasifican por su magnitud en cierto número de clases.
Permite visualizar la tendencia central, la dispersión y la forma de la distribución.
Tabla de frecuencias: Representación en forma de tabla de distribución de unos datos, a
los que se clasifica por su magnitud en cierto número de clases que cubren todo el
intervalo de variación de los datos.
Construcción de un histograma
Pasos a seguir:
1. Determinar el rango de los datos. El rango es igual a la diferencia entre el dato máximo
y el mínimo.
2. Obtener el número de clases (NC). En general se recomienda que el número de
intervalos o clases sea de 5 a 15. Para decidir un valor entre este rango hay varios
criterios. Uno de ellos dice que el número de clases debe ser aproximadamente igual a la
raíz cuadrada del número de datos.
3. Establecer la longitud de clase (LC). La longitud de clase se establece de tal manera que
el rango pueda cubrirse en su totalidad por el número de clases determinado. Así, una
forma directa de obtener la LC es dividiendo el rango entre el número de clases: LC 5
R/NC.
4. Construir los intervalos de clase. Los intervalos de clase resultan de dividir el rango
entre el número de intervalos determinados con la LC. El punto inicial para la primera
clase debe ser el dato mínimo del rango ampliado. Para obtener la primera clase se le
suma al punto inicial la longitud de clase y así se obtiene el intervalo de la primera clase.
5. Obtener la frecuencia de cada clase. Para obtener la frecuencia se cuentan los datos
que caen en cada intervalo de clase. Cuando un dato coincide con el final de una clase y
principio de la siguiente, entonces tal dato suele incluirse en la primera.
6. Graficar el histograma. Se hace una gráfica de barras en la que las bases de las barras
sean los intervalos de clase y la altura sean las frecuencias de las clases.

Interpretación del histograma


Cuando un histograma se construye correctamente, es resultado de un número suficiente
de datos, y estos son representativos del estado del proceso durante el periodo de
interés. Se recomienda, considerar los siguientes puntos para la interpretación del
histograma.
1. Observar la tendencia central de los datos. Localizar en el eje horizontal o escala de
medición las barras con mayores frecuencias.
2. Estudiar el centrado del proceso. Para ello, es necesario apoyarse en el punto anterior y
observar la posición central del cuerpo del histograma respecto a la calidad óptima y a las
especificaciones, si las hay.
3. Examinar la variabilidad. Para ello hay que observar, a partir del grupo de barras más
alto, qué tan rápido disminuye la frecuencia de las demás barras.
4. Analizar la forma del histograma. La forma de campana es la forma de la distribución
que más se presenta en la práctica. Por lo que, si el histograma no refleja en forma
aproximada este tipo de distribución, se debe investigar a qué se debe.
Algunas de las formas típicas que no coinciden con una distribución de campana son:
Distribución sesgada: Forma asimétrica de la distribución de unos datos o una variable,
donde la cola de un lado de la distribución es más larga que la del otro lado.
Distribución multimodal: Forma de la distribución de unos datos en la que sea aprecian
claramente dos o más modas (picos). Por lo general, cada moda refleja una condición o
realidad diferente.
5. Datos raros o atípicos. Una pequeña cantidad de mediciones muy extremas o atípicas
son fácilmente identificadas mediante un histograma, debido a que aparece una o más
barras pequeñas bastante separadas o aisladas del resto.
6. Estratificar. En ocasiones, en el histograma no se observa ninguna forma particular,
pero hay mucha variación y, en consecuencia, la capacidad del proceso es baja.

Errores en la toma de decisiones con el uso de la media


1. Se cree que los valores de todos los datos son iguales o están muy cerca de la media,
ignorando que esta no proporciona ninguna información sobre la variabilidad.
2. La media como el dato más frecuente, y con esto se olvida que lo anterior solo se da en
datos simétricos y unimodales, es decir, desconociendo el concepto de moda y
confundiéndolo con el de media.
3. La media es el valor que está en medio y que a la izquierda de él quedan 50% de los
datos, lo mismo que a la derecha.
4. La media muestral igual a la media poblacional, con lo que se desconoce que la media
muestral es una variable aleatoria.
El uso del promedio como único criterio de decisión puede llevar a errores, por lo que en
la práctica cotidiana en la empresa y en la enseñanza de la estadística se deben tomar
precauciones, dando sentido y utilidad al resto de los conceptos estadísticos, lo cual no
descartaría errores, pero sí los reduciría de manera importante y se estaría en la ruta de
adentrarse en la estadística, para comprender su verdadero papel: entender la
variabilidad.

También podría gustarte