Está en la página 1de 18

INTRODUCCIÓN

La calibración de instrumentos de medida es un aspecto a conocer necesario


para conseguir el Aseguramiento de la Calidad, el cual hace referencia a
conservar, a lo largo de la vida, la exactitud del producto o servicio que se ofrece
al cliente. Por ello, es fundamental que las medidas sean válidas en todo
momento.

Para entender la importancia que supone ejercer la calibración de instrumentos


es necesario saber en qué consiste, cómo se planea adecuadamente una
calibración, conocer, además, los conceptos estadísticos básicos relacionados con
ésta práctica y todos los cálculos imprescindibles que se deben incluir dentro de
su proceso.

OBJETIVOS

• Saber cuáles son los fundamentos de Calibración de los Instrumentos de


Medida y los conceptos asociados a la misma.
• Estudiar los diferentes tipos de incertidumbre en la medida y saber
identificarlos correctamente.
• Conocer los Conceptos Básicos relacionados con la Estadística.
• Aprender las características básicas de cada una de las variantes que
existen de Indicadores de Capacidad.

MAPA CONCEPTUAL
1. Introducción A La Calibración De Instrumentos De Medida

La necesidad de medir en el ámbito de la Calidad viene determinado por


el Aseguramiento de la Calidad. En base a las mediciones se toman distintas
decisiones por lo que si la medida realizada no se ajusta a la realidad, las
decisiones tomadas en base a esa medida pueden ser erróneas.

Todo sistema de Aseguramiento de la Calidad debe hacer referencia a la


identidad y conservación de los respectivos patrones y equipos que aseguren la
exactitud de las medidas a lo largo de la vida de un producto o servicio.

2. Calibración De Instrumentos De Medida

Intercambiabilidad

La intercambiabilidad es necesaria para garantizar, en la construcción de equipos y


máquinas, la sustitución de cualquier pieza o elementos de la máquina, por otra del
mismo tipo. En el actual sistema de fabricación en serie, la precisión en la medida y la
exactitud son absolutamente necesarias.

Tipo de errores

Se define al error absoluto de la medida, como la diferencia entre el resultado de la


medición y lo que se considera valor verdadero. Encontramos dos tipos de errores:

• Errores sistemáticos: Se definen como los errores que se mantienen constantes al


medir una magnitud en las mismas condiciones, sin embargo varían al cambiar las
condiciones de medición. Todos los errores sistemáticos conocidos deben ser eliminados
previamente para obtener un resultado correcto.
• Errores aleatorios: Son errores que varían en su sentido y en su magnitud. Siguen
unas reglas de orden experimental:

• Los errores están limitados en valor absoluto.


• Los errores de menor valor absoluto son los que presentan mayor frecuencia.
• Los errores de la misma magnitud y distinto signo presentan la misma frecuencia.

Corrección

Se define corrección como el valor agregado algebraicamente al resultado sin


corregir de una medida, sirve para compensar un presunto error Sistemático . La
corrección es igual al error sistemático pero de signo contrario. Como no se puede
determinar exactamente el error sistemático, la corrección está afectada por una
incertidumbre.

Incertidumbre en la medida

La incertidumbre viene definida por la norma UNE-EN ISO 10012:2003,


como “la estimación que determina el intervalo de valores en el que se ubica,
con una alta probabilidad dada, el valor verdadero de la magnitud medida”.

Se compone de diversas componentes, que se pueden estimar a partir de


distribución estadística de los resultados obtenidos tras la realización de varias
series de medida, normalmente se caracterizan por la desviación típica muestral.

Calibración

Por calibración se entiende el conjunto de operaciones que establecen, en


condiciones especificadas, la relación de los valores de una magnitud, indicados
por un instrumento de medida y lo valores correspondientes de esa magnitud
realizados por un patrón de referencia.

Trazabilidad

La norma UNE-EN ISO 10012:2003, define trazabilidad como “la propiedad del
resultado de una medida que permite referirlo a los apropiados patrones de
medida”.

3. Incertidumbre En La Medida

Es muy difícil conocer cuál es el verdadero valor de la magnitud que se mide,


debido a una serie de motivos. Por ello aparecen una serie de incertidumbres, a
saber:

• Incertidumbre del patrón.


• Incertidumbre de la calibración.
• Incertidumbre de la medida.

El valor de la incertidumbre de una medida es proporcional a la desviación


típica compuesta del proceso de medición:

Siendo k una constante proporcional que puede tomar los valores de 1, 2,


3,...Normalmente se toma k=2 que representa el 95,4 %. La desviación típica
del proceso St, se calcula en base a la ley de propagación de las varianzas,
teniendo en cuenta al patrón, la calibración y la medida.

Patrón

La incertidumbre del patrón viene dada por:

Para poder sumarla:

Calibración

La corrección de la calibración se realiza de la siguiente forma:

Para estimar la varianza partimos de la fórmula para calcular la desviación


típica:

Medida

Para la medida se acepta la varianza obtenida en el proceso de calibración, por


lo que la varianza asociada a la medida será:
Tras estos cálculos, la incertidumbre que nos queda es:

Si la varianza de la calibración fuera distinta a la de la medida, entonces


tendríamos:

Incertidumbre y Tolerancia

Una vez realizada la medida, se ha de tomar la decisión de considerar la pieza


válida o no, según el valor de la medida nominal y el intervalo de tolerancia
especificado.

Por ejemplo si se desea medir una pieza de medida nominal 10,5±0,01 mm,
con un micrómetro recién calibrado (I=0,0016), la zona admisible será:

4. Planes De Calibración

El plan de calibración se define como la calibración sistemática y


organizada del total de los instrumentos o equipos de medida de un
centro de medición, de forma que se pueda asegurarla trazabilidad y la
incertidumbre asociada a la mediciones que con ellos se realicen.

Inventario de los equipos

Se trata de un inventario de todos los equipos de inspección, medición y


ensayo, con su correspondiente identificación. Esta se realizará mediante un
código.
Ficha vida del equipo

Esta ficha recoge datos de interés de los equipos de medición, como son el
código, datos del fabricante y modelo, fechas de recepción e inicio de utilización,
ubicación habitual del equipo, referencias a manual de utilización y
mantenimiento, procedimientos de calibración, etc.

Procedimientos de calibración

Son los documentos que determinan las pautas, responsabilidades, datos


requeridos, etc.,... es decir, el quién, cómo y cuando se realiza la calibración del
equipo.

5. Conceptos Estadísticos Básicos

Siguiente
1/3

Estadística Es la ciencia que trata y establece métodos para la recopilación,


presentación, ordenación, análisis e interpretación de los datos con el objetivo de
pronosticar y deducir las características o el comportamiento de un colectivo, y que
nos ayude a tomar decisiones razonables en función de las conclusiones o análisis
realizados.

La población es la totalidad de los elementos agrupables en una determinada


clase.

La muestra es una parte, generalmente reducida, de las unidades de la


población, que se toma para que, mediante su análisis se proporcione
información sobre población.

Una variable continua es una variable que teóricamente puede tomar


cualquier valor dentro de un campo de variabilidad. Una variable discreta es
aquella que toma en la mayoría de los casos valores enteros.

Un atributo constituye un caso particular de las variables discretas, y pueden


tomar dos posibilidades (si o no, bien o mal, pasa o no pasa).

El recorrido o rango es lo que representa la diferencia o recorrido existente


entre los valores extremos de la muestra.

La clase o categoría trata de dividir el conjunto mediante una relación de


equivalencia, para favorecer la distribución de los datos. Los límites de las clases
son los valores correspondientes a los extremos de cada clase. Por su parte
tenemos también las marcas de clase que es el dato que sirve para representar
a los valores pertenecientes a una determinada clase. Para su determinación se
calcula la media aritmética de los valores límites del intervalo.

La Frecuencia es el número de veces que aparece el valor de la variable, se


ha comentado la conveniencia de establecer clases, por lo que sería el número
de veces que aparece un valor de la variable. Dentro de las frecuencias tenemos,
la frecuencia absoluta que es una determinada clase, señala el número de piezas
que pertenecen a ella. La Frecuencia absoluta acumulada se trata de ir sumando
las frecuencias absolutas. De forma que para la última clase tenemos el número
total de piezas. Las frecuencias relativas se obtienen dividiendo la frecuencia
absoluta por el número total de la muestra (piezas). Multiplicando este valor por
cien obtenemos la frecuencia relativa en %. Si queremos obtener la frecuencia
relativa acumulada en % tenemos que ir sumando las frecuencias relativas en
porcentaje, para la última clase tenemos el valor 100%.

Tabla de Frecuencias o distribución de frecuencias es una tabla que se utiliza


para representar ordenadamente los intervalos de las clases para poder
estudiarlos.

Probabilidad es un índice que permite evaluar la confianza sobre una serie de


pronósticos, basándose en el tamaño de la muestra y el método empleado.

5.1. Histogramas Y Polígono De Frecuencias

Siguiente
1/2

El histograma es una representación gráfica, del tipo de gráficos de barras,


de una distribución de frecuencias, en la que los datos existentes (muestra) se
agrupan por intervalo de frecuencia (clases) para poder comprender la población
de manera objetiva.

Para seleccionar el número de clases.

Para calcular el valor de cada intervalo de clase, dividimos el recorrido entre el


número de intervalos. Posteriormente determinamos la marca de cada clase
calculando la clase del límite superior.

Vamos a ver un ejemplo de una representación de un histograma.

Por otro lado tenemos que un polígono de frecuencias es un gráfico de líneas,


trazado sobre las marcas de clase de un histograma. Normalmente se construye
uniendo los puntos medios de las alturas de los rectángulos. Según el número de
clases podemos llegar a tener la curva de distribución normal, también conocida
como campada de Gauss.

Vamos a ver un ejemplo de histograma con polígono de frecuencias.

5.2. Centralización Y Dispersión. Parámetros Estadísticos

Hasta ahora se ha analizado el modo de clasificar los datos estadísticos y de


representarlos mediante tablas y gráficos. En este punto va a analizarse y
estudiarse los datos obtenidos.

Centralización y sus medidas

Mide la característica relativa a la localización de la distribución de las


frecuencias, respecto a la posición teórica que debieran ocupar. Los parámetros
más utilizados:

• Media: La media o valor medio de los datos obtenido en la


evaluación de la muestra, es el valor en torno al cual se agrupan dichos
datos.

• Mediana: En una serie de valores, la mediana representa el valor


central de la misma. Es el número que ocupa la posición central de los N
valores (N/2)
• Moda: La moda es el valor que más veces aparece repetido en una
distribución de frecuencias.
Dispersión y sus parámetros estadísticos

El valor de la media de una población de una muestra o de una serie estadística


proporciona una primera información sobre sus características, pero esta
información es insuficiente. Es necesario introducir a la media una nueva
determinación que permita conocer cómo varían los datos respecto del Promedio
.

• Rango: Es la diferencia existente entre el valor máximo y el mínimo


en una distribución. Si el valor resulta muy grande, se dice que existe una
gran dispersión, y si es reducido, que la muestra es bastante homogénea
y está muy concentrada.
• Desviación típica: Da una idea de cómo se alejan de la media los
valores obtenidos en la medición de una muestra.

Distribución normal o campana de Gauss

La distribución normal corresponde a las variables aleatorias continuas, y se


representa en los casos en los que la probabilidad máxima corresponde a un valor
central de la variable, obteniéndose probabilidades cada vez menores a medida
que se aleja de él.

Teniendo en cuenta que los valores de la Media y la Desviación Estándar


(Típica) pueden calcularse en función de los datos obtenidos para una pequeña
población, resultando relativamente seguro y sencillo predecir el porcentaje de
la población total.

Teorema del límite central

Si una población tiene una media “μ” y una varianza “δ²”, las medidas de las
diferentes muestras que se puedan extraer tienen una distribución normal de
media “μ1” y varianza “δ²/n”, siendo n el tamaño de las muestras y k el número
de muestras extraídas. Por otro lado, tenemos la desviación típica de las medias
muestrales, y la desviación típica de la población.
Analizando este Teorema, podemos establecer:

1. Los procesos de medición deben tener una media y una varianza


finitas.
2. Cuando la media y la varianza de la muestra difieren
significativamente para distintas muestras de una misma población,
significa, que el proceso de medida no se ha establecido correctamente.

5.3. Tamaño De La Muestra Y Frecuencia De Muestreo

Es conveniente determinar el tamaño de la muestra y la frecuencia con la


que se deben realizar los muestreos, para lo cual se proponen varios
métodos.

Método simple

Se trata de muestrear del 5 al 10% del número de piezas fabricadas en cada


hora. Este método no resulta operativo para cadencias (número de piezas
por hora) muy rápidas.

Método Analítico

En primer lugar vamos a definir cada uno de los elementos que intervienen
en el mismo:

C: Cadencia horaria de la máquina, o número de piezas fabricadas en una


hora.

n: Número de piezas de cada muestra o tamaño de la muestra.

N: Número de piezas fabricadas en el periodo comprendido entre dos


reglajes.

El número de piezas a muestrear viene dado por la relación:

n piezas cada √n · N piezas

y la frecuencia de muestreo será:

f = √n · N · (60/C)
5.4. Cálculo De Probabilidades En Distribuciones Normales. Porcentaje
De Piezas Defectuosas

Distribución normal tipificada

Cuando en una distribución normal, la Media es igual a cero, y la Desviación


Típica es Igual a uno, la Distribución Normal se denomina Distribución Normal
Tipificada, por tanto N(0,1), y el área que se encierra bajo esa curva es Área =
1.

Para poder calcular una probabilidad en una Distribución Normal, esta se


estandariza, transformando la variable “x” en “z”.

Entre los datos más significativos que se pueden obtener en la Curva Normal,
se encuentra el área comprendida entre la curva y dos valores cualesquiera de
variable. El área bajo la Curva Normal N (0,1) está tabulada para los diferentes
valores de la variable, lo cual permite conocer el área o tanto por ciento de la
población que se encuentra entre dos valores determinados de la Distribución
Normal Tipificada. El proceso de cálculo es el siguiente:

1. Plantear el problema

En una distribución normal definida por una Media=14 y un desviación típica o


estándar de 2, se desea conocer el valor del área bajo la curva comprendida
entre los puntos (X - σ) y (X + σ), y el porcentaje de valores de piezas (datos)
correspondientes.

2. Calcular los valores de “z”

3. Determinar las áreas respectivas.

Partiendo de los valores de “z” calculados, a la vista de la Distribución Normal


Tipificada, tenemos:
Por tanto, el área comprendida entre ambas será la diferencia, esto es 0.6826.

4. Cálculo del porcentaje del valor bajo la curva

Teniendo en cuenta que este valor está dado en tanto por ciento, tenemos el
68.26%

Probabilidad de encontrar material defectuoso en un lote o


población de piezas

Una de las aplicaciones del punto anterior más empleada en calidad, consiste
en conocer la probabilidad de encontrar piezas defectuosas perteneciente a un
lote o población para poder calcular el porcentaje y número total de dichas piezas,
conocidas sus especificaciones, media nominal, así como el resultado de las
muestras medidas.

1. Conocer los datos de partida del problema

Sea un lote de 5000 piezas, cuya media nominal es 10 y los valores de


tolerancia Ts = 10.08 y Ti = 9.96. Se ha medido una muestra de 100 piezas
proporcionando una serie de datos, cuya distribución de frecuencias corresponde
con una Distribución Normal, y después de realizar los correspondientes cálculos,
según los métodos explicados con anterioridad:

Media = 9.98.

Desviación = 0.02

2. Cálculo de los valores de Z

Para la tolerancia superior Xts = 10.08

Para la tolerancia inferior Xis = 9.96

Utilizando la tabla de Distribución Normal Tipificada tenemos:

Por lo que el área es de 0.99977


Por lo que el área es de 0.1587

3. Determinar los porcentajes de piezas de fuera de tolerancia

Conociendo los valores de Z y sus áreas podemos calcular los porcentajes.

El total de piezas fuera de tolerancia será:

0.023% + 15.87% = 15.893 %

4. Calcular el número de piezas fuera de tolerancia.

Como conocemos que el lote es de 5000 piezas y los porcentajes, es muy


sencillo calcular que por la tolerancia superior encontramos 1 pieza
(redondeando) y por el inferior 794 piezas.

Recta de Henry o Recta de Probabilidad

En el punto anterior se ha estudiado los fundamentos para determinar el


porcentaje de población perteneciente a una Distribución Normal dentro de unos
márgenes determinados. En este punto se expone un método gráfico práctico,
basado en un gráfico que dispone de una escala logarítmica que permite convertir
la Curva Normal en una Recta de Henry o Recta de Probabilidad.

El método facilita la realización de predicciones muy ajustadas, sobre todo si


se emplean equipos informáticos, sobre los probables % de piezas defectuosas
correspondientes a un lote o población de Medida Nominal determinada, que debe
encontrarse entre unos límites (tolerancia superior y tolerancia inferior).

La recta de Henry se traza sobre un gráfico estandarizado. Consta de dos


partes, una donde se representa el histograma y la curva de distribución de
frecuencias, y otra, donde va colocada la escala logarítmica sobre la que se traza
la recta. El procedimiento a seguir es:

1. Conocer los datos de partida como son la medida nominal y la


tolerancia superior e inferior. Por otro lado las medidas efectuadas sobre
las piezas de muestra.
2. Trazar el histograma en la parte correspondiente, marcando con
unos palotes, las frecuencias de los datos.
3. Señalar con unas líneas horizontales los valores de las tolerancias
máximas y mínimas.
4. Se calculan las frecuencias absolutas de cada marca de clase, y se
anota su valor en las columnas de frecuencias (f).
5. Construir la columna de las frecuencias absolutas acumuladas (∑f),
comenzando desde abajo hacia arriba.
6. Convertir estas frecuencias acumuladas en porcentajes del tamaño
general de la muestra. (∑f%).
7. Llevar estos valores acumulados de la columna (∑f%), a través de
las flechas y por el lado superior al lado derecho del gráfico, marcando
una serie de puntos de intersección de estas líneas con las que suben de
la escala logarítmica inferior, partiendo de los mismos valores de las
frecuencias acumulativas porcentuales.
8. Trazar la recta de Henry, ajustándola lo más posible a los puntos
señalados.
9. Analizar los resultados.

6. Estudios De Capacidad

Como es sabido, existe la imposibilidad técnica de fabricar dos piezas


exactamente iguales. Sin embargo, estas diferencias suelen ser tan pequeñas,
que a veces resulta muy difícil su detección, pero teniendo en cuenta que existen,
deben establecerse unos márgenes de aceptación de estas variaciones,
tolerancias, para que los productos puedan ser considerados válidos.

Los indicadores de capacidad son unos indicadores fundamentales del


control estadístico de los procesos y de la máquina, sobre todo como:

• Prueba de la aptitud del proceso o de la máquina, para cumplir con


las especificaciones.
• Índice de evaluación de la mejora del proceso / máquina, como
consecuencia de las acciones correctoras aplicadas.

La diferencia entre capacidad de la máquina y la capacidad del proceso estriba


en que la primera analiza la variabilidad de la propia máquina, y la segunda la
capacidad global del proceso, incluyendo las variables del mismo; personal,
materia, métodos, … Los índices de capacidad que normalmente se aplican son:

• Cm: Índice de Capacidad potencial continua de máquina. Cm ≥ 1.66


• Cp: Índice de Capacidad potencial continua del proceso. Cp ≥ 1.66
• Cmk: Índice de Capacidad real continua de máquina. Cm ≥ 1.66
• Cpk: Índice de Capacidad real continua del proceso. Cm ≥ 1.66

A continuación vamos a hablar de los estudios de capacidad de las


máquinas. Para ello hay que determinar los índices de capacidad preliminar,
tanto de las máquinas como de los procesos. Para ello hay que cumplir unos
requisitos:
1. El tamaño de la muestra ha de ser amplio, de al menos 50 piezas
producidas sin manipularla máquina.
2. Las materias utilizadas han de ser comprobados con anterioridad.
3. Los aditivos utilizados han de ser estables, y han de encontrarse en
perfectas condiciones.
4. Los aparatos de medida han de estar calibrados, y con una precisión
mínima de 1/10.

Estos estudios de capacidad de máquinas han de realizarse a máquinas nuevas


en el domicilio del fabricante, máquinas nuevas en el domicilio del cliente,
máquinas reparadas, máquinas trasladadas, y en general toda máquina que
ofrezca desconfianza.

También hay que hacer estudios de capacidad de los procesos. La


capacidad del proceso expresa la posibilidad que dicho proceso tiene, de producir
piezas / operaciones, dentro de los valores de tolerancia especificados, y viene
definida por los índices de capacidad respectivos.

La capacidad de un proceso depende de dos factores:

• Del valor de su medida.


• Del valor de su variabilidad, es decir, de su desviación típica.

Los estudios preliminares de capacidades de un proceso son estudiados a corto


plazo, para obtener información de un proceso nuevo o revisado, conforme a los
requerimientos del cliente.

1. Capacidad potencial preliminar del proceso (máquina) Pp

Indica la capacidad potencial a corto plazo del proceso, para poder conseguir
todas las piezas dentro de las especificaciones.

Su valor viene determinado por el Índice de Capacidad Potencial Preliminar de


Proceso Pp o de la máquina Cm, que se calcula del modo siguiente:

Lo cual no significa necesariamente, que todas las piezas se encontrarán dentro


de la tolerancia, puesto que el proceso puede encontrarse descentrado, motivo
por el que debe calcularse la capacidad real preliminar del proceso.

2. Capacidad real preliminar del proceso (máquina) Ppk


Mide el centraje del proceso o máquinas a corto plazo, respecto a cada una de
las tolerancias, es decir, la tolerancia superior, y la tolerancia inferior. Se mide a
través del Índice de Capacidad Real Preliminar del Proceso Ppk, o de la máquina
Pmk. Se toma el valor mínimo de Z.

3. Capacidad potencial continua del proceso Cp

Los estudios continuos de capacidad del proceso son una medida a largo plazo
del comportamiento del mismo con respecto a las especificaciones. La desviación
típica o estándar “s” se obtiene mediante mediciones realizadas en proceso de
fabricación.

La capacidad potencial continua del proceso mide la capacidad potencial a largo


plazo del proceso para poder conseguir todas las piezas / operaciones dentro de
las especificaciones, puesto que comparara la Tolerancia= Ts – Ti , con la
amplitud de las 6 desviaciones (6s).

Se determina por medio del Índice de Capacidad Potencial Continua del Proceso
Cp, lo cual no significa que todas las piezas / operaciones se encantarán dentro
de la tolerancia, puesto que el proceso puede encontrarse descentrado, motivo
por el que debe calcularse la capacidad real continua del proceso.

4. Capacidad real continua del proceso Cpk

Mide el centrado del proceso a largo plazo, respecto a cada una de las
tolerancias, es decir, respecto a la tolerancia superior y de la Tolerancia inferior,
razón por la que se toma el valor menor de cualquiera de ellos.

Se mide por el valor del Índice de capacidad real continuo del proceso Cpk, que
se calcula del modo siguiente:
Si se cumple que Cpk es mayor o igual a 1.33 significa que obtendrá el 99.73%
de las piezas dentro de las tolerancias especificadas.

Cuanto más centrada esté la campana de Gauss y cuanto menor sea la


variación de medidas, mayor será la capacidad de los procesos y de las máquinas.
Cuando en una empresa se desarrollan, además de un modo adecuado, procesos
de mejorar continua, su efecto beneficioso se ve reflejado en incrementos
graduales del Índice de Capacidad de Proceso.

Glosario

Sistemático: 1. Que sigue o se ajusta a un sistema o conjunto de elementos


ordenados2. Se aplica a la persona que actúa con un método determinado y
mucha constancia.
Promedio: Punto en que una cosa se divide por mitad o casi por mitad.
Tolerancia: 1. Respeto a las opiniones, ideas o actitudes de los demás, aunque
no coincidan con las propias2. Capacidad que tiene un organismo para resistir y
aceptar el aporte de determinadas sustancias3. Diferencia máxima entre el valor
nominal y el valor real de la cualidad o la cantidad de una sustancia o de un
material.

Recuerda

• La necesidad de medir en el ámbito de la Calidad viene determinado


por el Aseguramiento de la Calidad.

• Se define al error absoluto de la medida, como la diferencia


entre el resultado de la medición y lo que se considera valor verdadero.

• La incertidumbre viene definida por la norma UNE-EN ISO


10012:2003, como “la estimación que determina el intervalo de valores
en el que se ubica, con una alta probabilidad dada, el valor verdadero de
la magnitud medida”.
• La desviación típica del proceso St, se calcula en base a la ley de
propagación de las varianzas, teniendo en cuenta al patrón, la
calibración y la medida.

• El plan de calibración se define como la calibración sistemática


y organizada del total de los instrumentos o equipos de medida
de un centro de medición, de forma que se pueda asegurarla
trazabilidad y la incertidumbre asociada a las mediciones que con ellos se
realicen.

• El histograma es una representación gráfica, del tipo de gráficos


de barras, de una distribución de frecuencias.

• La distribución normal corresponde a las variables aleatorias


continuas, y se representa en los casos en los que la probabilidad máxima
corresponde a un valor central de la variable, obteniéndose
probabilidades cada vez menores a medida que se aleja de él.

• Los indicadores de capacidad son unos indicadores


fundamentales del control estadístico de los procesos y de la máquina.

También podría gustarte