Está en la página 1de 1

1.- ¿A cuántos ppm corresponde tener un nivel de calidad 6sigma?

Con menos de 0,000003 defectos por oportunidad (3 defectos x millón de oportunidades).

2.- Investigar y explicar de manera sencilla qué es la desviación estándar?

La desviación estándar es un índice numérico de la dispersión de un conjunto de datos (o


población). Mientras mayor es la desviación estándar, mayor es la dispersión de la población.
La desviación estándar es un promedio de las desviaciones individuales de cada observación
con respecto a la media de una distribución. Así, la desviación estándar mide el grado de
dispersión o variabilidad. En primer lugar, midiendo la diferencia entre cada valor del conjunto
de datos y la media del conjunto de datos. Luego, sumando todas estas diferencias
individuales para dar el total de todas las diferencias. Por último, dividiendo el resultado por
el número total de observaciones (normalmente representado por la letra “n”) para llegar a
un promedio de las distancias entre cada observación individual y la media. Este promedio de
las distancias es la desviación estándar y de esta manera representa dispersión.

Matemáticamente, la desviación estándar podría, a primera vista, parecer algo complicada.


Sin embargo, es en realidad un concepto extremadamente simple. En realidad, no importa si
usted no sabe calcular con exactitud la desviación estándar, siempre y cuando usted
comprenda claramente el concepto.

La desviación estándar es un indicador en extremo valioso con muchas aplicaciones. Por


ejemplo, los estadísticos saben que cuando un conjunto de datos se distribuye de manera
“normal”, el 68% de las observaciones de la distribución tiene un valor que se encuentra a
menos de una desviación estándar de la media. También saben que el 96% de todas las
observaciones tiene un valor no es mayor a la media más o menos dos desviaciones estándar.

También podría gustarte