Está en la página 1de 70

Calidad Total

02

DISTRIBUCION DE FRECUENCIAS

INST: TAPIA HORA PERCY

Curso Transversal 1
Calidad Total

Curso Transversal 2
Calidad Total

DISTRIBUCIÓN DE FRECUENCIAS.

TABLA DE DISTRIBUCIÓN DE FRECUENCIA.

La distribución de frecuencia es la representación estructurada, en forma de tabla, de


toda la información que se ha recogido sobre la variable que se estudia.

Una de los primeros pasos que se realizan en cualquier estudio estadístico es la


tabulación de resultados, es decir, recoger la información de la muestra resumida en
una tabla, que denominaremos DISTRIBUCIÓN DE FRECUENCIAS, en la que cada
valor de la variable o clase se le asocian el número de veces que ha aparecido, su
proporción con respecto a otros valores de la variable, etc. En caso de que las
variables estén al menos en escala ordinal aparecen opcionalmente las frecuencias
acumuladas absolutas y acumuladas porcentuales.

Usos y aplicaciones.

La tabla de distribución de frecuencias ayuda a agrupar cualquier tipo de dato numérico.

Las tablas de distribución de frecuencias se utilizan cuando se recolectan datos, con


ellas se pueden representar los datos de manera que es más fácil analizarlos.

Se pueden elaborar tablas de distribución de frecuencias para datos no agrupados y


para datos agrupados. Estas últimas se utiliza cuando se tienen muchos datos.

Primero que nada, una tabla de distribución de frecuencias es una manera de


organizar los datos recolectados, esto es muy útil ya que permite analizar con mayor
facilidad un grupo de datos sin que se tenga que considerar individualmente cada dato.

TABLA DE DISTRBUCIÓN DE FRECUENCIAS

Se define como frecuencia de un dato el número de veces que este aparece en el


colectivo. Siendo N la suma de las respectivas frecuencias de cada dato (N=ΣXi). Este
N será denominado como frecuencia total. Para efectos prácticos, se asumen las
siguientes definiciones de frecuencias:

a) Frecuencias Absolutas: es el número de veces que aparece dicho valor de la


variable y se representa por F.

b) Frecuencias Relativas: es el cociente entre la frecuencia absoluta y el tamaño de


la muestra. La denotaremos por Fr%

Curso Transversal 50
Calidad Total

c) Frecuencias Absoluta Acumulada: es el número de veces que ha aparecido en la


muestra un valor menor o igual que el de la variable, se puede acumular, en la tabla
estadística en orden ascendente (Fa↑) o descendente (Fa↓).

d) Frecuencia Relativa Acumulada: al igual que en el caso anterior se calcula como


el cociente entre la frecuencia absoluta acumulada dividido por el tamaño de la
muestra (N). (Far%)

REPRESENTACIÓN GRAFICAS DE VARIABLES CUALITATIVAS.

El Gráfico es la representación en el plano, de la información


estadística, con el fin de obtener una impresión visual global del
material presentado, que facilite su rápida comprensión. Los
gráficos son una alternativa a las tablas. Se emplean símbolos,
barras, polígonos y sectores, de los datos contenidos en tablas
de frecuencias.

ALGUNOS REQUISITOS RECOMENDABLES AL CONSTRUIR


UN GRÁFICO SON:

- Evitar distorsiones por escalas exageradas.


- Elección adecuada del tipo de gráfico, según los objetivos y Al igual que las tablas estadísticas,
tamaño de recorrido de las variables. los gráficos estadísticos deben tener
un título y una explicación de QUÉ,
- Sencillez y auto-explicación.
DÓNDE y CUANDO se obtuvo la
información.

Se tratarán cuatro tipos de gráficos estadísticos:

- Gráfico de sectores o tortas.


- Gráficos de Barras

GRÁFICO DE SECTORES O TORTAS.

Este tipo de diagramas consideran una figura geométrica en que la distribución de


frecuencias se reparte dentro de la figura como puede ser una dona, pastel, círculo o
anillo, en el que cada porción dentro de la figura representa la información porcentual
del total de datos.

CARACTERÍSTICAS DE LOS GRÁFICOS DE SECTORES.

- No muestran frecuencias acumuladas.


- Se prefiere para el tratamiento de datos cualitativos.
- La mayor área (o porción de la figura) representa la mayor frecuencia.
- Son muy fáciles de elaborar.
- La figura completa equivale al 100% de los datos (360º).

Curso Transversal 51
Calidad Total

Grafico de
Torta Candidato 1
14% 18%
14% Candidato 2
22%
Candidato 3
32%
Candidato 4
Candidato 5

DIAGRAMAS DE BARRAS. Se utiliza para representar datos cualitativos y


cuantitativos, con datos de tipo discreto. En el eje x se representan los datos
ordenados en clases mientras que en el eje y se pueden representar frecuencias
absolutas o relativas. Todas las barras deben ser de igual ancho y estar igualmente
Clase (F) Fr% Fa Fra%
G R A F I CA D E BA R R A S
Candidato 1 25 0,17857 25 0.17857 60

Candidato 2 30 0,21428 55 0.39285


Frecuencia

40

Candidato 3 45 0,32142 100 0.71472 20

Candidato 4 20 0,14285 120 0.855712 0

Candidato 5 20 0,14285 140 1

Total 140 1

espaciadas.

DISTRIBUCIÓN DE FRECUENCIA PARA DATOS AGRUPADOS

Es aquella distribución en la que la disposición tabular de los datos estadísticos se


encuentra ordenados en clases y con la frecuencia de cada clase; es decir, los datos
originales de varios valores adyacentes del conjunto se combinan para formar un
intervalo de clase. No existen normas establecidas para determinar cuándo es
apropiado utilizar datos agrupados o datos no agrupados; sin embargo, se sugiere que
cuando el número total de datos (N) es igual o superior 50 se utilizará la distribución de
frecuencia para datos agrupados, también se utilizará este tipo de distribución cuando
se requiera elaborar gráficos lineales como el histograma, el polígono de frecuencia.

La razón fundamental para utilizar la distribución de frecuencia de clases es


proporcionar mejor comunicación acerca del patrón establecido en los datos y facilitar
la manipulación de los mismos. Los datos se agrupan en clases con el fin de sintetizar,
resumir, condensar o hacer que la información obtenida de una investigación sea
manejable con mayor facilidad.

Curso Transversal 52
Calidad Total

COMPONENTES DE UNA DISTRIBUCIÓN DE FRECUENCIA DE CLASE.

1. Rango o Amplitud total (recorrido). Es el límite dentro del cual están


comprendidos todos los valores de la serie de datos, en otras palabras, es el
número de diferentes valores que toma la variable en un estudio o investigación
dada. Es la diferencia entre el valor máximo de una variable y el valor mínimo que
ésta toma en una investigación cualquiera. El rango es el tamaño del intervalo en el
cual se ubican todos los valores que pueden tomar los diferentes datos de la serie
de valores, desde el menor de ellos hasta el valor mayor estando incluidos ambos
extremos. El rango de una distribución de frecuencia se designa con la letra R.

R= Valor Mayor – Valor Menor

2. Clase o Intervalo de clase. Son divisiones o categorías en las cuales se agrupan


un conjunto de datos ordenados con características comunes. En otras palabras,
son fraccionamientos del rango o recorrido de la serie de valores para reunir los
datos que presentan valores comprendidos entre dos límites.

Una regla práctica para determinar cuántos intervalos van a incluirse es el uso de
una fórmula dada por Sturges. Esta fórmula es

Donde:
k = 1 + 3,322 (log n)

k: número de intervalos de clase,


n: número de valores en el conjunto de datos bajo consideración

La respuesta obtenida bajo la fórmula de Sturges no debe considerarse como


definitiva, sino solo como una guía. (este valor tiene que ser un numero entero)

3. Amplitud de Clase, Longitud o Ancho de una Clase: La amplitud o longitud de


una clase es el número de valores o variables que concurren a una clase
determinada. La amplitud de clase se designa con las letras c. Esta amplitud puede
determinarse dividiendo el recorrido entre el valor de k, el número de intervalos de
clase. Simbólicamente, la amplitud del intervalo de clase está dada por:

4. Punto medio o Marca de Clase: El centro de la clase, es el valor de los datos que
se ubica en la posición central de la clase y representa todos los demás valores de
esa clase. Este valor se utiliza para el cálculo de la media aritmética.

Curso Transversal 53
Calidad Total

MÉTODOS PARA DETERMINAR LA FRECUENCIA DE CADA CLASE.


Diagrama de tallo y hoja (Stem-and-Leaf).

 Es dentro de las técnicas de análisis exploratorio de datos una de más usadas ya


que permite mostrar el orden de rangos, así como la forma de un conjunto de datos
en forma simultánea.
 Se caracteriza por ser fácil de construir y dar más información que un histograma,
debido a que muestra los valores reales.
 No hay cantidad única de tallos ni hojas aun cuando se recomienda seleccionar
entre 5 a 20 tallos.

HISTOGRAMAS Y POLÍGONOS DE FRECUENCIA.

Histograma de Frecuencia.

- Este gráfico se puede preparar con datos que han


sido resumido en una distribución de frecuencia.
- Se coloca la variable de interés en el eje horizontal
y la distribución de frecuencia el vertical.
- A diferencia del gráfico de barras no hay separación
entre los rectángulos formados por las clases
adyacentes, se completa con la línea vertical que
separa a cada uno de ellos.
- Cuando se traza una línea recta entre cada punto
medio de clase se construye un polígono de frecuencia

Polígono de Frecuencias.

Alternativo al histograma de frecuencias podemos


representar la información a través de los llamados
polígonos de frecuencias. Estos se construyen a partir
de los puntos medios de cada clase. La utilización de
los puntos medios o marcas de clase son llevados al
escenario gráfico mediante la utilización de los
polígonos de frecuencias. Se construye uniendo los
puntos medios de cada clase localizados en las tapas
superiores de los rectángulos utilizados en los
histogramas de las gráficas.

Su utilidad se hace necesaria cuando desean destacarse las variables de tendencia


central, como son media, modas y medianas.

Curso Transversal 54
Calidad Total

APLICACIÓN.

CONSTRUCCIÓN DE TABLAS DE FRECUENCIAS


DE DATOS NO AGRUPADOS
Para construir una tabla de distribución de frecuencias, se debe:
1. Identificar el Menor Valor y el Mayor Valor de las variables.
2. Anotar ordenadamente de Menor a Mayor los distintos “valores de la variable”, en la
columna del mismo nombre, sin repetición.
3. Contar el número de veces que se repite cada dato y anotar la cantidad en la
columna “Frecuencia Absoluta” (fi).
4. Anotar la frecuencia total (n).

Ejemplo 1:
Construir una tabla de distribución de frecuencias con las notas obtenidas por el 4° año
E de un colegio, en una prueba de Biología. Las notas fueron:

4 7 6 7 6 5 4 6 7 1 6 2 4 6 5 4
4 6 5 4 2 2 7 3 5 7 4 6 5 7 6 7
3 5 7 5 6 5 6 7

1. Se identifica que la menor nota obtenida es un uno (1) y la mayor nota un siete (7),
además estamos hablando de variables cuantitativas discretas.
2. Se construye la tabla, anotando los distintos valores de la variable, sin repetición.

Notas P. Biología 4°E


1
2
3
4
5
6
7

3. Contar la cantidad de veces que se repite cada nota en la columna de Frecuencia


Absoluta (fi).

Notas P. Biología 4°E Frecuencia Absoluta


Fi
1 1
2 3
3 2
4 7
5 8
6 10
7 9

Curso Transversal 55
Calidad Total

4. Finalmente se debe anotar la Frecuencia Total (n), que se obtiene sumando todas
las frecuencias absolutas, este número debe coincidir con el número de la población
o muestra a estudiar.

Notas P. Biología 4°E Frecuencia Absoluta


Fi
1 1
2 3
3 2
4 7
5 8
6 10
7 9

Frecuencia Total (n) 40

EJERCICIOS:

1. Con los siguientes datos, que se obtuvieron al consultar las edades de los alumnos
de un curso de 40 alumnos, construye una tabla de distribución de frecuencias
absolutas, de datos no agrupados.

16 17 16 16 17 17 16 17 18 17 15 17
17 16 17 15 17 16 18 16 16 18 16 16
16 16 17 16 16 16 16 16 15 18 17 16
17 17 18 16

Edades de Alumnos Frecuencia Absoluta


Fi
15 3
16 19
17 13
18 5
Frecuencia Total (n) 40

Curso Transversal 56
Calidad Total

2. Cantidad de personas que componen el grupo familiar en una encuesta realizada a


50 hogares.
6 4 4 3 2 5 7 6 4 6 6 3 4 4 4
2 5 4 3 4 7 3 4 7 3 5 5 5 1 5
6 7 5 4 5 6 10 7 6 8 7 4 5 3 6
8 4 9 5 5

GRUPO FRECUENCIA
FAMILIAR ABSOLUTA
1 1
2 2
3 6
4 12
5 11
6 8
7 6
8 2
9 1
10 1
TOTAL 50

3. Rendimiento (en kilómetros por litro de bencina) de 120 vehículos controlados por
una compañía

8 9 12 14 19 9Kilómetro
16 14 9 10 12 15Frecuencia
17 11 18 13 15 11 11 16
14 15 13 8 17 14 9 litro
s por 17 13 17 12 absoluta
10 16 13 10 20 12 19 11 12
16 14 14 17 10 17 148 15 20 16 13 16 9 7 19 16 17 18 17 11 15
12 20 16 15 17 18 9 14 13 18 18 15 15 19 8 11 13 11 13 12
13 11 17 15 12 13 89 11 12 14 19 16 148 14 10 17 10 16 12 17
18 16 12 9 9 15 10 10 13 11 13 13 8 8 9 13 10 12 19 10 14 8

11 10

12 12

13 14

14 12

15 11

16 10

17 12

18 6

Curso Transversal 19 6 57

20 3

TOTAL 120
Calidad Total

CONSTRUCCIÓN DE TABLAS DE DSTRIBUCIÓN DE FRECUENCIAS DE DATOS


AGRUPADOS

Cuando los valores de la variable de un conjunto de datos son muy numerosos y sus
frecuencias también lo son (Cuantitativo Continuo), es conveniente agrupar los valores
de la variable en Intervalos de Clases.

Un Intervalo de Clases es un par de valores de la variable (extremos) que agrupa a


todos los valores que están entre ellos. Los valores extremos de un intervalo de clase,
se conocen como Límite Inferior y Límite Superior.

Por Ejemplo…
11 - 20
Límite Inferior Límite Superior

Para determinar los intervalos de una distribución de frecuencias, es necesario seguir


los siguientes pasos.

1. Determinar la Longitud de Clase (Rango); se refiere a la diferencia entre el mayor y


el menor de la variable.
2. Determinar el número de intervalos. Se refiere a la cantidad de intervalos de clases
en los cuales se agruparán los datos. La cantidad es arbitraria, aunque
generalmente se usan 10 o un número cercano a 10. Al elegir muchos intervalos
(más de 25), es poco lo que se gana con la agrupación y al elegir pocos intervalos
(menos de 5) se pierde parte de la información o se distorsiona.
3. Determinar el Tamaño de los Intervalos, se refiere al cociente entre la Longitud de
Clase y el Número de Intervalos.
4. Fijar el Límite Inferior y Superior de cada intervalo.
5. Determinar la Marca de Clase y Completar la Tabla de Frecuencias Relativas y
Acumuladas, con sus Porcentajes.

Ejemplo…

Construir una tabla de Distribución de Frecuencia en intervalos de clase con las


estaturas, en centímetros, de 80 alumnos de un colegio.

Curso Transversal 58
Calidad Total

150 152 153 153 154 155 156 157 150


153 169 154 155 156 157 150 152 153
154 155 158 157 152 153 153 154 155
156 157 152 153 153 154 155 155 154
158 161 161 162 165 162 168 170 158
162 162 165 166 168 172 159 161 174
163 165 166 168 172 159 161 167 163
167 169 172 160 161 162 163 166 162
154 157 156 161 166 155 152 165

1° Paso: Determinar Longitud de Clase (Rango):


R = Mayor Valor - Menor Valor
R = 174 - 150 = 24

2° Paso: Determinar el Número de Intervalos:


Se considerará el Valor 8 (Además es Factor de 24)

3° Paso: Determinar el Tamaño de los Intervalos (c):

R
c  24
 8  3
N de Intervalos
4° Paso: Fijar el Límite Inferior y el Límite Superior de cada Intervalo.

Límite Inferior de la Variable Intervalo de Clases Nota: Si el tamaño del intervalo no resulta ser
150 - 153 un número entero, a veces, si la variable es
153 - 156 cuantitativa discreta, conviene aproximarlo al
156 - 159 entero que corresponda.
Luego se va sumando el tamaño de 159 - 162
los intervalos (3) 162 - 165
165 - 168
168 - 171
171 - 174
Con esto se obtienen intervalos “cerrados – abiertos”; es decir, un dato igual al
Límite superior de un intervalo corresponderá al intervalo siguiente.

Por ejemplo, el valor153 corresponde al intervalo 153 - 156 y no al intervalo 150 - 153.

5° Paso: Determinar la Marca de Clase y completar las frecuencias.


Para facilitar el manejo de una tabla de distribución de frecuencias de datos agrupados
en intervalos de clases, se acostumbra a trabajar con un solo valor de cada intervalo,
llamado Marca de Clase (xi), que corresponde a la semi-suma de los límites de cada
intervalo.

Curso Transversal 59
Calidad Total

Intervalo de Clases xi fi fac %fi %fac


150 - 153 151,5 8 8 10% 10%
153 - 156 154,5 22 30 27,5% 37,5%
156 - 159 157,5 12 42 15% 52,5%
159 - 162 160,5 9 51 11,25% 63,75%
162 - 165 163,5 9 60 11,25% 75%
165 - 168 166,5 10 70 12,5% 87,5%
168 - 171 169,5 6 76 7,5% 95%
171 - 174 172,5 4 80 5% 100%
Totales  n = 80 100%

Ejercicios…

1. Completar la tabla de distribución de frecuencias que muestra el número de veces


que salió cada puntuación en el lanzamiento de un dado y luego contestar las
preguntas.

N° en los Dados fi fac


a. ¿Cuál fue el número total de lanzamientos?
2. 1 332 332
2000 2 336 668
3 323 991 a. ¿Cuántas veces salió una puntuación menor que 3?

4 340 1331 b. ¿Cuántas veces salió una puntuación menor que 5?

5 331 1662 c. ¿Cuántas veces salió una puntuación menor o igual

6 338 2000 que 5?


n=

3. Completar la tabla y luego contestar las preguntas. Notas obtenidas por 45 alumnos
en una Prueba de Castellano (aproxima a tres decimales).
a. ¿Cuántos alumnos obtuvieron nota igual o inferior a 5?
Intervalo
b. ¿Cuántos alumnos obtuvieron nota inferior a 4?
de c. ¿Cuántos alumnos obtuvieron nota 7?
fi fac %fi %fac
Clases d. ¿Qué % de alumnos obtuvo nota 3?
e. ¿Qué % de alumnos obtuvo nota 6?
1 1 1 2,22
f. ¿Qué % de alumnos obtuvo nota igual
2 4 5 11,11 o inferior a 5?
g. ¿Qué 5 de alumnos obtuvo nota igual
3 5 10 22,22
o inferior a 6?
4 6 16 35,55 h. ¿Qué % de alumnos obtuvo nota
inferior a 4?
5 9 25 55,55
6 12 37 26,66
7 8 45 17,7
n  N=45 100%

Curso Transversal 60
Calidad Total

4. Las edades de 195 alumnos de un colegio son las siguientes…

13 15 19 14 15 17 17 18 16 14 17 14 19
14 15 15 13 16 17 18 19 17 13 17 13 20
16 17 16 15 16 18 17 20 16 14 18 14 17
18 16 16 13 14 15 16 18 17 15 19 16 17
19 18 14 14 13 16 15 17 15 16 15 18 16
14 15 13 18 16 15 14 15 17 16 15 20 17
16 17 13 18 17 13 15 14 18 17 14 14 16
17 16 15 15 18 14 17 15 19 17 13 15 18
18 14 17 16 19 16 16 13 18 18 18 16 17
19 13 17 14 17 13 17 14 15 15 19 17 17
14 15 15 17 14 15 18 13 16 15 16 19 17
15 16 17 16 16 17 19 16 15 13 17 17 16
16 17 14 15 17 15 15 18 17 14 16 15 13
18 16 18 15 18 16 20 17 18 16 16 14 18
19 14 18 13 16 17 14 15 19 17 18 16 15

Construye una tabla de distribución de frecuencias y contesta las siguientes preguntas


(aproxima a tres decimales)
a. ¿Cuántos alumnos tienen 17 años? 39
b. ¿Cuántos alumnos tienen 16 años o menos de 16? 113
c. ¿Cuántos alumnos tienen menos de 15 años? 42
d. ¿Qué % de alumnos tiene 14 años? 13%
e. ¿Qué % de alumnos tiene 20 años? 2%
f. ¿Qué % de alumnos tienen menos de 19 años? 91%
g. ¿Qué % de alumnos tienen 17 años o menos? 78%

Edades
fi fac %fi %fac
13 17 17 9% 9%
14 25 42 13% 22%
15 34 76 17% 39%
16 37 113 19% 58%
17 39 152 20% 78%
18 26 178 13% 91%
19 13 191 7% 98%
20 4 195 2% 100%
195 100%

Curso Transversal 61
Calidad Total

5. En un Conjunto Habitacional, se pretende hacer un estudio acerca del número de


personas que habita cada bloque. A través de una encuesta a las familias que
habitan los departamentos de los 80 bloques del conjunto, se obtuvieron los
siguientes datos:

63 69 83 85 93 73 80 94 104 125
114 152 115 120 127 139 105 114 123 121
128 90 75 137 131 73 62 100 109 117
124 103 133 138 143 110 60 91 87 156
147 134 129 96 99 72 104 97 84 98
78 71 113 63 69 76 86 88 77 124
116 119 102 107 106 111 119 107 100 109
83 85 93 118 116 117 133 150 143 93

Curso Transversal 62
Calidad Total

Realiza una tabla de frecuencia dividiendo los datos en clases de longitud 8 y otra
dividiendo en clases de longitud 12.

R= RANGO= MAYOR – MENOR

RANGO=
RANGO=

K=#INTERVALOS= CLASE (NUMERO ENTERO)

K=1+3.322 x log (n)


K=1+3.322 x log (80)
K=

AMPLITUD DE CLASE=

C= R/K
C=

INTERVALOS MARCA DE FRECUENCIA FRECUENCIA % %


LIMITES CLASE ABSOLUTA ACUMULADA FRECUENCIA FRECUENCIA
(SUP-INF) (xi) (fi) (FA) SIMPLE ACUMULADA
60 - 68 67

80

Curso Transversal 63
Calidad Total

INTERVALOS MARCA DE FRECUENCIA FRECUENCIA % %


LIMITES CLASE ABSOLUTA ACUMULADA FRECUENCIA FRECUENCIA
(SUP-INF) (xi) (fi) (FA) SIMPLE ACUMULADA

6. La tabla siguiente muestra longitudes en cm. de 42 tornillos. Construir una


distribución (tabla) de frecuencia, utilizando intervalos de clases adecuados. Señala
también la marca de clase en cada caso.

7,36 7,29 7,43 7,40 7,36 7,41


7,35 7,31 7,26 7,37 7,28 7,37
7,36 7,35 7,24 7,33 7,42 7,36
7,39 7,35 7,45 7,36 7,42 7,40
7,28 7,38 7,25 7,33 7,34 7,32
7,33 7,30 7,32 7,30 7,39 7,34
7,38 7,39 7,27 7,35 7,35 7,32

NUMEROS DE DATOS DE LA MUESTRA: 42


DATO CON VALOR MINIMO: Xmin = 7.24
DATO CONVALOR MAXIMO: Xmax = 7.45
RANGO: Xmax – Xmin = 7.45 – 7.2= 0.21
Formula de Sturges: (Herbert Sturges – 1926

L+log2 (n)0 1+3.32log(n)

Curso Transversal 64
Calidad Total

K=1+3.32log

INTERVALOS MARCA DE FRECUENCIA FRECUENCIA % %


LIMITES CLASE ABSOLUTA ACUMULADA FRECUENCIA FRECUENCIA
(SUP-INF) (xi) (fi) (FA) SIMPLE ACUMULADA

7. Completa la tabla de distribución de frecuencias con los datos correspondientes a la


duración en horas de 80 ampolletas fabricadas por una industria.

295 305 308 291 298 323 328 300 297 297 294 295 295 294 299 290

Curso Transversal 65
Calidad Total

322 304 304 299 324 299 320 320 302 320 300 324 300 301 311 304

323 321 322 313 310 317 311 318 301 310 308 303 312 306 314 307

313 315 312 314 318 311 310 310 314 317 317 306 307 318 319 317

319 319 305 309 306 314 309 310 319 315 312 308 313 316 311 319

Intervalo de Clases xi fi fac %fi %fac


290 - 295
295 - 300
300 - 305
305 - 310
310 - 315
315 - 320
320 - 325
325 - 330
Totales 
De acuerdo con la tabla anterior, contestar las siguientes preguntas:

a. ¿Cuántas ampolletas tuvieron una duración entre 300 y 305 horas?


b. ¿Cuántas tuvieron una duración menor que 305 horas?
c. ¿Cuántas tuvieron una duración menor que 320 horas?
d. ¿Qué porcentaje representan las ampolletas que duraron entre 310 y 315 horas?
e. ¿Qué porcentaje representan las ampolletas que duraron entre 300 y 325 horas?
f. ¿Qué porcentaje representan las ampolletas que duraron menos de 310 horas?
g. ¿Qué porcentaje representan las ampolletas que duraron menos de 325 horas?

Curso Transversal 66
Calidad Total

I. MEDIDAS DE TENDENCIA CENTRAL Y MEDIDAS DE DISPERSIÓN.

5.1. MEDIDAS DE TENDENCIA CENTRAL.

Al describir grupos de observaciones, con frecuencia es conveniente resumir la


información con un solo número. Este número que, para tal fin, suele situarse hacia el
centro de la distribución de datos se denomina medida (Media) o parámetro de
tendencia central o de centralización.

Cuando se hace referencia únicamente a la posición de estos parámetros dentro de la


distribución, independientemente de que esta esté más o menos centrada, se habla de
estas medidas como medidas de posición. En este caso se incluyen también los
cuantiles entre estas medidas.

Las medidas de tendencia central corresponden a valores que generalmente se


ubican en la parte central de un conjunto de datos. (Ellas permiten analizar los datos
en torno a un valor central). Entre éstas están la media aritmética, la moda y la
mediana.

MEDIA ARITMÉTICA (X):

La media aritmética es el valor obtenido sumando todas las observaciones y


dividiendo el total por el número de observaciones que hay en el grupo.

suma de todos los valores x1 + x2 + x3 + x4 + ......


X= =
número total de datos n

La media resume en un valor las características de una variable teniendo en cuenta a


todos los casos. Solamente puede utilizarse con variables cuantitativas.

Las principales propiedades de la media aritmética son:

 Su cálculo es muy sencillo y en él intervienen todos los datos.


 Su valor es único para una serie de datos dada.
 Se usa con frecuencia para comparar poblaciones, aunque es más apropiado
acompañarla de una medida de dispersión.
 Se interpreta como "punto de equilibrio" o "centro de masas" del conjunto de datos,
ya que tiene la propiedad de equilibrar las desviaciones de los datos respecto de su
propio valor:

 Minimiza las desviaciones cuadráticas de los datos respecto de cualquier valor

Curso Transversal 67
Calidad Total

prefijado, esto es, el valor de es mínimo cuando . Este

Curso Transversal 68
Calidad Total

resultado se conoce como Teorema de König. Esta propiedad permite interpretar


uno de los parámetros de dispersión más importantes: la varianza.

 Se ve afectada por transformaciones afines (cambios de origen y escala), esto es, si


xi' = axi + b entonces , donde es la media aritmética de los xi', para
i = 1, ..., n y a y b números reales.

 Es poco sensible a fluctuaciones muéstrales, por lo que es un parámetro muy útil en


inferencia estadística.

Inconvenientes de su uso.

Este parámetro, aun teniendo múltiples propiedades que aconsejan su uso en


situaciones muy diversas, tiene también algunos inconvenientes, como son:

 Para datos agrupados en intervalos (variables continuas) su valor oscila en función


de la cantidad y amplitud de los intervalos que se consideren.
 Es una medida a cuyo significado afecta sobremanera la dispersión, de modo que
cuanto menos homogéneos son los datos, menos información proporciona. Dicho
de otro modo, poblaciones muy distintas en su composición pueden tener la misma
media. Por ejemplo, un equipo de baloncesto con cinco jugadores de igual estatura,
1,95, pongamos por caso, tendría una estatura media de 1,95, evidentemente, valor
que representa fielmente a esta homogénea población. Sin embargo, un equipo de
estaturas más heterogéneas, 2,20, 2,15, 1,95, 1,75 y 1,70, por ejemplo, tendría
también, como puede comprobarse, una estatura media de 1,95, valor que no
representa a casi ninguno de sus componentes.
 En el cálculo de la media no todos los valores contribuyen de la misma manera. Los
valores altos tienen más peso que los valores cercanos a cero. Por ejemplo, en el
cálculo del salario medio de una empresa, el salario de un alto directivo que gane
1.000.000 tiene tanto peso como el de diez empleados "normales" que ganen 1.000.
En otras palabras, se ve muy afectada por valores extremos.
 No se puede determinar si en una distribución de frecuencias hay intervalos de
clase abiertos.

MEDIANA (MED):

La mediana es un valor de la variable que deja por debajo de sí a la mitad de los datos,
una vez que estos están ordenados de menor a mayor.

Según el número de valores que se tengan se pueden presentar dos casos:

1. Si el número de valores es impar, la Mediana corresponderá al valor central de


dicho conjunto de datos.
2. Si el número de valores es par, la Mediana corresponderá al promedio de los dos
valores centrales (los valores centrales se suman y se dividen por 2).

Curso Transversal 69
Calidad Total

Propiedades e inconvenientes:

Las principales propiedades de la mediana son:

 Es menos sensible que la media a oscilaciones de los valores de la variable. Un


error de transcripción en la serie del ejemplo anterior en, pongamos por caso, el
último número, deja a la mediana inalterada.
 Como se ha comentado, puede calcularse para datos agrupados en intervalos,
incluso cuando alguno de ellos no está acotado.
 No se ve afectada por la dispersión. De hecho, es más representativa que la media
aritmética cuando la población es bastante heterogénea. Suele darse esta
circunstancia cuando se resume la información sobre los salarios de un país o una
empresa. Hay unos pocos salarios muy altos que elevan la media aritmética
haciendo que pierda representatividad respecto al grueso de la población. Sin
embargo, alguien con el salario "mediano" sabría que hay tanta gente que gana más
dinero que él, como que gana menos.

Sus principales inconvenientes son que, en el caso de datos agrupados en intervalos,


su valor varía en función de la amplitud de estos. Por otra parte, no se presta a
cálculos algebraicos tan bien como la media aritmética.

MODA (MO):

La moda es el dato más repetido, el valor de la variable con mayor frecuencia absoluta.
En cierto sentido se corresponde su definición matemática con la locución "estar de
moda", esto es, ser lo que más se lleva.

Su cálculo es extremadamente sencillo, pues sólo necesita de un recuento. En


variables continuas, expresadas en intervalos, existe el denominado intervalo modal o,
en su defecto, si es necesario obtener un valor concreto de la variable, se recurre a la
interpolación.

Propiedades:

Sus principales propiedades son:

 Cálculo sencillo.
 Interpretación muy clara.
 Al depender sólo de las frecuencias, puede calcularse para variables cualitativas.
Es por ello el parámetro más utilizado cuando al resumir una población no es
posible realizar otros cálculos, por ejemplo, cuando se enumeran en medios
periodísticos las características más frecuentes de determinado sector social. Esto
se conoce informalmente como "retrato robot".

Curso Transversal 70
Calidad Total

Inconvenientes:

 Su valor es independiente de la mayor parte de los datos, lo que la hace muy


sensible a variaciones muéstrales. Por otra parte, en variables agrupadas en
intervalos, su valor depende excesivamente del número de intervalos y de su
amplitud.
 Usa muy pocas observaciones, de tal modo que grandes variaciones en los datos
fuera de la moda, no afectan en modo alguno a su valor.
 No siempre se sitúa hacia el centro de la distribución.
 Puede haber más de una moda en el caso en que dos o más valores de la variable
presenten la misma frecuencia (distribuciones bimodales o multimodales).

USO DE LAS MEDIDAS DE TENDENCIA CENTRAL.

¿Cuál será la medida de tendencia central que se debe usar, teniendo un


conjunto de observaciones?
Para responder a este cuestionamiento, se debe tomar en cuenta la necesidad de
considerar dos factores muy importantes uno es la escala de medición, que tiene que
ser ordinal o numérica; y otra, la forma de distribución de las observaciones, porque se
tiene que saber si la distribución de las observaciones se desvía a la izquierda o a la
derecha de la media. Si hay observaciones distantes en una sola dirección se trata de
una distribución sesgada. Si los valores distantes son pequeños se sesga a la
izquierda, sesgo negativo. Si los valores distantes son grandes se sesga a la derecha,
sesgo positivo.

Media Media

Izquierda derecha

Mediana Mediana

Sesgo negativo sesgo positivo

Media Mediana

Distribuciones simétricas
Las siguientes reglas deben considerarse al decidir cuál medida se aplicará a las
observaciones del trabajo de investigación. La media se usa para datos numéricos y
distribuciones simétricas, es decir sin ningún tipo de sesgo, y es sensible a los valores
absolutos. La mediana se emplea para datos ordinales o para datos numéricos con

Curso Transversal 71
Calidad Total

distribución sesgada, porque no es sensible a la variación de los extremos. El modo se


utiliza para distribuciones bimodales (dos observaciones que se repiten el mismo
número de veces en la distribución). Una forma de saber la forma que tiene la
distribución de observaciones es la siguiente: Si la media y la mediana son iguales la
distribución es simétrica (se usa la media). Si la media es mayor que la mediana, la
distribución está sesgada a la derecha. Si la media es menor que la mediana la
distribución está sesgada a la izquierda (en los últimos dos casos, se usa la mediana).

5.2. MEDIDAS DE DISPERSIÓN.

Las medidas de dispersión vienen a abundar más en el estudio estadístico, al


proporcionar los medios de averiguar el grado en que dichos datos se separan o
varían, esto con respecto al valor central, el cual es obtenido por medio de las medidas
de tendencia central, es decir que nos dicen el grado de variación o de dispersión de
los datos de la muestra, y configuran toda una disciplina que es conocida por el
nombre de “Teoría de la dispersión”

Usos de las Medidas de Dispersión:

Tanto las unas como las otras, son medidas que se toman para tener la posibilidad de
establecer comparaciones de diferentes muestras, para las cuales son conocidas ya
medidas que se tienen como típicas en su clase.

Por ejemplo: Si se conoce el valor promedio de los aprobados en las universidades


venezolanas, y al estudiar una muestra de los resultados de los exámenes de alguna
Universidad en particular, se encuentra un promedio mayor, o menor, del ya
establecido; se podrá juzgar el rendimiento de dicha institución.

RANGO:

Es la medida de variabilidad más fácil de calcular. Para datos finitos o sin agrupar, el
rango se define como la diferencia entre el valor más alto (Xn o Xmax) y el más bajo
(X1 o Xmin) en un conjunto de datos.

 Rango para datos no agrupados;


 R = Xmáx. - Xmín = Xn - X1

Ejemplo:

A. Se tienen las edades de cinco estudiantes universitarios de 1er año, a saber: 18, 23,
27, 34 y 25, para calcular la media aritmética (promedio de las edades, se tiene que:

R = Xn-X1 = 34-18 = 16 años

B. Con datos agrupados no se saben los valores máximos y mínimos. Si no hay


intervalos de clases abiertos podemos aproximar el rango mediante el uso de los

Curso Transversal 72
Calidad Total

límites de clases. Se aproxima el rango tomando el límite superior de la última clase


menos el límite inferior de la primera clase.

Rango para datos agrupados;

R= (lim. Sup. de la clase n – lim. Inf. De la clase 1)

Ejemplo:

A. Si se toman los datos de la tabla de distribución de frecuencia siguientes:

Clases P.M. Xi fi fr fa↓ fa↑ fra↓ fra↑


7.420 – 21.835 14.628 10 0.33 10 30 0.33 1.00
21.835 – 36.250 29.043 4 0.13 14 20 0.46 0.67
36.250 – 50.665 43.458 5 0.17 19 16 0.63 0.54
50.665 – 65.080 57.873 3 0.10 22 11 0.73 0.37
65.080 – 79.495 72.288 3 0.10 25 8 0.83 0.27
79.495 – 93.910 86.703 5 0.17 30 5 1.00 0.17
Total XXX 30 1.00 XXX XXX XXX XXX

El rango de la distribución de frecuencias se calcula así:

R= (lim. Sup. de la clase n – lim. Inf. De la clase 1)

= (93.910 – 7.420) = 86.49

Propiedades del Rango o Recorrido:

 El recorrido es la medida de dispersión más sencilla de calcular e interpretar puesto


que simplemente es la distancia entre los valores extremos (máximo y mínimo) en
una distribución.
 Puesto que el recorrido se basa en los valores extremos éste tiende s ser errático.
No es extraño que en una distribución de datos económicos o comerciales incluya a
unos pocos valores en extremo pequeños o grandes. Cuando tal cosa sucede,
entonces el recorrido solamente mide la dispersión con respecto a esos valores
anormales, ignorando a los demás valores de la variable.
 La principal desventaja del recorrido es que sólo está influenciado por los valores
extremos, puesto que no cuenta con los demás valores de la variable. Por tal razón,
siempre existe el peligro de que el recorrido ofrezca una descripción distorsionada
de la dispersión.
 En el control de la calidad se hace un uso extenso del recorrido cuando la
distribución a utilizarse no la distorsionan y cuando el ahorro del tiempo al hacer los
cálculos es un factor de importancia.

Curso Transversal 73
Calidad Total

VARIANZA, DESVIACIONES TÍPICAS Y COEFICIENTE DE VARIACIÓN:

La Varianza:

Es una medida de dispersión relativa a algún punto de referencia. Ese punto de


referencia es la media aritmética de la distribución. Más específicamente, la

Varianza es una medida de que tan cerca, o que tan lejos están los diferentes valores
de su propia media aritmética. Cuando más lejos están las Xi de su propia media
aritmética, mayor es la varianza; cuando más cerca estén las Xi a su media menos es
la varianza. Y se define y expresa matemáticamente de la siguiente manera:

La varianza para datos no agrupados

Dado un conjunto de observaciones, tales como X1, X2, … , Xn, la varianza denotada
usualmente por la letra minúscula griega δ (sigma) elevada al cuadrado (δ2) y en otros
casos S2 según otros analistas, se define como: el cuadrado medio de las
desviaciones con respecto a su media aritmética.

Matemáticamente, se expresa como:

La varianza para datos agrupados

Si en una tabla de distribución de frecuencias. Los puntos medios de las clases son
X1, X2, … , Xn; y las frecuencias de las clases f1, f2, … , fn; la varianza se calcula
así:

Σ(Xi- )2f1
δ2 =
Σfi

Sin embargo, la formula anterior tiene algún inconveniente para su uso en la práctica,
sobre todo cuando se trabaja con números decimales o cuando la media aritmética es
un número entero. Así mismo, cuando se trabaja con máquinas calculadoras, La tarea
de computar la varianza se simplifica utilizando la fórmula de computación que se da a
continuación:

ΣXi2fi - [(ΣXifi)2/N]

δ2 = ----------------------------

N donde N=Σfi

Curso Transversal 74
Calidad Total

Propiedades de la varianza:

 S siempre un valor no negativo, que puede ser igual o distinta de 0.


 La varianza es la medida de dispersión cuadrática óptima por ser la menor de todas.
 Si a todos los valores de la variable se le suma una constante la varianza no se
modifica. Veámoslo:

Si a xi le sumamos una constante xi’ = xi + k tendremos (sabiendo que )

 Si todos los valores de la variable se multiplican por una constante la varianza


queda multiplicada por el cuadrado de dicha constante. Veámoslo:

Si a xi’ = xi · k tendremos (sabiendo que )

 Si en una distribución obtenemos una serie de subconjuntos disjuntos, la varianza


de la distribución inicial se relaciona con la varianza de cada uno de los
subconjuntos mediante la expresión.

Desviaciones Típicas:

La desviación típica es la raíz cuadrada de la varianza, es decir, la raíz cuadrada de


la media de los cuadrados de las puntuaciones de desviación.

La desviación típica se representa por σ.

Curso Transversal 75
Calidad Total

Desviación típica para datos agrupados:

Para simplificar el cálculo vamos o utilizar las siguientes expresiones que son
equivalentes a las anteriores.

Desviación típica para datos no agrupados:

Propiedades de la desviación típica:

 La desviación típica será siempre un valor positivo o cero, en el caso de que las
puntuaciones sean iguales.
 Si a todos los valores de la variable se les suma un número la desviación típica
no varía.
 Si todos los valores de la variable se multiplican por un número la desviación
típica queda multiplicada por dicho número.
 Si tenemos varias distribuciones con la misma media y conocemos sus respectivas
desviaciones típicas se puede calcular la desviación típica total.

Si todas las muestras tienen el mismo tamaño:

Si las muestras tienen distinto tamaño:

Curso Transversal 76
Calidad Total

Coeficiente de Variación:

El Coeficiente de variación (CV) es una medida de la dispersión relativa de un conjunto


de datos, que se obtiene dividiendo la desviación estándar del conjunto entre su media

aritmética y se expresa como para una muestra y para


la población.

Los coeficientes de variación tienen las siguientes características:

 Puesto que tanto la desviación estándar como la media se miden en las unidades
originales, el CV es una medida independiente de las unidades de medición.
 Debido a la propiedad anterior el CV es la cantidad más adecuada para comparar la
variabilidad de dos conjuntos de datos.
 En áreas de investigación donde se tienen datos de experimentos previos, el CV es
muy usado para evaluar la precisión de un experimento, comparando en CV del
experimento en cuestión con los valores del mismo en experiencias anteriores.

Curso Transversal 77
Calidad Total

II. HERRAMIENTAS LÓGICAS PARA EL MEJORAMIENTO DE LA CALIDAD.

6.1. INTRODUCCIÓN.

La evolución del concepto de calidad en la industria y en los servicios nos muestra que
pasamos de una etapa donde la calidad solamente se refería al control final, para
separar los productos malos de los productos buenos, a una etapa de Control de
Calidad en el proceso, con el lema: “La Calidad no se controla, se fabrica”. Finalmente,
llegamos a una Calidad de Diseño que significa no solo corregir o reducir defectos sino
prevenir que estos sucedan, como se postula en el enfoque de la Calidad Total.

El camino hacia la Calidad Total además de requerir el establecimiento de una filosofía


de calidad, crear una nueva cultura, mantener un liderazgo, desarrollar al personal y
trabajar un equipo, desarrollar a los proveedores, tener un enfoque al cliente y
planificar la calidad.

Demanda vencer una serie de dificultades en el trabajo que se realiza día a día. Se
requiere resolver las variaciones que van surgiendo en los diferentes procesos de
producción, reducir los defectos y además mejorar los niveles estándares de
actuación.

Para resolver estos problemas o variaciones y mejorar la Calidad, es necesario


basarse en hechos y no dejarse guiar solamente por el sentido común, la experiencia o
la audacia. Basarse en estos tres elementos puede ocasionar que en caso de fracasar
nadie quiera asumir la responsabilidad.

De allí la conveniencia de basarse en hechos reales y objetivos. Además, es necesario


aplicar un conjunto de herramientas estadísticas siguiendo un procedimiento
sistemático y estandarizado de solución de problemas.

Existen Siete Herramientas Básicas que han sido ampliamente adoptadas en las
actividades de mejora de la Calidad y utilizadas como soporte para el análisis y
solución de problemas operativos en los más distintos contextos de una organización,
éstos son:

1. Hoja de Control/Verificación.
2. Histograma.
3. Diagrama de Pareto.
4. Diagrama de Causa-Efecto.
5. Estratificación.
6. Diagrama de Dispersión.
7. Gráfica de Control.

La experiencia de los especialistas en la aplicación de estos instrumentos o


Herramientas Estadísticas señala que bien aplicadas y utilizando un método
estandarizado de solución de problemas pueden ser capaces de resolver hasta el 95 %
de los problemas.

En la práctica estas herramientas requieren ser complementadas con otras técnicas

Curso Transversal 78
Calidad Total

cualitativas y no cuantitativas como son:

Curso Transversal 79
Calidad Total

1. La lluvia de ideas (braimstorming).


2. La Encuesta.
3. La Entrevista.
4. Diagrama de Flujo.
5. Matriz de Selección de Problemas, etc.

6.2. HOJA DE CONTROL/VERIFICACIÓN.

También se le conoce como hoja de toma de datos, hoja de cuenta, hoja de


comprobación, hoja de chequeo (que conste que la RAE nos advierte que “chequear” o
“checar” son anglicismos, aunque de uso generalizado y aceptable). Ninguna otra de
nuestras herramientas puede presumir de tantísima longevidad con sus
aproximadamente treinta y cinco mil años de existencia.

La lista de chequeo o verificación es una herramienta de calidad que


se utiliza para el control de los procesos en una empresa en el
momento, es decir, en tiempo real. Generalmente se trata de una tabla
donde se puede registrar, analizar y presentar resultados de una
manera sencilla.

Una hoja de verificación es un formato prediseñado para la recolección estructurada de


datos.

La lista de chequeo debe originarse como resultado del plan de seguimiento y


medición de los procesos para lo cual los procesos deben estar documentados en la
empresa.

¿Para qué se utilizan las listas de Chequeo o Verificación?

La lista de Chequeo o Verificación, se utiliza principalmente para:

a) La lista de chequeo debe originarse como resultado del plan de seguimiento y


medición de los procesos para lo cual los procesos deben estar documentados en
la empresa.
b) Tener un registro de información histórica que puede ser utilizado a fin de poder
identificar los cambios realizados en el tiempo.
c) Utilizar la información para realizar un análisis estadístico.
d) Se puede utilizar para verificar el funcionamiento y efectividad de un control
establecido.
e) Concentrar los aspectos críticos del proceso que puedan generar resultados no
esperados.
f) Sistematizar las actividades, no confiando en la memoria de las personas.

Pasos a seguir para crear una lista de chequeo o verificación:

Los pasos a seguir para construir una lista de Chequeo o Verificación, se enumeran a

Curso Transversal 80
Calidad Total

continuación:

Curso Transversal 81
Calidad Total

1. Primero se debe de planificar y saber qué es lo que se quiere verificar o chequear.


2. Diseñar el formato de chequeo o verificación.
3. Determinar la persona que va a realizar el chequeo o verificación y las horas en las
que va a realizar dicha función.
4. Tomar nota de la información en el formato de chequeo o verificación.
5. Finalmente, registrarlo en un Excel o base de datos o almacenar el formato en un
sitio seguro para su posterior análisis.

EJEMPLO DE HOJA DE VERIFICACIÓN

6.3. DIAGRAMA CAUSA-EFECTO.

Es la representación de varios elementos (causas) de un sistema que


pue- den contribuir a un problema (efecto). Fue desarrollado en el
año 1943 por el profesor Kaoru Ishikawa en Tokio. También se le
denomina Diagrama Ishikawa, Diagrama 5 “M” o Diagrama Espina de
Pescado por su parecido con el esqueleto de un pescado. Es una
herramienta efectiva para estudiar procesos y determinadas
situaciones.

Para qué se utiliza el Diagrama Causa/Efecto.

El diagrama Causa/Efecto se utiliza para:

a) Visualizar, en equipo, las causas principales y secundarias de un problema.


b) Ampliar la visión de las posibles causas de un problema, enriqueciendo su análisis y
la identificación de soluciones.

Curso Transversal 82
Calidad Total

c) Analizar procesos en búsqueda de mejoras.


d) Conduce a modificar procedimientos, métodos, costumbres, actitudes o hábitos, con
soluciones - muchas veces - sencillas y baratas.
e) Educa sobre la comprensión de un problema.
f) Sirve de guía objetiva para la discusión y la motiva.
g) Muestra el nivel de conocimientos que existe en la organización sobre un
determina- do problema.
h) Prevé los problemas y ayuda a controlarlos, no sólo al final, sino durante cada etapa
del proceso.
i) No basta con decir “trabajen más”, ¡“esfuércense!!!”. Hay que señalar pasos, y
valorar las causas de los problemas, ordenarlas para poder tratarlas.

Pasos a seguir para crear un Diagrama Causa/Efecto.

Los pasos a seguir para construir un diagrama Causa/Efecto son:

1. Identificar con exactitud el problema: Éste debe plantearse de manera


específica y concreta para que el análisis de las causas se oriente correctamente y
se eviten confusiones. Debe colocarse en el recuadro principal o cabeza del
pescado.
2. Identificar las principales categorías: Se definen las causas del problema que se
identifiquen, pueden clasificarse dentro de una u otra categoría. Generalmente, la
mejor estrategia para identificar la mayor cantidad de categorías posibles, es
realizar una lluvia de ideas con los estudiantes o con el equipo de trabajo. Cada
categoría que se identifique debe ubicarse independientemente en una de las
espinas principales del pescado.
3. Identificar las causas: Mediante una lluvia de ideas y teniendo en cuenta las
categorías encontradas, identifique las causas del problema. Éstas son por lo
regular, aspectos específicos de cada una de las categorías que, al estar presentes
de una u otra manera, generan el problema. Las causas que se identifiquen se
deben ubicar en las espinas, que confluyen en las espinas principales del pescado.
Si una o más de las causas identificadas es muy compleja, ésta puede
descomponerse en subcausas. Éstas últimas se ubican en nuevas espinas,
espinas menores, que a su vez confluyen en la espina correspondiente de la causa
principal.

Curso Transversal 83
Calidad Total

LAS 4 “M” ó 5 “M”

Habitualmente, los factores suelen estar predefinidos como las “4 emes” o “5 emes”,
dependiendo del contexto:

1ªM: Máquinas, aquí pensemos en equipos y maquinas empleados para producir.

2ª M: Mano de obra, que es el personal de la empresa, terceros, etc.

3ª M: Método, que puede ser por ejemplo la forma de enseñanza en una institución
o si se trata de una empresa, a los métodos, procedimientos usados en el trabajo.

4ª M: Materiales, que si es una institución educativa podemos referimos a los


textos de estudio. Si es una empresa productiva, pensemos a los insumos, la
materia prima que se emplea para producir, etc.

5ª M: Medio (entorno de trabajo), nos referimos a las condiciones del lugar de


trabajo.

Curso Transversal 84
Calidad Total

6.4. DIAGRAMA DE PARETO.

El Diagrama de Pareto también es conocido como la Ley 20-80 la cual expresa


que “generalmente unas pocas causas (20%) generan la mayor cantidad de
problemas (80%)”.

También se le conoce como Ley ABC utilizado para el análisis de inventarios.


Su origen se le debe a los estudios realizados sobre el ingreso monetario de las
personas, por el economista Wilfredo Pareto a comienzos del siglo XX.

Este tipo de análisis una forma de identificar y diferenciar los pocos “vitales”, de los
muchos “importantes” o bien dar prioridad a una serie de causas o factores que afectan
a un determinado problema, el cual permite, mediante una representación gráfica o
tabular identificar en una forma decreciente los aspectos que se presentan con mayor
frecuencia o bien que tienen una incidencia o peso mayor.

También puede presentarse en otro tipo de formatos como una gráfica tipo “pastel”.

Se utiliza para establecer en dónde se deben concentrar los mayores esfuerzos en


el análisis de las causas de un problema. Para ello es necesario contar con datos,
muchos de los cuales pueden obtenerse mediante el uso de una Hoja de Inspección.

Tipos de Diagrama de Pareto:

Existen dos tipos de diagramas de Pareto:

1. Diagramas de fenómenos. Se utilizan para determinar cuál es el principal


problema que origina el resultado no deseado. Estos problemas pueden ser de
calidad, costos, entrega, seguridad u otros.
2. Diagramas de causas. Se emplean para, una vez encontrados los problemas
importantes, descubrir cuáles son las causas más relevantes que los producen.

Beneficios del Diagrama de Pareto:

 Es el primer paso para la realización de mejoras.


 Canaliza los esfuerzos hacia los “pocos vitales”’.
 Ayuda a priorizar y a señalar la importancia de cada una de las áreas de oportunidad.
 Se aplica en todas las situaciones en donde se pretende efectuar una mejora, en
cualquiera de los componentes de la calidad del producto o servicio.
 Permite la comparación entre antes y después, ayudando a cuantificar el impacto de
las acciones tomadas para lograr mejoras.
 Promueve el trabajo en equipo ya que se requiere la participación de todos los
individuos relacionados con el área para analizar el problema, obtener Información y
llevar a cabo acciones para su solución.

Curso Transversal 85
Calidad Total

Elaboración del Diagrama de Pareto:

Mejora Continua – Diagrama de Pareto.

Para elaborar el Diagrama de Pareto se ordena la lista de causas, productos o clientes


en forma decreciente (Mayor a menor) de acuerdo a la frecuencia con que se presentó
cada una de las causas o bien el volumen de ventas por clientes o por productos. Es
importante se haga en una misma unidad de medida cuando se trata de productos o
clientes. Lo más conveniente es en valor monetario.

Seguidamente se calcula el porcentaje individual de cada categoría, dividiendo el valor


de cada una por el total de las causas o productos.

El paso siguiente consiste en calcular el porcentaje acumulado, sumando en orden


decreciente los porcentajes de cada uno de los rubros en forma acumulada.

Para categorizar los valores obtenidos se aplica la siguiente regla: aquellos ítems que
se encuentren dentro del valor acumulado hasta el 80% se denominan A. Los
siguientes ítems que pasen de 80,001% hasta el 95% se denominan B y al resto hasta
completar el 100% se denomina C. Esto es lo que se conoce como Ley ABC o Ley 20-
80, ya que aproximadamente el 20% de las causas en estudio generan el 80% del total
de los efectos.

Para dibujar el gráfico:

Utilizando un gráfico de barras, ordenar las causas de mayor a menor, anotando


las causas en el eje horizontal (X) y los valores o frecuencia con que se
presentó determinada causa en el eje vertical izquierdo (Y). El porcentaje se anota en
el eje vertical derecho. Excel permite realizar este tipo de gráfico compuesto.

Recomendaciones:

 Definir el período de tiempo a evaluar.


 Establecer la unidad de medida (costo, frecuencia, porcentaje, tiempo, etc.).

Curso Transversal 86
Calidad Total

 Seleccionar al personal adecuado para recopilar datos.

EJEMPLO DE ELABORACIÓN DEL DIAGRAMA DE PARETO.

Ejemplo de Diagrama de Pareto:

Para el siguiente análisis de caso, se considera un proceso de producción que se


encuentra afectado por las siguientes causas:

 Fluctuaciones de energía.
 Inestabilidad de la máquina.
 Rotación frecuente del operador.
 Rotación frecuente de la máquina.
 Cambios ambientales cíclicos.
 Cansancio o fatiga del operador.
 Partida fría.
 Error de medición.
 Desviación del material.
 Desgaste del equipo.

En la tabla presentada más arriba se detallan los valores correspondientes a la


cantidad de veces que se registró cada una de las causas que afectan al proceso,
durante un período determinado.

Para cada causa, se calculó el porcentaje que representa en forma individual con
respecto al total de causas registradas, y luego se ordenó la tabla de mayor a
menor. Una vez ordenada la tabla, se calculó el porcentaje acumulado.

Con estos valores es posible obtener el siguiente gráfico:

Curso Transversal 87
Calidad Total

Al marcar sobre el gráfico una línea punteada sobre el valor correspondiente al 80%
del porcentaje acumulado, se obtiene la siguiente información:

 Cambios ambientales.
 Rotación del operador.
 Inestabilidad de la máquina.

Son las causas que están ocasionando el 80% de los defectos en este proceso, por lo
que los esfuerzos destinados a mejorarlo deberían concentrarse en estos 3 aspectos.

6.5. HISTOGRAMA.

Es un gráfico de barras verticales que representa la distribución de un conjunto de


datos. Un histograma toma variables continuas (tales como alturas, pesos,
densidades, periodos de tiempo, temperaturas, etc.), variables discretas (# clientes, #
equipos) y despliega su distribución ordenada.
Se usa para evaluar tendencias, mejorar procesos, productos y servicios al identificar
patrones de ocurrencia.
Tipos:

Curso Transversal 88
Calidad Total

A. Simétrico o en forma de campana: representan una distribución normal.

B. Bimodal: estos histogramas tienen dos picos y podrían indicar que la información
provino de dos sistemas, procesos, turnos, personas, máquinas u otras fuentes
diferentes. Si ese es el caso, los datos de origen deben separarse y analizarse en
consecuencia.

C. Derecho sesgado: se dice que estos histogramas están sesgados positivamente.


Esta distribución tiene un gran número de valores en el lado inferior del eje x (lado
izquierdo) y pocos en el valor superior (lado derecho).

D. Izquierda sesgada: se dice que estos histogramas están sesgados negativamente.


Esta distribución tiene muchos valores en el lado superior del eje x (lado derecho) y
menos elementos en el valor inferior (lado izquierdo).

E. Unimodal o uniforme: estos histogramas proporcionan poca información sobre el


programa, proceso o sistema. Si esto ocurre, verifique si se han combinado varias
fuentes de variación y analícelas por separado porque una distribución uniforme
generalmente significa que el número de intervalos (es decir, las clases) es demasiado
pequeño.

F. Aleatorio o multimodal: estos histogramas no tienen un patrón discernible y


pueden indicar una distribución que tiene varios modos o picos. Si esto ocurre,
verifique si se combinaron varias clases o fuentes de variación. Si ese es el caso,
analízalos por separado. Si las múltiples fuentes de variación no son la causa de este
patrón, se podrían probar diferentes agrupaciones. Por ejemplo, cambie los puntos de
inicio y final de las celdas, o cambie el número de celdas. Una distribución aleatoria a
menudo significa que hay demasiados grupos o clases.

¿Cómo se construye?

Curso Transversal 89
Calidad Total

 Recopilar el número de datos de la muestra (n).


 Construir una tabla de frecuencias basada en los valores obtenidos.
 Calcular el rango de los datos (restar la cantidad más pequeña de la más grande).
 Determinar el número intervalos o clases (k) que se usarán en el histograma. Se
obtiene de la raíz cuadrada del total de datos √ n
 Determinar el ancho (H) de cada intervalo o clase dividiendo el rango entre el
número de barras.
 Construir el histograma basado en la tabla de frecuencias.

Ejemplo: Tiempo de atención en Taller de Mecánica Automotriz.

Se tomaron 16 datos (n), en el turno de la mañana de 8 a 10hrs., expresado en


minutos, correspondientes al tiempo de atención en el Taller de Mecánica Automotriz
por revisión de automóvil recepcionado, el cual se aprecia en el Cuadro N° 1

Cuadro Nº 1
Tiempo de atención al cliente en Taller de Mecánica Automotriz (Minutos)

19 16 19 18 15 17

20 16 20 18 17 19

18 17 17 15 19 18

20 18 15 15 18 17

17 19 16 21 17 16

16 17 17 16 15 21

Tamaño de la muestra: n = 36
Identifique el valor mayor: 21 minutos
Identifique el valor menor: 15 minutos

 Rango de la muestra: Halle la diferencia entre ambos: valor > - valor < = 21 – 15 = 6
 N° de intervalos o clases = k = √n = √36 = 6
 Amplitud de intervalos H: Rango = 6 = 1
K 6

 Construir una tabla de frecuencia basada en los valores obtenidos (número de


barras, ancho de barra y límite de clase).

Curso Transversal 90
Calidad Total

k limites frecuencia

1 15 - < 16 5

2 16 - < 17 6

3 17 - < 18 9

4 18 - < 19 6

5 19 - < 20 5
6 20 - 21 5

 Construir el histograma basado en la tabla de frecuencias. Gráfico N°1:

Según el gráfico, el tipo de histograma obtenido es de forma de campana, de patrón


normal. El promedio es de 17.47 minutos (suma de todos los valores del cuadro Nº 1
entre el total de datos o tamaño de muestra: 629/36) por atención al cliente.

6.6. GRÁFICA DE CONTROL.

Herramienta cuantitativa, de control estadístico de procesos mediante la cual se puede


observar, analizar y controlar una determinada característica de la calidad.
Permite observar el comportamiento en el tiempo del proceso estudiado, evidenciando
los valores de la variable que están fuera de los límites de control. A partir de aquí se
investigarán las causas de la situación fuera de control para encausar el proceso
dentro de los límites establecidos.

Curso Transversal 91
Calidad Total

Ayuda a identificar si el sistema o proceso es estable o no.

¿Cómo se construye?
 Determinar el proceso a observar.
 Se determina un tamaño de muestra apropiado.
 Tomar mediciones y agrupar en el orden en que se obtienen los datos.
 Calcular el valor promedio de las medidas obtenidas y su rango (restar valor
máximo del mínimo).
 Obtener al menos 25 muestras.
 Graficar los límites de control superior e inferior de acuerdo a fórmulas estadísticas.

LSC X
Variable

LIC

Tiempo
Cuadro de Valores

Tamañ o de
Factor A2
muestra
Donde: X: Valor promedio R:
(*)
n
Rango promedio
(*) A2: Constante (cuadro de valores) 2 1,880

3 1,023
= X 1 + X 2 + X 3 +...........+ X n
4 0,729
k
5 0,577
= X max – X min
6 0,483

7 0,419
= + + +………..+
K 8 0,373

9 0,337

+ += +………..+ k = n° 10 0,308
de subgrupos
K

LSC= + A2 (Límite Superior de

Control) LIC = – A2 (Límite Inferior de

Control)

Curso Transversal 92
Calidad Total

Ejemplo de Gráfica de control del Tiempo de atención promedio (min.)


En el Cuadro N° 2 se muestra, el tiempo promedio que demora en ser atendido el
cliente desde que llega al Taller hasta que ingresa para la recepción de su vehículo (en
minutos), información tomada durante 10 semanas de lunes a viernes (n=5).

Paso 1: Agrupar en el orden que se obtienen los datos y hallar la media y el rango
Para hallar la media de la primera semana (siendo k=5):

= 130+25+100+80+60 = 79 ,
5
procediendo de la misma forma hasta la semana 10.

Rango para la primera semana: el valor mayor menos el menor: 130 - 25 = 105, del
mismo modo hasta completar la semana 10

Cuadro N° 2

SEMANAS

1 2 3 4 5 6 7 8 9 10

L 130 90 100 70 15 75 175 65 70 150

M 25 135 95 140 65 135 60 65 110 200

M 100 60 85 65 125 55 55 180 30 190

J 80 60 35 30 70 85 55 90 75 180

V 60 35 120 60 70 105 55 50 85 180

79 76 87 73 69 91 80 90 74 180
X

105 100 85 110 110 80 120 130 80 50

Paso 2:

Calcule el promedio del proceso y el promedio del rango

= (79+76+87+73+69+91+80+90+74+180) = 89.9 (límite central)


10

= (105+100+85+110+110+80+120+130+80+50) = 97

Curso Transversal 93
Calidad Total

10
Paso 3:

Calcular los límites:

LSC = + A2 (Límite superior de control)

A2 = 0.577 (ver cuadro de valores de la página anterior, dado que el tamaño de la


muestra es n=5)
LSC = 89.9 + (0.577) (97) =145.87

LIC = – A2 (Límite Inferior de Control)


= 89.9 – (0.577) (97) = 33.93

Gráfico N° 2

180
170
160
150
LSC
140

130

120

110
100

90 X
80

70

60

50
40
30 LIC

1 2 3 4 5 6 7 8 9 10

Como se puede observar en el Gráfico Nº2 , el tiempo promedio por semana que
demora en ser atendido un cliente desde que llega al establecimiento hasta que
ingresa a retirar su vehículo se encuentra dentro de los límites permisibles (LIC=33,93
y LSC=145.87min.), excepto en la semana 10 en que el tiempo promedio es de 180
min, el cual se encuentra fuera del límite de control superior (145.87 min.), lo que
indica una variación inusual (acontecimientos no planificados como la tardanza o
inasistencia de personal entre otros), por lo que los equipos de mejora deberán
analizar las causas que ocasionaron está situación, y concentrar sus esfuerzos en
eliminarla y encausar el proceso dentro de los límites76 establecidos.

Curso Transversal 94
Calidad Total

6.7. DIAGRAMA DE DISPERSIÓN.

Permite analizar la relación que existe entre los valores de una variable que nos interesa
(dependiente) y los valores de otra variable que sea fácil de medir (independientes).
Sirve para poner de manifiesto si el comportamiento de una variable influye o no en el
comportamiento de otras, es decir, si la variación de una característica puede ser
causa del efecto en otra

¿Cómo se construye?
 Recopilar los pares de datos de una muestra de al menos 30 datos.
 Determinar la escala del dibujo para que la amplitud de los ejes sea
aproximadamente la misma.
 Colocar los puntos en el gráfico. Cada punto corresponde a un par de datos (x,y). Si
hay más de un punto con las mismas coordenadas se rodea con un círculo.

Tipos de Diagrama de Dispersión:

Correlación positiva: indica que al aumentar una de las


variables aumenta la otra.

Correlación negativa: indica que al aumentar una de las


variables disminuye la otra.

Curso Transversal 95
Calidad Total

Sin relación aparente: las variables no guardan


relación entre ellas

Ejemplo de Diagrama de Dispersión:


Supongamos que tenemos un grupo de personas adultas de sexo masculino. Para
cada persona se mide la altura en metros (variable X) y el peso en kilogramos (variable
Y). Es decir, para cada persona tendremos un par de valores X, Y que son altura y el
peso de dicha persona:
Cuadro N° 6

Curso Transversal 96
Calidad Total

Entonces, para cada persona representamos su altura y su peso con un punto en un


gráfico:

Una vez que

representamos a las 50 personas quedará el siguiente gráfico N°3:

Gráfico N° 3

1.

¿Qué nos muestra este gráfico? En primer lugar, podemos observar que las personas
de mayor altura tienen mayor peso. Pero un hombre de baja estatura y con sobrepeso
u obeso puede pesar más que otro alto y flaco. Esto es así porque no hay una
correlación total y absoluta entre las variables altura y peso. Para cada altura hay
personas de distinto peso.

Curso Transversal 97
Calidad Total

En este caso estamos frente a un diagrama de correlación positiva entre la altura y el


peso de las personas.

6.8. PLAN PARA EL MEJORAMIENTO DE LA CALIDAD.

La importancia de esta técnica gerencial radica en que con su aplicación se puede


contribuir a mejorar las debilidades y afianzar las fortalezas de la organización.

A través del mejoramiento continuo se logra ser más productivos y competitivos en el


mercado al cual pertenece la organización, por otra parte, las organizaciones deben
analizar los procesos utilizados, de manera tal que si existe algún inconveniente pueda
mejorarse o corregirse; como resultado de la aplicación de esta técnica puede ser que
las organizaciones crezcan dentro del mercado y hasta llegar a ser líderes.

La mejora continua debe ser uno de los pilares básicos de una empresa, una
obligación y un objetivo. La búsqueda y el afán por seguir mejorando es la única
manera de conseguir alcanzar la máxima calidad y la excelencia. Es el primer paso
para alcanzar la calidad total.

La mejora continua debe ser algo que se apoye en todos los agentes de una empresa.
Desde la tecnología hasta el capital humano, pasando por todos los procesos y
procedimientos que tienen lugar en el sistema. De esta forma, la mejora continua
involucra a toda la empresa en la búsqueda de la calidad total, permitiendo incluso que
los trabajadores se involucren personalmente en esta mejora.

También es cierto que hay que tener en cuenta que se debe formar y preparar a los
empleados para poder adaptarse a los cambios que propone la mejora continua,
además de disponer de los instrumentos, herramientas y tecnologías indicadas para
llevarla a cabo. En cualquier caso, la mejora continua siempre busca un eficiente
retorno de la inversión, y estar a la vanguardia en cuanto a calidad siempre merece la
pena.

VENTAJAS Y DESVENTAJAS DEL MEJORAMIENTO CONTINUO.

Ventajas del Mejoramiento Continuo:


1. Se concentra el esfuerzo en ámbitos organizativos y de procedimientos puntuales.
2. Consiguen mejoras en un corto plazo y resultados visibles.
3. Si existe reducción de productos defectuosos, trae como consecuencia una
reducción en los costos, como resultado de un consumo menor de materias primas.
4. Incrementa la productividad y dirige a la organización hacia la competitividad, lo
cual es de vital importancia para las actuales organizaciones.
5. Contribuye a la adaptación de los procesos a los avances tecnológicos.
6. Permite eliminar procesos repetitivos.

Desventajas del Mejoramiento Continuo:


1. Cuando el mejoramiento se concentra en un área específica de la organización, se
pierde la perspectiva de la interdependencia que existe entre todos los miembros de
la empresa.
Curso Transversal 98
Calidad Total

2. Requiere de un cambio en toda la organización, ya que para obtener el éxito es


necesaria la participación de todos los integrantes de la organización y a todo nivel.
3. En vista de que los gerentes en la pequeña y mediana empresa son muy
conservadores, el Mejoramiento Continuo se hace un proceso muy largo.
4. Hay que hacer inversiones importantes.

Necesidades de mejoramiento:
Los presidentes de las empresas son los principales responsables de un avanzado
éxito en la organización o por el contrario del fracaso de la misma, es por ello que los
socios dirigen toda responsabilidad y confianza al presidente, teniendo en cuenta su
capacidad y un buen desempeño como administrador, capaz de resolver cualquier tipo
de inconveniente que se pueda presentar y lograr satisfactoriamente el éxito de la
compañía. Hoy en día, para muchas empresas la palabra calidad representa un factor
muy importante para el logro de los objetivos trazados. Es necesario llevar a cabo un
análisis global y detallado de la organización, para tomar la decisión de implantar un
estudio de necesidades, si así la empresa lo requiere.

Resulta importante mencionar, que, para el éxito del proceso de mejoramiento, va a


depender directamente del alto grado de respaldo aportado por el equipo que
conforma la dirección de la empresa, por ello el presidente está en el deber de solicitar
las opiniones de cada uno de sus miembros del equipo de administración y de los jefes
de departamento que conforman la organización.

Los ejecutivos deben comprender que el presidente tiene pensado llevar a cabo la
implantación de un proceso que beneficie a toda la empresa y, además, pueda
proporcionar a los empleados con mejores elementos para el buen desempeño de sus
trabajos. Se debe estar claro, que cuales quiera sea el caso, la calidad es
responsabilidad de la directiva.

Antes de la decisión final de implantar un proceso de mejoramiento, es necesario


calcular un estimado de los ahorros potenciales. Se inician realizando un examen
detallado de las cifras correspondientes a costos de mala calidad, además, de los
ahorros en costos; el proceso de mejoramiento implica un incremento en la
productividad, reducción de ausentismo y mejoramiento de la moral. Es importante
destacar que una producción de mejor calidad va a reflejar la captura de una mayor
proporción del mercado.

Para el logro de estos ahorros, durante los primeros años, la empresa tendrá que
invertir un mínimo porcentaje del costo del producto, para desarrollar el proceso de
mejoramiento; luego de esta inversión, el costo de mantenimiento del programa
resultará insignificante.

Por otro lado, para percibir el funcionamiento eficaz del proceso de mejoramiento no
sólo es necesario contar con el respaldo de la presidencia, sino con la participación
activa de ella. El presidente debe medir personalmente el grado de avance y premiar a
todas aquellas personas que de una u otra forma contribuyan notablemente y realizar
observaciones a quienes no contribuyan con el éxito del proceso.

Curso Transversal 99
Calidad Total

Una manera muy eficaz de determinar si el equipo en general de administradores


considera la necesidad de mejorar, consiste en llevar a cabo un sondeo de opiniones
entre ellos. La elaboración del sondeo va a ayudar a detectar cómo el grupo gerencial
considera a la empresa y cuánto piensan que debe mejorar. Se pueden realizar
interrogantes:

- ¿Qué tan buena es la cooperación de las personas?


- ¿Qué tan buena es la cooperación de los departamentos?
- ¿Qué tanto preocupa a la dirección la calidad de trabajo?, entre otras.

Sin embargo, pueden incluirse temas como: la comunicación, la organización y la


productividad; tomando en consideración que el valor del sondeo va a depender
exclusivamente de la honestidad de las respuestas por parte de los miembros.

¿Por qué mejorar?

El Cliente es el Rey.
Según Harrigton (1987), "En el mercado de los compradores de hoy el cliente es el
rey", es decir, que los clientes son las personas más importantes en el negocio y por lo
tanto los empleados deben trabajar en función de satisfacer las necesidades y deseos
de éstos. Son parte fundamental del negocio, es decir, es la razón por la cual éste
existe, por lo tanto, merecen el mejor trato y toda la atención necesaria.

La razón por la cual los clientes prefieren productos de los extranjeros es la actitud de
los dirigentes empresariales ante los reclamos por errores que se comentan: ellos
aceptan sus errores como algo muy normal y se disculpan ante el cliente, para ellos el
cliente siempre tiene la razón.

EL PROCESO DE MEJORAMIENTO.
La búsqueda de la excelencia comprende un proceso que consiste en aceptar un
nuevo reto cada día. Dicho proceso debe ser progresivo y continuo. Debe incorporar
todas las actividades que se realicen en la empresa a todos los niveles.

El proceso de mejoramiento es un medio eficaz para desarrollar cambios positivos que


van a permitir ahorrar dinero tanto para la empresa como para los clientes, ya que las
fallas de calidad cuestan dinero.

Así mismo este proceso implica la inversión en nuevas maquinaria y equipos de alta
tecnología más eficientes, el mejoramiento de la calidad del servicio a los clientes, el
aumento en los niveles de desempeño del recurso humano a través de la capacitación
continua, y la inversión en investigación y desarrollo que permita a la empresa estar al
día con las nuevas tecnologías.

Actividades Básicas de Mejoramiento.

De acuerdo a un estudió en los procesos de mejoramiento puestos en práctica en


diversas compañías, Según Harrington (1987), existen diez actividades de
mejoramiento que deberían formar parte de toda empresa, sea grande o pequeña:

Curso Transversal 100


Calidad Total

1. Obtener el compromiso de la alta dirección.


2. Establecer un consejo directivo de mejoramiento.
3. Conseguir la participación total de la administración.
4. Asegurar la participación en equipos de los empleados.
5. Conseguir la participación individual.
6. Establecer equipos de mejoramiento de los sistemas (equipos de control de los
procesos).
7. Desarrollar actividades con la participación de los proveedores.
8. Establecer actividades que aseguren la calidad de los sistemas.
9. Desarrollar e implantar planes de mejoramiento a corto plazo y una estrategia de
mejoramiento a largo plazo.
10. Establecer un sistema de reconocimientos.

1. Compromiso de la Alta Dirección:


El proceso de mejoramiento debe comenzase desde los principales directivos y
progresa en la medida al grado de compromiso que éstos adquieran, es decir, en el
interés que pongan por superarse y por ser cada día mejor.

2. Consejo Directivo del Mejoramiento:


Está constituido por un grupo de ejecutivos de primer nivel, quienes estudiarán el
proceso de mejoramiento productivo y buscarán adaptarlo a las necesidades de la
compañía.

3. Participación Total de la Administración:


El equipo de administración es un conjunto de responsables de la implantación del
proceso de mejoramiento. Eso implica la participación activa de todos los ejecutivos y
supervisores de la organización. Cada ejecutivo debe participar en un curso de
capacitación que le permita conocer nuevos estándares de la compañía y las técnicas
de mejoramiento respectivas.

4. Participación de los Empleados:


Una vez que el equipo de administradores esté capacitado en el proceso, se darán las
condiciones para involucrar a los empleados. Esto lo lleva a cabo el gerente o
supervisor de primera línea de cada departamento, quien es responsable de adiestrar
a sus subordinados, empleando las técnicas que él aprendió.

5. Participación Individual:
Es importante desarrollar sistemas que brinden a todos los individuos los medios para
que contribuyan, sean medidos y se les reconozcan sus aportaciones personales en
beneficio del mejoramiento.

6. Equipos de Mejoramiento de los Sistemas (equipos de control de los


procesos):
Toda actividad que se repite es un proceso que puede controlarse. Para ello se
elaboran diagramas de flujo de los procesos, después se le incluyen mediciones,
controles y bucles de retroalimentación. Para la aplicación de este proceso se debe
contar con un solo individuo responsable del funcionamiento completo de dicho
proceso.

Curso Transversal 101


Calidad Total

7. Actividades con Participación de los Proveedores:


Todo proceso exitoso de mejoramiento debe tomar en cuenta a las contribuciones de
los proveedores.

8. Aseguramiento de la Calidad:
Los recursos para el aseguramiento de la calidad, que se dedican a la solución de
problemas relacionados con los productos, deben reorientarse hacia el control de los
sistemas que ayudan a mejorar las operaciones y así evitar que se presenten
problemas

9. Planes de Calidad a Corto Plazo y Estrategias de Calidad a Largo Plazo:


Cada compañía debe desarrollar una estrategia de calidad a largo plazo. Después
debe asegurarse de que todo el grupo administrativo comprenda la estrategia de
manera que sus integrantes puedan elaborar planes a corto plazo detallados, que
aseguren que las actividades de los grupos coincidan y respalden la estrategia a largo
plazo.

10. Sistema de Reconocimientos:


El proceso de mejoramiento pretende cambiar la forma de pensar de las personas
acerca de los errores. Para ello existen dos maneras de reforzar la aplicación de los
cambios deseados: castigar a todos los que no logren hacer bien su trabajo todo el
tiempo, o premiar a todos los individuos y grupos cuando alcancen una meta con
realicen una importante aportación al proceso de mejoramiento.

Pasos para el mejoramiento continuo:


Según el Ing. Luis Gómez Bravo, los siete pasos del proceso de mejoramiento son:

1º Paso: Selección de los problemas (oportunidades de mejora).


2º Paso: Cuantificación y subdivisión del problema.
3º Paso: Análisis de las causas, raíces específicas.
4º Paso: Establecimiento de los niveles de desempeño exigidos (metas de
mejoramiento).
5º Paso: Definición y programación de soluciones.
6º Paso: Implantación de soluciones.
7º Paso: Acciones de Garantía.

1. Primer paso: Selección de los problemas (oportunidades de mejoras).


Este paso tiene como objetivo la identificación y escogencia de los problemas de
calidad y productividad del departamento o unidad bajo análisis.

A diferencia de otras metodologías que comienzan por una sesión de tormenta de


ideas sobre problemas en general, mezclando niveles de problemas (síntomas con
causas), en ésta buscamos desde el principio mayor coherencia y rigurosidad en la
definición y escogencia de los problemas de calidad y productividad.

Actividades:
Este primer paso consiste en las siguientes actividades:

a) Aclarar los conceptos de calidad y productividad en el grupo.

Curso Transversal 102


Calidad Total

b) Elaborar el diagrama de caracterización de la Unidad, en términos generales:


clientes, productos y servicios, atributos de los mismos, principales procesos e
insumos utilizados.
c) Definir en qué consiste un problema de calidad y productividad como desviación de
una norma: deber ser, estado deseado, requerido o exigido.
d) Listar en el grupo los problemas de calidad y productividad en la unidad de análisis
(aplicar tormenta de ideas).
e) Preseleccionar las oportunidades de mejora, priorizando gruesamente, aplicando
técnica de grupo nominal o multivotación.
f) Seleccionar de la lista anterior las oportunidades de mejora a abordar a través de la
aplicación de una matriz de criterios múltiples, de acuerdo con la opinión del grupo
o su superior.

Las tres primeras actividades (a,b,c), permiten lo siguiente:

 Concentrar la atención del grupo en problemas de calidad y productividad.


 Obtener mayor coherencia del grupo al momento de la tormenta de ideas para listar
los problemas.
 Evitar incluir en la definición de los problemas su solución, disfrazando la misma
con frases como: falta de..., carencia de..., insuficiencia, etc. lo cual tiende a ser
usual en los grupos poco experimentados. La preselección (actividad "e") se hace a
través de una técnica de consenso rápido en grupo, que facilita la identificación en
corto tiempo de los problemas, para luego, sobre todo los 3 o 4 fundamentales,
hacen la selección final (actividad "f") con criterios más analíticos y cuantitativos,
esto evita la realización de esfuerzos y cálculos comparativos entre problemas que
obviamente tienen diferentes impactos e importancia.

Observaciones y recomendaciones generales.


Este es un paso clave dentro del proceso, por lo que debe dedicarse el tiempo
necesario evitando quemar actividades o pasarlas por alto, sin que el equipo de trabajo
haya asimilado suficientemente el objetivo de las mismas.

Conviene desarrollar este paso en tres sesiones y cuando mínimo dos (nunca en una
sola sesión) y cada una de 1 1/2 horas de duración. En la primera pueden cubrirse las
tres primeras actividades, en la segunda las actividades «d» y «e» y en la última la «f»;
esta actividad debe ser apoyada con datos según los criterios de la matriz, por tanto,
esta actividad debe hacerse en una sesión aparte.

La caracterización de la unidad debe hacerse gruesamente evitando detalles


innecesarios. Debe considerarse que luego de cubiertos los siete pasos, (el primer
ciclo), en los ciclos de mejoramiento posteriores se profundizará con mayor
conocimiento, por la experiencia vivida. Esta recomendación es válida para todas las
actividades y pasos, la exagerada rigurosidad no es recomendable en los primeros
proyectos y debe dosificarse, teniendo presente que el equipo de mejora es como una
persona que primero debe gatear luego caminar, luego trotar, para finalmente correr a
alta velocidad la carrera del mejoramiento continuo.

Técnicas a utilizar: Diagrama de caracterización del sistema, tormenta de ideas,


técnicas de grupo nominal, matriz de selección de problemas.

Curso Transversal 103


Calidad Total

2. Segundo paso: Cuantificación y subdivisión del problema u oportunidad de


mejora seleccionada.
El objetivo de este paso es precisar mejor la definición del problema, su cuantificación
y la posible subdivisión en subproblemas o causas síntomas.

Es usual que la gente ávida de resultados o que está acostumbrada a los yo creo y yo
pienso no se detenga mucho a la precisión del problema, pasando de la definición
gruesa resultante del 1er. paso a las causas raíces, en tales circunstancias los
diagramas causales pierden especificidad y no facilitan el camino para identificar
soluciones, con potencia suficiente para enfrentar el problema. Por ejemplo, los
defectos en un producto se pueden asociar a la falta de equipos adecuados en
general, pero al defecto específico, raya en la superficie, se asociará una deficiencia de
un equipo en particular.

Debido a que tales desviaciones se han producido en varias aplicaciones de la


metodología, hemos decidido crear este paso para profundizar el análisis del problema
antes de entrar en las causas raíces.

Actividades:
Se trata de afinar el análisis del problema realizando las siguientes actividades:

a) Establecer el o los tipos de indicadores que darán cuenta o reflejen el problema y, a


través de ellos, verificar si la definición del problema guarda o no coherencia con los
mismos, en caso negativo debe redefinirse el problema o los indicadores.
b) Estratificar y/o subdividir el problema en sus causas-síntomas. Por ejemplo:
c) El retraso en la colocación de solicitudes de compra puede ser diferente según el
tipo de solicitud.
d) Los defectos de un producto pueden ser de varios tipos, con diferentes frecuencias.
e) Los días de inventario de materiales pueden ser diferentes, según el tipo de material.
f) El tiempo de prestación de los servicios puede variar según el tipo de cliente.
g) Las demoras por fallas pueden provenir de secciones diferentes del proceso o de
los equipos.
h) Cuantificar el impacto de cada subdivisión y darle prioridad utilizando la matriz de
selección de causas y el gráfico de Pareto, para seleccionar el (los) estrato(s) o
subproblema(s) a analizar.

Observaciones y recomendaciones generales:


Debe hacerse énfasis en la cuantificación y sólo en casos extremos (o en los primeros
proyectos) a falta de datos o medios ágiles para recogerlos se podrá utilizar, para
avanzar, una técnica de jerarquización cualitativa como la técnica de grupo nominal,
con un grupo conocedor del problema.

Sin embargo, se deberá planificar y ordenar la recolección de datos durante el proceso.

Este paso conviene desarrollarlo en tres o, al menos, dos sesiones, dependiendo de la


facilidad de recolección de datos y del tipo de problema.

Curso Transversal 104


Calidad Total

En la primera sesión realizar las actividades «a» y «b», en la segunda analizar los
datos recogidos (actividad «c») y hacer los reajustes requeridos y en la tercera sesión
la actividad «d» priorización y selección de causas síntomas.

Técnicas a utilizar: indicadores, muestreo, hoja de recolección de datos, gráficas de


corrida, gráfico de Pareto, matriz de selección de causas, histogramas de frecuencia,
diagrama de procesos.

3. Tercer paso: Análisis de causas raíces específicas.


El objetivo de este paso es identificar y verificar las causas raíces específicas del
problema en cuestión, aquellas cuya eliminación garantizará la no recurrencia del
mismo. Por supuesto, la especificación de las causas raíces dependerá de lo bien que
haya sido realizado el paso anterior.

Nuevamente en este paso se impone la necesidad de hacer medible el impacto o


influencia de la causa a través de indicadores que den cuenta de la misma, de manera
de ir extrayendo la causa más significativa y poder analizar cuánto del problema será
superado al erradicar la misma.

Actividades:
Para cada subdivisión del problema seleccionado, listar las causas de su ocurrencia
aplicando la tormenta de ideas.

a) Agrupar las causas listadas según su afinidad (dibujar diagrama causa-efecto). Si el


problema ha sido suficientemente subdividido puede utilizarse la subagrupación en
base de las 4M o 6M (material, machine, man, method, moral, management), ya
que estas últimas serán lo suficientemente específicas.
b) En caso contrario se pueden subagrupar según las etapas u operaciones del
proceso al cual se refieren (en tal caso conviene construir el diagrama de proceso),
definiéndose de esta manera una nueva subdivisión del subproblema bajo análisis.
c) Cuantificar las causas (o nueva subdivisión) para verificar su impacto y relación con
el problema y jerarquizar y seleccionar las causas raíces más relevantes.
d) En esta actividad pueden ser utilizados los diagramas de dispersión, gráficos de
Pareto, matriz de selección de causas.

Repetir b y c hasta que se considere suficientemente analizado el problema.

Observaciones y recomendaciones generales


Durante el análisis surgirán los llamados problemas de solución obvia que no requieren
mayor verificación y análisis para su solución, por lo que los mismos deben ser
enfrentados sobre la marcha.

Esto ocurrirá con mayor frecuencia en los primeros ciclos, cuando usualmente la
mayoría de los procesos está fuera de control.

Este paso, dependiendo de la complejidad del problema, puede ser desarrollado en 3 o


4 sesiones de dos horas cada una.

En la primera sesión se realizarán las actividades a y b, dejando la actividad c para la


segunda sesión, luego de recopilar y procesar la información requerida. En las

Curso Transversal 105


Calidad Total

situaciones donde la información esté disponible se requerirá al menos una nueva


sesión de trabajo (tercera), luego de jerarquizar las causas, para profundizar el
análisis. En caso contrario se necesita más tiempo para la recolección de datos y su
análisis (sesiones cuarta y quinta).

Técnicas a utilizar: tormenta de ideas, diagrama causa-efecto, diagrama de


dispersión, diagrama de Pareto, matriz de selección de causas.

4. Cuarto paso: Establecimiento del nivel de desempeño exigido (metas de


mejoramiento).
El objetivo de este paso es establecer el nivel de desempeño exigido al sistema o
unidad y las metas a alcanzar sucesivamente.

Este es un paso poco comprendido y ha tenido las siguientes objeciones:

 El establecimiento de metas se contradice con la filosofía de calidad total y con las


críticas de W.E. Deming a la gerencia por objetivos.
 No es posible definir una meta sin conocer la solución.
 La idea es mejorar, no importa cuánto.
 La meta es poner bajo control al proceso por tanto está predeterminada e implícita.
A tales críticas, hacemos las siguientes observaciones:

Cuando estamos fijando una meta estamos estableciendo el nivel de exigencia al


proceso o sistema en cuestión, respecto a la variable analizada, en función o bien de
las expectativas del cliente, cuando se trata de problemas de calidad o del nivel de
desperdicio que es posible aceptar dentro del estado del arte tecnológico, lo cual se
traduce en un costo competitivo. En ambas vertientes la meta fija indirectamente el
error no en que operamos; es decir, el no importa cuánto, la idea es mejorar, o que la
meta consiste sólo en poner bajo control el proceso, son frases publicitarias muy
buenas para vender cursos, asesorías y hasta pescar incautos, pero no para ayudar a
un gerente a enfrentar los problemas de fondo: los de la falta de competitividad.

La solución que debemos dar a nuestro problema tiene que estar condicionada por el
nivel de desempeño en calidad y productividad que le es exigido al sistema. Bajar los
defectuosos a menos de 1% tiene normalmente soluciones muy diferentes en costo y
tiempo de ejecución a bajarlo a menos de 1 parte por mil o por 1 millón. El ritmo del
mejoramiento lo fijan, por un lado, las exigencias del entorno, y por el otro, nuestra
capacidad de respuesta, privando la primera. El enfrentamiento de las causas, el
diseño de soluciones y su implantación debe seguir a ritmo que la meta exige.

En tal sentido, el establecimiento del nivel de desempeño exigido al sistema (meta)


condicionará las soluciones y el ritmo de su implantación.

Actividades:
Las actividades a seguir en este paso son:

a) Establecer los niveles de desempeño exigidos al sistema a partir de, según el caso,
las expectativas del cliente, los requerimientos de orden superior (valores, políticas,

Curso Transversal 106


Calidad Total

objetivos de la empresa) fijados por la alta gerencia y la situación de los


competidores.
b) Graduar el logro del nivel de desempeño exigido bajo el supuesto de eliminar las
causas raíces identificadas, esta actividad tendrá mayor precisión en la medida que
los dos pasos anteriores hayan tenido mayor rigurosidad en el análisis.
c) Algunos autores llaman a esta actividad «visualización del comportamiento, si las
cosas ocurriesen sin contratiempos y deficiencias», es decir, la visualización de la
situación deseada.

Observaciones y recomendaciones generales:


En los primeros ciclos de mejoramiento es preferible no establecer metas o niveles de
desempeño demasiado ambiciosos para evitar desmotivación o frustración del equipo;
más bien con niveles alcanzables, pero retadores, se fortalece la credibilidad y el
aprendizaje.

Este paso puede ser realizado en una o dos sesiones de trabajo.

Debido al proceso de consulta que media en las dos actividades, normalmente se


requieren de dos sesiones.

Cuando se carece de un buen análisis en los pasos 2 y 3, por falta de información,


conviene no fijar metas al boleo y sólo cubrir la actividad "a" para luego fijar metas
parciales, según el diseño de soluciones (paso 5) y la búsqueda de mayor información,
lo cual puede ser, en la primera fase, parte de la solución.

5. Quinto paso: Diseño y programación de soluciones.


El objetivo de este paso es identificar y programar las soluciones que incidirán
significativamente en la eliminación de las causas raíces. En una organización donde
no ha habido un proceso de mejoramiento sistemático y donde las acciones de
mantenimiento y control dejan mucho que desear, las soluciones tienden a ser obvias y
a referirse al desarrollo de acciones de este tipo, sin embargo, en procesos más
avanzados las soluciones no son tan obvias y requieren, según el nivel de complejidad,
un enfoque creativo en su diseño. En todo caso, cuando la identificación de causas ha
sido bien desarrollada, las soluciones hasta para los problemas inicialmente complejos
aparecen como obvias.

Actividades:
a) Para cada causa raíz seleccionada deben listarse las posibles soluciones
excluyentes (tormenta de ideas). En caso de surgir muchas alternativas excluyentes
antes de realizar comparaciones más rigurosas sobre la base de factibilidad,
impacto, costo, etc., lo cual implica cierto nivel de estudio y diseño básico, la lista
puede ser jerarquizada (para descartar algunas alternativas) a través de una técnica
de consenso y votación como la Técnica de Grupo Nominal TGN).
b) Analizar, comparar y seleccionar las soluciones alternativas resultantes de la TGN,
para ello conviene utilizar múltiples criterios como los señalados arriba: factibilidad,
costo, impacto, responsabilidad, facilidad, etc.

Curso Transversal 107


Calidad Total

c) Programar la implantación de la solución definiendo con detalle las 5W-H del plan,
es decir, el qué, por qué, cuándo, dónde, quién y cómo, elaborando el cronograma
respectivo.

Observaciones y recomendaciones generales:


No debe descartarse a priori ninguna solución por descabellada o ingenua que
parezca, a veces detrás de estas ideas se esconde una solución brillante o parte de la
solución.

Para que el proceso de implantación sea fluido es recomendable evitar implantarlo


todo a la vez (a menos que sea obvia e inmediata la solución) y hacer énfasis en la
programación, en el quién y cuándo.

A veces, durante el diseño de soluciones, se encuentran nuevas causas o se verifica lo


errático de algunos análisis. Esto no debe preocupar, ya que es parte del proceso
aprender a conocer a fondo el sistema sobre o en el cual se trabaja.

En estos casos se debe regresar al 3er. paso para realizar los ajustes correspondientes.

Técnicas a utilizar: tormenta de ideas, técnica de grupo nominal, matriz de selección


de soluciones, 5W-H, diagramas de Gantt o Pert.

6. Sexto paso: Implantación de soluciones.


Este paso tiene dos objetivos:

 Probar la efectividad de la(s) solución(es) y hacer los ajustes necesarios para llegar
a una definitiva.
 Asegurarse que las soluciones sean asimiladas e implementadas adecuadamente
por la organización en el trabajo diario.

Actividades:
a) Las actividades a realizar en esta etapa estarán determinadas por el programa de
acciones, sin embargo, además de la implantación en sí misma, es clave durante
este paso el seguimiento, por parte del equipo, de la ejecución y de los reajustes
que se vaya determinando necesarios sobre la marcha.
b) Verificar los valores que alcanzan los indicadores de desempeño seleccionados
para evaluar el impacto, utilizando gráficas de corrida, histogramas y gráficas de
Pareto.

Observaciones y recomendaciones generales:


Una vez establecido el programa de acciones de mejora con la identificación de
responsabilidades y tiempos de ejecución, es recomendable presentar el mismo al
nivel jerárquico superior de la unidad o grupo de mejora, a objeto de lograr su
aprobación, colaboración e involucramiento.

A veces es conveniente iniciar la implementación con una experiencia piloto que sirva
como prueba de campo de la solución propuesta, ello nos permitirá hacer una
evaluación inicial de la solución tanto a nivel de proceso (métodos, secuencias,
participantes) como de resultados. En esta experiencia será posible identificar
resultados no esperados, factores no tomados en cuenta, efectos colaterales no

Curso Transversal 108


Calidad Total

deseados-

Curso Transversal 109


Calidad Total

A este nivel, el proceso de mejoramiento ya implementado comienza a recibir los


beneficios de la retroalimentación de la información, la cual va a generar ajustes y
replanteamientos de las primeras etapas del proceso de mejoramiento.

7. Séptimo paso: Establecimiento de acciones de garantía.


El objetivo de este paso es asegurar el mantenimiento del nuevo nivel de desempeño
alcanzado. Es este un paso fundamental al cual pocas veces se le presta la debida
atención. De él dependerá la estabilidad en los resultados y la acumulación de
aprendizaje para profundizar el proceso.

Actividades:
En este paso deben quedar asignadas las responsabilidades de seguimiento
permanente y determinarse la frecuencia y distribución de los reportes de desempeño.
Es necesario diseñar acciones de garantía contra el retroceso, en los resultados, las
cuales serán útiles para llevar adelante las acciones de mantenimiento. En términos
generales éstas son:

a) Normalización de procedimientos, métodos o prácticas operativas.


b) Entrenamiento y desarrollo del personal en las normas y prácticas implantadas.
c) Incorporación de los nuevos niveles de desempeño, al proceso de control de
gestión de la unidad.
d) Documentación y difusión de la historia del proceso de mejoramiento.
e) Esta última actividad es de gran importancia para reforzar y reconocer los esfuerzos
y logros alcanzados e iniciar un nuevo ciclo de mejoramiento.

Observaciones y recomendaciones generales:


Puede ocurrir que el esfuerzo realizado para mejorar el nivel de desempeño en un
aspecto parcial de la calidad y productividad afecte las causas raíces que también
impactan en otros aspectos y se producen así efectos colaterales de mejora en los
mismos, debido a una sinergia de causas y efectos que multiplican entonces los
resultados del mejoramiento.

Es en este paso donde se ve con más claridad la importancia en el uso de las gráficas
de control, las nociones de variación y desviación y de proceso estable, ya que, para
garantizar el desempeño, dichos conceptos y herramientas son de gran utilidad.

Curso Transversal 110


Calidad Total

III. LA DISTRIBUCIÓN NORMAL.

7.1. DEFINICIÓN.

La distribución normal es una de las más importantes de las distribuciones, por la


frecuencia que se la encuentra y por las aplicaciones teóricas, esta también es llamada
distribución GUASSIANA,

La aplicación de esta distribución es muy alta como caracteres morfológicos de


individuos, animales plantas, de su especie como talla, peso, diámetro, perímetro, etc.
También a caracteres sociológicos como el consumo de ciertos productos por un grupo
de individuos, otro ejemplo aplicativo en la teoría de errores por ejemplo los errores
que cometemos cuando medimos algunas magnitudes.

La distribución normal fue reconocida por primera vez por el francés Abraham de
Moivre (1667-1754). Posteriormente, Carl Friedrich Gauss (1777-1855) elaboró
desarrollos más profundos y formuló la ecuación de la curva; de ahí que también se la
conozca, más comúnmente, como la "campana de Gauss". La distribución de una
variable normal está completamente determinada por dos parámetros, su media y su
desviación estándar, denotadas generalmente por µ y δ. Con esta notación, la
densidad de la normal viene dada por la ecuación:
1
(𝑥) =
−1 𝑥−𝜇 2
𝑒𝑥𝑝 ( ( )𝑥 ); −∞ < 𝑥 < ∞ Ec. 1
✿√𝟐𝛑 2 𝛿

Donde:

Curso Transversal 111


Calidad Total

δ= desviación estándar

µ= media

X= variable

Que determina la curva en forma de campana que tan bien conocemos (figura 1):

Figura 1. Gráfica de una distribución normal y significado del área bajo la curva

7.2. CARACTERÍSTICAS.

La distribución de probabilidad normal presenta las siguientes características:

- Tiene una única moda, que coincide con su media y su mediana.


- La curva normal es asintótica al eje de abscisas. Por ello, cualquier valor entre - ∞ y
+∞ es teóricamente posible. El área total bajo la curva es, por tanto, igual a 1.
- Es simétrica con respecto a su media µ. Según esto, para este tipo de variables
existe una probabilidad de un 50% de observar un dato mayor que la media, y un
50% de observar un dato menor.
- La distancia entre la línea trazada en la media y el punto de inflexión de la curva es
igual a una desviación típica (δ). Cuanto mayor sea δ, más aplanada será la curva
de la densidad.
- El área bajo la curva comprendida entre los valores situados aproximadamente a
dos desviaciones estándar de la media es igual a 0.95. En concreto, existe un 95%
de posibilidades de observar un valor comprendido en el intervalo (µ -1.96δ; µ +
1.96δ).
- La forma de la campana de Gauss depende de los parámetros µ y (δ Figura 2). La
media indica la posición de la campana, de modo que para diferentes valores de µ
la gráfica es desplazada a lo largo del eje horizontal. Por otra parte, la desviación
estándar determina el grado de apuntamiento de la curva. Cuanto mayor sea el
valor de δ, más se dispersarán los datos en torno a la media y la curva será más
plana. Un valor pequeño de este parámetro indica, por tanto, una gran probabilidad
de obtener datos cercanos al valor medio de la distribución.

Curso Transversal 112


Calidad Total

Figura 2. Ejemplos de distribuciones normales con diferentes parámetros.

(a) Distribución normal con distinta (b) Distribución normal con diferentes
medias Desviación estándar e igual media e igual desviación estándar

7.3. EJERCICIOS RESUELTOS.

1. El tiempo medio en realizar una misma tarea por parte de los empleados de una
empresa se distribuye según una distribución normal, con media de 5 días y
desviación típica 1 día. Calcular el porcentaje de empleados que realizan la tarea
en un tiempo inferior a 7 días.
t1 = -¥ y t2 = (7 -5) /1 = 2

En la tabla la probabilidad acumulada para el valor 2 (equivalente a un tiempo


inferior a 7 días.). Esta probabilidad es 0,9772. Por lo tanto, el porcentaje de
empleados que realizan la tarea en un tiempo inferior a 7 días es del 97,7%.

2. La vida media de una lámpara, según el fabricante, es de 68 meses, con una


desviación típica de 5. Se supone que se distribuye según una distribución normal
En un lote de 10.000 lámparas.
a) ¿Cuántas lámparas superarán previsiblemente los 75 meses?
b) ¿Cuántas lámparas se estropearán antes de 60 meses?

a) t = (75 -68) /5 = 1,4


P (X > 75) = (t > 1,4) = 1 - P (t ≤ 1,4) = 1 - 0,9192 = 0,0808
Luego, el 8,08% de las lámparas (808 lámparas) superarán los 75 meses

b) t = (60 -68) /5 = -1,6

Curso Transversal 113


Calidad Total

P (X ≤ 60) = (t ≤ -1,6) = P (t> 1,6) = 1 - P (t ≤ 1,6) = 0,0548


Luego, el 5,48% del lote (548 lámparas) no llegarán probablemente a durar 60
meses.

3. El consumo medio bimestral de energía eléctrica en una ciudad es de 59 Kw/h., con


una desviación típica de 6 Kw/h. Se supone que se distribuye según una distribución
normal.

a) ¿Cuántos Kw/h. tendría que consumir bimestralmente para pertenecer al 5% de


la población que más consume?
b) Si usted consume 45 Kw/h. ¿qué % de la población consume menos que usted?

a) Buscamos en la tabla el valor de la variable tipificada cuya probabilidad


acumulada es el 0,95 (95%), por lo que por arriba estaría el 5% restante. Este
valor corresponde a t = 1,645. Ahora calculamos la variable normal X equivalente
a ese valor de la normal tipificada:
1,645 = (X -59) /6 Þ X = 67,87
Por lo tanto, tendría usted que consumir más de 67,87 Kw/h. bimestralmente
para pertenecer al 5% de la población que más consume.

b) Vamos a ver en qué nivel de la población se situaría usted en función de los 45


Kw/h. consumidos.
Calculamos el valor de la normal tipificada correspondiente a 45 Kw/h.
t = (45 -59) /9 = -2.333
P (X ≤ 45) = P (t ≤ -2,333) = P (t > 2,333) = 1 - P (t≤ 2,333) = 1 - 0,9901 = 0,0099
Luego, tan sólo un 1,39% de la población consume menos que usted.

4. Una empresa instala en una ciudad 20.000 bombillas para su iluminación. La


duración de una bombilla sigue una distribución normal con media 302 días y
desviación típica 40 días. Calcular.

a) ¿Cuántas bombillas es de esperar que se fundan antes de 365 días?

b) ¿Cuántas durarán más de 400 días?

Explica razonadamente las respuestas.

a) Tipificamos el valor 365 Þ t = (365 -302) /40 = 1,575


P (X ≤ 365) = P (t ≤1,575) = 0,9418
Luego el 94,18% de las lámparas, es decir 20.000 ∙ 0.9418 = 18.836 bombillas se
fundirán antes de 365 días

b) Tipificamos el valor 400 Þ t = (400-302) /40 = 2,45


P (X > 400) = P (t >2,45) = 1- P (t ≤2,45) = 1 - 0,9929 = 0,0071

Curso Transversal 114


Calidad Total

Entonces el 0,71% de las lámparas, es decir 20.000 ∙ 0.0071 = 142 bombillas


durarán más de 400 días.

5. El tiempo medio de los electricistas de una empresa en realizar el montaje de un


determinado cuadro eléctrico es de 4 días, con una desviación típica de 1 día. Se
supone que se distribuye según una distribución normal. Calcular:

a) Porcentaje de electricistas que tardan menos de 3 días.


b) Tiempo a partir del cual del cual se sitúa el 10% de los electricistas que más
tiempo emplean en realizar el cuadro.
c) Tiempos mínimo y máximo que engloba al 60% de los electricistas con tiempo
medio.
a) t= (3 -4)/1 = -1
P (X ≤ 3) = P (t ≤ -1)
P (t ≤ -1) = P (t > 1)
P (t > 1) = 1 - P (t ≤ 1) = 1 - 0,8413 = 0,1587
Luego, el 15,87 % de los electricistas emplean un tiempo inferior a 3 días.

b) Buscamos en la tabla el valor de la variable tipificada cuya probabilidad


acumulada es el 0,9 (90%), lo que quiere decir que por encima se sitúa el 10%
superior. Este valor corresponde a t = 1,282. Ahora calculamos la variable normal
X equivalente a ese valor de la normal tipificada:
1,282 = (X -4) /1 Þ X = 5,282
Despejando X, su valor es 5,282. Por lo tanto, el 10% de los electricistas que
más tardan en realizar un cuadro lo hacen en 5.28 días.

c) Buscamos en la tabla el valor de t cuya probabilidad acumulada es el 0,8 (80%).


Como sabemos que hasta la media la probabilidad acumulada es del 50%,
quiere decir que entre la media y este valor hay un 30% de probabilidad. Por otra
parte, al ser la distribución normal simétrica, entre -t y la media hay otro 30% de
probabilidad. Por lo tanto, el segmento (-t, +t) engloba al 60% de los electricistas
con tiempo medio.

El valor de t que acumula el 80% de la probabilidad es 0,842, por lo que el


segmento viene definido por (-0,842, +0,842). Ahora calculamos los valores de la
variable X correspondientes a estos valores de t.

-0,842 = (X -4) /1 Þ X = 3,158


0,842 = (X -4) /1 Þ X = 4,158

Los valores de X son 3,158 y 4,158. Por lo tanto, los electricistas con tiempos
comprendidos entre 3,158 días y 4,158 días constituyen el 60% de la población
con un tiempo medio de realización del cuadro.

7.4. EJERCICIOS PROPUESTOS.

Curso Transversal 115


Calidad Total

1. Sea Z una variable aleatoria normal, encuentre las siguientes probabilidades:


a) P (-1.20 < z < 2.40)
b) P (1.23 < z < 1.87)
c) P (-2.35 < z < -0.50)

2. Encuentre el valor de z que resuelva la siguiente probabilidad:


a) P (Z > z) = 0.1

3. Se ha ajustado el proceso de fabricación de un tornillo de manera que la longitud


promedio de los tornillos es de 13.0 cm. y la desviación estándar de la longitud de
los tornillos es 0.1 cm. Se sabe que la distribución de las longitudes es normal.
c) Determine la probabilidad de que un tornillo elegido al azar tenga una longitud
entre 13.0 y 13.2 cm?
d) Determine la probabilidad de que la longitud de un tornillo elegido al azar se
exceda de 13.25 cm?

4. Se supone que el ancho de una herramienta utilizada en la fabricación de


semiconductores tiene una distribución normal con media 0.5 micrómetros y
desviación estándar 0.05.
c) ¿Cuál es la probabilidad de que ancho de la herramienta sea mayor que 0?2
micrómetros?
d) ¿Cuál es la probabilidad de que ancho de la herramienta se encuentre entre 0?
47 y 0.63 micrómetros?
e) ¿Cuál es el valor del ancho de la herramienta para el cual el 90 % las
herramientas tienen un ancho mayor?

5. El diámetro de un eje metálico tiene una distribución normal con media de 0.2508
pulgadas y desviación estándar de 0.0005 pulgadas. Las especificaciones de
fabricación indican que el diámetro de los ejes debe estar entre 0.2485 y 0.2515
pulgadas. Se requiere determinar el porcentaje de ejes producidos que cumplan con
las especificaciones.

6. El diámetro de los remaches fabricados por un proceso sigue una distribución


normal con media 12.50 mm. y desviación estándar 0.02 mm. Aquellos remaches
cuyo diámetro se exceda de 12.55mm se reprocesan y aquellos cuyos diámetros
estén por debajo de 12.45 mm. se desechan. ¿Qué porcentaje de producto se
desecha y que porcentaje de producto se reelabora?

7. Un análisis estadístico de 1000 llamadas telefónicas de larga distancia hechas


desde una central indica que la duración de esas llamadas tiene una distribución
normal con media de 129.5 segundos y una desviación estándar de 30 segundos.
c) ¿Cuál es la probabilidad de que una llamada haya durado más de 180 segundos?

Curso Transversal 116


Calidad Total

d) ¿Cuál es la probabilidad de que una llamada haya durados entre 89?5 y 169.5
segundos?
e) ¿Cuántas llamadas duraron más de 60 segundos?

8. El tiempo de reacción de cierto experimento psicológico aplicado a un grupo de


personas tiene una distribución normal con media de 20 segundos y desviación
estándar de 4 segundos.
c) ¿Cuál es la probabilidad de que una persona tenga un tiempo de reacción menor
a 14 segundos?
d) ¿Cuál es la probabilidad de que una persona tenga un tiempo de reacción entre
25 y 30 segundos?
e) ¿Cuál debe ser el tiempo de reacción si solo el 1% de todas las personas tienen
un tiempo de reacción mayor?

Curso Transversal 109

También podría gustarte