Está en la página 1de 172

Universidad Autónoma de Sinaloa

Facultad de Psicología
Modalidad Semiescolarizada

Miguel Arturo Parra Palma

Irela del Rosario Cruz Murillo

1
Unidad: 1.
Conjuntos

1.1. Definición y notación de conjuntos.

1.2. Tipos de conjuntos.

Estadística
1.3. Operaciones con conjuntos.

Inferencial

2015

2
3
1. CONJUNTOS
1.1. Definición y notación de conjuntos.

Un conjunto es una colección bien definida de objetos. A cada uno de


estos objetos les denominaremos elementos o miembros del conjunto.

Se acostumbra a denotar los conjuntos por las letras mayúsculas


del alfabeto: A, B, C, M, X …. Los elementos del conjunto se denotan
usualmente por letras minúsculas: a, b, c, x, y, …

Para especificar que ciertos elementos pertenecen a un conjunto


dado, se emplearán llaves { }.

Se escribe x ∈ A, para indicar que el elemento x es un miembro


del conjunto A. Si por el contrario x no es un elemento del conjunto A,
se escribe: x ∉ A.

Los conjuntos pueden ser descritos enumerando todos sus elementos o


enunciando propiedades que deben tener sus elementos.

Básicamente existen dos formas de definir o determinar un


conjunto:

La primera, denominada definición por Enumeración o llamada


también por extensión, es aquella en la que listamos todos los
elementos del conjunto. Esta lista de elementos la escribimos
entre llaves.

Ejemplos: A = {1, 2, 3, 4, 5, 6} B= {Mercurio, Venus, Tierra, Marte}

C = { Luis, Pedro, Raúl}

4
La segunda, conocida como definición por Definición o por
comprensión o construcción, es en la que escribimos una
propiedad que deben cumplir los elementos que pertenecen al
conjunto o un atributo que los caracterice a todos los elementos
del conjunto.

Ejemplos: C = { x∣x es un número natural par menor que 20}

D = {x∣x es la capital de un país de Norteamérica}

E = {los divisores del 21}

En estos ejemplos el símbolo “∣” se lee “tal que”. A veces lo podemos


encontrar como dos puntos “:” y se lee igualmente como “tal que”.

Además de los dos métodos anteriores, podemos mencionar una


tercera forma de describir o definir conjuntos, la cual es una
combinación de las dos anteriores. Se dan los primeros y/o los últimos
elementos, a partir de los cuales se infiere cuáles elementos pertenecen
al conjunto. Al emplear este método se debe ser cuidadoso al escribir
los elementos y del contexto del problema que se trate, ya que puede
sugerir más de una respuesta correcta.

Ejemplos: F = { Mercurio, Venus, Tierra, …., Neptuno, Plutón}

H = { 2,4,6, … , 18, 20}

Notación de conjuntos:

Notación
∈ Se usa para expresar si un elemento pertenece a un conjunto

∉ Se usa para expresar si un elemento no pertenece a un conjunto


U Conjunto Universal
∅ Conjunto vacío

⊂ Se usa para expresar que un conjunto, y por lo tanto todos sus


elementos forman parte de otro conjunto mayor.

5
1.2. TIPOS DE CONJUNTOS.

Conjunto Universal: es el conjunto formado por la totalidad de los


elementos considerados para una determinada operación. Se
conoce también como espacio muestral. El conjunto universal se
representa por: U.

Ejemplo: sea el conjunto U= {los estados de la República Mexicana}

Conjunto finito: son aquellos conjuntos en los cuales sus


elementos terminan de enumerarse completamente, no obstante
la dificultad que pueda presentarse. Un conjunto cuyo número de
elementos se puede expresar como un entero no negativo se
llama conjunto finito.
Conjunto infinito: es aquel en el que no es posible enumerar al
total de sus elementos, por ejemplo J = {los múltiplos de 5} de
donde: J = { 5, 25, 125, …,} conjunto infinito.
Conjunto vacío: El conjunto que no tiene elementos al cual
también se le llama conjunto nulo y se denota por ∅. Por ejemplo
sea H: el conjunto de los números naturales pares mayores que 2
y menores que 4. De donde se expresa: H = ∅ o bien con las
llaves vacías, así: H = { }.
Conjuntos iguales:

Definición: Dos conjuntos A y B son iguales, si y sólo si cada elemento


que pertenece a A también pertenece a B, y cada elemento que
pertenece a B también pertenece a A.

De acuerdo con la definición anterior dos conjuntos son iguales sólo si


ambos contienen exactamente los mismos elementos. Es conveniente
notar que el orden en que aparecen los elementos de un conjunto no
tiene importancia, y que los conjuntos siguientes:

A = {1, 2, a, 3} B = {a, 1, 2, 3} son iguales.

6
Tampoco importa el número de veces que un elemento aparezca en la
lista que especifica el conjunto; los conjuntos

C = {1, 2, 3} D = {1, 2, 2, 1, 3, 1} son iguales.

Subconjunto:

Definición: A es un subconjunto de B (denotado como A ⊂ B ) si y sólo si


cada elemento que pertenece a A también pertenece a B.

Por ejemplo, { a } es un subconjunto de { a, z } y los dos son


subconjuntos de {a, b, z}. El conjunto de todos los pinos es un
subconjunto del conjunto de todos los árboles.

Sean los conjuntos:

A = {1, 2, 3} , B = { 1, 3 } , C={1}

Aquí puede decirse, correctamente, que B ⊂ A (B es un subconjunto de


A) y C ⊂ A (C es un subconjunto de A) ya que cada elemento que
pertenece a B también pertenece a A. Y cada elemento que pertenece a
C también pertenece a A. Sin embargo no es correcto decir que B∈A o
que C∈A puesto que B y C no están especificados en la lista de
elementos que pertenecen a A. Pero si es correcto decir que 1∈ A o que
1∈ C. Pero no puede decirse que 1 ⊂ A y que 1 ⊂ C, ya que 1 no es un
conjunto.

Se puede decir que dos conjuntos son iguales diciendo A = B si y sólo si


A ⊂ B y B ⊂ A.

Conjunto complemento: Sea U el conjunto universal y S un


subconjunto cualquiera de U, el conjunto de los elementos que
faltan a S para completar U, es el complemento de S.
Conjuntos disjuntos: a dos conjuntos se les llama disjuntos si no
tienen elemento en común.

7
1.3. OPERACIONES ENTRE CONJUNTOS.

Las operaciones con conjuntos son formas específicas de combinarlos


para obtener otros conjuntos. Las operaciones son:

A. Unión

B. Intersección.

C. Conjuntos disjuntos.

D. Complemento de un conjunto.

E. Diferenciación entre conjuntos.

F. Conjunto producto.

G. Diagrama de árbol.

A. Unión (su símbolo es ⋃):


Si se reúnen los elementos de dos o más conjuntos para formar
uno solo, a este conjunto que resulta se le llama unión de conjuntos, si
existen elementos comunes entre los conjuntos originales éstos no se
repiten en el conjunto unión.
Definición: La unión de A y B (denotada como A ⋃ B y que se lee “unión
de A y B” o “A unión B”) es el conjunto formado por todos los elementos
que pertenecen a A ó a B ó a ambos; o sea, A ⋃ B = { x : x ∈ A ó x ∈ B}.
El conectivo “o” que relaciona a las dos condiciones es una o inclusiva.

Ejemplo, si A = {1, 2}, B = {1, 3}, C= {0}, entonces A ⋃ B = {1, 2, 3}.


A ⋃ C = {0, 1, 2} y B ⋃ C = {1, 3, 0}.

B. Intersección (su símbolo es ⋂).


La intersección de dos conjuntos A y B es el conjunto que forman
los elementos comunes a ambos conjuntos.

8
Definición: La intersección de A y B (denotada por A ⋂ B) es el conjunto
constituido por todos los elementos que pertenecen tanto a A como a A;
o sea que A ⋂ B = {x : x ∈A y x ∈ B}.

Ejemplo, si A = { 0, 1 }, B = { 1, 3}, C = { 0, 1, 3}, entonces A ⋂ B = {1},


A ⋂ C = {0, 1}, B ⋂ C = {1, 3}.

C. Conjuntos disjuntos.
Si dos conjuntos A y B no tienen elementos comunes, es decir, si
ningún elemento de A está en B y si ningún elemento de B está en A,
entonces A y B son disjuntos o ajenos entre sí y su intersección es el
conjunto vacío: A ⋂ B = ∅.
Ejemplo: con los conjuntos: A = {1, 2, 3 } B = { 0, 4, 5 }. Los conjuntos
A y B son disjuntos. A ⋂ B = ∅.

D. Diferencia entre conjuntos.


Dados los conjuntos A y B, el conjunto diferencia se define en la
forma siguiente: la diferencia de A – B, en este orden, es el conjunto de
todos los elementos que pertenecen a A, pero no a A.
A – B se lee “A diferencia B “ o “ A menos B”.
Ejemplo: A = {1, 2, 3, 4, 5 } B = {1, 2 }

A – B = { 3, 4, 5 }.

E. Complemento de un conjunto.

Cuando se ha establecido un conjunto universal U, a la diferencia de U y


un conjunto sea por ejemplo A, se le llama complemento de A, se
expresa A’. El apóstrofe señala que hemos formado el complemento de
A. Ejemplo: U = { 1, 2, 3, 4, 5, 6} A = { 1, 2, 3} A’ = {4, 5, 6}

F. Conjunto producto.
El producto de dos conjuntos A x B (en este orden) es el producto de
todos los posibles pares ordenados, tales que la primera componente

9
del par ordenado es un elemento de A y la segunda componente es un
elemento de B.

Ejemplo: A = {a, e} B = {1, 2, 3}

A  B = { (a, 1), (a, 2), (a, 3), (e, 1), (e, 2), (e, 3)}

Donde los elementos del conjunto producto son “parejas ordenadas”.

G. Diagrama en árbol.
Si en un problema en que sea necesario obtener el producto de tres o
más conjuntos y el desarrollo resulta complicado, para actuar con cierta
seguridad se utiliza lo que se conoce como diagrama en árbol.

10
Unidad: 2.
Probabilidad

2.1. Conceptos básicos de probabilidad.

2.2. Cálculo de la probabilidad de un evento.

2.3. Técnicas de conteo.

2.4. Diagramas de árbol

2.5. Principio aditivo

2.6. Principio multiplicativo

2.7. Permutaciones

2.8. Combinaciones

2.9. Probabilidad con base en los sucesos compuestos: ley


aditiva y ley multiplicativa de probabilidad.

11
2. PROBABILIDAD.
Existen muchas situaciones en la vida cotidiana cuyos
resultados se manifiestan de manera imprevista. Una gran cantidad de
nuestras experiencias de carácter aleatorio están relacionadas con los
juegos de azar. Nuestra vida está rodeada por la presencia de
fenómenos imprevisibles que aparecen en los campos biológico,
político, médico, agrícola, y entre muchos otros más. Los modelos de
probabilidad son parte fundamental de un segmento de la teoría
estadística, por lo que resulta primordial aprender la teoría
probabilística para comprender de manera adecuada los métodos
estadísticos.

Una definición de probabilidad sería la siguiente: posibilidad de


que se produzca un suceso o aparezca un valor de entre el conjunto de
casos o situaciones consideradas. De manera intuitiva pensamos en la
probabilidad como un valor numérico que se asocia con algún resultado
e indica el grado de certeza de que pueda ocurrir el resultado.

2.1. Conceptos básicos de Probabilidad:

Aleatoriedad. La ciencia busca las leyes que gobiernan los distintos


fenómenos con el fin de entenderlos, prevenirlos y, en la medida de lo
posible, controlarlos. Sin embargo, hay fenómenos que no pueden
prevenirse, o que las leyes que los rigen son tan complejas que es
prácticamente imposible utilizarlas para controlar y prevenir sus
consecuencias. No es posible saber cuándo y dónde ocurrirá el siguiente
terremoto, ni se pueden controlar los altibajos de la bolsa financiera.

Se llaman determinísticos los fenómenos que son predecibles, mientras


que aquellos que no pueden predecirse con certeza se les llaman
aleatorios.

Si dejamos caer una piedra o la lanzamos, y conocemos las condiciones


iniciales de altura, velocidad, etc., sabremos con seguridad dónde caerá,
12
cuánto tiempo tardará, etc. Es una experiencia determinista. Si echamos
un dado sobre una mesa, ignoramos qué cara quedará arriba. El
resultado depende del azar. Es una experiencia aleatoria.

Una experiencia aleatoria es un fenómeno que tiene tres características:


a) sus resultados son impredecibles, b) se puede determinar el conjunto
de todos los posibles resultados y c) se repite naturalmente o es
posible reproducirlo en condiciones similares.

Dado un experimento aleatorio, se puede hablar de la


probabilidad de sus eventos. La probabilidad de un evento es una
medida que proporciona información sobre la propensión de ocurrencia
del mismo. La probabilidad de un evento es un número entre cero y
uno; entre menos propenso a ocurrir es el evento, su probabilidad será
cercana a cero, y entre más propenso a ocurrir, su probabilidad será
cercana a 1. La suma de las probabilidades de todos los eventos simples
de una experiencia aleatoria debe ser uno (1).

Espacio Muestral.- Se llama espacio muestral (E) asociado a un


experimento aleatorio, el conjunto de todos los resultados posibles de
dicho experimento.

Al lanzar una moneda, el espacio muestral es E = {sale cara, sale sello} ó


E = {c, s}.

Al lanzar un dado de seis caras, el espacio muestral


es:
E = {sale 1, sale 2, sale 3, sale 4, sale 5, sale 6}
ó E = {1, 2, 3, 4, 5, 6}

13
Al lanzar dos monedas, el espacio muestral es
E = {(c,c), (c,s), (s,c), (s,s)}.

14
Al lanzar tres monedas, el espacio muestral es E = {(c,c,c), (c,c,s), (c,s,c),
(c,s,s), (s,c,c), (s,c,s), (s,s,c), (s,s,s)}

Evento o Suceso. Se llama evento o suceso a todo subconjunto de un


espacio muestral.

Ejemplo en el espacio muestral E = {1, 2, 3, 4, 5, 6} del


lanzamiento de un dado, los siguientes son eventos o sucesos:

1. Obtener un número primo A = {2, 3, 5}


2. Obtener un número primo y par B = {2}
3. Obtener un número mayor o igual a 5 C = {5, 6}

Ejemplo: En la urna de la derecha, sacamos una


bola al azar y anotamos su número. a)
Describe el espacio muestral, b) describe
los siguientes eventos o sucesos:

A = Bola roja 7 10
B = Bola amarilla 4 3 6 5
C = Bola azul 8 1 9 2
D = Bola con número impar
F = Bola con número par

15
c) Calcula las probabilidades de cada suceso o evento.

a) Espacio muestral:

E={ 1 , 2 , 3 , 4 , 5 , 6 , 7 , 8 , 9 , 10 }

b) Sucesos o eventos:

A={ 2 ,
3 , 4 , 6 , 7 }

B={ 1 , 5 }

C={ 8 , 9 , 10 }

D={ 1 , 3 , 5 , 7 , 9 }

F={ 2 , 4 , 6 , 8 , 10 }

c) Probabilidades de los sucesos o eventos:

P(A) = 5/10 P(B) = 2/10 = 1/5 P(C) = 3/10 P (D) = 5/10= 1/2

P(F) = 5/10= 1/2

Tipos de sucesos:

En función de la relación de probabilidad se puede establecer entre los


sucesos que éstos se clasifican en:

1. Mutuamente excluyentes : son aquellos sucesos en los que en un


mismo experimento aleatorio no es posible que ocurran
simultáneamente.
2. No excluyentes entre sí: son aquellos sucesos en un mismo
experimento aleatorio, en los que la posibilidad de que ocurra

16
uno de ellos no impide que el otro suceso ocurra, es decir,
pueden ocurrir conjuntamente.

Ejemplo: Dado un experimento aleatorio: se observa la escolaridad de


las personas de 25 a 45 años de edad de una comunidad. Consideremos
los sucesos siguientes:

A: La persona es analfabeta.

B: Una persona tiene menos de 35 años.

C: La persona es profesionista.

Los sucesos A y B en este caso son no excluyentes entre sí (no son


mutuamente excluyentes) porque una persona puede tener menos de 35
años y ser analfabeta.

Los sucesos B y C son no excluyentes entre sí (no son mutuamente


excluyentes) porque una persona puede tener menos de 35 años y ser
profesionista.

Los sucesos A y C son mutuamente excluyentes, porque una persona no


puede ser analfabeta y ser profesionista.

2.2. Cálculo de probabilidad de un evento

La forma más sencilla de asignación de probabilidades a un evento la


dio el matemático francés Pierre Simon Laplace (1749-1827), quien
anunció la regla que lleva su nombre:

Regla de Laplace: Si realizamos un experimento aleatorio en el que hay


n sucesos elementales, todos igualmente probables, entonces si A es un
suceso o evento, la probabilidad de que ocurra el suceso (evento) A es:

17
P (A) = Número de casos favorables al evento A

Número de casos posibles

Ejemplo: se lanza un dado cuyas caras están numeradas del 1 al 6. Sea A


el evento de que el dado muestre la cara 2 o 6 hacia arriba cuando
quede en reposo. ¿Cuál es la probabilidad de que ocurra A?

El número de casos posibles es 6, es decir los seis elementos que


conforman el espacio muestral (1,2,3,4,5,6). Los casos favorables son
dos (2 y 6). Entonces la probabilidad de A es:

P (A) = 2/6 = 1/3

Condiciones importantes:

Para poder aplicar la Regla de Laplace el experimento aleatorio tiene que


cumplir dos requisitos:

a) El número de resultados posibles (sucesos o eventos) tiene que ser


finito. Si hubiera infinitos resultados, al aplicar la regla "casos favorables
dividido por casos posibles" el cociente siempre sería cero.

b) Todos los sucesos o eventos tienen que tener la misma probabilidad.


Si al lanzar un dado, algunas caras tuvieran mayor probabilidad de salir
que otras, no podríamos aplicar esta regla.

A la regla de Laplace también se le denomina "probabilidad a priori", ya


que para aplicarla hay que conocer antes de realizar el experimento
cuales son los posibles resultados y saber que todos tienen las mismas
probabilidades.

18
2.3. Técnicas de Conteo.

Veíamos que si por ejemplo lanzáramos tres monedas al aire, el espacio


muestral sería:

E = {(c,c,c), (c,c,s), (c,s,c), (c,s,s), (s,c,c), (s,c,s), (s,s,c), (s,s,s)}

Los resultados posibles serían ocho.

Si se tratara de 4 monedas las que lanzáramos, el espacio muestral


estaría conformado por:

E = {(c,c,c,c), (c,c,c,s), (c,c,s,c), (c,c,s,s), (c,s,c,c), (c,s,c,s), (c,s,s,c),


(c,s,s,s), (s,c,c,c), (s,c,c,s), (s,c,s,c), (s,c,s,s), (s,s,c,c), (s,s,c,s), (s,s,s,c),
((s,s,s,s)}

Tendríamos 16 resultados posibles.

En estos dos ejemplos tendríamos que resolver dos problemas


relacionados con el espacio muestral: uno sería determinar cuántos
elementos conforman el espacio muestral y el otro problema sería
cuáles son dichos elementos.

Podemos usar diversas formas de enumerar los elementos del


espacio muestral, podemos utilizar una lista donde vamos anotando
todos los posibles resultados obtenidos en la realización de un cierto
experimento, podemos usar diagramas de Venn en algunos casos para
separar diversas categorías de grupos, podemos construir diagramas de
árboles y luego dedicarnos a contar todas las ramas o diversas
opciones. Estas serán formas de encontrar el número total de elementos
del espacio muestral. Igualmente también estas diversas formas nos
dará el número total de elementos o grupos de elementos que favorecen
a la ocurrencia de un determinado evento.

19
Serán tal vez suficientes estas “formas” o técnicas en muchos
casos; pero en otros casos, cuando los posibles resultados son muchos
debemos usar otras técnicas de enumeración. Estas técnicas son
conocidas como la Teoría Combinatoria y los Arreglos o Permutaciones,
o una combinación de ambas mediante el uso de lo que se conoce como
el principio de la adición o de la multiplicación.

Muchos de los problemas de probabilidad pueden solucionarse


contando los elementos que pertenecen a los diferentes conjuntos. Para
ello, es muy útil tener a la mano varias técnicas, las cuales ayudarán a
resolver los problemas de probabilidad en que aparecen estos
conjuntos. Desafortunadamente, no existe una técnica general que
pueda aplicarse en forma universal a todos los problemas de conteo,
por tanto, se hace necesario aplicar métodos de conteo al problema
específico que se esté estudiando.

2.4. Diagrama de árbol.

¿Qué es? El Diagrama de árbol es una representación gráfica que


muestra todos los resultados posibles de un experimento aleatorio, el
cual tiene un número finito de manera de ser llevado a cabo y en
algunos casos se utiliza para mostrar además sus respectivas
probabilidades.

¿Para qué se utiliza? Para mostrar todos los posibles resultados de un


experimento aleatorio.

¿Cuál es su aplicación? En las reglas de conteo y probabilidad.

¿Cómo se construye? Para la construcción de un diagrama en árbol se


partirá poniendo una rama para cada una de las posibilidades,
acompañada de su probabilidad.

20
En el final de cada rama parcial se constituye a su vez, un nudo del cual
parten nuevas ramas, según las posibilidades del siguiente paso, salvo
si el nudo representa un posible final del experimento (nudo final).

Hay que tener en cuenta: que la suma de probabilidades de las ramas de


cada nudo ha de dar 1.

Ejemplo: Supongamos que en un grupo de 20 alumnos, hay 8 hombres y


12 mujeres, de los cuales, hay 5 hombres que acostumbran leer y el
resto no, y en el caso de las mujeres 8 leen y el resto no. Construir un
diagrama de árbol y representar las probabilidades.

LEE P(H y L) = 8/20 x 5/8 = 0.25


5/8
HOMBRE
8/20 3/8 NO LEE P(H y NL)= 8/20 x 3/8 = 0.15

12/20 8/12 LEE P(M y L) = 12/20 x 8/12 = 0.4


MUJER
4/12 NO LEE P(M y NL) = 12/20 x 4/12 = 0.2

2.5. Principio de la Multiplicación:

Si un evento o suceso A puede ocurrir o efectuarse de m maneras


diferentes y después de que este suceso ha sido efectuado, un segundo
suceso o evento B puede puede efectuarse de de n maneras diferentes,
entonces el evento A seguido del evento B puede ocurrir de m x n
maneras.

Ejemplo: Si dispongo en un armario de 5 camisas, 6 pantalones, 4


abrigos y 5 pares de zapatos de cuantas formas puedo vestirme?

21
Aplicando el principio multiplicativo tendríamos que de:

5 x 6 x 4 x 5 = 600 formas distintas

2.6. Principio de la Adición o aditivo

Cuando un suceso (evento) puede realizarse de dos maneras diferentes


excluyentes (una o la otra, es decir, no es posible realizar ambas
maneras juntas), y la primera de ellas puede realizarse de m maneras
diferentes y la siguiente de n maneras diferentes, entonces el suceso
puede realizarse de m + n maneras diferentes. Este principio al igual
que el principio multiplicativo puede generalizarse para procesos que
incluyen tres o más operaciones excluyentes.

Ejemplo: un vacacionista tiene 5 ofertas para viajar en crucero, 3 ofertas


para viajar en avión y dos para viajar por tren. ¿Cuántos viajes diferentes
puede realizar el vacacionista?

5 + 3 + 2 = 10

Ejemplo utilizando ambos principios (multiplicativo y aditivo):

Una persona desea comprar una lavadora de ropa, para lo cual ha


pensado que puede seleccionar de entre las marcas Whirpool, Easy y
General Electric, cuando acude a hacer la compra se encuentra que la
lavadora de la marca W se presenta en dos tipos de carga ( 8 u 11
kilogramos), en cuatro colores diferentes y puede ser automática o
semiautomática, mientras que la lavadora de la marca E, se presenta en
tres tipos de carga (8, 11 o 15 kilogramos), en dos colores diferentes y
puede ser automática o semiautomática y la lavadora de la marca GE, se
presenta en solo un tipo de carga, que es de 11 kilogramos, dos colores
diferentes y solo hay semiautomática. ¿Cuántas maneras tiene esta
persona de comprar una lavadora?

Solución:
22
M = Número de maneras de seleccionar una lavadora Whirpool

N = Número de maneras de seleccionar una lavadora de la marca Easy

W = Número de maneras de seleccionar una lavadora de la marca


General Electric

M = 2 x 4 x 2 = 16 maneras

N = 3 x 2 x 2 = 12 maneras

W = 1 x 2 x 1 = 2 maneras

M + N + W = 16 + 12 + 2 = 30 maneras de seleccionar una lavadora

2.7. PERMUTACIONES.

Una permutación de un número de objetos es una disposición de estos


objetos en un orden definido, y el orden de aparición es muy
importante. Es un arreglo de un conjunto de “n” objetos en un orden
definido.

Tipos de Permutaciones:

Permutaciones donde todos los objetos o elementos son


diferentes:

A) PERMUTACIÓN SIMPLE: PERMUTAR TODOS LOS OBJETOS, DONDE


TODOS SON DIFERENTES.

Son permutaciones simples, de n elementos distintos, todas las


agrupaciones de esos n elementos, dispuestos linealmente, sin que

23
ninguno falte o se repita. Estas agrupaciones se diferencian entre sí,
sólo por el orden de sus elementos.

Cálculo:

El número de permutaciones simples que pueden realizarse con n


elementos distintos (Pn):

Pn = n !

Donde n: es el total de elementos y ! : es el símbolo de factorial

Factorial de un número: Dado un número natural n, se define el


factorial de n, y se simboliza n!, como el producto de multiplicar una
serie de números naturales en orden descendente (como 4,3,2,1).

Ejemplos:

8! = 8 X 7 X 6 X 5 X 4 X 3 X 2 X1

6! = 6 X 5 X 4 X 3 X 2 X 1

En el caso de:

0! = 1

1! = 1

B) PERMUTACIÓN CÍCLICA ( CIRCULAR ): PERMUTAR TODOS LOS OBJETOS


DONDE TODOS DIFERENTES.

Definición:

Son permutaciones cíclicas de n elementos distintos, todas las


agrupaciones de esos n elementos, dispuestos en forma circular, sin
que ninguno falte o se repita.

24
Cálculo:

El número de permutaciones cíclicas que pueden realizarse con n


elementos distintos ( PCn ) es:

PCn = (n-1) !

Ejemplo: ¿De cuántas formas distintas pueden sentarse ocho personas


alrededor de una mesa redonda?

PC8 = (n-1)! = (8-1)! = 5040

C) PERMUTAR ALGUNOS OBJETOS, DONDE TODOS DIFERENTES.

La fórmula de permutaciones de r objetos tomados de entre n objetos


es:

n!
P =
n r
(n r )!

Esta fórmula nos permitirá obtener todos aquellos arreglos en


donde el orden es importante y solo se usen parte (r) de los n objetos
con que se cuenta, además hay que hacer notar que no se pueden
repetir objetos dentro del arreglo, esto es, los n objetos son todos
diferentes.

Ejemplo: haga una lista de las permutaciones que pueden formarse con
los números: 1,2,3,4,5, 6 tomando dos a la vez.

n!
6 2 P = 6! / (6 – 2) ! = 30 nPr=
( n−r ) !

PERMUTACIÓN CON REPETICIÓN

25
Definición: Son permutaciones con repetición de n elementos, no
todos distintos, todas las agrupaciones de n elementos, formadas por
aquellos, dispuestos linealmente y sin que ninguno falte.

Cálculo:

El número de permutaciones con repetición que pueden realizarse con


n elementos, donde existen r elementos iguales entre sí ( de una
misma clase ) y el resto distintos entre sí y distintos también a los
anteriores (Pn,r ), es:

Observación: Esto puede extenderse a permutaciones de n


elementos, donde existen r elementos de una clase, q elementos de
otra clase, etc.

Ejemplo:

¿Cuántos números de 6 cifras se pueden formar con los dígitos 1, 1,


1, 2, 2 y 3?

Respuesta:

2.8. COMBINACIONES.

Algunas veces estamos interesados en seleccionar sin orden específico r


objetos de un total n. A esa selección se le denomina combinación.
26
Las combinaciones son arreglos sin repetición en los que el orden no
importa, es decir, dos arreglos con los mismos símbolos, se consideran
uno solo. Una combinación, es un arreglo de elementos en donde no
nos interesa el lugar o posición que ocupan los mismos dentro del
arreglo. En una combinación nos interesa formar grupos y el contenido
de los mismos.

COMBINACIONES: Se llaman combinaciones de tamaño r


tomadas de un conjunto de tamaño n, los arreglos sin
repetición de tamaño r tomados de un conjunto de tamaño n,
pero esta vez sin importar el orden.

A las combinaciones de tamaño k tomadas de un conjunto de tamaño n,


se les denota con el símbolo: nCr. La fórmula es la siguiente:

n!
n Cr= r ! (n r )!

Ejercicio: Supongamos que se quiere escoger 3 psicólogos dentro de un


grupo de 8. Aclaremos además, que este procedimiento implica escoger
al azar a estas 3 personas, sin ningún tipo de preferencia o
condicionamiento por o hacia alguno de ellos. Entonces las formas de
seleccionar a los 3 psicólogos de 8 posibles serán:

C3 = 8 !
8 = 56

3! (8-3) !

Hay 56 formas de seleccionar a los 3 psicólogos.

2.9. Probabilidad con base en los sucesos compuestos: ley aditiva y ley
multiplicativa.

27
Ley Aditiva de la probabilidad
Para aplicar la ley aditiva hay que revisar si los sucesos involucrados son
excluyentes entre sí o no lo son.
a) Mutuamente excluyentes: son aquellos sucesos en los que en un
mismo experimento aleatorio no es posible que ocurran
simultáneamente. En sucesos mutuamente excluyentes se tienen que la
ocurrencia de uno de ellos elimina automáticamente la posibilidad de
que ocurra el otro.
b) No excluyentes entre sí: son aquellos sucesos en un mismo
experimento aleatorio, en los que la posibilidad de que ocurra uno de
ellos no impide que el otro suceso ocurra; es decir, pueden ocurrir
conjuntamente.
Cuando los sucesos son mutuamente excluyentes :

P(A o B) = P(A) + P(B)

Ejemplo: Para participar en la rifa de un


reloj, los alumnos de primer año
compraron 18 boletos; los de segundo
grado 12 boletos. Si son 50 boletos, ¿cuál
es la probabilidad de que un alumno de
primero o segundo gane la rifa?

Solución:

A: gana un alumno de primer grado

B: gana un alumno de segundo grado

18 12 30 3
P(A o B) = P(A) + P(B) = + = = =0.6
50 50 50 5

Cuando los sucesos no son excluyentes entre sí:

P(A o B) = P(A) + P(B) – (A ∩ B)

28
Ejemplo: Se lanza un dado y una moneda, sean los eventos A y B los
siguientes:

A: “Que aparezca el número 2 o


3 con sol”.

B: “Que aparezcan números


pares con sol”

Solución:

El espacio muestral sería:

E = {1s, 1s, 3s, 4s, 5s, 6s, 1a, 2a, 3a, 4a, 5a, 6a}

Número de resultados posibles = 12

A = {2s, 3s} Número de resultados posibles = 2

B = {2s, 4s, 6s} Número de resultados posibles = 3

A ∩ B = 2s Número de resultados posibles= 1

P(A o B) = P(A) + P(B) – (A ∩ B)

2 3 1 4 1
P(A o B) = + − = =
12 12 12 12 3

Ley multiplicativa de la probabilidad.

Para aplicar esta ley es necesario revisar si los sucesos involucrados son
independientes o dependientes.

a) Sucesos independientes: son aquellos en los que la ocurrencia de


uno, no afecta la probabilidad de que ocurra el otro.

29
b) Sucesos dependientes son aquellos en los que la ocurrencia de uno
afecta la probabilidad de que ocurra el otro.

Sucesos independientes:

La probabilidad de que ocurran simultáneamente dos sucesos A y B, se


obtiene con el producto de sus probabilidades.

P (A y B) = P(A) . P(B)

Ejemplo: En un experimento aleatorio


se lanza un dado y se saca una canica
de una bolsa; en la bolsa hay 3
canicas, una roja, una azul y una
verde. ¿Cuál es la probabilidad de que
salga un número primo y una canica
azul?
Solución: como cualquier resultado que
aparezca en el dado no afecta la
probabilidad del color de la canica que se
saca de la bolsa, ni viceversa, se dice que los
sucesos son independientes.
A: {1,2,3,5} números primos
B: sale canica azul

P(A y B) = P(A) . P (B) = ( 46 )( 13 )= 184 =0.22=22 %


Sucesos dependientes:
En este caso, en la relación
P (A y B) = P(A) . P(B) se debe tener cuidado al calcular P(B) porque esta
probabilidad está afectada porque ya ocurrió el suceso A.

Ejemplo:

30
De un grupo escolar se van a elegir por sorteo a 3 alumnos que se
hagan cargo de una ceremonia de graduación; en el grupo hay 10
hombres y 30 mujeres. ¿Cuál es la probabilidad de que el grupo de
representantes esté conformado de:
A: sean tres mujeres
B: sean un hombre y dos mujeres.
Resolución:
A) Sean tres mujeres.
Para calcular la P(A) es necesario que se den los sucesos siguientes:
A1= el primer alumno seleccionado sea mujer: P(A1) = 30/40 =0.75
A2: la segunda seleccionada sea mujer: P(A2) = 29/39= 0.74
Observe que la ocurrencia de A1 afecta la probabilidad de que ocurra A 2
puesto que tanto el número de mujeres como el número de alumnos
cambia (ha disminuido) para la realización del suceso A2.
De la misma forma tenemos:
A3: la tercer seleccionada sea mujer: P(A3) = 28/38= 0.73
Entonces aplicando la ley multiplicativa se tiene:
P(A) = P( A1 y A2 y A3) = 0.75 x 0.74 x 0.73 = 0.4051 = 40. 51%
B) Sean un hombre y dos mujeres:
B1: sale el prime hombre:
P(B1) = 10/40 = 0.25
B2: sale el segundo alumno y es mujer
P(B2)= 30/39= 0.76
B3: sale tercer alumno mujer:
P(B3) = 29/38= 0.76
Así tenemos que: P(B)= 0.25 x 0.76 x 0.76 = 0.1444 = 14.44%

Unidad: 3.
31
Distribuciones de Probabilidad

3.1. Definición de distribución de probabilidad.

3.2. Tipos de distribución de probabilidad.

3.3. Distribución Binomial.

3.4. Distribución Normal.

3.5. Distribución Normal Estandarizada.

3.6. Distribución t de Student.

3. Distribuciones de Probabilidad
En el curso anterior se vieron las distribuciones de frecuencias, las
cuales se describían como una forma útil de resumir las variaciones en
los datos observados y se definían como el conjunto de valores o
modalidades que toma una variable o atributo con sus correspondientes
frecuencias. Las distribuciones de probabilidad están relacionadas con
32
las distribuciones de frecuencias. Para poder entender la diferencia
entre ambos conceptos, en el apartado
siguiente se define lo que es una
Con frecuencia resulta
distribución de probabilidad.
conveniente poder idear algún
3.1. Definición de Distribución de mecanismo o regla que nos
permita determinar la
probabilidad. probabilidad de que la variable
aleatoria X asuma algún valor
Una distribución de probabilidad particular x. Cualquier regla o
indica toda la gama de valores que mecanismo que sirva para
determinar P(X=x),
pueden representarse como resultado de probabilidad de que la variable
un experimento. Una distribución de aleatoria X tome cada uno de
los valores posibles x, se
probabilidad es similar a la distribución
denomina una distribución de
de frecuencias relativas, sin embargo, en probabilidad. Esta regla o
mecanismo puede ser una
vez de describir el pasado, describe la
tabla, un gráfico o una fórmula.
probabilidad que un evento se realice
¿Qué es una distribución de
en el futuro, constituye una
probabilidad?
herramienta fundamental para la
Muestra todos los resultados posibles
prospectiva, puesto que se puede de un experimento y la probabilidad
diseñar un escenario de de cada resultado.
acontecimientos futuros
considerando las tendencias actuales de diversos fenómenos naturales,
permitiendo hacer inferencias y tomar decisiones en condiciones de
incertidumbre. Una distribución de frecuencias es un listado de las
frecuencias observadas de todos los resultados de un experimento que
se presentaron realmente cuando se efectuó éste, mientras que una
distribución de probabilidad es un listado de las probabilidades de
todos los posibles resultados que podrían obtenerse si el experimento
se llevara a cabo. Las distribuciones de probabilidad pueden basarse en
consideraciones teóricas, en una estimación subjetiva de la posibilidad
de ciertos resultados o también se pueden basar en la experiencia.

Toda distribución de probabilidad es generada por una variable


aleatoria X.
33
Variable aleatoria: Corresponde al valor resultante de un determinado
experimento aleatorio.
Una variable aleatoria es una especie de valor o magnitud que cambia de
una ocurrencia a otra sin seguir una secuencia predecible. Por ejemplo:
En una clínica para tratamiento del cáncer, no se tiene manera de saber
con exactitud cuántos pacientes van a ser atendidos en un día
cualquiera, de modo que el número del día siguiente es una variable
aleatoria.

La variable aleatoria x puede ser de dos tipos:

a) Variable aleatoria discreta (x). Se le denomina variable porque puede


tomar diferentes valores, aleatoria, porque el valor tomado es
totalmente al azar y discreta porque solo puede tomar valores enteros y
un número finito de ellos.

Ejemplos:

1) X® Variable que nos define el número de preguntas que realizan los


alumnos en una clase.

x = 0, 1, 2, 3, 4, 5 . . . .

2) X®Variable que nos define el número de páginas de un libro

x = 50, 100, 250, 125, 305….

3) X ®Variable que nos define el número de casos de gripa en una


muestra de 200 personas.

x®0, 1, 2, 3, 4, 5,.... 200

34
4) X® número de aciertos que se cometen al responder al azar un test
de conocimientos formado por N ítems con tres alternativas de
respuestas donde sólo una es correcta.

x®0, ….N

5) El número de empleados ausentes en un determinado turno de


trabajo, el resultado podría ser: 0, 1, 2, …

Con los ejemplos anteriores nos damos cuenta claramente que los
valores de la variable x siempre serán enteros, nunca fraccionarios.

b) Variable aleatoria continua (x). Se le denomina variable porque puede


tomar diferentes valores, aleatoria, porque los valores que toma son
totalmente al azar y continua porque puede tomar tanto valores enteros
como fraccionarios y un número infinito de ellos.

Ejemplos:
 Cantidad de agua consumida en un mes.
 La altura de los alumnos de una clase. (1.60 mts., 1.68, 1.73,
1.80, etc.).
 Tiempo que tarda una rata en recorrer un laberinto.
 La longitud de unos estímulos presentados en experimentos de
percepción visual.
 El tiempo de reacción ante un estímulo (2 seg., 3.5 seg., 5,8 seg.,
7 seg., 7.3 seg., etc.).
 X®Variable que nos define la concentración en gramos de plata
de algunas muestras de mineral.
x®14.8 gramos, 12.0, 10.0, 42.3, 15.0, 18.4, 19.0, 21.0, 20.8

Como se observa en los ejemplos anteriores, una variable continua


puede tomar cualquier valor, entero o fraccionario, una forma de
distinguir cuando se trata de una variable continua es que esta variable

35
nos permite medirla o evaluarla, mientras que una variable discreta no
es medible, es una variable de tipo atributo, cuando se inspecciona un
producto este puede ser defectuoso o no, blanco o negro, cumple con
las especificaciones o no cumple, etc.

3.2. Tipos de Distribuciones de probabilidad.

Las variables descritas anteriormente nos generan una distribución de


probabilidad, las que pueden ser.

Distribuciones de
Probabilidad

Distribuciones de Distribuciones de
probabilidad probabilidad
discreta continua

Las características de cada una de las distribuciones anteriores se


mencionarán a continuación:

CARACTERÍSTICAS DE UNA DISTRIBUCIÓN DE PROBABILIDAD


DISCRETA:
1. Es generada por una variable discreta (X).

X®Variable que solo toma valores enteros


x®0, 1, 2, 3, 4, 5, 6, 7, 8, ... etc.

2. p(Xi)³0 Las probabilidades asociadas a cada uno de los valores


que toma x deben ser mayores o iguales a cero.

3.Sp(Xi) = 1 La sumatoria de las probabilidades asociadas a cada uno


de los valores que toma x debe ser igual a 1.
36
CARACTERÍSTICAS DE UNA DISTRIBUCIÓN DE PROBABILIDAD CONTINUA:
1. Es generada por una variable aleatoria continua (X).

X® Es una variable que puede tomar tanto valores enteros como


fraccionarios.

X® 1.0, 3.7, 4.0, 4.6, 7.9, 8.0, 8.3, 11.5, .....,¥

2. f(X)³0 Las probabilidades asociadas a cada uno de los valores


que toma x deben ser mayores o iguales a cero.

 f ( x )dx  1
3.  La sumatoria de las probabilidades asociadas a cada
uno de los valores que toma x debe ser igual a 1. El área definida
bajo la función de densidad de probabilidad deberá ser de 1.

4. La función de densidad o de probabilidad de una variable


continua x, es la función que nos permite, en las distribuciones
continuas, hallar probabilidades mediante el cálculo de áreas.

5. En una distribución continua la probabilidad de un valor concreto


es cero. En este caso, las probabilidades que calculamos están
siempre asociadas a intervalos: P (a≤ x ≤ b ¿.

Distribuciones de probabilidad para variables discretas

Recordemos inicialmente que existen las variables aleatorias, siendo


aquellas que se asocian a la ocurrencia de un fenómeno aleatorio.
Cuando una de estas variables aleatorias toma diversos valores, la
probabilidad asociada a cada uno de tales valores puede ser organizada
37
como una distribución de probabilidad, la cual es la distribución de las
probabilidades asociadas a cada uno de los valores de la variable
aleatoria.

Las distribuciones de probabilidad pueden representarse a través de una


tabla, una gráfica o una fórmula, en cuyo caso tal regla de
correspondencia se le denomina función de probabilidad.

Modelos de distribuciones de probabilidad de variables discretas:

 Uniforme. Es la distribución donde todos los eventos elementales


tienen la misma probabilidad. Por ejemplo: tirar un dado, donde la
función P(X=x)=1/6 para valores de x=1,2,3,4,5,6.
 Binomial. Es la que maneja la distribución de la probabilidad de
obtener cierta cantidad de éxitos al realizar una cantidad de
experimentos con probabilidad de éxito constante y con ensayos
independientes.
 Geométrica. Es la distribución de la probabilidad de realizar cierto
número de experimentos antes de obtener un éxito.
 Hipergeométrica. Es similar a la binomial, pero con un tamaño de
muestra grande en relación al tamaño de la población.
 De Poisson. Es la distribución de la probabilidad de que ocurra un
evento raro en un periodo de tiempo, un espacio o un lugar.

Distribuciones de probabilidad para variables continuas

En las distribuciones de probabilidad para variables discretas, se puede


asignar el valor que toma la función de probabilidad cuando la variable
aleatoria tomaba un valor en concreto. Sin embargo, al considerar las
variables continuas se encuentra uno el problema de que, lo más
probable, los datos que se puedan recabar no sean completamente
exactos, o dos o más de ellos no coincidan, por lo que se tienen que
trabajar en intervalos y, en ese momento, modelar una función se
convierte en un problema serio.
38
Sin embargo, se pueden realizar aproximaciones y describir la
probabilidad a través de modelos teóricos de probabilidad cuya gráfica
es una línea continua, a diferencia de las variables discretas que le
corresponde un histograma.

Tipos de distribución para variables continuas:

 Distribución Normal
 Distribución t de student
 Distribución chi cuadrada
 Distribución f de Fisher
 Distribución Uniforme
 Distribución Gamma
 Distribución Exponencial

3.3. DISTRIBUCIÓN BINOMIAL:

La distribución binomial se cita frecuentemente


como distribución de Bernoulli en atención al
matemático suizo Jacobo Bernoulli que la dedujo a
fines del siglo XVII. Se denominan ensayos
binomiales o de Bernoulli aquellos que tiene las
características siguientes.

A) En una ejecución cualquiera hay exactamente dos resultados


posibles, que por ser contrarios, son incompatibles: un éxito (p) o un
fracaso (q), (resultados mutuamente excluyentes). Ejemplos: cara-cruz,
acierto-fallo, correcto-incorrecto, blanco-negro, etc.

Dónde: q = 1 - p

39
B) Hay n ejecuciones, donde n es un
Variable aleatoria
número entero positivo fijado de
binomial es la que
antemano. expresa el número
total de éxitos
C) La probabilidad de éxito para todas las observados en las
experiencias que
ejecuciones es la misma. Por lo tanto la siguen el modelo de
probabilidad de fracaso es constante sobre una distribución
binomial. Estas
todas las observaciones. variables aleatorias
son discretas ya que
D) Todas las ejecuciones son pueden tomar los
valores de 0,1,2,3……n-
independientes.
1, n, en las situaciones
de n experiencias.
E) Las observaciones posibles pueden
obtenerse mediante dos métodos de
muestreo distintos. Cada observación puede considerarse como
seleccionada de una población infinita sin reemplazo o de una población
finita con reemplazo.

Ejemplos de ensayos de Bernoulli son los siguientes:

1) Al nacer un bebé puede ser “varón” o “hembra”.

2) Al seleccionar un producto de un lote de producción puede resultar:


“bueno” o “defectuoso”.

3) Al seleccionar a una persona puede resultar “apta” o “no apta” para


una propiedad específica.

La Distribución Binomial se basa en el supuesto de que la


población es infinita y de que la probabilidad de éxito permanece
constante, lo cual se consigue en tales poblaciones o cuando se toman
muestras con remplazo en poblaciones finitas.

40
Características de la distribución binomial:

 Una distribución binomial puede ser simétrica o sesgada. Siempre


que p= 0.5, la distribución binomial será simétrica sin importar
qué tan grande o pequeño sea el valor de n. Sin embargo, cuando
p ≠ 0.5 ,la distribución estará sesgada. Mientras más cercana esté p
de 0.5 y mayor sea el número de observaciones, n, menos
sesgada será la distribución. Por otra parte con una p pequeña, la
distribución estará ligeramente sesgada a la derecha. Para p muy
grandes la distribución sería altamente sesgada a la izquierda.
 La media de la distribución binomial puede obtenerse fácilmente
como el producto de sus dos parámetros n y p.
 La desviación estándar se calcula mediante la fórmula: σ =√ n p q

Ejemplo # 1: Consideremos a la variable aleatoria X


como la cantidad de águilas observadas cuando se
lanzan dos volados. Si desarrollamos el árbol de
probabilidades con las respectivas probabilidades en
cada rama, tendríamos lo siguiente:

0.5 A

0.5 A S
0.5

0.5
A

41
0.5
S
0.5

Donde el Espacio muestral es el conjunto { AA, AS, SA, SS} y se puede


ver que la variable X puede tomar como valores 0, 1 y 2.

Calculando las probabilidades tenemos:

 Probabilidad de no observar águilas:

P (de no observar águilas)= P (SS) = (0.5) (0.5) = 0.25

P (X=0) = 0.25

 Probabilidad de observar un águila:

P (de observar una águila) = P (SA U AS) = (0.5) (0.5) + (0.5) (0.5)

P (de observar una águila) = 0.25 + 0.25 = 0. 50 P (X= 1) = 0.5

 Probabilidad de observar dos águilas:

P ( de observar dos águilas) = P (AA) = (0.5)


(0.5) = 0.25 P (X= 2) = 0.25

Si ahora se organizan estos resultados se tiene la siguiente tabla que


representa una distribución de probabilidad:

42
P(X=x)
X

0 0.25

1 0.50

2 0.25

Con esta información se puede construir una gráfica de barras como la


que se muestra a continuación:

P (X= x)
0.6

0.5

0.4

0.3

0.2

0.1

0
1 2 3

Fig. 1. Distribución de probabilidad discreta: la binomial.

Ejemplo # 2: Supongamos como conocimiento previo, que el porcentaje


de jóvenes que están informados sobre el sida es 25 %, y que se tiene
una muestra de 3 jóvenes. Considerar a la variable aleatoria X como la
cantidad de jóvenes que están informados sobre el sida. Calcular la
probabilidad de que un joven esté informado sobre el sida.

Si construimos un diagrama de árbol tendríamos lo siguiente:

0.25 0.25
S S
0.25 S N
0.75
0.25 43
0.75 N S
N
0.75
0.25
0.75 0.25
S S
N N
0.75

0.25
0.75 N S
N
0.75

Dónde: p (probabilidad de estar informado) = 0.25 y

q (probabilidad de no estar informado) = 1 – p = 1 – 0.25 = 0.75

El espacio muestral sería el siguiente:

E = { SSS, SSN, SNS, SNN, NSS, NSN, NNS, NNN }

Donde la probabilidad de que un joven esté informado sobre el sida es


la siguiente:

P (un joven informado) = P (SNN U NSN U NNS) = (0.25) (0.75) (0.75) +


(0.75) (0.25) (0.75) + (0.75) (0.75) (0.25) = 0.140625 + 0.140625 +
0.140625 = 0.421875

Los parámetros de la binomial se expresan así: B (n, p). Donde n


es el número de experiencias y p es la probabilidad de éxito.

La fórmula empleada en las distribuciones de probabilidad Binomial es


la siguiente:

FÓRMULA BINOMIAL

44
Probabilidad de x éxitos en n intentos : P (X)

dónde: x: es una variable discreta que sólo puede asumir valores


enteros. x= {0 , 1 , 2, … , n }

Siendo: ( nx) las combinaciones de n en x (n elementos tomados de x en x) y


se le conoce como coeficiente binomial.

( nx)= n!
x ! ( n−x ) !

Quedando la fórmula de la siguiente manera:

n! x n− x
P ( X )= p (q)
x ! ( n−x ) !

Dónde:

x : número de éxitos deseados o aciertos

n: número de pruebas o ensayos

p: probabilidad de éxito q: probabilidad de fracaso q= 1 - p

Del Ejemplo # 1 del lanzamiento de una moneda no


alterada, se debe considerar que:

 Cada intento (en este caso cada lanzamiento) tiene


solamente dos resultados posibles: águila o sol, éxito o fracaso.
 La probabilidad del resultado de cualquier intento (lanzamiento)
permanece fijo con respecto al tiempo. Con una moneda no
alterada, la probabilidad de obtener cara siempre es 0.5 para cada

45
lanzamiento, independientemente del número de veces que se
lance la moneda.
 Los intentos son estadísticamente independientes, es decir, el
resultado de un lanzamiento no afecta el resultado de cualquier
otro lanzamiento.

De tal manera que, si queremos saber la probabilidad de obtener dos


águilas al lanzar al aire dos veces una moneda no alterada, utilizando la
fórmula de la binomial, tendremos lo siguiente:

p: probabilidad de tener éxito p = 0.5

q: probabilidad de fracaso q= 1 – p = 1 – 0.5 = 0.5

X : número de éxitos deseados X=2

n: número de intentos hechos o ensayos n=2

Aplicando la fórmula:

()
P ( X )= n p ¿ ¿
x
x
o bien:

n! x n−x
P ( X )= p (1− p)
x ! ( n−x ) !

Aplicando la primera tendríamos:

()
P ( X=2 )= 2 ( 0.5) (1−0.5)
2
2 2−2

Aplicando la segunda forma tendríamos:


2! 2 2−2
P ( X=2 )= (0.5) (1−0.5)
2! ( 2−2 ) !

2 ×1 2 0
P ( X=2 )= (0.5) (0.5) =0.25
2× 1 ( 0 ! )

P ( X=2 )=0.25
46
Del Ejemplo # 2: aplicando fórmulas tendríamos lo siguiente:

p: probabilidad de tener éxito p = 0.25

q: probabilidad de fracaso q= 1 – p = 1 – 0.25 = 0. 75

X : número de éxitos deseados X=1

n: número de intentos hechos o ensayos n=3

Aplicando la fórmula:

()
P ( X )= n p ¿ ¿
x
x
o bien:

n! x n−x
P ( X )= p (1− p)
x ! ( n−x ) !

Aplicando la primera tendríamos:

()
P ( X=1 )= 3 ( 0.25) (1−0.25)
1
1 3−1

Aplicando la segunda forma tendríamos:


3! 1 3−1
P ( X=1 )= (0.25) (1−0.25)
1 ! ( 3−1 ) !

3 × 2× 1 2
P ( X=1 )= (0.25)(0.75) =0.421875
1(2 ×1)

P ( X=1 )=0.421875

Podríamos desarrollar en una tabla todos los posibles resultados que se


tendrían en una distribución de probabilidad con n = 3, p = 0.25 y q =
0.75 (Ver tabla siguiente).

Éxitos Entrevistados y Combinación Probabilidad

47
respuestas
0 NNN
(30)=1 P (X = x) = ( nx) p (q)
x n− x

3! P (X = 0) = 1 × (0.25)0
0 ! ( 3−0 ) ! (0.75)3 = 0.421875

1 SNN
NSN
()
3 =3
1
P (X = 1) = 3 × (0.25)1
(0.75)2 = 0.421875
NNS
3!
1! ( 3−1 ) !

2 SSN
SNS
()
3 =3
2
P (X = 2) = 3 × (0.25)2
(0.75)1 = 0.140625
NSS
3!
2! ( 3−2 ) !

3 SSS
()
3 =1
3
P (X = 3) = 1 × (0.25)3
(0.75)0 = 0.015625

3!
3! (3−3 ) !

Media y desviación estándar de una distribución de probabilidad


binomial.

1) Media aritmética: μ

μ=np

Dónde: n es el número de ensayos y p es la probabilidad de tener éxito.

2) Desviación estándar: σ

48
σ =√ n p q

Para el ejemplo # 1 de la moneda:

Media aritmética: μ

μ = n p = 2 ( 0.5) = 1 μ= 1

Desviación estándar: σ

σ =√ n p q= √ ( 2 ) ( 0.5 ) ( 0.5 ) =0.7071

Para el ejemplo # 2 sobre el conocimiento del sida en jóvenes:

Media aritmética: μ μ = n p = 3 ( 0.25) = 0.75 μ= 0.75

Desviación estándar: σ

σ =√ n p q

σ =√ n p q= √ ( 3 )( 0.25 ) ( 0.75 ) =0.75

TABLAS PARA LA DISTRIBUCIÓN BINOMIAL

Para calcular las probabilidades en un experimento binomial


necesitamos conocer el número de pruebas y la probabilidad de éxito.
Se dispone de tablas de distribución binomial apropiadas para tal fin.

49
Las cuales simplifican los cálculos a medida que n se vuelve más grande.
Ver Anexos: Tabla A.

Otro punto que es necesario conocer para la resolución de problemas


dentro de este tema es la notación para el cálculo de probabilidades, la
cual a continuación se presenta:

Notación que resume el cálculo para encontrar probabilidades:

Interpretación Notación
La probabilidad de que X Todos los valores de la
tome un valor que es. . . variable aleatoria . . .
Al menos x Que son los valores de x o P(X ≥ x)
mayores que x
Más que Que son mayores que el P (X > x)
valor x
A lo más x Que son los valores de x o P (X ≤ x)
menores que x
Menos de x Que son menores que el P (X ˂ x)
valor x
Entre x1 y x2 Que son mayores que los P (x1 ˂ X ˂ x2)
valores x1 y menores que los
valores x2
Entre x1 y x2 y que les incluye Que inicia con el valor x1 y P (x1 ≤ X ≤ x2)
termina con el valor x2
incluyendo su valor

50
TABLA: A

TABLA DE DISTRIBUCIÓN BINOMIAL


Probabilidad de obtener x- éxitos

P (X= x) = ( nx) p (1− p)


x n−x

51
n x p 0.01 0.05 0.10 0.15 0.20 0.25 0.30 0.33 0.35 0.40 0.45 0.49 0.50
2 0 0.9801 0.9025 0.8100 0.7225 0.6400 0.5625 0.4900 0.4449 0.4225 0.3600 0.3025 0.2601 0.2500
1 0.0198 0.0950 0.1800 0.2550 0.3200 0.3750 0.4200 0.4442 0.4550 0.4800 0.4950 0.4998 0.5000
2 0.0001 0.0025 0.0100 0.0225 0.0400 0.0625 0.0900 0.1109 0.1225 0.1600 0.2025 0.2401 0.2500

3 0 0.9703 0.8574 0.7290 0.6141 0.5120 0.4219 0.3430 0.2967 0.2746 0.2160 0.1664 0.1327 0.1250
1 0.0294 0.1354 0.2430 0.3251 0.3840 0.4219 0.4410 0.4444 0.4436 0.4320 0.4084 0.3823 0.3750
2 0.0003 0.0071 0.0270 0.0574 0.0960 0.1406 0.1890 0.2219 0.2389 0.2880 0.3341 0.3674 0.3750
3 0.0000 0.0001 0.0010 0.0034 0.0080 0.0156 0.0270 0.0369 0.0429 0.0640 0.0911 0.1176 0.1250

4 0 0.9606 0.8145 0.6561 0.5220 0.4096 0.3164 0.2401 0.1979 0.1785 0.1296 0.0915 0.0677 0.0625
1 0.0388 0.1715 0.2916 0.3685 0.4096 0.4219 0.4116 0.3953 0.3845 0.3456 0.2995 0.2600 0.2500
2 0.0006 0.0135 0.0486 0.0975 0.1536 0.2109 0.2646 0.2960 0.3105 0.3456 0.3675 0.3747 0.3750
3 0.0000 0.0005 0.0036 0.0115 0.0256 0.0469 0.0756 0.0985 0.1115 0.1536 0.2005 0.2400 0.2500
4 0.0000 0.0000 0.0001 0.0005 0.0016 0.0039 0.0081 0.0123 0.0150 0.0256 0.0410 0.0576 0.0625

5 0 0.9510 0.7738 0.5905 0.4437 0.3277 0.2373 0.1681 0.1320 0.1160 0.0778 0.0503 0.0345 0.0313
1 0.0480 0.2036 0.3281 0.3915 0.4096 0.3955 0.3602 0.3295 0.3124 0.2592 0.2059 0.1657 0.1563
2 0.0010 0.0214 0.0729 0.1382 0.2048 0.2637 0.3087 0.3291 0.3364 0.3456 0.3369 0.3185 0.3125
3 0.0000 0.0011 0.0081 0.0244 0.0512 0.0879 0.1323 0.1643 0.1811 0.2304 0.2757 0.3060 0.3125
4 0.0000 0.0000 0.0005 0.0022 0.0064 0.0146 0.0284 0.0410 0.0488 0.0768 0.1128 0.1470 0.1563
5 0.0000 0.0000 0.0000 0.0001 0.0003 0.0010 0.0024 0.0041 0.0053 0.0102 0.0185 0.0282 0.0313

n x p 0.01 0.05 0.10 0.15 0.20 0.25 0.30 0.33 0.35 0.40 0.45 0.49 0.50
6 0 0.9415 0.7351 0.5314 0.3771 0.2621 0.1780 0.1176 0.0881 0.0754 0.0467 o.o277 0.0176 0.0156
1 0.0571 0.2321 0.3543 0.3993 0.3932 0.3560 0.3025 0.2638 0.2437 0.1866 0.1359 0.1014 0.0938
2 0.0014 0.0305 0.0984 0.1762 0.2458 0.2966 0.3241 0.3292 0.3280 0.3110 0.2780 0.2436 0.2344
3 0.0000 0.0021 0.0146 0.0415 0.0819 0.1318 0.1852 0.2191 0.2355 0.2765 0.3052 0.3121 0.3125
4 0.0000 0.0001 0.0012 0.0055 0.0154 0.0330 0.0595 0.0821 0.0951 0.1382 0.1861 0.2249 0.2344
5 0.0000 0.0000 0.0001 0.0004 0.0015 0.0044 0.0102 0.0164 0.0205 0.0369 0.0609 0.0864 0.0938
6 0.0000 0.0000 0.0000 0.0000 0.0001 0.0002 0.0007 0.0014 0.0018 0.0041 0.0083 0.0138 0.0156

7 0 0.9321 0.6983 0.4783 0.3206 0.2097 0.1335 0.0824 0.0587 0.0490 0.0280 0.0152 0.0090 0.0078
1 0.0659 0.2573 0.3720 0.3960 0.3670 0.3115 0.2471 0.2053 0.1848 0.1306 0.0872 0.0604 0.0547
2 0.0020 0.0406 0.1240 0.2097 0.2753 0.3115 0.3177 0.3074 0.2985 0.2613 0.2140 0.1740 0.1651
3 0.0000 0.0036 0.0230 0.0617 0.1147 0.1730 0.2269 0.2558 0.2679 0.2903 0.2918 0.2786 0.2734
52
4 0.0000 0.0002 0.0026 0.0109 0.0287 0.0577 0.0972 0.1277 0.1442 0.1935 0.2388 0.2676 0.2734
5 0.0000 0.0000 0.0002 0.0012 0.0043 0.0115 0.0250 0.0383 0.0466 0.0774 0.1172 0.1543 0.1641
6 0.0000 0.0000 0.0000 0.0001 0.0004 0.0013 0.0036 0.0064 0.0084 0.0172 0.0320 0.0494 0.0547
7 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0002 0.0005 0.0006 0.0016 0.0037 0.0068 0.0078
53
n = 11
x 0.05 0.10 0.15 0.20 0.25 0.30 0.35 0.40 0.45 0.50
0 0.5688 0.3138 0.1673 0.0859 0.0422 0.0198 0.0088 0.0036 0.0014 0.0005
1 0.3293 0.3835 0.3248 0.2362 0.1549 0.0932 0.0518 0.0266 0.0125 0.0054
2 0.0867 0.2131 0.2866 0.2953 0.2581 0.1998 0.1395 0.0887 0.0513 0.0269
3 0.0137 0.0710 0.1517 0.2215 0.2581 0.2568 0.2254 0.1774 0.1259 0.0806
4 0.0014 0.0158 0.0536 0.1107 0.1721 0.2201 0.2428 0.2365 0.2060 0.1611
5 0.0001 0.0025 0.0132 0.0388 0.0803 0.1231 0.1830 0.2207 0.2360 0.2256
6 0.0000 0.0003 0.0023 0.0097 0.0268 0.0566 0.0985 0.1471 0.1931 0.2256
7 0.0000 0.0000 0.0003 0.0017 0.0064 0.0173 0.0379 0.0701 0.1128 0.1611
8 0.0000 0.0000 0.0000 0.0002 0.0011 0.0037 0.0102 0.0234 0.0462 0.0806
9 0.0000 0.0000 0.0000 0.0000 0.0001 0.0005 0.0018 0.0052 0.0126 0.0269
10 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0002 0.0007 0.0021 0.0054
11 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0002 0.0005

n = 12
0 0.5404 0.2824 0.1422 0.0687 0.0317 0.0138 0.0057 0.0022 0.0008 0.0002
1 0.3413 0.3766 0.3012 0.2062 0.1267 0.0712 0.0368 0.0174 0.0075 0.0029
2 0.0988 0.2301 0.2924 0.2835 0.2323 0.1678 0.1088 0.0639 0.0339 0.0161
3 0.0173 0.0852 0.1720 0.2362 0.2581 0.2397 0.1954 0.1419 0.0923 0.0537
4 0.0021 0.0213 0.0683 0.1329 0.1936 0.2311 0.2367 0.2128 0.1700 0.1208
5 0.0002 0.0038 0.0193 0.0532 0.1032 0.1585 0.2039 0.2270 0.2225 0.1934
6 0.0000 0.0005 0.0040 0.0155 0.0401 0.0792 0.1281 0.1766 0.2124 0.2256
7 0.0000 0.0000 0.0006 0.0033 0.0115 0.0291 0.0591 0.1009 0.1489 0.1934
8 0.0000 0.0000 0.0001 0.0005 0.0024 0.0078 0.0199 0.0420 0.0762 0.1208
9 0.0000 0.0000 0.0000 0.0001 0.0004 0.0015 0.0048 0.0125 0.0277 0.0537
10 0.0000 0.0000 0.0000 0.0000 0.0000 0.0002 0.0008 0.0025 0.0068 0.0161
11 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0003 0.0010 0.0029
12 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0002

54
n = 13
x 0.05 0.10 0.15 0.20 0.25 0.30 0.35 0.40 0.45 0.50
0 0.5133 0.2542 0.1209 0.0550 0.0238 0.0097 0.0037 0.0013 0.0004 0.0001
1 0.3512 0.3672 0.2774 0.1787 0.1029 0.0540 0.0259 0.0113 0.0045 0.0016
2 0.1109 0.2448 0.2937 0.2680 0.2059 0.1388 0.0836 0.0453 0.0220 0.0095
3 0.0214 0.0997 0.1900 0.2457 0.2517 0.2181 0.1651 0.1107 0.0660 0.0349
4 0.0028 0.0277 0.0838 0.1535 0.2097 0.2337 0.2222 0.1845 0.1350 0.0873
5 0.0003 0.0055 0.0266 0.0691 0.1258 0.1803 0.2154 0.2214 0.1989 0.1571
6 0.0000 0.0008 0.0063 0.0230 0.0559 0.1030 0.1546 0.1968 0.2169 0.2095
7 0.0000 0.0001 0.0011 0.0058 0.0186 0.0442 0.0833 0.1312 0.1775 0.2095
8 0.0000 0.0000 0.0001 0.0011 0.0047 0.0142 0.0336 0.0656 0.1089 0.1571
9 0.0000 0.0000 0.0000 0.0001 0.0009 0.0034 0.0101 0.0243 0.0495 0.0873
10 0.0000 0.0000 0.0000 0.0000 0.0001 0.0006 0.0022 0.0065 0.0162 0.0349
11 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0003 0.0012 0.0036 0.0095
12 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0005 0.0016
13 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001
n = 14
0 0.4877 0.2288 0.1028 0.0440 0.0178 0.0068 0.0024 0.0008 0.0002 0.0001
1 0.3593 0.3559 0.2539 0.1539 0.0832 0.0407 0.0181 0.0073 0.0027 0.0009
2 0.1229 0.2570 0.2912 0.2501 0.1802 0.1134 0.0634 0.0317 0.0141 0.0056
3 0.0259 0.1142 0.2056 0.2501 0.2402 0.1943 0.1366 0.0845 0.0462 0.0222
4 0.0037 0.0078 0.0998 0.1720 0.2202 0.2290 0.2022 0.1549 0.1040 0.0611
5 0.0004 0.0013 0.0352 0.0860 0.1468 0.1963 0.2178 0.2066 0.1701 0.1222
6 0.0000 0.0002 0.0093 0.0322 0.0734 0.1262 0.1759 0.2066 0.2088 0.1833
7 0.0000 0.0000 0.0019 0.0092 0.0280 0.0618 0.1082 0.1574 0.1952 0.2095
8 0.0000 0.0000 0.0003 0.0020 0.0082 0.0232 0.0510 0.0918 0.1398 0.1833
9 0.0000 0.0000 0.0000 0.0003 0.0018 0.0066 0.0183 0.0408 0.0762 0.1222
10 0.0000 0.0000 0.0000 0.0000 0.0003 0.0014 0.0049 0.0136 0.0312 0.0611
11 0.0000 0.0000 0.0000 0.0000 0.0000 0.0002 0.0010 0.0033 0.0093 0.0222
12 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0005 0.0019 0.0056
13 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0002 0.0009
14 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001

55
n = 15
x 0.05 0.10 0.15 0.20 0.25 0.30 0.35 0.40 0.45 0.50
0 0.4633 0.2059 0.0874 0.0352 0.0134 0.0047 0.0016 0.0005 0.0001 0.0000
1 0.3658 0.3432 0.2312 0.1319 0.0668 0.0305 0.0126 0.0047 0.0016 0.0005
2 0.1348 0.2669 0.2856 0.2309 0.1559 0.0916 0.0476 0.0219 0.0090 0.0032
3 0.0307 0.1285 0.2184 0.2501 0.2252 0.1700 0.1110 0.0634 0.0318 0.0139
4 0.0049 0.0428 0.1156 0.1876 0.2252 0.2186 0.1792 0.1268 0.0780 0.0417
5 0.0006 0.0105 0.0449 0.1032 0.1651 0.2061 0.2123 0.1859 0.1404 0.0916
6 0.0000 0.0019 0.0132 0.0430 0.017 0.1472 0.1906 0.2066 0.1914 0.1527
7 0.0000 0.0003 0.0030 0.0138 0.0393 0.0811 0.1319 0.1771 0.2013 0.1964
8 0.0000 0.0000 0.0005 0.0035 0.0131 0.0348 0.0710 0.1181 0.1647 0.1964
9 0.0000 0.0000 0.0001 0.0007 0.0034 0.0116 0.0298 0.0612 0.1048 0.1527
10 0.0000 0.0000 0.0000 0.0001 0.0007 0.0030 0.0096 0.0245 0.0515 0.0916
11 0.0000 0.0000 0.0000 0.0000 0.0001 0.0006 0.0024 0.0074 0.0191 0.0417
12 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0004 0.0016 0.0052 0.0139
13 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0003 0.0010 0.0032
14 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0005
15 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000

n = 16
0 0.4401 0.1853 0.0743 0.0281 0.0100 0.0033 0.0010 0.0003 0.0001 0.0000
1 0.3706 0.3294 0.2097 0.1126 0.0535 0.0228 0.0087 0.0030 0.0009 0.0002
2 0.1463 0.2745 0.2775 0.2111 0.1336 0.0732 0.0353 0.0150 0.0056 0.0018
3 0.0359 0.1423 0.2285 0.2463 0.2079 0.1465 0.0888 0.0468 0.0215 0.0085
4 0.0061 0.0514 0.1311 0.2001 0.2252 0.2040 0.1553 0.1014 0.0572 0.0278
5 0.0008 0.0137 0.0555 0.1201 0.1802 0.2099 0.2008 0.1623 0.1123 0.0667
6 0.0001 0.0028 0.0180 0.0550 0.1101 0.1649 0.1982 0.1983 0.1684 0.1222
7 0.0000 0.0004 0.0045 0.0197 0.0524 0.1010 0.1524 0.1889 0.1969 0.1746
8 0.0000 0.0001 0.0009 0.0055 0.0197 0.0487 0.0923 0.1417 0.1812 0.1964
9 0.0000 0.0000 0.0001 0.0012 0.0058 0.0185 0.0442 0.0840 0.1318 0.1746
10 0.0000 0.0000 0.0000 0.0002 0.0014 0.0056 0.0167 0.0392 0.0755 0.1222
11 0.0000 0.0000 0.0000 0.0000 0.0002 0.0013 0.0049 0.0142 0.0337 0.0667
12 0.0000 0.0000 0.0000 0.0000 0.0000 0.0002 0.0011 0.0040 0.0115 0.0278
13 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0002 0.0008 0.0029 0.0085
14 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0005 0.0018
15 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0002
16 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000

56
n = 17
x 0.05 0.10 0.15 0.20 0.25 0.30 0.35 0.40 0.45 0.50
0 0.4181 0.1668 0.0631| 0.0225 0.0075 0.0023 0.0007 0.0002 0.0000 0.0000
1 0.3741 0.3150 0.1893 0.0957 0.0426 0.0169 0.0060 0.0019 0.0005 0.0001
2 0.1575 0.2800 0.2673 0.1914 0.1136 0.0581 0.0260 0.0102 0.0035 0.0010
3 0.0415 0.1556 0.2359 0.2393 0.1893 0.1245 0.0701 0.0341 0.0144 0.0052
4 0.0076 0.0605 0.1457 0.2093 0.2209 0.1868 0.1320 0.0796 0.0411 0.0182
5 0.0010 0.0175 0.0668 0.1361 0.1914 0.2081 0.1849 0.1379 0.0875 0.0472
6 0.0001 0.0039 0.0236 0.0680 0.1276 0.1784 0.1991 0.1839 0.1432 0.0944
7 0.0000 0.0007 0.0065 0.0267 0.0668 0.1201 0.1685 0.1927 0.1841 0.1484
8 0.0000 0.0001 0.0014 0.0084 0.0279 0.0644 0.1143 0.1606 0.1883 0.1855
9 0.0000 0.0000 0.0003 0.0021 0.0093 0.0276 0.0611 0.1070 0.1540 0.1855
10 0.0000 0.0000 0.0000 0.0004 0.0025 0.0095 0.0263 0.0571 0.1008 0.1484
11 0.0000 0.0000 0.0000 0.0001 0.0005 0.0026 0.0090 0.0242 0.0525 0.0944
12 0.0000 0.0000 0.0000 0.0000 0.0001 0.0006 0.0024 0.0081 0.0215 0.0472
13 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0005 0.0021 0.0068 0.0182
14 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0004 0.0016 0.0052
15 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0003 0.0010
16 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001
17 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000

n = 18
0 0.3972 0.1501 0.0536 0.0180 0.0056 0.0016 0.0004 0.0001 0.0000 0.0000
1 0.3763 0.3002 0.1704 0.0811 0.0338 0.0126 0.0042 0.0012 0.0003 0.0001
2 0.1683 0.2835 0.2556 0.1723 0.0958 0.0458 0.0190 0.0069 0.0022 0.0006
3 0.0473 0.1680 0.2406 0.2297 0.1704 0.1046 0.0547 0.0246 0.0095 0.0031
4 0.0093 0.0070 0.1592 0.2153 0.2130 0.1681 0.1104 0.0614 0.0291 0.0117
5 0.0014 0.0218 0.0787 0.1507 0.1988 0.2017 0.1664 0.1146 0.0666 0.0327
6 0.0002 0.0052 0.0310 0.0816 0.1436 0.1873 0.1941 0.1655 0.1181 0.0708
7 0.0000 0.0010 0.0091 0.0350 0.0820 0.1376 0.1792 0.1892 0.1657 0.1214
8 0.0000 0.0002 0.0022 0.0120 0.0376 0.0811 0.1327 0.1734 0.1864 0.1669
9 0.0000 0.0000 0.0004 0.0033 0.0139 0.0386 0.0794 0.1284 0.1694 0.1855
10 0.0000 0.0000 0.0001 0.0008 0.0042 0.0149 0.0385 0.0771 0.1248 0.1669
11 0.0000 0.0000 0.0000 0.0001 0.0010 0.0046 0.0151 0.0374 0.0742 0.1214
12 0.0000 0.0000 0.0000 0.0000 0.0002 0.0012 0.0047 0.0145 0.0354 0.0708
13 0.0000 0.0000 0.0000 0.0000 0.0000 0.0002 0.0012 0.0045 0.0134 0.0327
14 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0002 0.0011 0.0039 0.0117
15 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0002 0.0009 0.0031
16 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0006
17 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001
18 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000

57
n = 19
x 0.05 0.10 0.15 0.20 0.25 0.30 0.35 0.40 0.45 0.50
0 0.3774 0.1351 0.0456 0.0144 0.0042 0.0011 0.0003 0.0001 0.0000 0.0000
1 0.3774 0.2852 0.1529 0.0685 0.0268 0.0093 0.0029 0.0008 0.0002 0.0000
2 0.1787 0.2852 0.2428 0.1540 0.0803 0.0358 0.0138 0.0046 0.0013 0.0003
3 0.0533 0.1796 0.2428 0.2182 0.1517 0.0869 0.0422 0.0175 0.0062 0.0018
4 0.0112 0.0798 0.1714 0.2182 0.2023 0.1491 0.0909 0.0467 0.0203 0.0074
5 0.0018 0.0266 0.0907 0.1636 0.2023 0.1916 0.1468 0.0933 0.0497 0.0222
6 0.0002 0.0069 0.0374 0.0955 0.1574 0.1916 0.1844 0.1451 0.0949 0.0518
7 0.0000 0.0014 0.0122 0.0443 0.0974 0.1525 0.1844 0.1797 0.1443 0.0961
8 0.0000 0.0002 0.0032 0.0166 0.0487 0.0981 0.1489 0.1797 0.1771 0.1442
9 0.0000 0.0000 0.0007 0.0051 0.0198 0.0514 0.0980 0.1464 0.1771 0.1762
10 0.0000 0.0000 0.0001 0.0013 0.0066 0.0220 0.0528 0.0976 0.1449 0.1762
11 0.0000 0.0000 0.0000 0.0003 0.0018 0.0077 0.0233 0.0532 0.0970 0.1442
12 0.0000 0.0000 0.0000 0.0000 0.0004 0.0022 0.0083 0.0237 0.0529 0.0961
13 0.0000 0.0000 0.0000 0.0000 0.0001 0.0005 0.0024 0.0085 0.0233 0.0518
14 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0006 0.0024 0.0082 0.0222
15 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0005 0.0022 0.0074
16 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0005 0.0018
17 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0003
18 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
19 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000

n = 20
0 0.3585 0.1216 0.0388 0.0115 0.0032 0.0008 0.0002 0.0000 0.0000 0.0000
1 0.3774 0.2702 0.1368 0.0576 0.0211 0.0068 0.0020 0.0005 0.0001 0.0000
2 0.1887 0.2852 0.2293 0.1369 0.0669 0.0278 0.0100 0.0031 0.0008 0.0002
3 0.0596 0.1901 0.2428 0.2054 0.1339 0.0716 0.0323 0.0123 0.0040 0.0011
4 0.0133 0.0898 0.1821 0.2182 0.1897 0.1304 0.0738 0.0350 0.0139 0.0046
5 0.0022 0.0319 0.1028 0.1746 0.2023 0.1789 0.1272 0.0746 0.0365 0.0148
6 0.0003 0.0089 0.0454 0.1091 0.1686 0.1916 0.1712 0.1244 0.0746 0.0370
7 0.0000 0.0020 0.0160 0.0545 0.1124 0.1643 0.1844 0.1659 0.1221 0.0739
8 0.0000 0.0004 0.0046 0.0222 0.0609 0.1144 0.1614 0.1797 0.1623 0.1201
9 0.0000 0.0001 0.0011 0.0074 0.0271 0.0654 0.1158 0.1597 0.1771 0.1602
10 0.0000 0.0000 0.0002 0.0020 0.0099 0.0308 0.0686 0.1171 0.1593 0.1762
11 0.0000 0.0000 0.0000 0.0005 0.0030 0.0120 0.0336 0.0710 0.1185 0.1602
12 0.0000 0.0000 0.0000 0.0001 0.0008 0.0039 0.0136 0.0355 0.0727 0.1201
13 0.0000 0.0000 0.0000 0.0000 0.0002 0.0010 0.0045 0.0146 0.0366 0.0739
14 0.0000 0.0000 0.0000 0.0000 0.0000 0.0002 0.0012 0.0049 0.0150 0.0370
15 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0003 0.0013 0.0049 0.0148
16 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0003 0.0013 0.0046
17 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0002 0.0011
18 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0002
19 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
20 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000

58
 Ejemplo del cálculo en la distribución binomial utilizando tablas y las
notaciones de probabilidad.
La probabilidad de que un vendedor venda una suscripción a una revista a
alguien que ha sido seleccionado aleatoriamente del directorio telefónico
es de 0.20. Si el vendedor le habla a ocho individuos esta tarde, ¿cuál es la
probabilidad de que: a) se vendan al menos 2 suscripciones? b) se vendan a
lo más 2 suscripciones? c) Entre 3 y 6 suscripciones?
Solución:
a) p: probabilidad de vender una suscripción p = 0.20 n=8
Probabilidad de al menos 2: P (x ≥ 2¿ = ?
P (x ≥ 2¿ = P (x = 2)  P (x=3)  P (x = 4)  P (x=5)  P (x = 6)  P (x=7) 
P (x = 8)
De la tabla de distribución binomial se sacan cada una de las
probabilidades:

P (x ≥ 2¿ = 0.2936  0.1468  0.0459  0.0092  0.0011  0.0001 


0.0000
P (x ≥ 2¿ = 0.4967
b) A lo más 2: P ( x ≤ 2¿ = P (x = 0)  P (x= 1)  P ( x= 2)
P ( x ≤ 2¿ = 0.1678  0.3355  0.2936 = 0.7969
P ( x ≤ 2¿ = 0.7969
c) Entre 3 y 6: P (3 ≤ x ≤ 6 ¿= P (x= 5)
De la tabla binomial obtenemos con p= 0.20, n= 8 y x= 5 la probabilidad
buscada:
P (3 ≤ x ≤ 6 ¿= 0.0092

56
3.4. Distribución Normal.

En estadística y probabilidad se
llama distribución normal,
distribución de Gauss o distribución
gaussiana, a una de las
distribuciones de probabilidad de
variable continua que con más
frecuencia aparece en fenómenos
reales.

La gráfica de su función de densidad tiene una forma acampanada y


es simétrica respecto de un determinado parámetro. La fórmula de esta
distribución fue publicada por primera vez por Abraham de Moivre en
1733. En la historia inicial de la distribución normal, otros matemáticos
que figuran son Pierre Simon, el Marqués
de Laplace y Carl Friedrich Gauss, este
último elaboró desarrollos más profundos
y formuló la ecuación de la curva, de ahí
que se le conozca más comúnmente
como la “campana de Gauss”.

La importancia de esta distribución radica en que permite modelizar


numerosos fenómenos naturales, sociales y psicológicos. Mientras que los
mecanismos que subyacen a gran parte de este tipo de fenómenos son
desconocidos, por la enorme cantidad de variables incontrolables que en
ellos intervienen, el uso del modelo normal puede justificarse asumiendo
que cada observación se obtiene como la suma de unas pocas causas
independientes.

57
Algunos ejemplos de variables asociadas a fenómenos naturales que
siguen el modelo de la normal son:

 caracteres morfológicos de individuos como la estatura;


 caracteres fisiológicos como el efecto de un fármaco;
 caracteres sociológicos como el consumo de cierto producto por un
mismo grupo de individuos;
 caracteres psicológicos como el cociente intelectual;
 nivel de ruido en telecomunicaciones;
 errores cometidos al medir ciertas magnitudes;
 etc.

La distribución normal también aparece en muchas áreas de la propia


estadística. Por ejemplo, la distribución muestral de las medias muestrales
es aproximadamente normal, incluso si la distribución de la población de la
cual se extrae la muestra no es normal. La distribución normal es la más
extendida en estadística y muchos tests estadísticos están basados en una
supuesta "normalidad".

La importancia de la distribución normal en Estadística se debe a tres


causas principales:

1) Numerosos fenómenos continuos parecen seguirla o pueden


aproximarse mediante ésta.

2) Podemos usarla para aproximar diversas distribuciones de probabilidad


discreta y así evitar pesados cálculos.

3) Proporciona la base de la inferencia estadística clásica debido a su


relación con el teorema del límite central.

Propiedades o características de la distribución normal

58
Algunas propiedades de la distribución normal son:

1. Es simétrica respecto de su media, μ; es decir, el 50 % del área está ala


derecha de la media y el 50 % a la izquierda.

2. Tiene una única moda y la moda y la mediana son ambas iguales a la


media, μ.

3. Los puntos de inflexión de la curva se dan para x = μ − σ y x = μ + σ.

4. La forma de la campana de Gauss depende de los parámetros µ y σ. La


media indica la posición de la campana, de modo que para diferentes
valores de µ la gráfica es desplazada a lo largo del eje horizontal.

59
Por otra parte, la desviación estándar determina el grado de apuntamiento
de la curva. Cuanto mayor sea el valor de σ, más se dispersarán los datos
en torno a la
media y la curva
será más plana.
Un valor
pequeño de
este parámetro
indica, por tanto,
una gran
Fig. 5. Variación de la distribución normal
en función de µ: tres distribuciones
probabilidad de obtener datos cercanos normales
al valor conmedio de la distribución.
desviaciones típicas iguales
pero con diferentes medias.

5. La distribución normal es realmente una “familia” de distribuciones,


puesto que existe una distribución diferente para cada valor de µ y σ. Los
parámetros de la distribución normal se expresan así: N (µ, σ).

6. Probabilidades y números de desviaciones estándar. Aunque la curva de


la normal es continua de manera infinita en ambas direcciones, la mayor
parte de la distribución está dentro de tres
desviaciones estándar a cada lado de µ.

60
Para una distribución normal se tiene que:

El 68.26 % de la distribución está entre µ─σ y µ + σ, dicho de otra


manera, la probabilidad del intervalo cuya longitud es de una desviación
estándar a cada lado de la media es:

P( µ ─ σ ˂ X ˂ µ + σ) = 0.6826

El 95.44 % de la distribución está entre µ ─ 2σ yDiferentes


µ + 2σ.valores
La probabilidad
de subáreas
del intervalo cuya longitud es de dos desviacionesbajo la curva normal.
estándar a cada lado de
la media es:

P( µ ─ 2σ ˂ X ˂ µ + 2σ) = 0.9544

El 99.74 % de la distribución está entre µ ─ 3σ y µ + 3σ. Finalmente, la


probabilidad del intervalo cuya longitud es de tres desviaciones estándar a
cada lado de la media es:

P( µ ─ 3σ ˂ X ˂ µ + 3σ) = 0.9974

3.5. DISTRIBUCIÓN NORMAL ESTANDARIZADA.

Una vez determinada una distribución, su media y desviación estándar,


podemos hacer algunas comparaciones entre los casos o sujetos que
constituyen la distribución. Pero no es posible hacer comparaciones con
otras distribuciones a menos que se trate de la misma escala de medición,
con la misma media y con la misma desviación estándar. ¿Cómo comparar
la calificación obtenida de un alumno en un
examen de historia con la obtenida en un
examen de matemáticas? Lo que se hace es
establecer una medida común, lo que se ha

61
dado por llamar medidas de puntuación estándar. Una de las más usadas
es la de la puntuación z, que se define como la distancia de una
puntuación con respecto a su media, según una medición hecha en
unidades de desviación estándar.

El cálculo de probabilidades usando la variable aleatoria real es


complicado, por ello se recurre a un procedimiento matemático que,
mediante un cambio de variable, facilita el trabajo operativo. Usar tablas
para encontrar probabilidades de una distribución normal con parámetros
μ y σ puede ser una buena idea, pero existen limitaciones prácticas
porque los valores μ y σ, no están restringidos, dependen de la variable
de interés, por lo que existe una infinidad de parejas de μ y σ que pueden
ser de interés, y no es posible tener una tabla para cada par posible.

Este problema se resuelve por el método que transforma cada


variable aleatoria X que se distribuye como una normal en una variable
aleatoria normal estándar Z. A este procedimiento lo llamaremos
procedimiento de estandarización.

El procedimiento de estandarización es el siguiente: a cada variable


aleatoria se le resta la media μ y se divide entre la desviación estándar σ.
La representación de esta operación se escribe por la expresión:

x−μ
z= para la población
σ

x−x
z= para la muestra
s

E n res umen, z es la variable tipificada de x y a la curva de s u


fu n c ió n de densidad se le conoce como curva normal estándar.
La puntuación z nos indica la cantidad de desviacion es
es tán dar a la que está distanciada la variable x del promedio.

62
La dis tribución normal estándar es aquella que tiene por media
el valor cero , μ = 0 , y por desviación típica la unidad, σ =1 .

Para calcular las áreas bajo la curva se utilizan unas tablas donde para cada
valor de z existe un área correspondiente bajo la curva.

Las puntuaciones z que estén cerca de cero tendrán una expectativa de


ocurrencia más frecuente que otros valores de las mismas y cuanto más
alejada se encuentre del cero una puntuación z, cabe esperarse una menor
frecuencia de presentación.

Todas las variables normalmente distribuidas, se pueden transformar a la


distribución normal estándar utilizando la fórmula para calcular el valor z
correspondiente y buscando en las tablas las áreas bajo la curva que le
corresponde. El área bajo la curva normal estándar es útil para asignar
probabilidades de ocurrencia de la variable x. Debemos tomar en cuenta
que el área total bajo la curva normal estándar es igual a uno. Y que por
ser una gráfica simétrica cada mitad tiene un área de 0.5.

Los pasos a seguir en el proceso de tipificación de la variable x (el valor de


interés) son los siguientes:

1) Interpretar gráficamente el área de interés.

2) Se calcula el valor z por medio de la fórmula.

3) Se busca en la tabla la probabilidad asociada a ese valor z.

4) Se hace la suma o resta de áreas para calcular la probabilidad deseada.

EJERCICIOS DE DISTRIBUCIÓN NORMAL ESTANDARIZADA.

 Dado un valor “z buscar el área bajo la curva (utilizando fórmula y las


tablas).

63
Ejemplo 1: Dados los siguientes datos calcular el área abajo la curva que le
corresponde a ese valor de z calculado:

x = 53 kg. x = 60 kg. s = 2 kg.

x−x 53−60
Primeramente se calcula el valor de z: z= = = - 3.5
s 2

Para z= - 3.5 en la “tabla B” tenemos un área correspondiente de: 0.4998


= 49.98%.

Ejemplo 2: Las estaturas de los estudiantes de una escuela sigue una


distribución normal de µ = 1.65 y desviación estándar de 0.15 mts. Sacar
la proporción de estudiantes que tienen una estatura entre 1.65 y 1.70
mts.
x−μ
Sustituyendo en la fórmula: z=
σ
Tenemos: z = 1.70 – 1.65 = 0.33
0.15
Con el valor de z = 0.33 buscamos en la “Tabla B” el área bajo la curva la
cual es de 0.1293. Es decir, el 12.93 % de los estudiantes tiene una
estatura entre 1.65 mts. Y 1.70 mts.

 Dado un área bajo la curva buscar el valor “z” que le corresponde.

Ejemplo 1: Para un área igual a 0.7458 buscar el valor de z que le


corresponde.

Primeramente dividimos entre dos el área de 0.7458 ya que corresponde la


mitad a cada lado de la curva, así tenemos 0.7458 ÷ 2 = 0.3729. Con este
valor buscamos en la “Tabla B” el valor de z que le corresponde y tenemos
que es de z = 1.14. Por lo tanto tenemos dos valores de z, uno para cada
extremo de la curva: z1 = - 1.14 y z2 = 1.14.

64
A = 0.7458

z1 z2

Ejemplo 2: Para un área igual a 0.6985 como la que se muestra en la curva


buscar el valor z que le corresponde:

A = 0.6985

65
A 0.6985 le restamos el valor de 0.5 y tenemos 0.1985, al cual le
corresponde según la “Tabla B” un valor de 0.52, el cual es el valor de z
que buscamos. Por lo tanto z = 0.52.

 Dado un valor z buscar el área que le corresponde.

Ejemplo 3: ¿Qué área hay a la derecha de z = 2 ?

A=?

z=2

Primeramente se busca en la “Tabla B” el valor del área que le corresponde


a z= 2, el cual es de 0.4772. Después a 0.50 le restamos el valor de
0.4772 para obtener el área que buscamos a la derecha de z, así tenemos
que: 0.50 – 0.4772= 0.0228. Por lo tanto el área que buscamos es
igual a 0.0228, es decir el 2.28 % del área bajo la curva normal.

Ejemplo 4: ¿Qué valores quedan comprendidos entre z1= - 1.36 y z2=


2.90?

A=?

Para z1= - 1.36 A1= 0.4131

Para z2= 2.90 A2= 0.4981

66
Por lo tanto el área que buscamos se calcula sumando ambas áreas:

A = A1 + A2 = 0.4131 + 0.4981 = 0.9112 A = 0.9112

Regla general: para sacar el área entre dos valores de z:


z: con signos iguales, las áreas se restan.
z: con signos diferentes, las áreas se suman
TABLA B: DISTRIBUCIÓN DE
PROBABILIDAD NORMAL ESTÁNDAR.

Áreas bajo la distribución de probabilidad normal estándar entre


la media y valores positivos de z.
Z 0 1 2 3 4 5 6 7 8 9
0.0 0.0000 0.0040 0.0080 0.0120 0.0160 0.0199 0.0239 0.0279 0.0319 0.0359

0.1 0.0398 0.0438 0.0478 0.0517 0.0557 0.0596 0.0636 0.0675 0.0714 0.0753

0.2 0.0793 0.0832 0.0871 0.0910 0.0948 0.0987 0.1026 0.1064 0.1103 0.1141

0.3 0.1179 0.1217 0.1255 0.1293 0.1331 0.1368 0.1406 0.1443 0.1480 0.1517

0.4 0.1554 0.1591 0.1628 0.1664 0.1700 0.1736 0.1772 0.1808 0.1844 0.1879

0.5 0.1915 0.1950 0.1985 0.2019 0.2054 0.2088 0.2123 0.2157 0.2190 0.2224

0.6 0.2257 0.2291 0.2324 0.2357 0.2389 0.2422 0.2454 0.2486 0.2517 0.2549

0.7 0.2580 0.2611 0.2642 0.2673 0.2704 0.2734 0.2764 0.2794 0.2823 0.2852

0.8 0.2881 0.2910 0.2939 0.2967 0.2995 0.3023 0.3051 0.3078 0.3106 0.3133

0.9 0.3159 0.3186 0.3212 0.3238 0.3264 0.3289 0.3315 0.3340 0.3365 0.3389

1.0 0.3413 0.3438 0.3461 0.3485 0.3508 0.3531 0.3554 0.3577 0.3599 0.3621

1.1 0.3643 0.3665 0.3686 0.3708 0.3729 0.3749 0.3770 0.3790 0.3810 0.3830

1.2 0.3849 0.3869 0.3888 0.3907 0.3925 0.3944 0.3962 0.3980 0.3997 0.4015

1.3 0.4032 0.4049 0.4066 0.4082 0.4099 0.4115 0.4131 0.4147 0.4162 0.4177

1.4 0.4192 0.4207 0.4222 0.4236 0.4251 0.4265 0.4279 0.4292 0.4306 0.4319

67
1.5 0.4332 0.4345 0.4357 0.4370 0.4382 0.4394 0.4406 0.4418 0.4429 0.4441

1.6 0.4452 0.4463 0.4474 0.4484 0.4495 0.4505 0.4515 0.4525 0.4535 0.4545

1.7 0.4554 0.4564 0.4573 0.4582 0.4591 0.4599 0.4608 0.4616 0.4625 0.4633

1.8 0.4641 0.4649 0.4656 0.4664 0.4671 0.4678 0.4686 0.4693 0.4699 0.4706

1.9 0.4713 0.4719 0.4726 0.4732 0.4738 0.4744 0.4750 0.4756 0.4761 0.4767

2.0 0.4772 0.4778 0.4783 0.4788 0.4793 0.4798 0.4803 0.4808 0.4812 0.4817

2.1 0.4821 0.4826 0.4830 0.4834 0.4838 0.4842 0.4846 0.4850 0.4854 0.4857

2.2 0.4861 0.4864 0.4868 0.4871 0.4875 0.4878 0.4881 0.4884 0.4887 0.4890

2.3 0.4893 0.4896 0.4898 0.4901 0.4904 0.4906 0.4909 0.4911 0.4913 0.4916

2.4 0.4918 0.4920 0.4922 0.4925 0.4927 0.4929 0.4931 0.4932 0.4934 0.4936

2.5 0.4938 0.4940 0.4941 0.4943 0.4945 0.4946 0.4948 0.4949 0.4951 0.4952

2.6 0.4953 0.4955 0.4956 0.4957 0.4959 0.4960 0.4961 0.4962 0.4963 0.4964

2.7 0.4965 0.4966 0.4967 0.4968 0.4969 0.4970 0.4971 0.4972 0.4973 0.4974

2.8 0.4974 0.4975 0.4976 0.4977 0.4977 0.4978 0.4979 0.4979 0.4980 0.4981

2.9 0.4981 0.4982 0.4982 0.4983 0.4984 0.4984 0.4985 0.4985 0.4986 0.4986

3.0 0.4987 0.4987 0.4987 0.4988 0.4988 0.4989 0.4989 0.4989 0.4990 0.4990

3.1 0.4990 0.4991 0.4991 0.4991 0.4992 0.4992 0.4992 0.4992 0.4993 0.4993

3.2 0.4993 0.4993 0.4994 0.4994 0.4994 0.4994 0.4994 0.4995 0.4995 0.4995

3.3 0.4995 0.4995 0.4995 0.4996 0.4996 0.4996 0.4996 0.4996 0.4996 0.4997

3.4 0.4997 0.4997 0.4997 0.4997 0.4997 0.4997 0.4997 0.4997 0.4997 0.4998

3.5 0.4998 0.4998 0.4998 0.4998 0.4998 0.4998 0.4998 0.4998 0.4998 0.4998

3.6 0.4998 0.4998 0.4999 0.4999 0.4999 0.4999 0.4999 0.4999 0.4999 0.4999

3.7 0.4999 0.4999 0.4999 0.4999 0.4999 0.4999 0.4999 0.4999 0.4999 0.4999

3.8 0.4999 0.4999 0.4999 0.4999 0.4999 0.4999 0.4999 0.4999 0.4999 0.4999

3.9 0.5000 0.5000 0.5000 0.5000 0.5000 0.5000 0.5000 0.5000 0.5000 0.5000

68
3.6. DISTRIBUCIÓ N “t” DE STUDENT:

La distribución de probabilidad de t se publicó por primera vez en


1908 en un artículo de W. S. Gosset. En esa época, Gosset era empleado de
una cervecería irlandesa que desaprobaba la publicación de investigaciones
de sus empleados. Para evadir esta prohibición, publicó su trabajo en
secreto bajo el nombre de "Student". En consecuencia, la distribución t
normalmente se llama distribución t de Student, o simplemente
distribución t. Para derivar la ecuación de esta distribución, Gosset supone
que las muestras se seleccionan al azar de una población que se
distribuye normalmente. Aunque esto parecería una suposición muy
restrictiva, se puede mostrar que las poblaciones no normales que poseen
distribuciones en forma casi de campana aún proporcionan valores de t
que se aproximan muy de cerca a la distribución t.

La distribución t difiere de la de Z en que la varianza de t depende


del tamaño de la muestra y siempre es mayor a uno. Únicamente cuando el
tamaño de la muestra tiende a infinito las dos distribuciones serán las
mismas.

La siguiente figura presenta la gráfica de varias distribuciones t. La


apariencia general de la distribución t es similar a la de la distribución
normal estándar: ambas son simétricas y unimodales, y el valor máximo de
la ordenada se alcanza en la media µ. Sin embargo, la distribución t tiene
colas más amplias que la normal; esto es, la probabilidad de las colas es
mayor que en la distribución normal. A medida que el número de grados
de libertad tiende a infinito, la forma límite de la distribución t es la
distribución normal estándar.

69
En muchas ocasiones no se conoce s y el número de observaciones en
la muestra es menor de 30. En estos casos, se puede utilizar la desviación
estándar de la muestra s como una estimación de s, pero no es posible
usar la distribución Z como estadístico de prueba. El estadístico de prueba
adecuado es la distribución t.
Sus aplicaciones en la inferencia estadística son para estimar y probar
una media y una diferencia de medias.

La distribución t se distribuye en grados de libertad o gl. Los


grados de libertad se calculan así: gl = n – 1

La fórmula que se emplea para el estadístico t es la siguiente:

x−μ
t=
s
√n
Donde: x : Media aritmética de la muestra

µ: media aritmética poblacional


s: desviación estándar de la muestra
n: tamaño de la muestra

Características de la distribución t de student:

1) Al igual que la distribución z, es una distribución continua.

2) Es simétrica y tiene forma acampanada.

3) Su media aritmética es cero.

4) No tiene varianza 1 sino mayor de 1.

5) Se extiende de −¿ ∞ a + ∞.

6) Se distribuye en grados de libertad.

70
7) Cuando los grados de libertad son suficientemente grandes la varianza
de la distribución t tiende a 1.

8) No hay una distribución t, sino una familia de distribuciones t, todas con


la misma media cero, pero con su respectiva desviación estándar diferente
de acuerdo con el tamaño de la muestra n. Existe una distribución t para
una muestra de 20, otra para una muestra de 22 y así sucesivamente.

9) La distribución t es más ancha (tiene colas más largas) y más plana en el


centro que la distribución normal estándar como resultado de ello se tiene
una mayor variabilidad en las medias de muestras calculadas a partir de
muestras más pequeñas. Sin embargo, a medida que aumenta el tamaño
de la muestra, la distribución t se aproxima a la distribución normal
estándar.

10) La distribución t se aproxima a la distribución normal a medida que (n-


1) grados de libertad, se aproxima al infinito.

Se trabaja con niveles de significación de acuerdo al nivel de confianza que


se proporciona.

IC = Nivel de confianza = probabilidad de error.

Para IC del 90 % = 10 % = 0.10

Para IC del 95 % = 0. 05

Para IC del 99 % = 0.01

Tenemos que para muestras mayores de 30, se trabaja con la siguiente


fórmula:

71
x−μ
z=
σ
√n

x−μ
t=
Para muestras menores de 30: s
√n

Por medio de la “Tabla C” se pueden hacer inferencias confiables siempre y


cuando se cumplan con los requisitos especificados por la distribución t:

 Que la muestra haya sido seleccionada al azar.


 Que la población de donde se extraiga tenga una distribución
normal.

En la figura siguiente tenemos una distribución “t” para dos colas, pero
podemos tenerla para una sola cola ya sea para t con valor positivo o t
negativa.

72
α/2 α/2

-tα(n-1) tα(n-1)

Distribución t de studen para dos colas

Ejemplo de distribución t:

Ejemplo 1: para una distribución t de student con 5 grados de libertad,


encuentre el valor de t, donde sólo el 5 % de todos los valores exceden este
valor.

α
gl = 5 = 0. 05 En la tabla t de studen: t = 2.015

73
Ejemplo 2: Suponga que se tiene una muestra de tamaño n= 10 de una
distribución normal. Encuentre un valor de t tal que sólo el 1 % de los
valores de t sea menor a ese valor.

= 0. 01 gl= n-1 = 10-1 = 9

t
En la tabla tenemos que t = 2.821 pero lo ubicamos en t= - 2.821 por
ser menor a ese valor.

74
TABLA C: Distribución t de student

 0.40 0.30 0.20 0.10 0.05 0.025 0.01 0.005 0.001 0.0005
gl
1 0.32 0.727 1.376 3.078 6.316 12.71 31.8 63.66 318.3 636.6
2 5 0.617 1.061 1.886 2.920 4.303 2 9.925 22.326 31.596
3 0.28 0.584 0.978 1.638 2.353 3.182 6.96 5.841 10.215 12.924
4 9 0.569 0.941 1.533 2.132 2.776 5 4.604 7.173 8.610
0.27 4.54
5 7 0.559 0.920 1.476 2.015 2.571 1 4.032 5.893 6.869
6 0.27 0.553 0.906 1.440 1.943 2.447 3.74 3.707 5.208 5.959
7 1 0.549 0.896 1.415 1.895 2.365 7 3.499 4.785 5.408
8 0.546 0.889 1.397 1.860 2.306 3.355 4.501 5.041
9 0.26 0.543 0.883 1.383 1.833 2.262 3.36 3.250 4.297 4.781
7 5
10 0.26 0.542 0.879 1.372 1.812 2.228 3.14 3.169 4.144 4.587
11 5 0.540 0.876 1.363 1.796 2.201 3 3.106 4.025 4.437
12 0.26 0.539 0.873 1.356 1.782 2.179 2.99 3.055 3.930 4.318
13 3 0.538 0.870 1.350 1.771 2.160 8 3.012 3.852 4.221
14 0.26 0.537 0.868 1.345 1.761 2.145 2.89 2.977 3.787 4.140
2 6
15 0.26 0.536 0.866 1.341 1.753 2.131 2.82 2.947 3.733 4.073
16 1 0.535 0.864 1.337 1.746 2.120 1 2.921 3.686 4.015
17 0.534 0.863 1.333 1.740 2.110 2.898 3.646 3.965
18 0.26 0.534 0.862 1.330 1.734 2.101 2.76 2.878 3.610 3.922
19 0 0.533 0.861 1.328 1.729 2.093 4 2.861 3.579 3.883
0.26 2.71
20 0 0.533 0.860 1.325 1.725 2.086 8 2.845 3.552 3.850
21 0.25 0.532 0.859 1.323 1.721 2.080 2.68 2.831 3.527 3.819
22 9 0.532 0.858 1.321 1.717 2.074 1 2.819 3.505 3.792
23 0.25 0.532 0.858 1.319 1.714 2.069 2.65 2.807 3.485 3.768
24 9 0.531 0.857 1.318 1.711 2.064 0 2.797 3.467 3.745
0.25 2.62
25 8 0.531 0.856 1.316 1.708 2.060 4 2.787 3.450 3.725
26 0.531 0.856 1.315 1.706 2.056 2.779 3.435 3.706
27 0.25 0.531 0.855 1.314 1.703 2.052 2.60 2.771 3.421 3.690
28 8 0.530 0.855 1.313 1.701 2.048 2 2.763 3.408 3.674
29 0.25 0.530 0.854 1.311 1.699 2.045 2.58 2.756 3.396 3.659
8 3
30 0.25 0.530 0.854 1.310 1.697 2.042 2.56 2.750 3.385 3.646
40 7 0.529 0.851 1.303 1.684 2.021 7 2.704 3.307 3.551
50 0.25 0.528 0.849 1.298 1.676 2.009 2.55 2.678 3.262 3.495
60 7 0.527 0.848 1.296 1.671 2.000 2 2.660 3.232 3.460
80 0.25 0.527 0.846 1.292 1.664 1.990 2.53 2.639 3.195 3.415
7 9
100 0.526 0.845 1.290 1.660 1.984 2.626 3.174 3.389
200 0.25 0.525 0.843 1.286 1.653 1.972 2.52 2.601 3.131 3.339
500 7 0.525 0.842 1.283 1.648 1.965 8 2.586 3.106 3.310
 0.25 0.524 0.842 1.282 1.645 1.960 2.51 2.576 3.090 3.291
7 8
0.25 2.50
6 8

75
0.25 2.50
6 0
0.25 2.49
6 2

0.25 2.48
6 5
0.25 2.47
6 9
0.25 2.47
6 3
0.25 2.46
6 7
0.25 2.46
6 2

0.25 2.45
6 7
0.25 2.42
5 3
0.25 2.40
5 3
0.25 2.39
4 0
0.25 2.37
4 4

0.25 2.36
4 5
0.25 2.34
4 5
0.25 2.33
3 4
0.25 2.32
3 6

Unidad: 4.
Estimació n de Pará metros
76
4.1. Estimación y estimadores.

4.2. Intervalo de Confianza para una media poblacional.

4.3. Intervalo de Confianza para una proporción


poblacional.

4.1. Estimació n y estimadores.

Estimación: es el proceso que implica calcular a partir de los datos de una


muestra, alguna estadística que se ofrece como una aproximación del
parámetro correspondiente de la población de la cual fue extraída la
muestra.

Una estimación es un valor específico observado de un estadístico.

77
Tipos de estimaciones: Podemos hacer dos tipos de estimaciones
concernientes a una población: una estimación puntual y una estimación
de intervalo.

 Estimación Puntual: es un valor numérico (un solo número) utilizado


para estimar el parámetro correspondiente desconocido de la
población. A menudo una estimación puntual es insuficiente debido
a que sólo tienen dos opciones: es correcta o está equivocada.
 Estimación por intervalos: consta de dos valores numéricos que
definen un intervalo que, con un grado específico de confianza, se
considera que incluye el parámetro por estimar. Una estimación de
intervalo describe un rango de valores dentro del cual es posible que
esté un parámetro de la población.

Estimador: Cualquier estadístico de la muestra que se utilice para estimar


un parámetro poblacional se conoce como estimador. Un estimador es un
estadístico de la muestra utilizado para estimar un parámetro poblacional.
Por ejemplo, la media de la muestra x puede ser un estimador de la media
de la población µ, y la proporción de la muestra se puede utilizar como un
estimador de la proporción de la población.

Ejemplo de estimación y estimador:

Población en la que Parámetro de la Estadístico de la Estimación que


estamos población que muestra que realizamos
interesados deseamos estimar utilizaremos como
estimador
Adolescentes de una Proporción que Proporción de una 2 % tiene
comunidad dada tiene antecedentes muestra de 60 antecedentes
penales adolescentes que penales.
tiene antecedentes
penales

78
El investigador en el área de la salud que utiliza los procedimientos
de inferencia estadística debe estar al tanto de las diferencias entre dos
tipos de población: la población muestreada y la población objetivo. La
población muestreada es la población de la cual se extrae una muestra. La
población objetivo es la población de la que se pretende hacer una
inferencia.

Los procedimientos de inferencia estadística permiten inferir


respecto a las poblaciones muestreadas (siempre y cuando se hayan
utilizado los métodos de muestreo correcto). Sólo cuando la población
objetivo y la población muestreada son las mismas, es posible utilizar
procedimientos de inferencia estadística para llegar a conclusiones acerca
de la población objetivo.

La estricta validez de los procedimientos estadísticos a ver, supone y


depende de que la muestra de los datos analizados sea aleatoria.

Estimación Intervalar o por Intervalos:

A) Intervalo de Confianza para la Media de una Población.

B) Intervalo de Confianza para una Proporción.

4.2. Intervalo de Confianza para la Media de una Població n.

Suponga que un grupo de investigadores quiere estimar la media de


una población que sigue una distribución normal. Para ello, extraen una
muestra aleatoria de tamaño “n” de la población y calcular el valor de
media de la muestra x , el cual utilizan como una estimación puntual de la

79
media de la población µ. Aunque este estimador de µ posee todas las
cualidades de un buen estimador, se sabe que, debido a los caprichos del
muestreo aleatorio, no se puede esperar que x sea igual a µ. Por lo tanto,

sería mucho más significativo estimar µ mediante un intervalo que de

alguna forma muestre su probable magnitud de µ.

El intervalo de confianza es el rango de la estimación que estamos


haciendo. En estadística, la probabilidad que asociamos con una
estimación de intervalo se conoce como nivel de confianza. Una
probabilidad más alta implica una mayor confianza. En la estimación, los
niveles de confianza que se utilizan con más frecuencia son 90, 95 y 99 %.

La fórmula que se emplea para calcular el Intervalo de confianza para


la media de una población es la siguiente:

a) Con distribución z: Muestras mayores de 30 (pero también para


muestras menores de 30 cuando se conoce la varianza o desviación
estándar de la población):

σ
μ=x ± z α /2
√n

Donde:

z α/ 2 = Factor de confiabilidad
σ
: Error estándar de la Media
√n
σ
z α/ 2 : Precisión de la estimación o margen de error (es el desvío).
√n

Para poblaciones Finitas se agrega el factor de corrección y queda la


fórmula de la siguiente manera:

80
μ=x ± z α /2
σ
√n √ N −n
N −1

Donde N es el tamaño de la población y n el tamaño de la muestra. Este


n
factor se aplica siempre y cuando ≥ 0.05 , cuando es menor no se aplica
N
aunque la población sea finita.
b) Con distribución t: Muestras menores de 30 y que no se conoce la
varianza o desviación estándar de la población, solo se conoce la
desviación estándar de la muestra y poblaciones infinitas (que no se
conoce el tamaño de la población)

s
μ=x ± t α /2
√n
Y para poblaciones finitas (se conoce el tamaño de la población: N):

μ=x ± t α /2
s
√n √ N−n
N −1

Donde s es la desviación estándar de la muestra.

Ejemplos:

Ejemplo 1: Se pretende estimar


el número promedio de latidos
del corazón por minuto para
cierta población. Se encontró
que el número promedio de
latidos por minuto para 49
personas era de 90. Considere

81
que esos 49 pacientes constituyen una muestra aleatoria y que la
población sigue una distribución normal, con una desviación
estándar de 10. Construya el intervalo de confianza al 90, 95 y 99 %
para la media de la población y establezca la interpretación
probabilística y práctica. Indique cuál interpretación puede ser más
adecuada.

Datos:
N= 49 σ= 10 x = 90
a) Construya el intervalo de confianza para el 90 % para la media de la
población.
Cuando IC = 90 % α = 0.10
Se aplica la fórmula para el cálculo de la estimación del intervalo de
confianza para la media poblacional para muestras grandes (mayores a 30):
σ
μ=x ± z α /2
√n

Se busca en la Tabla D (pág. 92 ) el valor de z α/ 2 con α = 0.10:


De acuerdo a la Tabla D: z α/ 2 = 1.6449
10
Sustituyendo en la fórmula tenemos: μ=90 ±1.6449
√ 49

µ = 90 ± 1.6449 ( 1.4285)
µ = 90 ± 2.3498
90 – 2.3498 = 87.65 90 + 2.3498 = 92.34 87.65 < µ < 92.34

b) Construya el intervalo de confianza para el 95 % para la media de la


población.
Cuando IC = 95 % α = 0.05
En Tabla “D” cuando α = 0.05 el valor de z α/ 2 = 1.9600
Sustituyendo en la fórmula tenemos:

82
10
µ = 90 ± (1.96)
√ 49
µ = 90 ± (1.96) ( 1.4285) µ = 90 ± 2.8
90 – 2.8 = 87.2 90 + 2.8 = 92.8 87.2< µ < 92.8

c) Construya el intervalo de confianza para el 99 % para la media de la


población.
Cuando IC = 99 % α = 0.01
En Tabla “D” cuando α = 0.01 el valor de z α/ 2 = 2.5758
Sustituyendo en la fórmula tenemos:
10
µ = 90 ± (2.5758)
√ 49
µ = 90 ± (2.5758) ( 1.4285) µ = 90 ± 3.6795
90 – 3.6795 = 86.3205 90 + 3.6795= 93.6795
86.32< µ <93.67

Representación gráfica para los diferentes intervalos de confianza e


interpretación:

a) Para un IC= 90%

El más viable porque tiene los


Interpretación: Existe un 90
datos más compactos
% de confianza de que la
media de la población esté 90 %
entre 87.65 y 92.34

-3 -2 -1 0 1 2 3
z = - 1.6449 z = 1.6449
83
b) Para un Intervalo de confianza del 95%:

Interpretación: Existe un 95 % de
confianza de que la media de la
población esté entre 87.2 y 92.8

95 %

-3 -2 -1 0 1 2 3

z = - 1.96 z = 1.96

c) Para un intervalo de confianza


del 99 %
99 %
Interpretación: Existe un 99 % de
confianza de que la media de la
población esté entre 86.32 y 93.67

-3 -2 -1 0 1 2 3

z = - 2.5758 z = 2.5758

84
Ejemplo 2: En un experimento
llevado a cabo en un departamento
de educación física, se encontró
que el puntaje medio de resistencia
muscular tomado en una muestra
aleatoria de 16 sujetos era de 145
con una desviación típica de 40.
Suponer que los puntajes de
resistencia muscular para todos los
sujetos similares están normalmente distribuidos y construir un
intervalo de confianza del 90 % para el puntaje promedio verdadero.

Datos:
N = 16 sujetos x = 145 s = 40 IC = 90 %
Para un IC = 90 % α = 1 – 0.90 = 0.10
Como la muestra es menor a 30 se trabaja con la fórmula para muestras
menores a 30 (donde se usa el estadístico t):
s
μ=x ± t α /2
√n

Como la tabla de la distribución “t” de studen (Tabla C: pág. 75) es para


una sola cola y en intervalos de confianza se trabaja con curvas de dos

85
colas, el valor de α se divide entre dos para tener así el valor de α /2:
0.10/2= 0.05
Con el valor de α /2 = 0.05 y los grados de libertad (gl= n-1) : gl= 16-1=
15
gl= 15 en la “Tabla C”, tenemos que t α / 2 = 1.753.
40
Sustituyendo en la fórmula tenemos: μ=145 ±( 1.753)
√16
μ=145 ± ( 1.753 ) (10) μ=145 ± 17.53

145 – 17.53 = 127.47 145 + 17.53 = 162.52

127.47 ˂ µ ˂ 162.52

0.90

-3 -2 -tα/2 -1 0 1 tα/2 2 3

Muestreo a partir de poblaciones que no presentan una distribución


normal.
No siempre es posible o prudente suponer que la población de interés
muestra una distribución normal. Gracias al teorema del límite central, esto
no será un problema si se puede seleccionar una muestra lo
suficientemente grande. Para muestras grandes, la distribución muestral de
x presenta una distribución aproximadamente normal sin importar cómo
está distribuida la población original.

“Teorema del límite Central”: aunque la población no se comporta como


normal la distribución muestral de sus medias tiende a comportarse como

86
normal, entonces la población podemos tratarla como normal. La condición
es que la muestra sea grande. Es cuando se usa “s” como estimador de σ.

Ejemplo: Un consejero que trabaja con el departamento de


correccionales de un estado desea hacer una estimación del puntaje
promedio obtenido en una prueba de aptitud entre 5000 personas
admitidas en instituciones correccionales estatales durante un
determinado año. Una muestra aleatoria simple de 250 admisiones
arroja una media de 65 y una desviación típica de 15. No se conoce
la forma de la población. Construir el intervalo de confianza para la
media de la población con un nivel de confianza del 95 %.
En este problema no conocemos como se comporta la población, pero por
el hecho de tener una muestra grande (mayor a 30), el teorema del límite
central nos asegura que, cuando las medias muestrales se calculan a partir
de muestras grandes, el valor z se distribuye en forma aproximadamente
normal.
Como es finita, se utiliza la siguiente ecuación:

μ=x ± z α /2
σ
√n √ N −n
N −1

Donde N es el tamaño de la población y n el tamaño de la muestra. Este


n
factor se aplica siempre y cuando ≥ 0.05
N
Datos:
N = 5000 En este caso n/N =250/5000= 0.05 por lo tanto usamos
n= 250 la fórmula con el factor de corrección para poblaciones
x = 65 finitas
s = 15

87
Por otra parte no conocemos el valor de , pero como la muestra es grande
podemos utilizar el valor de “s” como un estimador de , quedando de la
siguiente manera: σ^ = s
Donde σ^ : estimación de la desviación estándar poblacional
Por tanto: σ^ = s = 15
Sustituyendo en la fórmula tenemos:

μ=x ± z α /2

σ^ N −n
√n N −1
=65 ±(1.9600)

15 5000−250
√ 250 5000−1
μ=65± ( 1.9600 )
15
√250 √ 4750
4999
= 65 ± ( 1.9600 ) ( 0.9486 ) ( 0.9747 )

μ=65± 1.8122

63.1878 <  < 66.8122

Interpretación: Existe un 95 % de confianza de que la Media poblacional


sea mayor que 63.1878 ó menor que 66.8122.

Determinación del Tamaño de la Muestra para la Estimación de la Media


Poblacional.

Qué tan grande debe ser una muestra es una pregunta importante que
surge de inmediato al inicio del planteamiento de cualquier encuesta o
experimento. Ya que tomar una muestra más grande de lo necesario para
obtener los resultados deseados es un desperdicio de recursos, mientras
que, por otra parte, las muestras demasiado pequeñas con frecuencia dan
resultados que carecen de uso práctico. A continuación se presentan las
fórmulas que se utilizan para el cálculo del tamaño de muestra en este
tema.
σ
Vemos que en la fórmula se está calculando el
μ=x ± z α /2
√n
Intervalo de la Media poblacional a partir de un valor puntual (la media
aritmética muestral: x ) con un más/menos una cierta precisión de la

88
estimación o llamado también margen de error. Esta precisión de la
estimación está compuesta por el producto del (coeficiente de confiabilidad
σ
z α/ 2) x (error estándar: ). ¿Qué tan grande debe ser la muestra? Esto
√n
depende del tamaño de  (la desviación estándar de la población), así como
del grado de confiabilidad y dimensión del intervalo deseado. Suponga que
se desea obtener un intervalo que se extienda d unidades hacia uno y otro
lado del estimador. Ello se enuncia:
d = (coeficiente de confiabilidad) x (error estándar)
Donde d: desvío o precisión de la estimación o margen de error.

Partiendo de la fórmula del Intervalo de confianza para la media, tenemos:


σ
¿ x ± z α / 2 √ n

Donde el segundo componente de la fórmula, lo que viene después del

más/menos es lo que llamamos desvío “d”. ¿ x ± desvío

σ
d = z α/ 2 despejando “n” de esta fórmula tenemos:
√n

Para poblaciones infinitas:

2 2
z α /2 . σ
n= 2
d

Para poblaciones finitas (cuando se conoce el tamaño de la población):

2 2
N . zα/ 2 . σ
n= 2 2 2
d ( N −1)+ z α/2 σ

Donde: n : tamaño de la muestra necesario

89
d: desvío z α/ 2 : factor de confiabilidad
N: tamaño de la población
: desviación estándar de la población

Ejemplo 1: Qué tan grande debe seleccionarse una muestra para


tener un intervalo de confianza del 95 % con un margen de error de
10? Suponer que la desviación estándar poblacional es 40.

2 2
z α /2 . σ
n= 2
d
2 2
(1.9600) (40) ( 3.8416 ) (1600)
n= 2 = = 6146.56/100 = 61.4656
(10) 100

Se redondea y queda:

n = 62

90
Decidir entre z y t:

SI La población tiene una NO


distribución normal

La muestra La muestra
es grande? es grande?
SI > 30 NO SI > 30 NO

Se conoce la ¿Se conoce la ¿Se conoce la Métodos


varianza de varianza o de varianza o de o
la Población la población o la población o procedimi
SI
o la la desviación
la desviación entos No
desviación estándar de la
estándar de la paramétri
estándar de población? σ
la población? σ cos
población? Z
σ

NO NO
SI
SI
NO

tenemos t
Z Z
“s”
Z

Z Se aplica el Teorema del


Límite Central

91
TABLA D: PARA INTERVALOS DE CONFIANZA.

Valores críticos correspondientes a los niveles de  de ambos extremos,


de la distribución normal estandarizada.

−ZZ

 Z
.001 3.2905
.002 3.0902
.005 2.80703
.01 2.5758
.02 2.3263
.03 2.1701
.04 2.0537
.05 1.9600

92
.06 1.8808
.08 1.7507
.10 1.6449
.15 1.4395
.20 1.2816
.30 1.0364
4.3. “Intervalo de Confianza para la Proporció n de una Població n”.

Los especialistas en estadística, a menudo utilizan una muestra para


estimar la proporción de ocurrencia de un evento en una población. Con
frecuencia, hay interés en estimar la proporción de la población que
muestra alguna característica en particular o una opinión determinada
sobre algún asunto. Si los datos que analizamos son cualitativos, el interés
surge en estimar la proporción p de elementos de una población que
presenta una cierta característica. En este caso p es un parámetro, por lo
que podemos construir un intervalo de confianza para p. Este intervalo
tiene básicamente la misma estructura de los intervalos para µ.

Un estimador para p está dado por ^p

Dónde:
x : número de casos favorables de la muestra.
n: tamaño de la muestra.
^p: es el estimador de la proporción (estimador puntual) e implica el
sentido de lo que quiero estudiar.

La fórmula para calcular el intervalo de confianza para la proporción de la


población es la siguiente:

p= ^p ± z ∝/2
√ ^p q
n

93
Dónde: ^p q : estimador de la varianza
z ∝/2 : coeficiente de confiabilidad

√ ^p q
n
: error estándar del muestreo

q = 1 - ^p

Para poblaciones finitas: Si n/N ≥ 0.05 se aplica el factor de corrección:

√ N −n
N −1
De tal forma que la fórmula quedaría en esos casos de la siguiente
manera:

p= ^p ± z ∝/2
√ √
^p q
n
N−n
N −1

 Cálculo del tamaño de la muestra en estimaciones de la proporción


real de la población:
Para poblaciones infinitas:
2
z α /2 . p . q
n= 2
d

Para poblaciones finitas:


2
N . p . q . zα/ 2
n=
( N −1 ) d 2+ z α /22 p . q

Donde: d: desvío.

94
Ejemplo 1:
De una muestra aleatoria simple de
300 entrevistados sacados de una
población grande de adultos, el 55 %
informó que su deporte favorito era el
fútbol. Construir un intervalo de
confianza del 95 % para la proporción
real de los que consideran el fútbol como su deporte favorito.
IC = 95 % α = 0.05 p = 55 % = 0.55 (el sentido de lo que quiero
estudiar)
q= 1 – p = 1 – 0.55 = 0.45
Cuando α = 0.05 zα/2= 1.96 (en la “Tabla E” pág. 60, de intervalos de
confianza)
^
Aplicamos la fórmula: p= ^p ± z ∝/2 p q

Sustituyendo los valores:


n √
p = 0.55 ± (1.96)

p = 0.55 ± (1.96)(0.028)
( 0.55 ) (0.45)
300
p = 0.55 ± 0.05629
0.4937 ≤ p ≤ 0.6062

O bien: 49.37 % ≤ p ≤ 60.62 %

Interpretación: Existe un 95 % de confianza de que p sea mayor o igual a


49.37 % o menor igual a 60.62 %, donde p es la proporción real de los que
consideran el futbol como su deporte favorito.

95
Ejemplo 2: Se plantea realizar una encuesta para determinar qué
proporción de familias en cierta área carece de servicios médicos. Se
cree que la proporción no puede ser mayor que 0.35. Se desea un
intervalo de confianza del 95 % y un desvío de 0.05. ¿De qué tamaño
se debe seleccionar la muestra de familia?

2
z α /2 . p . q
n= 2
d
2
(1.9600) ( 0.35 ) (0.65)
n= = 0.873964/0.0025 = 349.58 350
(0.05)2

n = 350

96
Unidad: 5.
Prueba de Hipó tesis

5.1. Prueba de Hipótesis Introducción.

5.2. Paso a seguir en la prueba de hipótesis.

5.3. Prueba de hipótesis sobre una media poblacional.

97
5.1. Prueba de Hipótesis Introducción.

En una investigación la planificación es la primera etapa, la cual comprende


una secuencia de actividades orientadas a la consecución de los objetivos
iniciales. La primera tarea consiste en identificar un área temática y un
problema susceptible de investigación. Este problema puede ser enunciado
en forma de pregunta u objetivo. Ejemplo: En forma de pregunta: ¿Existe
relación entre la salud física y mental de los abuelos/as y el hecho de
cuidad a sus nietos/as? En forma de objetivo sería: Comparar la salud física
y mental de los abuelos/as que cuidan a sus nietos/as respecto a los que
no lo hacen. (Para abreviar se ha obviado el contexto donde se realizaría el
estudio). La pregunta manifiesta desconocimiento ante una situación o
fenómeno; la hipótesis adelanta la respuesta y como tal se formula siempre
como frase afirmativa.

De los objetivos se desprenden las hipótesis, que serán pertinentes


si los objetivos son de tipo analítico (explicativo o predictivo); es decir,
cuando se pretende conocer la relación entre variables. Con objetivos
exploratorios o descriptivos no es adecuado formular hipótesis ya que su
intención es mostrar las características o propiedades de las variables de
forma independiente, sin tratar de relacionarlas.

Una hipótesis se puede definir como una explicación o predicción de


la relación entre dos o más variables. Por lo tanto, si la pregunta de
investigación expresa la incertidumbre, la hipótesis anticipa la respuesta.
Esta hipótesis se formula a priori, es decir, antes de obtener y analizar los
datos. Una misma hipótesis se puede formular de dos maneras: conceptual
(o de investigación) y estadística (hipótesis nula o alternativa).

Hipótesis nula (Ho) niega la diferencia estadística en cuanto a los


resultados. Es decir, que puede haber diferencias (observables) pero éstas
serían atribuibles al azar, no serían estadísticamente significativas. La

98
hipótesis alternativa (H1) afirma la existencia de diferencias reales entre los
grupos comparados.

Las hipótesis son enunciados formulados como respuestas tentativas a


preguntas de investigación.

Una hipótesis estadística es una afirmación con respecto a alguna


característica poblacional y, por consiguiente, un enunciado sobre una
variable aleatoria en relación a su ley de probabilidades.

La técnica de Contraste de Hipótesis o Prueba de Hipótesis es


precisa para establecer procedimientos para aceptar o rechazar hipótesis
estadísticas emitidas acerca de un parámetro, u otra característica de la
población.

La única forma de saber con certeza absoluta que una hipótesis


estadística es verdadera, es examinar toda la población. Pero esto, en la
mayoría de los casos resulta, imposible (por falta de medios económicos,
imposibilidades técnicas, etc.). Por lo tanto, la decisión debe adoptarse a
partir de los resultados de una muestra de la población (supuesta
representativa), que nos inducirá a tomar la decisión sobre la verdad o
falsedad de la hipótesis. Pero es difícil ésta decisión, porque aunque
sepamos exactamente el valor del parámetro de la población, en las
muestras es muy difícil que se verifique ese valor exacto, por lo que
debemos decidir unos límites de valores del parámetro en la muestra, que
nos puedan llevar a la decisión de aceptar el valor del parámetro
poblacional.
La prueba de hipótesis comienza con una suposición, llamada
hipótesis, que hacemos acerca de un parámetro de población, es decir,
suponemos un valor para una media de población. Para probar la validez

99
de esta suposición recolectamos datos de muestra y determinamos la
diferencia entre el valor hipotético y el valor real de la media de la muestra.
Después juzgamos si la diferencia obtenida es significativa o no. Mientras
más pequeña sea la diferencia, mayor será la probabilidad de que nuestro
valor hipotético para la media sea correcto. Desafortunadamente, la
diferencia entre el parámetro de población hipotético y la estadística real
rara vez es tan grande que rechacemos automáticamente nuestra hipótesis
o tan pequeña que la aceptamos con la misma rapidez, las soluciones
claras o bien definidas son la excepción, no la regla.

Hipó tesis nula y alternativa.

En la prueba de hipótesis se trabaja con dos hipótesis estadísticas que


deben anunciarse explícitamente: la hipótesis nula y la hipótesis
alternativa.

Hipótesis Nula: Ho (es la hipótesis que debe


probarse, por lo general se plantea para
rechazarse). Se plantea en forma opuesta a la
pregunta de investigación de interés.
Tipos de Hipótesis
Hipótesis alternativa: H1 o HA (es la hipótesis de
investigación. Es la pregunta científica de interés).

La hipótesis nula es la conjetura inicial, la suposición que se hace sobre la


base de la experiencia del pasado, el conocimiento a priori; es en un

100
comienzo, la respuesta más lógica al problema que se ha planteado; es el
valor que se asumiría como cierto de no poder realizarse la investigación.
La hipótesis nula (denotada por Ho) es la afirmación de que un parámetro
de la población (como una proporción, media o desviación estándar) es
igual a un valor aseverado.

La hipótesis alternativa es la posibilidad novedosa, aquella afirmación no


tan elemental de suponer, la cual debe ser probada.

La hipótesis de investigación es la conjetura o suposición que motiva la


investigación. Las hipótesis de investigación conducen directamente a las
hipótesis estadísticas.
Las hipótesis estadísticas se establecen de tal forma que pueden ser
evaluadas por medio de técnicas estadísticas adecuadas.

- La conclusión a la que se desea o espera llegar como resultado de la


prueba generalmente se usa como hipótesis alternativa.
- La hipótesis nula debe contener una proposición de igualdad, ya sea = ,

≤o≥
- La hipótesis nula es la que debe ser comprobada.
- Las hipótesis nula y alternativa son complementarias, las dos contemplan
todos los valores posibles que los parámetros de suposición pueden
asumir.

Planteamiento de las hipótesis nula y alternativa:

Ejemplo 1: Suponga que se requiere responder a la pregunta ¿Se


puede concluir que la media de una población es diferente de 50?

101
La hipótesis nula es: Ho : µ = 50

y la hipótesis alternativa es: HA: µ ≠ 50.

Ejemplo 2: Suponga que se desea saber si se puede concluir que la


media de la población es mayor que 40.
Se tienen las hipótesis:
Ho : µ ≤ 40 HA: µ > 40

Ejemplo 3: Si se quiere saber si es posible concluir que la media de la


población es menor que 100, las hipótesis que se plantean son:
Ho : µ ≥ 100 HA: µ < 100

Estadístico de contraste.

El contraste de hipótesis, es pues, un mecanismo mediante el cual se


rechaza la hipótesis nula cuando existan diferencias significativas entre los
valores muestrales y los valores teóricos, y se acepte en caso contrario.
Estas variables se medirán mediante una variable denominada estadístico
de contraste, que sigue una distribución determinada conocida, y que para
cada muestra tomará un valor particular.
Los estadísticos de contraste a utilizar son:

x─μ x─μ
¿ t=
z s o bien: s
√n √n

102
5.2. Pasos a seguir en la prueba de hipó tesis.

Los pasos para la prueba de hipótesis se detallan a continuación:


1) Evaluar los datos: se debe comprender la naturaleza de los datos con los
que se va a trabajar.
2) Supuestos (restricciones): las suposiciones se refieren a la normalidad de
la distribución de la población, independencia de las muestras.
3) Hipótesis: se trabaja con dos hipótesis (la nula y la alternativa).
4) Estadística de prueba: se determinan las fórmulas que se utilizarán para
obtener el valor del estadístico de prueba.
5) Se grafica la distribución correspondiente con sus respectivo nivel de
significación y con el estadístico teórico, el cual se obtiene por medio de
tablas. El nivel de significación α designa el área bajo la curva de la
distribución del estadístico de prueba que está por encima de los valores
(teóricos) sobre el eje horizontal, que constituyen la región de rechazo.
6) Se formula la regla de decisión: todos los valores posibles que el
estadístico de prueba puede asumir son puntos sobre el eje horizontal de
la gráfica de la distribución para este estadístico y se dividen en dos
grupos: uno de ellos constituye lo que se conoce como región de rechazo y
el otro la región de no rechazo. La regla de decisión establece que si los
valores del estadístico de prueba (el calculado) caen en la región de
rechazo se debe rechazar la hipótesis nula (Ho). Por el contrario si el
estadístico calculado cae en la región de no rechazo, no se rechaza Ho.
De dos maneras se puede equivocar el investigador:
 Se puede rechazar la hipótesis nula siendo verdadera (error tipo I).
 Se puede aceptar la hipótesis nula siendo falsa (error tipo II).
7) Se calcula el estadístico de prueba y se compara con las regiones de
rechazo y no rechazo que ya fueron especificadas.

103
8) Decisión estadística. La decisión estadística consiste en el rechazo o no
rechazo de la hipótesis nula. Se rechaza si el valor calculado del estadístico
de prueba cae en la región de rechazo y no se rechaza si el valor calculado
cae en la región de no rechazo.
9) Conclusión: si Ho se rechaza, se concluye que H A es verdadera. Si no se
rechaza Ho, se concluye que Ho puede ser verdadera.
10) Se calcula el valor de p, el valor de p es una cantidad que indica qué
tan insólitos son los resultados de la muestra, considerando que la
hipótesis nula sea verdadera. Un valor de p indica que no es muy probable
que los resultados de la muestra hayan ocurrido; ofrece la justificación
para dudar de la certeza de la hipótesis nula, si ésta es verdadera. El valor
p para una prueba puede definirse también como el valor más pequeño de
α por el cual la hipótesis nula se puede rechazar. El valor p puede
interpretarse como la probabilidad de que Ho sea verdadera.

Regla general: Si el valor p es menor o igual que α es posible rechazar la


hipótesis nula; si el valor p es mayor que α no es posible rechazar la
hipótesis nula.

Cuando la hipótesis nula no es rechazada, tampoco se puede decir que


se acepta. Se debe decir que la hipótesis nula “no se rechaza”. Se evita el
uso de la palabra “aceptar” en este caso porque pudiera haberse cometido
el error de tipo II. Dado que puede ser alta la probabilidad de cometer este
tipo de error, no se pretende cometerlo al aceptar la hipótesis nula.

104
Diagrama de flujo del procedimiento para la prueba de Hipótesis:

EVALUAR LOS DATOS

REVISAR LAS SUPOSICIONES

FORMULAR LA HIPÓTESIS

SELECCIONAR EL ESTADÍSTICO
DE PRUEBA

FORMULAR LA REGLA DE
DECISIÓN

CALCULAR EL
ESTADÍSTICO DE
PRUEBA

No FORMULAR LA
Rechazar
Rechazar DECISIÓN
Ho
Ho ESTADÍSTICA

CONCLUIR QUE HO CONCLUIR QUE HA


PUEDE SER ES VERDADERA
VERDADERA

105
PRUEBA DE HIPÓTESIS BILATERAL.
Se considera una prueba de hipótesis bilateral porque la región de rechazo
se divide entre los dos lados o colas de la distribución del estadístico de
prueba.
Se presenta en los siguientes casos:

 Cuando digas en tu hipótesis nula:

Ho : µ1 = µ2
 Cuando digas en tu hipótesis nula que μ es igual que determinado
valor (prueba de hipótesis para la media de una sola población).

En ambos casos te va a generar un problema de dos colas:

Zona de rechazo de la
Zona de rechazo de la
hipótesis nula   hipótesis nula

PRUEBA DE HIPÓTESIS UNILATERAL.


En la prueba de hipótesis unilateral toda la región de rechazo está en una u
otra cola de la distribución. Se genera este tipo de prueba cuando surja
cualquiera de los siguientes casos:

106
 Si en la hipótesis nula dices que µ1 ≠ µ2 ya sea porque µ1 > µ2 ó
µ1 < µ2 te va a generar un problema de una sola cola.
 Cuando digas en tu hipótesis nula que μ es ≥ o ≤ que determinado
valor (prueba de hipótesis para la media de una sola población).

 Zona de rechazo

Unilateral de cola derecha

Zona de
α
rechazo

Unilateral de cola izquierda.

5.3. Prueba de hipó tesis para la media de una sola


població n
La prueba de hipótesis para la media de una población se puede dar según
tres condiciones distintas:

107
1) Cuando el muestreo se realiza a partir de una población de valores que
siguen una distribución normal con varianza conocida. Para este caso el
estadístico que se emplea es:
x─μ
z=
σ
√n
Independientemente de que n sea mayor o menor a 30 se emplea esta
fórmula.

2) Cuando el muestreo se realiza a partir de una población con distribución


normal y con varianza desconocida.
 Si n es mayor a 30 se usa la fórmula siguiente:
x─μ
z=
s
√n
Dónde: x : es la media muestral
μ : es la media poblacional
s: desviación estándar de la muestra.
n: número de observaciones en la muestra

 Si n es menor a 30 y te dan “s” se usa la fórmula del estadístico “t”:

x─μ
t=
s
√n

3) Cuando el muestreo se realiza a partir de una población que no presenta


una distribución normal, si la muestra es grande (mayor a 30) es posible
utilizar el teorema del límite central y usar el estadístico “z” como el
estadístico de prueba. Si no se conoce la desviación estándar de la
población, la práctica común es utilizar la desviación estándar de la
muestra como una estimación. Si la muestra es menor a 30 se utilizan
métodos No Paramétricos.

108
Ejemplo:
Estamos estudiando el efecto del estrés sobre la presión arterial. Nuestra
hipótesis es que la presión sistólica media en varones jóvenes estresados
es mayor que 18 cm de Hg. Estudiamos una muestra de 45 sujetos y
encontramos lo siguiente:
x = 18.5 s= 3.6 n = 45
1) La hipótesis nula (lo que queremos rechazar es:
Ho: μ ≤ 18
2) La hipótesis alternativa es:
HA : μ > 18
De acuerdo a las hipótesis planteadas se trata de un problema de una sola
cola.
3) Fijamos a priori el nivel de significación en 0.05 (el habitual).
4) El estadístico para el contraste es:
x─μ
z=
s
√n
Ya que la muestra es mayor a 30 y desconocemos la varianza de la
población. Utilizando la desviación típica de la muestra como un estimador
del de la población.

5) Calculamos el valor de z en la muestra: zc


x─μ
z=
s
√n
18.5 ─ 18 0.5
0.5
zc = 3.6 = 3.6 = = 0.9317 zc = 0.9317
0.5366
√ 45 6.7082

6) Graficamos y buscamos el valor de z (en tablas) que es con el que vamos


a comparar el z (calculado).

109
α = 0.05

zt = 1.645
zc = 0.9317
Para α = 0.05: A = 0.50 – 0.05 = 0.45
Este valor de 0.45 se busca en el cuerpo de la “Tabla B” ( pág. 67), y vemos
que este valor se encuentra entre 0.4495 y 0.4505.
El valor z está por lo tanto entre 1.64 y 1.65: z = 1.64 + 1.65 = 1.645
2
zt = 1.645
7) Establecemos la regla de decisión:
Regla de decisión: Si zc cae en la región de no rechazo no se rechaza Ho.
En este caso, como zc cae en la zona de confianza no se rechaza Ho.
8) Conclusión: Por lo tanto hay evidencia suficiente para suponer que μ no
es mayor que 18. Por lo tanto los investigadores no tienen la razón.
9) Se calcula el valor de p.
Con el valor de zc = 0.9317 se busca en la “Tabla B” qué área le
corresponde y da para z = 0.93 un valor de : A = 0.3238
Al área de 0.50 se le resta ese valor y se tiene: A = 0.50 – 0.3238 =
0.1762.
Por lo tanto: p = 0.1762

110
Regla general: Si el valor de p es menor o igual que α, es posible rechazar
la hipótesis nula; si el valor p es mayor que α no es posible rechazar la
hipótesis nula.
Como α = 0.05 y p= 0.1762 p>α 0.1762 > 0.05
Por tanto, no es posible rechazar la hipótesis nula Ho.

p
0.3238

111
Unidad: 6.
Estadística No Paramé trica

6.1. Definición de variable y tipos de variables.

6.2. Medición y escalas de medición

6.3. Métodos paramétricos o No paramétricos.

6.4. Prueba de Wilcoxon.

6.5. Prueba de Mann-Whitney.

112
6.1. Definición de Variable y Tipos de Variables

Una "variable" es una palabra que indica una cantidad o condición


que puede cambiar. Una variable es un objeto, proceso o característica que
está presente, o supuestamente presente, en el fenómeno que un científico
quiere estudiar y que se está tratando de medir. Los objetos, procesos o
características reciben el nombre de variables en la medida en que su
modificación provoca una modificación en otro objeto, proceso o
característica.

Por otra parte, las variables son características de la realidad que


pueden ser determinadas por observación la mayoría de las veces, y lo más
importante, que pueden mostrar diferentes valores de una unidad de
observación a otra, de una persona a otra, o de un país a otro (edad,
ingresos, número de habitantes, etc.). El investigador debe seleccionar las
variables para formar una hipótesis.

Tipos de variables

Se han planteado diferentes clasificaciones de variables que varían en


función del criterio considerado en su categorización. A continuación se
presentan dos clasificaciones de variables, la primera en función de cómo
son medidas las variables, esto es, de la escala de medida utilizada en la
obtención de los datos de la variable, y la segunda en función del nivel de
control experimental por parte del investigador.

1) Según la escala de media utilizada en la obtención de los datos de la


variable, se pueden diferenciar tres tipos de variables:

113
Variables cuantitativas o numéricas: aquéllas en que los valores resultantes
de la medición son números que indican el grado o cantidad de lo que se
está midiendo. Las variables cuantitativas se caracterizan por tener
unidades de medida.

Ejemplo: la variable “Peso (kg)” medida en una muestra de 10 alumnos de


una Universidad (X).

X: {50, 48, 61, 54, 72, 65, 49, 75, 80, 76}

La unidad de medida en este caso es el kilogramo.

Las variables cuantitativas se clasifican a su vez en discretas o continuas.


Las variables cuantitativas discretas sólo pueden tomar ciertos valores
concretos, por ejemplo, la variable “Número de hijos”.

Las variables cuantitativas continuas pueden tomar cualquier valor


numérico, esto es, entre cualquier par de valores, puede darse un valor
numérico intermedio a aquellos dos. A modo de ejemplo, la variable
“Tiempo empleado en completar una tarea orientada a evaluar la
coordinación motriz”.

Variables cuasi-cuantitativas u ordinales: En algunas clasificaciones, estas


variables se incluyen como una modalidad de las variables cualitativas. Son
variables de naturaleza cualitativa, pero sus distintas categorías pueden
ordenarse siguiendo un criterio o una escala establecida. Las variables
cuasi-cuantitativas u ordinales son aquéllas en que los valores observados
no son indicativos más que del orden o posición de las unidades de
observación en lo que se esté midiendo. El dato correspondiente a un
determinado caso tan sólo representa en qué grado se es mayor o menor
que otro caso que tiene, respectivamente, un valor inferior o superior en
aquello que se esté midiendo.

114
Ejemplo: la variable con los datos recogidos en un grupo de 12 personas a
partir de la siguiente pregunta de un test: “Ansiedad que siente cuando se
encuentra con mucha gente alrededor” (X).

X: {4, 1, 3, 2, 1, 2, 2, 3, 1, 2, 1, 1}

Las alternativas de respuesta a esta cuestión eran: Nada; Algo; Bastante;


Mucha.

Codificación: [1: Nada; 2: Algo; 3: Bastante; 4: Mucha]

Variables categóricas (cualitativas, nominales): aquéllas en que los valores


no aportan ninguna información de magnitud ni de orden, tan sólo
diferencian a los casos en distintas categorías de pertenencia. Una
clasificación adicional de las variables categóricas diferencia a éstas entre
dicotómicas (dos valores posibles) y politómicas (más de 2 valores
posibles).

Ejemplo: la variable “Estado civil”, habiendo sido recogidos los datos para
un total de 15 trabajadores de una empresa.

X: {0, 3, 0, 1, 1, 2, 0, 1, 1, 1, 2, 0, 0, 1, 3}

Codificación: [0: soltero/a; 1: casado/a; 2: separado/a o divorciado/a; 3:


viudo/a]

Hay que tener en cuenta en relación a los tipos de variables lo siguiente:

- El tipo de variable (cuantitativa, cuasi-cuantitativa, categórica) es


determinante en la selección del procedimiento estadístico a aplicar en su
análisis.

- Una variable no es de un tipo u otro per se, sino que va a depender del
modo en que se lleve a cabo su medición (p. ej., la edad o el consumo de
tabaco pueden ser medidas utilizando diferentes escalas de medida que
den lugar a variables de diferente tipo).

115
2) Las variables se clasifican según el nivel de control experimental:

 Variable independiente (V.I.): Variable que el investigador manipula o


controla deliberadamente con el objeto de investigar los efectos que
presuntamente provoca en otras variables (ej. método de lecto-
escritura).

 Variable dependiente (V.D.): Es la variable que el investigador


observa a fin de determinar si sufre modificaciones cuando cambia la
V.I. (ej. puntuación en una prueba de lecto-escritura).

 Variable extraña: Variable ajena al experimento, pero que puede


ejercer su influencia sobre los resultados. Generalmente es de tipo
ambiental u organísmica (ej.entrenamiento de los profesores/as,
fatiga).

6.2. Medición y escalas de medición

La medición es un tipo de observación rigurosa realizada en


condiciones controladas y frecuentemente referida de algún modo a
patrones. Es una descripción rigurosa e inequívoca que tiene un significado
constante para una comunidad científica y profesional.

Medir es sustituir sistemáticamente las cosas o sus propiedades por


números, de tal modo que podamos usar los números como si se tratase
de lo representado.

Escalas de medición

La medición puede definirse como la asignación de números a


objetos o eventos de acuerdo con ciertas reglas; la manera como se
asignan esos números determina el tipo de escala de medición (Stevens,

116
1946; Cohen y Cohen, 1975; Saris y Stronkhorst, 1984). Las escalas de
medida son el sistema para la asignación de números a los objetos o
fenómenos que se estudian. Una escala de medida contiene todos los
valores que podría presentar una variable determinada, de modo que si
estudiamos esta variable en un individuo determinado, éste debe
encontrarse en algún punto de la escala.

1. Escala nominal.

Se emplean para medir variables cualitativas nominales, y se utilizan como


medidas de identidad. Consiste en
clasificar objetos o fenómenos,
según ciertas características,
tipologías o nombres, dándoles
una denominación o símbolo, sin
que implique ninguna relación de
orden, distancia o proporción
entre los objetos o fenómenos. Las unidades observacionales se agrupan
en clases excluyentes según determinada propiedad. En la escala nominal
los números sólo sirven para distinguir categorías, estos no poseen
propiedades cuantitativas y sirven solamente para identificar las clases.

Se distinguen dos subtipos:

- Escala nominal dicotómica, cuando utiliza dos


modalidades.

- Escala nominal politómica, cuando utiliza tres o


más modalidades.

La operación matemática permitida es el conteo. Ejemplo: Sexo


(masculino-femenino), nacionalidad, profesión, raza, estado civil, etc.

2. Escala ordinal:

117
Se establecen categorías con dos o más niveles que implican un orden
inherente entre sí. La escala de medición ordinal es cuantitativa porque
permite ordenar a los eventos en función de la mayor o menor posesión de
un atributo o característica.

Suponga que a los clientes en un negocio se les hace unas preguntas


para valorar la calidad del servicio. Los clientes valoran la calidad de
acuerdo a las siguientes respuestas: 1 (Muy satisfecho), 2 (satisfecho), 3
(Insatisfecho), 4 (Muy insatisfecho). Estos datos son ordinales. Note que
una valoración de 1 no indica que el servicio es dos veces mejor que

cuando
se da una valoración de 2. Sin embargo podemos decir que la valoración de
1 es preferiblemente mejor que 2, y así en los demás casos.

La escala ordinal surge a partir de la operación de ordenamiento; en


esta escala se habla de primero, segundo, tercero. No se sabe si quien
obtiene el primer puesto está cerca o lejos del segundo puesto. Los valores
de la escala representan categorías o grupos de pertenencia, con cierto
orden asociado, pero no una cantidad mensurable. Los números
representan una cualidad que se está midiendo, y expresan si una
observación tiene más de la cualidad medida que otra unidad
observacional. Ejemplo: nivel educativo, dureza de minerales, nivel de una
enfermedad, clase social, rango de agresividad, nivel de ansiedad ante un
examen, etc.

118
3. Escala de intervalo. La escala de intervalo se aplica a variables continuas
pero carece de un punto cero absoluto, el cero es arbitrario, no refleja
ausencia de la magnitud medida. El ejemplo más representativo de este
tipo de medición es un termómetro, cuando registra cero grados
centígrados de temperatura indica el nivel de congelación del agua y
cuando registra 100 grados centígrados indica el nivel de ebullición, el
punto cero es arbitrario no real, lo que significa que en este punto no hay
ausencia de temperatura.

Una persona que en un examen de matemáticas que obtiene una


puntuación de cero no significa que carezca de conocimientos, el punto
cero es arbitrario porque sigue existiendo la característica medida.

En una escala por intervalos hay tres características fundamentales:

1. El cero es completamente arbitrario, y no significa necesariamente la


ausencia de la cantidad medida.

2. Diferencias iguales reflejan idénticas diferencias, entre los niveles de la


variable en estudio.

3. No se pueden hacer comparaciones de razón.

Un ejemplo de escala por intervalos es la utilizada para medir la hora


del día. En esta escala el cero que corresponde a la medianoche, es
completamente arbitrario, y el tiempo transcurrido entre las 5:00 y las 8:00
, es el mismo que entre las 14:00 y las 17:00.

Cumple con la propiedad de igual distancia entre


puntos de la escala, lo que significa que puede
saberse cuántas unidades de más tiene una
unidad observacional comparada con otra, con
relación a cierta característica analizada. Por
ejemplo, en la escala de temperatura centígrada

119
puede decirse que la distancia entre 25° y 30°C es la misma que la
existente entre 20° y 25° C, pero no puede afirmarse que una temperatura
de 40° C equivale al doble de 20° C en cuanto a intensidad de calor se
refiere, debido a la ausencia de cero absoluto.

No podría decirse que una persona que tiene un CI de 120 sea el doble de
inteligente de una que tiene un CI de 60.

Ejemplos: temperatura, inteligencia a través de test, notas en un examen,


calendario, etc.

Ejemplo de intervalo: Inteligencia: 106 – 110, 101 – 105, 96 – 100.

4. Escala de razón. Es también para variables cuantitativas, y se diferencia


de la de intervalos en que en ella el cero no es arbitrario, y corresponde
realmente a una total ausencia de
la propiedad estudiada. La
diferencia entre los valores es
importante y de magnitud
definida; así por ejemplo el
ingreso de cero pesos en una
tienda, puede interpretarse como
que no se han producido ventas. Un artículo que pesa 6 kg., tiene el doble
de peso de otro que pesa 3 kg. El nivel de medición de razón se aplica
tanto a variables continuas como discretas.

Ejemplos: longitud, masa, peso, distancia, estatura, ingresos, precios,


tiempo, etc.

En psicología se utiliza para variables como el tiempo de


reacción o el porcentaje de errores y aciertos.

Se le llama también escala de proporción. Ejemplo: Si una


persona A tiene 20 años y otra B tiene 40 años, podemos

120
establecer la proporción de la relación entre ambas y decir: A/B = 20/40 =
0.5, o bien B/A= 40/20 = 2.

Un ejemplo de los niveles de medición es si queremos medir la


variable peso de un niño al nacer, la cual podría solicitarse en cualquiera
de los distintos tipos de niveles de medición.

1) Nivel nominal, cuando preguntamos por:

El peso del niño al nacer fue:

Normal ________ Anormal ________

Es de anotar que en la categoría anormal se incluyen para este estudio los


niños con bajo peso y los en sobrepeso.

2) Nivel ordinal, cuando preguntamos por:

El peso del niño al nacer fue:

Peso Marque con una X

Sobrepeso

Normal

Bajo

3) Nivel de intervalo o intervalar, cuando preguntamos por:

Marque con una X la edad del menor de un año al ingreso a la clínica:

121
Edad (Meses) Valor observado

0-3

4-6

7-9

10-12

4) Nivel de razón, cuando indagamos por:

¿Cuál fue el peso en kg del niño al nacer? _______

6.3. Métodos Paramétricos y No Paramétricos

En la Estadística paramétrica nuestro interés es hacer estimaciones y


pruebas de hipótesis acerca de uno o más parámetros de la población o
poblaciones, a partir de muestras. Cuando se utiliza estadística
paramétrica se debe tener la precaución de verificar que la población o
poblaciones de donde provienen las muestras están distribuidas
normalmente, aunque sea en forma aproximada.

Los métodos No paramétricos o métodos de distribución libre, en


contraste, no dependen del conocimiento de cómo se distribuye la
población. De esto se deduce que estos métodos son convenientes si no se
conoce la distribución de la población, por ejemplo, en investigación
exploratoria. Sin embargo los resultados obtenidos por los no paramétricos
no son los mismos que por los paramétricos, por lo que en caso de
conocer que la distribución de datos es normal es preferible utilizar una
prueba paramétrica.

122
Los métodos no paramétricos pueden ser usados para analizar datos
de tipo cualitativo (nominales u ordinales), así como también para datos
cuantitativos. Mientras que los métodos paramétricos sólo se pueden usar
para datos cuantitativos (discretos y continuos).

Muestras independientes y apareadas.

Se consideran muestras apareadas o dependientes cuando se obtienen dos


conjuntos de datos relacionados por la misma muestra; es decir, se
obtienen dos observaciones para cada unidad elemental en la muestra
como es el caso “antes” y “después” o cuando se mide una característica en
las unidades elementales con dos tipos de instrumento, o por ejemplo el
investigador selecciona pares de sujetos y uno de cada par en forma
aleatoria es asignado a uno de dos tratamientos; en caso contrario se dice
que las muestras son independientes. Como ejemplo tenemos que, si a un
grupo de alumnos se les aplica un examen de diagnóstico previo a la
impartición de un conocimiento y después se les evalúa, los dos conjuntos
de datos son considerados muestras apareadas. Por otro lado, si a un
conjunto de animales de laboratorio se le pesa antes de aplicarles un
tratamiento y después de cierto tiempo se desea ver su incremento o
disminución en peso; estos dos conjuntos de datos constituyen muestras
apareadas. Sin embargo, si se pesan dos conjuntos de animales, por
ejemplo hembras y machos y se desea establecer si hay diferencia en peso
entre hembras y machos, estas dos muestras son independientes.

Método a seleccionar

Para determinar el método estadístico a utilizar debemos tener muy claro


el tipo de dato que tenemos y el número de muestras. Si éstas son dos o
más, debemos decidir si son apareadas o independientes.

123
6.4. Prueba de Wilcoxon
En algunos casos se desea probar una hipótesis nula con respecto a
la media de la población, pero por alguna razón z y t resultan inadecuadas
como estadísticas de prueba. Se excluye la estadística z cuando se tiene
una muestra pequeña (n  30) de una población que sigue una distribución
no normal y el teorema del límite central no es aplicable. La estadística t no
es conveniente porque la distribución de la población de la que se extrae la
muestra no se aproxima lo suficientemente a la normalidad. En tales casos
se usa un procedimiento no paramétrico. La prueba de jerarquía signada
de Wilcoxon puede utilizarse cuando los datos conforman una muestra
aleatoria o cuando se presentan en pares.

Esta es una prueba de libre distribución que tiene las siguientes


características:

 Se usa para comparar dos muestras relacionadas.


 El nivel de medición de la variable dependiente es ordinal.
 Se usa para comparar dos mediciones de rangos (Medianas) y
determinar que la diferencia no se debe al azar (que la diferencia sea
estadísticamente significativa).
 Se usa para una sola muestra (Prueba de rangos con signos de
Wilcoxon).
 Se requiere que la muestra no sea menor a 6.

Prueba del rango con signo de Wilcoxon para una sola muestra.

Sirve para contrastar la hipótesis de que la mediana o la Media de la


población toman cierto valor.

124
Planteamiento de Hipótesis: Las siguientes hipótesis son hipótesis nulas
(junto con las hipótesis alternativas) que pueden probarse para alguna

media de población no conocida o.

a) Ho:  = o b) Ho:   o c) Ho:   o


HA:   o HA:   o HA:   o
Donde:
: es la media verdadera de la población

o: es la media hipotética de la población (el valor supuesto dado).

Una vez planteadas las hipótesis se siguen los siguientes pasos:

1) Obtenga el valor de la diferencia di: A cada puntaje se le resta el valor de


la Mediana o Media dado, y se le deja el signo positivo o negativo con que
sale la diferencia.

2) Si salen diferencias de cero se anulan, es decir el valor de n que se


tomará será n = (n-anulados) (valor cero de diferencia).

3) Se obtienen las jerarquías de las diferencias absolutas. Se les da un


número de jerarquía de menor a mayor, dando el número 1 de jerarquía al
menor de los datos. En caso de haber diferencias de cero se eliminan y no
se les da jerarquía Si hay más de una diferencia con el mismo valor (ligas)
se saca un promedio de los rangos que les corresponden y se asigna con el
valor medio a todos los di con el mismo valor.

Ejemplo: Vamos a suponer que tener cuatro diferencias con un valor de


siete. Y al primer 7 le correspondiera la posición 4, al segundo la 5, al
tercero la 6, al cuarto la 7. Se suman las posiciones: 4+5+6+7= 22 y lo
dividimos entre 4 que son los que son y tenemos: 22/4 = 5.5. Y este valor
de 5.5 sería la jerarquía que utilizaríamos para los cuatro 7.

125
4) Reasigne los signos a las jerarquías de las diferencias ya ordenadas, es
decir, a la jerarquía asignada de la diferencia se le pone el signo que tiene
la diferencia.

5) Se suman los rangos de las diferencias positivas y negativas por


separado y a cada resultado se le llama T+ o T-, respectivamente.

6) Se obtiene la estadística de prueba Wilcoxon dependiendo de la

naturaleza de la hipótesis alternativa. Para una prueba bilateral (dos colas:

  o ): la que haya salido como menor de las dos T+ o T- se toma como


el valor del estadístico de prueba Tc. Cuando en la hipótesis alternativa
unilateral se plantee que la media verdadera de la población es menor que
la media hipotética (  o), un valor suficientemente pequeño de T+ causa
el rechazo de Ho y T+ es la estadística de prueba que se toma como Tc.
Cuando en la hipótesis alternativa unilateral se plantea que la media

verdadera de la población es mayor que la media hipotética (   o), un


valor suficientemente pequeño de T- causa el rechazo de Ho y T- es la

estadística de prueba.

7) Se saca de la tabla de Wilcoxon el valor de TT de acuerdo al grado de


significación deseado y dependiendo de si se trata de un problema de dos
colas o una sola: Tabla E.

8) Se comparan Tc con TT con la siguiente Regla de Decisión:

“Si el valor calculado de T: Tc es menor o igual que el valor teórico (de las
tablas) se rechaza la hipótesis nula”.

126
TABLA E: Valores críticos de T para la prueba de los rangos
señalados y pares igualados de Wilcoxon.

Los valores listados en la tabla son los valores críticos de T para N especificada (columna
izquierda) y el nivel alfa (encabezado de columna). Para ser significativa, Tobt ≤ Tcrít.

Nivel de significancia para una prueba de una cola

0.05 0.025 0.01 0.005


Nivel de significancia para una prueba de dos colas

N 0.10 0.05 0.02 0.01


5 0 - - -

6 2 0 - -

7 3 2 0 -

8 5 3 1 0

9 8 5 3 1

10 10 8 5 3

11 13 10 7 5

12 17 13 9 7

13 21 17 12 9

14 25 21 15 12

15 30 25 19 15

16 35 29 23 19

17 41 34 27 23

18 47 40 32 27

127
19 53 46 37 32

Nivel de significancia para una prueba de una cola

0.05 0.025 0.01 0.005


Nivel de significancia para una prueba de dos colas

N 0.10 0.05 0.02 0.01


20 60 52 43 37

21 67 58 49 42

22 75 65 55 48

23 83 73 62 54

24 91 81 69 61

25 100 89 76 68

26 110 98 84 75

27 119 107 92 83

28 130 116 101 91

29 140 126 110 100

30 151 137 120 109

31 163 147 130 118

32 175 159 140 128

33 187 170 151 138

34 200 182 162 148

35 213 195 173 159

36 227 208 185 171

37 241 221 198 182

128
38 256 235 211 194

Nivel de significancia para una prueba de una cola

0.05 0.025 0.01 0.005


Nivel de significancia para una prueba de dos colas

N 0.10 0.05 0.02 0.01


39 271 249 224 207

40 286 264 238 220

41 302 279 252 233

42 319 294 266 247

43 336 310 281 261

44 353 327 296 276

45 371 343 312 291

46 389 361 328 307

47 407 378 345 322

48 426 396 362 339

49 446 415 379 355

50 466 434 397 373

129
Ejemplo 1: A una muestra aleatoria de
15 estudiantes de enfermería se les
aplicó un test para medir su nivel de
autoritarismo con los siguientes
resultados. Pruebe la hipótesis nula
de que la Mediana de la calificación
para la población muestreada es de
100 con un nivel de significación  =
0.05.

Estudiante Calificación
1 75
2 90
3 85
4 110
5 115
6 95
7 132
8 74
9 82
10 104
11 88
12 124

Solución:

Se plantean las hipótesis:

Ho: Md = 100

HA: Md  100

Se trata de un problema bilateral (de dos colas o extremos).

A continuación se elabora de nueva cuenta la tabla pero agregamos los


valores de las diferencias y las jerarquías:

130
Estudiante Calificación di = xi - Md Jerarquía de Jerarquía
di asignada del
di
1 75 -25 13 –13
2 90 -10 5 –5
3 85 -15 8.5 –8.5
4 110 10 5 5
5 115 15 8.5 8.5
6 95 -5 3 –3
7 132 32 15 –15
8 74 -26 14 –14
9 82 -18 10 –10
10 104 4 2 2
11 88 -12 7 –7
12 124 24 11.5 11.5
13 110 10 5 5
14 76 -24 11.5 –11.5
15 98 -2 1 –1

Se suman los valores de las jerarquías positivas y dan el valor de T+:

5+8.5+2+11.5+5= 32 T+=32

Se suman los negativos y dan el valor de T-:

T- = 88

Se toma el valor menor entre T+ o T- como Tc:

Tc = 32

Se busca en la tabla de Wilcoxon el valor de T T: con n = 15 y  = 0.05 para


una prueba de dos colas y se tiene en la tabla que TT = 25

Se compara el valor de Tc con TT:

Tc = 32 TT = 25

131
Tc  TT

De acuerdo a la regla de decisión: Se rechaza Ho si Tc  al valor de TT.

Como Tc es mayor de TT se acepta Ho

Conclusión: Hay evidencia suficiente para suponer que la Mediana es de


100.

Ejemplo 2: Se encontró que el


ingreso familiar por mes de 8
familias de estudiantes fue
5400; 7300; 10000; 11500;
6800; 11200; 6500; 7900
pesos. Pruebe la hipótesis del
investigador de que la Mediana
del ingreso familiar mensual es
inferior a 7000 pesos. Use la prueba de Wilcoxon para demostrar si
se acepta o no la hipótesis del investigador. Use  = 0.05.

Se plantean las Hipótesis:

Ho: Md  7000

HA: Md  7000

Se trata de una prueba unilateral (una cola o extremo).

132
Familia No. Ingreso di = xi - Md Jerarquía Jerarquía
de di asignada
de di

1 5400 -1600 5 -5

2 7300 300 2 2

3 10000 3000 6 6

4 11500 4500 8 8

5 6800 -200 1 -1

6 11200 4200 7 7

7 6500 -500 3 -3

8 7900 900 4 4
Se suman los valores de las jerarquías positivas y dan el valor de T+:
T+=27
Se suman los negativos y dan el valor de T-:
T- = 9
Se toma el valor de T+ como Tc:
Tc = 27
Se busca en la tabla de Wilcoxon el valor de T T: con n = 8 y  = 0.05 para
una prueba de una cola y se tiene en la tabla que TT = 5
Se compara el valor de Tc con TT:
Tc = 27 TT = 5
De acuerdo a la regla de decisión: Se rechaza Ho si Tc  al valor de TT.
Como Tc es mayor de TT se acepta Ho

Conclusión: Hay evidencia suficiente para suponer que la Mediana es mayor


o igual a 7000.

133
Prueba de Wilcoxon muestras apareadas:

La prueba de Wilcoxon es el sustituto ideal para la prueba t de student


cuando para muestras relacionadas cuando no se cumple el criterio de
normalidad o la variable dependiente tiene un nivel de medida ordinal.
Aunque se trata de un contraste para dos grupos, generalmente se refiere
a casos en los que tenemos dos mediciones o momentos de registro para
un mismo grupo de sujetos. El objetivo es determinar si el promedio de las
puntuaciones de la variable dependiente difiere entre ambos registros. Las
hipótesis se efectúan sobre las medianas de ambas poblaciones:
Bilateral: Ho: Md1 = Md2 ; HA: Md1  Md2
Unilaterales: Ho: Md1  Md2 ; HA: Md1  Md2
Ho: Md1  Md2 ; HA: Md1  Md2
O bien, un planteamiento muy usado es el siguiente:
Ho: D = 0 (no hubo cambio entre ambas mediciones)
HA: D  0 (para indicar que hubo un cambio entre ambas mediciones)
D: diferencia de la media poblacional
Procedimiento:
1) Se plantean las hipótesis: nula y alternativa.
2) Se obtienen las diferencias di en valor absoluto entre los valores antes y
después, o en las dos ocasiones para cada sujeto. O bien, dadas dos
muestras A y B de tamaño n de un experimento (muestras apareadas) se
calculan las diferencias (XA – XB) para cada uno de los n pares. Pero
recordando que diferencias son positivas y qué diferencias son negativas.
3) Las diferencias iguales a cero deben eliminarse, con lo que se reduce el
número de pares n para el análisis.
4) Se ordenan de menor a mayor los valores absolutos de las diferencias
no nulas y se asignan rangos. Esta ordenación consiste en asignar el orden
1 (rango) a la diferencia más pequeña, el orden 2 a la siguiente diferencia y
así sucesivamente hasta terminar la ordenación de las diferencias.

134
5) Si sucediera que el valor absoluto de dos diferencias fuese el mismo,
entonces se asigna a ambas el promedio aritmético de los valores que se
les habría asignado si hubieran sido distintas.
6) Se determina la suma de los rangos positivos R(+) y negativos R(-) de las
diferencias positivas o negativas respectivamente. Para lo cual, tomando en
cuenta el signo de las diferencias, deberán sumarse por un lado todos los
valores de orden (rango) positivo en R+, y los valores de orden negativo en
R-. Para saber si R+ y R- son correctas se debe cumplir con la siguiente
condición:
(R+) + (R-) = n(n+1)/2
7) Se obtiene la estadística de prueba Wilcoxon dependiendo de la
naturaleza de la hipótesis alternativa. Para una prueba bilateral (dos colas:
  o ): la que haya salido como menor de las dos T+ o T- se toma como el
valor del estadístico de prueba Tc. Cuando en la hipótesis alternativa
unilateral se plantee que la media verdadera de la población es menor que
la media hipotética (  o), un valor suficientemente pequeño de T+ causa
el rechazo de Ho y T+ es la estadística de prueba que se toma como Tc.
Cuando en la hipótesis alternativa unilateral se plantea que la media
verdadera de la población es mayor que la media hipotética (  o), un
valor suficientemente pequeño de T- causa el rechazo de Ho y T- es la
estadística de prueba.
8) Se saca de la tabla de Wilcoxon el valor de TT de acuerdo al grado de
significación deseado y dependiendo de si se trata de un problema de dos
colas o una sola.
9) Se comparan Tc con TT con la siguiente Regla de Decisión:
“Si el valor calculado de T: Tc es menor o igual que el valor teórico (de las
tablas) se rechaza la hipótesis nula”.

135
Ejemplo 1: Como parte de una
investigación sobre el
comportamiento de la memoria
humana, un psicólogo pidió a
15 colegialas hablar sobre “mi
día en la escuela”. A cada chica
se le preguntó entonces para
registrar el número de veces
que ella pensó había usado la
palabra “agradable” durante este período. La siguiente tabla da sus
respuestas junto con los valores verdaderos. Usa la prueba de
Wilcoxon para investigar si las escolares tienden a subestimar o
sobreestimar la frecuencia con la que utilizan una palabra en
particular en una descripción verbal. Usa un nivel de significancia del
5 %.
Planteamiento de hipótesis:
Ho: D = 0
HA: D (real-registrado)  0
Colegiala Valor Valor di = real - Jerarquí Jerarquía
real registrado registrado a de |di| asignada
por ellas del |di|
A 12 9 3 7 7
B 20 21 -1 2.5 -2.5
C 1 3 -2 5 -5
D 8 14 -6 13 -13
E 0 4 -4 10.5 -10.5
F 12 12 0 Se anula
G 12 16 -4 10.5 -10.5
H 17 14 3 7 7
I 6 5 1 2.5 2.5
J 5 9 -4 10.5 -10.5
K 24 20 4 10.5 10.5
L 23 16 7 14 14

136
M 10 11 -1 2.5 -2.5
N 18 17 1 2.5 2.5
O 16 19 -3 7 -7
Totales: T+ = 43.5 T- = 61.5
Para comprobar que son correctas, se debe cumplir que:
(R+) + (R-) = n(n+1)/2
43.5 + 61.5 = 105
14 (14+ 1) /2 = (14) (15)/2 = 210/2 = 105
Estadística de prueba:
Se toma el valor menor entre T+ y T- por ser bilateral. Se toma como Tc el
valor de T+ de 43.5.
Tc = 43.5
Se obtiene de la tabla de Wilcoxon el valor de T T con  = 0.05 y n sería el
total de pares de datos menos los anulados: n = 15-1 = 14
TT= 21
Se compara el valor de Tc con T T de acuerdo con la regla de decisión: “Si Tc
es menor o igual a TT se rechaza Ho”.
Como Tc es mayor que TT se acepta Ho.
Conclusión: Hay evidencia suficiente para suponer que las chichas no
tienden a subestimar o sobreestimar la frecuencia con la que cada una
utiliza la palabra “agradable.”

Ejemplo 2: Los datos


corresponden a una muestra de 8
pacientes varones de 45 a 55 años
de edad. Son lecturas de colesterol
total tomadas tras 12 horas de
ayuno y repetida una hora después
de comer. ¿Hubo un cambio

137
significativo de los niveles de colesterol después de la comida?
Considerar  = 0.05.

Planteamiento de hipótesis:
Ho:  = 0 (no hubo cambio entre ambas mediciones).
HA: Hubo un cambio entre ambas mediciones: D  0

Paciente Ayuno Después di= a - d Jerarquía Jerarquía


de |di| asignada
del |di|

1 180 185 -5 1 -1

2 210 225 -15 4 -4

3 195 215 -20 5 -5

4 220 245 -25 6 -6

5 210 200 10 2.5 2.5

6 190 220 -30 7 -7

7 225 235 -10 2.5 -2.5

8 215 250 -35 8 -8


Totales: T+= 2.5 T- = 33.5
Comprobando: n (n+1)/2 debe ser igual a la suma de
T+ + T- = 2.5 + 33.5 = 36
n (n + 1) / 2 = 8 (8+1) / 2 = 8 (9)/2 = 72/2 = 36
a) Como es bilateral se toma la que sea menor entre T+ o T- , en este caso
se toma T+ como estadística de prueba y tenemos que: Tc = 2.5
Este valor se comprara con el T T obtenido de la tabla de Wilcoxon con  =
0.05 para dos colas y n= 8
TT = 3
Se comparan con la regla de decisión siguiente: “Si Tc es menor o igual que
TT se rechaza Ho.”

138
Como Tc = 2.5 y es menor que TT = 3 se rechaza Ho.
Conclusión: si hay un cambio del colesterol después de la comida.

6.5. Prueba de Mann Whitney

La prueba U de Mann-Whitney sirve para probar hipótesis acerca de dos


medias de muestras independientes cuando los datos son de tipo ordinal.
La prueba U de Mann-Whitney está diseñada para determinar si dos
muestras se han obtenido de la misma población. Esta prueba se usa como
alternativa para la prueba t para medias con muestras pequeñas. La prueba
U de Mann-Whitney se usa para encontrar si dos muestras independientes
proceden de poblaciones simétricas que tienen la misma media o mediana.
La prueba se usa cuando no se puede verificar la suposición de dos
poblaciones normales. Los datos deben estar medidos al menos en una
escala ordinal, haciendo que esta prueba sea útil para datos ordinales o
categóricos.

La situación clásica de los diseños de grupo de dos muestras


independientes lo constituye el llamado grupo control y grupo
experimental, primero se elige una población a partir de la cual se extrae
una muestra de sujetos al azar y de igual forma se asignan a los grupos. La
base para legitimar la equivalencia de los grupos es precisamente la
aleatoriedad.

Procedimiento:

Se plantean las hipótesis nula y alternativa:


Para pruebas Unilaterales:
A) Ho: M1  M2 HA: M1  M2

139
O bien:
B) Ho: M1  M2 HA: M1  M2

Para pruebas bilaterales:

Ho: M1 = M2 HA: M1  M2

2) Se ordenan los datos para cada grupo de menor a mayor.

3) Se asignan las jerarquías como si se tratara de una sola muestra en


orden creciente de magnitud, es decir, de menor a mayor. En caso de haber
empate en las jerarquías, se asigna un promedio de los rangos que ocupan
conjuntamente.

Si hay una diferencia considerable entre las medias de las dos poblaciones,
es probable que la mayoría de los rangos inferiores vaya con los valores de
una muestra, mientras que es probable que la mayor parte de los rangos
superiores vaya con los valores de la otra muestra.

4) Se aplican las fórmulas:

n1 (n1 +1)
U obt =n1 n2 + −R1
2

n2 (n2 +1)
U obt =n1 n2 + −R 2
2

Donde:

n1: número de puntajes en el grupo 1

n2: número de puntajes en el grupo 2

R1: la suma de los rangos o jerarquías del grupo 1

140
R2: la suma de los rangos del grupo 2

Si el tamaño de la muestra en cualquiera de los grupos es mayor que 20 no


puede ser usado esta fórmula ni la tabla de Mann Whitney. De los valores
obtenidos de U a través de las fórmulas U obt el que sea más pequeño lo
llamaremos U (U obtenida) y al valor mayor obtenido de U (ya sea U 1 o U2)
lo llamaremos U’.

4) Se obtiene la UT de la tabla de Mann Whitney dependiendo de si se trata


de una o dos colas, con , para prueba bilateral o prueba unilateral, n y m.

5) Se compara U con UT y se acepta o rechaza Ho con la regla de Decisión


estadística correspondiente (ya sea si se trata de prueba bilateral o
unilateral).

A) Para: Ho: M1  M2 HA: M1  M2

Se rechaza Ho si el valor de U obt es menor o igual que el valor crítico de U T


(de la tabla).

B) Para: Ho: M1  M2 HA: M1  M2

Se rechaza Ho si el valor de U’obt es mayor o igual que U’T

C) Para prueba bilateral con: Ho: M1 = M2 HA: M1  M2

Se rechaza Ho si el valor de U obt es menor o igual que el valor de U T, o el


valor U’obt es mayor o igual que U’T.

En general: se rechaza Ho (hipótesis nula) si:

Uobt  UT

U’obt  U’T

141
Ejemplo1: Se realizó un estudio para
examinar el efecto de una fórmula a
base de hierbas para el insomnio.
Un grupo de 13 voluntarios fue
reclutado y asignado al azar para
tomar ya sea la fórmula a base de
hierbas o un placebo. En la
siguiente tabla se muestran las
horas de sueño que cada persona tuvo la noche que él o ella tomó la
fórmula o el placebo. Se quiere saber si hay diferencias entre los
grupos. Considerar  = 0.01.

Grupo placebo Grupo de


Horas dormidas fórmula
1 Horas dormidas
2

3.8 4.6

5.2 6.2

6.7 3.9

3.7 5.2

4.3 5.4

2.1 4.1

142
5.0

Planteamiento de las hipótesis:

Ho: M1 = M2

Ha: M1  M2

Grupo Jerarquí Grupo de Jerarquía


placebo a fórmula
Horas Horas
dormidas dormidas
1 2

2.1 1 3.9 4

3.7 2 4.1 5

3.8 3 4.6 7

4.3 6 5.2 9.5

5.0 8 5.4 11

5.2 9.5 6.2 12

6.7 13

Totales: R1 = 42.5 R2= 48.5

Se calculan Uobt: U1 y U2

n1 (n1 +1)
U obt =n1 n2 + −R1
2

n2 (n2 +1)
U obt =n1 n2 + −R 2
2

143
Uobt = (7) (6) + 7 (8)/2 – 42.5 = 42 + 28 – 42.5 = 27.5

Uobt. = 27.5

Uobt = (7) (6) + 6 (7)/2 – 48.5 = 42 + 21 – 48.5 = 14.5

Uobt. =14.5

De las U obtenidas se tiene que la menor será U obt = 14.5 y la mayor


será U’obt = 27.5

Se saca de las tablas los valores de U T y U’T con  = 0.01 para dos colas
y n1 = 7 y n2 = 6: UT = 3 y U’T = 39

Se plantea la regla de decisión: Se rechaza Ho si el valor de U obt es


menor o igual que el valor de U T, o el valor U’obt es mayor o igual que
U’T.

Como Uobt. =14.5 es mayor que UT = 3 y U’obt = 27.5 es menor que U’T
= 39 no es posible rechazar la hipótesis nula.

Conclusión: no hay diferencia significativa entre las horas de sueño del


grupo placebo y el grupo que tomó la infusión de hierbas.

Ejemplo 2: Un psicólogo
interesado en el desarrollo de la
destreza manual preparó una tarea
de manipulación por bloques para
niños de 3 años de edad. Se
obtuvo una muestra de 13 niños, 5
niños y 8 niñas. El psicólogo
registró la cantidad de tiempo (en
segundos) requerido por cada niño
para organizar los bloques en un patrón específico. El psicólogo

144
quiere saber si existen diferencias entre ambos grupos. Utilizar un
nivel de significancia de 0.05. Los datos son los siguientes:

Niños: 23, 18, 29, 42, 21

Niñas: 37, 56, 39, 34, 26, 104, 48, 25

Se plantean las hipótesis nula y alternativa:

Se trata de una prueba bilateral:

Ho: M1 = M2 (no hay diferencias entre los grupos)

HA: M1  M2 ( hay diferencias entre los grupos)

Se ordenan los datos para cada grupo de menor


Tiempos Tiempos
a mayor y se asignan las jerarquías como si se
Niños Niñas
tratara de una sola muestra en orden creciente
1 2
de magnitud:
18 25
21 26
Tiempos Jerarquía Tiempos Jerarquía 23 34
Niños Niñas 29 37
1 2
42 39
18 1 25 4 48
56
21 2 26 5
104
23 3 34 7

29 6 37 8

42 10 39 9

48 11

56 12

104 13
Se sacan los totales de las jerarquías o rangos de cada grupo:
145
R1: total de rangos del grupo 1 ( en este caso el de los niños: n 1= 5)

R1= 1+2+3+6+10 = 22 R1= 22

R2: total de rangos del grupo 2 (en este caso el de las niñas: n2= 8).

R2 = 4+5+7+8+9+11+12+13= 69 R2= 69

Se aplican las fórmulas:

n1 (n1 +1)
U obt =n1 n2 + −R1
2

n2 (n2 +1)
U obt =n1 n2 + −R 2
2

Donde:

n1: número de puntajes en el grupo 1 = 5

n2: número de puntajes en el grupo 2 = 8

R1: la suma de los rangos o jerarquías del grupo 1 = 22

R2: la suma de los rangos del grupo 2 = 69

5 (5+1)
U 1=(5)(8)+ −22 = 40 + 15 – 22 = 33
2

8(8+1)
U 2=(5)(8)+ −69 = 40 + 36 – 69 = 7
2

De estos valores obtenidos, llamaremos U obt al menor en este caso 7, y


llamaremos U’obt al mayor en este caso 33.

De la tabla de Mann Whitney sacamos el valor de U T y U’T con n1 = 5, n2


= 8, = 0.05 para dos colas:

UT = 6 U’T = 34

Se comparan los valores obtenidos con los de la tabla con la siguiente


regla de decisión para dos colas (bilateral):

146
Se rechaza Ho si el valor de Uobt es menor que el valor de UT, o el valor
U’obt es mayor que U’T

Los obtenidos por cálculos son: Uobt = 7 U’obt = 33

Los valores críticos de la tabla son: UT = 6 U’T = 34

Como Uobt (7) es mayor que UT (6 ) no es posible rechazar Ho. Y como

U’obt (33) es menor que U’T (34) no se puede rechazar Ho.

Conclusión: no es posible considerar que haya diferencias entre los


niños y niñas de 3 años en la prueba de destreza manual.

147
Anexos

148
TABLA: A: TABLA DE DISTRIBUCIÓN BINOMIAL
Probabilidad de obtener x- éxitos

P (X= x) = ( nx) p (1− p)


x n−x

n x p 0.01 0.05 0.10 0.15 0.20 0.25 0.30 0.33 0.35 0.40 0.45 0.49 0.50
2 0 0.9801 0.9025 0.8100 0.7225 0.6400 0.5625 0.4900 0.4449 0.4225 0.3600 0.3025 0.2601 0.2500
1 0.0198 0.0950 0.1800 0.2550 0.3200 0.3750 0.4200 0.4442 0.4550 0.4800 0.4950 0.4998 0.5000
2 0.0001 0.0025 0.0100 0.0225 0.0400 0.0625 0.0900 0.1109 0.1225 0.1600 0.2025 0.2401 0.2500

3 0 0.9703 0.8574 0.7290 0.6141 0.5120 0.4219 0.3430 0.2967 0.2746 0.2160 0.1664 0.1327 0.1250
1 0.0294 0.1354 0.2430 0.3251 0.3840 0.4219 0.4410 0.4444 0.4436 0.4320 0.4084 0.3823 0.3750
2 0.0003 0.0071 0.0270 0.0574 0.0960 0.1406 0.1890 0.2219 0.2389 0.2880 0.3341 0.3674 0.3750
3 0.0000 0.0001 0.0010 0.0034 0.0080 0.0156 0.0270 0.0369 0.0429 0.0640 0.0911 0.1176 0.1250

4 0 0.9606 0.8145 0.6561 0.5220 0.4096 0.3164 0.2401 0.1979 0.1785 0.1296 0.0915 0.0677 0.0625
1 0.0388 0.1715 0.2916 0.3685 0.4096 0.4219 0.4116 0.3953 0.3845 0.3456 0.2995 0.2600 0.2500
2 0.0006 0.0135 0.0486 0.0975 0.1536 0.2109 0.2646 0.2960 0.3105 0.3456 0.3675 0.3747 0.3750
3 0.0000 0.0005 0.0036 0.0115 0.0256 0.0469 0.0756 0.0985 0.1115 0.1536 0.2005 0.2400 0.2500
4 0.0000 0.0000 0.0001 0.0005 0.0016 0.0039 0.0081 0.0123 0.0150 0.0256 0.0410 0.0576 0.0625

5 0 0.9510 0.7738 0.5905 0.4437 0.3277 0.2373 0.1681 0.1320 0.1160 0.0778 0.0503 0.0345 0.0313
1 0.0480 0.2036 0.3281 0.3915 0.4096 0.3955 0.3602 0.3295 0.3124 0.2592 0.2059 0.1657 0.1563
2 0.0010 0.0214 0.0729 0.1382 0.2048 0.2637 0.3087 0.3291 0.3364 0.3456 0.3369 0.3185 0.3125
3 0.0000 0.0011 0.0081 0.0244 0.0512 0.0879 0.1323 0.1643 0.1811 0.2304 0.2757 0.3060 0.3125
4 0.0000 0.0000 0.0005 0.0022 0.0064 0.0146 0.0284 0.0410 0.0488 0.0768 0.1128 0.1470 0.1563
5 0.0000 0.0000 0.0000 0.0001 0.0003 0.0010 0.0024 0.0041 0.0053 0.0102 0.0185 0.0282 0.0313

149
n x p 0.01 0.05 0.10 0.15 0.20 0.25 0.30 0.33 0.35 0.40 0.45 0.49 0.50
6 0 0.9415 0.7351 0.5314 0.3771 0.2621 0.1780 0.1176 0.0881 0.0754 0.0467 o.o277 0.0176 0.0156
1 0.0571 0.2321 0.3543 0.3993 0.3932 0.3560 0.3025 0.2638 0.2437 0.1866 0.1359 0.1014 0.0938
2 0.0014 0.0305 0.0984 0.1762 0.2458 0.2966 0.3241 0.3292 0.3280 0.3110 0.2780 0.2436 0.2344
3 0.0000 0.0021 0.0146 0.0415 0.0819 0.1318 0.1852 0.2191 0.2355 0.2765 0.3052 0.3121 0.3125
4 0.0000 0.0001 0.0012 0.0055 0.0154 0.0330 0.0595 0.0821 0.0951 0.1382 0.1861 0.2249 0.2344
5 0.0000 0.0000 0.0001 0.0004 0.0015 0.0044 0.0102 0.0164 0.0205 0.0369 0.0609 0.0864 0.0938
6 0.0000 0.0000 0.0000 0.0000 0.0001 0.0002 0.0007 0.0014 0.0018 0.0041 0.0083 0.0138 0.0156

7 0 0.9321 0.6983 0.4783 0.3206 0.2097 0.1335 0.0824 0.0587 0.0490 0.0280 0.0152 0.0090 0.0078
1 0.0659 0.2573 0.3720 0.3960 0.3670 0.3115 0.2471 0.2053 0.1848 0.1306 0.0872 0.0604 0.0547
2 0.0020 0.0406 0.1240 0.2097 0.2753 0.3115 0.3177 0.3074 0.2985 0.2613 0.2140 0.1740 0.1651
3 0.0000 0.0036 0.0230 0.0617 0.1147 0.1730 0.2269 0.2558 0.2679 0.2903 0.2918 0.2786 0.2734
4 0.0000 0.0002 0.0026 0.0109 0.0287 0.0577 0.0972 0.1277 0.1442 0.1935 0.2388 0.2676 0.2734
5 0.0000 0.0000 0.0002 0.0012 0.0043 0.0115 0.0250 0.0383 0.0466 0.0774 0.1172 0.1543 0.1641
6 0.0000 0.0000 0.0000 0.0001 0.0004 0.0013 0.0036 0.0064 0.0084 0.0172 0.0320 0.0494 0.0547
7 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0002 0.0005 0.0006 0.0016 0.0037 0.0068 0.0078

8 0 0.9227 0.6634 0.4305 0.2725 0.1678 0.1001 0.0576 0.0392 0.0319 0.0168 0.0084 0.0046 0.0039
1 0.0746 0.2793 0.3826 0.3847 0.3355 0.2670 0.1977 0.1565 0.1373 0.0896 0.0548 0.0352 0.0313
2 0.0026 0.0515 0.1488 0.2376 0.2936 0.3115 0.2965 0.2734 0.2587 0.2090 0.1569 0.1183 0.1094
3 0.0001 0.0054 0.0331 0.0839 0.1468 0.2076 0.2541 0.2730 0.2786 0.2787 0.2568 0.2273 0.2188
4 0.0000 0.0004 0.0046 0.0185 0.0459 0.0865 0.1361 0.1704 0.1875 0.2322 0.2627 0.2730 0.2734
5 0.0000 0.0000 0.0004 0.0026 0.0092 0.0231 0.0467 0.0680 0.0808 0.1239 0.1719 0.2098 0.2188
6 0.0000 0.0000 0.0000 0.0002 0.0011 0.0038 0.0100 0.0170 0.0217 0.0413 0.0703 0.1008 0.1094
7 0.0000 0.0000 0.0000 0.0000 0.0001 0.0004 0.0012 0.0024 0.0033 0.0079 0.0164 0.0277 0.0313
8 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0002 0.0002 0.0007 0.0017 0.0033 0.0039

150
n x p 0.01 0.05 0.10 0.15 0.20 0.25 0.30 0.33 0.35 0.40 0.45 0.49 0.50

9 0 0.9135 0.6302 0.3874 0.2316 0.1342 0.0751 0.0404 0.0261 0.0207 0.0101 0.0046 0.0023 0.0020
1 0.0830 0.2985 0.3874 0.3679 0.3020 0.2253 0.1556 0.1174 0.1004 0.0605 0.0339 0.0202 0.0176
2 0.0034 0.0629 0.1722 0.2597 0.3020 0.3003 0.2668 0.2345 0.2162 0.1612 0.1110 0.0776 0.0703
3 0.0001 0.0077 0.0446 0.1069 0.1762 0.2336 0.2668 0.2731 0.2716 0.2508 0.2119 0.1739 0.1641
4 0.0000 0.0006 0.0074 0.0283 0.0661 0.1168 0.1715 0.2045 0.2194 0.2508 0.2600 0.2506 0.2461
5 0.0000 0.0000 0.0008 0.0050 0.0165 0.0339 0.0735 0.1021 0.1181 0.1672 0.2128 0.2408 0.2461
6 0.0000 0.0000 0.0001 0.0006 0.0028 0.0087 0.0210 0.0340 0.0424 0.0743 0.1160 0.1542 0.1641
7 0.0000 0.0000 0.0000 0.0000 0.0003 0.0012 0.0039 0.0073 0.0098 0.0212 0.0407 0.0635 0.0703
8 0.0000 0.000 0.0000 0.0000 0.0000 0.0001 0.0004 0.0009 0.0013 0.0035 0.0083 0.0153 0.0176
9 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0001 0.0003 0.0008 0.0016 0.0020

10 0 0.9044 0.5987 0.3487 0.1969 0.1074 0.0563 0.0282 0.0174 0.0135 0.0060 0.0025 0.0012 0.0010
1 0.0914 0.3151 0.3874 0.3474 0.2684 0.1877 0.1211 0.0870 0.0725 0.0403 0.0207 0.0114 0.0098
2 0.0042 0.0746 0.1937 0.2759 0.3020 0.2816 0.2335 0.1955 0.1757 0.1209 0.0763 0.0494 0.0439
3 0.0001 0.0105 0.0574 0.1298 0.2013 0.2503 0.2668 0.2603 0.2522 0.2150 0.1665 0.1267 0.1172
4 0.0000 0.0010 0.0112 0.0401 0.0881 0.1460 0.2001 0.2274 0.2377 0.2508 0.2384 0.2130 0.2051
5 0.0000 0.0001 0.0015 0.0085 0.0264 0.0584 0.1029 0.1362 0.1536 0.2007 0.2340 0.2456 0.2461
6 0.0000 0.0000 0.0001 0.0012 0.0055 0.0162 0.0368 0.0567 0.0689 0.1115 0.1596 0.1966 0.2051
7 0.0000 0.0000 0.0000 0.0001 0.0008 0.0031 0.0090 0.0162 0.0212 0.0425 0.0746 0.1080 0.1172
8 0.0000 0.0000 0.0000 0.0000 0.0001 0.0004 0.0014 0.0030 0.0043 0.0106 0.0229 0.0389 0.0439
9 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0003 0.0005 0.0016 0.0042 0.0083 0.0098
10 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0003 0.0008 0.0010

151
n = 11
x 0.05 0.10 0.15 0.20 0.25 0.30 0.35 0.40 0.45 0.50
0 0.5688 0.3138 0.1673 0.0859 0.0422 0.0198 0.0088 0.0036 0.0014 0.0005
1 0.3293 0.3835 0.3248 0.2362 0.1549 0.0932 0.0518 0.0266 0.0125 0.0054
2 0.0867 0.2131 0.2866 0.2953 0.2581 0.1998 0.1395 0.0887 0.0513 0.0269
3 0.0137 0.0710 0.1517 0.2215 0.2581 0.2568 0.2254 0.1774 0.1259 0.0806
4 0.0014 0.0158 0.0536 0.1107 0.1721 0.2201 0.2428 0.2365 0.2060 0.1611
5 0.0001 0.0025 0.0132 0.0388 0.0803 0.1231 0.1830 0.2207 0.2360 0.2256
6 0.0000 0.0003 0.0023 0.0097 0.0268 0.0566 0.0985 0.1471 0.1931 0.2256
7 0.0000 0.0000 0.0003 0.0017 0.0064 0.0173 0.0379 0.0701 0.1128 0.1611
8 0.0000 0.0000 0.0000 0.0002 0.0011 0.0037 0.0102 0.0234 0.0462 0.0806
9 0.0000 0.0000 0.0000 0.0000 0.0001 0.0005 0.0018 0.0052 0.0126 0.0269
10 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0002 0.0007 0.0021 0.0054
11 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0002 0.0005

n = 12
0 0.5404 0.2824 0.1422 0.0687 0.0317 0.0138 0.0057 0.0022 0.0008 0.0002
1 0.3413 0.3766 0.3012 0.2062 0.1267 0.0712 0.0368 0.0174 0.0075 0.0029
2 0.0988 0.2301 0.2924 0.2835 0.2323 0.1678 0.1088 0.0639 0.0339 0.0161
3 0.0173 0.0852 0.1720 0.2362 0.2581 0.2397 0.1954 0.1419 0.0923 0.0537
4 0.0021 0.0213 0.0683 0.1329 0.1936 0.2311 0.2367 0.2128 0.1700 0.1208
5 0.0002 0.0038 0.0193 0.0532 0.1032 0.1585 0.2039 0.2270 0.2225 0.1934
6 0.0000 0.0005 0.0040 0.0155 0.0401 0.0792 0.1281 0.1766 0.2124 0.2256
7 0.0000 0.0000 0.0006 0.0033 0.0115 0.0291 0.0591 0.1009 0.1489 0.1934
8 0.0000 0.0000 0.0001 0.0005 0.0024 0.0078 0.0199 0.0420 0.0762 0.1208
9 0.0000 0.0000 0.0000 0.0001 0.0004 0.0015 0.0048 0.0125 0.0277 0.0537
10 0.0000 0.0000 0.0000 0.0000 0.0000 0.0002 0.0008 0.0025 0.0068 0.0161
11 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0003 0.0010 0.0029
12 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0002

152
n = 13
x 0.05 0.10 0.15 0.20 0.25 0.30 0.35 0.40 0.45 0.50
0 0.5133 0.2542 0.1209 0.0550 0.0238 0.0097 0.0037 0.0013 0.0004 0.0001
1 0.3512 0.3672 0.2774 0.1787 0.1029 0.0540 0.0259 0.0113 0.0045 0.0016
2 0.1109 0.2448 0.2937 0.2680 0.2059 0.1388 0.0836 0.0453 0.0220 0.0095
3 0.0214 0.0997 0.1900 0.2457 0.2517 0.2181 0.1651 0.1107 0.0660 0.0349
4 0.0028 0.0277 0.0838 0.1535 0.2097 0.2337 0.2222 0.1845 0.1350 0.0873
5 0.0003 0.0055 0.0266 0.0691 0.1258 0.1803 0.2154 0.2214 0.1989 0.1571
6 0.0000 0.0008 0.0063 0.0230 0.0559 0.1030 0.1546 0.1968 0.2169 0.2095
7 0.0000 0.0001 0.0011 0.0058 0.0186 0.0442 0.0833 0.1312 0.1775 0.2095
8 0.0000 0.0000 0.0001 0.0011 0.0047 0.0142 0.0336 0.0656 0.1089 0.1571
9 0.0000 0.0000 0.0000 0.0001 0.0009 0.0034 0.0101 0.0243 0.0495 0.0873
10 0.0000 0.0000 0.0000 0.0000 0.0001 0.0006 0.0022 0.0065 0.0162 0.0349
11 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0003 0.0012 0.0036 0.0095
12 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0005 0.0016
13 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001
n = 14
0 0.4877 0.2288 0.1028 0.0440 0.0178 0.0068 0.0024 0.0008 0.0002 0.0001
1 0.3593 0.3559 0.2539 0.1539 0.0832 0.0407 0.0181 0.0073 0.0027 0.0009
2 0.1229 0.2570 0.2912 0.2501 0.1802 0.1134 0.0634 0.0317 0.0141 0.0056
3 0.0259 0.1142 0.2056 0.2501 0.2402 0.1943 0.1366 0.0845 0.0462 0.0222
4 0.0037 0.0078 0.0998 0.1720 0.2202 0.2290 0.2022 0.1549 0.1040 0.0611
5 0.0004 0.0013 0.0352 0.0860 0.1468 0.1963 0.2178 0.2066 0.1701 0.1222
6 0.0000 0.0002 0.0093 0.0322 0.0734 0.1262 0.1759 0.2066 0.2088 0.1833
7 0.0000 0.0000 0.0019 0.0092 0.0280 0.0618 0.1082 0.1574 0.1952 0.2095
8 0.0000 0.0000 0.0003 0.0020 0.0082 0.0232 0.0510 0.0918 0.1398 0.1833
9 0.0000 0.0000 0.0000 0.0003 0.0018 0.0066 0.0183 0.0408 0.0762 0.1222
10 0.0000 0.0000 0.0000 0.0000 0.0003 0.0014 0.0049 0.0136 0.0312 0.0611
11 0.0000 0.0000 0.0000 0.0000 0.0000 0.0002 0.0010 0.0033 0.0093 0.0222
12 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0005 0.0019 0.0056
13 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0002 0.0009
14 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001

153
n = 15
x 0.05 0.10 0.15 0.20 0.25 0.30 0.35 0.40 0.45 0.50
0 0.4633 0.2059 0.0874 0.0352 0.0134 0.0047 0.0016 0.0005 0.0001 0.0000
1 0.3658 0.3432 0.2312 0.1319 0.0668 0.0305 0.0126 0.0047 0.0016 0.0005
2 0.1348 0.2669 0.2856 0.2309 0.1559 0.0916 0.0476 0.0219 0.0090 0.0032
3 0.0307 0.1285 0.2184 0.2501 0.2252 0.1700 0.1110 0.0634 0.0318 0.0139
4 0.0049 0.0428 0.1156 0.1876 0.2252 0.2186 0.1792 0.1268 0.0780 0.0417
5 0.0006 0.0105 0.0449 0.1032 0.1651 0.2061 0.2123 0.1859 0.1404 0.0916
6 0.0000 0.0019 0.0132 0.0430 0.017 0.1472 0.1906 0.2066 0.1914 0.1527
7 0.0000 0.0003 0.0030 0.0138 0.0393 0.0811 0.1319 0.1771 0.2013 0.1964
8 0.0000 0.0000 0.0005 0.0035 0.0131 0.0348 0.0710 0.1181 0.1647 0.1964
9 0.0000 0.0000 0.0001 0.0007 0.0034 0.0116 0.0298 0.0612 0.1048 0.1527
10 0.0000 0.0000 0.0000 0.0001 0.0007 0.0030 0.0096 0.0245 0.0515 0.0916
11 0.0000 0.0000 0.0000 0.0000 0.0001 0.0006 0.0024 0.0074 0.0191 0.0417
12 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0004 0.0016 0.0052 0.0139
13 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0003 0.0010 0.0032
14 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0005
15 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000

n = 16
0 0.4401 0.1853 0.0743 0.0281 0.0100 0.0033 0.0010 0.0003 0.0001 0.0000
1 0.3706 0.3294 0.2097 0.1126 0.0535 0.0228 0.0087 0.0030 0.0009 0.0002
2 0.1463 0.2745 0.2775 0.2111 0.1336 0.0732 0.0353 0.0150 0.0056 0.0018
3 0.0359 0.1423 0.2285 0.2463 0.2079 0.1465 0.0888 0.0468 0.0215 0.0085
4 0.0061 0.0514 0.1311 0.2001 0.2252 0.2040 0.1553 0.1014 0.0572 0.0278
5 0.0008 0.0137 0.0555 0.1201 0.1802 0.2099 0.2008 0.1623 0.1123 0.0667
6 0.0001 0.0028 0.0180 0.0550 0.1101 0.1649 0.1982 0.1983 0.1684 0.1222
7 0.0000 0.0004 0.0045 0.0197 0.0524 0.1010 0.1524 0.1889 0.1969 0.1746
8 0.0000 0.0001 0.0009 0.0055 0.0197 0.0487 0.0923 0.1417 0.1812 0.1964
9 0.0000 0.0000 0.0001 0.0012 0.0058 0.0185 0.0442 0.0840 0.1318 0.1746
10 0.0000 0.0000 0.0000 0.0002 0.0014 0.0056 0.0167 0.0392 0.0755 0.1222
11 0.0000 0.0000 0.0000 0.0000 0.0002 0.0013 0.0049 0.0142 0.0337 0.0667
12 0.0000 0.0000 0.0000 0.0000 0.0000 0.0002 0.0011 0.0040 0.0115 0.0278
13 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0002 0.0008 0.0029 0.0085
14 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0005 0.0018
15 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0002
16 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000

154
n = 17
x 0.05 0.10 0.15 0.20 0.25 0.30 0.35 0.40 0.45 0.50
0 0.4181 0.1668 0.0631| 0.0225 0.0075 0.0023 0.0007 0.0002 0.0000 0.0000
1 0.3741 0.3150 0.1893 0.0957 0.0426 0.0169 0.0060 0.0019 0.0005 0.0001
2 0.1575 0.2800 0.2673 0.1914 0.1136 0.0581 0.0260 0.0102 0.0035 0.0010
3 0.0415 0.1556 0.2359 0.2393 0.1893 0.1245 0.0701 0.0341 0.0144 0.0052
4 0.0076 0.0605 0.1457 0.2093 0.2209 0.1868 0.1320 0.0796 0.0411 0.0182
5 0.0010 0.0175 0.0668 0.1361 0.1914 0.2081 0.1849 0.1379 0.0875 0.0472
6 0.0001 0.0039 0.0236 0.0680 0.1276 0.1784 0.1991 0.1839 0.1432 0.0944
7 0.0000 0.0007 0.0065 0.0267 0.0668 0.1201 0.1685 0.1927 0.1841 0.1484
8 0.0000 0.0001 0.0014 0.0084 0.0279 0.0644 0.1143 0.1606 0.1883 0.1855
9 0.0000 0.0000 0.0003 0.0021 0.0093 0.0276 0.0611 0.1070 0.1540 0.1855
10 0.0000 0.0000 0.0000 0.0004 0.0025 0.0095 0.0263 0.0571 0.1008 0.1484
11 0.0000 0.0000 0.0000 0.0001 0.0005 0.0026 0.0090 0.0242 0.0525 0.0944
12 0.0000 0.0000 0.0000 0.0000 0.0001 0.0006 0.0024 0.0081 0.0215 0.0472
13 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0005 0.0021 0.0068 0.0182
14 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0004 0.0016 0.0052
15 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0003 0.0010
16 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001
17 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000

n = 18
0 0.3972 0.1501 0.0536 0.0180 0.0056 0.0016 0.0004 0.0001 0.0000 0.0000
1 0.3763 0.3002 0.1704 0.0811 0.0338 0.0126 0.0042 0.0012 0.0003 0.0001
2 0.1683 0.2835 0.2556 0.1723 0.0958 0.0458 0.0190 0.0069 0.0022 0.0006
3 0.0473 0.1680 0.2406 0.2297 0.1704 0.1046 0.0547 0.0246 0.0095 0.0031
4 0.0093 0.0070 0.1592 0.2153 0.2130 0.1681 0.1104 0.0614 0.0291 0.0117
5 0.0014 0.0218 0.0787 0.1507 0.1988 0.2017 0.1664 0.1146 0.0666 0.0327
6 0.0002 0.0052 0.0310 0.0816 0.1436 0.1873 0.1941 0.1655 0.1181 0.0708
7 0.0000 0.0010 0.0091 0.0350 0.0820 0.1376 0.1792 0.1892 0.1657 0.1214
8 0.0000 0.0002 0.0022 0.0120 0.0376 0.0811 0.1327 0.1734 0.1864 0.1669
9 0.0000 0.0000 0.0004 0.0033 0.0139 0.0386 0.0794 0.1284 0.1694 0.1855
10 0.0000 0.0000 0.0001 0.0008 0.0042 0.0149 0.0385 0.0771 0.1248 0.1669
11 0.0000 0.0000 0.0000 0.0001 0.0010 0.0046 0.0151 0.0374 0.0742 0.1214
12 0.0000 0.0000 0.0000 0.0000 0.0002 0.0012 0.0047 0.0145 0.0354 0.0708
13 0.0000 0.0000 0.0000 0.0000 0.0000 0.0002 0.0012 0.0045 0.0134 0.0327
14 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0002 0.0011 0.0039 0.0117
15 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0002 0.0009 0.0031
16 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0006
17 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001
18 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000

155
n = 19
x 0.05 0.10 0.15 0.20 0.25 0.30 0.35 0.40 0.45 0.50
0 0.3774 0.1351 0.0456 0.0144 0.0042 0.0011 0.0003 0.0001 0.0000 0.0000
1 0.3774 0.2852 0.1529 0.0685 0.0268 0.0093 0.0029 0.0008 0.0002 0.0000
2 0.1787 0.2852 0.2428 0.1540 0.0803 0.0358 0.0138 0.0046 0.0013 0.0003
3 0.0533 0.1796 0.2428 0.2182 0.1517 0.0869 0.0422 0.0175 0.0062 0.0018
4 0.0112 0.0798 0.1714 0.2182 0.2023 0.1491 0.0909 0.0467 0.0203 0.0074
5 0.0018 0.0266 0.0907 0.1636 0.2023 0.1916 0.1468 0.0933 0.0497 0.0222
6 0.0002 0.0069 0.0374 0.0955 0.1574 0.1916 0.1844 0.1451 0.0949 0.0518
7 0.0000 0.0014 0.0122 0.0443 0.0974 0.1525 0.1844 0.1797 0.1443 0.0961
8 0.0000 0.0002 0.0032 0.0166 0.0487 0.0981 0.1489 0.1797 0.1771 0.1442
9 0.0000 0.0000 0.0007 0.0051 0.0198 0.0514 0.0980 0.1464 0.1771 0.1762
10 0.0000 0.0000 0.0001 0.0013 0.0066 0.0220 0.0528 0.0976 0.1449 0.1762
11 0.0000 0.0000 0.0000 0.0003 0.0018 0.0077 0.0233 0.0532 0.0970 0.1442
12 0.0000 0.0000 0.0000 0.0000 0.0004 0.0022 0.0083 0.0237 0.0529 0.0961
13 0.0000 0.0000 0.0000 0.0000 0.0001 0.0005 0.0024 0.0085 0.0233 0.0518
14 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0006 0.0024 0.0082 0.0222
15 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0005 0.0022 0.0074
16 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0005 0.0018
17 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0001 0.0003
18 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
19 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000

n = 20
0 0.3585 0.1216 0.0388 0.0115 0.0032 0.0008 0.0002 0.0000 0.0000 0.0000
1 0.3774 0.2702 0.1368 0.0576 0.0211 0.0068 0.0020 0.0005 0.0001 0.0000
2 0.1887 0.2852 0.2293 0.1369 0.0669 0.0278 0.0100 0.0031 0.0008 0.0002
3 0.0596 0.1901 0.2428 0.2054 0.1339 0.0716 0.0323 0.0123 0.0040 0.0011
4 0.0133 0.0898 0.1821 0.2182 0.1897 0.1304 0.0738 0.0350 0.0139 0.0046
5 0.0022 0.0319 0.1028 0.1746 0.2023 0.1789 0.1272 0.0746 0.0365 0.0148
6 0.0003 0.0089 0.0454 0.1091 0.1686 0.1916 0.1712 0.1244 0.0746 0.0370
7 0.0000 0.0020 0.0160 0.0545 0.1124 0.1643 0.1844 0.1659 0.1221 0.0739
8 0.0000 0.0004 0.0046 0.0222 0.0609 0.1144 0.1614 0.1797 0.1623 0.1201
9 0.0000 0.0001 0.0011 0.0074 0.0271 0.0654 0.1158 0.1597 0.1771 0.1602
10 0.0000 0.0000 0.0002 0.0020 0.0099 0.0308 0.0686 0.1171 0.1593 0.1762
11 0.0000 0.0000 0.0000 0.0005 0.0030 0.0120 0.0336 0.0710 0.1185 0.1602
12 0.0000 0.0000 0.0000 0.0001 0.0008 0.0039 0.0136 0.0355 0.0727 0.1201
13 0.0000 0.0000 0.0000 0.0000 0.0002 0.0010 0.0045 0.0146 0.0366 0.0739
14 0.0000 0.0000 0.0000 0.0000 0.0000 0.0002 0.0012 0.0049 0.0150 0.0370
15 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0003 0.0013 0.0049 0.0148
16 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0003 0.0013 0.0046
17 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0002 0.0011
18 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0002
19 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
20 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000 0.0000
156
TABLA B: DISTRIBUCIÓN DE PROBABILIDAD
NORMAL ESTÁNDAR.

Áreas bajo la distribución de probabilidad normal estándar entre la


media y valores positivos de z.
Z 0 1 2 3 4 5 6 7 8 9
0.0 0.0000 0.0040 0.0080 0.0120 0.0160 0.0199 0.0239 0.0279 0.0319 0.0359

0.1 0.0398 0.0438 0.0478 0.0517 0.0557 0.0596 0.0636 0.0675 0.0714 0.0753

0.2 0.0793 0.0832 0.0871 0.0910 0.0948 0.0987 0.1026 0.1064 0.1103 0.1141

0.3 0.1179 0.1217 0.1255 0.1293 0.1331 0.1368 0.1406 0.1443 0.1480 0.1517

0.4 0.1554 0.1591 0.1628 0.1664 0.1700 0.1736 0.1772 0.1808 0.1844 0.1879

0.5 0.1915 0.1950 0.1985 0.2019 0.2054 0.2088 0.2123 0.2157 0.2190 0.2224

0.6 0.2257 0.2291 0.2324 0.2357 0.2389 0.2422 0.2454 0.2486 0.2517 0.2549

0.7 0.2580 0.2611 0.2642 0.2673 0.2704 0.2734 0.2764 0.2794 0.2823 0.2852

0.8 0.2881 0.2910 0.2939 0.2967 0.2995 0.3023 0.3051 0.3078 0.3106 0.3133

0.9 0.3159 0.3186 0.3212 0.3238 0.3264 0.3289 0.3315 0.3340 0.3365 0.3389

1.0 0.3413 0.3438 0.3461 0.3485 0.3508 0.3531 0.3554 0.3577 0.3599 0.3621

1.1 0.3643 0.3665 0.3686 0.3708 0.3729 0.3749 0.3770 0.3790 0.3810 0.3830

1.2 0.3849 0.3869 0.3888 0.3907 0.3925 0.3944 0.3962 0.3980 0.3997 0.4015

1.3 0.4032 0.4049 0.4066 0.4082 0.4099 0.4115 0.4131 0.4147 0.4162 0.4177

1.4 0.4192 0.4207 0.4222 0.4236 0.4251 0.4265 0.4279 0.4292 0.4306 0.4319

1.5 0.4332 0.4345 0.4357 0.4370 0.4382 0.4394 0.4406 0.4418 0.4429 0.4441

1.6 0.4452 0.4463 0.4474 0.4484 0.4495 0.4505 0.4515 0.4525 0.4535 0.4545

1.7 0.4554 0.4564 0.4573 0.4582 0.4591 0.4599 0.4608 0.4616 0.4625 0.4633

1.8 0.4641 0.4649 0.4656 0.4664 0.4671 0.4678 0.4686 0.4693 0.4699 0.4706

1.9 0.4713 0.4719 0.4726 0.4732 0.4738 0.4744 0.4750 0.4756 0.4761 0.4767

2.0 0.4772 0.4778 0.4783 0.4788 0.4793 0.4798 0.4803 0.4808 0.4812 0.4817

2.1 0.4821 0.4826 0.4830 0.4834 0.4838 0.4842 0.4846 0.4850 0.4854 0.4857
157
2.2 0.4861 0.4864 0.4868 0.4871 0.4875 0.4878 0.4881 0.4884 0.4887 0.4890

2.3 0.4893 0.4896 0.4898 0.4901 0.4904 0.4906 0.4909 0.4911 0.4913 0.4916

2.4 0.4918 0.4920 0.4922 0.4925 0.4927 0.4929 0.4931 0.4932 0.4934 0.4936

2.5 0.4938 0.4940 0.4941 0.4943 0.4945 0.4946 0.4948 0.4949 0.4951 0.4952

2.6 0.4953 0.4955 0.4956 0.4957 0.4959 0.4960 0.4961 0.4962 0.4963 0.4964

2.7 0.4965 0.4966 0.4967 0.4968 0.4969 0.4970 0.4971 0.4972 0.4973 0.4974

2.8 0.4974 0.4975 0.4976 0.4977 0.4977 0.4978 0.4979 0.4979 0.4980 0.4981

2.9 0.4981 0.4982 0.4982 0.4983 0.4984 0.4984 0.4985 0.4985 0.4986 0.4986

3.0 0.4987 0.4987 0.4987 0.4988 0.4988 0.4989 0.4989 0.4989 0.4990 0.4990

3.1 0.4990 0.4991 0.4991 0.4991 0.4992 0.4992 0.4992 0.4992 0.4993 0.4993

3.2 0.4993 0.4993 0.4994 0.4994 0.4994 0.4994 0.4994 0.4995 0.4995 0.4995

3.3 0.4995 0.4995 0.4995 0.4996 0.4996 0.4996 0.4996 0.4996 0.4996 0.4997

3.4 0.4997 0.4997 0.4997 0.4997 0.4997 0.4997 0.4997 0.4997 0.4997 0.4998

3.5 0.4998 0.4998 0.4998 0.4998 0.4998 0.4998 0.4998 0.4998 0.4998 0.4998

3.6 0.4998 0.4998 0.4999 0.4999 0.4999 0.4999 0.4999 0.4999 0.4999 0.4999

3.7 0.4999 0.4999 0.4999 0.4999 0.4999 0.4999 0.4999 0.4999 0.4999 0.4999

3.8 0.4999 0.4999 0.4999 0.4999 0.4999 0.4999 0.4999 0.4999 0.4999 0.4999

3.9 0.5000 0.5000 0.5000 0.5000 0.5000 0.5000 0.5000 0.5000 0.5000 0.5000

TABLA C: Distribución t de student

 0.40 0.30 0.20 0.10 0.05 0.025 0.01 0.005 0.001 0.0005
gl
1 0.32 0.727 1.376 3.078 6.316 12.71 31.8 63.66 318.3 636.6
2 5 0.617 1.061 1.886 2.920 4.303 2 9.925 22.326 31.596

158
3 0.28 0.584 0.978 1.638 2.353 3.182 6.96 5.841 10.215 12.924
4 9 0.569 0.941 1.533 2.132 2.776 5 4.604 7.173 8.610
0.27 4.54
5 7 0.559 0.920 1.476 2.015 2.571 1 4.032 5.893 6.869
6 0.27 0.553 0.906 1.440 1.943 2.447 3.74 3.707 5.208 5.959
7 1 0.549 0.896 1.415 1.895 2.365 7 3.499 4.785 5.408
8 0.546 0.889 1.397 1.860 2.306 3.355 4.501 5.041
9 0.26 0.543 0.883 1.383 1.833 2.262 3.36 3.250 4.297 4.781
7 5
10 0.26 0.542 0.879 1.372 1.812 2.228 3.14 3.169 4.144 4.587
11 5 0.540 0.876 1.363 1.796 2.201 3 3.106 4.025 4.437
12 0.26 0.539 0.873 1.356 1.782 2.179 2.99 3.055 3.930 4.318
13 3 0.538 0.870 1.350 1.771 2.160 8 3.012 3.852 4.221
14 0.26 0.537 0.868 1.345 1.761 2.145 2.89 2.977 3.787 4.140
2 6
15 0.26 0.536 0.866 1.341 1.753 2.131 2.82 2.947 3.733 4.073
16 1 0.535 0.864 1.337 1.746 2.120 1 2.921 3.686 4.015
17 0.534 0.863 1.333 1.740 2.110 2.898 3.646 3.965
18 0.26 0.534 0.862 1.330 1.734 2.101 2.76 2.878 3.610 3.922
19 0 0.533 0.861 1.328 1.729 2.093 4 2.861 3.579 3.883
0.26 2.71
20 0 0.533 0.860 1.325 1.725 2.086 8 2.845 3.552 3.850
21 0.25 0.532 0.859 1.323 1.721 2.080 2.68 2.831 3.527 3.819
22 9 0.532 0.858 1.321 1.717 2.074 1 2.819 3.505 3.792
23 0.25 0.532 0.858 1.319 1.714 2.069 2.65 2.807 3.485 3.768
24 9 0.531 0.857 1.318 1.711 2.064 0 2.797 3.467 3.745
0.25 2.62
25 8 0.531 0.856 1.316 1.708 2.060 4 2.787 3.450 3.725
26 0.531 0.856 1.315 1.706 2.056 2.779 3.435 3.706
27 0.25 0.531 0.855 1.314 1.703 2.052 2.60 2.771 3.421 3.690
28 8 0.530 0.855 1.313 1.701 2.048 2 2.763 3.408 3.674
29 0.25 0.530 0.854 1.311 1.699 2.045 2.58 2.756 3.396 3.659
8 3
30 0.25 0.530 0.854 1.310 1.697 2.042 2.56 2.750 3.385 3.646
40 7 0.529 0.851 1.303 1.684 2.021 7 2.704 3.307 3.551
50 0.25 0.528 0.849 1.298 1.676 2.009 2.55 2.678 3.262 3.495
60 7 0.527 0.848 1.296 1.671 2.000 2 2.660 3.232 3.460
80 0.25 0.527 0.846 1.292 1.664 1.990 2.53 2.639 3.195 3.415
7 9
100 0.526 0.845 1.290 1.660 1.984 2.626 3.174 3.389
200 0.25 0.525 0.843 1.286 1.653 1.972 2.52 2.601 3.131 3.339
500 7 0.525 0.842 1.283 1.648 1.965 8 2.586 3.106 3.310
 0.25 0.524 0.842 1.282 1.645 1.960 2.51 2.576 3.090 3.291
7 8
0.25 2.50
6 8
0.25 2.50
6 0
0.25 2.49
6 2

0.25 2.48
6 5
0.25 2.47
6 9
159
0.25 2.47
6 3
0.25 2.46
6 7
0.25 2.46
6 2

0.25 2.45
6 7
0.25 2.42
5 3
0.25 2.40
5 3
0.25 2.39
4 0
0.25 2.37
4 4

0.25 2.36
4 5
0.25 2.34
4 5
0.25 2.33
3 4
0.25 2.32
3 6

TABLA D: PARA INTERVALOS DE CONFIANZA.

Valores críticos correspondientes a los niveles de  de ambos extremos, de la


distribución normal estandarizada.

−ZZ

160
 Z
.001 3.2905
.002 3.0902
.005 2.80703
.01 2.5758
.02 2.3263
.03 2.1701
.04 2.0537
.05 1.9600
.06 1.8808
.08 1.7507
.10 1.6449
.15 1.4395
.20 1.2816
.30 1.0364

161
TABLA E: Valores críticos de T para la prueba de los rangos señalados
y pares igualados de Wilcoxon.

Los valores listados en la tabla son los valores críticos de T para N especificada (columna izquierda) y
el nivel alfa (encabezado de columna). Para ser significativa, Tobt ≤ Tcrít.

Nivel de significancia para una prueba de una cola

0.05 0.025 0.01 0.005


Nivel de significancia para una prueba de dos colas

N 0.10 0.05 0.02 0.01


5 0 - - -

6 2 0 - -

7 3 2 0 -

8 5 3 1 0

9 8 5 3 1

10 10 8 5 3

11 13 10 7 5

12 17 13 9 7

13 21 17 12 9

14 25 21 15 12

15 30 25 19 15

16 35 29 23 19

17 41 34 27 23

18 47 40 32 27

19 53 46 37 32

162
Nivel de significancia para una prueba de una cola

0.05 0.025 0.01 0.005


N Nivel de significancia para una prueba de dos colas

0.10 0.05 0.02 0.01


20 60 52 43 37

21 67 58 49 42

22 75 65 55 48

23 83 73 62 54

24 91 81 69 61

25 100 89 76 68

26 110 98 84 75

27 119 107 92 83

28 130 116 101 91

29 140 126 110 100

30 151 137 120 109

31 163 147 130 118

32 175 159 140 128

33 187 170 151 138

34 200 182 162 148

35 213 195 173 159

36 227 208 185 171

37 241 221 198 182

38 256 235 211 194

163
Nivel de significancia para una prueba de una cola

0.05 0.025 0.01 0.005


Nivel de significancia para una prueba de dos colas

N 0.10 0.05 0.02 0.01


39 271 249 224 207

40 286 264 238 220

41 302 279 252 233

42 319 294 266 247

43 336 310 281 261

44 353 327 296 276

45 371 343 312 291

46 389 361 328 307

47 407 378 345 322

48 426 396 362 339

49 446 415 379 355

50 466 434 397 373

164
TABLA F.1.: Valores críticos de U y U’ para una prueba de una cola en  = 0.005 o una prueba de dos colas en 
= 0.01.________________________________________________________________________
Para ser significativa en cualquier n1 y n2 dadas: Uobt debe ser igual que o menor que el valor que se presenta en la tabla.
U’obt debe ser igual que o mayor que el valor que se muestra en la tabla.

n1 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
n2
1 _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _

2 _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ 0 0
38 40
3 _ _ _ _ _ _ _ _ 0 0 0 1 1 1 2 2 2 2 3 3
27 30 33 35 38 41 43 46 49 52 54 57
4 _ _ _ _ _ 0 0 1 1 2 2 3 3 4 5 5 6 6 7 8
24 28 31 35 38 42 45 49 52 55 59 62 66 69 72
5 _ _ _ _ 0 1 1 2 3 4 5 6 7 7 8 9 10 11 12 13
25 29 34 38 42 46 50 54 58 63 67 71 75 79 83 87
6 _ _ _ 0 1 2 3 4 5 6 7 9 10 11 12 13 15 16 17 18
24 29 34 39 44 49 54 59 63 68 73 78 83 87 92 97 102
7 _ _ _ 0 1 3 4 6 7 9 10 12 13 15 16 18 19 21 22 24
28 34 39 45 50 56 61 67 72 78 83 89 94 100 105 111 116
8 _ _ _ 1 2 4 6 7 9 11 13 15 17 18 20 22 24 26 28 30
31 38 44 50 57 63 69 75 81 87 94 100 106 112 118 124 130
9 _ _ 0 1 3 5 7 9 11 13 16 18 20 22 24 27 29 31 33 36
27 35 42 49 56 63 70 77 83 90 97 104 111 117 124 131 138 144
10 _ _ 0 2 4 6 9 11 13 16 18 21 24 26 29 31 34 37 39 42
30 38 46 54 61 69 77 84 92 99 106 114 121 129 136 143 151 158
11 _ _ 0 2 5 7 10 13 16 18 21 24 27 30 33 36 39 42 45 48
33 42 50 59 67 75 83 92 100 108 116 124 132 140 148 156 164 172
12 _ _ 1 3 6 9 12 15 18 21 24 27 31 34 37 41 44 47 51 54
35 45 54 63 72 81 90 99 108 117 125 134 143 151 160 169 177 186
13 _ _ 1 3 7 10 13 17 20 24 27 31 34 38 42 45 49 53 56 60
38 49 58 68 78 87 97 106 116 125 125 144 153 163 172 181 191 200
14 _ _ 1 4 7 11 15 18 22 26 30 34 38 42 46 50 54 58 63 67
41 52 63 73 83 94 104 114 124 134 144 154 164 174 184 194 203 213
15 _ _ 2 5 8 12 16 20 24 29 33 37 42 46 51 55 60 64 69 73
43 55 67 78 89 100 111 121 132 143 153 164 174 185 195 206 216 227
16 _ _ 2 5 9 13 18 22 27 31 36 41 45 50 55 60 65 70 74 79
46 59 71 83 94 106 117 129 140 151 163 174 185 196 207 218 230 241
17 _ _ 2 6 10 15 19 24 29 34 39 44 49 54 60 65 70 75 81 86
49 62 75 87 100 112 124 148 148 160 172 184 195 207 219 231 242 254
18 _ _ 2 6 11 16 21 26 31 37 42 47 53 58 64 70 75 81 87 92
52 66 79 92 105 118 131 143 156 169 181 194 206 218 231 243 255 268
19 _ 0 3 7 12 17 22 28 33 39 45 51 56 63 69 74 81 87 93 99
38 54 69 83 97 111 124 138 151 164 177 191 203 216 230 242 255 268 281
20 _ 0 3 8 13 18 24 30 36 42 48 54 60 67 73 79 86 92 99 105
40 57 72 87 102 116 130 144 158 172 186 200 213 227 241 254 268 281 295
*Los guiones en el cuerpo de la tabla indican que no hay decisión posible en el nivel de significancia establecido.

165
TABLA F.2.: Valores críticos de U y U’ para una prueba de una cola en  = 0.01 o una prueba de dos colas en  =
0.02.________________________________________________________________________
Para ser significativa en cualquier n1 y n2 dadas: Uobt debe ser igual que o menor que el valor que se muestra en la tabla.
U’obt debe ser igual que o mayor que el valor que se muestra en la tabla.

n1 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
n2
1 _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _

2 _ _ _ _ _ _ _ _ _ _ _ _ 0 0 0 0 0 0 1 1
26 28 30 32 34 36 37 39
3 _ _ _ _ _ _ 0 0 1 1 1 2 2 2 3 3 4 4 4 5
21 24 26 29 32 34 37 40 42 45 47 50 52 55
4 _ _ _ _ 0 1 1 2 3 3 4 5 5 6 7 7 8 9 9 10
20 23 27 30 33 37 40 43 47 50 53 57 60 63 67 70
5 _ _ _ 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
20 24 28 32 36 40 44 48 52 56 60 64 68 72 76 80 84
6 _ _ _ 1 2 3 4 6 7 8 9 11 12 13 15 16 18 19 20 22
23 28 33 38 42 47 52 57 61 66 71 75 80 84 89 94 93
7 _ _ 0 1 3 4 6 7 9 11 12 14 16 17 19 21 23 24 26 28
21 27 32 38 43 49 54 59 65 70 75 81 86 91 96 102 107 112
8 _ _ 0 2 4 6 7 9 11 13 15 17 20 22 24 26 28 30 32 34
24 30 36 42 49 55 61 67 73 79 84 90 96 102 108 114 120 126
9 _ _ 1 3 5 7 9 11 14 16 18 21 23 26 28 31 33 36 38 40
26 33 40 47 54 61 67 74 81 87 94 100 107 113 120 126 133 140
10 _ _ 1 3 6 8 11 13 16 19 22 24 27 30 33 36 38 41 44 47
29 37 44 52 59 67 74 81 88 96 103 110 117 124 132 139 146 153
11 _ _ 1 4 7 9 12 15 18 22 25 28 31 34 37 41 44 47 50 53
32 40 48 57 65 73 81 88 96 104 112 120 128 135 143 151 159 167
12 _ _ 2 5 8 11 14 17 21 24 28 31 35 38 42 46 49 53 56 60
34 43 52 61 70 79 87 96 104 113 121 130 138 146 155 163 172 180
13 _ 0 2 5 9 12 16 20 23 27 31 35 39 43 47 51 55 59 63 67
26 37 47 56 66 75 84 94 103 112 121 130 139 148 157 166 175 184 193
14 _ 0 2 6 10 13 17 22 26 30 34 38 43 47 51 56 60 65 69 73
28 40 50 60 71 81 90 100 110 120 130 139 149 159 168 178 187 197 207
15 _ 0 3 7 11 15 19 24 28 33 37 42 47 51 56 61 66 70 75 80
30 42 53 64 75 86 96 107 117 128 138 148 159 169 179 189 200 210 220
16 _ 0 3 7 12 16 21 26 31 36 41 46 51 56 61 66 71 76 82 87
32 45 57 68 80 91 102 113 124 135 146 157 168 179 190 201 212 222 233
17 _ 0 4 6 13 18 23 28 33 38 44 49 55 60 66 71 77 82 88 93
34 47 80 72 84 96 108 120 132 143 155 166 178 189 201 212 224 234 247
18 _ 0 4 9 14 19 24 30 36 41 47 53 59 65 70 76 82 88 94 100
36 50 63 76 89 102 114 126 139 151 163 175 187 200 212 224 236 248 260
19 _ 1 4 9 15 20 26 32 38 44 50 56 63 69 75 82 88 94 101 107
37 53 67 80 94 107 120 133 146 159 172 184 197 210 222 235 248 260 273
20 _ 1 5 10 16 22 28 34 40 47 53 60 67 73 80 87 93 100 107 114
39 55 70 84 98 112 126 140 153 167 180 193 207 220 233 247 260 273 286
*Los guiones en el cuerpo de la tabla indican que no hay decisión posible en el nivel de significancia establecido.

166
TABLA F.3.: Valores críticos de U y U’ para una prueba de una cola en  = 0.025 o una prueba de dos colas en 
= 0.05.________________________________________________________________________
Para ser significativa en cualquier n1 y n2 dadas: Uobt debe ser igual que o menor que el valor que se muestra en la tabla.
U’obt debe ser igual que o mayor que el valor que se muestra en la tabla.

n1 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
n2
1 _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _

2 _ _ _ _ _ _ _ 0 0 0 0 1 1 1 1 1 2 2 2 2
16 18 20 22 23 25 27 29 31 32 34 36 38
3 _ _ _ _ 0 1 1 2 2 3 3 4 4 5 5 6 6 7 7 8
15 17 20 22 25 27 30 32 35 37 40 42 45 47 50 52
4 _ _ _ 0 1 2 3 4 4 5 6 7 8 9 10 11 11 12 13 13
16 19 22 25 28 32 35 38 41 44 47 50 53 57 60 63 67
5 _ _ 0 1 2 3 5 6 7 8 9 11 12 13 14 15 17 18 19 20
15 19 23 27 30 34 38 42 46 49 53 57 61 65 68 72 76 80
6 _ _ 1 2 3 5 6 8 10 11 13 14 16 17 19 21 22 24 25 27
17 22 27 31 36 40 44 49 53 58 62 67 71 75 80 84 89 93
7 _ _ 1 3 5 6 8 10 12 14 16 18 20 22 24 26 28 30 32 34
20 25 30 36 41 46 51 56 61 66 71 76 81 86 91 96 101 106
8 _ 0 2 4 6 8 10 13 15 17 19 22 24 26 29 31 34 36 38 41
16 22 28 34 40 46 51 57 63 69 74 80 86 91 97 102 108 111 119
9 _ 0 2 4 7 10 12 15 17 20 23 26 28 31 34 37 39 42 45 48
18 25 32 38 44 51 57 64 70 76 82 89 95 101 107 114 120 126 132
10 _ 0 3 5 8 11 14 17 20 23 26 29 33 36 39 42 45 48 52 55
20 27 35 42 49 56 63 70 77 84 91 97 104 111 118 125 132 138 145
11 _ 0 3 6 9 13 16 19 23 26 30 33 37 40 44 47 51 55 58 62
22 30 38 46 53 61 69 76 84 91 99 106 114 121 129 136 143 151 158
12 _ 1 4 7 11 14 18 22 26 29 33 37 41 45 49 53 57 61 65 69
23 32 41 49 58 66 74 82 91 99 107 115 123 131 139 147 155 163 171
13 _ 1 4 8 12 16 20 24 28 33 37 41 45 50 54 59 63 67 72 76
25 35 44 53 62 71 80 89 97 106 115 124 132 141 149 158 167 175 184
14 _ 1 5 9 13 17 22 26 31 36 40 45 50 55 59 64 67 74 78 83
27 37 47 51 67 76 86 95 104 114 123 132 141 151 160 171 178 188 197
15 _ 1 5 10 14 19 24 29 34 39 44 49 54 59 64 70 75 80 85 90
29 40 50 61 71 81 91 101 111 121 131 141 151 161 170 180 190 200 210
16 _ 1 6 11 15 21 26 31 37 42 47 53 59 64 70 75 81 86 92 98
31 42 53 65 75 86 97 107 118 129 139 149 160 170 181 191 202 212 222
17 _ 2 6 11 17 22 28 34 39 45 51 57 63 67 75 81 87 93 99 105
32 45 57 68 80 91 102 114 125 136 147 158 171 180 191 202 213 224 235
18 _ 2 7 12 18 24 30 36 42 48 55 61 67 74 80 86 93 99 106 112
34 47 60 72 84 96 108 120 132 143 155 167 168 190 202 213 225 236 248
19 _ 2 7 13 19 25 32 38 45 52 58 65 72 78 85 92 99 106 113 119
36 50 63 76 89 101 114 126 138 151 163 175 188 200 212 224 236 248 261
20 _ 2 8 13 20 27 34 41 48 55 62 69 76 83 90 98 105 112 119 127
38 52 67 80 93 106 119 132 145 158 171 184 197 210 222 235 248 261 273
*Los guiones en el cuerpo de la tabla indican que no hay decisión posible en el nivel de significancia establecido.

167
TABLA F.4.: Valores críticos de U y U’ para una prueba de una cola en  = 0.05 o una prueba de dos colas en  =
0.10.________________________________________________________________________
Para ser significativa en cualquier n1 y n2 dadas: Uobt debe ser igual que o menor que el valor que se muestra en la tabla.
U’obt debe ser igual que o mayor que el valor que se muestra en la tabla.

n1 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
n2
1 _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ _ 0 0
19 20
2 _ _ _ _ 0 0 0 1 1 1 1 2 2 2 3 3 3 4 4 4
10 12 14 15 17 19 21 22 24 26 27 29 31 32 34 36
3 _ _ 0 0 1 2 2 3 3 4 5 5 6 7 7 8 9 9 10 11
9 1 14 16 19 21 24 26 28 31 33 35 38 40 42 45 47 49
2
4 _ _ 0 1 2 3 4 5 6 7 8 9 10 11 12 14 15 16 17 18
12 1 18 21 24 27 30 33 36 39 42 45 48 50 53 56 59 62
5
5 _ 0 1 2 4 5 6 8 9 11 12 13 15 16 18 19 20 22 23 25
10 14 1 21 25 29 32 36 39 43 47 50 54 57 61 65 68 72 75
8
6 _ 0 2 3 5 7 8 10 12 14 16 17 19 21 23 25 26 28 30 32
12 16 2 25 29 34 38 42 46 50 55 59 63 67 71 76 80 84 88
1
7 _ 0 2 4 6 8 11 13 15 17 19 21 24 26 28 30 33 35 37 39
14 19 2 29 34 38 43 48 53 58 63 67 72 77 82 86 91 96 101
4
8 _ 1 3 5 8 10 13 15 18 20 23 26 28 31 33 36 39 41 44 47
15 21 2 32 38 43 49 54 60 65 70 76 81 87 92 97 103 108 113
7
9 _ 1 3 6 9 12 15 18 21 24 27 30 33 36 39 42 45 48 51 54
17 24 3 36 42 48 54 60 66 72 78 84 90 96 102 108 114 120 126
0
1 _ 1 4 7 11 14 17 20 24 27 31 34 37 41 44 48 51 55 58 62
0 19 26 3 39 46 53 60 66 73 79 86 93 99 106 112 119 125 132 138
3
1 _ 1 5 8 12 16 19 23 27 31 34 38 42 46 50 54 57 61 65 69
1 21 28 3 43 50 58 65 72 79 87 94 101 108 115 122 130 137 144 151
6
1 _ 2 5 9 13 17 21 26 30 34 38 42 47 51 55 60 64 68 72 77
2 22 31 3 47 55 63 70 78 86 94 102 109 117 125 132 140 148 156 163
9
1 _ 2 6 1 15 19 24 28 33 37 42 47 51 56 61 65 70 75 80 84
3 24 33 0 50 59 67 76 84 93 101 109 118 126 134 143 151 159 167 176
4
2
1 _ 2 7 1 16 21 26 31 36 41 46 51 56 61 66 71 77 82 87 92
4 26 35 1 54 63 72 81 90 99 108 117 126 135 144 153 161 170 179 188
4
5
1 _ 3 7 1 18 23 28 33 39 44 50 55 61 66 72 77 83 88 94 100
5 27 38 2 57 67 77 87 96 106 115 125 134 144 153 163 172 182 191 200
4
8
168
1 _ 3 8 1 19 25 30 36 42 48 54 60 65 71 77 83 89 95 101 107
6 29 40 4 61 71 82 92 102 112 122 132 143 153 163 173 183 193 203 213
5
0
1 _ 3 9 1 20 26 33 39 45 51 57 64 70 77 83 89 96 102 109 115
7 31 42 5 65 76 86 97 108 119 130 140 151 161 172 183 193 204 214 225
5
3
1 _ 4 9 1 22 28 35 41 48 55 61 68 75 82 88 95 102 109 116 123
8 32 45 6 68 80 91 103 114 123 137 148 159 170 182 193 204 215 226 237
5
6
1 0 4 10 1 23 30 37 44 51 58 65 72 80 87 94 101 109 116 123 130
9 19 34 47 7 72 84 96 108 120 132 144 156 167 179 191 203 214 226 238 250
5
9
2 0 4 11 1 25 32 39 47 54 62 69 77 84 92 100 107 115 123 130 138
0 20 36 49 8 75 88 101 113 126 138 151 163 176 188 200 213 225 237 250 262
6
2
*Los guiones en el cuerpo de la tabla indican que no hay decisión posible en el nivel de significancia establecido.

169

También podría gustarte