Está en la página 1de 70

143

3 Tercera
Unidad Didctica

"DISTRIBUCIONES DE PROBABILIDAD
DISCRETAS"

3.1 Parte bsica


144

3.1.1 Variables aleatorias


En cualquier experimento aleatorio tenemos resultados cualitativos o
cuantitativos. Con el objeto de facilitar el estudio matemtico, a cada uno de estos
resultados le hacemos corresponder un nmero real.

Por ejemplo, el resultado de tomar un espaol al azar y medir su estatura es un


nmero; el resultado de tomar una familia al azar y anotar el nmero de hijos es un
nmero; el resultado de aplicar un tratamiento a un enfermo y observar si se cura o no,
es un dato cualitativo, que puede convertirse en cuantitativo asignando un "1" al
enfermo que se cura y un "0" al enfermo que no se cura.

En realidad lo que estamos haciendo es asignar a cada suceso del espacio muestral
un nmero, pero esta asignacin no tiene por qu ser nica.

Pongamos un ejemplo: lanzamos dos dados al aire y a cada suceso elemental le


podemos asignar la suma, el producto, etc., de los nmeros que aparecen en las caras
superiores.

Al igual que los resultados de un fenmeno aleatorio no son predecibles, los


resultados de una variable aleatoria tampoco lo son, pero podemos calcular la
probabilidad de que ocurra un determinado suceso.

A veces puede ocurrir que los valores que toma la variable aleatoria son los
mismos, pero no ocurre lo mismo con las probabilidades. Pongamos un ejemplo.

Se dispone de dos frmacos A y B distintos para curar una misma enfermedad; los
resultados de la variable aleatoria solamente pueden ser 1 0 y uno de ellos puede
curar el 20% de los casos y el otro el 70%.

Para tener identificada una variable aleatoria no basta con indicar los valores que
pueda tomar, hay que indicar tambin sus probabilidades.

Una variable aleatoria X es toda funcin que toma diversos valores


numricos (dependientes del resultado de un fenmeno aleatorio) con
distintas probabilidades.
145

Cuando la variable aleatoria toma un nmero finito o infinito numerable* de


valores, diremos que es una "variable aleatoria discreta".

Veamos ejemplos:

En el caso del lanzamiento de un dado perfecto, la variable aleatoria X= "nmero


que sale en la cara superior" puede tomar los valores X={1, 2, 3, 4, 5, 6} con
probabilidades P(X)={1/6, 1/6, 1/6, 1/6, 1/6, 1/6}.

Si consideramos la variable aleatoria X= "nmero de varones en una familia de


dos hijos", X={0, 1, 2} y P(X)={1/4, 1/2, 1/4}.

(Observar el espacio muestral del experimento aleatorio).

En general diremos, que una variable aleatoria discreta estar identificada si


conocemos sus posibles valores X = {x1 , x 2 , ..., x n } y sus respectivas
probabilidades P(X = x i ) = P i

Observemos que la suma de las probabilidades es 1: ! Pi = 1


i

A toda regla que permita asociar a cada valor xi de la variable aleatoria su


probabilidad Pi, la llamaremos "funcin de probabilidad".

Tal funcin de probabilidad puede venir dada por una tabla:

X 0 1 2
P(X) 1/4 1/2 1/4

o bien por una frmula matemtica.

Tambin podemos definir la variable aleatoria a travs de la "funcin de


distribucin".

F(X) = P(X ! x)

*Un conjunto infinito A se dice que es numerable si se puede establecer una aplicacin
biyectiva f entre el conjunto de los naturales y A.
146

F(X) no es ms que la probabilidad de que la variable X tome valores menores o


iguales que x.

En el ejemplo anterior:

F(0) = P(X ! 0) = P(X = 0)


F(1) = P(X ! 1) = P(X = 0) + P(X = 1)
F(2) = P(X ! 2) = P(X = 0) + P(X = 1) + P(X = 2)

De un modo general, a toda tabla, grfica o expresin matemtica que


indique los valores que puede tomar una variable aleatoria y las
probabilidades con que los toma, se llamar "distribucin de probabilidad
de dicha variable aleatoria".

El concepto de variable aleatoria proporciona un medio para relacionar cualquier


resultado con una medida cuantitativa.

3.1.2 Esperanza, varianza y desviacin


tpica de una variable aleatoria
Se llama esperanza de la variable aleatoria discreta X, al nmero:
E [ X] = x1 p1 + x 2 p 2 +... +x n p n

x1 , x2 ,. .., xn son los valores de la variable aleatoria y p1 , p 2 , ..., p n las


probabilidades respectivas.

La esperanza de una variable aleatoria X tambin se representa por , y se llama


media de la distribucin. Por tanto, "esperanza de la variable aleatoria" y "media de la
distribucin" son expresiones equivalentes.

n
= ! p ix i = E[ X]
i=1

El conocimiento de la media de la distribucin no es suficiente para caracterizar la


distribucin, ya que hay distribuciones con la misma media y distintas unas de otras.
147

Para medir la dispersin de los valores de una variable aleatoria X respecto de su


media , se define el siguiente estadstico llamado varianza:

[
V [X ] = E ( x ! )
2
]
Es decir:

V[X] = (x1 ! ) p1 + ( x2 ! ) p2 +...+ ( xn ! ) p n


2 2 2

Puesto que la varianza no podra medirse en las mismas unidades que la variable,
utilizamos la raz cuadrada de la varianza y a este nmero la llamamos desviacin
tpica.
Desv[ X] = V[X]

Desv[ X] = (x1 ! )2 p1 + ( x2 ! )2 p2 +...+( xn ! )2 p n

EJEMPLO 3.1:

Calcular la media y la varianza del nmero de hijos varones de una familia con dos
hijos.

Solucin:

E={VV, VH, HV, HH}


X={0, 1, 2}= "nmero de hijos varones de una familia con dos hijos"

P1 = P(X = 0) = 1/ 4 !#
P 2 = P(X = 1) = 2 / 4 = 1 / 2 " 1 / 4 + 1 / 2 + 1/ 4 = 1
P3 = P(X = 2) = 1/ 4 #$

En promedio, una familia con dos hijos tiene un hijo varn con una varianza de
1/2.
148

EJEMPLO 3.2:

Tras una intervencin quirrgica de un tipo determinado, el equipo mdico


mantuvo en el hospital a unos pacientes cinco das y a otros ocho. De stos ltimos no
regres ninguno al hospital y el coste de cada uno ascendi a 90.000 pts., mientras que
de los dados de alta a los cinco das, las dos terceras partes no regresaron al hospital y el
coste por cada individuo fue de 50.000 pts. El otro tercio restante tuvo que regresar al
hospital ocasionando unos gastos totales por individuo de 150.000 pts.
En trminos puramente econmicos, es preferible dar de alta a los enfermos a los
cinco o a los ocho das?.

Solucin:

Se trata de calcular el coste promedio en ambos casos. En el supuesto de que los


pacientes estn ingresados 8 das, el coste promedio es de 90.000 pts., y en el supuesto
de que los pacientes estn 5 das, la variable aleatoria se distribuye de la siguiente
forma:
X 50.000 150.000
P(X) 2/3 1/3

El coste promedio en este caso ser:

2 1
E[X] = 50.000 + 150.000 = 83.330pts.
3 3

Puesto que 83.333 < 90.000, esto indica que es preferible, desde el punto de vista
econmico, tener ingresados a los pacientes cinco das.
La varianza la calculamos de la siguiente forma:

2 1
V[X] = (50.000 ! 83.000)2 + (150.000 ! 83.330)2 = 2, 2 109
3 3
149

3.1.3 Distribucin Binomial


Hay muchas situaciones en las que slo interesa conocer si un determinado suceso
se produce o no se produce.

Si el suceso ocurre, diremos que hemos obtenido un xito y lo simbolizamos por E


y si no ocurre diremos que hemos obtenido un fracaso y lo simbolizamos por F.

La probabilidad de xito la llamamos p


La probabilidad de fracaso la llamamos q

Lgicamente p+q=1

Se trata de un experimento aleatorio que no tiene ms que dos resultados posibles


E y F tales que P(E)=p y P(F)=q

Es interesante el caso en el que se repitan pruebas independientes del mismo


experimento y la probabilidad de xito se mantenga constante en todas ellas.

Supongamos que el nmero de pruebas es cinco (n=5). Un posible resultado sera:

EFFEE

Si queremos calcular la probabilidad, teniendo en cuenta que las pruebas son


independientes:

P(EFFEE) = P(E) P(F) P(F) P(E) P(E) = p q q p p = p3 q2

Responden a este modelo experimentos como los siguientes:

- Lanzar una moneda varias veces considerando xito la obtencin de cara.


Entonces p=q=1/2

- Lanzar un dado varias veces, considerando xito que salga el 6 y fracaso que no
salga el 6. En este caso p=1/6 y q=5/6.
150

- La clasificacin de las piezas fabricadas por una mquina, considerando xito las
piezas aceptables y fracaso las piezas defectuosas. En este caso p y q se asignan
haciendo un estudio de gran nmero de piezas.

Diremos que un experimento sigue un modelo binomial si, en cada


ejecucin, slo hay dos posibles resultados (E y F), las pruebas son
independientes y la probabilidad de xito es constante.

La idea es la de construir un modelo de asignacin de probabilidades de estas


caractersticas.

Llamaremos variable aleatoria binomial a:

X = "nmero de xitos en n pruebas"

Se pueden asignar probabilidades mediante un diagrama en rbol:

COMIENZO 1 PRUEBA 2 PRUEBA 3 PRUEBA RESUL. PROB.

p
E E EE p3
p
E
q
F EE F p2q
p
E
p
E E FE p2q
q
F
q
F EF F pq 2

p
E FEE p2q
p
E
q
F FEF pq 2
q
F
p
E F FE pq 2
q
F
q
F FF F q3
151

Construir el rbol puede ser una tarea larga y conviene buscar una frmula general
para un experimento binomial.
Convengamos en identificar todos aquellos resultados que tienen el mismo
nmero de xitos. Tras n pruebas nos encontraramos con:

EE...E !!" p n
EE...EF !!" np n#1q
EE...EFF!!" n(n # 1)pn#2 q2
.............................................
EF...F !!" npq n#1
FF... F !!" q n

Las distintas probabilidades son los sumandos del desarrollo del binomio (p+q)n,
por lo que:
! n$
P( X = r ) = # p r q n& r
"r%

Convenimos en designar al experimento binomial con n pruebas, siendo p la


probabilidad de xito, como B(n,p).

EJEMPLO 3.3:

Se lanza un dado 7 veces. Calcular la probabilidad de obtener 3 seises.


p = P(E) = 1/6 n=7
q = P(F) =5/6 K=3

Solucin:

X = "nmero de seises que aparecen al lanzar un dado 7 veces".

!# 7$ ! 1 $ 3! 5 $ 4
P(X = 3) = = 0' 08
" 3% " 6 % " 6 %
152

EJEMPLO 3.4:

Calcular la probabilidad de obtener al menos una cara, al lanzar una moneda


cinco veces.

Solucin:

X = "nmero de caras que se obtienen al lanzar una moneda cinco veces"

P(x>1) = P(x=2)+P(x=3)+P(x=4)+P(x=5)

Utilizando el suceso contrario:


P(x>1) = 1-P(x1) = 1-(P(x=0)+P(x=1)) =
= 1 - 1/2 1/2 1/2 1/2 1/2 - 1/2 1/2 1/2 1/2 1/2

EJEMPLO 3.5:

Supongamos que en un departamento de control de calidad se examinan lotes de


cuatro artculos y se sabe que la probabilidad de que un artculo sea defectuoso es
P(D)=1/10 (por lo que la probabilidad de que sea aceptable es P(A)=1-P(D)=9/10).

Definimos la variable aleatoria de manera que a cada elemento del espacio


muestral, le asociamos el nmero de piezas defectuosas. x={0,1,2,3,4}. Calcular la
probabilidad asociada a cada valor de la variable.

Solucin:

Calculamos sus probabilidades:


9 4
P(x = 0) = ! # = 0, 6561
" 4$
1 ! 9 # 3 !% 4#
P(x = 1) = = 0, 2961
10 " 10 $ " 1$

! 4$
Incluimos el nmero combinatorio # porque se pueden dar cuatro
" 1%
posibilidades.
DAAA, ADAA, AADA, AAAD
153

2 2
! 1 # ! 9 # !% 4#
P(x = 2) = = 0, 0486
" 10 $ " 10 $ " 2$

! 1 3 9 !% 4#
P(x = 3) = " #$ = 0, 0036
10 10 " 3$
! 1 #4
P(x = 4) = " $ = 0, 0001
10

EJEMPLO 3.6:

Hallar las probabilidades del experimento binomial B(4,1/3).

Solucin:

!# 4$ ! 1$ 0 ! 2 $ 4
P(x = 0) = = 0,1975
" 0% " 3% " 3 %
!4 1 1 2 3
P(x = 1) = # $ ! $ ! $ = 0, 3951
" 1% " 3% " 3 %
! 4$ ! 1 2 ! 2 2
P(x = 2) = # " $% " $% = 0, 2963
" 2% 3 3
! 4$ ! 1 3 2
P(x = 3) = # " $% = 0, 0988
" 3% 3 3
! 4$ ! 1 4
P(x = 4) = # " $% = 0, 0123
" 4% 3

EJEMPLO 3.7:

En una empresa de fabricacin de automviles se ha observado que el 2%


presenta algn defecto. Calcular la probabilidad de que en una muestra aleatoria de 5
automviles se encuentren a lo sumo dos defectuosos.

Solucin:

La variable X = "nmero de automviles defectuosos", sigue una B(50,0'02).

P( X ! 2) = P(X = 0 ) + P( X = 1) + P(X = 2) =
"$ 50% " 50 " 50
(0, 02) 0 (0, 98)50 + $ % (0, 02)(0, 98)49 + $ % (0, 02)2 (0, 98) 48
# 0& #1& #2&
154

P(X ! 2) = 0' 9216

A medida que aumenta el valor de n se complican los clculos y es conveniente


utilizar tablas.

3.1.3.1 Manejo de tablas


Las tablas estn elaboradas con la siguiente estructura (figura 3.1):

n r p 0.01 0.05 ... 0.50


2 0
1
2
3 0
1
2
3
... ... ... ... ... ...
10 0
1
...
10

Figura 3.1: Estructura de la tabla de la Distribucin Binomial

Si estamos en una B(5,0'45), buscaremos el 5 en la columna de n y si nos piden


P(X=4), dentro del grupo n=5, buscamos r=4. En la fila de p buscamos 0'45 y en la
confluencia de la horizontal y la vertical, tendremos el valor de la probabilidad.

Podemos encontrarnos con un problema en el caso de ser p>0'5, pues no puede


emplearse la tabla directamente, sino que tendremos que tener en cuenta la siguiente
propiedad:
! n$ ! n $ n& r r
P( X = r ) = # p r q n& r = # p q
"r% " n & r%

Funcin de densidad de una variable aleatoria que siga una B(n,p) con n-r
xitos.

P(X=r) en una B(n,p) = P(X=n-r) en una B(n,q)


155

3.1.3.2 Media y desviacin tpica de una variable


Binomial
MEDIA:
= E[ x] = x 0p 0 + x1p1 +...+x n pn =
!n !n !n
= 0# $ q n + 1# $ pqn &1 +...+n # $ p n = np
" 0% " 1% " n%

VARIANZA:
n
! 2 = V[ x] = # ( x " ) pi = npq
2
i=1

DESVIACIN TPICA:
! = npq

EJEMPLO 3.8:

Supongamos que tenemos cinco instrumentos y que sabemos que en promedio un


determinado instrumento est averiado uno de cada diez das. Cul es la probabilidad
de que en un da ms de tres instrumentos estn averiados?. Cul es el nmero
esperado de instrumentos averiados al da?.

Solucin:

Nuestra variable ser:

X = "nmero de instrumento averiados en un da"

Slo hay dos posibles sucesos:

E: Estar averiado
F: No estar averiado.
X ~ B(n=5, p=0'1)

La funcin de densidad ser:


156

!5 !5
P( x = r) = # $ p r q 5&r = # $ 0,1r 0, 95& r
" r% " r%

P( x > 3) = P(x = 4 ) + P(x = 5) = 4

! 5$ ! 5$
= # p 4q + # 0,150, 9 0 = 4, 6 10&4
" 4% " 5%

E [x] = np = 5 0,1 = 0, 5

Se avera un instrumento cada dos das.

EJEMPLO 3.9:

La probabilidad de que un estudiante obtenga el ttulo de Licenciado en Biologa


es 0'3. Hallar la probabilidad de que de un grupo de 7 estudiantes matriculados en
primer curso:
a) Ninguno de los siete finalice la carrera.
b) La finalicen todos.
c) Al menos dos acaben la carrera.
Asimismo, hallar la media y la desviacin tpica del nmero de alumnos que
acaban la carrera.

Solucin:

Los sucesos son:

E(xito): acabar la carrera P(E) = p = 0'3


F(fracaso): no acabar la carrera P(F) = q = 0'7

El nmero de pruebas es siete n=7

Las pruebas son independientes, porque lo que ocurra con un alumno no tiene
nada que ver con lo que le ocurra a otro.

a)
! n$
P( X = r ) = # p r q n& r
"r%
157

! n$ ! 7$
P(x = 0) = # p0 q n = # q 7 = 0, 77 = 0, 0824
" 0% " 0%
b)
! 7$ 7 0
P(x = 7) = # 0, 3 q = 0, 0002 Imposible
" 7%
c)
P( X ! 2) = P(X = 2 ) + P( X = 3)+...+ P(X = 7) =
1 " P(X # 1) = 1 " (P(r = 0) + P(r = 1)) =
= 1 " 0, 0824 " 0, 2471 = 0, 6705

Parmetros:
E [x] = np = 7 0, 3 = 2,1
V[x] = npq = 2, 1 0, 7 = 1, 47
! = 1, 47

EJEMPLO 3.10:

En recientes estudios realizados sobre pacientes portadores de SIDA, se ha


podido determinar que el 70% consume algn tipo de droga. En la sala de espera de
una consulta especializada en esta enfermedad se encuentran en un determinado
momento seis personas. Cul es la probabilidad de que ninguno haya consumido
droga?.

Solucin:

E: "No consumir droga" P(E) = 0'3 = p


F: "Consumir droga" P(F) = 0'7 = q
Cada paciente es un caso distinto n=6

! 6$
P( x = 0 ) = # p 0q 6 = 0, 1176
" 0%

EJEMPLO 3.11:

Una poblacin de 20 animales insectvoros se introduce en una zona donde el


14% de los insectos que le sirven de alimento son venenosos. Cada animal devora al
da 5 insectos.
Calcular la probabilidad de que al cabo de una semana queden, como mnimo, la
mitad.
158

Solucin:

Suponiendo independencia se tiene:

P(no comer insecto venenoso) = 1-0'14 = 0'86


P(un animal no se envenene en un da) = P(comer 5 insectos no venenosos) =
= (0'86)5 = 0'47042
P(un animal no se envenene en 7 das) = (0,47042)7=0,005
P(un animal se envenene en 7 das) = 1-0'005 = 0'995

Sea X: "nmero de animales envenenados en una semana.

X ~ B(20,0'995)

10 " 20%
P( x ! 10) = ' $ 0, 995 k0, 00510( k = 2, 08975 10 (18
k=0 # k &

3.1.4 Distribucin de Poisson


En este caso la variable aleatoria representa el nmero de sucesos independientes
que ocurren, a una velocidad constante, en el tiempo o en el espacio.

Su nombre lo debe al francs Simen Denis Poisson, que fue el primero en


describirla en el Siglo XIX.

Veamos algunos ejemplos tpicos de esta distribucin:

El nmero de personas que llega a una tienda de autoservicio en un


tiempo determinado.
El nmero de solicitudes de seguro procesadas por una compaa en
un perodo especfico.
El nmero de bacterias en un cultivo.

La distribucin de Poisson es el modelo de probabilidad que ms se utiliza para


analizar problemas de listas de espera.

Podemos hablar de las siguientes caractersticas de una distribucin de Poisson:


159

1- Debemos tener un fenmeno dicotmico (ocurrencia o no de un


determinado suceso).
2- Las pruebas que se realicen han de ser independientes y la
probabilidad de xito se ha de mantener constante en todas ellas.
3- Los sucesos han de ser poco comunes, por eso se le conoce como
"Ley de los sucesos raros".
4- Puesto que la probabilidad de xito ha de ser pequea, entendemos
que p<0.05 y puesto que n ha de ser grande, entendemos n>100.
5- Los sucesos ocurren en un intervalo de tiempo.
6- Se caracteriza por un parmetro ! , que es el nmero medio de
ocurrencia del suceso aleatorio por unidad de tiempo.
7- Siempre que la media y la varianza sean similares, podemos pensar
en un modelo de Poisson.

Media: E [x] = np = !

Varianza: V[x] = ! = E[ x]

Es importante el hecho de que una distribucin binomial en la que n es grande y


p pequeo tiene una aproximacin excelente con la distribucin de Poisson. La funcin
de probabilidad ser el lmite de la funcin de densidad de la binomial cuando
n ! ", p ! 0 y np ! "

$ n' $ n'
lim & pr q n )r = lim & lim p r lim q n )r
n !" % r ( n! "% r ( p!0 n! "
p!0 p! 0
np !#
!
Teniendo en cuenta que p =
n
160

%$' r % $ n#r
lim 1 # '
n!
lim =
n!" r!(n # r)! & n ( n! "& n(
n
% $
1# '
n(n # 1)...(n # r + 1) $ r & n(
= lim lim
n r n!" % r
r! $
1# '
n!"
& n(
[1]
% $'n
lim 1 #
$r n(n # 1)...(n # r + 1) n!"& n(
= lim r
r! n!" n % $'r
lim 1 #
n! "& n(
Calculamos cada uno de estos lmites:

n n # 1 n # r +1
lim ... ! 1
n!" n n n
#$
+ # .
n
% ' $
% $'n - 1 * 0
lim 1 # )
! lim - 1 + n ! e #$
n!" & n( n!" ) * 0
-& #$ ( 0
, /
% $ r
lim 1 # ' !1
n!" & n(
Sustituyendo en [1] tenemos:

!r " !
P(!) = e
r!

Es la funcin de densidad de la distribucin de Poisson.

EJEMPLO 3.12:

Un comprador de grandes cantidades de circuitos integrados ha adoptado un


plan para aceptar un envo de stos, que consiste en inspeccionar una muestra de 100
circuitos provenientes del lote. Si el comprador encuentra no ms de dos circuitos
defectuosos en la muestra, acepta el lote; de otra forma, lo rechaza. Si se enva al
comprador un lote que contiene el 1% de circuitos defectuosos, cul es la
probabilidad de que sea aceptado el lote?.

Solucin:
161

Nuestra variable es:

X: "nmero de circuitos defectuosos en la muestra".

X~B(n=100, p=0'01) np=1

Si n50 y p0,1 se comporta aproximadamente como una Poisson.

P(aceptar el lote) = P(x ! 2) = P( x = 0 ) + P( x = 1) + P(x = 2) =

"1 10 "1 11 "1 12


=e +e +e = 0, 9197
0! 1! 2!

P(aceptar el lote) = 90%

EJEMPLO 3.13:

Es conocido el hecho de que cierto tipo de bacterias poseen, adems de sus


cromosomas, otras estructuras de ADN llamadas factores de resistencia. Estos factores
confieren a la bacteria resistencia a uno o varios antibiticos. En un determinado
medio el 0,06% de las bacterias no poseen dicha propiedad. Sobre una poblacin de
10.000 se desea saber:
a) La probabilidad de que el nmero de bacterias no poseyendo dicha resistencia
sea superior a 6, pero inferior a 15.
b) La probabilidad de que haya exactamente 5 sin resistencia antibitica.

Solucin:

Sea X el "nmero de bacterias que no poseen resistencia a los antibiticos".

X~B(n=10.000, p=0'0006)~P( ! =np=6)

a) P(6 < x < 15) = P(x ! 14 ) " P(x ! 6) = 0, 9986 " 0, 6063 = 0, 3923

5
!6 6
b) P( x = 5) = e = 0,1606
5!

EJEMPLO 3.14:

La probabilidad de que dos aminocidos determinados se combinen para formar


un dipptido es muy pequea y, en consecuencia, el nmero de dipptidos de una
162

determinada composicin que puedan observarse al analizar un conjunto de protenas


sigue una distribucin de Poisson, que por otras investigaciones sabemos que tiene
parmetro ! =0,4.
Si denominamos como X el nmero de dipptidos observados en una composicin
determinada:
a) Calcular la probabilidad de no encontrar ninguno de tales dipptidos en dicha
composicin.
b) Probabilidad de encontrar dos o ms.

Solucin:

a)
"0
P( x = 0 ) = e !" = e !0,4
0!
b)
P(x ! 2) = 1" P(x < 1) = 1 " P(x = 0) " P(x = 1) =

#0 0, 41 1 0, 4
= 1 " e "0,4 " e "0,4 = 1" 0,4 " 0,4
0! 1! e e

EJEMPLO 3.15:

El nmero medio de automviles que llega a una estacin de suministro de


gasolina es de 210 por hora. Si dicha estacin puede atender a un mximo de diez
automviles por minuto, determinar la probabilidad de que en un minuto dado, lleguen
a la estacin de suministro ms automviles de los que puedan atender.

Solucin:

La variable aleatoria X es el "nmero de automviles que llegan a la estacin de


servicio en un minuto ".

El suceso xito (1) consiste en que en un instante cualquiera llegue un automvil a


la estacin de suministro .

p es la probabilidad de xito y es suficientemente pequea, sin embargo , la


prueba puede repetirse un nmero suficientemente grande de veces.
163

Ocurre un determinado suceso en un intervalo de tiempo .

Cumple las condiciones de Poisson.

!r "!
P ( x = r) = e
r!

! es el nmero medio de veces que se da el suceso de probabilidad p.

210
!= = 3, 5
60

La estacin no podr atender si llegan ms de 10 automviles por minuto.

! 10
P( X > 10) = " P(x = r ) = 1 # " P(x = r ) =
r=11 r=0

$ 3,50 #3,5 3,510 #3,5 '


=1#& +...+
)( = 1 # 0, 9991 = 0, 0009
e e
% 0! 10!

EJEMPLO 3.16:

El nmero de clientes que llega a un banco es una variable de Poisson. Si el


nmero promedio es de 120 por hora, cul es la probabilidad de que en un minuto
lleguen por lo menos tres clientes?.

Solucin:

X: "nmero de clientes que llega a un banco en un minuto".

E[x]=120 clientes por hora.

120
E[X] = = 2=!
60
P( X ! 3) = 1" P(X < 3) = 1 " [P( x = 0 ) + P( x = 1) + P( x = 2 )] =
= 1 " 0,1353 " 0, 2707 " 0, 2707 = 0, 3233

La probabilidad es de un 33% aproximadamente.


164

EJEMPLO 3.17:

Del volumen de produccin diario en dos plantas diferentes de una fbrica, se


sabe que la probabilidad de que resulten r unidades defectuosa es:
4r !4
- en la 1a planta: e para r = 0, 1, 2, ...
r!
6r
- en la 2a planta: e !6 para r = 0, 1, 2, ...
r!
Determinar la probabilidad de que, en un da determinado:
a) resulten cinco o ms unidades defectuosas en la 1a planta.
b) resulten cuatro o menos unidades defectuosas en la 2a planta.
c) resulten ocho o ms unidades defectuosas del total de la produccin de la
fbrica.

Solucin:

a) X1: "nmero de unidades defectuosas en la 1a planta". ! P(4)

P( X1 ! 5) = 1" P(X1 < 5) = 1 " [ P( x1 = 0 )+...+ P(x1 = 4)]

P( X1 ! 5) = 0, 3711
b) X2: "nmero de unidades defectuosas en la 2a planta". ! P(6)

P( X2 ! 4 ) = P( x2 = 0)+...+P (x 2 = 4) = 0, 2851

c) X3: "nmero de unidades defectuosas del total de la produccin."

P( X3 ! 8) = 1" P( x3 < 8) = 0, 7797

Da la impresin de que la empresa debera revisar su produccin.

3.1.5 Distribucin Hipergeomtrica


En la distribucin binomial siempre aseguramos la independencia, es decir, el
muestreo se realiza con reemplazamiento y la probabilidad de xito es constante en cada
165

una de las pruebas. Supongamos que esto no ocurre, no hay reemplazamiento y la


variable aleatoria sigue otro tipo de distribucin. Veamos un ejemplo:

Sea N el nmero de profesores de un Centro de Enseanza Secundaria que deben


elegir Director entre dos candidatos A y B. Sea n el nmero de profesores que apoyan al
candidato A y N-n el nmero de profesores que apoyan al candidato B. Supongamos
que queremos hacer un sondeo antes de la votacin final, tomamos una muestra con K
profesores y le preguntamos el candidato al que piensan votar. Supongamos que X es la
variable aleatoria que nos mide el nmero de profesores de la muestra que piensan votar
al candidato A. El inters est en calcular la probabilidad de que X=r, es decir, que en la
muestra haya r personas que piensan votar al candidato A.

Deduciremos la frmula utilizando la Ley de Laplace.

De cuntas maneras puedo elegir muestras de tamao n entre N elementos que


tiene la poblacin?.
!# N$
casos posibles
"n%

De stos, cules sern favorables a nuestro suceso?. Aquellas que tengan r xitos
y N-r fracasos.
(r veces) (n! r veces )
EE
!#"...#
$E FF
!#"...#
$F
Np Nq

Es preciso conocer la probabilidad de xito y la probabilidad de fracaso en la


poblacin. El nmero de casos favorables ser:

!# Np$ !# Nq $
" r % " n & r%

Por consiguiente:
!# Np$ !# Nq $
" r % " n & r%
P( X = r ) = ; r = 0,1,2,..., n
!# N$
" n%

Media: E [x] = np
166

N !n
Varianza: V[x] = npq
N !1

n
Cuando ! 0, 05 , la distribucin hipergeomtrica se aproxima a la binomial.
N

EJEMPLO 3.18:

Un fabricante asegura que slo el 1% de su produccin total se encuentra


defectuosa. Supngase que se ordenan 1000 artculos y se seleccionan 25 al azar para
inspeccionarlos. Si el fabricante se encuentra en lo correcto, cul es la probabilidad
de observar dos o ms artculos defectuosos en la muestra?.

Solucin:

Tenemos una poblacin de tamao N=1000

X: "nmero de artculos defectuosos en la muestra".

P(xito)=0,0 l

Tamao de la muestra n=25

Si inspeccionamos uno de los 25, ese no lo volvemos a inspeccionar, luego no hay


reemplazamiento, la p de las distintas pruebas no se mantiene constante. Se trata de una
distribucin hipergeomtrica.

P( x ! 2) = l " P(x < 2) = l " [P(x = 0 ) + P(x = 1)]

!# 1000 0, 01$ !# 1000 0, 99$ &


" 0 %" 25 % (
P( X = 0 ) = = 0, 7754
!# 1000$ (
" 25 % (
'P( X * 2) = 0, 0239
!# 10$ !# 990 $
(
" 1 % " 24 %
P( X = 1) = = 0, 2007 (
!# 1000$ (
" 25 % )
167

n 25
Puesto que = = 0, 025 < 0, 05
N 1000

Podemos aproximar por una binomial:

P( x ! 2) = l " [ P( x = 0) + P( x = 1)] =
# 25& # 25&
=1"% 0, 010 0, 9925 " % 0, 011 0, 9924 =
$0' $1'
1 " 0, 7778 " 0,1964 = 0, 0258

EJEMPLO 3.19:

Supngase que se tienen 50 representantes de cierto estado, en una convencin


poltica nacional, de los cuales 30 apoyan al candidato A y 20 al candidato B.
Si se seleccionan aleatoriamente 5 representantes, cul es la probabilidad de
que, entre estos cinco, por lo menos dos apoyen al candidato A?.

Solucin:

X: "nmero de personas de la muestra que apoyan al candidato A.

N = 50!#
&
n = 5 "X % H' 50, 5, ()
3
3 5
p= #
5$
P( x ! 2) = l " P(x < 2) = 1 " [ P(x = 0) + P( x = 1)]
# 3 # 2 )
50 & 50 &
% 5( % 5( +
$ 0 '$ 5 ' +
P(X = 0) =
#% 50& +
$ 5' +
P( X ! 2) = 0, 9241
# 3& # 2& *
5( +
50 50
% 5( %
$ 1 '$ 4 ' +
P(X = 1) =
#% 50& +
$ 5' +,

No hay duda de que al menos dos apoyarn al candidato A. con una probabilidad
del 92%.
168

EJEMPLO 3.20:

En una clase en la que hay 20 estudiantes, 15 estn insatisfechos con el texto que
se utiliza. Si se le pregunta acerca del texto a cuatro estudiantes tomados al azar,
determine la probabilidad de que:
a) exactamente tres estn insatisfechos con el texto.
b) cuando menos tres estn insatisfechos.

Solucin:

Hay dos sucesos mutuamente excluyentes:

P(estar satisfechos) = 5/20 = 1/4


P(no estar satisfecho) = 15/20 = 3/4

Las pruebas son sin reemplazamiento, no tiene sentido volver a preguntar al


mismo estudiante que se le pregunt antes.

X: "nmero de alumnos que estn insatisfechos con el texto".

!
Es una H" 20;4, #$
3
4

a)
!# Np$ !# Nq $ !# 15$ !# 5$
" r % " n & r% " 3 % " 1%
P( X = 3) = = = 0, 469
!# N$ !# 20$
" n% " 4%
b)
P( X ! 3) = P(x = 3) + P(x = 4 ) = 0, 75

EJEMPLO 3.21:

Un equipo departamental incluye cinco bilogos especialistas en microbiologa y


nueve mdicos. Si se eligen al azar cinco personas y se les asigna un proyecto, cul es
la probabilidad de que el equipo del proyecto incluya exactamente a dos bilogos?.
169

Solucin:

X: "nmero de bilogos incluidos en el proyecto".


P(bilogo) = 5/14
P(mdico) = 9/14

"
X ! H# 14;5, $%
5
14

!# 5$ !# 9$
" 2% " 3%
P( X = 2 ) = = 0, 42
!# 14$
" 5%

EJEMPLO 3.22:

Considrese un fabricante de ordenadores que compra los microprocesadores a


una compaa donde se fabrican bajo estrictas especificaciones. El fabricante recibe un
lote de 40 microprocesadores. Su plan para aceptar el lote consiste en seleccionar 8, de
manera aleatoria y someterlos a prueba. Si encuentra que ninguno de los
microprocesadores presenta serios defectos, el fabricante acepta el lote; de otra forma
lo rechaza. Suponiendo que el lote contenga dos microprocesadores con serios
defectos, cul es la probabilidad de que sea aceptado?

Solucin:

X: "nmero de microprocesadores defectuosos en la muestra".

"
X ! H# 40;8, $% p =
20 1 19
q=
40 20 20
"& 2 $ "& 38$
# 0% # 8 %
P( X = 0) = = 0, 6359
"& 40$
# 8%

Si la persona que vende sabe que le controlarn el producto, procurar que la


empresa efecte un control de calidad antes de iniciar las ventas. Aumentar la calidad
del producto.
170

EJEMPLO 3.23:

Una compaa dedicada a la produccin de artculos electrnicos, utiliza un esquema


para la aceptacin de artculos, para su ensamblaje, antes de ser embarcados, que
consiste en lo siguiente:
Los artculos estn embalados en cajas de 25 unidades y un tcnico de la compaa
selecciona aleatoriamente tres artculos, de tal manera que si no encuentra ningn
artculo defectuoso, la caja se embarca.
a) Cul es la probabilidad de que se embarque una caja que contiene tres artculos
defectuosos'?.
b) Cul es la probabilidad de que una caja que contiene slo un artculo defectuoso
regrese para su verificacin?.

Solucin:

X: "nmero de artculos defectuosos en la muestra".

a) Si la caja contiene tres artculos defectuosos, la distribucin es:

3 22
N = 25 N1 = 3 N2 = 22 p= q=
25 25
!# Np$ !# Nq $ !# 3$ !# 22 $
" xi % " n & x i % " 0% " 3 & 0%
P( X = 0 ) = = = 0, 6696
!# N$ !# 25$
"n% " 3%
Hay una probabilidad del 67% de que se embarque la caja.

b) La caja slo contiene un articulo defectuoso.


1 24
N = 25 p= q=
25 25
! 1 $! 24 $
25 25
# 25 & # 25 &
" 0 %" 3 %
P( X = 0 ) = = 0, 88
!# 25$
"3%

Lgicamente la probabilidad de que no embarque es: 1-0,88 = 0,12

Lo ms probable es que las cajas que tengan un artculo defectuoso sean


embarcadas.
171

EJEMPLO 3.24:

Supongamos que una compaa hace el estudio de la calidad conforme a otro


esquema.
Se toma un artculo, se inspecciona y se devuelve a la caja; lo mismo ocurre con
un 2 y un 3er artculo.
La caja no se embarca si cualquiera de los tres artculos es defectuoso.

Solucin:

! 3
a) B 3, #
" 25 $
! 3$ ! 3 0 ! 22 3
P( x = 0 ) = # " $% " $% = 0, 6815
" 0% 25 25
! 1
b) B 3, #
" 25 $
!# 3$ ! 1 $ 0 ! 24 $ 3
P( x = 0 ) = = 0, 8847
" 0% " 25% " 25 %

La probabilidad de no embarcar sera: 1 - 0,8847 = 0,1153

EJEMPLO 3.25:

Considrese un fabricante de automviles que compra los motores a una


compaa donde se fabrican bajo estrictas especificaciones. El fabricante recibe un
lote de 40 motores. Su plan para aceptar el lote consiste en seleccionar 8, de manera
aleatoria, y someterlos a prueba. Si encuentra que ninguno de los motores presenta
serios defectos, el fabricante acepta el lote; contiene dos motores con serios defectos,
cul es la probabilidad de que sea aceptado?.

Solucin:

X: "nmero de motores defectuosos en la muestra".


172

!
H" 40;8, #$
2 1
N = 40 n=8 p=
40 20
!% 2# !% 38#
" 0$ " 8 $
P(X = 0) = = 0, 6359
!% 40#
" 8$
173

"DISTRIBUCIONES DE PROBABILIDAD
CONTINUAS"

3.2 Parte bsica


174

3.2.1 Distribucin normal.


3.2.1.1 Introduccin
La distribucin Normal es la distribucin continua ms importante del Clculo de
Probabilidades y de la Estadstica. Aparece por primera vez en 1733 en los trabajos de
DE MOIVRE relativos al clculo de la distribucin lmite de una variable binomial.
Posteriormente, en 1809, GAUSS y ms tarde, en 1812, LAPLACE la estudiaron en
relacin con la teora de errores de datos experimentales, al tratar de hallar el valor
correcto ms probable entre una serie de medidas. Primero, GAUSS, pens que la
media aritmtica de los valores sera el valor correcto. Ms tarde, al dibujar la
distribucin de frecuencias, observaron cmo los valores extremos eran incorrectos y
cada vez las medidas se hacen ms iguales y ms numerosas, hasta concentrarse en un
valor medio que es el valor ms frecuente. Por esto, la distribucin normal se conoce
tambin con el nombre de distribucin de GAUSS-LAPLACE.

Una primera aproximacin de la distribucin normal puede observarse con el


experimento que realiz SIR FRANCIS GALTON, que construy un ingenioso aparato,
formado por un tablero inclinado, en el que se distribuyen regularmente un sistema de
clavos, para acabar finalmente en compartimentos estrechos. Al deslizar muchas bolas
desde un depsito superior, estas chocan con los clavos, y se alejan ms o menos de la
lnea central de cada. Las alturas alcanzadas por las bolas en los compartimentos
estrechos da una idea de la curva de la distribucin normal (ver figura 3.2).

Figura 3.2: Dispositivo de Galton


175

El nombre de distribucin normal se debe al hecho de que una mayora de las


variables aleatorias de la Naturaleza siguen esta distribucin, lo que hizo pensar que
todas las variables continuas de la Naturaleza eran normales, llamando a las dems
distribuciones "anormales". No obstante, hoy en da, ya no se piensa de la misma
manera, ya que ningn estadstico dice que una distribucin que no sea normal, es
anormal. No obstante, la distribucin normal es la ms importante por sus propiedades
sencillas, porque aparece frecuentemente en la Naturaleza, (fenmenos relacionados con
psicologa, biologa, etc. ), y por una propiedad de algunos fenmenos que se aproximan
asintticamente a la distribucin normal (Teorema Central del Lmite).

3.2.1.2 Definicin
De modo riguroso, se dice que una variable aleatoria sigue una distribucin
normal de media , y desviacin tpica , y se designar por N(, ), si se cumplen las
siguientes condiciones:

La variable recorre toda la recta real, y la funcin de densidad es de la forma:

1 # 1 ( x# ) 2
f(x) = e 2 !
! 2"

donde e = 2.71828; = 3.14159; es la media de la distribucin y es la desviacin


tpica.

Esta funcin de densidad que parece en principio con una expresin matemtica
aparentemente complicada, tiene la siguiente representacin (figura 3.3):

Figura 3.3: Representacin grfica da la campana de Gauss


conocida como campana de Gauss, y con las siguientes propiedades:
176

1.- La curva tiene forma campaniforme y es simtrica respecto a la recta vertical x = .


ya que el valor de la densidad es idntico en + c y en - c, para todo valor de c, pues:
2 2
1 # ( +c #2) 1 #c2
f( + c) = e 2! = e 2!
! 2" ! 2"
( #c # ) 2 2
1 # 1 # c2
2!2
f( # c) = e = e 2!
! 2" ! 2"

2.- La ordenada es mxima en x = .

La derivada de la funcin de densidad es:

(x# ) 2 (x# ) 2
1 # $ 1 ' 1 #
2! 2 2! 2
f' (x) = e &% # 2! 2 (x # ))( = # ! 3 2" e (x # )
! 2"

como la exponencial es siempre distinta de cero, se verifica que:

f' (x) = 0 ! (x " ) = 0 ! x =

como la derivada segunda es:

' $ 2(x ! ) ! (x!2")2 '


2 2
1 ! (x!)2 $ 1
f'' (x) = ! 3 e 2"
+ &! 3 (x ! ) ) & ! e )=
" 2# % " 2# (% 2" 2 (
2
1 ! (x !)2 $ (x ! )2 '
=! 3
&%1 ! "2 )(
e 2"
" 2#

como se verifica que :

1 1
f'' () = ! 3 e 0 (1 ! 0) = ! 3 <0
" 2# " 2#

luego en x = la funcin de densidad presenta un mximo de valor

1
f() =
! 2"
177

3.- El rea del recinto encerrado bajo la campana y el eje x es igual a la unidad.

Por tratarse de una funcin de densidad. Y al ser simtrica, deja igual rea, 0,5, a
la izquierda y a la derecha de la recta x = . Esto se verifica porque:

+" +" (x !) 2
!
# #
1 2$ 2
f(x) = e dx =
!" !" $ 2%

x!
haciendo el cambio de variable = y , entonces dx = dy, y por lo tanto
"

+$ 2 +$ # y2
% %
1 # y2 1 1
= e !dy = e 2 dy = 2" = 1
#$ ! 2" 2" #$ 2"

ya que la ltima integral, conocida como la integral de Gauss vale 2! , ya que:

+" ! y 2 +" ! y 2
I=
#!" e2
dy = 2
#0 e 2
dy = 2I1

y al multiplicar I1 por s misma, y mediante mtodos de integracin doble, resulta su


cuadrado igual a /2.

4.- Presenta puntos de inflexin en los puntos de abscisas + y - , donde cambia


de concavidad (lo que determina que cunto mayor sea , ms achatada sea la curva).

El punto de inflexin se obtiene al igualar a cero la derivada segunda, por lo tanto:

(x " )2 x"
f'' (x) = 0 ! 1 " 2 = 0! = 1 ! x = #
# #

As, pues, presenta puntos de inflexin en los puntos x = + y en x = - ,


donde las coordenadas de los puntos son: en x = +

( +! # )2 2
1 # 1 # !2 1 #1 1
2! 2
f( + !) = e = e 2! = e 2=
! 2" ! 2" ! 2" ! 2"e

y en el punto x = -
178

( !" ! )2 2
1 ! 1 ! "2 1 !1 1
2" 2
f( ! ") = e = e 2" = e 2=
" 2# " 2# " 2# " 2#e

5.- Es asinttica al eje de abscisas.

Pues como ex tiende a 0 cuando x tiende a infinito, entonces:

(x% ) 2
1 %
2# 2
lim f(x) = lim e =0
x!+" x!+" # 2$

es decir, el eje OX es una asntota horizontal, e igual para x tendiendo a -.

En la figura 3.4 puede observarse que para fijo, el variar tiene el efecto de
desplazar la curva hacia la derecha o la izquierda; manteniendo constante, el cambio
de tiene por efecto acercar o alargar del valor medio los puntos de inflexin, es
decir, un apuntamiento o aplastamiento de la curva (ver figura 3.5).

-a +a

Figura 3.4: Efecto de la variacin de en la distribucin normal


179

Figura 3.5: Efecto de la variacin de manteniendo constante

3.2.1.3 La distribucin normal estndar N(0,1)


En las familias representadas por las distribuciones normales ocupa un lugar
especial la distribucin que tiene de media cero ( = 0) y por desviacin tpica la unidad
( = 1). Esta distribucin se llama la distribucin normal estndar, o reducida.

Su funcin de densidad es:

1 " x22
f(x) = e x #("$, +$)
2!

y su funcin de distribucin es la siguiente:

&
x2
F( x) = P( ! " x) = 1 e$ 2
dx
2#
$%

y cuyas representaciones aparecen en las figura 3.6:


180

1,2

,8

,6
1
,4 2!

,2

-,2
-4 -3 -2 -1 0 1 2 3 4

Figura 3.6: Representacin de las funciones de densidad y distribucin de la N(0,1).

La funcin de distribucin de la ley normal estndar proporciona el rea del


recinto que encierra la funcin de densidad, hasta el punto x, y con el fin de facilitar el
clculo de sta superficie, y no tener que utilizar en todo momento el clculo integral, se
han elaborado unas tablas de fcil uso, entre las que se encuentran las que aparecen a
continuacin:

x 0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.5359
0.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.5714 0.5753
0.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.6141
0.3 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.6480 0.6517
0.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6844 0.6879
0.5 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.7190 0.7224
0.6 0.7257 0.7291 0.7324 0.7357 0.7389 0.7422 0.7454 0.7486 0.7517 0.7549
0.7 0.7580 0.7611 0.7642 0.7673 0.7704 0.7734 0.7764 0.7794 0.7823 0.7852
0.8 0.7881 0.7910 0.7939 0.7967 0.7995 0.8023 0.8051 0.8078 0.8106 0.8133
0.9 0.8159 0.8186 0.8212 0.8238 0.8264 0.8289 0.8315 0.8340 0.8365 0.8389
1.0 0.8413 0.8438 0.8461 0.8485 0.8508 0.8531 0.8554 0.8577 0.8599 0.8621
1.1 0.8643 0.8655 0.8686 0.8708 0.8729 0.8749 0.8870 0.8790 0.8810 0.8830
1.2 0.8849 0.8869 0.8888 0.8907 0.8925 0.8944 0.8962 0.8980 0.8997 0.9015
1.3 0.9032 0.9049 0.9066 0.9082 0.9099 0.9115 0.9131 0.9147 0.9162 0.9177
1.4 0.9192 0.9207 0.9222 0.9236 0.9251 0.9265 0.9279 0.9292 0.9306 0.9319
1.5 0.9332 0.9345 0.9357 0.9370 0.9382 0.9394 0.9406 0.9418 0.9429 0.9441
1.6 0.9452 0.9463 0.9474 0.9484 0.9495 0.9505 0.9515 0.9525 0.9535 0.9545
1.7 0.9554 0.9564 0.9573 0.9582 0.9591 0.9599 0.9608 0.9616 0.9625 0.9633
1.8 0.9641 0.9649 0.9656 0.9664 0.9671 0.9678 0.9686 0.9693 0.9699 0.9706
1.9 0.9713 0.9719 0.9726 0.9732 0.9738 0.9744 0.9750 0.9756 0.9761 0.9767
2.0 0.9772 0.9778 0.9783 0.9788 0.9793 0.9798 0.9803 0.9808 0.9812 0.9817
2.1 0.9821 0.9826 0.9830 0.9834 0.9838 0.9842 0.9846 0.9850 0.9854 0.9857
2.2 0.9861 0.9864 0.9868 0.9871 0.9875 0.9878 0.9881 0.9884 0.9887 0.9890
2.3 0.9893 0.9896 0.9898 0.9901 0.9904 0.9906 0.9909 0.9911 0.9913 0.9916
2.4 0.9918 0.9920 0.9922 0.9925 0.9927 0.9929 0.9931 0.9932 0.9934 0.9936
2.5 0.9938 0.9940 0.9941 0.9943 0.9945 0.9946 0.9948 0.9949 0.9951 0.9952
2.6 0.9953 0.9955 0.9956 0.9957 0.9959 0.9960 0.9961 0.9962 0.9963 0.9964
2.7 0.9965 0.9966 0.9967 0.9968 0.9969 0.9970 0.9971 0.9972 0.9973 0.9974
2.8 0.9974 0.9975 0.9976 0.9977 0.9977 0.9978 0.9979 0.9979 0.9980 0.9981
2.9 0.9981 0.9982 0.9982 0.9983 0.9984 0.9984 0.9985 0.9985 0.9986 0.9986
Tablas de la distribucin normal estndar
181

3.2.1.4 Manejo de las tablas de la normal estndar


Las tablas anteriores nos proporcionan directamente la funcin de distribucin de
la variable normal estndar, por lo que ellas nos darn directamente la probabilidad de
que la variable tome valores menores o iguales que un determinado valor (P( x)).

Veamos su utilizacin con un ejemplo sencillo. Si Z es una variable que sigue una
distribucin N(0,1), calcularemos la probabilidad de que la variable Z tome valores
menores o iguales a 1.37.

La probabilidad pedida es el rea sombreada de la figura 3.7.

Figura 3.7: rea hasta el valor 1.37

y se encuentra directamente en la tabla sin ms que buscar 1.3 en la primera columna, y


0.07 en la primera fila; su interseccin nos da la probabilidad:

Es decir:
P(Z 1.37) = 0.9147
que quiere decir que el 91.47% de las observaciones se encuentran distribuidas entre -
y 1.37.
182

Existen adems de las tablas anteriores otros tipos de tablas publicadas de la


distribucin normal estndar. Quiz las ms importantes sean las siguientes:

1.- Tabla de dos colas :

Esta tabla da las reas de las dos colas de la distribucin, es decir, da la siguiente
probabilidad
P( |Z| a ) = P( - < Z -a ) + P( a Z < + )

-a 0 a

Figura 3.8: rea de la tabla de dos colas

2.- Tabla de una cola :

Nos da el rea de la cola derecha de la distribucin, es decir, la siguiente


probabilidad
P( Z a )

3.- Tabla de valores :

Que contiene todos los valores entre 0 e infinito.


183

4.- Tabla de reas acumuladas :

Nos da la probabilidad de que un valor est comprendido entre - y a, es decir, la


siguiente probabilidad
P( - < Z -a )

Este ltimo tipo de tablas es el que hemos utilizado anteriormente, pues nos
proporciona la funcin de distribucin de la variable.

3.2.1.5 Tipificacin de la variable


Hemos indicado anteriormente que la distribucin normal estndar N(0,1) se
encuentra tabulada, lo que nos permite un clculo rpido de las probabilidades asociadas
a sta distribucin. Pero no existen tablas para el clculo de las probabilidades de otras
distribuciones normales, adems de que tendran que existir infinitas tablas (una para
cada posible par de combinaciones de media y desviacin tpica). Aprovechando que el
comportamiento de las curva de las distribuciones normales es siempre el mismo, nos
hace pensar que podra existir una distribucin normal que permanezca invariable, sea
cul sea la variable. Esta es la distribucin normal estndar, y el proceso de pasar de una
distribucin normal cualquiera a una distribucin normal estndar se denomina
tipificacin de la variable, que equivale a cambiar la escala de partida de los valores de
X en una nueva escala patrn. Esto se lleva a cabo en dos pasos:

1 Centrar, es decir, trasladar la media de la distribucin al origen de


coordenadas, lo que equivale a hacer = 0.
2 Reducir la desviacin tpica a 1, que equivale a dilatar o contraer la grfica
de la distribucin hasta que coincida con la grfica de la funcin normal
estndar.

Esto se consigue mediante el cambio de variable siguiente:

X!
Z=
"

que produce la siguiente transformacin de escala de medidas:


184

Valores de X
-2! -! +! +2!

Valores de Z
-2 -1 0 1 2

3.2.1.6 Propiedades de la distribucin normal


SUMA O RESTA DE VARIABLES NORMALES

Si X1 es una variable que se distribuye normalmente N(1, 1), y X2 es otra


variable que se distribuye normalmente N(2, 2). Entonces la variable X = X1 X2
sigue tambin una distribucin normal con media = 1 2, y cuya varianza es 2 =
12+ 22. Es decir, la variable X sigue una distribucin

N( 1 2 , ! 12 + ! 22 )

TEOREMA DE DE MOIVRE

Si X es una variable binomial de parmetros n y p; entonces si n es grande y p, ni


pequeo ni grande, (o sea, ni p ni q prximos a cero) podemos considerar que esa
variable X sigue una ley normal de media np y varianza npq, y por lo tanto, la variable

X ! np
Z=
npq

sigue una distribucin normal N(0,1).

En este caso hemos de tener en cuenta que X era una variable aleatoria discreta y
queremos tratarle cmo continua, por lo que es preciso hacer una correccin para
continuidad. As se verifica que:

P(X = 3) = P(2.5 < X 3.5)


P(X 3) = P(X 3.5)
P(X < 3) = P(X 2.5)
185

Obviamente stas no son igualdades ciertas, pero permiten tratar la variable


discreta como continua.

Si en lugar de trabajar con una variable aleatoria binomial partisemos de una


variable de Poisson o una Hipergeomtrica, la aproximacin sera absolutamente
similar.

TEOREMA CENTRAL DEL LMITE

Si X es una variable aleatoria (no importa como se distribuya) con media y


varianza 2, y tomamos una muestra de n elementos, entonces la distribucin muestral
de la media aritmtica de la muestra es aproximadamente normal con media y
varianza 2/n, siendo mejor la aproximacin a medida que aumenta el tamao de la
muestra.

Lgicamente, si X es una variable que se distribuye normalmente, la media


muestral se distribuye exactamente como una distribucin normal.

Este teorema es importante en posteriores unidades, ya que nos dar pie a


resultados fundamentales de la Inferencia Estadstica.
186

3.2.2 Modelo Chi-cuadrado (de Pearson)

3.2.2.1 Definicin
Es otra distribucin de gran importancia en Estadstica, que fue descubierta por
HELMET (1876), pero cay en el olvido hasta que en 1900 fue descubierta de nuevo
por PEARSON.

Es una variable obtenida al sumar los cuadrados de n variables aleatorias normales


estndar, independientes entre s. Recibe el nombre de 2 n de PEARSON, con n grados
de libertad, o sea,
2 n = Z12 + Z22 + ..... + Zn2
siendo cada Zi una variable normal N(0,1), e independientes.

Esta variable depende, pues, del nmero de sumandos que la forman, llamado
"grados de libertad", y el rango es el semieje real positivo (ya que es una suma de
cuadrados).

La funcin de densidad de una variable 2 n es la siguiente:

$ 1
e " 2 x 2 "1 si
x n
x# 0*
f(x) = % 2 2 !(n 2)
n

& 0 si x<0

Para cada valor de n se tiene una curva distinta, como representacin de su


funcin de densidad. La figura 3.9 representa las funciones de densidad de variables
Chi-cuadrado para diferentes valores de n.

#
n "1 "x
* (n) es la funcin gamma, que denota la siguiente integral: !( n ) = $ x e dx que verifica, que
0
si n en entero (n) = (n-1)! ; adems (n/2) = .
187

Figura 3.9: Comparacin entre las funciones de densidad de la variable


chi-cuadrado para distintos valores de n.

3.2.2.2 Propiedades de la distribucin chi-cuadrado


1.- La variable solo puede tomar valores positivos.

2.- Es asimtrica.

3.- Depende del parmetro n (grados de libertad).

4.- Su esperanza matemtica es n, y su varianza, 2n.

5.- Propiedad aditiva o reproductiva :Si 2n y 2m son dos variables Chi-


cuadrado con n y m grados de libertad respectivamente, independientes
entre s, entonces la suma de las dos variables es una variable Chi-cuadrado
con n+m grados de libertad. Esto se puede generalizar a la suma de
cualquier nmero de variables Chi-cuadrado, independientes.

6.- Al aumentar el nmero de grados de libertad, la distribucin Chi-


cuadrado se aproxima asintticamente a una distribucin normal.
Esta aproximacin es de la siguiente forma:
para n > 30, la variable 2! 2n se aproxima asintticamente a una variable
N( 2n ! 1,1) .

7.- En una variable aleatoria normal N(, ), si tomamos una muestra de


tamao n se verifica que
188

(n ! 1)s2
2 es aproximadamente 2n-1
"
2
siendo s la cuasivarianza muestral.

3.2.2.3 Manejo de las tablas de la chi-cuadrado


A continuacin aparecen las tablas en las que figuran tabuladas las distribuciones
Chi-cuadrado.

Dentro de la tabla figura el valor de la variable que en una distribucin Chi-


cuadrado con los grados de libertad que vienen indicados en la primera columna, deja
un rea , indicado en la primera fila, a su derecha.
189

g.l \ 0.9950 0.9750 0.950 0.900 0.200 0.10 0.050 0.025 0.010 0.001
1 0.0000393 0.000982 0.00393 0.0158 1.642 2.706 3.841 5.024 6.631 10.828
2 0.0100 0.0506 0.103 0.211 3.219 4.605 5.g91 2.378 9.210 13.816
3 0.0717 0.216 0.352 0.584 4.642 6.251 7.851 9.348 11.345 16.266
4 0.207 0.484 0.711 1.064 5.989 7.779 9.488 11.143 13.277 18.467
5 0.412 0.831 1.]45 1.610 7.289 9.236 11.070 12.833 15.086 20.515
6 0.676 1.237 1.635 2.204 8.558 10.645 17.592 14.449 16.812 22.458
7 0.989 1.690 2.167 2.833 9.803 17.017 14.067 16.013 18.475 74.327
8 1.344 2.180 2.733 3.490 11.030 13.362 15.507 17.535 20.090 26.124
9 1.735 2.700 3.325 4.168 17.242 14.684 16.919 19.023 21.666 77.877
10 2.156 3.247 3.940 4.865 13.442 15.987 18.307 20.483 23.209 29.588
11 2.603 3.816 4.575 5.578 14.631 17.275 19.675 21.920 24.725 31.264
12 3.074 4.404 5.226 6.304 15.812 18.549 21.026 23.337 26.217 32.909
13 3.565 5.009 5.897 7.047 16.985 19.812 22.362 24.736 27.588 34.528
14 4.075 5.629 6.571 7.790 18.151 21.064 23.685 26.119 29.141 36.173
15 4.601 6.262 7.261 8.547 19.311 22.307 24.996 27.488 30.578 37.697
16 5.142 6.908 7.962 9.312 20.465 23.452 26.296 28.845 32.000 39.752
17 5.697 7.564 8.672 10.085 21.615 24.769 27.587 30.191 33.409 40.790
18 6.265 8.231 9.390 10.865 22.760 25.989 28.869 31.526 34.805 42.312
19 6.844 8.907 10.117 11.651 23.900 27.204 30.144 32.857 36.191 43.820
20 7.434 9.591 10.851 12.443 25.038 28.412 31.410 34.170 37.566 45.315
21 8.034 10.283 11.591 13.240 26.171 29.615 32.671 35.479 38.932 46.797
22 8.643 10.982 12.338 14.041 27.301 30.813 33.924 36.781 40.289 48.268
23 9.260 11.689 13.091 14.848 28.429 32.007 35.172 38.076 41.638 49.728
24 9.886 12.401 13.848 15.659 29.553 33.196 36.415 39.364 42.980 51.179
25 10.520 13.120 14.611 16.473 30.675 34.382 37.652 40.646 44.314 57.620
26 11.160 13.844 15.379 17.292 31.795 35.563 38.885 41.923 45.642 54.052
27 11.808 14.573 16.151 18.114 32.912 36.741 40.113 43.195 46.963 55.476
28 12.461 15.308 16.928 18.939 34.027 37.916 41.337 44.461 48.278 56.892
29 13.121 16.047 17.708 19.769 35.139 39.087 42.557 45.722 49.588 58.301
30 13.787 16.791 18.493 20.599 36.250 40.256 43.773 46.979 50.892 59.703

Tabla de la distribucin Chi-cuadrado

EJEMPLO 3.26:

Si X sigue una distribucin Chi-cuadrado con 12 grados de libertad.

Cul es el valor de la variable que deja a su derecha un rea de 0.05?

Solucin:

Buscando en la tabla: 21.026


190

3.2.3 Distribucin t de Student

3.2.3.1 Definicin
La distribucin "t" es sumamente importante en Inferencia Estadstica; fue
descubierta por GOSSET (1908). El nombre de STUDENT es el seudnimo con el que
firm sus publicaciones estadsticas, y puede pensarse de l que es el fundador de la
inferencia estadstica exacta, pues hasta 1908 era corriente tratar a la variable

(x ! )
s n

como una variable normal.

En su definicin matemtica, sean (, 1, 2, ....., n) n+1 variables aleatorias


normales N(0,1) e independientes

Se define la variable "t" de STUDENT con n grados de libertad como

!
tn =
!12 + !22 +!+!2n
n

Tambin puede definirse a travs de una variable Z normal estndar N(0,1), y una
variable 2 que siga una distribucin Chi-cuadrado con n grados de libertad; se define
entonces la variable "t" de STUDENT con n grados de libertad como

Z
tn =
! 2n
n

La funcin de densidad de esta variable es:

2&)
n+1
!( n+1 ) # x 2

f(x) = 2 %1 + (
n"!( n2 ) $ n'
191

3.2.3.2 Propiedades de la distribucin "t"


1.- Depende de un nico parmetro, el nmero de grados de libertad.

2.- El rango de la variable es todo el eje real (-, +).

3.- Su grfica es simtrica respecto al eje de ordenadas OY.

4.- El valor x = 0 es la media, mediana y moda de la distribucin.

5.- Al aumentar n, se va haciendo cada vez ms apuntada la grfica de su


funcin de densidad, siendo el lmite para n ! la curva normal tipificada.

Distr. Normal

Distr. t de Student

Figura 3.10: Funcin de densidad de la distribucin normal y de la "t".

6.- En el muestreo de una poblacin normal N(, ), si tomamos una


muestra de tamao n de media x y varianza S2, la variable

(x ! )
t n!1 = s
n !1

sigue una distribucin "t" de STUDENT con n-1 grados de libertad.

Esta propiedad es muy utilizada en la estimacin y el contraste de hiptesis sobre


la media de la poblacin.
192

3.2.3.3 Manejo de las tablas de la distribucin "t"


Existen diferentes tipos de tablas de la distribucin "t", siendo las ms utilizadas
las de una cola, y las de dos colas.
Nosotros expondremos la utilizacin de las tablas de dos colas que aparecen a
continuacin:

gl 0.50 0.40 0.30 0.20 0.10 0.05 0.02 0.01 0.001


1 1.000 1.376 1.963 3.078 6.314 12.706 31.821 63.657 636.619
2 0.816 1.061 1.386 1.886 2.920 4.303 6.965 9.925 31.598
3 0.765 0.978 1.250 1.638 2.353 3.182 4.541 5.841 12.929
4 0.741 0.941 1.190 1.533 2.132 2.776 3.747 4.604 8.610
5 1.727 0.920 1.156 1.476 2.015 2.571 3.365 4.032 6.869
6 0.718 0.906 1.134 1.440 1.943 2.447 3.143 3.707 5.959
7 0.711 0.896 1.119 1.415 1.895 2.365 2.998 3.499 5.408
8 0.706 0.889 1.108 1.397 1.860 2.306 2.896 3.355 5.041
9 0.703 0.883 1.100 1.383 1.833 2.262 2.821 3.250 4.781
10 0.700 0.879 1.093 1.372 1.812 2.228 2.764 3.169 4.587
11 0.697 0.876 1.088 1.363 1.796 2.201 2.718 3.106 4.437
12 0.695 0.873 1.083 1.356 1.782 2.179 2.681 3.055 4.318
13 0.694 0.870 1.07~ 1.350 1.771 2.160 2.650 3.012 4.221
14 0.692 0.868 1.076 1.345 1.761 2.145 2.624 2.977 4.140
15 0.691 0.866 1.074 1.341 1.753 2.131 2.602 2.947 4.073
16 0.690 0.865 1.071 1.337 1.746 2.120 2.583 2.921 4.015
17 0.689 0.863 1.069 1.333 1.740 2.110 2.567 2.898 3.965
18 0.688 0.862 1.067 1.330 1.734 2.101 2.552 2.878 3.922
19 0.688 0.861 1.066 1.328 1.729 2.093 2.539 2.861 3.883
20 0.687 0.860 1.064 1.325 1.725 2.086 2.528 2.845 3.850
21 0.686 0.859 1.063 1.323 1.721 2.080 2.518 2.831 3.819
22 0.686 0.858 1.061 1.321 1.717 2.074 2.508 2.819 3.792
23 0.685 0.858 1.060 1.319 1.714 2.069 2.500 2.807 3.767
24 0.685 0.857 1.059 1.318 1.711 2.064 2.492 2.797 3.745
25 0.684 0.856 1.058 1.316 1.708 2.060 2.485 2.787 3.725
26 0.684 0.856 1.058 1.315 1.706 2.056 2.479 2.779 3.707
27 0.684 0.855 1.057 1.314 1.703 2.052 2.473 2.771 3.690
28 0.683 0.855 1.056 1.313 1.701 2.048 2.467 2.763 3.674
29 0.683 0.854 1.055 1.311 1.699 2.045 2.462 2.756 3.659
30 0.683 0.854 1.055 1.310 1.697 2.042 2.457 2.750 3.646
35 0.682 0.852 1.052 1.306 1.690 2.030 2.438 2.724 3.592
40 0.681 0.851 1.050 1.303 1.684 2.021 2.423 2.705 3.551
45 0.680 0.850 1.049 1.301 1.679 2.014 2.412 2.690 3.521
50 0.679 0.849 1.047 1.299 1.676 2.009 2.403 2.678 3.497
60 0.679 0.848 1.046 1.296 1.671 2.000 2.390 2.660 3.461
80 0.678 0.846 1.043 1.292 1.664 1.990 2.374 2.639 3.417
100 0.677 0.845 1.042 1.290 1.660 1.984 2.364 2.626 3.391
0.674 0.842 1.036 1.282 1.645 1.960 2.326 2.576 3.291

Tabla de la distribucin t de Student

en ellas aparece el valor de la variable que para los grados de libertad indicados en la
primera columna, deja un rea en las dos colas de valor indicado en la primera fila.

EJEMPLO 3.27:

Si X es una distribucin que sigue una distribucin "t" con 10 grados de


libertad, calcular el valor de la variable, tal que a la izquierda de -2.228 y a la
derecha de 2.228 deja un rea total de 0.05.
193

Solucin:
194

3.2.4 Distribucin "F" de Fisher-


Snedecor
3.2.4.1 Definicin
Supongamos que X e Y sean dos variables aleatorias independientes, que siguen
distribuciones Chi-cuadrado con n y m grados de libertad respectivamente, y tales que

n m
X= ! X 2i e Y= ! Yj2
i=1 j=1

siendo las variables Xi e Yj que siguen distribuciones normal estndar.

Se define la variable F de Snedecor (o de Fisher-Snedecor), la definida por

X
F= Yn
m

denominada distribucin F de Fisher-Snedecor con n y m grados de libertad.

Su funcin de densidad est definida por la funcin:


%!( n + m )( n ) n 2 x 2 #1
n
' 2 m
" si x > 0
fn,m (x) = & !( n )!( m ) (1 + n x)(n+ m) 2
2 2 m
'( 0 si x $ 0

Su representacin grfica es de la siguiente forma:

Figura 3.11: Representacin de la funcin de densidad de la distribucin F de Snedecor


195

3.2.4.2 Propiedades de la distribucin F de Snedecor


1.- El recorrido de la variable F es el intervalo (0,).

2.- Depende de dos parmetros, los grados de libertad n y m.

3.- Presenta asimetra positiva, con un grado que depende conjuntamente de


los grados de libertad del numerador y del denominador.

s2
4.- El cociente 1 2 sigue una distribucin con n1-1 y n2-1 grados de
s2
libertad, siendo s12 y s22 las cuasivarianza muestrales de dos muestras de
tamaos n1 y n2 respectivamente, provenientes de dos poblaciones normales
N(1, 1) y N(2, 2) respectivamente.

Esto es consecuencia de que el teorema de Fisher indica que la variable

(n1 ! 1)s12
"2

sigue una distribucin Chi-cuadrado con n1-1 grados de libertad, y


anlogamente, la variable

(n 2 ! 1)s22
"2
sigue una distribucin Chi-cuadrado con n2-1 grados de libertad. Entonces,
el cociente

( n1 ! 1)s12
(n1 ! 1)" 2
( n2 ! 1)s22
(n 2 ! 1)" 2

sigue una distribucin F de Snedecor con n1-1 y n2-1 grados de libertad, y si


las varianzas poblacionales son iguales, se verifica entonces el resultado
indicado.
196

5.- La distribucin F juega un papel importante en el anlisis de la varianza


(ANOVA) y en el anlisis de la regresin.

3.2.4.3 Utilizacin de las tablas de la distribucin F


de Snedecor
Las tablas de la distribucin F de Snedecor contienen los valores F tales que
P(F>F ) = , para n y m grados de libertad, y para cada nivel de significacin en cada
una de las tablas.

n2\n1 1 2 3 4 5 6 7 8 9 10 20 30 40 60 120
1 161.4 199.5 215.7 224.6 230.2 234.0 236.8 238.9 240.5 241.9 248.0 250.1 251.1 252.2 253.3 254.3
2 18.51 19.00 19.16 19.25 19.30 19.33 19.35 19.37 19.38 19.40 19.45 19.46 19.47 19.48 19.49 19.50
3 10.13 9.55 9.28 9.12 9.01 8.94 6.89 8.85 8.81 8.79 8.66 8.62 8.59 8.57 8.55 8.53
4 7.71 6.94 6.59 6.39 6.26 6.16 6.09 6.04 6.00 5.97 5.80 5.74 5.72 5.69 5.66 5.63
5 6.61 5~79 5.41 5.19 5.05 4.95 4.88 4.82. 4.77 4.73 4.56 4.50 4.46 4.43 4.40 4.36
6 S~99 5.14 4.76 4~53 4.39 4.28 4.21 4.15 4.10 4.06 3.87 3.81 3.77 3.74 3.70 3.67
7 5.59 4.74 4.35 4.12 3.97 3.87 3.79 3.73 3.68 3.64 3.44 3.38 3.34 3.31 3.27 3.23
8 5.32 4.46 4.07 3.84 3.69 3.58 3.50 3.44 3.39 3.35 3.15 3.08 3.04 3.00 2.97 2.93
9 5.12 4.26 3.86 3.63 3.48 3.37 3.29 3.23 3.18 3.14 2.94 2.86 2.83 2.79 2.75 2.71
10 4.96 4.10 3.71 3.48 3.33 3.22 3.14 3.07 3.02 2.98 2.77 2.70 2.66 2.62 2.58 2.54
11 4.84 3.98 3.59 3.36 3.20 3.09 3.01 2.95 2.90 2.85 2.65 2.57 2.53 2.49 2.45 2.40
12 4.75 3.89 3.49 3.26 3.11 3.00 2.91 2.85 2.80 2.75 2.54 2.47 2.43 2.38 2.34 2.30
13 4.67 3.81 3.41 3.18 3.03 2.92 2.83 2.77 2.71 2.67 2.46 2.38 2.34 2.30 2.25 2.21
14 4.60 3.74 3.34 3.11 2.96 2.85 2.76 2.70 2.65 2.60 2.39 2.31 2.27 2.22 2.18 2.13
15 4.54 3.68 3.29 3.06 2.90 2.79 2.71 2.64 2.59 2.54 2.33 2.25 2.20 2.16 2.11 2.07
16 4.49 3.63 3.24 3.01 2.85 2.74 2.66 2.59 2.54 2.49 2.28 2.19 2.15 2.11 2.06 2.01
17 4.45 3.59 3.20 2.96 2.81 2.70 2.61 2.55 2.49 2.45 2.23 2.15 2.10 2.06 2.01 1.96
18 4.41 3.55 3.16 2.93 2.77 2.66 2.58 2.51 2.46 2.41 2.19 2.11 2.06 2.02 1.97 1.92
19 4.38 3.52 3.13 2.90 2.74 2.63 2.54 2.48 2.42 2.38 2.16 2.07 2.03 1.98 1.93 1.88
20 4.35 3.49 3.10 2.87 2.71 2.60 2.51 2.45 2.39 2.35 2.12 2.04 1.99 1.95 1.90 1.84
21 4.32 3.47 3.07 2.84 2.68 2.57 2.49 2.42 2.37 2.32 2.10 2.01 1.96 1.92 1.87 1.81
22 4.30 3.44 3.05 2.82 2.66 2.55 2.46 2.40 2.34 2.30 2.07 1.98 1.94 1.89 1.84 1.78
23 4.28 3.42 3.03 2.80 2.64 2.53 2.44 2.37 2.32 2.27 2.05 1.96 1.91 1.86 1.81 1.76
24 4.26 3.40 3.01 2.78 2.62 2.51 2.42 2.36 2.30 2.25 2.03 1.94 1.89 1.84 1.79 1.73
25 4.24 3.39 2.99 2.76 2.60 2.49 2.40 2.34 2.28 2.24 2.01 1.92 1.87 1.82 1.77 1.71
26 4.23 3.37 2.98 2.74 2.59 2.47 2.39 2.32 2.27 2.22 1.99 1.90 1.85 1.80 1.75 1.69
27 4.21 3.35 2.96 2.73 2.57 2.46 2.37 2.31 2.25 2.20 1.97 1.88 1.84 1.79 1.73 1.67
28 4.20 3.34 2.95 2.71 2.56 2.45 2.36 2.29 2.24 2.19 1.96 1.87 1.82 1.77 1.71 1.65
29 4.18 3.33 2.93 2.70 2.55 2.43 2.35 2.28 2.22 2.18 1.94 1.85 1.81 1.75 1.70 1.64
30 4.17 3.32 2.92 2.69 2.53 2.42 2.33 2.27 2.21 2.16 1.93 1.84 1.79 1.74 1.68 1.62
40 4.08 3.23 2.84 2.61 2.45 2.34 2.25 2.18 2.12 2.08 1.84 1.74 1.69 1.64 1.58 1.51
60 4.00 3.15 2.76 2.53 2.37 2.25 2.17 2.10 2.04 1.99 1.75 1.65 1.59 1.53 1.47 1.39
120 3.92 3.07 2.68 2.45 2.29 2.18 2.09 2.02 1.96 1.91 1.66 1.55 1.50 1.43 1.35 1.25
3.84 3.00 2.60 2.37 2.21 2.10 2.01 1.94 1.88 1.83 1.57 1.46 1.39 1.32 1.22 1.00

Tabla de la distribucin F de Fisher-Snedecor al nivel del 5%

EJEMPLO 3.28:

Calcular F para =0.05, y n=5; m=15 grados de libertad.

Solucin:

Se busca en la tabla correspondiente al nivel del 5%, en la primera fila, los


grados de libertad del numerador (5), y en la primera columna los grados de libertad
del denominador (15), apareciendo el valor de F en la confluencia de dicha fila y
columna:
197

As, se verifica que:


F0.05; 5, 15 = 2.90

EJEMPLO 3.29:

Calcular F para =0.95, y n=15; m=5 grados de libertad.

Solucin:

Teniendo en cuenta la siguiente propiedad

1
F !;n,m =
F1"!;m,n

se verifica que

1 1 1
F0.95;15,5 = = = = 0.345
F1!0.95;5,15 F0.05;5,15 2.90
198

"DISTRIBUCIN NORMAL"

3.3 Ampliacin
199

Obviamente al profesor le bastara con tener en cuenta que la representacin


grfica de la funcin de densidad es una curva simtrica y que el rea bajo la curva es
la unidad, pero entendemos que puede resultarle cmodo disponer de un juego de
ejercicios que contemplen distintos casos de uso frecuente.

El siguiente apartado est redactado de acuerdo a esta idea.

3.3.1 Algunos casos de inters en el


manejo de tablas de la normal
Dada la importancia y el gran uso de la distribucin normal, vamos a analizar en
detalle distintos casos que se suelen presentar a la hora de trabajar con esta distribucin.

PRIMER CASO

Supondremos como primer caso, el ms trivial: calcular la probabilidad de que la


variable aleatoria Z, que sigue una distribucin normal estndar, sea menor o igual que
un valor positivo a.

Basta con buscar en la tabla directamente el valor de a, teniendo en cuenta que en


la primera columna de la tabla aparecen las unidades y las dcimas del valor a y en la
primera fila el valor de las centsimas.

Como interseccin de la fila y la columna correspondiente aparece el valor

P( Z ! a )
200

0 a

Figura 3.12: Representacin grfica de la informacin que nos suministra de manera directa
la tabla de la normal con la que vamos a trabajar: P ( Z ! a )

SEGUNDO CASO: En una distribucin N(0,1) calcular P( Z ! "a ) .

Como segundo caso consideraremos, por ejemplo, calcular la probabilidad de que


la variable aleatoria Z tome valores menores o iguales que una cierta cantidad a
negativa, o sea P( Z ! "a )

La tabla no distingue entre desviaciones positivas y negativas; es decir, en la tabla


slo aparecen valores positivos. Analicemos, pues, geomtricamente la situacin.

Figura 3.13.a: El rea rayada de la curva representa Figura 3.13.b: El rea rayada de la curva
representa P (Z ! " a ) P (Z ! a )

La probabilidad pedida se corresponde con el rea rayada en la figura 3.13a. El rea


rayada en la figura de la izquierda (figura 3.13a) es igual al rea rayada en la figura de
la derecha (figura 3.13b). A su vez, ese rea es igual al rea total, que vale 1, menos el
rea no rayada. El rea de la superficie no rayada en la grfica de la derecha es la que
viene en la tabla.
Por tanto:
201

P( Z ! "a ) = 1 " P( Z ! a )

EJEMPLO 3.30:

Calcular P(Z-2)

Solucin:

P( Z ! "2 ) = P (Z # 2) = 1 " P(Z < 2) = 0.9772

TERCER CASO: En una distribucin N(,!) , calcular P( Z ! a )

Como tercer caso consideraremos la misma situacin que en el caso primero pero
suponiendo ahora, que la variable aleatoria sigue una distribucin normal no estndar,
de parmetros , .

En este caso, hemos de cambiar previamente de escala de medida; es decir, es


x!
preciso tipificar primero la variable. El cambio adecuado es z = y por tanto:
"

$ x " a " & $ a " &


P( X ! a ) = P% ! = P% z !
# # ' # '

encontrndonos, una vez efectuado el cambio, en la misma situacin del primer caso.

EJEMPLO 3.31:

Calcular en una N(2,3) la P(X 2.14):

Solucin:

# x " 2 2.14 " 2 %


P( X ! 2.14) = P$ ! = P( z ! 0.05) = 0.519
3 3 &

Valor que se obtiene directamente de las tablas, como en el caso anterior.


202

CUARTO CASO: En una distribucin N(,!) , obtener P( Z ! "a ) .

Se trata, lo mismo que en el caso anterior de dar solucin a uno de los supuestos
ya vistos, en concreto al supuesto segundo, pero considerando ahora que trabajamos con
una normal no estndar.

Lo primero que tenemos que hacer es tipificar ya que si no, la igualdad anterior no
se verifica, por tanto:

$ x " "a " & $ a " & $ a " &


P( X ! "a ) = P% ! = P z ! " = 1" P z <
# # ' % # ' % # '

EJEMPLO 3.32:

En una N(5,3) calcular P( X ! "8)

Solucin:

# x " 5 "8 " 5% # #


= P$ z ! " %& = 1 " P$ z < %& =
13 13
P( X ! "8) = P$ !
3 3 & 3 3

= 1 ! P(z " 4.33) = 1 ! 0.9999 = 0.0001

QUINTO CASO: En una distribucin N (0,1) calcular P( Z ! a )

Figura 3.14: El rea rayada de la curva representa P ( Z ! a )

Obviamente P( Z ! a ) = 1 " P(Z < a ) .


203

SEXTO CASO: En una distribucin N(,!) Obtener P( X ! a ) :

$ x " a " & $ a"&


P( X ! a ) = P% ! = 1" P z <
# # ' % # '

SPTIMO CASO: En una distribucin N(0,1) calcular P(a ! Z ! b)

Figura 3.15. El rea rayada de la curva representa P ( a ! Z ! b )

Observando el grfico de la figura 3.15 y teniendo en cuenta las propiedades de la


Normal, tenemos:

P(a ! Z ! b) = P( Z ! b) " P(Z < a )

OCTAVO CASO: En una N(,!) obtener P(a ! X ! b)

Si en lugar de trabajar con una N(0,1) trabajsemos con una N(,!) sera preciso,
como en casos anteriores, tipificar. Es decir:

$a " x " b " & $ b " & $ a " &


P(a ! X ! b) = P% ! ! = P z ! " P z <
# # # ' % # ' % # '
204

EJEMPLO 3.33:

En una N(0,1) calcular P(1! X ! 1.85)

Solucin:

P(1! X ! 1.85) = P(X ! 1.85) " P( X < 1) = 0.9678 " 0.8413 = 0.1265

NOVENO CASO: En una N(0,1) calcular P( !a " Z " !b)

Figura 3.16. El rea rayada de la curva representa P ( ! a " Z " ! b)

P( !a " Z " !b) = P(Z " ! b) ! P( Z < !a )

Tal como ya sabemos esto se puede escribir:

P( Z ! "b) " P(Z < "a ) = 1" P( Z < b) " [1 " P(Z ! a )] =
= 1 " P (Z < b ) " 1 + P (Z ! a ) = P ( Z ! a ) " P (Z < b )

EJEMPLO 3.34:

En una N(0,1) calcular P( !2.3 " Z " !1.8)

Solucin:

P( !2.3 " Z " !1.8) = P(Z " !1.8) ! P(Z < !2.3) =
= 1! P( Z < 1.8) ! 1 + P( Z " 2.3) = P( Z " 2.3) ! P( Z < 1.8) =
= 0.9893 ! 0.9641 = 0.0252
205

Si en lugar de estar en una N(0,1) estuvisemos en una N(,!) , hubisemos


seguido el mismo razonamiento pero despus de tipificar.

DCIMO CASO: Clculo del percentil correspondiente a una probabilidad dada.

Puede ocurrir que conocida la probabilidad p, se nos pregunte qu valor de a


verifica que P( X ! a ) = p

Podemos distinguir dos casos:

a) La variable aleatoria sigue una N(0,1):

En este caso, basta buscar en el interior de la tabla el valor ms aproximado a p y


anotar cual es el correspondiente valor de a (en las filas y columnas exteriores de la
tabla)

EJEMPLO 3.35:

Cul es el valor de a para el que P( Z ! a ) = 0.9251 ?

Solucin:
Buscamos dentro de la tabla el valor 0.9251 y vemos que el correspondiente valor
de a es 1.44.

b) La variable aleatoria sigue una normal de parmetros N(,!)

En este caso, hemos de tipificar previamente; es decir, expresar a en la escala


correspondiente a una N(0,1)

EJEMPLO 3.36:

Obtener el valor de a que verifica que P( X ! a ) = 0.8413 en una distribucin


N(5,3)
206

Solucin:

# a " 5%
P( X ! a ) = P$ Z ! = 0.8413
3 &

Buscando esa probabilidad en las tablas obtenemos el valor 1.0; es decir:

a!5
= 1" a = 3 + 5 = 8
3
207

"DISTRIBUCIN NORMAL"

3.4 Trabajo de investigacin


208

3.4.1 Aplicacin del manejo de tablas


de la normal a un ejemplo de
investigacin
Se sabe que el dimetro de los hemates de individuos
normales sigue un modelo N(7.5, 0.2) y que el dimetro de los
hemates de individuos cirrticos sigue un modelo N(8.5 , 0.6).

Supongamos que estamos interesados en clasificar a un


individuo en uno de dos grupos: normal cirrtico en base a una
cierta variable: dimetro de los hemates.

En trabajos reales el estudio se lleva a cabo no slo considerando la informacin


de una variable sino de varias, y la solucin se obtiene a travs de un anlisis
multivariante, pero esto excede el nivel de este trabajo.

Para clasificar correctamente a los individuos necesitaramos conocer cul es el


mximo valor del dimetro de los hemates en individuos normales.

Obviamente ese valor no es conocido ya que slo disponemos de la informacin


de que el valor del dimetro es una cantidad aleatoria que se ajusta a una normal de
parmetros determinados.

Debemos fijar, pues, el valor M para el dimetro como valor mximo de


forma que los individuos con dimetro menor sern clasificados como normales y
aqullos que tengan dimetro mayor sern clasificados como patolgicos

Fijaremos esta cantidad de forma que el 95%, por ejemplo, de los individuos
sanos quede correctamente clasificado, es decir, de forma que slo un 5% de los
individuos sanos tenga un dimetro mayor de esa cantidad M.
209

La situacin podra representarse grficamente de la siguiente manera (figura


3.17):

NORMALES N(7.5; 0.2)

CIRROTICOS N(8.5; 0.6)

0
6.5 7 7.5 8 8.5 9 9.5 10

M=?
Figura 3.17. Representacin grfica de la distribucin del dimetro de los hemates
en individuos sanos y en individuos cirrticos. M ser el punto de corte a partir del cual
el individuo ser clasificado en una o en otra categora.

La cantidad M se calcula de forma que se verifique que P (X ! M ) = 0. 95


teniendo en cuenta que la variable X sigue una ley Normal de media 7.5 y desviacin
tpica 0.2.

El clculo es inmediato:

M / P(X<M) = 0.95 en una N(7.5 , 0.2)

P(X<M) = P(Z < (M-7.5)/0.2) = 0.95

(M-7.5)/0.2= 1.645

M = 7.5 + 1.645 . 0.2 = 7.829

Por tanto: Declararemos enfermo (cirrtico) a todo individuo con dimetro de


los hemates superior a 7.829
210

Debemos tener en cuenta que, segn este convenio de clasificacin, el 5% de los


individuos sanos sern declarados patolgicos errneamente, es decir, el
procedimiento propuesto proporciona un 5% de "falsos positivos". Llamaremos a este
error, por ejemplo error ! .

Teniendo en cuenta que el dimetro de los hemates en individuos cirrticos se


ajusta a una ley Normal de media 8.5 y desviacin 0.6 es evidente que, con este criterio,
algn individuo enfermo puede ser declarado errneamente normal. Llamaremos
a este error , que nos indica el porcentaje de "falsos negativos." Hemos de determinar
qu error cometemos cuando fijamos un riesgo ! del 5%, es decir, cuando
consideramos que el punto de corte para decidirnos en declarar a los individuos en
sanos o en patolgicos es de 7.829.

Para obtener el porcentaje de personas que declararemos como sanas cuando en


realidad son cirrticas basta con determinar en una N (8.5, 0.6) (la de los individuos
cirrticos) la probabilidad de que la variable aleatoria tome valores menores al valor
prefijado como cota.

Es decir:

P(X < 7.829) en una normal N(8.5, 0.6)

P(X < 7.829) = P(Z < (7.829 - 8.5)/0.6) =


P(Z < -1.12) = P(Z> 1.12) = 1 - P(Z<1.12) = 1 - 0.8686
= 0.1314

Observamos como siguiendo el criterio de partida, de prefijar el porcentaje de


falsos positivos en un 5%, obtenemos un 13.14% de malas clasificaciones en individuos
enfermos: El 13.14% de los cirrticos sern declarados normales.

La regla: DECLARAR CIRRTICO a un individuo con dimetro de


hemates superior a 7.829 y NORMAL en caso contrario, da lugar a que:

Un 5% de los normales sern declarados cirrticos (falsos positivos) y


un 13.14% de los cirrticos sern declarados sanos (falsos negativos)
Grficamente la situacin sera (figura 3.18):
211

NORMALES N(7.5; 0.2)

" = 0.1314 ! = 0.05(fijado)

CIRROTICOS N(8.5; 0.6)

0
6.5 7 7.5 8 8.5 9 9.5 10

M = 7.8 29
Figura 3.18: Representacin grfica de la distribucin del dimetro de hemates en las dos poblaciones.
Prefijado queda delimitado el valor de M y el valor de

Al observar esta situacin podramos pensar en ser ms restrictivos y prefijar un


error ms pequeo, por qu no un 1% por ejemplo.

Por qu habramos de arriesgarnos en declarar enfermos a un 5% de los sanos, lo


que socialmente podra tener connotaciones negativas (declaramos cirrticos a
individuos que no lo son), si podemos prefijar este error tan pequeo como queramos.?
Desafortunadamente disminuir el trae consigo aumentar el .

Observemos qu ocurrira si quisiramos disminuir cualquiera de los errores, por


ejemplo qu ocurrira si disminuysemos ?:

Si disminuye, aumenta

En efecto:

Si ! disminuye, por ejemplo ! = 1% , M aumenta.

Veamos como esta afirmacin es cierta. Realizar este clculo es idntico al caso
anterior slo que ahora la regla de decisin es distinta:
212

Buscamos un M' (dimetro de las hemates) que slo lo superan un 1% de


individuos normales. Se trata de localizar en una N(7.5, 0.2) un valor de la variable que
verifique que el 1% es mayor que l, o lo que es lo mismo un 99% de los individuos
tenga el dimetro de los hemates menor que dicho valor.

Sea M / P(X<M)=0.99 en una N(7.5 , 0.2)

P(X<M) = P(Z < (M-7.5)/0.2) = 0.99

(M-7.5)/0.2 = 2.33

M = 7.5 + 2.33 x 0.2 = 7.966

Observamos que segn este criterio el valor de corte es ahora mayor M> M

Hemos conseguido disminuir el porcentaje de falsos positivos pero cmo saber


cmo se ha modificado el ! .
Se trata de buscar en la normal de los cirrticos la probabilidad de encontrarnos
valores menores que 7.966

P(X < 7.966) = P(Z < (7.966-8.5)/0.6) = 0.1867

El 18.67% de los cirrticos sern declarados normales.

Luego:
Si el porcentaje de falsos positivos disminuye hasta el 1%, el porcentaje de falsos
negativos sobrepasa el 18%.

Nos interesa prefijar los errores pequeos, obviamente a nadie le gusta


asumir riesgos grandes, pero hay que tener cuidado al prefijar los riesgos ya
que ambos tipos de errores estn claramente relacionados y disminuir uno de
ellos trae consigo aumentar el otro considerablemente.

También podría gustarte